Il 78% dei canali degli editori scientifici su Telegram sono falsi

  • Quasi otto canali Telegram su dieci che utilizzano nomi di editori scientifici sono fraudolenti.
  • Lo studio dell'Università di Granada ha analizzato 37 canali collegati a 13 importanti editori internazionali.
  • ChatGPT e DeepSeek sono stati utilizzati per individuare i canali falsi, sebbene presentassero delle limitazioni nella convalida di quelli autentici.
  • I ricercatori chiedono una maggiore presenza verificata degli editori e sistemi di monitoraggio ibridi con intelligenza artificiale e revisione umana.

Canali falsi di editori scientifici su Telegram

La piattaforma di messaggistica Telegram è diventata una delle principali vetrine per la condivisione di articoli, libri e notizie scientifiche, ma anche uno spazio in cui proliferano [temi non specificati]. imitazioni di editori accademici di alto livelloUno studio condotto in Spagna ha fornito cifre molto chiare su un problema che molti sospettavano, ma che era stato scarsamente quantificato in modo rigoroso.

Secondo questa ricerca, guidata dall' Università di Granada (UGR)Quasi otto canali Telegram su dieci che operano sotto il nome di importanti editori scientifici internazionali non sono ufficiali. Nello specifico, è stato rilevato che circa Il 78% dei canali attribuiti a questi editori sono falsi, una percentuale particolarmente preoccupante in un contesto europeo segnato dalla lotta alla disinformazione scientifica.

La proliferazione di bufale e contenuti dubbi mascherati da contenuti accademici continua a crescere e questo lavoro offre una possibile spiegazione: Telegram ospita un Una rete ampia e organizzata di canali che si spacciano per editori scientifici per distribuire materiale non autorizzato, offrire presunti servizi editoriali e sfruttare la reputazione di istituzioni prestigiose. La Spagna, in quanto parte dell'ecosistema scientifico europeo, non è immune agli effetti di questo fenomeno.

YouTube chiude i canali con video generati dall'intelligenza artificiale
Articolo correlato:
YouTube chiude due importanti canali per l'utilizzo di trailer falsi generati dall'intelligenza artificiale

Gli autori dello studio sostengono che questo ambiente su Telegram non è un caso isolato, ma piuttosto un sintomo di una mancanza di presenza ufficiale e verificata da parte degli editori stessiQuesta lacuna consente agli autori di attacchi informatici di posizionarsi in prima linea nella comunicazione scientifica sulla piattaforma, influenzando il numero di utenti che accedono a libri e articoli.

Una mappa delle frodi nei canali degli editori scientifici

studio sulle frodi nei canali scientifici

Il lavoro è stato eseguito da Unità di Scienze Umanistiche e Sociali Computazionali (U-CHASS) dell'Università di Granada. I ricercatori Victor Herrero Solana e Carlos Castro Castro Si sono prefissati di analizzare l'ecosistema dei canali Telegram che si presentano come collegati a grandi editori accademici e di misurare in che misura tale collegamento sia reale.

Per fare questo, hanno selezionato 13 principali editori scientifici internazionaliTra questi ci sono editori noti come Elsevier, Springer, Wiley-Blackwell, Nature e Cambridge University Press. La selezione è stata fatta tenendo conto della loro peso sul portale SCImago, uno degli indici più utilizzati per valutare la produzione scientifica globale.

Una volta stilato l'elenco degli editori, i ricercatori li hanno individuati su Telegram. 37 canali che potrebbero essere associati a questi marchisia attraverso l'uso del nome, del logo o di riferimenti diretti alle loro collezioni e pubblicazioni. L'obiettivo era duplice: da un lato, verificare se questi canali avessero un rapporto ufficiale con gli editori; dall'altro, identificare modelli di comportamento tra coloro che si rivelavano fraudolenti.

I risultati sono stati chiari. Dei 37 canali analizzati, solo Otto sono stati confermati come autentici e direttamente collegati alle case editriciCioè, solo il 21,62% dei canali si è rivelato legittimo, rispetto a un Il 78,38% dei canali falsi ha utilizzato l'identità di queste istituzioni senza autorizzazioneIn pratica, un utente che cerca un canale Telegram "ufficiale" ha molte più probabilità di finire in uno spazio fraudolento che in uno reale.

Lo studio è stato pubblicato sulla rivista accademica "IDB: Testi universitari di biblioteconomia e scienza dell'informazione"Nel numero di dicembre 2025, intitolato "I principali redattori scientifici nei canali Telegram: un approccio per rilevare i canali falsi con ChatGPT e DeepSeek", la ricerca descrive oltre ai numeri un ecosistema profondamente distorto che presenta rischi sia per la comunità scientifica che per i lettori e gli studenti.

Uno studio pionieristico che utilizza ChatGPT e DeepSeek

utilizzo dell'intelligenza artificiale per rilevare le frodi

Uno degli aspetti più innovativi dell'opera è l' metodologia basata sull'intelligenza artificialeI ricercatori dell'Università di Granada hanno sperimentato per primi l'uso di Modelli linguistici (LLM) come ChatGPT e DeepSeek per aiutare a determinare se i canali analizzati fossero ufficiali o meno, combinando le loro capacità analitiche con una successiva revisione umana.

Il disegno della ricerca è stato strutturato come un studio di casi multipliPer ciascuno dei 37 canali identificati, un prompt standardizzato che è stato inviato sia a ChatGPT che a DeepSeek, attivando il funzione di ricerca web di questi modelli. L'idea era che l'IA potesse verificare, in tempo reale, l'esistenza di link a pagine aziendali, account verificati e altri segni di autenticità.

La missione dei modelli era quella di valutare la probabilità che ogni canale fosse ufficiale, sulla base di indicatori quali la coerenza tra i contenuti e la linea editoriale del brand, la presenza di link affidabili ai siti web istituzionali, l'esistenza di loghi e nomi corretti o il riferimento a politiche editoriali riconoscibili.

Una volta ottenute le classifiche ChatGPT e DeepSeek, il team UGR ha effettuato un verifica manuale indipendenteche fungeva da verità di base. In altre parole, l'IA non aveva l'ultima parola: i ricercatori confrontavano le proprie ricerche e verifiche con le risposte dei modelli per determinare se ciascun canale fosse autentico o falso.

Questo approccio ha permesso di dimostrare che gli LLM possono essere strumenti utili per lo screening iniziale su larga scala, come dimostrato anche da Chiusure dei canali a causa di trailer AI falsisoprattutto su piattaforme con migliaia di canali e un volume di informazioni difficile da gestire in modo puramente manuale. Tuttavia, ha anche chiarito che, a partire da oggi, Non possono sostituire completamente il giudizio degli esperti quando si tratta di convalidare resoconti sensibili come quelli degli editori scientifici.

Come funzionano i canali falsi su Telegram

L'analisi dettagliata dei 37 canali ha permesso di ricostruire un modello abbastanza omogeneo su Come agiscono su Telegram coloro che si spacciano per editori scientifici?La pratica più comune è la distribuzione di massa di libri, manuali e articoli in formato digitale senza autorizzazione, con la promessa di un accesso gratuito o di download diretti a titoli che in realtà sono protetti da copyright.

Insieme a questa circolazione non autorizzata di contenuti, molti dei canali fraudolenti offrono servizi editoriali poco credibilicome la pubblicazione di articoli su riviste ad alto impatto in tempi molto brevi o la garanzia dell'accettazione di articoli senza un processo standard di revisione paritaria. Questo tipo di affermazione è particolarmente pericolosa per ricercatori alle prime armi, dottorandi e professionisti con poca esperienza nel circuito dell'editoria accademica.

I ricercatori hanno anche rilevato un uso ricorrente di linguaggio estremamente promozionaleI messaggi ricordano più le aggressive campagne di marketing che la sobria comunicazione tipica degli editori scientifici. Abbondano promesse di sconti, "offerte speciali" e vantaggi irrealistici, il che è stridente se confrontato con il modo in cui il settore accademico comunica abitualmente.

In alcuni casi, i canali falsi utilizzano loghi degli editori, nomi di raccolte o link abbreviati che conferiscono un'apparenza di legittimità. A prima vista, per un utente che non ha familiarità con il funzionamento interno di queste istituzioni, la presentazione può sembrare convincente, soprattutto se il canale raccoglie notizie, annunci e documenti che mescolano materiale reale con contenuti di dubbia provenienza.

Tutto questo quadro genera quello che lo studio descrive come un ecosistema distorto all'interno di Telegramdove la presenza di canali non ufficiali supera di gran lunga quella di account realmente collegati agli editori. In pratica, questo si traduce in gravi rischi per l'integrità accademica e la proprietà intellettualeSi tratta di un problema sia in Spagna che in tutta Europa, poiché facilita la circolazione di opere pirata e offerte ingannevoli che danneggiano autori, istituzioni e lettori.

Cosa fa bene l'intelligenza artificiale e cosa sbaglia?

Per quanto riguarda le prestazioni dei modelli, lo studio indica che entrambi ChatGPT e DeepSeek dimostrano un'elevata efficacia nel rilevare canali palesemente falsi.Quando l'impersonificazione è evidente (assenza totale di link ufficiali, promesse improbabili, contenuti apertamente piratati), entrambi i sistemi tendono a concordare nella loro diagnosi e a classificare i canali come illegittimi.

Tuttavia, la ricerca rivela anche che limitazioni strutturali di questi modelli nel confermare l'autenticità dei canali realiI casi che hanno generato maggiori difficoltà sono stati quelli in cui il canale sembrava essere collegato a un editore, ma mancava segnali di verifica forti, come il segno di spunta blu su Telegram o link chiari a pagine istituzionali facilmente verificabili.

I modelli non si sono comportati in modo identico. Secondo lo studio, DeepSeek tendeva a dare più peso alla coerenza contestuale del contenutoIn altre parole, se il tipo di pubblicazioni, il tono dei messaggi e la struttura del canale fossero coerenti con quanto ci si aspetterebbe da un editore scientifico affermato. Questo approccio si è concentrato sul modo in cui il canale comunicava quotidianamente.

D'altro canto, ChatGPT ha dato priorità alla verifica formale delle affiliazioni istituzionaliIn pratica, ciò significava porre maggiore enfasi sulla presenza del canale sui siti web aziendali, sull'esistenza di menzioni verificate o sul suo collegamento ad altri account riconosciuti. Quando questi elementi non erano chiari, il modello mostrava maggiore cautela o dubbi riguardo all'autenticità.

Lo studio conclude che questi approcci complementari sono preziosi per eseguire il filtraggio iniziale in ambienti saturi di informazionima sottolinea che il L'affidabilità dell'IA come rilevatore autonomo per gli utenti senza una formazione specifica è ancora limitata.Gli autori raccomandano di utilizzare questi modelli come parte di sistemi ibridi in cui l'analisi automatizzata fornisce supporto, ma la conferma finale spetta ai professionisti esperti in documentazione e editing scientifico.

Distorsioni nelle fonti ed egemonia dei contenuti in inglese

Oltre a misurare le frodi, l'indagine si è concentrata sull'esame Quali fonti consultano ChatGPT e DeepSeek per corroborare le loro risposte?Una delle scoperte più sorprendenti è stata la presenza dominante di Riferimenti occidentali rispetto ad altre aree geograficheanche nel caso di DeepSeek, che si potrebbe supporre sia più vicino alle fonti asiatiche.

Questo squilibrio riflette la egemonia dei contenuti in inglese sul websoprattutto quando si tratta di informazioni scientifiche e accademiche. Poiché sono principalmente formati su dati per lo più in quella lingua, i modelli tendono a riprodurre quella distribuzione nelle loro ricerche e argomentazioni, il che genera un pregiudizio strutturale quando devono valutare fonti provenienti da altri contesti linguistici.

In pratica, questa distorsione può complicare l' valutazione dei canali collegati agli editori non occidentalii cui siti web, sistemi di verifica o stili di comunicazione potrebbero non essere in linea con i modelli prevalenti nel mondo anglosassone. Di conseguenza, alcuni canali legittimi potrebbero essere avvolti da maggiore incertezza o sospetto rispetto alle loro controparti occidentali.

Gli autori del documento sostengono che questo aspetto dovrebbe essere preso in considerazione quando progettare strumenti di monitoraggio globale basati sull'intelligenza artificialeCiò è particolarmente vero in Europa, dove coesistono istituzioni scientifiche con background molto diversi. Se questi pregiudizi non vengono corretti, si rischia di rafforzare le disuguaglianze di visibilità e riconoscimento tra gli editori in base al loro Paese o alla lingua di origine.

Come direzione futura, lo studio propone modelli di treni con corpora più bilanciati e diversificatinonché adeguare i criteri di valutazione per riflettere meglio la diversità del sistema accademico internazionale. Altrimenti, la stessa tecnologia progettata per combattere la disinformazione potrebbe finire per riprodurre modelli involontari di esclusione.

Un ambiente ad alto rischio per l’integrità accademica

Con tutti questi elementi, i ricercatori descrivono l'universo dei canali Telegram legati agli editori scientifici come un ambiente ad alto rischio per l'integrità accademica e la proprietà intellettualeLa stragrande maggioranza dei canali falsi, rispetto al numero esiguo di account autentici, rende difficile per l'utente medio distinguere a colpo d'occhio quali fonti siano affidabili.

Tra i rischi individuati, spiccano i seguenti: diffusione incontrollata di materiale scientificoCiò non solo viola il diritto d'autore, ma può anche facilitare la circolazione di versioni più vecchie, incomplete o alterate di articoli e libri. Questo tipo di circolazione non regolamentata può avere un impatto sul modo in cui studenti, insegnanti e ricercatori in Europa consultano e citano la letteratura scientifica.

Un altro pericolo rilevante è quello di servizi di pubblicazione fraudolentiQueste pratiche erodono la fiducia nel sistema editoriale accademico. Chi cade vittima di questi canali rischia di pagare per processi inesistenti, di vedere il proprio lavoro associato a pratiche non etiche o di compromettere la propria reputazione professionale, un aspetto particolarmente delicato all'inizio di una carriera di ricerca.

Lo studio parla di una vera e propria paradosso istituzionaleMentre Telegram rappresenta uno strumento con un grande potenziale per una rigorosa divulgazione scientifica, coinvolgimento diretto limitato di molti editori nella piattaforma Ciò crea un vuoto che gli imitatori sfruttano senza troppa resistenza. In assenza di canali ufficiali chiaramente identificabili, gli utenti finiscono per ricorrere ad alternative che, in molti casi, non sono ciò che sembrano.

Nel contesto europeo, dove la lotta contro disinformazione e bufale scientifiche Sebbene questa sia diventata una priorità politica e normativa, la situazione descritta su Telegram presenta un'ulteriore sfida. La facilità con cui i canali possono essere creati e moltiplicati fa sì che il problema possa diffondersi rapidamente, costringendo istituzioni, biblioteche e organismi di regolamentazione a sviluppare nuove strategie di monitoraggio e risposta.

Verso sistemi di sorveglianza ibridi e nuove linee di ricerca

Dato questo scenario, i ricercatori dell'Università di Granada sostengono lo sviluppo di sistemi ibridi di rilevamento e monitoraggio che combinano le capacità dell'intelligenza artificiale con la revisione umana esperta. L'idea è di sfruttare l' scala di analisi dei modelli linguistici per monitorare grandi volumi di canali e messaggi, ma lasciando la decisione finale nelle mani di team di esperti.

In questo schema, l'IA agirebbe come strumento di mappatura inizialeCiò comporta l'identificazione di nuovi canali sospetti, modelli di frode ricorrenti o reti di account che riutilizzano nomi e loghi di editori affidabili. Da lì, documentalisti, bibliotecari e personale editoriale potrebbero esaminare i casi identificati e intervenire, segnalandoli alla piattaforma, avvisando gli utenti o rafforzando la propria presenza ufficiale.

Lo studio evidenzia anche la possibilità di estendere questa metodologia ad altri ambiti della disinformazione Questi problemi sono molto diffusi su Telegram, come la diffusione di fake news scientifiche, teorie del complotto sulla salute e contenuti politici manipolati. Questo approccio è in linea con le priorità di molte istituzioni europee interessate a disporre di strumenti proattivi per individuare e bloccare le campagne di disinformazione prima che diventino virali.

L'integrazione progressiva di funzioni avanzate di analisi testuale e contestuale nei modelli linguistici apre le porte a sistemi di monitoraggio proattivo in grado di emettere allerte tempestive sull'emergere di nuove reti di canali falsi. Questi avvisi potrebbero essere utili per editori, università ed enti pubblici che desiderano proteggere la comunicazione scientifica e mantenere standard di qualità nelle informazioni che raggiungono il pubblico.

Allo stesso tempo, gli autori sottolineano la necessità di Gli editori scientifici stessi dovrebbero rafforzare la loro presenza verificata su Telegram e su altre piattaforme simili. Avere canali ufficiali chiaramente identificati, politiche di comunicazione trasparenti e messaggi coerenti aiuterebbe gli utenti a distinguere più facilmente le fonti legittime e ridurrebbe la possibilità di impersonificazioni.

Il lavoro svolto presso l'Università di Granada chiarisce che il fatto che Oltre il 78% dei canali degli editori scientifici su Telegram sono falsi. Non si tratta di un problema marginale, ma di un fenomeno strutturale che influenza il modo in cui le informazioni accademiche circolano online. Per affrontarlo è necessario combinare tecnologia, giudizio degli esperti e un maggiore coinvolgimento istituzionale per recuperare terreno in un canale di comunicazione in cui, per il momento, gli attori fraudolenti operano con troppa facilità.


Serrature di Telegram
Si può essere interessati:
Tutto sui blocchi in Telegram
Seguici su Google News