78 % des chaînes Telegram d'éditeurs scientifiques sont fausses.

  • Près de huit chaînes Telegram sur dix utilisant le nom d'éditeurs scientifiques sont frauduleuses.
  • L'étude menée par l'Université de Grenade a analysé 37 chaînes liées à 13 grands éditeurs internationaux.
  • ChatGPT et DeepSeek ont ​​été utilisés pour aider à détecter les faux canaux, bien qu'ils aient des limitations dans la validation des canaux authentiques.
  • Les chercheurs réclament une présence vérifiée accrue des éditeurs et des systèmes de surveillance hybrides combinant intelligence artificielle et évaluation humaine.

Faux canaux d'éditeurs scientifiques sur Telegram

La plateforme de messagerie Telegram est devenue l'une des principales vitrines pour le partage d'articles, de livres et d'actualités scientifiques, mais aussi un espace où prolifèrent [des problèmes non spécifiés]. usurpations d'identité d'éditeurs universitaires de premier planUne étude menée en Espagne a chiffré très clairement un problème que beaucoup soupçonnaient, mais qui avait rarement été rigoureusement quantifié.

Selon cette recherche, motivée par Université de Grenade (UGR)Près de huit chaînes Telegram sur dix qui opèrent sous le nom de grands éditeurs scientifiques internationaux ne sont pas officielles. Plus précisément, il a été constaté qu'environ 78 % des chaînes attribuées à ces éditeurs sont fausses., un pourcentage particulièrement inquiétant dans un contexte européen marqué par la lutte contre la désinformation scientifique.

La prolifération de canulars et de contenus douteux déguisés en contenus académiques ne cesse de croître, et ce travail propose une explication possible : Telegram héberge un Un vaste réseau organisé de chaînes se faisant passer pour des éditeurs scientifiques Diffuser des documents non autorisés, proposer de faux services d'édition et exploiter la réputation d'institutions prestigieuses : tels sont les agissements de l'Espagne, qui, en tant que membre de l'écosystème scientifique européen, n'échappe pas à ce phénomène.

YouTube ferme des chaînes avec des vidéos générées par l'IA
Article connexe:
YouTube ferme deux chaînes importantes pour utilisation de fausses bandes-annonces générées par IA.

Les auteurs de l'étude affirment que cet environnement sur Telegram n'est pas un cas isolé, mais plutôt un symptôme d'un phénomène plus général. absence de présence officielle et vérifiée des éditeurs eux-mêmesCette faille permet à des acteurs malveillants de se positionner à l'avant-garde de la communication scientifique sur la plateforme, influençant ainsi le nombre d'utilisateurs qui accèdent aux livres et aux articles.

Cartographie des fraudes dans les circuits de publication scientifique

étude sur la fraude dans les circuits scientifiques

Les travaux ont été réalisés par Unité de sciences humaines et sociales computationnelles (U-CHASS) de l'Université de Grenade. Les chercheurs Víctor Herrero Solana et Carlos Castro Castro Ils ont entrepris d'analyser l'écosystème des chaînes Telegram qui se présentent comme liées à de grands éditeurs universitaires et de mesurer dans quelle mesure ce lien est réel.

Pour ce faire, ils ont sélectionné 13 éditeurs scientifiques internationaux de premier planParmi eux figurent des éditeurs aussi réputés qu'Elsevier, Springer, Wiley-Blackwell, Nature et Cambridge University Press. La sélection a été effectuée en tenant compte de leur poids sur le portail SCImago, l'un des indices les plus utilisés pour évaluer la production scientifique mondiale.

Une fois la liste des éditeurs établie, les chercheurs les ont localisés sur Telegram. 37 chaînes qui pourraient être associées à ces marquesQue ce soit par l’utilisation du nom, du logo ou par des références directes à leurs collections et publications, l’objectif était double : d’une part, vérifier si ces plateformes entretenaient une relation officielle avec les éditeurs ; d’autre part, identifier les schémas de comportement chez celles qui se sont révélées frauduleuses.

Les résultats étaient clairs. Sur les 37 canaux analysés, seul Huit d'entre elles ont été authentifiées et directement liées aux maisons d'édition.Autrement dit, seulement 21,62 % des chaînes se sont avérées légitimes, contre un 78,38 % des chaînes frauduleuses ont utilisé l'identité de ces institutions sans autorisation.En pratique, un utilisateur à la recherche d'un canal Telegram « officiel » a beaucoup plus de chances de se retrouver sur un site frauduleux que sur un canal authentique.

L'étude a été publiée dans une revue scientifique. « IDB : Textes universitaires sur les sciences de l'information et des bibliothèques »Dans son numéro de décembre 2025, sous le titre « Principaux rédacteurs scientifiques dans les chaînes Telegram : une approche pour détecter les fausses chaînes avec ChatGPT et DeepSeek », l’étude décrit, au-delà des chiffres, une méthode de détection des fausses chaînes. écosystème profondément perturbé ce qui représente un risque tant pour la communauté scientifique que pour les lecteurs et les étudiants.

Une étude pionnière utilisant ChatGPT et DeepSeek

utilisation de l'intelligence artificielle pour détecter la fraude

L'un des aspects les plus novateurs de ce travail est le méthodologie basée sur l'intelligence artificielleDes chercheurs de l'Université de Grenade ont été les pionniers dans l'utilisation de Les modèles de langage (LLM) tels que ChatGPT et DeepSeek pour déterminer si les chaînes analysées étaient officielles ou non, en combinant leurs capacités analytiques avec un examen humain ultérieur.

Le plan de recherche était structuré comme un étude de cas multiplesPour chacun des 37 canaux identifiés, un invite standardisée qui a été envoyé à la fois à ChatGPT et à DeepSeek, activant ainsi le fonction de recherche Web de ces modèles. L'idée était que l'IA puisse vérifier, en temps réel, l'existence de liens vers des pages d'entreprise, des comptes vérifiés et d'autres signes d'authenticité.

La mission des mannequins était de Évaluer la probabilité que chaque chaîne soit officielle, sur la base d'indicateurs tels que la cohérence entre le contenu et la ligne éditoriale de la marque, la présence de liens fiables vers des sites web institutionnels, l'existence de logos et de noms corrects, ou la référence à des politiques éditoriales reconnaissables.

Une fois les classements ChatGPT et DeepSeek obtenus, l'équipe UGR a procédé à un vérification manuelle indépendantequi a servi de référence. Autrement dit, l'IA n'avait pas le dernier mot : les chercheurs ont comparé leurs propres recherches et vérifications avec les réponses des modèles pour déterminer si chaque chaîne était authentique ou non.

Cette approche a permis de démontrer que les LLM peuvent être outils utiles pour le dépistage initial à grande échelle, comme le démontre également Fermetures de chaînes en raison de fausses bandes-annonces d'IAnotamment sur les plateformes comptant des milliers de chaînes et un volume d'informations difficile à gérer manuellement. Cependant, il a également précisé qu'à ce jour, Ils ne peuvent pas remplacer complètement le jugement d'experts lorsqu'il s'agit de valider des comptes sensibles tels que ceux des éditeurs scientifiques.

Comment fonctionnent les faux canaux sur Telegram

L'analyse détaillée des 37 canaux a permis la reconstruction d'un motif relativement homogène sur Comment opèrent sur Telegram ceux qui se font passer pour des éditeurs scientifiques ?La pratique la plus courante est la distribution en masse de livres, manuels et articles au format numérique sans autorisation, sous la promesse d'un accès gratuit ou de téléchargements directs à des titres qui sont en réalité protégés par le droit d'auteur.

Parallèlement à cette diffusion non autorisée de contenu, de nombreuses chaînes frauduleuses proposent des services éditoriaux à peine crédiblescomme la publication d'articles dans des revues à fort impact dans des délais très courts ou la garantie de l'acceptation d'articles sans processus d'évaluation par les pairs standard. Ce type d'affirmation est particulièrement dangereux pour chercheurs novices, doctorants et professionnels ayant peu d'expérience dans le circuit de l'édition universitaire.

Les chercheurs ont également détecté une utilisation récurrente de langage extrêmement promotionnelCes messages évoquent davantage des campagnes marketing agressives que la communication sobre habituelle des éditeurs scientifiques. Promesses de réductions, « offres spéciales » et avantages irréalistes y abondent, ce qui détonne avec le mode de communication habituel du secteur académique.

Dans certains cas, les fausses chaînes utilisent logos d'éditeurs, noms de collections ou liens raccourcis qui leur confèrent une apparence de légitimité. À première vue, pour un utilisateur ignorant du fonctionnement interne de ces institutions, la présentation peut sembler convaincante, surtout si la chaîne compile des actualités, des annonces et des documents mêlant informations authentiques et contenus d'origine douteuse.

L'ensemble de ce cadre génère ce que l'étude décrit comme un écosystème déformé au sein de Telegramoù la présence de canaux non officiels dépasse largement celle des comptes réellement liés aux éditeurs. En pratique, cela se traduit par risques graves pour l'intégrité académique et la propriété intellectuelleC’est un problème qui se pose aussi bien en Espagne que dans toute l’Europe, car il facilite la circulation d’œuvres piratées et d’offres trompeuses qui affectent les auteurs, les institutions et les lecteurs.

Quels sont les points forts et les points faibles de l'intelligence artificielle ?

Concernant les performances des modèles, l'étude indique que les deux ChatGPT et DeepSeek se révèlent très efficaces pour détecter les chaînes manifestement fausses.Lorsque l'usurpation d'identité est flagrante (absence totale de liens officiels, promesses invraisemblables, contenu ouvertement piraté), les deux systèmes tendent à s'accorder sur leur diagnostic et à classer les chaînes comme illégitimes.

Cependant, la recherche révèle également que limitations structurelles de ces modèles pour confirmer l'authenticité des canaux réelsLes cas qui ont posé le plus de difficultés étaient ceux où la chaîne semblait liée à un éditeur, mais ne l'était pas. signaux de vérification forts, comme la coche bleue sur Telegram ou des liens clairs vers des pages institutionnelles facilement vérifiables.

Les modèles n'ont pas eu un comportement identique. Selon l'étude, DeepSeek avait tendance à accorder plus d'importance à la cohérence contextuelle du contenu.Autrement dit, il s'agissait de vérifier si le type de publications, le ton des messages et la structure du canal correspondaient aux attentes d'un éditeur scientifique reconnu. Cette approche s'est concentrée sur la communication quotidienne du canal.

Pour sa part, ChatGPT a donné la priorité à la vérification formelle des affiliations institutionnelles.Concrètement, cela impliquait de privilégier la présence du canal sur les sites web d'entreprises, l'existence de mentions vérifiées ou son lien avec d'autres comptes reconnus. En cas d'incertitude quant à ces éléments, le modèle se montrait plus prudent, voire sceptique, quant à son authenticité.

L'étude conclut que ces approches complémentaires sont précieuses pour effectuer un filtrage initial dans des environnements saturés d'informationsmais souligne que le La fiabilité de l'IA en tant que détecteur autonome pour les utilisateurs sans formation spécifique reste limitée.Les auteurs recommandent d'utiliser ces modèles dans le cadre de systèmes hybrides où l'analyse automatisée apporte un soutien, mais où la confirmation finale revient à des professionnels expérimentés en documentation et en édition scientifiques.

Biais dans les sources et hégémonie du contenu anglais

Outre la mesure de la fraude, l'enquête s'est concentrée sur l'examen Quelles sont les sources consultées par ChatGPT et DeepSeek pour étayer leurs réponses ?L'une des conclusions les plus frappantes a été la présence dominante de Références occidentales par rapport à d'autres zones géographiquesmême dans le cas de DeepSeek, que l'on pourrait supposer plus proche des sources asiatiques.

Ce déséquilibre reflète le hégémonie du contenu anglais sur le webnotamment en ce qui concerne l'information scientifique et académique. Étant donné qu'ils sont principalement entraînés sur des données rédigées majoritairement dans cette langue, les modèles tendent à reproduire cette distribution dans leurs recherches et leurs raisonnements, ce qui génère un biais structurel lorsqu'ils ont besoin d'évaluer des sources provenant d'autres contextes linguistiques.

En pratique, ce biais peut compliquer évaluation des chaînes liées à des éditeurs non occidentauxdont les sites web, les systèmes de vérification ou les styles de communication peuvent ne pas correspondre aux pratiques courantes du monde anglo-saxon. De ce fait, certains canaux légitimes peuvent susciter davantage d'incertitude ou de suspicion que leurs homologues occidentaux.

Les auteurs de l'article soutiennent que cet aspect devrait être pris en compte lorsque concevoir des outils de surveillance mondiale basés sur l'IACela est particulièrement vrai en Europe, où coexistent des institutions scientifiques d'horizons très divers. Si ces biais ne sont pas corrigés, on risque de renforcer les inégalités de visibilité et de reconnaissance entre les éditeurs en fonction de leur pays ou de leur langue d'origine.

Pour les perspectives futures, l'étude propose Les modèles d'entraînement utilisent des corpus plus équilibrés et diversifiés.Il convient également d'adapter les critères d'évaluation afin de mieux refléter la diversité du système universitaire international. Autrement, la technologie même conçue pour lutter contre la désinformation pourrait finir par reproduire involontairement des schémas d'exclusion.

Un environnement à haut risque pour l'intégrité académique

Avec tous ces éléments, les chercheurs décrivent l'univers des chaînes Telegram liées aux éditeurs scientifiques comme un environnement à haut risque pour l'intégrité académique et la propriété intellectuelleLa grande majorité des faux comptes, comparée au petit nombre de comptes authentiques, rend difficile pour l'utilisateur moyen de distinguer d'un coup d'œil les sources fiables.

Parmi les risques identifiés, les suivants se distinguent : diffusion incontrôlée de matériel scientifiqueCela constitue non seulement une violation du droit d'auteur, mais peut également faciliter la diffusion de versions anciennes, incomplètes ou altérées d'articles et d'ouvrages. Ce type de diffusion non réglementée peut avoir des conséquences sur la manière dont les étudiants, les enseignants et les chercheurs en Europe consultent et citent la littérature scientifique.

Un autre danger pertinent est celui de services d'édition frauduleuxCes pratiques érodent la confiance dans le système de publication scientifique. Ceux qui tombent dans ces pièges risquent de payer pour des processus inexistants, de voir leurs travaux associés à des pratiques contraires à l'éthique, ou de compromettre leur réputation professionnelle – un enjeu particulièrement délicat en début de carrière.

L'étude parle d'une véritable Paradoxe institutionnelBien que Telegram représente un outil doté d'un grand potentiel pour la diffusion scientifique rigoureuse, implication directe limitée de nombreux éditeurs dans la plateforme Cela crée une faille que les usurpateurs exploitent sans difficulté. En l'absence de canaux officiels clairement identifiables, les utilisateurs finissent par recourir à des alternatives qui, bien souvent, ne sont pas ce qu'elles prétendent être.

Dans le contexte européen, où la lutte contre désinformation et canulars scientifiques Bien que cette question soit devenue une priorité politique et réglementaire, la situation décrite sur Telegram pose un défi supplémentaire. La facilité avec laquelle des chaînes peuvent être créées et multipliées signifie que le problème peut se propager rapidement, obligeant les institutions, les bibliothèques et les organismes de réglementation à élaborer de nouvelles stratégies de surveillance et de réponse.

Vers des systèmes de surveillance hybrides et de nouvelles pistes de recherche

Face à ce constat, des chercheurs de l'Université de Grenade préconisent le développement de systèmes hybrides de détection et de surveillance qui combinent les capacités de l'intelligence artificielle avec l'expertise humaine. L'idée est de tirer parti de échelle d'analyse des modèles de langage pour suivre de grands volumes de canaux et de messages, tout en laissant la décision finale entre les mains d'équipes d'experts.

Dans ce schéma, l'IA agirait comme outil de cartographie initialeCela implique d'identifier les nouveaux canaux suspects, les schémas de fraude récurrents ou les réseaux de comptes qui réutilisent les noms et logos d'éditeurs réputés. À partir de là, les documentalistes, les bibliothécaires et le personnel des maisons d'édition pourraient examiner les cas identifiés et prendre des mesures, soit en les signalant à la plateforme, soit en avertissant les utilisateurs, soit en renforçant leur propre présence officielle.

L'étude souligne également la possibilité de étendre cette méthodologie à d'autres domaines de la désinformation Ces problèmes sont fréquents sur Telegram, notamment la diffusion de fausses informations scientifiques, de théories du complot sur la santé et de contenus politiques manipulés. Cette approche correspond aux priorités de nombreuses institutions européennes qui souhaitent disposer d'outils proactifs pour détecter et stopper les campagnes de désinformation avant qu'elles ne deviennent virales.

L'intégration progressive de fonctions avancées d'analyse textuelle et contextuelle dans les modèles de langage ouvre la voie à systèmes de surveillance proactive Capable de détecter rapidement l'apparition de nouveaux réseaux de fausses chaînes, ce système d'alerte pourrait s'avérer utile aux éditeurs, aux universités et aux organismes publics soucieux de protéger la communication scientifique et de garantir la qualité de l'information diffusée au public.

Parallèlement, les auteurs soulignent la nécessité de Les éditeurs scientifiques eux-mêmes devraient renforcer leur présence vérifiée sur Telegram. et sur d'autres plateformes similaires. Des canaux officiels clairement identifiés, des politiques de communication transparentes et une messagerie cohérente permettraient aux utilisateurs de distinguer plus facilement les sources légitimes et de limiter les risques d'usurpation d'identité.

Les travaux menés à l'Université de Grenade montrent clairement que le fait que Plus de 78 % des chaînes d'éditeurs scientifiques sur Telegram sont fausses. Il ne s'agit pas d'un problème marginal, mais d'un phénomène structurel qui affecte la circulation de l'information académique en ligne. Pour y remédier, il est nécessaire de conjuguer technologie, expertise et implication institutionnelle accrue afin de reprendre le contrôle d'un canal de communication où, pour l'instant, les fraudeurs opèrent avec une facilité déconcertante.


Verrous de télégramme
Il peut vous intéresser:
Tout sur les blocs dans Telegram
Suivez-nous sur Google Actualités