Menace imminente pour 2024 et au-delà : les acteurs malveillants alimentés par l’IA

Patrick Lesggie

Une étude prévoit que les acteurs malveillants utiliseront l’IA quotidiennement d’ici mi-2024 pour diffuser du contenu toxique dans les communautés en ligne grand public, ce qui pourrait potentiellement avoir un impact sur les élections.

Une étude prévoit que d’ici mi-2024, les acteurs malveillants devraient de plus en plus utiliser l’IA dans leurs activités quotidiennes. La recherche, menée par Neil F. Johnson et son équipe, implique une exploration des communautés en ligne associées à la haine. Leur méthodologie inclut la recherche de termes répertoriés dans la base de données des symboles de haine de la Ligue contre la diffamation, ainsi que l’identification de groupes signalés par le Southern Poverty Law Center.

À partir d’une liste initiale de communautés de « mauvais acteurs » trouvées en utilisant ces termes, les auteurs évaluent les communautés associées par les communautés de « mauvais acteurs ». Les auteurs répètent cette procédure pour générer une carte réseau des communautés de « mauvais acteurs » et des groupes en ligne grand public auxquels ils sont liés.

Communautés grand public catégorisées dans un « sous-ensemble de méfiance »

Certaines communautés grand public sont catégorisées comme appartenant à un « sous-ensemble de méfiance » si elles hébergent une discussion significative sur la COVID-19, le MPX, l’avortement, les élections ou le changement climatique. En utilisant la carte résultante du « champ de bataille » actuel en ligne des « mauvais acteurs », qui comprend plus d’un milliard d’individus, les auteurs prédisent comment l’IA pourrait être utilisée par ces « mauvais acteurs ».

Ecosystème grand public vulnérable aux acteurs malveillants

L’écosystème grand public vulnérable aux acteurs malveillants (panneau de gauche). Il comprend des communautés interconnectées de « mauvais acteurs » (nœuds colorés) et des communautés grand public vulnérables (nœuds blancs, qui sont des communautés auxquelles les communautés de « mauvais acteurs » ont formé un lien direct). Ce réseau empirique est représenté à l’aide de l’algorithme de disposition ForceAtlas2, qui est spontané, d’où les ensembles de communautés (nœuds) apparaissent plus proches les uns des autres lorsqu’ils partagent plus de liens. Les différentes couleurs correspondent à différentes plateformes. Le petit anneau rouge montre la communauté YouTube du tireur du Texas en 2023 à titre d’illustration. Le panneau de droite montre le diagramme de Venn des sujets discutés dans le sous-ensemble de méfiance. Chaque cercle représente une catégorie de communautés qui discutent d’un ensemble spécifique de sujets, répertoriés en bas. Le nombre de taille moyenne est le nombre de communautés discutant de cet ensemble spécifique de sujets, et le plus grand nombre est le nombre correspondant d’individus, par exemple le cercle gris montre que 19,9 millions d’individus (73 communautés) discutent des 5 sujets. Le nombre est rouge si la majorité est anti-vaccination ; vert si la majorité est neutre sur les vaccins. Seules les régions avec > 3% du total des communautés sont étiquetées. L’anti-vaccination domine. Dans l’ensemble, cette figure montre comment l’IA des « mauvais acteurs » pourrait rapidement atteindre une portée mondiale et pourrait également croître rapidement en attirant des communautés ayant déjà une méfiance existante. Crédit : Johnson et al.

Les auteurs prédisent que les acteurs malveillants utiliseront de plus en plus l’IA pour diffuser en continu du contenu toxique dans les communautés grand public en utilisant des premières itérations d’outils d’IA, car ces programmes ont moins de filtres conçus pour empêcher leur utilisation par des acteurs malveillants et sont des programmes gratuits assez petits pour tenir sur un ordinateur portable.

Attaques alimentées par l’IA presque quotidiennes d’ici mi-2024

Les auteurs prédisent que de telles attaques des « mauvais acteurs » avec l’IA se produiront presque quotidiennement d’ici mi-2024 – à temps pour affecter les élections aux États-Unis et dans d’autres pays. Les auteurs soulignent que, comme l’IA est encore nouvelle, leurs prédictions sont nécessairement spéculatives, mais espèrent que leur travail servira néanmoins de point de départ pour des discussions politiques sur la gestion des menaces liées à l’IA des « mauvais acteurs ».

Référence : « Controlling bad-actor-artificial intelligence activity at scale across online battlefields » by Neil F Johnson, Richard Sear and Lucia Illari, 23 January 2024, PNAS Nexus.
DOI : 10.1093/pnasnexus/pgae004