Décryptage de la boîte noire de l’IA : Des scientifiques découvrent des résultats inattendus

Patrick Lesggie

Les chercheurs de l’Université de Bonn examinent le fonctionnement interne des applications d’apprentissage automatique dans la recherche pharmaceutique. L’intelligence artificielle (IA) progresse rapidement, mais ses mécanismes internes restent souvent obscurs, caractérisés par une nature de « boîte noire » où le processus pour arriver à des conclusions n’est pas visible. Cependant, une avancée significative a été réalisée par le professeur Jürgen Bajorath et son équipe, des experts en chémoinformatique à l’Université de Bonn. Ils ont conçu une technique qui découvre les mécanismes opérationnels de certains systèmes d’IA utilisés dans la recherche pharmaceutique.

Leur découverte indique que ces modèles d’IA reposent principalement sur le rappel de données existantes plutôt que sur l’apprentissage d’interactions chimiques spécifiques pour prédire l’efficacité des médicaments. Leurs résultats ont récemment été publiés dans la revue Nature Machine Intelligence. Quelle molécule de médicament est la plus efficace ? Les chercheurs recherchent fiévreusement des substances actives efficaces pour lutter contre les maladies. Ces composés se fixent souvent sur une protéine, qui sont généralement des enzymes ou des récepteurs qui déclenchent une chaîne spécifique d’actions physiologiques.

Dans certains cas, certaines molécules visent également à bloquer des réactions indésirables dans le corps – comme une réponse inflammatoire excessive. Compte tenu de l’abondance de composés chimiques disponibles, cette recherche ressemble à une recherche d’une aiguille dans une botte de foin. La découverte de médicaments tente donc d’utiliser des modèles scientifiques pour prédire quelles molécules se fixeront le mieux à la protéine cible respective et se lieront fortement. Ces candidats médicaments potentiels sont ensuite étudiés plus en détail dans des études expérimentales.

Depuis l’avènement de l’IA, la recherche sur la découverte de médicaments utilise également de plus en plus des applications d’apprentissage automatique. Une de ces applications, les « Graph Neural Networks » (GNN), offre l’une des nombreuses possibilités pour de telles applications. Ils sont adaptés pour prédire, par exemple, à quel point une certaine molécule se lie à une protéine cible. À cette fin, les modèles GNN sont entraînés avec des graphes qui représentent des complexes formés entre des protéines et des composés chimiques (ligands).

Les graphes se composent généralement de noeuds représentant des objets et d’arrêtes représentant des relations entre les noeuds. Dans les représentations graphiques des complexes protéine-ligand, les arrêtes ne relient que des noeuds de protéine ou de ligand, représentant leurs structures respectives, ou des noeuds de protéine et de ligand, représentant des interactions spécifiques protéine-ligand. « Comment les GNN parviennent à leurs prédictions est comme une boîte noire dans laquelle nous ne pouvons pas regarder », déclare le professeur Jürgen Bajorath. Le chercheur en chémoinformatique de l’Institut LIMES de l’Université de Bonn, du Bonn-Aachen International Center for Information Technology (B-IT) et de l’Institut Lamarr pour l’apprentissage machine et l’intelligence artificielle à Bonn, avec des collègues de l’Université Sapienza à Rome, a analysé en détail si les graphes de réseaux neuronaux apprennent réellement les interactions protéine-ligand pour prédire à quel point une substance active se lie à une protéine cible.

Les chercheurs ont analysé au total six architectures GNN différentes en utilisant leur méthode spécialement développée « EdgeSHAPer » et une méthodologie conceptuellement différente pour la comparaison. Ces programmes informatiques « screenent » si les GNN apprennent les interactions les plus importantes entre un composé et une protéine et prédisent ainsi la puissance du ligand, comme l’espèrent et l’anticipent les chercheurs – ou si l’IA arrive à des prédictions d’autres façons. Les scientifiques ont entraîné les six GNN avec des graphes extraits de structures de complexes protéine-ligand, pour lesquels le mode d’action et la force de liaison des composés à leurs protéines cibles étaient déjà connus des expériences. Les GNN entraînés ont ensuite été testés sur d’autres complexes.

L’analyse EdgeSHAPer ultérieure a alors permis de comprendre comment les GNN généraient des prédictions apparemment prometteuses. Selon les analyses de l’équipe de recherche, cependant, les six GNN ont essentiellement échoué à le faire. La plupart des GNN n’ont appris que quelques interactions protéine-médicament et se sont principalement concentrées sur les ligands. Bajorath : « Pour prédire la force de liaison d’une molécule à une protéine cible, les modèles se ‘souvienaient’ principalement de molécules chimiquement similaires qu’ils avaient rencontrées pendant l’entraînement et de leurs données de liaison, quel que soit la protéine cible. Ces similitudes chimiques apprises déterminaient essentiellement les prédictions. »

Selon les scientifiques, cela rappelle largement l’effet du « Clever Hans ». Cet effet fait référence à un cheval qui semblait pouvoir compter. Le nombre de fois que Hans tapait son sabot devait indiquer le résultat d’un calcul. Comme il s’est avéré plus tard, le cheval ne pouvait pas du tout faire de calcul, mais déduisait les résultats attendus des nuances dans les expressions faciales et les gestes de son compagnon. Ces résultats signifient-ils pour la recherche sur la découverte de médicaments ? « Il est généralement intenable que les GNN apprennent les interactions chimiques entre les substances actives et les protéines », déclare le scientifique en chémoinformatique. Leurs prédictions sont largement surestimées car des prévisions de qualité équivalente peuvent être obtenues en utilisant des connaissances chimiques et des méthodes plus simples.

Cependant, la recherche offre également des opportunités pour l’IA. Deux des modèles GNN examinés ont affiché une nette tendance à apprendre plus d’interactions lorsque la puissance des composés d’essai augmentait. « Il vaut la peine de regarder de plus près ici », déclare Bajorath. Peut-être que ces GNN pourraient être encore améliorées dans la bonne direction grâce à des représentations et des techniques d’entraînement modifiées. Cependant, l’hypothèse selon laquelle des grandeurs physiques peuvent être apprises sur la base de graphes moléculaires devrait généralement être traitée avec prudence. « L’IA n’est pas de la magie noire », dit Bajorath. En fait, il voit la publication en libre accès précédente d’EdgeSHAPer et d’autres outils d’analyse spécialement développés comme des approches prometteuses pour éclairer la boîte noire des modèles d’IA.

Son équipe se concentre actuellement sur les GNN et les nouveaux « modèles linguistiques chimiques ». « Le développement de méthodes pour expliquer les prédictions de modèles complexes est un domaine important de la recherche en IA. Il existe également des approches pour d’autres architectures de réseaux, telles que les modèles de langage, qui aident à mieux comprendre comment l’apprentissage machine arrive à ses résultats », explique Bajorath. Il s’attend à ce que des choses passionnantes se produisent bientôt aussi dans le domaine de l’IA explicative à l’Institut Lamarr, où il est PI et président de l’IA dans les sciences de la vie.