ATTENTION:Une arme biologique développée avec ChatGPT ? OpenAI prend les devants
OpenAI prévoit que les successeurs de son modèle phare o3 atteindront un niveau de risque élevé en matière de biologie, capables d’aider des acteurs malveillants à créer des armes biologiques. Pour éviter d’en arriver là, le créateur de ChatGPT énonce donc une liste de mesures préventives mises en place. Reste à voir si cela sera suffisant.
Célia Séramour
20 juin 2025 \ 15h30

Un grand pouvoir implique de grandes responsabilités. Sur ce point, OpenAI devrait en prendre de la graine. Alors que ses modèles d’IA couvrent un spectre toujours plus large de secteurs d’activité avec des cas d’application qui se multiplient à toute vitesse, l’acteur de référence dans l’IA doit en effet admettre que ses avancées technologiques comportent aussi un certain nombre de risques.
C’est le domaine de la biologie qui fait aujourd’hui l’objet de préoccupations. Si les modèles peuvent aider à identifier quels nouveaux médicaments ont le plus de chances de réussir lors d’essais cliniques sur l’humain mais aussi à concevoir de meilleurs vaccins, créer des enzymes pour des carburants durables, et découvrir de nouveaux traitements pour des maladies rares, ils peuvent aussi être détournés de leur usage à des fins bien différentes.
Des risques évidents et inhérents
Ces mêmes capacités – comme le raisonnement sur des données biologiques, la prédiction de réactions chimiques, ou l’assistance à des expériences en laboratoire – pourraient aussi être détournées pour permettre à des individus peu qualifiés de recréer des menaces biologiques, ou pour aider des acteurs expérimentés à concevoir des armes biologiques. « L’accès physique à des laboratoires et à des matériaux sensibles reste un obstacle… mais ce n’est pas un obstacle insurmontable », concède OpenAI.
L’entreprise n’est d’ailleurs pas la seule à rendre compte de ces risques inhérents au développement de tels modèles. Anthropic a récemment activé des protocoles de sécurité renforcés en parallèle du lancement de sa famille de LLM Claude 4.
Anticiper le moment où un modèle franchit un seuil critique
Prévoyant qu’à l’avenir, les prochains modèles d’IA développés« atteindront un niveau élevé de capacité en biologie », le créateur de ChatGPT compte donc mettre en place des mesures de sécurité. Sont notamment cités les points suivants : développer une approche responsable du progrès en biologie, collaborer avec des experts externes, y compris des entités gouvernementales et des laboratoires nationaux.
OpenAI prévoit également d’entraîner les modèles à traiter en toute sécurité les requêtes à double usage, mettre en place des systèmes de détection, de surveillance et d’application des politiques, effectuer des tests adverses (red teaming) avec des experts et déployer des contrôles de sécurité.
Une liste de mesures sérieuse, mais qui fait face à des défis structurels : il y a évidemment les limites techniques (usage dual, red-teaming difficile compte-tenu du peu de personnes avec une double expertise sur ces sujets), des vulnérabilités humaines et organisationnelles (insiders, fuites), et un manque de cadre international harmonisé.
Un engagement qui a ses propres limites
Une stratégie « préventive » pour ne pas « attendre qu’un incident biologique se produise pour renforcer les garde-fous », assure OpenAI. L’entreprise prévoit entre autres de travailler plus étroitement avec des spécialistes en biosécurité, armes biologiques, bioterrorisme, ainsi que des chercheurs académiques, mais aussi avec les gouvernements.
Pour aller plus loin dans son engagement, il faudrait un partage de standards sectoriels, un cadre légal international sur l’usage de l’IA dans le domaine de la biologie et un engagement ouvert à l’audit externe pour renforcer la confiance. A date, le comité interne de sécurité de l’entreprise a validé son plan d’atténuation, déjà en place sur certains modèles comme o3, qui restent en-deça du seuil de « haute capacité » biologique. En parallèle, elle développe des protocoles d’accès pour des institutions qualifiées qui veulent accéder aux dernières versions de ses modèles.