Microsoft et Google : Encadrer l’Intelligence Artificielle pour un Développement Responsable
Microsoft et Google : En novembre dernier, OpenAI lançait ChatGPT, une avancée significative dans le domaine de l’intelligence artificielle (IA). Depuis lors, de nombreux acteurs se sont investis dans la course à l’IA. Cependant, cette expansion rapide de la technologie suscite des inquiétudes quant aux risques et à l’absence de régulation. Dans ce contexte, les grandes entreprises du secteur, dont Microsoft et Google, ont été invitées à la Maison-Blanche pour discuter de mesures visant à réguler le secteur de l’IA. Peu de temps après cette réunion, une initiative concrète a été lancée : le Frontier Model Forum.
Qu’est-ce que le Frontier Model Forum ?
Le Frontier Model Forum est une collaboration entre quatre grandes entreprises du secteur de l’IA : Google, Microsoft, OpenAI et Anthropic. Dans leur communiqué commun, ces entreprises décrivent le Forum comme « un nouvel organisme sectoriel chargé de garantir un développement sûr et responsable des modèles d’IA de pointe ». L’objectif principal du Forum est de partager l’expertise de ses membres avec l’ensemble du secteur afin de promouvoir les bonnes pratiques.
Actuellement composé de quatre membres, le Forum est ouvert à d’autres structures qui répondent aux critères suivants :
- Déploiement de modèles d’avant-garde définis par le Forum
- Engagement en matière de sécurité des modèles
- Participation au partage d’informations et à des initiatives conjointes
Les objectifs du Frontier Model Forum
Dans leur publication sur le blog, les membres du Frontier Model Forum expliquent les objectifs concrets de cette initiative et les actions qui seront entreprises. Le Forum vise à :
Faire progresser la recherche
Les membres du Forum soutiendront l’écosystème de la sécurité de l’IA en identifiant les questions de recherche ouvertes les plus importantes. Une bibliothèque publique sera créée pour définir les critères de référence d’une IA de pointe.
Promouvoir les pratiques responsables
Le Forum se concentrera sur le déploiement responsable des modèles d’IA et sur l’information du public concernant la nature, les capacités, les limites et l’impact de la technologie.
Collaborer avec différents acteurs
Le Frontier Model Forum partagera ses connaissances sur les risques en matière de sécurité avec les décideurs politiques, les universitaires et les entreprises.
Répondre aux défis majeurs de l’humanité
Les membres du Forum s’engagent à travailler sur des problématiques cruciales telles que la lutte contre le changement climatique, la détection du cancer ou la défense contre les cybermenaces.
Les géants de l’IA veulent garder le contrôle
Bien que la régulation de l’IA soit souhaitable, l’initiative du Frontier Model Forum n’est pas uniquement altruiste. Ces grandes entreprises ont bénéficié d’un développement dans un contexte de faible régulation, ce qui a parfois suscité des critiques (OpenAI a notamment fait l’objet de plaintes dans plusieurs pays).
En créant cette nouvelle organisation, les géants de l’IA se positionnent comme intermédiaires entre l’industrie et les décideurs politiques. Le Frontier Model Forum devient ainsi un lobby influent pour orienter les projets de législation en cours aux États-Unis et dans l’Union européenne. Interrogé par The Guardian, le Dr. Andrew Rogoyski, Directeur de l’innovation et des partenariats à l’Institut Surrey pour l’IA, exprime ses préoccupations :
Je crains que les gouvernements aient cédé le leadership en matière d’IA au secteur privé, peut-être de manière irrémédiable. Cette technologie est si puissante, avec un immense potentiel pour le bien et le mal, qu’elle a besoin d’un contrôle indépendant qui représentera les personnes, les économies et les sociétés qui seront touchées par l’IA à l’avenir.