Tech

L’Initiative du Frontier Model Forum pour Réguler l’Intelligence Artificielle Responsable en 2023

Model Forum, L’intelligence artificielle (IA) est en constante évolution, suscitant à la fois fascination et inquiétude quant à son développement rapide et à l’absence de régulation. Face à ces préoccupations, des acteurs majeurs du secteur, dont OpenAI, Google, Microsoft et Meta, ont répondu à l’invitation de la Maison-Blanche pour discuter de mesures visant à réguler ce domaine. Quelques jours après cette réunion, ces entreprises ont lancé une initiative concrète : le Frontier Model Forum.

Qu’est-ce que le Frontier Model Forum ?

Le Frontier Model Forum réunit quatre grandes entreprises du secteur de l’intelligence artificielle : Google, Microsoft, OpenAI et Anthropic. Dans un communiqué commun, ces entreprises décrivent cette initiative comme « un nouvel organisme sectoriel chargé de garantir un développement sûr et responsable des modèles d’IA de pointe ». Leur objectif est de partager leur expertise pour promouvoir les bonnes pratiques au sein de l’ensemble du secteur.

Bien que le forum compte actuellement quatre membres, il est ouvert à d’autres structures qui doivent néanmoins remplir les critères suivants :

  • Déployer des modèles d’avant-garde selon les définitions du forum.
  • S’engager en faveur de la sécurité des modèles.
  • Participer activement au partage d’informations et à des initiatives communes.

Les objectifs du Frontier Model Forum

Dans leur publication, les quatre participants à cette initiative ont également exposé les objectifs concrets de cette structure ainsi que les actions qui seront entreprises. Le Frontier Model Forum a pour vocation de :

Faire progresser la recherche

Les membres du forum soutiendront l’écosystème de la sécurité de l’IA en identifiant les questions de recherche ouvertes les plus importantes. Dans un premier temps, une bibliothèque publique sera créée afin de définir les critères de référence d’une IA de pointe.

Promouvoir des pratiques responsables

Les pratiques responsables concernent à la fois le déploiement des modèles et l’information du public sur la nature, les capacités, les limites et l’impact de la technologie.

Collaboration avec divers acteurs

Le Frontier Model Forum partagera ses connaissances sur les risques en matière de sécurité avec les décideurs politiques, les universitaires et les entreprises. Cette collaboration permettra d’aborder des problématiques cruciales pour l’humanité telles que la lutte contre le changement climatique, la détection du cancer ou la défense contre les cybermenaces.

Relever les défis majeurs

Les membres du Frontier Model Forum se sont engagés à travailler sur des problématiques majeures pour l’humanité. Ils mettront leurs compétences et leurs ressources en commun pour faire face à des enjeux tels que la lutte contre le changement climatique, la détection du cancer et la défense contre les cybermenaces.

Les géants de l’IA gardent le contrôle

Bien que la réglementation de l’intelligence artificielle soit nécessaire, les motivations des quatre acteurs ne sont pas purement altruistes. Ces grandes entreprises ont bénéficié d’un développement accéléré dans un contexte de réglementation peu contraignante, parfois au prix de pratiques contestables (comme en témoignent les plaintes déposées contre OpenAI dans plusieurs pays).

En créant cette nouvelle organisation, ces géants de l’IA s’imposent comme des intermédiaires entre l’industrie et les décideurs politiques. Le Frontier Model Forum représentera ainsi un lobby influent pour peser sur les différents projets de législation actuellement discutés aux États-Unis et dans l’Union européenne. Interrogé par The Guardian, le Dr. Andrew Rogoyski, Directeur de l’innovation et des partenariats à l’Institut Surrey pour l’IA de l’Université de Surrey, s’est montré préoccupé par cette démarche :

Je crains que les gouvernements n’aient cédé le leadership en matière d’IA au secteur privé, probablement de manière irrémédiable. Cette technologie est si puissante, avec un potentiel considérable pour le bien et le mal, qu’elle nécessite un contrôle indépendant représentant les personnes, les économies et les sociétés qui seront impactées par l’IA à l’avenir.

Le Frontier Model Forum représente une avancée significative dans la régulation de l’intelligence artificielle. En rassemblant les acteurs majeurs du secteur, cette initiative vise à promouvoir des pratiques responsables et à faire progresser la recherche dans un cadre sécurisé. Cependant, il est essentiel de maintenir un équilibre entre le développement de l’IA et la protection des intérêts des individus et des sociétés. Le contrôle indépendant, la transparence et la régulation adéquate sont nécessaires pour garantir un déploiement responsable et éthique de l’intelligence artificielle.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *