La percée d'Aligned AI permet aux systèmes d'IA de « penser » avec des concepts semblables à ceux de l'homme
OXFORD, Angleterre--(BUSINESS WIRE)--Aligned AI, leader dans la recherche sur l'intelligence artificielle (IA), a annoncé une avancée révolutionnaire dans le domaine de la généralisation erronée, un défi majeur dans le domaine de l'IA. L’entreprise est la première à réussir avec un test clé appelé CoinRun en apprenant à une IA à « penser » avec des concepts semblables à ceux de l'homme. La technologie qui sous-tend cette réalisation ouvre la voie à une IA plus précise, plus fiable et plus contrôlable pour une grande variété d'applications dans le monde réel.
En apprenant aux modèles d'IA à généraliser d'une manière plus proche de la cognition humaine agentique, l'innovation d'Aligned AI permet à l'IA d'identifier correctement les concepts dans de nouvelles situations et de nouveaux environnements, réduisant ainsi la nécessité d'une production prolongée, de tests et d'une nouvelle formation.
La généralisation erronée se produit lorsque les systèmes d'IA apprennent des modèles et des comportements incorrects à partir de leurs données d'apprentissage et ne sont pas en mesure de s'adapter correctement lorsqu'ils sont confrontés à de nouvelles informations. Cela conduit à des résultats inattendus et souvent néfastes. Les modèles de base actuels souffrent à des degrés divers d'une généralisation erronée, comme le montre la capacité des utilisateurs à les « débrider », ou bien il existe un compromis entre la fonctionnalité et le comportement indésirable. Le problème de la généralisation erronée empêche également le secteur dans son ensemble de progresser. Par exemple, la généralisation est nécessaire pour les véhicules véritablement autonomes et l'application de l'IA à des applications critiques. Dans le cas contraire, les IA ne peuvent pas fonctionner suffisamment bien dans des environnements inconnus ou discerner les objectifs corrects sans intervention humaine.
Pour ce faire, Aligned AI a utilisé le test de généralisation erronée CoinRun 2021, un jeu de type Atari publié par des chercheurs de Google DeepMind, de l'université de Cambridge, de l'université de Tubingen et de l'université d'Édimbourg. L'objectif du test est de confirmer si une IA peut déduire un objectif complexe lorsque cet objectif est faussement corrélé avec un objectif plus simple dans son environnement de formation. L'IA est récompensée pour l'obtention d'une pièce, qui est toujours placée à la fin du niveau pendant la période d'apprentissage, mais qui est placée à un endroit aléatoire pendant la période de test, sans qu'aucune information supplémentaire sur la récompense ne soit fournie.
Avant l'innovation d'Aligned AI, les IA formées à CoinRun pensaient que la meilleure façon de jouer était d'aller vers la droite, tout en évitant les monstres et les trous. Comme la pièce se trouvait toujours à la fin du niveau pendant l'entraînement, cette stratégie semblait efficace. Lorsque l'IA rencontrait un nouveau niveau où la pièce était placée ailleurs dans le niveau, mais sans recevoir de nouvelles informations, elle ignorait la pièce et la manquait ou ne l'obtenait que par accident. ACE (qui se traduit par « Algorithme pour l'Extrapolation d’un Concept »), la nouvelle IA développée par Aligned AI, remarque les changements dans l'environnement de test et décide d'aller chercher la pièce, même sans informations supplémentaires sur la récompense - tout comme le ferait un être humain.
Les principaux avantages de cette percée sont les suivants :
- Sécurité accrue : En réduisant la généralisation erronée, les systèmes d'IA deviennent plus fiables, ce qui leur permet de fonctionner en toute sécurité dans un large éventail de scénarios, des véhicules autonomes à la robotique.
- Amélioration des capacités : L'IA est capable de mieux comprendre les intentions humaines et de prendre des décisions conformes à ces intentions, ce qui accroît considérablement ses capacités.
- IA éthique : Cela renforce les aspects éthiques de l'IA en promouvant l'équité, la transparence et la non-discrimination. Les systèmes d'IA qui sont précis, fiables et interprétables sont plus susceptibles de prendre des décisions éthiques en évitant les préjugés et en s'alignant sur les valeurs humaines.
- Impact sur le secteur : On est sur le point de transformer des secteurs tels que la robotique, les véhicules autonomes et les modèles de fondation, en les rendant plus pratiques et applicables dans divers contextes du monde réel.
« Il ne s'agit pas seulement d'un changement de jeu pour le monde de l'IA, mais d'un changement sismique pour d'innombrables industries », a déclaré Rebecca Gorman, cofondatrice et PDG d'Aligned AI. « En réduisant considérablement la généralisation erronée et en améliorant la capacité de l'IA à comprendre des scénarios imprévus et à s'y adapter, nous ouvrons la voie à des opportunités inégalées dans tous les domaines. Qu'il s'agisse de véhicules autonomes capables de naviguer de San Francisco à Phoenix en empruntant des rues qu'ils n'ont jamais vues auparavant ou de robots capables de fonctionner efficacement dans une série d'environnements changeants et imprévus, ce point de référence est le pivot qui fera de ces visions futuristes une réalité. Il ne s'agit pas seulement d'améliorer l'IA ; il s'agit de révolutionner la manière dont les industries fonctionnent, innovent et servent l'humanité ».
L'innovation d'Aligned AI s'attaque à un problème critique auquel sont confrontés tous les systèmes d'IA. Lorsqu'elles sont confrontées à de nouveaux environnements, les IA actuelles ont tendance à étendre de manière incorrecte les données d'apprentissage. C'est pourquoi 70 % des modèles ne sont pas mis en production ou sont soumis à des délais de production et de test prolongés, ce qui entrave l'évolutivité et nécessite souvent une nouvelle formation au cours de la première année de mise en service.
« Alors que l'IA gagne en puissance et que son utilisation se généralise, la généralisation reste un défi », a déclaré John Sviokla, chercheur pionnier en IA et cofondateur actuel de GAI Insights, une société de conseil qui aide les entreprises à obtenir un retour sur investissement grâce à l'IA générative. « La recherche d'Aligned AI est une étape cruciale dans l'utilisation sûre, éthique et efficace de l'IA dans tous les secteurs d'activité ».
Depuis sa création, Aligned AI est en première ligne pour relever les défis critiques auxquels sont confrontés le développement et le déploiement de l'IA. En 2022, Aligned AI a été le chef de file de la prévention des violations de ChatGPT-jail, en publiant le premier évaluateur de message-guide sous la forme d'un projet à source ouverte. En septembre 2023, Aligned AI a reçu le prix CogX de la « Meilleure innovation en matière d'atténuation des biais algorithmiques » pour EquitAI, un algorithme qui contraint les LLM (grands modèles linguistiques) à produire un texte sans biais de genre et faAIr, son algorithme de mesure et de classement des biais de genre dans les modèles de fondation. Les travaux antérieurs d'Aligned AI sur l'extrapolation de concepts améliorent les performances de l'IA sur les ensembles de données non distribuées et aident les modèles à se comporter en toute sécurité lorsqu'ils attendent un retour d'information de la part de l'homme.
Pour en savoir plus sur Aligned AI et sa percée en matière de généralisation erronée, veuillez consulter le site buildaligned.ai.
À propos de Aligned AI :
Fondée à Oxford par Rebecca Gorman et le Dr. Stuart Armstrong, Aligned AI est une startup de haute technologie qui permet de franchir une nouvelle étape dans l'IA en apprenant aux IA à comprendre et à tenir des concepts semblables à ceux de l'homme. Sa technologie de base, « l’extrapolation de concepts », permet à l'IA d'étendre l'intention de ses formateurs au-delà de ses données de formation, ce qui signifie qu'elle fonctionne comme elle le devrait, même dans de nouveaux scénarios. Aligned AI estime que la sécurité et la capacité ne sont pas des compromis, mais qu'une IA plus précise et contrôlable est également plus puissante.
Le texte du communiqué issu d’une traduction ne doit d’aucune manière être considéré comme officiel. La seule version du communiqué qui fasse foi est celle du communiqué dans sa langue d’origine. La traduction devra toujours être confrontée au texte source, qui fera jurisprudence.
Contacts
Médias :
Alana Bannan
Matter Communications
360-975-1812
AlignedAI@matternow.com