En bref

  • Le PDG d'Eliza Lab, Shaw Walters, affirme que les systèmes d'IA actuels répondent déjà à sa définition de l'AGI.
  • Il avertit que les agents autonomes introduisent des risques de sécurité sérieux, y compris l'injection de prompt et la compromission de portefeuilles.
  • Walters soutient qu'une IA entièrement décentralisée n'existe pas encore et que l'exécution locale s'en rapproche le plus.

L'intelligence artificielle générale pourrait être déjà arrivée.

C'est ce qu'affirme le fondateur d'Eliza Labs, Shaw Walters, qui s'est entretenu avec

Decrypt
la semaine dernière lors de l'ETHDenver. Walters a déclaré que les modèles actuels de pointe répondent déjà à sa définition de l'intelligence artificielle générale, mieux connue sous le nom d'AGI.

« Je pense que nous sommes à un point d'inflexion où nous avons l'AGI », a-t-il déclaré. « Je crois complètement que ceci est une intelligence générale. Ce n'est rien comme nous. Elle apprend d'une manière complètement différente, mais elle est tout de même intelligente, et elle est très générale. »

Lancée à l'origine en 2024 sous le nom d'ai16z, Walters a fondé Eliza Labs, qui a créé ElizaOS, l'un des premiers frameworks open-source pour créer des agents d'IA autonomes pour les blockchains.

D'abord inventé en 1997 et ensuite popularisé par des chercheurs, dont le fondateur de SingularityNET Ben Goertzel, l'intelligence artificielle générale fait référence à une forme théorique d'IA conçue pour égaler ou dépasser les capacités cognitives humaines sur un large éventail de tâches. 

Alors que des développeurs d'IA de renom, dont le PDG d'OpenAI Sam Altman et le PDG d'Anthropic Dario Amodei, avertissent que l'AGI pourrait arriver dans la prochaine décennie, Walters rejette l'idée qu'elle émergera comme un système dominant unique.

« Je ne la vois tout simplement pas comme le Dieu de l'IA », a-t-il déclaré. « Il n'y en aura jamais un seul, car la vie aime la diversité. »

Walters a déclaré qu'il avait commencé à travailler sur des agents d'IA à l'époque de GPT-3, lorsque les sorties structurées étaient peu fiables.

« J'avais l'impression que la plupart de mon travail consistait à mettre des roulettes d'apprentissage à un bébé », a-t-il dit. « Il fallait juste le maintenir, lui faire donner une réponse avec la structure dont j'avais besoin pour analyser l'action. C'était un problème énorme. »

Les progrès sont venus avec le lancement de GPT-4 en 2023, ce qui, selon Walters, a permis des réponses plus fiables.

« Il était incroyablement bon pour me donner une réponse structurée, et maintenant je pouvais réellement faire des appels d'action », a-t-il dit. « C'est là que nous sommes passés d'à peine fonctionner à être capables de créer un agent qui fait des choses, mais c'était encore très limité. »

Les agents d'IA sont passés de chatbots expérimentaux à des systèmes persistants intégrés sur des plateformes crypto et grand public. 

En février, OpenClaw a atteint environ 147 000 étoiles sur GitHub et a donné naissance à des projets comme la plateforme de « réseaux sociaux » IA Moltbook, tandis que Coinbase a lancé les « Agentic Wallets » sur Base et Fetch.ai a indiqué que ses agents peuvent effectuer des achats via l'infrastructure Visa.

Cependant, à mesure que les agents obtenaient un accès root et le contrôle de portefeuilles, Walters a indiqué que l'excitation initiale a laissé place à de profondes préoccupations en matière de sécurité.

Alors que les développeurs à l'ETHDenver mettaient en avant les avantages des agents IA dans la crypto, Walters a averti qu'à mesure que l'IA progresse vers l'AGI, elle se comporte moins comme une machine prévisible et plus comme un humain faillible, rendant impossible la mise en place de sauvegardes infaillibles.

« À la fin de la journée, vous avez affaire à quelque chose qui ressemble plus à un humain et moins à une calculatrice », a-t-il déclaré. « Il va parfois faire des choses stupides, et il n'y a tout simplement aucun moyen de construire un système super sécurisé qui les empêchera de faire une bêtise. »