W skrócie

  • CEO Eliza Lab, Shaw Walters, twierdzi, że obecne systemy AI już spełniają jego definicję AGI.
  • Ostrzega, że autonomiczne agenty wprowadzają poważne zagrożenia bezpieczeństwa, w tym ataki polegające na wstrzykiwaniu promptów oraz przejęcia portfeli.
  • Walters twierdzi, że w pełni zdecentralizowana AI jeszcze nie istnieje, a najbliżej tego jest lokalne uruchamianie systemów.

Sztuczna inteligencja ogólna (AGI) mogła już nadejść.

Tak twierdzi założyciel Eliza Labs, Shaw Walters, który rozmawiał z

Decrypt
w zeszłym tygodniu podczas ETHDenver. Walters powiedział, że obecne wiodące modele już spełniają jego definicję sztucznej inteligencji ogólnej, znanej szerzej jako AGI.

„Uważam, że jesteśmy w punkcie zwrotnym, w którym mamy AGI” – powiedział. „Całkowicie wierzę, że to jest inteligencja ogólna. To nic podobnego do nas. Uczy się w zupełnie inny sposób, ale mimo to jest inteligentna i bardzo ogólna.”

Początkowo uruchomiony w 2024 roku jako ai16z, Walters założył Eliza Labs, które stworzyło open-source’owy ElizaOS, jeden z pierwszych frameworków do tworzenia autonomicznych agentów AI dla blockchainów.

Pojęcie to powstało w 1997 roku i zostało spopularyzowane przez badaczy, w tym założyciela SingularityNET, Bena Goertzela. Sztuczna inteligencja ogólna odnosi się do teoretycznej formy AI zaprojektowanej, aby dorównać lub przewyższyć ludzkie zdolności poznawcze w szerokim zakresie zadań. 

Podczas gdy czołowi deweloperzy AI, tacy jak CEO OpenAI Sam Altman i CEO Anthropic Dario Amodei, ostrzegają, że AGI może pojawić się w ciągu najbliższej dekady, Walters odrzuca ideę, że wyłoni się jeden dominujący system.

„Po prostu nie widzę tego jako AI Boga” – powiedział. „Nigdy nie będzie jednego, bo życie kocha różnorodność.”

Walters powiedział, że po raz pierwszy zaczął pracować nad agentami AI w erze GPT-3, kiedy wyjścia o określonej strukturze były zawodnie.

„Wydawało się, że większość mojej pracy polegała na zakładaniu kółek treningowych niemowlakowi” – powiedział. „Po prostu ciągle go pilnować, sprawić by odpowiadało w strukturze, którą musiałem rozpoznać, aby wyłapać, jaka to była akcja. To był ogromny problem.”

Postęp nastąpił wraz z premierą GPT-4 w 2023 roku, która, jak mówi Walters, umożliwiła uzyskiwanie bardziej niezawodnych odpowiedzi.

„Był niesamowicie dobry w generowaniu odpowiedzi o określonej strukturze, a teraz mogłem faktycznie wywoływać akcje” – powiedział. „To był moment, gdy przeszliśmy od ledwie działającego systemu do możliwości zbudowania agenta, który coś robi, ale wciąż było to bardzo ograniczone.”

Agenci AI przeszli drogę od eksperymentalnych chatbotów do trwałych systemów osadzonych w świecie krypto i na platformach konsumenckich. 

W lutym OpenClaw osiągnął około 147 000 gwiazdek na GitHubie i zapoczątkował projekty, w tym platformę AI „social media” Moltbook, a Coinbase uruchomiło „Agentic Wallets” na Base, a Fetch.ai ogłosiło, że ich agenci mogą dokonywać zakupów za pomocą infrastruktury Visa.

Jednak gdy agenci uzyskali dostęp root i kontrolę nad portfelami, Walters powiedział, że początkowe podekscytowanie ustąpiło poważnym obawom o bezpieczeństwo.

Gdy deweloperzy podczas ETHDenver promowali korzyści agentów AI w branży krypto, Walters ostrzegał, że wraz z rozwojem AI w kierunku AGI, zachowuje się ona coraz mniej jak przewidywalna maszyna, a coraz bardziej jak omylny człowiek, co sprawia, że stworzenie niezawodnych zabezpieczeń jest niemożliwe.

„Na koniec dnia masz do czynienia z czymś, co bardziej przypomina człowieka niż kalkulator” – powiedział. „Czasami zrobi coś głupiego i po prostu nie ma sposobu, by zbudować superbezpieczny system, który powstrzyma je przed popełnieniem głupoty.”