- Buterin afirma que limites de atenção silenciam eleitores de DAO, então agentes pessoais podem agir por eles.
- Ele alerta que a delegação concentra poder, já que apoiadores perdem sua voz após um clique.
- Ele apoia a privacidade por anonimato ZK e saídas de MPC que revelam julgamentos, não dados.
Vitalik Buterin afirmou que a inteligência artificial pode ajudar a corrigir fraquezas estruturais na governança descentralizada, argumentando que agentes de IA pessoais podem permitir que usuários participem de maneira mais eficaz na tomada de decisões de DAOs. Em uma publicação no X no domingo, ele descreveu limites de atenção e baixa participação como obstáculos persistentes. Ele alertou que a delegação concentra poder, enquanto o controle irrestrito de IA corre o risco de levar a resultados distópicos.
Ele declarou que sistemas democráticos e descentralizados frequentemente enfrentam dificuldades porque muitas decisões exigem tempo e conhecimento técnico que a maioria dos participantes não possui. Como resultado, a participação na governança das DAOs normalmente varia entre 15% e 25%.
Ele acrescentou que a baixa participação pode criar riscos, incluindo centralização e ataques de governança, nos quais um único agente adquire tokens suficientes para aprovar propostas prejudiciais sem serem notadas.
Agentes de IA Pessoais e o Problema da Atenção
Buterin escreveu que uma das questões centrais na governança de DAOs são os “limites da atenção humana”. Muitas propostas exigem conhecimento técnico ou foco constante. A maioria dos usuários não consegue acompanhar todas as votações.
Ele argumentou que a delegação, a solução comum, enfraquece a influência do usuário. “A solução usual, a delegação, é desmotivadora”, escreveu. Ele disse que a delegação permite que um pequeno grupo de delegados controle os resultados enquanto os apoiadores perdem influência após atribuírem seu voto.
Em vez disso, ele propôs agentes de IA pessoais treinados com base em mensagens, opiniões e decisões anteriores do usuário. Esses modelos votariam em linha com a forma como o indivíduo agiria. Essa abordagem, segundo ele, poderia solucionar as lacunas de participação sem transferir autoridade para um grupo centralizado.
Ele alertou contra a dependência extrema de IA. “A IA se tornar o governo é distópico”, escreveu, acrescentando que uma IA fraca produz resultados ruins, enquanto uma IA poderosa pode criar riscos ainda maiores. Ele posicionou a IA como uma ferramenta e não como uma autoridade governante.
Agentes de Conversação Pública e Mercados de Sugestão
Além da votação individual, Buterin introduziu os “agentes de conversação pública”. Ele escreveu que boas decisões não podem surgir de um processo linear que apenas faz a média de opiniões isoladas. “Tomar boas decisões frequentemente não pode vir de um processo linear de pegar opiniões das pessoas... e fazer a média delas”, afirmou.
Ele sugeriu sistemas que agregam as informações dos participantes e permitem que cada usuário, ou sua IA, responda com base nesse conjunto mais amplo de informações. Esses sistemas resumiriam opiniões individuais em formatos adequados para compartilhamento público, ao mesmo tempo em que protegeriam informações privadas.
Ele também propôs “mercados de sugestão”. Nesse modelo, participantes submetem propostas ou argumentos, e agentes de IA os apoiam com tokens. Se o mecanismo de governança aceitar a sugestão, os detentores dos tokens recebem um pagamento. Essa estrutura vincula incentivos financeiros à qualidade das ideias.
Relacionado: Vitalik Buterin associa FOCIL e EIP-8141 para inclusão rápida de transações
Privacidade e Tomada de Decisão Segura
Buterin abordou desafios em situações que envolvem informações confidenciais, como negociações, resolução de disputas e decisões de compensação. Sistemas descentralizados frequentemente enfrentam dificuldades nesses casos.
Ele sugeriu computação multipartidária e ferramentas criptográficas para permitir que modelos de IA revisem dados privados com segurança e emitam apenas julgamentos. Ele também defendeu o uso de provas de conhecimento zero para proteger o anonimato dos participantes.
Ele diferenciou anonimato de privacidade de conteúdo. O anonimato protege identidades, enquanto a privacidade de conteúdo impede a divulgação desnecessária de dados pessoais. Ele defendeu que ferramentas de governança devem integrar essas proteções desde o início.


