A interseção de Defi e AI exige segurança transparente

A interseção de Defi e AI exige segurança transparente

Opinião de: Jason Jiang, diretor de negócios da Certik

Desde a sua geração, o ecossistema de finanças descentralizadas (DEFI) foi definido pela inovação, de trocas descentralizadas (DEXs) a protocolos de empréstimos e empréstimos, estábulos e muito mais.

A mais recente inovação é Defai, ou Defi, alimentada pela perceptibilidade sintético. Na DeFai, os bots autônomos treinados em grandes conjuntos de dados podem melhorar significativamente a eficiência executando negociações, gerenciando riscos e participando de protocolos de governança.

Uma vez que é o caso de todas as inovações baseadas em blockchain, no entanto, a DeFai também pode introduzir novos vetores de ataque que a comunidade criptográfica deve abordar para melhorar a segurança do usuário. Isso requer uma visão complexa das vulnerabilidades que acompanham a inovação, a término de prometer a segurança.

Os agentes DeFai estão um passo além dos contratos inteligentes tradicionais

No Blockchain, a maioria dos contratos inteligentes opera tradicionalmente com lógica simples. Por exemplo, “Se X suceder, portanto Y será executado.” Devido à sua transparência inerente, esses contratos inteligentes podem ser auditados e verificados.

Defai, por outro lado, gira da estrutura tradicional de contratos inteligentes, pois seus agentes de IA são inerentemente probabilísticos. Esses agentes de IA tomam decisões com base em conjuntos de dados em evolução, entradas anteriores e contexto. Eles podem interpretar sinais e se conciliar em vez de reagir a um evento predeterminado. Embora alguns possam estar certos em esgrimir que esse processo oferece inovação sofisticada, ele também cria um terreno fértil para erros e explorações por meio de sua incerteza inerente.

Até agora, as iterações precoces dos robôs de negociação movidos a IA em protocolos descentralizados sinalizaram a mudança para DeFai. Por exemplo, usuários ou organizações autônomas descentralizadas (DAOs) podem implementar um bot para digitalizar padrões de mercado específicos e executar negociações em segundos. Por mais inovador que isso possa parecer, a maioria dos bots opera em uma infraestrutura do Web2, trazendo ao Web3 a vulnerabilidade de um ponto de lacuna concentrado.

Defai cria novas superfícies de ataque

A indústria não deve ser apanhada na emoção de incorporar a IA em protocolos descentralizados quando essa mudança pode gerar novas superfícies de ataque para as quais não está pronto. Os maus atores podem explorar agentes de IA por meio de manipulação do protótipo, intoxicação por dados ou ataques de ingresso adversários.

Isso é exemplificado por um agente de IA treinado para identificar oportunidades de arbitragem entre DEXs.

Relacionado: A ciência descentralizada encontra a IA – as instituições legadas não estão prontas

Os atores de ameaças podem adulterar seus dados de ingresso, fazendo com que o agente execute negociações não lucrativas ou até mesmo drenar fundos de um pool de liquidez. Outrossim, um agente comprometido poderia enganar um protocolo inteiro para confiar em informações falsas ou servir uma vez que ponto de partida para ataques maiores.

Esses riscos são agravados pelo veste de que a maioria dos agentes de IA são atualmente caixas pretas. Mesmo para os desenvolvedores, as habilidades de tomada de decisão dos agentes de IA que eles criam podem não ser transparentes.

Esses recursos são o oposto do ethos do Web3, que foi construído sobre transparência e verificabilidade.

A segurança é uma responsabilidade compartilhada

Com esses riscos em mente, as preocupações podem ser expressas sobre as implicações de Defai, potencialmente pedindo uma pausa completamente sobre esse desenvolvimento. Defai é, no entanto, provavelmente evoluir e ver maiores níveis de adoção. O que é necessário portanto é conciliar a abordagem do setor à segurança de negócio. Os ecossistemas envolvendo o DeFai provavelmente exigirão um protótipo de segurança padrão, onde desenvolvedores, usuários e auditores de terceiros determinam os melhores meios para manter a segurança e minorar os riscos.

Os agentes da IA ​​devem ser tratados uma vez que qualquer outra peça de infraestrutura de Onchain: com ceticismo e escrutínio. Isso implica auditar rigorosamente sua lógica de código, simulando os piores cenários e até usando exercícios de equipes vermelhas para expor vetores de ataque antes que atores maliciosos possam explorá-los. Outrossim, o setor deve desenvolver padrões de transparência, uma vez que modelos de código ingénuo ou documentação.

Independentemente de uma vez que o setor vê essa mudança, Dafai apresenta novas perguntas quando se trata da crédito de sistemas descentralizados. Quando os agentes da IA ​​podem manter ativos autonomamente, interagir com contratos inteligentes e votar nas propostas de governança, a crédito não é mais somente verificar a lógica; Trata -se de verificar a intenção. Isso exige explorar uma vez que os usuários podem prometer que os objetivos de um agente se alinhem com as metas de limitado e longo prazo.

Para perceptibilidade segura e transparente

O caminho a seguir deve ser uma das soluções interdisciplinares. Técnicas criptográficas, uma vez que provas de conhecimento zero, podem ajudar a verificar a integridade das ações de IA, e as estruturas de atestado de Onchain podem ajudar a rastrear as origens das decisões. Finalmente, as ferramentas de auditoria com elementos da IA ​​podem julgar os agentes de maneira mais abrangente que os desenvolvedores atualmente revisam o código de contrato inteligente.

A verdade permanece, no entanto, que a indústria ainda não está lá. Por enquanto, a auditoria rigorosa, a transparência e os testes de estresse continuam sendo a melhor resguardo. Os usuários que pensam em participar dos protocolos DeFai devem verificar se os protocolos adotam esses princípios na lógica da IA ​​que os impulsiona.

Prometer o porvir da inovação da IA

DeFai não é inerentemente inseguro, mas difere da maior segmento da infraestrutura atual do Web3. A velocidade de sua adoção riscos superando as estruturas de segurança em que o setor depende atualmente. Uma vez que a indústria criptográfica continua aprendendo – geralmente da maneira mais difícil – a inovação sem segurança é uma receita para o sinistro.

Oferecido que os agentes da IA ​​em breve poderão agir em nome dos usuários, manter seus ativos e protocolos de forma, o setor deve enfrentar o veste de que toda risca de lógica de IA ainda é código e todas as linhas de código podem ser exploradas.

Se a adoção do DeFai ocorre sem comprometer a segurança, ela deve ser projetada com segurança e transparência. Qualquer coisa menos convida os resultados que a descentralização foi destinada a impedir.

Opinião de: Jason Jiang, diretor de negócios da Certik.

Levante cláusula é para fins gerais de informação e não se destina a ser e não deve ser tomado uma vez que aconselhamento lícito ou de investimento. Os pontos de vista, pensamentos e opiniões expressos cá são os únicos do responsável e não refletem ou representam necessariamente as opiniões e opiniões do cointelegraph.