Um grupo de pesquisadores propôs uma estrutura de proteção financeira chamada Agentic Risk Standard (ARS) para operações com inteligência artificial (IA). O padrão de código aberto foi apresentado em artigo publicado em 8 de abril e está disponível no GitHub via T54 Labs.
A ARS visa proteger transações financeiras realizadas por agentes de IA, assim como custódia, seguros e câmaras de compensação protegem as transações financeiras tradicionais.
A estrutura foi desenvolvida por pesquisadores da Microsoft Research, da Universidade Columbia, do Google DeepMind, do Virtuals Protocol e da startup de IA T54 Labs.
Tipos de transações
O fundador da T54, Chandler Fang, explicou que existem dois tipos de transações agentivas: operações financeiras com humano no circuito e transações autônomas de agentes.
A equipe identificou uma “lacuna de garantia”, descrita como a “desconexão entre a confiabilidade probabilística que as técnicas de segurança de IA oferecem e as garantias executáveis de que os usuários precisam antes de delegar tarefas de alto risco”.
A pesquisa busca formalizar o que acontece financeiramente quando um agente de IA falha. O resultado é um protocolo de liquidação onde a proteção do usuário é determinística, não probabilística.
A solução se baseia em engenharia financeira. A ARS introduz contas de custódia, exigências de colateral e subscrição opcional. A estrutura distingue entre tarefas de serviço padrão e tarefas que envolvem movimentação de recursos.
O artigo compara a ARS com setores de alocação de risco: construção utiliza garantias de desempenho, comércio eletrônico usa custódia de plataforma, mercados financeiros usam exigências de margem e câmaras de compensação e DeFi usa colateralização por contratos inteligentes.
A Finra, em seu relatório de supervisão regulatória de 2026, incluiu uma seção sobre IA generativa, alertando corretoras a desenvolver procedimentos para lidar com falhas e examinar agentes de IA.
A ARS é apresentada como um protocolo que governa como os fundos são bloqueados, como as reivindicações são registradas e como os reembolsos são acionados quando um agente de IA falha.
O artigo é um primeiro passo para estabelecer uma estrutura que avalie o risco em transações autônomas de agentes.


