Reguladores buscam responder ao maior uso de inteligência artificial no mercado financeiro
OutrosTecnologia
O uso de Inteligência Artificial e Machine Learning vem ganhando espaço em diversas atividades do mercado de capitais. A utilização dessas tecnologias em atividades de intermediação e gestão de recursos foi objeto de consulta da IOSCO em 2020 (ver Anexos I e II), com o objetivo de averiguar riscos e eventuais respostas dos reguladores no monitoramento e supervisão desses avanços.
Mais recentemente, o assunto foi objeto de proposta regulatória na União Europeia, de cunho geral e com o principal objetivo de dispor um marco legal harmônico para tratamento do assunto. A proposta de Regulação de IA é ampla, alterando a regulação de diversos setores e referindo-se a tipos de uso, mas antecipa a responsabilidade de reguladores financeiros sobre a parcela das atividades do segmento que faz jus à supervisão. A proposta também utiliza uma abordagem baseada em riscos para lidar com os modelos de inteligência artificial. Segundo a proposta, eles serão classificados em 4 tipos, a partir de critérios e setores descritos na normatização. Dependendo do tipo de modelo assim classificado, as medidas de supervisão e adequação colocadas se diferem. Entre 4 categorias, três tem características dispostas e estarão sujeitas à regulação, a saber:
- Riscos inaceitáveis – tipos de uso e práticas que ficam proibidas com a proposta (como algumas situações de uso de sistemas de identificação biométrica remota em tempo real ou que permitem manipulação ou tratamento depreciativo de pessoas).
- Alto risco – sistemas e modelos listados no Anexo à regulação que ficarão sujeitos a uma série de requisitos dispostos na proposta.
- Risco Moderado – sujeitos a requerimentos informacionais para assegurar transparência
- Baixo Risco – sem exigências regulatórios (recomenda-se a elaboração de código de conduta
À exemplo das questões levantadas na consulta prévia da IOSCO, a proposta do Parlamento Europeu traz conceitos e uma lista de práticas para enquadramento dos modelos de IA. A maior parte do documento é dedicada à definição e classificação dos modelos de riscos elevado que ficam sujeitos a registro prévio e são divididos em dois tipos: aqueles que constituem componentes de segurança de atividades setoriais e estão sujeitos a avaliação de conformidade dessa legislação específica e aqueles que não se enquadram nessa condição (stand alone AI systems).
Os modelos de alto risco de IA ficam, ademais, sujeitos a requerimentos de gerenciamento de riscos, quanto aos dados utilizados e à respectiva governança, à documentação técnica e manutenção de registros, à transparência e fornecimento de informações a usuários, à supervisão humana, além de requisitos de resiliência a erros, inconsistência e vulnerabilidades, robustez e segurança cibernética. A proposta também detalha as condições para a criação de um Conselho voltado para Inteligência Artificial e uma base de dados para o acompanhamento dos modelos tipo ‘stand alone’.
A consulta é subsequente a uma consulta prévia que abarcou questões éticas e de escopo, bem como de formato da abordagem regulatória, e será encerrada em 5/7/2021, devendo trazer subsídios para novas evoluções a esse respeito.
Já nos EUA, o período de comentários à consulta elaborada por 5 agências regulatórias a respeito do uso de IA por instituições financeiras teve seu prazo de resposta estendido para 1º/7/2021. Os reguladores solicitaram, em 31/3, informações junto ao público quanto ao uso de IA nas atividades de instituições financeiras, inclusive no que se refere à prevenção de fraudes, à individualização de serviços ao consumidor, à concessão de crédito e outras operações. As agências regulatórias americanas estão buscando informações e comentários sobre o uso de IA por instituições financeiras com o propósito de entender se o fornecimento de serviços está acompanhado por uma governança e gestão de risco adequados e se há questões de controles internos ou outros desafios quanto a essa ferramenta que requerem a disposição de regras, inclusive relacionadas à proteção do investidor.
Na ANBIMA, o Grupo Consultivo de Inovação respondeu à consulta da IOSCO em outubro de 2020 ressaltando o uso crescente de ferramentas de IA e ML nas atividades de gestão e de intermediação, como ferramenta de apoio às atividades tradicionais e integrando movimentos recentes de estruturação de áreas de dados e adequada governança nas instituições e de qualificação de quadros técnicos nas áreas diversas. O tema permanece na pauta de discussões do Grupo em 2021.
Direto da Fonte
Anexos