Uso de Inteligência Artificial avança no mercado de capitais mas regulação específica ainda é desafio
InovaçãoInteligência Artificial
O uso de inteligência artificial continua a avançar nos mercados financeiros e de capitais e entre seus participantes, mas a definição de políticas regulatórias no segmento ainda constitui um dos principais desafios para essa evolução. A esse respeito, no último dia 10/10, terminou o prazo da consulta elaborada pela SEC americana para tratar conflitos de interesse associados ao uso de análise preditiva de dados (predictive data analytics ou PDA) por intermediários e advisors de investimento que sejam “contrários ao interesse público e à proteção de investidores”. As novas regras e ajustes sugeridos pela SEC determinam que tais participantes devem:
- Eliminar, ou neutralizar o efeito de, conflitos de interesses associados ao uso de tecnologias consideradas nessa regulamentação (covered technologies), em interações com investidores, que coloquem os interesses da empresa ou de seu representante a frente dos interesses dos investidores;
- Desenvolver políticas escritas e procedimentos para fins de prevenir violações (no caso de advisors) ou para assegurar o atendimento (no caso de intermediários) das regras propostas; e
- Manter registros de informações relacionados às respectivas regras sobre conflitos.
A definição utilizada para a tecnologia considerada na regulamentação, associada ao uso de PDA, refere-se ao uso de “método ou processo analítico, tecnológico, baseado em função computacional, em algoritmo, em modelo ou matriz de correlação, ou similar que faça otimizações, previsões, orientações, projeções ou direcione comportamentos ou resultados relacionados a investimentos, na interação com investidores” (em tradução livre).
Cabe notar que a proposta da SEC requer procedimentos objetivos por parte de intermediários e advisors, incluindo: a avaliação sobre quaisquer usos ou usos futuros potenciais de tecnologias abrangidas na definição acima disposta em interações com investidores que envolvam potencial conflito, inclusive na realização de testes de novas tecnologias; identificação se tais conflitos resultam na priorização de interesses do participante em detrimento do investidor; e providências no sentido de eliminar ou neutralizar efeitos dos conflitos como forma de tratá-los.
A justificativa da SEC para proposição de regras específicas a esse respeito parte do entendimento que a adoção e o uso de tecnologias como a PDA sofreram aceleração nos últimos anos, trazendo novas habilidades para participantes otimizarem seus interesses, escalarem o uso de ferramentas e ampliarem sua audiência. Tal fato pode trazer benefícios para investidores do ponto de vista de acesso aos mercados, eficiência e ganhos, mas também suscita novas formas de conflitos potenciais.
A proposta sofreu forte rejeição manifestada no processo de consulta e em discussões recentes. As críticas partem da noção que o regime regulatório atual sobre potenciais conflitos no mercado americano é robusto, razoável e efetivo, não existindo motivações para o estabelecimento de regras adicionais para usos correntes ou novos de tecnologia. Ademais, a proposta no caso de PDA, diferentemente de regras preexistentes voltadas para conflitos, prevê tão somente a eliminação de conflitos ou de seus efeitos, e não alternativas como transparência e mitigação de riscos, utilizando definições amplas e exigindo procedimentos caros e complexos para situações em que tais conflitos podem não se verificar – o que, na prática, poderá prevenir ou restringir o desenvolvimento e uso das novas tecnologias.
De outro lado, a evolução de iniciativas mais abrangentes quanto ao uso de IA vem refletindo a preocupação das autoridades em estabelecer formas de tratar os riscos suscitados pelo desenvolvimento e uso de inteligência artificial nas diversas jurisdições. No último dia 30/10, o presidente dos EUA, Joe Biden, emitiu uma Ordem Executiva sobre inteligência artificial “segura e confiável”. A Ordem estabelece padrões de segurança e proteção relacionados à privacidade de cidadãos americanos. A esse respeito “avança em equidade e direitos civis e como referência para consumidores e trabalhadores, promove a inovação e a competição (...) direcionando ações às agências federais, como à SEC, e a outras áreas nos EUA, e quanto ao seu papel de liderança global. Entre os novos padrões de segurança e proteção, a Ordem determina que:
- desenvolvedores de sistemas de IA mais robustos devem compartilhar resultados e informações críticas de seus testes de segurança com o governo americano,
- conteúdos gerados por IA ou por ela autenticados devem ser submetidos a padrões e melhores práticas de detecção, e
- sejam estabelecidos programas de cibersegurança para detectar e resolver vulnerabilidades de software críticos em ferramentas de IA.
Já na União Europeia, em 9/12, Comissão, Parlamento e Conselho europeus concordaram com a adoção, a partir de 2024, da Lei de Inteligência Artificial, com texto final sujeito a ajustes a ser publicado no início do próximo ano, mas mantendo as linhas gerais da proposta de 2021 [ver Radar#31].
No Brasil, o Projeto de Lei nº 2.338, que dispõe sobre o uso de inteligência artificial, encontra-se em tramitação no Senado Federal desde maio do corrente ano. O mencionado PL também aborda o tema de forma abrangente estabelecendo princípios gerais que devem reger o desenvolvimento, implementação e uso de sistemas de IA, conceitos a serem utilizados, direitos das pessoas afetadas e a categorização dos riscos para fins de vedação e requisitos aplicáveis, além de regras de governança, de responsabilização e para a comunicação de incidentes graves, de supervisão e fiscalização, prevendo a designação de autoridade competente. Após aprovação no Senado, o PL deverá ir à discussão na Câmara dos Deputados.
Direto da Fonte