<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=1498912473470739&amp;ev=PageView&amp;noscript=1">
  • Empresas fiscalizadas.
  • Trabalhe Conosco.
  • Imprensa.
  • Fale Conosco.
    Português Português (BR)

Publicações

Consulta
2024#24: O que fazer para a IA funcionar no mundo real?
Regulação Internacional

2024

#24: O que fazer para a IA funcionar no mundo real?

O desafio de colocar a IA para funcionar no mundo real

Imagem exibe vários balões de conversas coloridos com ícones de lâmpadas.
Foto: SXSW - divulgação

É necessário misturar três elementos se queremos encarar os desafios do tsunami tecnológico que está sendo turbinado pela inteligência artificial: pragmatismo, rigor e um bocado de ceticismo — tudo isso sem superestimar os poderes da IA. Como diz o professor Marek Kowalkiewicz, autor do livro recém-publicado The Economy of Algorithms: AI and the Rise of the Digital Minions, não podemos ter nem muita ansiedade, nem encantamento em excesso.

No painel do SXSW 2024 que leva o mesmo nome do livro, Kowalkiewicz mergulhou com bom humor na economia dos algoritmos por trás da inteligência artificial. "Os algoritmos querem trabalhar 24/7, como os minions do filme, mas precisam de supervisão, porque no momento em que você vira as costas eles causam problemas". Embora sejam peças cada vez mais sofisticadas de software, capazes de fazer coisas incríveis, como os chatbots de IA ou os contratos inteligentes de DeFi (finanças descentralizadas), os algoritmos podem ser imprecisos ou tendenciosos se deixados sozinhos.

Como, por exemplo, apresentar uma margem de erro de até 34% ao analisar rostos de mulheres negras e confundi-las com homensfrisou a Dra. Joy Buolamwini. "Falamos muito sobre o potencial da IA, mas muito pouco sobre suas limitações", completa.

Buolamwini, fundadora da Algorithmic Justice League, é conhecida por identificar o viés de raça e de gênero das plataformas de IA para reconhecimento de imagem. Sua pesquisa no MIT transformou o campo da auditoria de inteligência artificial, e ela já foi chamada pela revista Fortune de “consciência da revolução da IA”. Para entender mais sobre o seu trabalho, que envolve dar consultoria sobre os riscos dessa tecnologia para empresas e governos, é possível assistir ao documentário Coded Bias, da Netflix, ou ler o seu livro Unmasking AI, lançado em 2023. 

Buolamwini usa o termo excoded para nomear pessoas que foram identificadas incorretamente pela IA ou pessoas que tiveram seus rostos utilizados em deepfakes. "Ninguém está imune de ser um excoded. Temos que criar sistemas robustos para evitar isso e não esquecer de quem já foi afetado", diz Buolamwini, antecipando que esse será o tema de um novo documentário da Netflix.

Confiar desconfiando

O desafio de implementar a IA no mundo real com o menor índice de riscos foi uma recorrência entre os painéis da trilha de IA do SXSW 2024. Um grupo de cientistas e pesquisadores da NSF (National Science Foundation), que desde os anos 60 estuda inteligência artificial, apresentou suas visões no painel Beyond ChatGPT: What Will the Next Generation of AI Bring?

A conversa girou em torno da experiência da NSF em usar modelos de IA e o que as empresas podem esperar quando eles são implementados "para valer". Uma das conclusões é que a interação entre IA e humanos fora dos ambientes de teste é complexa. Sabemos muito sobre computadores e muito sobre humanos separadamente, mas, quando a interação acontece, os resultados podem ser imprevisíveis. 

Michael L. Littman, diretor da divisão de informação e sistemas inteligentes da NSF, ressaltou a importância de supervisão e de processos de tomada de decisão, especialmente em ambientes de alto risco, como os serviços financeiros. Littman reforçou a recomendação de desenvolver os sistemas considerando os impactos sociais e éticos desde o início. 

Gráfico exibe um framework de inovação, listando ações possíveis para cada área das empresas de mercado de capitais.

Foto: SXSW - divulgação
 

O rigor da lei no Hall da Fama

Nada pode mandar um sinal mais claro sobre a urgência e a importância de estabelecer uma cadeia de responsabilização para o uso das tecnologias do que a nomeação da vice-presidente executiva da Comissão Europeia, Marghrete Vestager, para o Hall da Fama do SXSW 2024. Vestager é responsável pela comissão de concorrência de mercado e define a direção estratégica da iniciativa Europe Fit for the Digital Age, que tem o objetivo de garantir que a tecnologia digital apoie os interesses da sociedade. Ela está por trás da estratégia de inteligência artificial da UE e da recente aprovação do AI Act.

No painel Technology, Leadership, Geopolitics and the Future, Vestager compartilhou uma visão muito pragmática: a tecnologia existe para servir aos interesses do bem público, e a livre concorrência é um pedaço disso. As leis rigorosas e as multas, diz ela, fazem parte da caixa de ferramentas da comissão para conseguir a conformidade com os objetivos. "Com base na minha experiência, não dá para confiar apenas na boa vontade."

Na quarta-feira (13), o AI Act foi aprovado pelo Parlamento Europeu. Ao escrever sobre a regulação da IA, na segunda-feira (11), Vestager lembrou da dualidade da IA: "por si só, ela não é boa nem má. Tudo depende de como é usada. (...) A nossa abordagem se resume a um princípio simples: quanto mais riscos tiver a IA, mais fortes serão as obrigações para quem a desenvolve".