XAI e o direito à explicação

Você pode até não saber como funciona um algoritmo, mas com certeza já deve ter ouvido falar esta palavra. O mesmo acontece com a inteligência artificial (IA): é um robô, uma máquina, um sistema? Muitas pessoas têm contato diário com tecnologias modernas, que estão imersas em diversos âmbitos de vida e influenciam praticamente todo o tecido social. Ainda assim, poucos entendem realmente o seu funcionamento.

No entanto, não lidamos mais com sistemas que servem como ferramenta para apoio às atividades dos seres humanos. Hoje, graças ao machine learning que possibilitou que algoritmos aprendam e se desenvolvam, as máquinas estão autonomamente tomando decisões. Assim, entender como os algoritmos chegam às decisões finais está levantando um debate sobre o direito à explicação. Isto significa que os usuários finais, que não necessariamente entendem as linguagens técnicas, precisam compreender os resultados e saídas das tecnologias. 

Além disto, percebe-se que, atualmente, a performance está negativamente correlacionada com a explicabilidade. Isto significa que, quanto maior a performance de um sistema de IA, menor é a sua explicabilidade (GUNNING, 2019). Neste sentido, a IA explicável é uma das áreas de estudo mais recentes que surgiu para satisfazer expectativas práticas, legais e éticas. Tecnologias deste tipo têm sido chamadas de XAI e suas características envolvem o uso, questões de responsabilidade, direito a explicações e autonomia, entre outros exemplos (KIM, 2018). Como direito moral, o direito à explicação existe além do impacto do resultado final, que se concentra na proteção da privacidade dos usuários nas transações de consentimento e de terceiros que possam estar envolvidos nos eventos (KIM; ROUTLEDGE, 2018). No entanto, IA explicável não significa apenas transparente, interpretável ou abrangente. É por isso que a psicologia humana tem sido usada para fornecer insights sobre as informações necessárias para criar sistemas XAI razoáveis. Esses requisitos dizem respeito ao que os usuários finais precisam para entender as decisões para decidir sobre a melhor aplicação (GUNNING, 2019). Em outras palavras, além de satisfazer as expectativas éticas, os humanos ainda precisam compreender como as decisões foram tomadas, pois os resultados das máquinas podem ser muito técnicos para eles.

Como reflexão, proponho um exercício. Tente identificar nas tecnologias a sua volta quais usam a IA. Depois, procure entender qual a lógica por trás deste sistema. Você verá que não é tão fácil assim e esta pequena reflexão poderá dar uma ideia do quanto é importante pensarmos em explicabilidade para o atual nível tecnológico em que vivemos.

REFEERÊNCIAS

GUNNING, D. W. A. DARPA’s Explainable Artificial Intelligence Program. AI Magazine, 44–58. doi:10.1201/b10933-22, 2019.

KIM, T. W. (2018). Explainable artificial intelligence (XAI), the goodness criteria, and the grasp-ability test. 1–7. Available at: http://arxiv.org/abs/1810.09598.

KIM, T. W., ROUTLEDGE, B. R. (2018). Informational Privacy, A Right to Explanation, and Interpretable AI. Procedures – 2nd IEEE Symp. Privacy-Aware Comput. PAC 2018, 64–74. doi:10.1109/PAC.2018.00013, 2018

Back To Top