Reflexões sobre a utilização da IA

Com as mudanças no paradigma socioeconômico mundial geradas pelo desenvolvimento da IA ao longo do tempo, depare-se com a Era Digital e com o crescimento rápido dos sistemas algorítmicos inteligentes. Por se tratar de um tema atual de alta complexidade, surgem diversos anseios e ponderações sobre essas tecnologias. Segundo Floridi et al. (2018), já não é mais uma dúvida se de fato a IA terá um grande impacto na sociedade, ela irá impactar de qualquer forma. Nesse processo de aplicação dessas tecnologias, originam-se diversas reflexões sobre a capacidade, inteligência e a responsabilidade da IA.

Muitos pesquisadores cogitam hipóteses sobre a capacidade dos sistemas de IA em criar decisões individuais e agir de maneira independente tal qual o ser humano, ponderando se existe de fato a possibilidade de as máquinas obterem a capacidade produzir “pensamentos” autônomos. Segundo Makridakis (2017) é possível afirmar que as máquinas também são inteligentes, já que podem ser instruídas a obterem decisões simples e atividades já pré-programadas, baseados em lógica. Entretanto, as máquinas atuam em um nível de racionalidade diferente dos seres humanos.

A IA que vemos atualmente fica restrita ao uso da racionalidade instrumental, ou seja, em um nível de inteligência mais operacional e calculista, internalizado no machine learning (aprendizagem de máquina) por uma série de ações organizadas para alcançar objetivos já pré-determinados. Já os seres humanos utilizam a racionalidade substantiva, caracterizada pela capacidade de realizar decisões individuais e com discernimento ético, representado também pelo pensamento crítico e pela consciência dos dilemas ao redor, autorrealização, autonomia e juízo de valor das ações realizadas.

Assim, os seres humanos no processo de decisão possuem ação moral, ou seja, são conscientes moralmente e são capazes de compreender o impacto daquela ação, agem com intencionalidade. Em contrapartida, os sistemas de IA não possuem intencionalidade ou entendimento moral, porque simplesmente não podem ser formados pela máquina (COECKELBERGH, 2020). Na realidade, as máquinas não compreendem princípios morais fundamentados, elas apenas executam procedimentos formais que expõem os aspectos morais do programador. Por ser um tópico ainda incerto, alguns autores se questionam se a IA com uma “consciência artificial” poderia ser ou não considerada um sujeito moral (OLIVEIRA e COSTA, 2018).

A vista do que foi exposto, Coeckelbergh (2020) explicita ainda que a IA pode sim realizar ações e decisões que possuem consequências éticas, entretanto, não estão conscientes do que fazem por não possuírem capacidade moral ou responsabilidade moral do que é feito.

Dessa forma, se a IA não consegue acumular experiências e aprender com seus erros,

talvez também não estaria apta para uso em atribuições mais complexas que envolvem a capacidade do pensar autônomo e com juízo de valor. Acerca disso, compreende-se que para a IA funcionar, os dados dentro do processo de machine learning estão carregados de valores, percepções e experiências daqueles que os desenvolvem, ou seja, esses algoritmos não são neutros.

Portanto, como um reflexo da sociedade de modo geral, permeada de desigualdades e exclusões, a utilização desses algoritmos torna-se enviesada, podendo vir a reforçar ainda mais preconceitos e discriminações (COECKELBERGH, 2020). O impacto dessas informações oriundas de programadores e outras fontes dúbias, cria um cenário difícil para diversos grupos de indivíduos em particular, uma vez que não se sabe quem será privilegiado ou deixado de lado pelo uso da IA, podendo ocasionar danos principalmente os que já se encontram marginalizados na sociedade.

Mediante ao contexto de possíveis prejuízos originados pela aplicação de maneira capciosa, ainda existem entraves para identificação de quem seria de fato responsável pelas eventuais consequências causadas pela IA, podendo ser os usuários, os programadores ou até mesmo a própria inteligência artificial, o que dificulta o processo de responsabilização e punição. Souza e Jacoski (2020) expõem preocupações sobre como podemos controlar esses algoritmos para que não interfiram nos direitos individuais ou que os danos gerados sejam coibidos, mesmo que durante o processo sejam conduzidos por boas intenções.

Essas observações também reverberam na dificuldade de estabelecer e aplicar princípios éticos que possam guiar a IA, com a finalidade de assegurar e fortalecer os direitos individuais, minimizando os danos gerados pelos outputs dos sistemas algorítmicos. De acordo com Martin e Galaviz (2022), são os princípios éticos que estabelecem os deveres que cada um deve cumprir e quais os limites que não devem ser ultrapassados. Com base neles, pode-se aperfeiçoar as possibilidades de desenvolvimento da IA, incluindo mais moralidade, imparcialidade, equidade e a transparência nas ações em sociedade.

Sendo assim, entende-se que a IA possui um papel de grande importância no desempenho de atividades e no desenvolvimento de melhorias na vida humana, se faz necessário também vislumbrar que existem riscos futuros ao materializar as hipóteses de evolução da IA e a preocupação contínua que perpetua em razão da dificuldade de encontrar respostas para questionamentos como: quem irá controlar a IA e quem será responsabilizado?Como eliminar o enviesamento dos dados, se é que é possível? Como antecipar ou ao menos diminuir os erros gerados? E se caso um dia, a IA conseguir ter autonomia e consciência, de alguma forma irá se autorregular ou será punida pelos danos causados?

Referências:

COECKELBERGH, M. All about the Human. In: Coeckelbergh, M. AI Ethics. Cambridge, MA: The MIT Press, [2020].

FLORIDI, Luciano et al. AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds And Machines. EUA, p. 690-707. 26 Nov. 2018. Disponível em:

researchgate.net/publication/329192820_AI4PeopleAn_Ethical_Framework_for_a_Good_AI_Society_Opportunities_Risks_Principles_and_Recommendations

GALAVIZ, C.; MARTIN, K. Moral Approaches to AI: Missing power and marginalized stakeholders. EUA, (University Of Notre Dame): Ssrn, 2022. Disponível em:

http://kirstenmartin.net/wp-content/uploads/2022/05/Moral-Approaches-to-AI-ethics-May-3-2022.pdf

MAKRIDAKIS, S. The forthcoming artificial intelligence (AI) revolution: Its impact on society and firms. Futures, v. 90, p. 46-60, 2017. Disponível em:

https://www.sciencedirect.com/science/article/pii/S0016328717300046.

OLIVEIRA, Samuel Rodrigues; COSTA, Ramon Silva. Pode a máquina julgar? Considerações sobre o uso de inteligência artificial no processo de decisão judicial. Disponível em:

https://indexlaw.org/index.php/HermeneuticaJuridica/article/view/4796/0.

SOUZA, C. J.; JACOSKI, C. A. Propriedade intelectual para criações de inteligência artificial. Brazilian Journal of Development, Curitiba, v. 6, n.5, p. 32344-32356, 2020.

Disponível em:

https://direitodofuturo.uff.br/2020/11/13/propriedade-intelectual-einteligenciaartificial/#:~:text=Ou%20seja%2C%20a%20propriedade%20intelectual,obra%20tal%20como%20se%20deu

Back To Top