A IA aparenta ser um instrumento neutro que pode ser utilizado tanto de forma positiva quanto negativa, neste caso implicando controle e desumanização. Embora as discussões acerca do uso da inteligência artificial (IA) tenham se intensificado nos últimos anos, ainda na longínqua década de 1940 o matemático Norbert Wiener publicou um livro com inúmeras questões envolvendo a cibernética. Wiener apresentou uma nova ordem do real para a interpretação dos fatos e introduziu termos como o ciborgue e o ciberespaço (Kim, 2004). Com o objetivo de propor uma visão ampliada do estudo da IA e sua interface com a ética, esse ensaio convida a fazer uma reflexão acerca da inteligência artificial e os seus limites ao deparar-se com a inteligência humana.
Segundo Wiener (1970), o homem não poderia render-se à máquina sem que antes tenha examinado as suas leis de funcionamento e tenha garantido que a sua conduta obedeça a princípios aceitáveis; evidenciando a preocupação, à época, com o domínio da máquina sobre as condutas humanas. Atualmente, há uma dificuldade em estabelecer os conceitos de IA devido à complexidade de definição dos seus limites, visto que os benefícios, oportunidades e ameaças das novas tecnologias dividem o cenário com as consequências, por ora, desconhecidas (Bertoncini e Serafim, 2023).
Para Sichman (2021) a IA está atrelada à ciência/engenharia da computação e visa desenvolver sistemas computacionais que solucionem problemas através de diferentes técnicas e modelos. Apesar da expressão inteligência artificial ser amplamente utilizada, o termo sistemas de decisão automatizados (SDA) também tem sido adotado por levar em consideração as suas características tecnológicas (Mökander e Floridi, 2022). De acordo com Coeckelbergh (2020), a base da inteligência de IA é o software, isto é, um algoritmo ou uma combinação de algoritmos que processam informações criados por humanos para fins determinados (Hanna e Kazim, 2021).
Na perspectiva de Bullock (2019), a inteligência está apenas relacionada à solução de problemas complexos, indicando-a como um substrato independente que pode existir tanto num processo biológico informando ações humanas quanto num processo mecânico guiando um autômato. Essa é uma maneira que muitos enxergam a IA. Porém, a inteligência artificial não é inteligência no sentido amplo, capaz de compreender também a realidade metafísica; ela é limitada. As decisões humanas, por outro lado, não se restringem a cálculos e padrões e levam em consideração fatores intangíveis. O homem, pois, diferente da máquina e dos animais, tem o poder de decidir levando em consideração variáveis imensuráveis.
Sellés (2011), fundamentando-se na filosofia grega e medieval, admite a imaterialidade da inteligência refutando as teses materialistas de que o pensamento restringe-se à atividade cerebral. Para Sellés (2011), o filósofo Leonardo Polo consegue resolver essa questão ao indicar que a inteligência não é a totalidade da alma e nem da pessoa humana, visto que o pensamento e o raciocínio são características dessa faculdade; e é evidente que a pessoa humana não se reduz a isso. A inteligência ultrapassa o limiar, e o limite só é conhecido transcendendo-o. Desse modo, tematizar intelectualmente a noção de limite é tê-lo transcendido. Na perspectiva aristotélica, a alma é tudo e a inteligência é capaz de saber tudo irrestritamente. No entanto, aquilo que é material, por definição, é limitado, por consequência, a inteligência é imaterial. Se a inteligência é uma faculdade imaterial, então, não tem como uma máquina ser inteligente.
Um dos exemplos que distinguem a inteligência humana da artificial é que a máquina tende ao aperfeiçoamento contínuo, enquanto o homem é capaz de escolher perder ou retroceder. Nesse sentido, o homem é o único ser capaz de agir diferente do instinto; ou, considerando a IA, daquilo que havia sido programado. Dessa maneira, mesmo que os cálculos direcionem o homem para uma determinada tomada de decisão, ele poderia escolher agir diferente levando em consideração variáveis intangíveis. Os sistemas de decisão automatizados, por outro lado, buscam sempre o aperfeiçoamento e não são capazes de agir contra si mesmo ou de fazerem renúncias por um bem maior. Um robô, portanto, nunca irá se contradizer, o homem sim, seja de forma intencional ou não.
A tradição escolástica fundou a especificidade humana na sua capacidade de abstração. Isso significa que cabe a frustrabilidade de certos atos apenas ao ser humano, ou seja, mesmo que o instinto ou memória tendem a uma direção, o homem pode escolher o caminho oposto. Assim, o instinto do animal o faz sempre dizer sim à natureza, já o homem é capaz de dizer não, e é exatamente nesse “não” que está o índice de sua grandeza e a abertura de sua elevação. Logo, “o homem pode frustrar o dever-ser. O dever-ser dos animais é fatal porque eles obedecem aos instintos. Mas o do homem é frustrável, porque ele é inteligente e dispõe da vontade” (Santos, 2003, p. 103).
Os animais obedecem aos instintos e as máquinas obedecem aos desempenhos dos padrões de IA e de programação, não sendo esta última capaz de criar. Nessa toada, como a mente humana é incapaz de conceber uma outra que lhe seja maior, a IA não poderia ser superior à humana. Os sistemas de IA podem revelar superioridade em aspectos quantitativos, como fazer mais cálculos em menos tempo; mas não qualitativos. Sobre a capacidade de criação, Santos (1962, p.50) discorre:
Para a escolástica, o homem é criatura, e, portanto, foi criado. E como todo ser criado, é posterior ao que o cria, ao Ser que o antecede. Ademais, quanto ao conhecimento, deveriam os marxistas saber que Aristóteles e São Tomás aceitavam que […] nada há no intelecto que primeiramente não tenha estado nos sentidos, o que é uma afirmação empirista.
(Santos, 1962, p.50)
Quanto mais virtuoso é o indivíduo mais ele é livre, pois não se curva a vícios ou paixões. Uma máquina não pode ser livre. Quando se fala em ética na IA, portanto, refere-se a quem desenvolveu a ferramenta ou a quem faz o seu uso. A ética numa visão aristotélica tomista é um atributo humano, pois requer liberdade, consciência e intencionalidade para tomar uma decisão moral. A Ética das Virtudes (EV), discorrida principalmente em Ética a Nicômaco, busca compreender o que é apropriado ao agente, considerando a intenção, o meio e a finalidade (Aristóteles, 1973). A EV são as normas (razão), os bens e as virtudes em vinculação. Desse modo, quando há ênfase apenas nos bens, desvinculando-se das normas e virtudes, reduzindo a motivação do homem à busca pelo prazer e fuga da dor, tem-se o utilitarismo; quando há ênfase nas normas, desvinculando-se dos bens e virtudes, tem-se a deontologia; quando há ênfase nas virtudes, desvinculando-se dos bens e da razão, tem-se o estoicismo. Diferentemente do utilitarismo e normativismo, que são generalizantes, não há como transformar as virtudes em algoritmos para que a máquina possa aplicar.
Ainda, a responsabilidade humana não pode ser terceirizada a uma máquina, não é a tecnologia que vai salvar a humanidade e resolver os problemas de ordem moral. Além disso, não adianta dar soluções tecnológicas quando o problema resulta do abandono das virtudes e do culto ao materialismo, erro filosófico de achar que a partir da potência se gera o ato, quando é o ato que ativa a potência. Não há, portanto, como apoiar-se em frágeis promessas de que um futuro tecnológico levaria a paz mundial e salvaria os homens, efeito já identificado por Mário Ferreira dos Santos quando afirma que:
A valorização da memória mecânica tem levado a uma valorização também exagerada da cibernética, na qual se colocam esperanças desmedidas. Ninguém pode negar que a cibernética poderá auxiliar extraordinariamente o homem de ciência, no referente à parte que corresponde à memória mecânica. Ela poderá suprir as deficiências nesse setor, já que é comum aos mais inteligentes serem desprovidos dos mais acentuados graus de memória mecânica. Mas jamais a cibernética superará a memória eidética, nem a criação de ideias, nem a dialética bem entendida. Ela é uma auxiliar de grandes recursos, mas num âmbito determinado. Pretender que ela possa substituir totalmente o cérebro humano é a mais tola ideia que poderia surgir, e uma manifestação de barbarismo intelectual da pior espécie.
(Santos, 2016, p. 26)
Para Polo (2002), a cibernética é uma ciência positiva e destinada a ter um valor operacional. Isso significa que as máquinas podem servir aos homens, mas não podem ser as responsáveis pelas decisões tomadas. Desse modo, através da lógica tomista aristotélica, procurou-se demonstrar que a IA não poderá substituir a inteligência humana, pois a inteligência é uma faculdade imaterial, não apenas mecânica e restrita a um órgão cerebral. Há também fatores intangíveis que fazem parte da tomada de decisão humana, tais como os sentimentos morais e o universo imaginativo. A decisão moral pode levar ao arrependimento ou a satisfação, atributos humanos que contribuem para o desenvolvimento moral do agente. Já a máquina, poderá seguir um padrão ético normativista ou utilitarista, mas não é capaz de transcender ou exercer virtudes. Assim, em que pese haja esforços do materialismo na direção de destruir a metafísica, colocando a razão e natureza acima dos transcendentais antropológicos, é no coração que a Verdade se encontra, e quem procura vai encontrá-la.
REFERÊNCIAS
ARISTÓTELES. Ética a Nicômaco. Tradução de Leonel Valandro e Gerd Bornheim. São Paulo: Abril Cultural, Vol. IV: Os Pensadores. 1973.
BERTONCINI, Ana Luize Corrêa. SERAFIM, Mauricio C. Ethical content in artificial intelligence systems: A demand explained in three critical points. Frontiers in Psychology, v. 14. 2023. Disponível em: https://www.frontiersin.org/articles/10.3389/fpsyg.2023.1074787. Acesso em 10 de junho de 2023.
BULLOCK, Justin. Artificial Intelligence, Discretion, and Bureaucracy. The
American Review of Public Administration. 49. 2019. Disponível em:
Intelligence-Discretion-and-Bureaucracy.pdf. Acesso em: 14 de julho de 2023.
COECKELBERGH, M. (2020). AI Ethics. The MIT Press Essential Knowledge Series. Cambridge, MA: The MIT Press.
HANNA, R. & KAZIM, E. Philosophical foundations for digital ethics and AI Ethics: a dignitarian approach. AI and Ethics, 1, 405-423. 2021. https://doi.org/10.1007/s43681-021-00040-9 Acesso em: 21 de junho de 2023.
KIM, J. H. Cibernética, ciborgues e ciberespaço: notas sobre as origens da cibernética e sua reinvenção cultural.Horizontes Antropológicos, v. 10, n. 21, p. 199–219, jan. 2004.
MÖKANDER, J., FLORIDI, L. (2022). From algorithmic accountability to digital
governance. Nat Mach Intell (2022). https://doi.org/10.1038/s42256-022-00504-5.
POLO, Leonardo. La cibernética como lógica de la vida. Studia Poliana, 2002, n. 4, pp. 9-17.
SANTOS, Mário Ferreira dos. O Problema Social. IX VOLUME da Coleção Problemas Sociais. Editora Logos. São Paulo: 1962.
SANTOS, Mário Ferreira dos. Invasão Vertical dos Bárbaros. Coleção Abertura
Cultural. São Paulo: É Realizações, 2016
SANTOS, Mário Ferreira dos. Cristianismo: a religião do homem. Bauru, SP:
EDUSC, 2003.
SELLÉS, J. F. Antropología para inconformes: Una antropología aberta al futuro. Pamplona: Ediciones Rialp, 2011.
SICHMAN, J. S. Inteligência Artificial e sociedade: avanços e riscos. Estudos
Avançados, v. 35, n. 101, p. 37–50, jan. 2021.
WIENER, N. Cibernética e sociedade: o uso humano de seres humanos. São Paulo: Cultrix, 1970.
