Por Ana Luize Corrêa Bertoncini (baseado na aula de fechamento ministrada para a disciplina de “Tópicos Especiais III – Política e Política Pública” do curso de Administração Pública da ESAG/UDESC, semestre 2025/1)
No debate contemporâneo sobre a inserção tecnológica na gestão pública, enfrentamos um reducionismo perigoso. Frequentemente, a chamada “alfabetização ou literacia em inteligência artificial” (ou AI Literacy) é reduzida à mera capacidade instrumental de compreender códigos ou operar ferramentas generativas. Contudo, essa definição técnica é insuficiente para enfrentar os desafios da democracia atual.
A verdadeira literacia em IA não exige que gestores públicos ou cidadãos se tornem engenheiros de dados. Ela exige, sim, o desenvolvimento de uma competência sociotécnica e crítica capaz de interrogar a lógica subjacente aos sistemas, reconhecendo uma verdade desconfortável: algoritmos não são neutros. Como alerta Cathy O’Neil (2017), eles são “opiniões embutidas em código”, cristalizando visões de mundo que podem perpetuar desigualdades históricas e assimetrias de poder.
O risco mais silencioso da automação nas decisões públicas não é a falha técnica, e sim a terceirização da nossa agência moral. Ao delegarmos escolhas alocativas sensíveis, como quem recebe um benefício ou quem deve ser auditado, a sistemas de “caixa-preta”, corremos o risco de anular a prudência e a virtude ética necessárias para ponderar o contexto humano.
Transferir essa responsabilidade para máquinas que não possuem experiência moral genuína é um erro crítico, como apontam Serafim et al. (2024). A competência moral em IA, portanto, reside paradoxalmente em saber onde a máquina não deve atuar. Um gestor capacitado na literacia em IA é aquele que resiste ao “solucionismo tecnológico” – termo de Morozov (2013) para a tentativa de aplicar correções matemáticas a problemas sociais complexos – e identifica quando a eficiência estatística fere a dignidade humana.
Literacia ou Crise?
A ausência dessa competência crítica acarreta consequências mensuráveis. Em simulações sintéticas aplicadas a contextos de educação e pesquisa, por exemplo, Bertoncini et al. (2025) demonstram uma tendência alarmante: na ausência de literacia robusta, 78% dos agentes humanos aceitam decisões da IA sem revisão, vítimas do viés da automação e da crença na superioridade tecnológica.
Evidências de um estudo empírico trazem uma nuance crucial: a passividade perante a tecnologia costuma ser rompida apenas pelo trauma. Em um estudo conduzido na Holanda, Alon-Barkat e Busuioc (2023) mostram que a confiança cega no algoritmo só diminuiu significativamente após a repercussão de um grande escândalo governamental. O escândalo funcionou como um “despertador” ético, mas a um custo social inaceitável.
Isso nos coloca diante de uma escolha pragmática: a consciência crítica será forjada pela educação preventiva ou imposta pelo desastre administrativo?
A literacia em IA é, em última instância, exercer o que Bankins (2021) denomina “controle humano significativo” (meaningful human control). É escolher a autonomia para intervir antes que o dano ocorra, garantindo que a tecnologia sirva ao bem comum, e não à erosão da responsabilidade pública.
REFERÊNCIAS
ALON-BARKAT, S.; BUSUIOC, M. Human–AI Interactions in Public Sector Decision Making: “Automation Bias” and “Selective Adherence” to Algorithmic Advice. Journal of Public Administration Research and Theory, v. 33, n. 1, p. 153–169, 2023.
BANKINS, S. The ethical use of artificial intelligence in human resource management: a decision-making framework. Ethics and Information Technology, v. 23, n. 4, p. 841–854, 2021.
BERTONCINI, A. L.C.; MATSUSHITA, R.; DA SILVA, S. AI, Ethics, and Cognitive Bias: An LLM-Based Synthetic Simulation for Education and Research. AI in Education, v. 1, n. 1, p. 3, 2025.
CETINDAMAR, D. et al. Explicating AI Literacy of Employees at Digital Workplaces. IEEE Transactions on Engineering Management, v. 71, p. 810–823, 2024.
MOROZOV, E. To save everything, click here: the folly of technological solutionism. New York: PublicAffairs, 2013.
O’NEIL, C. Weapons of math destruction: how big data increases inequality and threatens democracy. New York: Crown, 2017.
SERAFIM, M.C.; BERTONCINI, A.L.C.; AMES, M.C.; PANSERA, D. Inteligencia Artificial (de)generativa: Sobre la imposibilidad de que un sistema de IA tenga una experiencia moral. Scripta Theologica, v. 56, n. 2, p. 467–502, 2024.
Texto desenvolvido com auxílio do Gemini 3 Pro. A autora garante a autoria e a revisão de todos os dados antes da divulgação da versão final.
