{"id":5241,"date":"2025-12-16T11:19:55","date_gmt":"2025-12-16T14:19:55","guid":{"rendered":"https:\/\/www.admethics.com\/?p=5241"},"modified":"2025-12-16T11:24:52","modified_gmt":"2025-12-16T14:24:52","slug":"ai-literacy-as-a-mechanism-for-democratic-defense-from-the-technical-to-the-socio-technical","status":"publish","type":"post","link":"https:\/\/www.admethics.com\/br\/ai-literacy-as-a-mechanism-for-democratic-defense-from-the-technical-to-the-socio-technical\/2025\/","title":{"rendered":"A Literacia em IA como Mecanismo de Defesa Democr\u00e1tica: Do T\u00e9cnico ao Sociot\u00e9cnico"},"content":{"rendered":"\n<p><em>Por <strong>Ana Luize Corr\u00eaa Bertoncini <\/strong>(baseado na aula de fechamento ministrada para a disciplina de \u201cT\u00f3picos Especiais III &#8211; Pol\u00edtica e Pol\u00edtica P\u00fablica\u201d do curso de Administra\u00e7\u00e3o P\u00fablica da ESAG\/UDESC, semestre 2025\/1)<\/em><\/p>\n\n\n\n<p>No debate contempor\u00e2neo sobre a inser\u00e7\u00e3o tecnol\u00f3gica na gest\u00e3o p\u00fablica, enfrentamos um reducionismo perigoso. Frequentemente, a chamada &#8220;alfabetiza\u00e7\u00e3o ou literacia em intelig\u00eancia artificial&#8221; (ou <em>AI Literacy<\/em>) \u00e9 reduzida \u00e0 mera capacidade instrumental de compreender c\u00f3digos ou operar ferramentas generativas. Contudo, essa defini\u00e7\u00e3o t\u00e9cnica \u00e9 insuficiente para enfrentar os desafios da democracia atual.<\/p>\n\n\n\n<p>A verdadeira literacia em IA n\u00e3o exige que gestores p\u00fablicos ou cidad\u00e3os se tornem engenheiros de dados. Ela exige, sim, o desenvolvimento de uma compet\u00eancia sociot\u00e9cnica e cr\u00edtica capaz de interrogar a l\u00f3gica subjacente aos sistemas, reconhecendo uma verdade desconfort\u00e1vel: algoritmos n\u00e3o s\u00e3o neutros. Como alerta Cathy O\u2019Neil (2017), eles s\u00e3o &#8220;opini\u00f5es embutidas em c\u00f3digo&#8221;, cristalizando vis\u00f5es de mundo que podem perpetuar desigualdades hist\u00f3ricas e assimetrias de poder.<\/p>\n\n\n\n<p>O risco mais silencioso da automa\u00e7\u00e3o nas decis\u00f5es p\u00fablicas n\u00e3o \u00e9 a falha t\u00e9cnica, e sim a terceiriza\u00e7\u00e3o da nossa ag\u00eancia moral. Ao delegarmos escolhas alocativas sens\u00edveis, como quem recebe um benef\u00edcio ou quem deve ser auditado, a sistemas de \u201ccaixa-preta\u201d, corremos o risco de anular a prud\u00eancia e a virtude \u00e9tica necess\u00e1rias para ponderar o contexto humano.<\/p>\n\n\n\n<p>Transferir essa responsabilidade para m\u00e1quinas que n\u00e3o possuem experi\u00eancia moral genu\u00edna \u00e9 um erro cr\u00edtico, como apontam Serafim et al. (2024). A compet\u00eancia moral em IA, portanto, reside paradoxalmente em saber onde a m\u00e1quina n\u00e3o deve atuar. Um gestor capacitado na literacia em IA \u00e9 aquele que resiste ao \u201csolucionismo tecnol\u00f3gico\u201d \u2013 termo de Morozov (2013) para a tentativa de aplicar corre\u00e7\u00f5es matem\u00e1ticas a problemas sociais complexos \u2013 e identifica quando a efici\u00eancia estat\u00edstica fere a dignidade humana.<\/p>\n\n\n\n<p><strong>Literacia ou Crise?<\/strong><\/p>\n\n\n\n<p>A aus\u00eancia dessa compet\u00eancia cr\u00edtica acarreta consequ\u00eancias mensur\u00e1veis. Em simula\u00e7\u00f5es sint\u00e9ticas aplicadas a contextos de educa\u00e7\u00e3o e pesquisa, por exemplo, Bertoncini et al. (2025) demonstram uma tend\u00eancia alarmante: na aus\u00eancia de literacia robusta, 78% dos agentes humanos aceitam decis\u00f5es da IA sem revis\u00e3o, v\u00edtimas do vi\u00e9s da automa\u00e7\u00e3o e da cren\u00e7a na superioridade tecnol\u00f3gica.<\/p>\n\n\n\n<p>Evid\u00eancias de um estudo emp\u00edrico trazem uma nuance crucial: a passividade perante a tecnologia costuma ser rompida apenas pelo trauma. Em um estudo conduzido na Holanda, Alon-Barkat e Busuioc (2023) mostram que a confian\u00e7a cega no algoritmo s\u00f3 diminuiu significativamente ap\u00f3s a repercuss\u00e3o de um grande esc\u00e2ndalo governamental. O esc\u00e2ndalo funcionou como um \u201cdespertador\u201d \u00e9tico, mas a um custo social inaceit\u00e1vel.<\/p>\n\n\n\n<p>Isso nos coloca diante de uma escolha pragm\u00e1tica: <strong>a consci\u00eancia cr\u00edtica ser\u00e1 forjada pela educa\u00e7\u00e3o preventiva ou imposta pelo desastre administrativo?<\/strong><\/p>\n\n\n\n<p>A literacia em IA \u00e9, em \u00faltima inst\u00e2ncia, exercer o que Bankins (2021) denomina \u201ccontrole humano significativo\u201d (<em>meaningful human control<\/em>). \u00c9 escolher a autonomia para intervir antes que o dano ocorra, garantindo que a tecnologia sirva ao bem comum, e n\u00e3o \u00e0 eros\u00e3o da responsabilidade p\u00fablica.<\/p>\n\n\n\n<p><strong>REFER\u00caNCIAS<\/strong><\/p>\n\n\n\n<p>ALON-BARKAT, S.; BUSUIOC, M. Human\u2013AI Interactions in Public Sector Decision Making: \u201cAutomation Bias\u201d and \u201cSelective Adherence\u201d to Algorithmic Advice. <strong>Journal of Public Administration Research and Theory<\/strong>, v. 33, n. 1, p. 153\u2013169, 2023.<\/p>\n\n\n\n<p>BANKINS, S. The ethical use of artificial intelligence in human resource management: a decision-making framework. <strong>Ethics and Information Technology<\/strong>, v. 23, n. 4, p. 841\u2013854, 2021.<\/p>\n\n\n\n<p>BERTONCINI, A. L.C.; MATSUSHITA, R.; DA SILVA, S. AI, Ethics, and Cognitive Bias: An LLM-Based Synthetic Simulation for Education and Research. <strong>AI in Education<\/strong>, v. 1, n. 1, p. 3, 2025.<\/p>\n\n\n\n<p>CETINDAMAR, D. et al. Explicating AI Literacy of Employees at Digital Workplaces. <strong>IEEE Transactions on Engineering Management<\/strong>, v. 71, p. 810\u2013823, 2024.<\/p>\n\n\n\n<p>MOROZOV, E. <strong>To save everything, click here<\/strong>: the folly of technological solutionism. New York: PublicAffairs, 2013.<\/p>\n\n\n\n<p>O\u2019NEIL, C. <strong>Weapons of math destruction<\/strong>: how big data increases inequality and threatens democracy. New York: Crown, 2017.<\/p>\n\n\n\n<p>SERAFIM, M.C.; BERTONCINI, A.L.C.; AMES, M.C.; PANSERA, D. Inteligencia Artificial (de)generativa: Sobre la imposibilidad de que un sistema de IA tenga una experiencia moral. <strong>Scripta Theologica<\/strong>, v. 56, n. 2, p. 467\u2013502, 2024.<\/p>\n\n\n\n<p>Texto desenvolvido com aux\u00edlio do Gemini 3 Pro. A autora garante a autoria e a revis\u00e3o de todos os dados antes da divulga\u00e7\u00e3o da vers\u00e3o final.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Por Ana Luize Corr\u00eaa Bertoncini (baseado na aula de fechamento ministrada para a disciplina de \u201cT\u00f3picos Especiais III &#8211; Pol\u00edtica e Pol\u00edtica P\u00fablica\u201d do curso de Administra\u00e7\u00e3o P\u00fablica da ESAG\/UDESC, semestre 2025\/1) No debate contempor\u00e2neo sobre a inser\u00e7\u00e3o tecnol\u00f3gica na gest\u00e3o p\u00fablica, enfrentamos um reducionismo perigoso. Frequentemente, a chamada &#8220;alfabetiza\u00e7\u00e3o ou literacia em intelig\u00eancia artificial&#8221; [&hellip;]<\/p>\n","protected":false},"author":20,"featured_media":5242,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[503,13,602],"class_list":["post-5241","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-articles","tag-ai","tag-artificial-intelligence","tag-literacy"],"translation":{"provider":"WPGlobus","version":"3.0.2","language":"br","enabled_languages":["en","br"],"languages":{"en":{"title":true,"content":true,"excerpt":false},"br":{"title":true,"content":true,"excerpt":false}}},"blog_post_layout_featured_media_urls":{"thumbnail":["https:\/\/www.admethics.com\/wp-content\/uploads\/2025\/12\/Imagem-do-WhatsApp-de-2025-12-15-as-10.49.41_289c4c8d-150x150.jpg",150,150,true],"full":["https:\/\/www.admethics.com\/wp-content\/uploads\/2025\/12\/Imagem-do-WhatsApp-de-2025-12-15-as-10.49.41_289c4c8d.jpg",1280,853,false]},"categories_names":{"3":{"name":"Articles","link":"https:\/\/www.admethics.com\/br\/category\/articles\/"}},"tags_names":{"503":{"name":"AI","link":"https:\/\/www.admethics.com\/br\/tag\/ai\/"},"13":{"name":"artificial intelligence","link":"https:\/\/www.admethics.com\/br\/tag\/artificial-intelligence\/"},"602":{"name":"literacy","link":"https:\/\/www.admethics.com\/br\/tag\/literacy\/"}},"comments_number":"0","_links":{"self":[{"href":"https:\/\/www.admethics.com\/br\/wp-json\/wp\/v2\/posts\/5241","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.admethics.com\/br\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.admethics.com\/br\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.admethics.com\/br\/wp-json\/wp\/v2\/users\/20"}],"replies":[{"embeddable":true,"href":"https:\/\/www.admethics.com\/br\/wp-json\/wp\/v2\/comments?post=5241"}],"version-history":[{"count":2,"href":"https:\/\/www.admethics.com\/br\/wp-json\/wp\/v2\/posts\/5241\/revisions"}],"predecessor-version":[{"id":5245,"href":"https:\/\/www.admethics.com\/br\/wp-json\/wp\/v2\/posts\/5241\/revisions\/5245"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.admethics.com\/br\/wp-json\/wp\/v2\/media\/5242"}],"wp:attachment":[{"href":"https:\/\/www.admethics.com\/br\/wp-json\/wp\/v2\/media?parent=5241"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.admethics.com\/br\/wp-json\/wp\/v2\/categories?post=5241"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.admethics.com\/br\/wp-json\/wp\/v2\/tags?post=5241"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}