{"id":3883,"date":"2023-01-10T18:00:00","date_gmt":"2023-01-10T21:00:00","guid":{"rendered":"https:\/\/www.admethics.com\/?p=3883"},"modified":"2023-01-10T13:37:58","modified_gmt":"2023-01-10T16:37:58","slug":"reflections-on-the-use-of-ai","status":"publish","type":"post","link":"https:\/\/www.admethics.com\/br\/reflections-on-the-use-of-ai\/2023\/","title":{"rendered":"Reflex\u00f5es sobre a utiliza\u00e7\u00e3o da IA"},"content":{"rendered":"\n<p>Com as mudan\u00e7as no paradigma socioecon\u00f4mico mundial geradas pelo desenvolvimento da IA ao longo do tempo, depare-se com a Era Digital e com o crescimento r\u00e1pido dos sistemas algor\u00edtmicos inteligentes. Por se tratar de um tema atual de alta complexidade, surgem diversos anseios e pondera\u00e7\u00f5es sobre essas tecnologias. Segundo Floridi et al. (2018), j\u00e1 n\u00e3o \u00e9 mais uma d\u00favida se de fato a IA ter\u00e1 um grande impacto na sociedade, ela ir\u00e1 impactar de qualquer forma. Nesse processo de aplica\u00e7\u00e3o dessas tecnologias, originam-se diversas reflex\u00f5es sobre a capacidade, intelig\u00eancia e a responsabilidade da IA.<\/p>\n\n\n\n<p>Muitos pesquisadores cogitam hip\u00f3teses sobre a capacidade dos sistemas de IA em criar decis\u00f5es individuais e agir de maneira independente tal qual o ser humano, ponderando se existe de fato a possibilidade de as m\u00e1quinas obterem a capacidade produzir \u201cpensamentos\u201d aut\u00f4nomos. Segundo Makridakis (2017) \u00e9 poss\u00edvel afirmar que as m\u00e1quinas tamb\u00e9m s\u00e3o inteligentes, j\u00e1 que podem ser instru\u00eddas a obterem decis\u00f5es simples e atividades j\u00e1 pr\u00e9-programadas, baseados em l\u00f3gica. Entretanto, as m\u00e1quinas atuam em um n\u00edvel de racionalidade diferente dos seres humanos.<\/p>\n\n\n\n<p>A IA que vemos atualmente fica restrita ao uso da racionalidade instrumental, ou seja, em um n\u00edvel de intelig\u00eancia mais operacional e calculista, internalizado no\u00a0<em>machine learning<\/em>\u00a0(aprendizagem de m\u00e1quina) por uma s\u00e9rie de a\u00e7\u00f5es organizadas para alcan\u00e7ar objetivos j\u00e1 pr\u00e9-determinados. J\u00e1 os seres humanos utilizam a racionalidade substantiva, caracterizada pela capacidade de realizar decis\u00f5es individuais e com discernimento \u00e9tico, representado tamb\u00e9m pelo pensamento cr\u00edtico e pela consci\u00eancia dos dilemas ao redor, autorrealiza\u00e7\u00e3o, autonomia e ju\u00edzo de valor das a\u00e7\u00f5es realizadas.<\/p>\n\n\n\n<p>Assim, os seres humanos no processo de decis\u00e3o possuem a\u00e7\u00e3o moral, ou seja, s\u00e3o conscientes moralmente e s\u00e3o capazes de compreender o impacto daquela a\u00e7\u00e3o, agem com intencionalidade. Em contrapartida, os sistemas de IA n\u00e3o possuem intencionalidade ou entendimento moral, porque simplesmente n\u00e3o podem ser formados pela m\u00e1quina (COECKELBERGH, 2020). Na realidade, as m\u00e1quinas n\u00e3o compreendem princ\u00edpios morais fundamentados, elas apenas executam procedimentos formais que exp\u00f5em os aspectos morais do programador. Por ser um t\u00f3pico ainda incerto, alguns autores se questionam se a IA com uma \u201cconsci\u00eancia artificial\u201d poderia ser ou n\u00e3o considerada um sujeito moral (OLIVEIRA e COSTA, 2018).<\/p>\n\n\n\n<p>A vista do que foi exposto, Coeckelbergh (2020) explicita ainda que a IA pode sim realizar a\u00e7\u00f5es e decis\u00f5es que possuem consequ\u00eancias \u00e9ticas, entretanto, n\u00e3o est\u00e3o conscientes do que fazem por n\u00e3o possu\u00edrem capacidade moral ou responsabilidade moral do que \u00e9 feito.<\/p>\n\n\n\n<p>Dessa forma, se a IA n\u00e3o consegue acumular experi\u00eancias e aprender com seus erros,<\/p>\n\n\n\n<p>talvez tamb\u00e9m n\u00e3o estaria apta para uso em atribui\u00e7\u00f5es mais complexas que envolvem a capacidade do pensar aut\u00f4nomo e com ju\u00edzo de valor. Acerca disso, compreende-se que para a IA funcionar, os dados dentro do processo de machine learning est\u00e3o carregados de valores, percep\u00e7\u00f5es e experi\u00eancias daqueles que os desenvolvem, ou seja, esses algoritmos n\u00e3o s\u00e3o neutros.<\/p>\n\n\n\n<p>Portanto, como um reflexo da sociedade de modo geral, permeada de desigualdades e exclus\u00f5es, a utiliza\u00e7\u00e3o desses algoritmos torna-se enviesada, podendo vir a refor\u00e7ar ainda mais preconceitos e discrimina\u00e7\u00f5es (COECKELBERGH, 2020). O impacto dessas informa\u00e7\u00f5es oriundas de programadores e outras fontes d\u00fabias, cria um cen\u00e1rio dif\u00edcil para diversos grupos de indiv\u00edduos em particular, uma vez que n\u00e3o se sabe quem ser\u00e1 privilegiado ou deixado de lado pelo uso da IA, podendo ocasionar danos principalmente os que j\u00e1 se encontram marginalizados na sociedade.<\/p>\n\n\n\n<p>Mediante ao contexto de poss\u00edveis preju\u00edzos originados pela aplica\u00e7\u00e3o de maneira capciosa, ainda existem entraves para identifica\u00e7\u00e3o de quem seria de fato respons\u00e1vel pelas eventuais consequ\u00eancias causadas pela IA, podendo ser os usu\u00e1rios, os programadores ou at\u00e9 mesmo a pr\u00f3pria intelig\u00eancia artificial, o que dificulta o processo de responsabiliza\u00e7\u00e3o e puni\u00e7\u00e3o. Souza e Jacoski (2020) exp\u00f5em preocupa\u00e7\u00f5es sobre como podemos controlar esses algoritmos para que n\u00e3o interfiram nos direitos individuais ou que os danos gerados sejam coibidos, mesmo que durante o processo sejam conduzidos por boas inten\u00e7\u00f5es.<\/p>\n\n\n\n<p>Essas observa\u00e7\u00f5es tamb\u00e9m reverberam na dificuldade de estabelecer e aplicar princ\u00edpios \u00e9ticos que possam guiar a IA, com a finalidade de assegurar e fortalecer os direitos individuais, minimizando os danos gerados pelos outputs dos sistemas algor\u00edtmicos. De acordo com Martin e Galaviz (2022), s\u00e3o os princ\u00edpios \u00e9ticos que estabelecem os deveres que cada um deve cumprir e quais os limites que n\u00e3o devem ser ultrapassados. Com base neles, pode-se aperfei\u00e7oar as possibilidades de desenvolvimento da IA, incluindo mais moralidade, imparcialidade, equidade e a transpar\u00eancia nas a\u00e7\u00f5es em sociedade.<\/p>\n\n\n\n<p>Sendo assim, entende-se que a IA possui um papel de grande import\u00e2ncia no desempenho de atividades e no desenvolvimento de melhorias na vida humana, se faz necess\u00e1rio tamb\u00e9m vislumbrar que existem riscos futuros ao materializar as hip\u00f3teses de evolu\u00e7\u00e3o da IA e a preocupa\u00e7\u00e3o cont\u00ednua que perpetua em raz\u00e3o da dificuldade de encontrar respostas para questionamentos como: quem ir\u00e1 controlar a IA e quem ser\u00e1 responsabilizado?Como eliminar o enviesamento dos dados, se \u00e9 que \u00e9 poss\u00edvel? Como antecipar ou ao menos diminuir os erros gerados? E se caso um dia, a IA conseguir ter autonomia e consci\u00eancia, de alguma forma ir\u00e1 se autorregular ou ser\u00e1 punida pelos danos causados?<\/p>\n\n\n\n<p>Refer\u00eancias:<\/p>\n\n\n\n<p>COECKELBERGH, M. All about the Human. In: Coeckelbergh, M. AI Ethics. Cambridge, MA: The MIT Press, [2020].<\/p>\n\n\n\n<p>FLORIDI, Luciano et al. AI4People\u2014An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds And Machines. EUA, p. 690-707. 26 Nov. 2018. Dispon\u00edvel em:<\/p>\n\n\n\n<p><a href=\"http:\/\/researchgate.net\/publication\/329192820_AI4PeopleAn_Ethical_Framework_for_a_Good_AI_Society_Opportunities_Risks_Principles_and_Recommendations\" target=\"_blank\" rel=\"noreferrer noopener\" title=\"researchgate.net\/publication\/329192820_AI4PeopleAn_Ethical_Framework_for_a_Good_AI_Society_Opportunities_Risks_Principles_and_Recommendations\">researchgate.net\/publication\/329192820_AI4PeopleAn_Ethical_Framework_for_a_Good_AI_Society_Opportunities_Risks_Principles_and_Recommendations<\/a><\/p>\n\n\n\n<p>GALAVIZ, C.; MARTIN, K. Moral Approaches to AI: Missing power and marginalized stakeholders. EUA, (University Of Notre Dame): Ssrn, 2022.&nbsp;Dispon\u00edvel em:<\/p>\n\n\n\n<p><a href=\"http:\/\/kirstenmartin.net\/wp-content\/uploads\/2022\/05\/Moral-Approaches-to-AI-ethics-May-3-2022.pdf\" target=\"_blank\" rel=\"noreferrer noopener\">http:\/\/kirstenmartin.net\/wp-content\/uploads\/2022\/05\/Moral-Approaches-to-AI-ethics-May-3-2022.pdf<\/a><\/p>\n\n\n\n<p>MAKRIDAKIS, S. The forthcoming artificial intelligence (AI) revolution: Its impact on society and firms. Futures, v. 90, p. 46-60, 2017.&nbsp;Dispon\u00edvel em:<\/p>\n\n\n\n<p><a href=\"https:\/\/www.sciencedirect.com\/science\/article\/pii\/S0016328717300046.\">https:\/\/www.sciencedirect.com\/science\/article\/pii\/S0016328717300046.<\/a><\/p>\n\n\n\n<p>OLIVEIRA, Samuel Rodrigues; COSTA, Ramon Silva. Pode a m\u00e1quina julgar? Considera\u00e7\u00f5es sobre o uso de intelig\u00eancia artificial no processo de decis\u00e3o judicial. Dispon\u00edvel em:<\/p>\n\n\n\n<p><a href=\"https:\/\/indexlaw.org\/index.php\/HermeneuticaJuridica\/article\/view\/4796\/0.\">https:\/\/indexlaw.org\/index.php\/HermeneuticaJuridica\/article\/view\/4796\/0.<\/a><\/p>\n\n\n\n<p>SOUZA, C. J.; JACOSKI, C. A. Propriedade intelectual para cria\u00e7\u00f5es de intelig\u00eancia artificial. Brazilian Journal of Development, Curitiba, v. 6, n.5, p. 32344-32356, 2020.<\/p>\n\n\n\n<p>Dispon\u00edvel em:<\/p>\n\n\n\n<p><a href=\"https:\/\/direitodofuturo.uff.br\/2020\/11\/13\/propriedade-intelectual-einteligenciaartificial\/#:~:text=Ou%20seja%2C%20a%20propriedade%20intelectual,obra%20tal%20como%20se%20deu\" target=\"_blank\" rel=\"noreferrer noopener\">https:\/\/direitodofuturo.uff.br\/2020\/11\/13\/propriedade-intelectual-einteligenciaartificial\/#:~:text=Ou%20seja%2C%20a%20propriedade%20intelectual,obra%20tal%20como%20se%20deu<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Com as mudan\u00e7as no paradigma socioecon\u00f4mico mundial geradas pelo desenvolvimento da IA ao longo do tempo, depare-se com a Era Digital e com o crescimento r\u00e1pido dos sistemas algor\u00edtmicos inteligentes. Por se tratar de um tema atual de alta complexidade, surgem diversos anseios e pondera\u00e7\u00f5es sobre essas tecnologias. Segundo Floridi et al. (2018), j\u00e1 n\u00e3o [&hellip;]<\/p>\n","protected":false},"author":33,"featured_media":3895,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[],"class_list":["post-3883","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-articles"],"translation":{"provider":"WPGlobus","version":"3.0.2","language":"br","enabled_languages":["en","br"],"languages":{"en":{"title":true,"content":true,"excerpt":false},"br":{"title":true,"content":true,"excerpt":false}}},"blog_post_layout_featured_media_urls":{"thumbnail":["https:\/\/www.admethics.com\/wp-content\/uploads\/2023\/01\/Post-Gabriela-10.01-150x150.png",150,150,true],"full":["https:\/\/www.admethics.com\/wp-content\/uploads\/2023\/01\/Post-Gabriela-10.01.png",1920,1080,false]},"categories_names":{"3":{"name":"Articles","link":"https:\/\/www.admethics.com\/br\/category\/articles\/"}},"tags_names":[],"comments_number":"0","_links":{"self":[{"href":"https:\/\/www.admethics.com\/br\/wp-json\/wp\/v2\/posts\/3883","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.admethics.com\/br\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.admethics.com\/br\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.admethics.com\/br\/wp-json\/wp\/v2\/users\/33"}],"replies":[{"embeddable":true,"href":"https:\/\/www.admethics.com\/br\/wp-json\/wp\/v2\/comments?post=3883"}],"version-history":[{"count":13,"href":"https:\/\/www.admethics.com\/br\/wp-json\/wp\/v2\/posts\/3883\/revisions"}],"predecessor-version":[{"id":3898,"href":"https:\/\/www.admethics.com\/br\/wp-json\/wp\/v2\/posts\/3883\/revisions\/3898"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.admethics.com\/br\/wp-json\/wp\/v2\/media\/3895"}],"wp:attachment":[{"href":"https:\/\/www.admethics.com\/br\/wp-json\/wp\/v2\/media?parent=3883"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.admethics.com\/br\/wp-json\/wp\/v2\/categories?post=3883"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.admethics.com\/br\/wp-json\/wp\/v2\/tags?post=3883"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}