As três – ou quatro – leis da robótica

Isaac Asimov (1920 – 1992) é considerado um dos maiores escritores de ficção científica do século XX. PhD em Bioquímica, Asimov escreveu mais de 400 livros, entre contos, romances e novelas de ficção, e obras de divulgação científica sobre temas de Astronomia, Física e História, entre outras. Especialmente influente é a sua ficção sobre a robótica, que o levou a imaginar um universo em que os seres humanos conviveriam com robôs responsáveis pelas mais diferentes tarefas.

Como seria esse mundo? Como seriam os robôs? Asimov desenvolveu sua utopia (e algumas distopias) sobre o desenvolvimento dos robôs e seus impactos sobre a vida humana em diversos livros, mas, de especial interesse para quem lida com ética é sua formulação das três leis, um conjunto de princípios que, em sua visão, seriam incorporados à programação de todos os robôs, o que os tornaria permanentemente sujeitos à vontade humana. Esses princípios são:

1ª Lei: Um robô não pode causar mal ou ferir a um ser humano ou, por inação, permitir que um ser humano o sofra;

2ª Lei: Um robô deve obedecer às ordens de um ser humano, exceto nos casos em que tais ordens conflitem com a primeira lei;

3ª Lei: Um robô deve proteger sua própria existência, exceto nos casos em que haja conflito com a primeira ou segunda lei.

Embora não existam, atualmente, leis gerais para a robótica, é fato que vários pesquisadores as levam a sério e as discutem. Eticamente falando, percebe-se que elas impõem um dever de preservação dos seres humanos e um de obediência, e, em segundo plano, o dever da autopreservação. Asimov acreditava que a possibilidade de robôs usarem capacidades superiores para prejudicar a humanidade seria impedida pelas leis: o dever de obedecê-las impediria um robô de matar uma pessoa por ordem de outra (conflitaria com a primeira lei), bem como de matar uma pessoa que ameaçasse sua própria existência física, pois sua autoproteção vem abaixo do dever de obedecer à primeira lei.

 Assim, parece haver, nas três leis, a preocupação com uma deontologia da “moral robótica”, em que a existência dos robôs é inferior à humana: a criatura jamais poderia sobrepujar o criador. Se você, que tirou uns minutos para ler meu texto, acredita em Deus e conhece a filosofia do século XIX, eu lhe digo que o robô, neste caso, é superior ao super-homem de Nietzsche, já que este matou Deus…

Divagações à parte, uma das séries de Asimov, a “Série dos Robôs”, composta por quatro romances protagonizados por Elijah Baley, um detetive, e seu parceiro R. Daneel Olivaw, um robô humanoide, utiliza quase o tempo todo as três leis para desenvolver sua trama. Entretanto, no quarto livro, intitulado “Robôs e Império”, Asimov acrescentou uma quarta lei:

Lei Zero: Um robô não pode causar mal à humanidade ou, por inação, permitir que a humanidade o sofra.

A lei zero é central para o desenvolvimento do quarto romance, e o leitor que completa a leitura dos quatro livros fica tentado a especular sobre como seria se os três anteriores a tivessem incorporado. Aspectos literários à parte, a lei zero é adotada por Daneel para evitar a destruição da Terra, mesmo com custo para alguns seres humanos envolvidos, mas não é uma lei programada – ela foi desenvolvida pelo próprio robô! Tanto é assim que o outro robô que aparece nos romances, R. Giskaard Reventlov, tecnicamente menos avançado (mas capaz de influenciar telepaticamente o pensamento humano), tem dificuldade de agir com base nela.

Os robôs de Asimov são sujeitos individualizados, tanto que recebem nomes; entretanto, são sempre destacados pela inicial R para se distinguirem. Como sujeitos morais, eles têm uma ética de serviço a seus mestres humanos, e sua existência está diretamente atrelada à deles. Mas, em termos teóricos, há um aspecto importante a ser destacado: a quarta lei ou lei zero é marcantemente utilitarista. Enquanto as outras leis são basicamente voltadas para os aspectos individuais da ética, e funcionam como princípios, a lei zero desloca seu objeto para uma entidade maior, que é o ser humano como um todo, e permite a um robô causar danos a um ser humano para salvar a humanidade como um todo. O ato, então passa a ser analisado pela sua consequência, que é o maior bem ao maior número.

Asimov não retomou a série dos robôs após a publicação de “Robôs e Império”. Teria sido interessante ver como a quarta lei funcionaria em outros contextos, mas não se sabe nada a esse respeito. Independentemente disso, moralmente falando, a única compatibilização possível com as outras três leis é posicionando-a no contexto de um utilitarismo de regras, do qual já falei em outro texto deste blog. Por mais que possa ser atraente, o utilitarismo de regras só funcionaria com um agente moral virtuoso; e como ser virtuoso em situações diferentes se você teria que obedecer a leis gerais?

Back To Top