E agora, Asimov?

Posted by

Issaac Asimov previu um mundo onde seres humanos e robôs conviveriam de forma intensa e escreveu as três leis com as quais os robôs deveriam ser configurados para garantir a convivência sustentada:

1ª Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
2ª Lei: Um robô deve obedecer as ordens que lhe sejam dadas por seres humanos exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei.
3ª Lei: Um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.
Mais tarde Asimov acrescentou a “Lei Zero”, acima de todas as outras: um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.

Agora, pensemos na grande variação de complexidade dos mais diferentes tipos de robôs. Desde um aspirador de pó automatizado até robôs militares. Por um lado, as três leis podem se mostrar uma complexidade sistêmica desnecessária para um dispositivo simplório. Por outro, podem não ser suficientes para gerenciar ameaças complexas e verdadeiras.

Na situação em que os robôs passarem a ser utilizados em guerras ou para aplicações de segurança, como lidar com a primeira lei, onde os robôs não podem ferir um ser humano, se a defesa de um indivíduo depende de interromper a qualquer custo o ofensor?

Em um outro exemplo, robôs feitos de DNA e proteína poderiam ser utilizados em cirurgias para corrigir problemas genéticos. Em teoria eles deveriam seguir as leis de Asimov. Mas para eles seguirem as ordens através dos sinais do DNA, eles precisariam essencialmente se transformar em uma parte integrante do corpo onde eles estão trabalhando. Esta integração tornaria mais difícil determinar se o robô seria independente o suficiente para decidir seguir as leis ou trabalhar fora delas. E, de forma prática, seria impossível para o robô determinar se uma ordem que ele recebeu seria danosa ao ser humano.

Outra questão é sobre o que é exatamente ferir um ser humano. Existem bebês robôs em desenvolvimento no Japão. Se um ser humano adotar um bebê destes, é bastante possível que este bebê cause feridas emocionais ou psicológicas. Mas esta ferida pode não ter vindo diretamente das atitudes do robô, ou ainda, pode aparecer muitos anos depois do fim da interação homem-robô.

Um outro grande problema é que seria necessária uma evolução ainda maior em AI para que os robôs fossem capazes de seguir as leis de Asimov. O objetivo da pesquisa em AI é algumas vezes definido como desenvolver máquinas capazes de pensar e agir racionalmente e como humanos. Mas ainda estamos longe deste feito de uma forma ampla.

Pensando assim, um robô poderia atuar em uma esfera muito restrita e qualquer aplicação racional das Leis de Asimov seria muito restrita. Além de não ser possível com a tecnologia atual, um sistema que pudesse raciocinar e tomar decisões baseadas nas leis iria demandar um enorme poder computacional.

Portanto, as Leis de Asimov não oferecem muito mais do que princípios fundamentais para quem pretende criar um algoritmo robótico hoje em dia. Precisamos de um conjunto de leis mais abrangente. Um exemplo são os 10 Princípios Japoneses da Lei da Robótica (no fim do artigo).

Finalmente, sem um desenvolvimento significativo em AI, implementar estas leis são uma tarefa impossível.

Adaptado de Why Asimov’s ‘Three Laws of Robotics’ need updating

Os 10 Princípios Japoneses da Lei da Robótica:

  1. Robôs devem servir a humanidade;
  2. Robôs nunca podem matar ou ferir humanos;
  3. Fabricantes de robôs devem ser responsáveis por suas criações;
  4. Robôs envolvidos na produção de moedas, contrabando ou bens perigosos devem possuir uma licença;
  5. Robôs não podem sair do país sem permissão;
  6. A identidade de robôs não deve ser alterada, ocultada ou permitida a ser mal interpretada.
  7. Robôs devem permanecer identificáveis o tempo todo;
  8. Robôs criados para uso adulto não podem ser permitidos a operar com crianças;
  9. Os robôs não devem auxiliar em atividades criminosas, nem ajudar ou instigar criminosos a escapar da justiça;
  10. Robôs devem abster-se de danificar casas humanas ou ferramentas, incluindo outros robôs.

Deixe uma resposta