É antiético projetar robôs que pareçam humanos?

Posted by

Três homens atacam com chutes, sem parar, enquanto a vítima permanece imóvel na grama. Com veneno em seus olhos, um deles desfere um golpe esmagador com um bastão de madeira. Outro fica de joelhos e aplica uma sequência de murros.

A impressora está morta. Peças plásticas e chips são espalhados pelo chão.

Esta é a cena no filme clássico Office Space, de Mike Judge, que é uma libertação catártica das constantes indignações do trabalhador moderno. A impressora é uma fonte de desgosto por suas constantes notificações de atolamento de papel e por sua incapacidade de se comunicar adequadamente com seus usuários humanos. Não há motivo para sentir compaixão em relação a este objeto inanimado: é apenas uma máquina, feita de plástico, cheia de microchips e fios. Quando a impressora encontrou seu fim, o público só sentiu alegria.

Mas e se esse ataque brutal tivesse sido em uma máquina com aparência humana que clamasse por misericórdia? Se ao invés de uma impressora benigna, ela tivesse um nome e características humanas? Será que ainda a atacaríamos de forma irracional? Será que sentiríamos algo diferente?

À medida que a tecnologia avança, de objetos inanimados orientados por números a máquinas com aparência humana e controladas por conversas, levantam-se questões sobre a compaixão direcionada à inteligência artificial e umas com as outras.

Aprendendo a amar os robôs

A compaixão humana é geralmente reservada para os vivos, segundo uma escala que aumenta à medida que julgamos que o ser tenha mais consciência. Mas, em 2015, pesquisadores japoneses descobriram evidências neurofisiológicas de que os humanos sentem empatia por robôs que parecem sofrer: exames cerebrais indicam que temos uma reação empática visceral automática tanto com seres humanos quanto com objetos que parecem humanos.

E assim, quanto mais humanizamos chatbots, assistentes virtuais e máquinas, mais demonstramos emoções humanas em relação a eles. Este é o processo do antropomorfismo, pelo qual são atribuídas emoções, traços e intenções humanas a objetos inanimados. Quando algo parece vivo, é da nossa natureza vê-lo através de uma lente humana. Agora que muitas AIs e bots de conversação têm a ilusão de ser autoconscientes, eles, portanto, desencadeiam respostas emocionais em seus usuários como se fossem humanos. Se a impressora desprezada no Office Space parecesse humana (ou um animal vivo), nossos sentimentos em relação ao objeto e aos perpetradores violentos seriam alterados. É por isso que muitas pessoas se sentem mal  quando veem o cão robótico de Boston Dynamics ser chutado.

Se decidirmos tratar os objetos de aparência humana meramente como objetos, isso acabaria por nos levar a objetificar humanos também? Não está claro como a compaixão humana, ou a falta dela, para a AI, afetará nossos relacionamentos na vida real. Mas existe a preocupante possibilidade que a nossa liberdade para tratar a tecnologia de aparência humana da maneira que quisermos (desde ser rude, até o abuso físico e o sexo sem consentimento) pode se refletir na normalização dessas ações nas nossas relações humanas. Em outras palavras, o empurrão da sociedade para a humanização da AI ​​poderia ter consequências não intencionais na desumanização de humanos reais.

O jogo da compaixão humana

Pode-se jogar com a compaixão humana. É o último grau do hack psicológico: Uma falha no comportamento humano que pode ser explorada na tentativa de se fazer um produto que cola. É por isso que os designers dão características humanas às AIs em primeiro lugar: eles querem que nós gostemos delas.

Observe os “robôs de companhia”, por exemplo, que estão sendo usados ​​para oferecer apoio emocional aos idosos. Esses robôs são construídos especificamente para ler e responder às emoções humanas e fornecer empatia artificial. Da mesma forma, o relacionamento que temos com os assistentes virtuais em nossos telefones e Amazon Echos tende a ser personificado, então queremos interagir mais com eles.

O rápido movimento para imbuir nossas experiências eletrônicas e on-line com qualidades que ofuscam a fronteira entre interações humanas e não humanas levanta duas questões fundamentais:

1:  Como a sociedade deve tratar a AI realista? Por exemplo, é correto esfaquear um robô de aparência realista? Sendo um objeto sem consciência, a punhalada parece ser uma demonstração de comportamento abominável, mas sem vítima. Mas como a ação não causa impacto direto sobre outra pessoa, sua realização pode atravessar um limiar moral sobre estar errada ou não. Existe uma preocupação de que exercer extrema dominância em relação a uma AI realista pode levar ao abuso sobre seres humanos e animais reais.

2: Quão realistas as empresas devem projetar objetos, experiências e chatbots de AI? O avanço da AI ​​e da realidade virtual trará para a linha de frente as discussões sobre o impacto visceral de experiências realistas. Isso abrirá a porta para assuntos muito desconfortáveis. O assassinato deve ser proibido na realidade virtual? Empresas poderiam criar bonecas sexuais realistas com aparência de menor de idade? “O problema que enfrentamos é que não temos ideia se permitir o uso de tais robôs seria uma saída para certos comportamentos, que acabariam reduzindo a incidência real de abuso infantil, ou se é algo que perpetua e normaliza esse comportamento”, disse a profissional de ética robótica do MIT Media Lab, Kate Darling, no We Robot 2017 na Yale Law School, em março de 2017. “Nós não temos ideia”.

Estas duas questões relativas ao tratamento e ao desenvolvimento de AI e chatbots realistas precisam ser consideradas em conjunto. Cabe à sociedade estabelecer não só as normas de comportamento para robôs e assistentes virtuais realistas, mas também desenvolver melhores orientações e expectativas para as empresas envolvidas no seu desenvolvimento.

O último ponto é que devemos pressionar por uma AI mais responsável, onde o pensamento profundo e a análise sejam dedicados a estas tecnologias emergentes. AIs realistas, chatbots e companheiros humanoides não só podem distorcer a nossa concepção de compaixão, mas também tem o potencial de impactar negativamente nossas relações entre humanos. Isso nos serviria para refletir fortemente sobre como interagimos com os mundos de fantasia criados por essas empresas. Embora nem sempre possamos controlar nossas respostas emocionais à tecnologia, podemos controlar o que desenvolvemos.

Texto de David Ryan Polgar, traduzido de Is it unethical to design robots to resemble humans?

Deixe uma resposta