Pare de se assustar com os bots do Facebook “inventando” uma nova língua

Posted by

O CEO da Tesla, Elon Musk, foi destaque na semana passada, quando tweetou suas frustrações sobre Mark Zuckerberg não compreender completamente o perigo potencial representado pela inteligência artificial.

Então, quando os meios de comunicação começaram a relembrar uma história que já havia sido noticiada há semanas, de que chatbots treinados pela AI do Facebook “inventaram” seu próprio idioma, não foi supresa que a história obteve mais atenção que quando divulgada pela primeira vez.

Compreensível, talvez, mas é exatamente a coisa errada para se focar. O fato de que os bots do Facebook “inventaram” uma nova maneira de se comunicar não era sequer a parte mais chocante da pesquisa para começar.

Um pouco de background: pesquisadores de AI do Facebook publicaram um artigo em junho, detalhando seus esforços para ensinar chatbots a negociar como seres humanos. Suas intenções eram de treinar os bots não apenas para imitar as interações humanas, mas para realmente agir como seres humanos.

Você pode ler todos os detalhes de como isto aconteceu na postagem do blog do Facebook sobre o projeto, mas a conclusão final é que seus esforços foram muito mais bem sucedidos do que eles esperavam. Não só os bots aprenderam a agir como seres humanos, os humanos reais aparentemente não conseguiram discernir a diferença entre bots e humanos.

Em um ponto do processo, porém, o estilo de comunicação dos bots saiu um pouco dos trilhos.

Os pesquisadores do Facebook treinaram os bots para que eles aprendessem a negociar da maneira mais eficaz possível, mas eles não disseram aos robôs que eles tinham que seguir as regras da gramática e sintaxe inglesas. Por isso, os bots começaram a se comunicar de maneira absurda dizendo coisas como “Eu posso posso eu, eu também”, informou a Fast Company na história agora altamente citada detalhando o resultado inesperado.

Isto, obviamente, não era a intenção do Facebook – já que seu objetivo final é usar suas aprendizagens para melhorar os chatbots que eventualmente irão interagir com os seres humanos, o que, você sabe, se comunica em inglês simples. Então eles ajustaram seus algoritmos para “produzir linguagem humana”.

É isso aí.

Então, o fato dos bots terem se ensinado uma comunicação que não fazia sentido para seus treinadores humanos, dificilmente significa que estamos caminhando para o dia do juízo final como tantos estão aparentemente concluindo. Além disso, como outros apontaram, esse tipo de fato acontece na pesquisa da IA ​​o tempo todo. Lembre-se quando um investigador de AI tentou treinar uma rede neural para inventar novos nomes para cores de tinta e foi hilariamente errado? Sim, é porque o inglês é difícil – não porque estamos à beira de alguma singularidade assustadora, não importa o que Musk diga.

Em qualquer caso, a obsessão com os bots “inventando um novo idioma” perde a parte mais notável da pesquisa: que os bots, quando ensinados a se comportar como humanos, aprenderam a mentir – mesmo que os pesquisadores não os treinassem para usar essa tática de negociação.

Se é mais relevante os bots mentirem (e o quão confortável estamos com a mentira), ou o estado de desenvolvimento da AI, você pode decidir. Mas se prender unicamente à pergunta “porque os bots não entenderam todas as nuances da gramática inglesa em primeiro lugar” é uma limitação. Vale a pena pensar além desta pergunta.

Traduzido de Stop freaking out about Facebook’s bots ‘inventing’ a new language

Leia também: No, Facebook Did Not Panic and Shut Down an AI Program That Was Getting Dangerously Smart

Deixe uma resposta