Os princípios de Asilomar e a AI benéfica

Posted by

Há alguns dias postamos sobre os desafios em se trabalhar as leis da robótica de Asimov no cenário atual de Inteligência Artificial.

Estudos tem sido conduzidos no sentido de se obter definições abrangentes sobre os limites da AI e a forma como a humanidade deve lidar com ela.

Um exemplo destes estudos são os Princípios de Asilomar para AI (em inglês: Asilomar AI Principles), os quais listamos abaixo:

Aspectos de Pesquisa

1. Objetivo da pesquisa: O objetivo da pesquisa em AI deve ser não criar inteligência não direcionada, mas inteligência benéfica;

2. Financiamento da pesquisa: Os investimentos em AI devem ser acompanhados por investimentos em pesquisa para garantir seu uso benéfico, incluindo questões como ciência da computação, economia, legislação, ética e social.

– Como podemos tornar os sistemas AI altamente robustos, de forma que eles façam o que queremos sem apresentar defeitos ou serem hackeados?
– Como podemos promover a prosperidade através da automação ao mesmo tempo em que resguardemos os recursos e os propósitos das pessoas?
– Como atualizar nossos sistemas legais para serem mais justos e eficientes, para acompanharem o ritmo da AI e gerenciar os riscos associados à AI?
– Como definirmos os valores que a AI deve seguir e que status ético e legal estes valores devem possuir?

3. Relação Ciência / Legislação: Deve haver um relacionamento construtivo e saudável entre pesquisadores de AI e os legisladores.

4. Cultura de pesquisa: Uma cultura de cooperação, confiança e transparência deve ser estimulada entre pesquisadores e desenvolvedores de AI.

5. Evitar disputa: Equipes desenvolvendo AI devem cooperar ativamente para evitar atalhos em padrões de segurança.

Ética e valores

6. Segurança: Sistemas AI devem ser seguros e protegidos por toda a sua vida útil, e isto deve ser passível de verificação quando aplicável e viável.

7. Transparência das falhas: Se um sistema AI causar algum tipo de dano, deve ser possível identificar o porquê.

8. Transparência legal: Qualquer envolvimento de um sistema autônomo em uma decisão jurídica deve prover uma explicação satisfatória e auditável por uma autoridade humana.

9. Responsabilidade: Designers e construtores de sistemas de AI avançados são responsáveis nas implicações morais do seu uso, mal uso e ações, com responsabilidade e oportunidade para tratar estas implicações.

10. Alinhamento de valores: Sistemas AI altamente autônomos devem ser projetados de forma que seus objetivos e comportamentos sejam asseguradamente alinhados com os valores humanos ao longo de toda a sua operação.

11. Valores humanos: Sistemas AI devem ser projetados e operados de forma compatível com os ideais de dignidade humana, direitos, liberdade e diversidade cultural.

12. Privacidade pessoal: As pessoas devem ter direito de acessar, gerenciar e controlar os dados que elas geram, tendo em vista a poder dos sistemas AI para analisá-los e utilizá-los.

13. Liberdade e privacidade: A aplicação de AI sobre dados pessoais não deve restringir de forma injustificada a liberdade das pessoas, de forma real ou percebida.

14. Benefício compartilhado: Tecnologias AI devem beneficiar e empoderar a maior quantidade de pessoas possível.

15. Prosperidade compartilhada: A prosperidade econômica criada por AI deve ser compartilhada largamente, beneficiando toda a humanidade.

16. Controle humano: Humanos devem escolher como e quando delegar decisões para sistemas AI, para atinigir os objetivos escolhidos pelos humanos.

17. Não-subversão: O poder conferido aos sistemas AI altamente avançados deve respeitar e se aprimorar os processos sociais e cívicos dos quais a sociedade sadia depende, nunca subvertendo-os.

18. Corrida armamentista em AI: Uma corrida armamentista para armas autônomas letais deve ser evitada.

Questões de longo prazo:

19. Precauções com capacidade: Não havendo consenso, devemos evitar inferências sobre os limites da capacidade de sistemas AI no futuro.

20. Importância: AIs avançadas podem representar uma mudança profunda na história da vida sobre a Terra e deve ser planejada e gerenciada com cautela e recursos proporcionais.

21. Riscos: Os riscos apresentados por sistemas AI, especialmente os riscos catastróficos ou existenciais, devem ser assunto de planejamento e esforços de mitigação proporcionais aos seus impactos esperados.

22. Auto-aprimoramento recursivo: Sistemas AI projetados para automaticamente se melhorarem ou se replicarem de forma que possa rapidamente promover aumento em quantidade ou qualidade devem ser assunto de rigorosas medidas de controle e segurança.

23. Bem comum: Superinteligência deve ser unicamente desenvolvida a serviço de ideais éticos amplamente compartilhados e para o benefício de toda a humanidade em detrimento de um estado ou organização.

Traduzido de Asilomar AI Principles, por indicação do prof. Antônio Marcos Alberti, do Inatel.

2 comments

Deixe uma resposta