Placeholder Photo

Impedir o desenvolvimento de IA “é mais importante” do que prevenir uma guerra nuclear

O teórico de inteligência artificial (IA) Eliezer Yudkowsky diz que a guerra nuclear é preferível ao desenvolvimento de IA avançada. Num artigo de opinião publicado na revista TIME, o cientista pediu aos países que usem a ameaça de guerra nuclear para impedir o surgimento da inteligência artificial geral. A inteligência artificial geral é a capacidade hipotética de um agente inteligente de compreender ou aprender qualquer tarefa intelectual que um ser humano possa. Ou seja, é qualquer inteligência artificial que iguale ou supere um ser humano. Na sua opinião, interromper a investigação em IA não é suficiente e sugere que os