As inteligências artificiais podem causar uma guerra nuclear, concluiu um relatório

FONTE O SUL//Não faltam histórias de ficção científica que abordem o tema de como as inteligências artificiais podem, de forma acidental ou deliberada, colocar um ponto final na hegemonia humana no planeta, levando o Homo sapiens à extinção ou à subserviência às máquinas. Aqui, no mundo real, gênios da ciência como Elon Musk e Stephen Hawking já declararam seus medos em relação à IA (inteligência artificial), comprovando que a paranoia tem um fundo real. As informações são do site CanalTech.

Para colocar mais lenha nessa fogueira, um relatório da RAND Corporation publicado na última terça-feira (24) afirma que existe um potencial significativo de que as IAs venham a facilitar o início de uma guerra nuclear. A RAND, uma organização sem fins lucrativos e apartidária, desenvolveu esse relatório com base em uma oficina realizada com especialistas em IA, segurança nuclear, governos e forças armadas a fim de aumentar os conhecimentos sobre os riscos que a tecnologia pode acrescentar à guerra e avaliar os impactos que a computação avançada pode representar ao longo das duas próximas décadas.

Dissuasão nuclear

Nas guerras que ocorreram do século XX em diante, ataques nucleares foram desencorajados, uma vez que o país que iniciar esse tipo de estratégia certamente colherá a retaliação de todas as outras nações. Essa lógica se baseia no conceito de “destruição mútua assegurada”, ou ainda “retaliação garantida”, e depende da capacidade dos países de contra-atacar.

Entretanto, como fica o equilíbrio dessa equação quando as inteligências artificiais começarem a analisar os padrões e perceberem que algumas nações têm mais vulnerabilidades ou capacidades ofensivas que outras? Andrew Lohn, engenheiro da RAND e coautor do relatório, explicou por meio de um comunicado que as “coisas que são relativamente simples podem aumentar as tensões e nos levar a algumas situações perigosas se não formos cuidadosos”.

Nesse caso, um país que se torna ciente de sua vulnerabilidade a um primeiro ataque, ou percebe sua capacidade de reagir em retaliação como digna de dúvidas, estaria em uma posição muito complicada. E a IA poderia conduzir as nações a um novo nível de desconfiança e competição, incluindo potências nucleares em desespero e dispostas a assumir riscos catastróficos para não levarem a pior.

Guerra preventiva

Em uma situação hipotética como essa, poderia acontecer o que se conhece como guerra preventiva, onde um confronto é iniciado com o intuito de prevenir que uma determinada potência seja capaz de adquirir um potencial destrutivo que coloque todo o mundo em risco.

Durante os anos que antecederam a Primeira Guerra Mundial, especialistas alemães concluíram que a Rússia seria capaz de derrotar a Alemanha em combate dentro de 20 anos, o que levou a uma guerra preventiva. Logo após a Segunda Guerra Mundial, pensadores estadunidenses, como o matemático John von Neumann e o filósofo Bertrand Russel, pediram que se iniciasse um ataque nuclear preventivo à União Soviética, temendo que ela pudesse desenvolver sua própria bomba.

Esses dois casos ilustram bem como a percepção de vulnerabilidades, que podem ser potencializada com o emprego de IAs na inteligência de guerra, faz com que as nações percam a cabeça e tomem decisões mais audaciosas e arriscadas. Segundo o relatório da RAND, a IA teria “o potencial de exacerbar os desafios emergentes para a estabilidade estratégica nuclear até o ano de 2040, mesmo com taxas modestas de progresso técnico”.

Segundo um dos coautores do relatório, o pesquisador especialista em política Edward Geist, não é necessário que sistemas autônomos provoquem a morte de ninguém para que a estabilidade entre países à beira de uma guerra se rompa. “Novas capacidades de IA podem fazer as pessoas pensarem que vão perder se hesitarem. Nesse ponto, a IA estará tornando a guerra mais provável, mesmo que os humanos ainda estejam em controle”, alerta.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *