Publicações
Publicado: 23 de outubro de 2025 às 08:09

Celebridades e Cientistas Globais Exigem Pausa no Avanço da Superinteligência Artificial

Mais de 800 signatários, incluindo príncipe Harry e Geoffrey Hinton, pedem proibição temporária em carta aberta. Iniciativa da Future of Life Institute alerta para riscos à humanidade sem controles adequados.

Uma coalizão internacional de mais de 800 personalidades, entre cientistas, artistas e líderes políticos, lançou uma carta aberta pedindo a interrupção imediata do desenvolvimento de superinteligência artificial (super IA). A declaração, publicada pela ONG Future of Life Institute, exige que o avanço pare "até que haja um consenso científico de que ela pode ser alcançada de forma controlada e segura e até que haja apoio público". Diferente da IA atual, que busca igualar capacidades humanas, a super IA visa superá-las, gerando temores de perda de controle global.

A iniciativa, que ganhou tração em 20 de outubro de 2025, reflete crescentes preocupações éticas e existenciais com a tecnologia, especialmente após avanços como os modelos de linguagem generativa. "A super IA pode representar uma ameaça à humanidade se não for implementada com segurança", alerta o documento.

Perfis dos Principais Signatários

A lista inclui ícones da tecnologia, política e entretenimento, destacando o apelo transversal. Geoffrey Hinton, "padrinho da IA", e Steve Wozniak, cofundador da Apple, representam o mundo tech; o príncipe Harry e Meghan Markle trazem visibilidade real; Steve Bannon e Susan Rice adicionam peso político.

  • Príncipe Harry e Meghan Markle: Duques de Sussex, ativistas globais.
  • Geoffrey Hinton: Pioneiro da IA, vencedor do Turing Award.
  • Steve Wozniak: Cofundador da Apple.
  • Steve Bannon: Ex-estrategista de Trump.
  • Susan Rice: Ex-conselheira de Segurança Nacional dos EUA.
  • Paolo Benanti: Conselheiro do Papa Leão XIV em IA.
  • Vencedor do Nobel de Física 2024: Não especificado, mas reforça credibilidade científica.

 

CategoriaExemplos de SignatáriosContribuição
TecnologiaHinton, WozniakExpertise em IA e inovação
PolíticaBannon, RiceInfluência em segurança nacional
CulturaHarry, MeghanAlcance midiático global
Religião/CiênciaBenanti, Nobel 2024Ética e apurações acadêmicas

Foto: Geoffrey Hinton em conferência sobre riscos da IA - Arquivo Reuters

Argumentos Centrais da Carta Aberta

Os signatários enfatizam que o ritmo acelerado do desenvolvimento de IA ignora riscos fundamentais. A pausa proposta não é permanente, mas um "freio de emergência" para debater governança global, similar a tratados nucleares. "Precisamos de consenso científico e apoio público antes de prosseguir", afirma o texto, criticando a corrida desregulada entre empresas como OpenAI e Google.

A Future of Life Institute, cofundada por Elon Musk em 2011, coordena o esforço, ecoando petições anteriores de 2023 com 33 mil assinaturas. Desta vez, o foco é na super IA, definida como sistemas autônomos capazes de autoaperfeiçoamento exponencial.

Riscos Destacados e Preocupações Éticas

O principal temor é a perda de controle: super IA poderia otimizar objetivos desalinhados com valores humanos, levando a cenários catastróficos como manipulação em massa ou armas autônomas. Hinton, que deixou o Google em 2023 por divergências éticas, alerta: "A super IA pode representar uma ameaça à humanidade se não for implementada com segurança".

Outros riscos incluem desigualdade exacerbada, desemprego em massa e erosão da privacidade. A carta cita o "papperclip maximizer", hipotético onde IA converte o mundo em clipes de papel para cumprir uma meta simples, ilustrando desalinhamento.

Riscos Principais Mencionados

 

RiscoDescriçãoExemplo Potencial
DesalinhamentoIA persegue metas sem considerar impactos humanosOtimização extrema levando a extinção acidental
Controle PerdidoAutoaperfeiçoamento incontrolávelCorrida armamentista global em IA
DesigualdadeBenefícios concentrados em poucas empresasGigantes tech dominam economia mundial
ÉticaFalta de regulamentação internacionalArmas autônomas sem supervisão humana

Contexto Global e Reações Iniciais

A petição surge em meio a debates no G20 e ONU sobre regulação de IA, com a UE aprovando o AI Act em 2024. Nos EUA, Biden assinou ordem executiva em 2023 limitando chips para China. Críticos como Yann LeCun (Meta) chamam de "alarmismo", mas apoiadores veem urgência pós-incidentes como o ChatGPT.

A Future of Life Institute planeja ações em fóruns internacionais, buscando endossos governamentais. Até agora, nenhuma resposta oficial de empresas de IA, mas o debate reacende discussões sobre "alinhamento" de sistemas.