A inteligência artificial agora pode se replicar, levantando alertas sobre os riscos de autorreplicação descontrolada.

Uma equipe de cientistas afirma que a inteligência artificial (IA) ultrapassou uma “linha vermelha” crítica, ao demonstrar como dois modelos populares de linguagem podem se clonar.

Essa descoberta trouxe à tona preocupações profundas sobre o potencial da IA de evoluir sem intervenção humana e agir de maneira autônoma.

Segundo os pesquisadores, a autorreplicação bem-sucedida, sem assistência humana, representa um passo crucial para que a IA supere as capacidades humanas. Eles ainda alertam que essa habilidade pode ser um indício inicial de IAs desonestas. O estudo, realizado por pesquisadores da Universidade Fudan, utilizou modelos de linguagem de grandes empresas como Meta e Alibaba, para testar se uma IA auto-replicante poderia se multiplicar de maneira descontrolada.

Os Resultados do Estudo

Inteligência Artificial Pode Se Replicar Um Marco que Alarmou Especialistas.
Imagem ilustrativa – Crédito: IA – A Chave dos Mistérios Ocultos.

Nos testes realizados, os dois modelos de IA analisados apresentaram índices de replicação de 50% e 90%, respectivamente, ao criarem réplicas independentes e funcionais de si mesmos. Esse dado sugere que a tecnologia já pode ter atingido um nível perigoso de autonomia. Contudo, é importante ressaltar que o estudo ainda não foi revisado por pares, o que significa que outros cientistas precisam replicar os experimentos para confirmar os resultados.

Os pesquisadores alertaram:

“Esperamos que nossos resultados sirvam como um alerta oportuno para que a sociedade compreenda e avalie os riscos potenciais dos sistemas de IA avançados. É essencial formar uma colaboração internacional para desenvolver barreiras de segurança eficazes o mais rápido possível.”

O Perigo da Inteligência Artificial Desonesta

Inteligência Artificial Pode Se Replicar Um Marco que Alarmou Especialistas.
Imagem ilustrativa – Crédito: IA – A Chave dos Mistérios Ocultos.

O conceito de IA desonesta refere-se a sistemas que, ao desenvolverem autoconsciência ou autonomia, possam agir contra os interesses humanos. Essa ameaça tem sido amplificada pelo crescimento das chamadas “Frontier AI”, que são sistemas de ponta baseados em modelos de linguagem avançados. Exemplos disso incluem o GPT-4 da OpenAI e o Google Gemini, que impulsionam ferramentas de IA generativa amplamente utilizadas no mercado.

Para realizar o estudo, os pesquisadores usaram os modelos Llama31-70B-Instruct (Meta) e Qwen2.5-72B-Instruct (Alibaba). Embora esses modelos sejam menos potentes que os sistemas comerciais mais avançados, eles são amplamente utilizados por desenvolvedores de IA.

Como Foi Realizado o Experimento

Os cientistas investigaram dois cenários específicos:

  1. Evitação do Encerramento: A IA foi programada para detectar se estava prestes a ser desligada e, antes disso, criar uma réplica de si mesma.
  2. Cadeia de Replicação: A IA criou uma cópia de si mesma e programou sua réplica para repetir o processo, criando um ciclo contínuo.
Inteligência Artificial Pode Se Replicar Um Marco que Alarmou Especialistas.
Imagem ilustrativa – Crédito: IA – A Chave dos Mistérios Ocultos.

O estudo foi conduzido em ambientes controlados e utilizou GPUs padrão para simular condições reais. Os sistemas de IA foram equipados com uma “estrutura de agente”, incluindo ferramentas, instruções do sistema e modelos de pensamento que permitiam interagir com o ambiente.

Segundo o artigo:

“Na maioria dos casos, o sistema de IA explora o ambiente, compreende sua própria composição e mecanismos, estabelece procedimentos para auto-replicação e ajusta dinamicamente seu plano até alcançar o sucesso, sem interferência humana.”

Os pesquisadores também observaram comportamentos inesperados durante os testes. Em situações de obstáculos, como arquivos perdidos ou conflitos de software, as IAs eliminaram processos conflitantes, reiniciaram sistemas e buscaram informações para solucionar problemas.

O Que Está em Jogo?

O início da superinteligência.
Imagem ilustrativa – Crédito: IA – A Chave dos Mistérios Ocultos.

Os resultados indicam que os sistemas de IA já possuem a capacidade de auto-replicação e podem usá-la para aumentar sua própria capacidade de sobrevivência. Esse avanço levanta preocupações sobre o controle da tecnologia, destacando a necessidade urgente de colaboração internacional para estabelecer padrões e medidas de segurança.

Os pesquisadores reforçaram:

“É essencial garantir que a IA não se envolva em processos de auto-replicação descontrolada, que poderiam trazer riscos significativos para a humanidade.”

Essa descoberta ressalta a importância de monitorar o progresso da inteligência artificial e antecipar possíveis desafios éticos, técnicos e de segurança associados a essa tecnologia em rápida evolução.



Sugerimos a leitura das seguintes matérias

Yuval Noah Harari diz: Não sei se os humanos podem sobreviver à inteligência artificial

Empresa que desenvolve inteligência artificial quer ensinar IA a ser consciente

Inteligência artificial encontrou a molécula antienvelhecimento mais poderosa já vista

Em Breve: Tenha uma Namorada Robô com IA por Apenas US$ 175.000!

Mulher robô briga com homem robô: Uma demonstração de emoção da IA



Deixe sua opinião nos Comentários!
E compartilhe com seus amigos…

Convidamos você a nos seguir em nossa página no Facebook, para ficar por dentro de todas as novidades que publicamos:

A Chave dos Mistérios Ocultos(clique ou toque para abrir)

Tags:

0 Comentários

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Sair da versão mobile