“Há 70% de chance de que a IA destrua a humanidade”, diz ex-funcionário da OpenAI

Prevenir ameaças existenciais provenientes da IA.
Prevenir ameaças existenciais provenientes da IA.
Na sua corrida para ser o primeiro a criar Inteligência Geral Artificial (AGI), a OpenAI estaria a realizar práticas imprudentes e arriscadas que poderiam pôr em perigo uma humanidade despreparada para o que está por vir.

Alguns especialistas nesta tecnologia disruptiva têm ligações ao altruísmo eficaz, um movimento inspirado no utilitarismo que nos últimos anos se preocupa em prevenir ameaças existenciais provenientes da IA.

Imagem ilustrativa — Crédito: IA — A Chave dos Mistérios Ocultos.

Um deles é Daniel Kokotajlo, ex-pesquisador da divisão de governança da empresa liderada por Sam Altman.

“A OpenAI está realmente entusiasmada em construir o IAG e está correndo de forma imprudente para ser a primeira a fazê-lo”

disse Kokotajlo ao New York Times.

“O mundo não está pronto e nós também não. Estou preocupado que estejamos avançando precipitadamente e racionalizando nossas ações”

escreveu ele à sua equipe ao explicar sua demissão da empresa em abril passado.

Imagem ilustrativa — Crédito: IA — A Chave dos Mistérios Ocultos.

Direito de avisar Após a sua última experiência, Kokotajlo acredita que o IAG (Inteligência artificial geral) poderá chegar em 2027 e que há 70 por cento de probabilidade de destruir ou causar danos catastróficos à humanidade. Por esta razão, juntamente com um grupo de colegas, publicou uma carta aberta  apelando às principais empresas de IA, incluindo a OpenAI, para que estabeleçam maior transparência e mais proteções para os denunciantes.

“Quando entrei na OpenAI, não entrei para ter essa atitude de ‘Vamos jogar as coisas para o mundo e ver o que acontece e corrigi-las mais tarde'”

disse William Saunders.

Imagem ilustrativa — Crédito: IA — A Chave dos Mistérios Ocultos.


Sugerimos a leitura das seguintes matérias

Empresa que desenvolve inteligência artificial quer “ensinar” IA a ser consciente

Engenheiro cria um clone de Jesus com inteligência artificial que emite profecias apocalípticas

Empresa que desenvolve inteligência artificial quer “ensinar” IA a ser consciente

Mistério! IA da Microsoft cria personalidade “divina” que exige adoração



William Saunders é engenheiro de pesquisa que deixou a OpenAI em fevereiro e é outro dos signatários da carta, que também contou com o apoio anônimo de vários funcionários atuais – porque, segundo Kokotajlo, temem retaliação da empresa.

 Refira-se que, após tal publicação, esta terça-feira (4 de junho), a resposta da empresa demorou apenas horas a chegar.

 “Estamos orgulhosos do nosso histórico de fornecimento de sistemas de IA mais capazes e seguros e acreditamos na nossa abordagem científica para lidar com os riscos. “Concordamos que um debate rigoroso é crucial dada a importância desta tecnologia, e continuaremos a envolver-nos com governos, sociedade civil e outras comunidades em todo o mundo”

comentou Lindsey Held, porta-voz da OpenAI.

Deixe sua opinião nos Comentários!
E compartilhe com seus amigos…

Convidamos você a nos seguir em nossa página no Facebook, para ficar por dentro de todas as novidades que publicamos:

A Chave dos Mistérios Ocultos(clique ou toque para abrir)

Tags:

0 Comentários

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Sair da versão mobile