Na sua corrida para ser o primeiro a criar Inteligência Geral Artificial (AGI), a OpenAI estaria a realizar práticas imprudentes e arriscadas que poderiam pôr em perigo uma humanidade despreparada para o que está por vir.
Alguns especialistas nesta tecnologia disruptiva têm ligações ao altruísmo eficaz, um movimento inspirado no utilitarismo que nos últimos anos se preocupa em prevenir ameaças existenciais provenientes da IA.
Um deles é Daniel Kokotajlo, ex-pesquisador da divisão de governança da empresa liderada por Sam Altman.
“A OpenAI está realmente entusiasmada em construir o IAG e está correndo de forma imprudente para ser a primeira a fazê-lo”
disse Kokotajlo ao New York Times.
“O mundo não está pronto e nós também não. Estou preocupado que estejamos avançando precipitadamente e racionalizando nossas ações”
escreveu ele à sua equipe ao explicar sua demissão da empresa em abril passado.
Direito de avisar Após a sua última experiência, Kokotajlo acredita que o IAG (Inteligência artificial geral) poderá chegar em 2027 e que há 70 por cento de probabilidade de destruir ou causar danos catastróficos à humanidade. Por esta razão, juntamente com um grupo de colegas, publicou uma carta aberta apelando às principais empresas de IA, incluindo a OpenAI, para que estabeleçam maior transparência e mais proteções para os denunciantes.
“Quando entrei na OpenAI, não entrei para ter essa atitude de ‘Vamos jogar as coisas para o mundo e ver o que acontece e corrigi-las mais tarde'”
disse William Saunders.
Sugerimos a leitura das seguintes matérias
Empresa que desenvolve inteligência artificial quer “ensinar” IA a ser consciente
Engenheiro cria um clone de Jesus com inteligência artificial que emite profecias apocalípticas
Empresa que desenvolve inteligência artificial quer “ensinar” IA a ser consciente
Mistério! IA da Microsoft cria personalidade “divina” que exige adoração
William Saunders é engenheiro de pesquisa que deixou a OpenAI em fevereiro e é outro dos signatários da carta, que também contou com o apoio anônimo de vários funcionários atuais – porque, segundo Kokotajlo, temem retaliação da empresa.
Refira-se que, após tal publicação, esta terça-feira (4 de junho), a resposta da empresa demorou apenas horas a chegar.
“Estamos orgulhosos do nosso histórico de fornecimento de sistemas de IA mais capazes e seguros e acreditamos na nossa abordagem científica para lidar com os riscos. “Concordamos que um debate rigoroso é crucial dada a importância desta tecnologia, e continuaremos a envolver-nos com governos, sociedade civil e outras comunidades em todo o mundo”
comentou Lindsey Held, porta-voz da OpenAI.
Deixe sua opinião nos Comentários!
E compartilhe com seus amigos…
Convidamos você a nos seguir em nossa página no Facebook, para ficar por dentro de todas as novidades que publicamos:
0 Comentários