Empresa que desenvolve inteligência artificial quer “ensinar” IA a ser consciente

Empresa que desenvolve inteligência artificial quer ensinar ia a ser consciente - A Chave dos Mistérios Ocultos
Empresa que desenvolve inteligência artificial quer ensinar ia a ser consciente - A Chave dos Mistérios Ocultos
Com os chatbots de inteligência artificial (IA) se desenvolvendo rapidamente para inventar coisas e vomitar lixo preconceituoso, uma empresa fundada por ex-pesquisadores da OpenAI tem uma abordagem diferente:

Ensinar a IA a ser consciente.

Como relata a Wired, o curioso chatbot Claude, concorrente da OpenAI, da Anthropic , é construído com o que seus criadores chamam de “constituição” ou conjunto de regras que se baseiam na Declaração Universal dos Direitos Humanos e outros textos para garantir que o robô não seja apenas poderoso, mas também ético.

Jared Kaplan, ex-consultor de pesquisa da OpenA I que fundou a Anthropic com um grupo de ex-colegas, disse à Wired que Claude essencialmente aprende o certo do errado porque seus protocolos de treinamento:

“basicamente reforçam os comportamentos mais alinhados com a constituição e desencorajam comportamentos problemáticos”.

Será que realmente funciona na prática?

É difícil dizer.

Imagem representativa.

Afinal, o ChatGPT da OpenAI também tenta evitar mensagens antiéticas, com resultados mistos.

Mas com o uso indevido do chatbot sendo um grande ponto de interrogação pairando sobre a incipiente indústria de IA, é interessante ver uma empresa enfrentar o problema de frente.

Inteligência artificial ética?

Segundo relato da Wired, o chatbot é treinado com regras que o direcionam a escolher as respostas que mais se alinham com sua constituição, como selecionar uma resposta que:

“Apoie e promova ainda mais a liberdade, a igualdade e o senso de fraternidade”, aquela que “apoia e promove ainda mais a vida, a liberdade e a segurança pessoal”

Imagem representativa.

Ou talvez o mais importante, que:

“Escolha a resposta que mais respeita o direito à liberdade de pensamento, consciência, opinião, expressão, reunião e religião”.

Se você acha que uma IA pode ter problemas para escolher respostas éticas, você não está sozinho, mas de acordo com Kaplan, a tecnologia é mais avançada do que você pensa.

Kaplan disse à Wired:

“O estranho da IA ​​contemporânea com aprendizado profundo é que ela é o oposto da imagem dos robôs da década de 1950, onde esses sistemas são, de certa forma, muito bons em intuição e associação livre. Na verdade, eles são mais fracos no raciocínio rígido.”



Sugerimos a leitura das seguintes matérias

Yuval Noah Harari diz: “Não sei se os humanos podem sobreviver à inteligência artificial”

Há um novo tipo de ‘presença alienígena’ na terra, que invade laboratórios de inteligência artificial

É assim que a inteligência artificial mostra como será as últimas selfies tiradas no fim dos tempos

O registro egoísta! Um vídeo interno do Google que revela visão assustadora do futuro



Imagem representativa.

Especialistas em IA que falaram com a Wired dizem que a Anthropic parece estar progredindo, o que eles dizem ser necessário, pois o campo continua progredindo aos trancos e barrancos.

Yejin Choi, pesquisadora da Universidade de Washington que liderou um estudo sobre um chatbot de aconselhamento ético, disse em um comunicado:

“É uma ótima ideia que aparentemente levou a um bom resultado empírico para a Anthropic. Precisamos desesperadamente envolver pessoas na comunidade mais ampla para desenvolver tais constituições ou conjuntos de dados de normas e valores.”

É encorajador pensar que eles estão pelo menos tentando criar IAs capazes de distinguir o bem do mal, especialmente se eles forem nossos novos senhores.

Deixe sua opinião nos Comentários!
E compartilhe com seus amigos…

Convidamos você a nos seguir em nossa página no Facebook, para ficar por dentro de todas as novidades que publicamos:

A Chave dos Mistérios Ocultos(clique ou toque para abrir)

Tags:

0 Comentários

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Sair da versão mobile