Empresa que desenvolve inteligência artificial quer “ensinar” IA a ser consciente
Com os chatbots de inteligência artificial (IA) se desenvolvendo rapidamente para inventar coisas e vomitar lixo preconceituoso, uma empresa fundada por ex-pesquisadores da OpenAI tem uma abordagem diferente:
Ensinar a IA a ser consciente.
Como relata a Wired, o curioso chatbot Claude, concorrente da OpenAI, da Anthropic , é construído com o que seus criadores chamam de “constituição” ou conjunto de regras que se baseiam na Declaração Universal dos Direitos Humanos e outros textos para garantir que o robô não seja apenas poderoso, mas também ético.
Jared Kaplan, ex-consultor de pesquisa da OpenA I que fundou a Anthropic com um grupo de ex-colegas, disse à Wired que Claude essencialmente aprende o certo do errado porque seus protocolos de treinamento:
“basicamente reforçam os comportamentos mais alinhados com a constituição e desencorajam comportamentos problemáticos”.
Será que realmente funciona na prática?
É difícil dizer.
Afinal, o ChatGPT da OpenAI também tenta evitar mensagens antiéticas, com resultados mistos.
Mas com o uso indevido do chatbot sendo um grande ponto de interrogação pairando sobre a incipiente indústria de IA, é interessante ver uma empresa enfrentar o problema de frente.
Inteligência artificial ética?
Segundo relato da Wired, o chatbot é treinado com regras que o direcionam a escolher as respostas que mais se alinham com sua constituição, como selecionar uma resposta que:
“Apoie e promova ainda mais a liberdade, a igualdade e o senso de fraternidade”, aquela que “apoia e promove ainda mais a vida, a liberdade e a segurança pessoal”
Ou talvez o mais importante, que:
“Escolha a resposta que mais respeita o direito à liberdade de pensamento, consciência, opinião, expressão, reunião e religião”.
Se você acha que uma IA pode ter problemas para escolher respostas éticas, você não está sozinho, mas de acordo com Kaplan, a tecnologia é mais avançada do que você pensa.
Kaplan disse à Wired:
“O estranho da IA contemporânea com aprendizado profundo é que ela é o oposto da imagem dos robôs da década de 1950, onde esses sistemas são, de certa forma, muito bons em intuição e associação livre. Na verdade, eles são mais fracos no raciocínio rígido.”
Sugerimos a leitura das seguintes matérias
Yuval Noah Harari diz: “Não sei se os humanos podem sobreviver à inteligência artificial”
É assim que a inteligência artificial mostra como será as últimas selfies tiradas no fim dos tempos
O registro egoísta! Um vídeo interno do Google que revela visão assustadora do futuro
Especialistas em IA que falaram com a Wired dizem que a Anthropic parece estar progredindo, o que eles dizem ser necessário, pois o campo continua progredindo aos trancos e barrancos.
Yejin Choi, pesquisadora da Universidade de Washington que liderou um estudo sobre um chatbot de aconselhamento ético, disse em um comunicado:
“É uma ótima ideia que aparentemente levou a um bom resultado empírico para a Anthropic. Precisamos desesperadamente envolver pessoas na comunidade mais ampla para desenvolver tais constituições ou conjuntos de dados de normas e valores.”
É encorajador pensar que eles estão pelo menos tentando criar IAs capazes de distinguir o bem do mal, especialmente se eles forem nossos novos senhores.
Deixe sua opinião nos Comentários!
E compartilhe com seus amigos…
Convidamos você a nos seguir em nossa página no Facebook, para ficar por dentro de todas as novidades que publicamos:
0 Comentários