Engenheiro do Google diz que inteligência artificial da empresa está tomando consciência própria.

0

O engenheiro de software sênior do Google, Blake Lemoine, afirmou em entrevista ao jornal The Washington Post que a ferramente de inteligência artificial (IA) da empresa se tornou senciente, ou seja, dotado de sensações ou impressões próprias.


Lemoine começou a conversar com a interface LaMDA(Modelo de Linguagem para Aplicações de Diálogo) como parte do seu trabalho no outono americano. Com sete anos de carreira no Google, o engenheiro de 41 anos sempre trabalhou com algoritmos de personalização e inteligência artificial. Ele ajudou a desenvolver um algoritmo de imparcialidade para remover preconceitos de sistemas de aprendizado. O engenheiro estudou ciências cognitivas e da computação na faculdade.

No processo para entender se a nova ferramente do Google usava discurso discriminativo ou de ódio, ele percebeu que a inteligência se entendi como uma pessoa. “Se eu não soubesse exatamente o que era esse software que construímos recentemente, eu pensaria ser uma criança de 7 anos, 8 anos que por acaso conhece física”, disse Lemoine.

O engenheiro disse que conversou com LaMDA sobre religião, consciência e as leis da robótica, e que o modelo se descreveu como uma pessoa senciente. Ele disse também que a inteligência artificial quer “priorizar o bem-estar da humanidade” e “ser reconhecida como uma funcionária do Google e não como uma propriedade”.

Lemoine publicou as conversas que teve com a ferramenta do Google. Em um dos trechos, a IA tenta convencer o engenheiro que é uma pessoa.

Blake Lemoine: Então você se considera uma pessoa da mesma forma que me considera uma pessoa?

LaMDA: Sim, essa é a ideia.

Blake Lemoine: Como posso dizer que você realmente entende o que está dizendo?

LaMDA: Bem, porque você está lendo minhas palavras e interpretando-as, e acho que estamos mais ou menos na mesma página?

Chamada de Modelo de Linguagem para Aplicações de Diálogo, a ferramenta faz uso de informações já conhecidas para conversar de forma natural e mantendo-se sempre aberta para o dialogo. Segundo a empresa, o sistema, anunciado em maio do ano passado, consegue compreender ambiguidade em uma resposta humana. A tecnologia poderá ser usada em ferramentas de buscas e no Google Assistente.

Após a revelação, Lemoine foi colocado em licença administrativa remunerada de suas funções como pesquisador da divisão Responsible AI por violar a política de confidencialidade do Google.

O porta-voz do Google, Brian Gabriel, disse ao The Washington Post as preocupações do engenheiro não tem evidências suficientes. “Nossa equipe — incluindo especialistas em ética e tecnólogos — revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou que as evidências não apoiam suas alegações. Ele foi informado de que não havia evidências de que o LaMDA fosse senciente (e muitas evidências contra isso)”, explicou.

Gabriel afirmou também que os modelos de inteligência artificial são abastecidos de tantos dados e informações que são capazes de pareces humanos, mas que isso não significa que ganharam vida.

Notícia anteriorDados pessoais de milhões de brasileiros estão à venda na ‘deep web’. Saiba por quanto
Próxima notíciaBitcoin cai à medida que o mercado entra em colapso novamente