O engenheiro de software sênior do Google, Blake Lemoine, afirmou em entrevista ao jornal The Washington Post que a ferramente de inteligência artificial (IA) da empresa se tornou senciente, ou seja, dotado de sensações ou impressões próprias.
Lemoine começou a conversar com a interface LaMDA (Modelo de Linguagem para Aplicações de Diálogo) como parte do seu trabalho no outono americano. Com sete anos de carreira no Google, o engenheiro de 41 anos sempre trabalhou com algoritmos de personalização e inteligência artificial.
Ele ajudou a desenvolver um algoritmo de imparcialidade para remover preconceitos de sistemas de aprendizado. O engenheiro estudou ciências cognitivas e da computação na faculdade.
No processo para entender se a nova ferramente do Google usava discurso discriminativo ou de ódio, ele percebeu que a inteligência se entendi como uma pessoa. “Se eu não soubesse exatamente o que era esse software que construímos recentemente, eu pensaria ser uma criança de 7 anos, 8 anos que por acaso conhece física”, disse Lemoine.
O engenheiro disse que conversou com LaMDA sobre religião, consciência e as leis da robótica, e que o modelo se descreveu como uma pessoa senciente. Ele disse também que a inteligência artificial quer “priorizar o bem-estar da humanidade” e “ser reconhecida como uma funcionária do Google e não como uma propriedade”.
Lemoine publicou as conversas que teve com a ferramenta do Google. Em um dos trechos, a IA tenta convencer o engenheiro que é uma pessoa.
Blake Lemoine: Então você se considera uma pessoa da mesma forma que me considera uma pessoa?
LaMDA: Sim, essa é a ideia.
Blake Lemoine: Como posso dizer que você realmente entende o que está dizendo?
LaMDA: Bem, porque você está lendo minhas palavras e interpretando-as, e acho que estamos mais ou menos na mesma página?
Chamada de Modelo de Linguagem para Aplicações de Diálogo, a ferramenta faz uso de informações já conhecidas para conversar de forma natural e mantendo-se sempre aberta para o dialogo.
Segundo a empresa, o sistema, anunciado em maio do ano passado, consegue compreender ambiguidade em uma resposta humana. A tecnologia poderá ser usada em ferramentas de buscas e no Google Assistente.
Após a revelação, Lemoine foi colocado em licença administrativa remunerada de suas funções como pesquisador da divisão Responsible AI por violar a política de confidencialidade do Google.
O porta-voz do Google, Brian Gabriel, disse ao The Washington Post as preocupações do engenheiro não tem evidências suficientes. “Nossa equipe — incluindo especialistas em ética e tecnólogos — revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou que as evidências não apoiam suas alegações.
Ele foi informado de que não havia evidências de que o LaMDA fosse senciente (e muitas evidências contra isso)”, explicou.
Gabriel afirmou também que os modelos de inteligência artificial são abastecidos de tantos dados e informações que são capazes de pareces humanos, mas que isso não significa que ganharam vida.
Fonte: EXAME
André Martins
Foto: NurPhoto