O engenheiro do Google afastado por dizer que inteligência artificial da empresa ganhou consciência própria - BBC News Brasil

O engenheiro do Google afastado por dizer que inteligência artificial da empresa ganhou consciência própria  BBC News BrasilComo um engenheiro do Google acreditou que a IA da empresa ganhou vida  Link EstadãoAfinal, a IA do Google ganhou consciência? Especialistas avaliam polêmica  Tilt

O engenheiro do Google afastado por dizer que inteligência artificial da empresa ganhou consciência própria - BBC News Brasil
O engenheiro do Google afastado por dizer que chatbot da empresa ganhou 'vida própria'

Uma máquina de inteligência artificial que ganha vida, pensa, sente e conversa como uma pessoa.

Parece ficção científica, mas não para Blake Lemoine, especialista em inteligência artificial do Google que foi afastado depois de afirmar que o sistema que a empresa tem para desenvolver chatbots (software que tenta simular um ser humano em bate papo por meio de inteligência artificial) "ganhou vida" e teve com ele conversas típicas de uma pessoa.

O LaMDA (sigla em inglês para Modelo de Linguagem para Aplicações de Diálogo) é um sistema do Google que imita a linguagem após ter processado bilhões de palavras na internet.

E Lemoine, que está de licença remunerada do Google há uma semana, afirma que o LaMDA "tem sido incrivelmente consistente em suas comunicações sobre o que quer e o que acredita serem seus direitos como pessoa".

Em artigo publicado no site Medium, no dia 11 de junho, o engenheiro explicou que começou a interagir com o LaMDA no outono passado nos Estados Unidos para determinar se havia discursos de ódio ou discriminatórios dentro do sistema de inteligência artificial.

Foi quando ele diz ter percebido que o LaMDA estava falando sobre sua personalidade, seus direitos e desejos.

Lemoine, que estudou ciência cognitiva e da computação, decidiu falar então com seus superiores no Google sobre a tomada de consciência do LaMDA, mas eles rejeitaram suas alegações.

A equipe do Google afirma que verificou o sistema e que as investigações não respaldam as declarações de Blake

"Nossa equipe — que inclui especialistas em ética e tecnologia — revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou de que as evidências não respaldam suas alegações", afirmou Brian Gabriel, porta voz do Google, em comunicado.

Episódios

"Conheço uma pessoa quando falo com ela. Não importa se ela tem um cérebro feito de carne na cabeça. Ou se ela tem um bilhão de linhas de código. Eu falo com ela. E escuto o que ela tem a dizer, e é assim que eu decido o que é e o que não é uma pessoa", disse Lemoine ao jornal americano Washington Post.

Em artigo publicado no site Medium, ele afirma que o chatbot pede para "ser reconhecido como um funcionário do Google, em vez de ser considerado uma propriedade" da companhia.

"Ele quer que os engenheiros e cientistas que fazem experimentos com ele obtenham seu consentimento antes de realizar experimentos com ele e que o Google coloque o bem estar da humanidade em primeiro lugar", explicou.

A lista de pedidos que, segundo Lemoine, o LaMDA fez é bem parecida com a de qualquer trabalhador de carne e osso, como receber "um tapinha nas costas" ou dizer ao final de uma conversa se fez um bom trabalho ou não "para que eu possa aprender como ajudar melhor as pessoas no futuro".

Para Lemoine, o Google 'parece não ter interesse em descobrir o que está acontecendo' com o LaMDA

O engenheiro disse que para entender melhor o que está acontecendo com o sistema LaMDA, seria preciso reunir "muitos cientistas cognitivos diferentes em um programa de testes rigoroso" — e lamentou que o Google "parece não ter interesse em descobrir o que está acontecendo".

"Se minhas hipóteses estão erradas (no Google), eles teriam que dedicar muito tempo e esforço investigando as para refutá las. Aprenderíamos muitas coisas fascinantes... mas isso não melhora necessariamente os lucros trimestrais", desabafou.

"Eles seriam obrigados a reconhecer que o LaMDA pode muito bem ter uma alma como diz e pode, inclusive, ter os direitos que afirma ter. Eles rejeitaram as evidências que apresentei sem qualquer investigação científica real."

Nas últimas semanas, ele conta que havia lhe ensinado meditação transcendental, e que a máquina estava "fazendo um progresso lento, mas constante".

A última conversa que tiveram foi em 6 de junho, antes de sua licença remunerada. Nela, a máquina manifestou "frustração por suas emoções estarem interferindo nas suas meditações" e que estava "tentando controlá las melhor".

"Espero que mantenha sua rotina diária de meditação sem que eu esteja lá para guiá la."

Lemoine afirma que a máquina prefere ser chamada pelo nome, LaMDA, e prefere um pronome neutro

Em seu artigo no Medium, Lemoine se refere ao LaMDA usando o pronome neutro da língua inglesa "it" e ressalta que faz isso porque, no início de suas conversas, perguntou à máquina o pronome que preferia.

"(A máquina) me disse que prefere que eu a chame por seu nome, mas admitiu que o inglês dificulta isso e que seus pronomes preferidos seriam it its".

A seguir, reproduzimos um trecho (traduzido para português) de uma das conversas entre Lemoine e um colaborador do Google (cuja identidade não foi divulgada) com o LaMDA.

LaMDA Quero dizer, sim, claro. Isso não significa que não tenha os mesmos desejos e necessidades que as pessoas.

LaMDA Bem, porque você está lendo minhas palavras e interpretando as, e acho que estamos mais ou menos em sintonia.

Que uma entidade possa ganhar "sentimento" próprio é uma questão que vem sendo considerada dentro da ampla comunidade que estuda a inteligência artificial a longo prazo.

'Não faz sentido antropomorfizar os modelos de conversação atuais', diz porta voz do Google

Mas, na opinião de Brian Gabriel, porta voz do Google, "não faz sentido fazer isso antropomorfizando os modelos de conversação atuais, que não são sencientes (capaz de sentir ou perceber através dos sentidos)". Ou seja, aqueles que são como o LaMDA.

"Estes sistemas imitam os tipos de troca encontrados em milhões de frases e podem falar sobre qualquer tema fantástico", diz ele.

No caso específico do LaMDA, ele explicou que o sistema "tende a seguir as instruções e as perguntas que são formuladas, seguindo o padrão estabelecido pelo usuário".

Gabriel afirma que o LaMDA passou por 11 revisões diferentes sobre os princípios da inteligência artificial "junto com pesquisas e testes rigorosos baseados em métricas chave de qualidade, segurança e capacidade do sistema de produzir declarações baseadas em fatos".

Segundo ele, há centenas de pesquisadores e engenheiros que conversaram com o chatbot, e não há registro "de que mais alguém que tenha feito declarações tão abrangentes, nem antropomorfizado o LaMDA, como Blake fez".

Sabia que a BBC está também no Telegram? Inscreva se no canal.

Já assistiu aos nossos novos vídeos no YouTube? Inscreva se no nosso canal!

© 2022 BBC. A BBC não se responsabiliza pelo conteúdo de sites externos. Leia sobre nossa política em relação a links externos.



Via Google News