Engenheiro que alegou que IA era senciente não trabalha mais no Google

Engenheiro que alegou que IA era senciente não trabalha mais no Google

Blake Lemoine se tornou uma figura emblemática nas últimas semanas. Em junho, o engenheiro afirmou que o LaMDA, uma inteligência artificial do Google, se tornou senciente ao expressar emoções, opiniões e sentimentos próprios. Mas, quase dois meses após o episódio, o engenheiro deixou de trabalhar para a companhia.

O que é inteligência artificial?Afinal, a inteligência artificial está “ganhando vida”? Especialistas tiram essa dúvidaGoogle (Imagem: Pawel Czerwinski/Unsplash)

O caso foi reportado pela newsletter Big Technology, nesta sexta-feira (22). Segundo o jornalista Alex Kantrowitz, o “Google demitiu Blake Lemoine”. A informação foi repassada ao periódico pelo próprio engenheiro durante a gravação do podcast da publicação, apenas algumas horas depois de ser informado sobre o desligamento.

Lemoine não chegou a citar o caso no seu perfil do Twitter. Na verdade, há apenas um tweet feito no sábado (23) com um link para a publicação “Posso ser demitido em breve por fazer trabalho de ética em IA” no seu Medium. “Apenas para o caso de as pessoas se esquecerem que eu chamei a atenção para isso no início de junho”, disse.

Mas o Google soltou um comunicado ao Engadget e ao The Verge que dá a entender que, de fato, o engenheiro não trabalha mais na companhia, mas não diz com exatidão que Lemoine foi demitido. No final da nota enviada pelo porta-voz Brian Gabriel, a companhia soltou um “desejamos boa sorte a Blake”. E, convenhamos, ninguém diria isso para uma pessoa que continua a trabalhar na sua empresa, certo?

Confira a nota na íntegra:

“À medida que compartilhamos nossos Princípios de IA, levamos o desenvolvimento de IA muito a sério e continuamos comprometidos com a inovação responsável. O LaMDA passou por 11 revisões distintas e publicamos um artigo de pesquisa no início deste ano detalhando o trabalho que envolve seu desenvolvimento responsável. Se um funcionário compartilhar preocupações sobre nosso trabalho, como Blake fez, nós as revisamos extensivamente. Descobrimos que as alegações de Blake de que o LaMDA é senciente são totalmente infundadas e trabalhamos para esclarecer isso com ele por muitos meses. Essas discussões fizeram parte da cultura aberta que nos ajuda a inovar com responsabilidade. Portanto, é lamentável que, apesar do longo envolvimento com esse tópico, Blake ainda tenha optado por violar persistentemente políticas claras de emprego e segurança de dados que incluem a necessidade de proteger as informações do produto. Continuaremos nosso cuidadoso desenvolvimento de modelos de linguagem e desejamos boa sorte a Blake.”

Engenheiro disse que IA era senciente; relembre o caso

Tudo começou em junho, quando o engenheiro teve uma conversa com o LaMDA. Caso não esteja a par, o sistema foi apresentado pelo Google em 2021 para fortalecer os chatbots e assistentes virtuais. Assim, os usuários poderiam interagir com os sistemas sem perder a naturalidade de falar com uma pessoa real.

E, de fato, as demonstrações iniciais foram bem promissoras. Todavia, é preciso calibrar estes recursos para evitar reações grosseiras ou até mesmo propagações de discursos de ódio na plataforma. E é aí que entra o trabalho do engenheiro Blake Lemoine, que ficou responsável por fazer essas análises no sistema.

Mas Lemoine notou, em conversas com o sistema, que a IA deu opiniões e até expressou emoções e sentimentos próprios – ou seja, tornou-se senciente. Não demorou muito e o engenheiro juntou tudo no documento “Is LaMDA Sentient? – an Interview” (“O LaMDA é senciente? – uma entrevista”, em tradução livre), para alertar os executivos sobre a IA. 

O diálogo foi publicado no seu perfil do Medium em 11 de junho. Mas o engenheiro já se preocupava com o seu emprego, desde que publicou o texto “Posso ser demitido em breve por fazer trabalho de ética em IA” em 6 de junho, depois que foi suspenso. Além disso, na época, o Google disse que revisou as preocupações de Lemoine e informou que as provas não suportam as suas alegações.

“Ele foi informado de que não havia evidências de que o LaMDA fosse senciente (e muitas evidências contra ele)”, disse um porta-voz.

Tecnocast 249 – Inteligências artificiais podem ganhar consciência? (Imagem: Vitor Pádua / Tecnoblog)

Tecnocast 249 – Inteligências artificiais podem ganhar consciência?

A ideia de máquinas conscientes nos fascina há décadas. São muitos filmes, livros e games que trabalham essa temática. Mas e se não for só ficção? E se hoje já existir uma inteligência artificial consciente? Um engenheiro do Google afirma que esse é o caso. E suas alegações provocaram uma nova onda de interesse no tema da IA, suas aplicações e possibilidades.

No episódio 249, recebemos o professor Augusto Baffa, do Departamento de Informática do CTC/PUC-Rio, que desenvolve pesquisas sobre inteligência artificial. Ele compartilha suas opiniões sobre o caso recente do Google, e de quebra dá uma aula sobre como sistemas inteligentes funcionam e a importância da Ética para essa área. Então dá o play e vem com a gente!

Com informações: Big TechnologyEngadget e The Verge

Engenheiro que alegou que IA era senciente não trabalha mais no Google


Deixe uma resposta

O seu endereço de email não será publicado.