Press "Enter" to skip to content

Google orienta que pesquisadores deem um “tom positivo” em estudos sobre IA

Documentos internos do Google, obtidos pela agência de notícias Reuters, apontam que a empresa vem atuando para aumentar o controle sobre as pesquisas publicadas pelos seus cientistas, envolvendo Inteligência Artificial (IA). Segundo a reportagem, a companhia estaria solicitando a revisão de tópicos sensíveis e, em pelo menos três situações, solicitou aos autores que dessem um “tom mais positivo” aos estudos, evitando expor a tecnologia sob uma luz negativa.

De acordo com comunicações internas e entrevistas com pesquisadores envolvidos no trabalho, o novo procedimento de revisão do Google amplia a supervisão sobre a sua divisão de IA. A companhia pede que os cientistas consultem as equipes jurídicas, de relações governamentais e de relações públicas antes de abordar tópicos como análise de rosto, sentimento e categorizações de raça, gênero e afiliação política.

Uma das páginas do memorando enviado à equipe de IA afirma que:


Siga o Canaltech no Twitter e seja o primeiro a saber tudo o que acontece no mundo da tecnologia.

“Os avanços na tecnologia e a crescente complexidade de nosso ambiente externo estão levando cada vez mais a situações em que projetos aparentemente inofensivos levantam questões éticas, de reputação, regulatórias ou legais”

As fontes ouvidas pela Reuters afirmam que esse maior controle sobre as pesquisas envolvendo IA começaram em junho deste ano, embora a publicação não tenha conseguido identificar a data de postagem dos documentos.

Segredos comerciais

A reportagem da Reuters afirma que funcionários que trabalharam em um artigo sobre recomendação de Inteligência Artificial, que é usada para personalizar conteúdo em plataformas como o YouTube, foram orientados a “tomar muito cuidado para criar um tom positivo”. Os autores então atualizaram o artigo para “remover todas as referências a produtos do Google”.

Em outra pesquisa sobre o uso de IA, focada na compreensão de línguas estrangeiras, os especialistas “suavizaram uma referência de como o Google Tradutor estava cometendo erros”. A solicitação de alterações teria sido um pedido de revisores que atuam na divisão.

Protesto de funcionários do Google contra empresa: tensões crescentes entre a gerência senior da companhia e seus colaboradores (Foto: ACLU.org)

Os procedimentos de revisão que o Google usa como padrão têm o objetivo de garantir que os pesquisadores não revelem inadvertidamente segredos comerciais. No entanto, a revisão dos “tópicos sensíveis” vai além disso. Os funcionários que desejam avaliar os próprios serviços do Google quanto a preconceitos, por exemplo, devem falar com outros departamentos da empresa, como aqueles citados no começo desta matéria. Outros tópicos sensíveis incluiriam ainda a China, COVID-19, Israel, telecomunicações, veículos autônomos, indústria do petróleo, dados de localização, religião e Israel, entre outros.

Interferência indevida

Quatro pesquisadores da equipe, incluindo a cientista sênior Margaret Mitchell, já disseram acreditar que o Google está começando a interferir em estudos cruciais e que podem causar potenciais danos à tecnologia.

“Se estivermos pesquisando o que é apropriado devido à nossa experiência e não tivermos permissão para publicar isso por motivos que não estão de acordo com a revisão por pares de alta qualidade, estaremos enfrentando um sério problema de censura”, disse Mitchell.

No entanto, o Google afirma em seu site voltado para o público que seus cientistas têm liberdade “substancial”.

Holofotes sobre a divisão de IA

A reportagem sobre a suposta interferência do Google sobre as pesquisas envolvendo IA é mais um capítulo de confronto entre a divisão e a alta gerência da empresa. Ela começou no último dia 1º de dezembro, após a demissão repentina de Timnit Gebru, que liderou uma equipe de 12 pessoas focada na ética em software de inteligência artificial (IA).

Gebru afirmou que foi demitida a partir do tratamento que a empresa deu a um artigo que ela havia escrito com seis outros pesquisadores – quatro deles do próprio Google – e que apontava falhas do IA que imita a fala e poderia prejudicar populações marginalizadas. Além disso, essa IA seria usada em uma nova geração de tecnologia de linguagem, incluindo um sistema construído pelo Google que sustenta o mecanismo de busca da empresa.

Timnit Gebru: demissão da especialista em ética em IA jogou luz sobre a atuação dessa divisão do Google (Foto: Google Walkout For Real Change)

Após o envio do artigo para uma conferência acadêmica, um gerente do Google exigiu que ela retirasse material o evento ou removesse seu nome e os nomes de outros funcionários da empresa. Ela se recusou a fazer isso e, no e-mail enviado no dia 1º de dezembro, disse que renunciaria ao seu cargo após um período apropriado, se o Google não pudesse explicar por que queria que ela retirasse o documento e respondesse a outras questões.

A empresa respondeu ao seu e-mail, disse ela, dizendo que não poderia atender às suas demandas e que sua renúncia foi aceita imediatamente. Seu acesso ao e-mail do Google e outros serviços foi revogado e a companhia não abriu espaço para mais conversas.

O vice-presidente sênior do Google, Jeff Dean, disse em um comunicado recente que o artigo de Gebru se concentrou em danos potenciais, sem discutir os esforços em andamento para resolvê-los. Ele acrescentou que a companhia apoia a bolsa de estudos de ética em IA e está “trabalhando ativamente para melhorar nossos processos de revisão de artigos, porque sabemos que muitas verificações e balanços podem se tornar complicados”.

Dependência do IA

Nos últimos anos, o Google incorporou IA em todos os seus produtos. Isso vale para interpretar a realização de pesquisa complexas em seu mecanismo de buscas, decidir recomendações no YouTube e preencher automaticamente frases no Gmail. Seus pesquisadores publicaram mais de 200 artigos no ano passado sobre o desenvolvimento da tecnologia de maneira responsável, entre mais de 1.000 projetos no total.

Sundar Pichai, CEO da Alphabet e do próprio Google, comparou o advento da inteligência artificial ao da eletricidade ou do fogo e disse que a tecnologia é essencial para o futuro da empresa e da computação. No início deste ano, Pichai pediu maior regulamentação e tratamento responsável da inteligência artificial, argumentando que a sociedade precisa equilibrar os danos potenciais com as novas oportunidades.

O Google se comprometeu repetidamente a eliminar o preconceito em seus sistemas. O problema, disse Gebru, é que a maioria das pessoas que tomam as decisões finais é formada por homens. Segundo ela, “eles não estão apenas deixando de priorizar a contratação de mais pessoas de comunidades minoritárias, eles estão reprimindo suas vozes”.

Leia a matéria no Canaltech.

Trending no Canaltech:

Mission News Theme by Compete Themes.