O Google criou um novo sistema de inteligência artificial que tem intrigado muita gente. Nele, pontuações indicam que pessoas homossexuais são ‘ruins’.

Nenhuma dessas pontuações de -0,1 é tão ruim quanto a classificação para “pessoas gays”, que obtém -0,2. Não soa como o Google está exatamente seguindo seu novo slogan corporativo, “Faça a coisa certa”.

Parece que o sistema teve polarizações programadas em seus dados de treinamento. Esses preconceitos agora se manifestaram em resultados acessíveis ao público.

O Google pediu desculpas em uma declaração à Mashable e prometeu fazer melhor no futuro, incluindo as minorias. “Nós dedicamos muitos esforços para garantir que a API da PNL evite o viés, mas nem sempre conseguimos”, disse um porta-voz.

“Este é um exemplo de um daqueles tempos, e nos sentimos”, seguiram. “Levamos isso seriamente e estamos trabalhando para melhorar nossos modelos. Vamos corrigir este caso específico e, mais amplamente, construir algoritmos mais inclusivos é crucial para trazer os benefícios do aprendizado de máquina para todos”, acrescentaram.

Encontrou algum erro no post? Fale pra gente!