Assim que se abre o Facebook, é-se inundado por vídeos, fotografias, comentários, opiniões, e acontecimentos de tudo e mais alguma coisa e de qualquer lugar do mundo.


Ora, certo dia, vários utilizadores pararam uns minutos a ver um vídeo do jornal britânico “Daily Mail”, com o título “Homem branco chama polícias devido a homens negros na mariana”, publicado em junho do ano passado.


Quando este terminou, esses utilizadores foram surpreendidos com uma mensagem automática a perguntar se gostariam de “continuar a ver vídeos sobre primatas”.


Perante esta classificação grave, houve quem fizesse uma captura de ecrã e partilhasse no Twitter, onde a discussão sobre o assunto escalou.


A partilha do antigo gestor de design de conteúdos do Facebook Darci Groves, que escreveu que “esta mensagem de 'continuar a ver' é inaceitável", foi amplamente partilhada pelas redes sociais, abriu um debate e fez soar os alarmes do Facebook.



Com variadas críticas ao algoritmo de Inteligência Artificial usado pela Facebook para gerar recomendações de vídeos aos utilizadores, a empresa veio a público pedir desculpa, tendo reconhecido que se tratou de “um erro claramente inaceitável”. Um porta-voz do Facebook revelou ainda que o software de recomendação envolvido foi retirado da rede social, a fim de “podermos investigar a causa e evitar que volte a acontecer”.


Este é mais um episódio de um erro do software relacionado com o reconhecimento facial de pessoas não brancas, sendo que, em 2015, se assistiu a outro. Nesse ano, a aplicação Google Fotos identificou homens negros como “gorilas”.