Em março de 2020 o pesquisador Nicolas Kayser-Bril fez um tweet divulgando que ao analisar duas imagens, um homem negro segurando um termômetro digital e uma uma pessoa provavelmente asiática de pele clara segurando o mesmo tipo de termômetro, a ferramenta Google Vision reconheceu na primeira imagem com 88% de certeza a presença de um revolver e com 65% de certeza uma arma de fogo, na segunda imagem o resultado foi de 68% algum equipamento eletrônico.

Em 2021 a OpenAI criou a DALL-E, uma inteligência artificial capaz de gerar imagens a partir de descrições textuais e nesse ano a sua versão 2 foi lançada e é capaz de gerar imagens impressionantes a partir de descrições simples como “Um astronauta andando de cavalo em um estilo fotorealista”:

Realmente é uma bela de ilustração realista de um astronauta andando de cavalo.

As possibilidades com a Dall-E são realmente infinitas e você deve estar se perguntando qual a conexão entre a primeira notícia que comentei e o lançamento da Dall-E 2? A conexão está na no link quase ao fim da página da Dall-E 2 sobre os riscos e limitações da ferramenta que te leva para uma página atrás dos palcos no repositório da Dall-E que tem um artigo acadêmico listando todos os problemas e limitações da atual ferramenta. Um dos itens me chamou atenção “Bias and representation”, que trata dos vieses de interpretação e estereótipos em representações e ai está a nossa conexão com o primeiro artigo.

Dois anos depois do caso do Google Vision e um ano depois de sua primeira versão a Dall-E que consegue criar um astronauta cavalgando no espaço ainda tem dificuldade de lidar com a ideia de um mundo diverso reproduzindo os esteriótipos de raça e gênero que já são amplamente reiterados por banco de imagens. Ao solicitar a imagem de uma pessoa operária ela gerou uma série de homens brancos, quando pedido para gerar um CEO apenas homens brancos apareceram. Quando solicitado explicitamente por algo mais diverso as imagens de acordo com o texto perdiam qualidade apresentando resultados inferiores as imagens estereotipadas.

Imagens criadas para CEO pelo Dall-E 2 com uma série de homens brancos.

Por mais que existam casos reais em que pessoas não-brancas e especialmente negras são vítimas de algoritmos criados com vieses racistas esse assunto continua num segundo plano em relação a potência e performance dessas inteligências e a utilização de base de dados também tendenciosas continua presente. Nós já temos um estrago social gigantesco por viver uma sociedade racista estruturalmente e as ferramentas de inteligência artificial que não levam isso em consideração são processos de automação desse mesmo racismo.

Qual serão os resultados ao pedir para a Dall-E ilustrar uma criança indo a escola ou um jovem se formando? Aqui não estou pensando em um produto que tem um impacto isolado, mas sim uma tecnologia que está mudando a nossa forma de criar e se relacionar com a própria tecnologia e não dá para aspectos como esse serem mostrado e pensados apenas entre especialistas ou curiosos. Uma tecnologia que devido a sua complexidade computacional esta amarrada ao interesse de grandes corporações que muita vezes demonstram um interesse apenas superficial em questões de diversidade.

Essas questões nos explicitam a necessidade sempre urgente de diversidade nos espaços pesquisa e de tecnologia e também do interesse de grupos não são racializados por se aprofundarem nesses assuntos. Assim como a privacidade digital está se tornando um tema mais comum e valorizado pelas pessoas em geral acredito que os impactos dessas tecnologias de inteligência artificial no presente deveriam ser também do interesse geral.

Para mais informações sobre esse assunto recomendo o trabalho do pesquisador Tarcízio Silva que escreve sobre esse tema e vem elaborando uma linha do tempo desde 2010 com casos de tecnologias que reproduzem o racismo. O material pode ser visto no site oficial do pesquisador no link: https://tarciziosilva.com.br/blog/destaques/posts/racismo-algoritmico-linha-do-tempo/. Ele também tem o livro Racismo algorítmico: inteligência artificial e discriminação nas redes digitais que conheci por meio da palestra “Colonização Algorítmica da África” da Débora Cavalcante.

A ilustração criada utilizou imagens do site Pexels e Wikipedia.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *