Até meados das décadas de 1970, as máquinas fotográficas produziam imagens incapazes de definir com nitidez os rostos e feições de pessoas não brancas, como negros, indígenas e indianos. Isso mudou com uma inovação feita pela Kodak na gama de marrons de suas imagens fotográficas.
Mas a mudança só ocorreu porque uma empresa de chocolates reclamou que em seus anúncios os tons dos chocolates amargo, meio amargo e ao leite não se diferenciavam. Nada a ver com preocupações quanto a atender uma parte considerável do público consumidor de câmeras fotográficas. Tudo a ver com o racismo estrutural prevalecente na maior parte da indústria de publicidade. Para mais detalhes sobre essa história, clique aqui.
Cinquenta anos depois, a indústria publicitária move-se à base de algoritmos pretensamente refinados. Um dos desdobramentos desse avanço tecnológico foi a criação dos aplicativos de reconhecimento facial, cada vez mais desenvolvidos por meio do aprendizado de máquina. O problema é que a pedagogia robótica se baseia em parâmetros definidos geralmente por pessoas brancas, com seus conceitos e, principalmente, preconceitos.
Resultado, os aplicativos apresentam grande dificuldade no reconhecimento de rostos não brancos, causando constrangimentos e restrições em muitas das áreas em que são utilizados. Mas as consequências mais graves surgem quando o reconhecimento facial é empregado em investigações policiais e casos judiciais. Os algoritmos apresentam uma grande margem de erros, levando a prisões e condenações sem qualquer fundamento, a não ser o velho racismo estrutural. Um fenômeno que não só continua firme e forte, como vem ganhando a enorme velocidade e o perigoso alcance dos algoritmos.
Leia também: Parar a inteligência do Capital
Nenhum comentário:
Postar um comentário