Alguna vez hemos sacado este tema a colación de las declaraciones de IBM y Amazon, ya que ambas empresas anunciaron por sorpresa y durante las marchas de #BlackLivesMatter que iban a dejar de apoyar las tecnologías de reconocimiento facial gestionadas por inteligencias artificiales, por una parte por caer en sesgos racistas, pero también por no saber bien para qué se están utilizando.

Ahora, unas semanas más tarde, una carta abierta de una creciente coalición de investigadores de la inteligencia artificial está intentado que la editorial científica Springer Nature no incluya un determinado artículo en su próximo libro, Transacciones en Ciencia Computacional e Inteligencia Computacional.

El artículo, titulado “Un modelo de red neuronal profunda para predecir la criminalidad usando el procesamiento de imágenes”, presenta un sistema de reconocimiento facial que, supuestamente, es capaz de predecir si alguien es un potencial criminal.

¿El motivo de querer parar la publicación del artículo? Que el estudio, alegan, no tiene una base científica sólida sobre la que edificar la teoría que presenta y que, además, es tremendamente racista. El miedo se debe a que suceda lo que se conoce como el #TechToPrisonPipeline (algo así como el conducto de la tecnología a la cárcel), que lo que consigue es que las injusticias sistémicas se reproduzcan y perpetúen en la sociedad.

El objetivo de los autores de la carta es demostrar un problema sistemático en la forma en el que las publicaciones científicas incentivan a los investigadores a perpetuar normas poco éticas, lo que lleva a que cada cierto tiempo se vean estudios de esta índole, sin una base científica sólida y que tienen sesgos desde su origen.

El asesinato de George Floyd ha reavivado el discurso y las protestas en contra de las inteligencias artificiales que tienen que hacer perfiles a través del reconocimiento facial. Y esto se debe a que, desde hace años, los investigadores aseguran que son programas racistas, y que caen en prejuicios continuados por el color de piel, la edad o el sexo.

Estos motivos, que nunca han estado más presentes, son los que han hecho que empresas como IBM o Amazon -las cuales citábamos al principio del artículo- hayan decidido dejar de apoyar los programas de reconocimiento facial, al menos por el momento.

China está instalando cámaras de seguridad incluso dentro de las casas

La inteligencia artificial tiene mucho camino por recorrer y tiene que ser en el lado correcto de la investigación y la ciencia, alejándose de algoritmos y programas que no hacen más que perpetuar el racismo institucional que en muchos países y en muchas instancias sigue existiendo.