Es difícil separar el movimiento Black Lives Matter de las plataformas tecnológicas que propagan su alcance global.

Darnella Frazier, la chica de 17 años que grabó los últimos momentos de George Floys, compartió el vídeo primero en Facebook, donde ya ha alcanzado más de 1,8 millones de visualizaciones. Y, por supuesto, el hashtag #BlackLivesMatter nació en Twitter en 2013 como respuesta a la absolución de George Zimmerman, que había disparó y mató al adolescente afroamericano Trayvon Martin.

En 2016, el hashtag #BlackLivesMatter ya había sido utilizado 30 millones de veces, según el Centro de Investigaciones Pew. Una investigación actualizada de Pew muestra que el hashtag se utilizó 47,8 millones de veces entre el 26 de mayo y el 7 de junio, lo que no sorprende debido al apoyo internacional que recibió (incluidos los fans del K-pop, que utilizaron hashtags de movimientos contrarios a Black Lives Matter para diluir el discurso del odio.

¿Pero qué ocurre cuando este tema deja de ser tendencia?

El poder viral de las redes sociales hace que sean el sitio ideal para el activismo. Movimientos pasados como Extinction Rebellion, #MeToo y la Primavera Árabe lo han hecho evidente. ¿Pero qué ocurre cuando el tema deja de ser tendencia?

Compañías como Facebook y Twitter, ¿cómo pueden pasar a ser algo más que el espacio que facilita esta conversación?

Muchas de estas plataformas han mostrado su apoyo al movimiento, aunque de forma diferente. Facebook anunció que donaría 10 millones de dólares a “grupos que trabajan para la justicia racial”, mientras que YouTube dijo que daría 1 millón de dólares al Centro para la Equidad Policial, como también hizo Netflix.

Twitter añadió #BlackLivesMatter en su biografía, pero no ha prometido que hará ninguna donación.

Por qué la solidaridad y las donaciones no son suficiente

Teniendo una influencia social, política y económica, estos gigantes tecnológicos tienen el poder de hacer los cambios sistémicos que pide el movimiento Black Lives Matter, empezando desde dentro.

Una forma en la que los gigantes tecnológicos pueden tener un impacto que perdure es publicando sus propios prejuicios estructurales, tanto en cuanto a sus productos como a sus desarrolladores. Al fin y al cabo, ambos van de la mano.

Un estudio de la Universidad de Cornell de 2019 identificó que la inteligencia artificial de monitorización de Twitter tenía un prejuicio hacia los usuarios afroamericanos, ya que sus tuits tenían más probabilidades de ser etiquetados como discurso de odio comparado con los usuarios blancos de la plataforma.

“Estos sistemas están siendo desarrollados para identificar el lenguaje que se utiliza para acosar online a una parte de la población marginalizada”, dice Thomas Davidson, autor principal del estudio y estudiante de un doctorado. “Es extremadamente preocupante que los mismos sistemas están discriminando contra esa población que deberían proteger”.

Estos prejuicios en el aprendizaje automático no son nada nuevo. Basta con fijarse en la tecnología de reconocimiento facial.

El año pasado, el New York Times citaba un estudio del Instituto Nacional de Estándares y Tecnología, según el cual era de 10 a 100 veces más probable que los algoritmos de aprendizaje automático en sistemas de reconocimiento facial identificaran erróneamente caras de personas afroamericanas y asiáticas comparado con los usuarios caucásicos.

Pero estos prejuicios suelen tener su origen en personas.

Como explica Harvard Business Review, esto puede deberse a que el software de aprendizaje automático ha bebido de información sesgado, es decir, datos empapados de prejuicios sociales e históricos existentes.

Las muestras de datos pueden también tener errores, estando unos grupos más o menos representados que otros.

Como resultado de las protestas Black Lives Matter, IBM anunció el pasado 8 de junio que dejaría de desarrollar e investigar software de reconocimiento facial de utilidad general.

El director ejecutivo de la compañía, Arvind Krishna, escribió en una carta al Congreso de Estados Unidos que “IBM se opone firmemente y no tolerará el uso de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otras empresas, para la vigilancia masiva, la evaluación de perfil racial, la violación de derechos y libertades humanas básicas, o cualquier otro propósito que no concuerde con sus valores y principios de confianza y transparencia”.

A eso le siguió Amazon, que anunció que prohibiría a las fuerzas del orden usar del controvertido software de reconocimiento facial Rekognition durante un año hasta que haya mayores regulaciones.

Rekognition mostró prejuicios contra personas negras o de piel más oscura, como descubrió en 2019 la investigadora del Media Lab del MIT Joy Buolamwini.

Aunque estas decisiones van en la buena dirección, los gigantes tecnológicos pueden combatir sus errores y prejuicios contratando más ingenieros, programadores y científicos negros.

La falta de diversidad de Silicone Valley es notoria. Sigue siendo mayoritariamente blanca o asiática y masculina, y el progreso hacia la inclusividad ha ido lenta.

En 2018, menos del 3 % de los trabajadores de Uber, Twitter, Google y Facebook eran identificados como negros. El informe de diversidad anual de Facebook de 2019 mostró que los trabajadores negros aumentaron del 3,5 % al 3,8 % en toda la compañía. Solo el 1,5 % de sus puestos de trabajo técnicos estaban ocupados por personas negras en 2019, un 1,3 % más que el año anterior.

Como consumidores tecnológicos y usuarios de las redes sociales, deberíamos esperar más de los gigantes tecnológicos y mantenernos alerta. Debemos asegurarnos que la solidaridad que ofrecen hoy no se convierte mañana en una retórica vacía. Los cambios no pasarán de la noche a la mañana, pero tienen que ocurrir.

Artículo original publicado en TechAdvisor UK.