El peligro de la vigilancia tecnológica post Covid-19

La tecnología de reconocimiento facial es una herramienta en la lucha contra COVID-19, pero una vez que termine la pandemia, ¿se mantendrá la tecnología de vigilancia?

A diferencia de principios de 1900 durante el brote de gripe española, el mundo ahora puede luchar contra COVID-19 con un arsenal de herramientas médicas, científicas, económicas y sociales sin precedentes.

Pero a medida que los gobiernos se mueven para aprovechar la tecnología para luchar contra COVID-19, debemos tener en cuenta que esta lucha podría abrir la puerta a tecnologías que impactarán a la sociedad de maneras más profundas y de mayor alcance que la pandemia en sí.

Considere el uso de tecnologías de reconocimiento facial.

Estos son sistemas que escanean imágenes y videos para ver los rostros de las personas, e intentan clasificarlos o hacer evaluaciones de su carácter.

Algunas de las principales compañías de tecnología y vigilancia del mundo han lanzado recientemente nuevas herramientas de reconocimiento facial que, con un alto grado de precisión, afirman ser capaces de identificar a las personas incluso cuando usan máscaras.

Del mismo modo, se está proponiendo equipo de imagen térmica para identificar posibles portadores de COVID-19 mediante el seguimiento de la temperatura de su cara. De hecho, el aeropuerto de Heathrow de Londres acaba de anunciar que utilizará la tecnología para llevar a cabo controles de temperatura de pasajeros a gran escala.

Eficacia, ideología y anti-COVID

Esta capacidad se está adaptando cada vez más a los sistemas de CCTV ubicuos. China, Rusia, India y Corea del Sur son líderes notorios en este espacio.

Algunas autoridades ahora pueden identificar pacientes con una temperatura elevada, revisar su historial de ubicación a través de análisis automatizados de imágenes de CCTV e identificar (y notificar) automáticamente a aquellos que pueden haber estado expuestos al patógeno.

Y sí, algunos de estos son movimientos positivos en un esfuerzo por librar a las sociedades de COVID-19. Es desafiante argumentar que esto en sí mismo no es una causa noble.

De hecho, la enorme aceptación de las aplicaciones de rastreo de contactos en todo el mundo es una señal de que muchos de nosotros parecemos dispuestos a renunciar a algo de nuestra privacidad para frenar la propagación.

Pero una preocupación real son las preguntas legales, constitucionales y democráticas sin respuesta que presentan estas aplicaciones.

Entonces, hagamos una pausa por un minuto, porque ahora es el momento adecuado para cuestionar estas tecnologías, revisar algunos antecedentes históricos y pensar en lo que puede ser la «nueva normalidad» cuando el mundo intenta regresar a su estado anterior.

Falsos positivos y discriminación

La mayoría de estas nuevas herramientas de reconocimiento facial ignoran el riesgo significativo de discriminación y persecución, la posibilidad de falsos positivos o negativos y la inexactitud general de la tecnología debido a pruebas insuficientes.

Imagine las consecuencias de un sistema automatizado que lo identifica falsamente como alguien con una temperatura corporal elevada, justo cuando regresa de una carrera semanal de comestibles.

Estos falsos positivos no son improbables. El equipo de imágenes infrarrojas puede romperse o usarse incorrectamente, las lecturas pueden ser mal interpretadas por un revisor humano o, lo que es peor, por un proceso automatizado sobre el cual no tiene control.

Cuando el reconocimiento facial está involucrado, los falsos positivos son aún más probables ya que los conjuntos de datos pueden haber sido demasiado pequeños para comenzar o haberse desarrollado de manera fortuita.

En la mayoría de las naciones democráticas, estos sucesos pueden «solo» llevar a un resultado benigno como la auto cuarentena obligatoria, pero otros gobiernos pueden decidir avergonzar públicamente a aquellos que han violado las reglas o limitar su libertad de movimiento.

Hemos estado aquí antes

La aplicación de sistemas de reconocimiento facial para combatir COVID-19 agrega otra mancha al CV de esta tecnología.

Los ejemplos recientes que han sido ampliamente criticados incluyen sistemas que utilizan imágenes faciales para distinguir las preferencias sexuales, identificar los grupos étnicos de una persona y detectar académicos en una multitud.

Los estudios enfatizan que la práctica de clasificar a los humanos según las diferencias visibles tiene un pasado problemático con raíces en la eugenesia, un movimiento o filosofía que cree que cosas como la cría selectiva pueden mejorar la composición genética de la raza humana.

Es una creencia que ha resultado en numerosos ejemplos de opresión en el pasado.

La práctica de «leer» retratos humanos comenzó bajo el ministro suizo Johann Kaspar Lavater a fines de 1700 y el científico inglés Sir Francis Galton a mediados de 1800. En defensa de la eugenesia, Galton puso en marcha un movimiento global para cuantificar las características faciales como indicadores de la psicología de una persona.

Pero a principios de 1900 vio un nuevo giro preocupante.

Durante un tiempo ya inestable en Europa, el criminólogo italiano Cesare Lombroso propuso que la ley prevea y aísle a las personas con «deficiencias disciplinarias». La fisonomía, la práctica de presumir el carácter mental por la apariencia facial, ahora era la corriente principal.

Algunas capacidades se están adaptando cada vez más a sistemas de CCTV ubicuos.

Solo unas pocas décadas después, el pensamiento fisionómico demostró ser influyente en el surgimiento de la Alemania nazi.

Estas ideas del pasado han demostrado ser notablemente tenaces.

Reaparecieron en un artículo de 2016 ahora retirado sobre el uso de la inteligencia artificial (IA) para distinguir rostros criminales de rostros no criminales. Incluso en 2020, un artículo reciente inspirado en el trabajo de Lombroso afirmó que era posible determinar la tendencia criminal al analizar la forma de la cara, las cejas, la parte superior del ojo, las pupilas, las fosas nasales y los labios de una persona en un conjunto de datos de 5,000 póquer en escala de grises caras’.

Y de repente, parece que estamos de vuelta en la Europa del siglo XVIII.

¿Hacer gran reconocimiento facial otra vez?

Más que nunca, la pandemia de COVID-19 ilustra que estamos en una encrucijada.

Se están desarrollando y utilizando tecnologías para combatir a un enemigo invisible y contrarrestar la propagación de una enfermedad terrible; pero también corremos el riesgo de liberar irreversiblemente sistemas opresivos en la sociedad que no sean los mejores intereses de la vida pública.

El equipo del Laboratorio de Diseño de Interacción desarrolló Biometric Mirror, una tecnología de reconocimiento facial especulativa y deliberadamente controvertida diseñada para hacer que las personas piensen en la ética de las nuevas tecnologías y la IA.

Miles de personas probaron nuestra aplicación, desde escuelas hasta el Foro Económico Mundial y el Banco Mundial, así como la Galería de Ciencias de Melbourne y NGV.

Lo que descubrimos es que no existe una comprensión pública generalizada de la forma en que funciona la tecnología de reconocimiento facial, cuáles son sus limitaciones y cómo se puede usar de forma incorrecta.

Esto es preocupante.

Sosteniendo un espejo frente a la inteligencia artificial

El compromiso del gobierno australiano de 2018 de apoyar la entrega de programas de inteligencia artificial en las escuelas es una respuesta bienvenida. A medida que los jóvenes enfrentan crecientes necesidades de alfabetización tecnológica, los programas escolares deben responder a las innovaciones, tendencias y necesidades emergentes.

Los programas escolares también deben capacitar a los jóvenes para pensar críticamente sobre las innovaciones, cómo funcionan y cómo se ven comprometidas.

Pero quedan dudas sobre si los presupuestos permitirán el crecimiento futuro de estos programas.

Cuando termine la pandemia de COVID-19, debemos tener en cuenta el tipo de sociedad futura en la que queremos vivir. ¿Queremos recuperar nuestra antigua, o queremos una nueva donde la vigilancia generalizada es la norma en nombre de la salud del pueblo?

Autores: Dr Niels Wouters y Dr Ryan Kelly, Universidad de Melbourne