En esta escuela china, el Estado vigilaba a los estudiantes y hasta detectaba si ellos sonreían o fruncían el ceño.
Al principio, simplemente parecía genial.
Cuando se instalaron cámaras de reconocimiento facial en una escuela secundaria centenaria aquí en el este de China, los estudiantes entraron y salieron del campus, recogieron almuerzos, pidieron prestados libros e incluso compraron bebidas en una máquina expendedora con solo mirar las cámaras.
No más preocuparse por olvidarse de llevar su tarjeta de identificación.
Pero en marzo pasado, las cámaras aparecieron dentro de algunas aulas, e hicieron mucho más que simplemente identificar estudiantes y registrar la asistencia.
Utilizando el último software de inteligencia artificial, los dispositivos rastrearon el comportamiento de los estudiantes y leyeron sus expresiones faciales, agrupando cada cara en una de siete emociones: ira, miedo, disgusto, sorpresa, felicidad, tristeza y lo que se etiquetó como neutral.
Piense en ello como una pequeña visión del futuro.
Mientras que las escuelas estadounidenses, así como los estudiantes y padres, se preocupan por el mayor énfasis en las pruebas estandarizadas y la pérdida de libertad en el aula que viene con la "enseñanza a la prueba", China ha llevado las cosas a un nivel completamente nuevo.
Aquí, las cámaras de vigilancia tomaron los datos sobre las expresiones faciales individuales y utilizaron esa información para crear un "puntaje" continuo en cada alumno y clase. Si un puntaje alcanzó un punto predeterminado, el sistema activó una alerta. Se esperaba que los maestros tomaran medidas: hablar con un estudiante que se percibía como desconectado, por ejemplo, o demasiado temperamental.
Fuente: https://youtu.be/CnCAWDlV6YI
Los administradores escolares estimaron que los datos también podrían proporcionar retroalimentación a los maestros, sobre sus conferencias y el manejo del aula, aunque no hablaron de planes inmediatos para usar esos detalles como parte de sus evaluaciones.
La mayoría de los estudiantes llegó a odiar el monitoreo constante, y las consecuencias que siguieron cuando las máquinas informaron puntuaciones que sugerían que individuos o clases enteras no prestaban atención.
Algunos estudiantes llegaron tan lejos como para descubrir cómo manipular el sistema fingiendo lo que los diseñadores de las cámaras querían ver.
"Si se siente enojado, necesita controlarse", dijo Zhu Juntao, de 17 años, usando sus dos dedos índices para presionar los extremos de su boca, como si sonriera. Él dice que nunca fue llamado por un maestro, pero otros sí.
Los padres tuvieron reacciones mixtas, pero muchos de ellos se quejaron de lo que vieron como una intrusión en la privacidad que los administradores de la escuela el mes pasado presionaron el botón de pausa en las cámaras.
No es que esos funcionarios hayan renunciado al sistema. Simplemente necesita más estudios y algunos ajustes, dice Zhang Guanchao, subdirector de la escuela, quien cree que es una herramienta útil para los profesores.
"Esperamos poder traer el sistema de vuelta al campus en septiembre", dijo esta semana mientras los estudiantes terminaban la final.
La tecnología de identificación facial se ha desarrollado rápidamente y se está implementando en más lugares del mundo. Algunos aeropuertos y agencias de aplicación de la ley de los Estados Unidos ahora usan dichos sistemas para detectar a los viajeros y detectar a las personas buscadas. Gran Bretaña y Rusia están, entre otros, probando el software como parte de sus esfuerzos generales de vigilancia y vigilancia.
Fuente: https://youtu.be/3H1hj_C8F_A
Pero ningún país ha estado empleando reconocimiento facial tan agresivamente como China. Esto refleja el intenso enfoque del gobierno central en la seguridad pública y el control de los residentes, especialmente en la región occidental de Xinjiang, donde Beijing usa reconocimiento facial altamente sofisticado, escáneres iris y otro software de inteligencia artificial para vigilar y detectar cualquier actividad separatista de su población musulmana uigur.
Al mismo tiempo, Beijing está haciendo un gran esfuerzo en la inteligencia artificial. China se ha fijado el objetivo de ser el líder mundial en inteligencia artificial para el año 2030 y está invirtiendo mucho para apoyar las nuevas empresas, la investigación y un mayor uso de las tecnologías de vigilancia inteligente. Los medios estatales dijeron recientemente que el sistema de metro de Beijing planea instalar cámaras de reconocimiento facial junto con escáneres de palma este año, aparentemente para aliviar la congestión al permitir a los pasajeros obtener una entrada más rápida, ((pero también les da a las autoridades otra herramienta para monitorear a la población**.
En Beijing y en toda China, las cámaras de circuito cerrado y otros dispositivos de vigilancia son tan omnipresentes que se han convertido en parte del paisaje. Si el reconocimiento facial ayuda con la seguridad pública, algunos dicen que eso es algo bueno.
"Tal vez las personas se comportarían mejor", dijo Xia Chuzi, una estudiante de 19 años entrevistada en Beijing.
Chen Hong, otro residente de Beijing, dijo que su principal preocupación es si la tecnología de IA funcionará correctamente para identificar rostros correctamente.
"No me preocupa la privacidad", dijo el piloto de 24 años, que instala equipos de Internet de alta velocidad para ganarse la vida.
Hangzhou, un importante destino turístico a unos 100 kilómetros al suroeste de Shanghai, es ahora uno de los principales centros tecnológicos del país, gracias en parte al gigante del comercio electrónico Alibaba. También se encuentra en la ciudad Hikvision, el mayor fabricante mundial de productos de videovigilancia.
Fuente: https://youtu.be/pNf4-d6fDoY
Hikvision suministró los dispositivos de reconocimiento de rostros a la escuela secundaria No. 11 de Hangzhou. Implementarlos en escuelas de todo el país sería altamente lucrativo. La compañía parcialmente estatal no respondió a las solicitudes de una entrevista.
Los expertos dicen que las tecnologías que reconocen o verifican las caras son una cosa, pero monitorear las emociones con dispositivos de IA lo lleva a otro nivel. Incluyen no solo cámaras sino también sombreros y gorras con sensores para monitorear las ondas cerebrales que detectan cambios en el estado de ánimo de una persona.
Los defensores de los derechos humanos y la privacidad ven esa vigilancia emocional como parte del creciente régimen de control de seguridad de China, un mundo cada vez más orwelliano en el que las personas no pueden escapar del ojo del gobierno y las presiones de la conformidad en el comportamiento social.
Clare Garvie, asociada del Centro de Privacidad y Tecnología del Centro de Derecho de la Universidad de Georgetown, dijo:
"Es un precedente increíblemente peligroso poner el comportamiento de alguien o ciertas acciones basadas en las emociones o características presentadas en sus caras".
Los educadores en China han criticado duramente a la escuela de Hangzhou, no solo por invadir la privacidad de los estudiantes, ni a ellos ni a sus padres se les pidió dar su consentimiento, sino por cargar con un sistema no probado que pretende mejorar el rendimiento de los estudiantes.
Incluso suponiendo que las máquinas puedan leer con precisión las emociones faciales, no está nada claro cómo las expresiones externas se relacionan con el aprendizaje, dice He Shanyun, profesor asociado de educación en la Universidad de Zhejiang en Hangzhou.
Ella piensa que el reconocimiento facial es defectuoso de otra manera: no explica las diferentes personalidades y una cultura china que puede estar predispuesta a una cara estoica. Incluso si un dispositivo de IA puede ayudar a un maestro, dice, "no debes usarlo para castigar a los estudiantes o para etiquetarlos de manera simple".
Fuente: https://youtu.be/nT_PXjLol_8
Zheng Suning, estudiante de 10º grado en Hangzhou Nº 11, habla con orgullo de su escuela. Fue fundado en 1904, pero ahora es uno de los más de alta tecnología en el país. "Tenemos visitantes regularmente", dijo.
Los administradores escolares, sin embargo, rechazaron una solicitud para una gira.
Zheng recuerda el problema cuando perdió su identificación de la escuela. Ahora está un poco cohibida acerca de que su rostro se ilumina ante los demás, pero dice que es excepcionalmente conveniente.
"Muestra su rostro a la máquina, y sacan su bandeja del almuerzo", dijo.
Aún así, el joven de 16 años teme un regreso de las cámaras de IA en el aula.
Al igual que la mayoría de los demás estudiantes de secundaria en China, Zheng y sus compañeros de clase asisten a la escuela desde la mañana hasta tarde en la noche. Además de eso, Zheng toma lecciones tutoriales privadas dos veces por semana con una duración de dos horas cada una. Ella dice que tal vez las cámaras la ayudarán a ser una mejor estudiante, pero le preocupa que agreguen más estrés. Ella no sabe cómo evitar no parecer adormilada.
"Ya estoy tan cansado", dijo Zheng.
Luego está la cuestión de simular expresiones y comportamientos que los estudiantes piensan que las cámaras buscan. No importa cuán cansada o aburrida fue la conferencia, dijeron que el truco era mirar al frente.
"Algunos estudiantes fingen estar muy concentrados", dijo Chu Haotian, 17. Su compañero de 10º grado, Zhu Juntao, agregó: "Aunque seas un buen alumno, es posible que no tengas una buena expresión".
Aún no se han instalado cámaras de reconocimiento facial en todas las aulas de la escuela. Y supervisaron solo a estudiantes de 10º grado, y solo durante aproximadamente dos meses antes de que se suspendiera su uso.
A los educadores les preocupa que la monitorización de la emoción fomente una atención excesiva sobre el comportamiento externo o se convierta en un medio activo de control social. Eso es en parte por lo que Xiong Bingqi, un profesor de educación en la Universidad Jiaotong de Shanghai, lo llama "tecnología negra".
"Las cámaras tienen una muy mala influencia en el desarrollo de los estudiantes", dijo. "Las cámaras simplemente no deberían usarse más."
"Fue una mala idea desde el principio", agregó Xiong. "Lo que hicieron fue aprovechar a los estudiantes. La nueva tecnología no debería ser una excusa para hacer este tipo de cosas".
Fuente: L.A. Times