(El Heraldo de México) / La tecnología siempre será un arma de doble filo: por un lado siempre será posible utilizar para simplificar la vida diaria del ser humano en tareas que pueden acortarse en tiempo y por el otro, la mayoría de las nuevas tecnologías dejan expuesta la privacidad de sus usuarios. La inteligencia artificial que lleva a cabo el reconocimiento facial no es excepción a esta regla, de hecho podríamos considerarla como el mejor ejemplo de lo que estamos hablando.
Pues si bien se ha sabido implementar para el tema del desbloqueo instantáneo de aplicaciones y cuentas de software que guardamos en nuestro celular, también ha tenido malos usos y encuentros polémicos con la Ley de algunos país. Hay que recordar que después del caso de Robert Williams, quien fue el primer hombre en ser detenido erróneamente gracias a la tecnología de reconocimiento facial, varios estados de los Estados Unidos de Norteamérica buscan regular estos software e incluso prohibirles de manera momentánea en procedimientos policiales. Debido a este conflicto es que se creando algunas tecnologías y herramientas para salvaguardar la identidad de las personas y no puedan ser reconocidas mediante estos software de identidad facial, aquí te contamos de uno de ellos.
Proyecto Fawkes
Fawkes es conocido como un proyecto desarrollado por Emily Wenger, investigadora de la Universidad de Chicago en los Estados Unidos. Fawkes es un software que se basa en “envenenar los datos” que recolectan las grandes compañías de tecnología.
“(envenenar los datos) es eliminar los que las empresas tienen sobre nosotros o contaminar los conjuntos con ejemplos falsos puede dificultar que las empresas entrenen sus modelos tan precisos de aprendizaje automático. Pero estos esfuerzos generalmente requieren una acción colectiva, con la participación de cientos o miles de personas, para conseguir un impacto. La diferencia con estas nuevas técnicas es que funcionan con las fotos de una sola persona.”
El software Fawkes trabaja de la mano con tecnología que no es completamente perceptible al ojo humano mediante un algoritmo y una herramienta de software (que se ejecuta localmente en la computadora) y brinda a las personas la capacidad de limitar la forma en que terceros pueden rastrearnos construyendo modelos de reconocimiento facial a partir de nuestras fotos disponibles en las redes sociales. De acuerdo con Wenger y su equipo de trabajo:
“Fawkes realiza pequeños cambios en una imagen que son difíciles de detectar con el ojo humano, pero confunden a una IA, lo que hace que el modelo identifique erróneamente a quién o qué ve en esa foto.”
Hasta la fecha no existe versión móvil de este software, sin embargo, sus creadores no descartaron trabajar en él a futuro.
Lentes que absorben la luz
Otra opción disponible para impedir que la IA de reconocimiento facial obtenga tus datos faciales es utilizar unas gafas reflectantes que están diseñadas para engañar a los sistemas de reconocimiento facial que utilizan infrarrojos para la iluminación y los sistemas que utilizan el mapeo y escaneo infrarrojo 3D. Los más populares en el marco son de la empresa Reflectacles y menciona que ellos utilizan dos tecnologías analógicas para mantener su privacidad: lentes de bloqueo de infrarrojos y marcos reflectantes.