Escaneo del iris: esto dice un experto sobre intenciones de empresas de IA

Ante la apertura de una investigación por parte de la Junta Municipal de Encarnación sobre el ofrecimiento de dinero por el escaneo del iris de personas en zonas vulnerables, dato biométrico único e irrepetible de cada ser humano, el experto en ciberseguridad, Miguel Ángel Gaspar, contó por qué las empresas están interesadas en estos datos personales y el cuidado que se debe tener ante este tipo de situaciones.

Tecnologías de reconocimiento e identificación personal en cámaras de vigilancia callejeras, imagen ilustrativa.
Tecnologías de reconocimiento e identificación personal en cámaras de vigilancia callejeras, imagen ilustrativa.Shutterstock

A medida que se redujo el costo del hardware, o de los equipos informáticos que procesan datos biométricos, como los teléfonos celulares o smartwatch, también se hizo más fácil la recolección y análisis de este tipo de información, como el flujo sanguíneo o la voz, considerando que al día de hoy los asistentes virtuales, como Alexa, que reconocen hasta emocionalidad.

“Lo que hace este señor de ChatGPT y la compañía World Coin, lo que quiere es tener y gestionar administrar una identidad única por cada persona en todo el mundo para que cualquier persona en cualquier parte del mundo pueda acceder a sus servicios usándolo a ellos como factor de autenticación”, indicó.

Dijo que si bien la idea es básicamente loable, al hacerse más sencillo el proceso de recolección de datos, también se creó un profundo pozo en el tema de seguridad y privacidad al pagar por el escaneo de iris, lo cual afirmó que no es ilegal, pero es vidrioso en lo ético.

“En otras partes pagaron US$ 100, US$ 50. En Argentina, se formaron cuadras de colas, sobre todo en las villas y eso es lo que desata también el ruido, ¿por qué se van a esos lugares específicamente a recolectar datos? Después, cuando el gobierno argentino le exige las condiciones de uso y las políticas de privacidad, hubo todo un tema ahí, medio vidrioso nuevamente y terminaron multándolo con US$ 200 millones y terminaron también con problemas en otros países”, agregó.

¿Por qué empresas quieren datos biométricos?

Detalló que lo que buscan las empresas es el acceso a datos que son irrepetibles y que pueden generar una base de datos con más cantidad de registros de personas que pueden ser identificadas inequívocamente, lo cual es algo que no se puede cuantificar monetariamente, debido a su alto valor de importancia.

“La parte delincuencial es la que se interesa en el robo de cuentas cuando accede a este tipo de datos, qué es lo que pasó ahora con esta filtración, que no es una filtración a Meta y a Google, sino que son filtraciones de datos a sesiones abiertas, equipos, dispositivos que se conforman en una base de datos que fue la que se filtró. No tiene nada que ver con Meta ni con Google. Pero las empresas, fuera de lo ciberdelincuencial per se, hacen análisis sociales con los datos”, explicó.

Dijo que cuando una persona instala un servicio digital en un dispositivo o una red social, esa empresa hace un análisis de la información y de la persona en todo momento, y es por eso que pueden llegar a predecir el comportamiento social de un país mediante lo que las personas están posteando, diciendo o buscando en redes.

Dijo que en un caso que tuvo lugar en España, donde el gobierno multó y pidió la devolución de los datos a una empresa ligada a ChatGPT y a otras empresas importantes de tecnología, se utilizaron datos para entrenar los motores de inteligencia artificial o los motores de reconocimiento y búsqueda de sus cámaras, de sus aplicaciones en la calle en tiempo real, lo que se puede utilizar para encontrar e identificar a la gente.

Miguel Ángel Gaspar, experto en ciberseguridad.
Miguel Ángel Gaspar, experto en ciberseguridad.

El rechazo a la recolección de datos

Reiteró que los datos sirven a las empresas para entrenar sus modelos de inteligencia artificial, para saber si funciona, considerando que los mismos muchas veces fallan, como fue el caso de Argentina, donde instalaron cámaras con reconocimiento facial y que durante los primeros 10 meses su margen de error fue de un 81%, es decir, ocho de cada diez personas estaban equivocadas en su descripción y en su reconocimiento.

“Entrenar un modelo, entrenar y mejorar los chips de reconocimiento, los programas, las aplicaciones, esto cuesta muchísimo y ellos lo están haciendo por pipoca. Al final lo que pagan es nada con el valor del dato”, aseveró.

Recordó que hacer una consulta a ChatGPT o Pilot como si fuera un buscador es un error, ya que la consulta no se realiza para que la IA responda con las palabras sueltas, sino que busque contextos.

“Ese contexto se lo hemos dado nosotros con el entrenamiento de años, porque esto no es soplar y hacer botella, ha sido prueba y error durante años, porque la inteligencia artificial tenemos desde hace 30 años y estos modelos los tenemos hace 3 o 4 años dando vuelta. Hay un laboratorio nuevo, hay un nuevo entrenamiento de este tipo de cosas que tienen que ver con la identificación de las personas y eso es lo que están haciendo”, refirió.

Diferencia uso de datos biométricos con bancos

Señaló que no es lo mismo depositar la confianza en la protección de los datos biométricos en un teléfono de alta gama que en un teléfono de baja gama o media gama, porque la forma de proteger esa información es diferente, ya que los teléfonos de gama media y alta tienen hardware, fierro, circuitos integrados, chips que van a hacer el trabajo del encriptado y protección de ese dato biométrico, mientras que los teléfonos de gama baja tienen software, entonces son mucho más vulnerables y mucho más predecibles.

También destacó que es importante saber dónde permitimos que se recolecte nuestra información biométrica, teniendo en cuenta que en el caso de los bancos, que utilizan datos biométricos del rostro para acceder a las cuentas bancarias desde las aplicaciones móviles, tienen lo que se denomina un “principio de proporcionalidad”.

Tiene que haber una proporción entre lo que vos querés cuidar y lo que vos recabás como dato para cuidar ese activo físico o digital. En este caso, los bancos están obligados a proteger nuestra información con altos estándares. Por eso es que la gente se puede ir en cualquier momento y pedirle al banco un informe de qué pasó con su información, cómo se trata y el banco se la va a dar. Lo que pasa que no estamos acostumbrados a ver de ese lado”, comentó.

Agregó que no es lo mismo que un banco recolecte el reconocimiento facial para proteger activos económicos a que el grado del hijo de una persona le tome los datos biométricos a al niño para entrar a clase, lo cual consideró es un despropósito y una estupidez total.

/pf/resources/images/abc-placeholder.png?d=2262

Recolección de datos biométricos en Encarnación

“No hay gratuidad, le estás dando datos biométricos para componer un personaje y hoy la suplantación de identidad no solamente es el delito que más crece, sino que las herramientas de inteligencia artificial de sintetización, es decir, aquellas que pueden clonar una voz o generar un cuerpo completo con el mismo tono de piel, peso, altura y lo que fuera, están descontroladas”, aseveró.

“Acá en Paraguay en las últimas dos semanas tuvimos más de 12 casos de colegios en donde toman la foto de una niña y componen un video o una foto porno. Y son herramientas que están ahí disponibles para todo el rollo, anónimas. Entregarse a ese tipo de cosas o sea, y ver que toda la sociedad quiere hacer un anime lo que fuera, es ver que fracasó el sistema educativo porque no terminamos de entender que nuestros datos valen y que estamos entrenando modelos dando nuestros datos más valiosos que son los biométricos”, concluyó.

El concejal colorado Andrés Morel, de Encarnación, expresó el miércoles la inquietud por una práctica que se trasladó a barrios vulnerables de la ciudad de Encarnación, con personas ofreciendo dinero por autorizar el escaneo de su iris.

Denunció el hecho debido a que no encontraron ninguna empresa habilitada en el país para realizar este procedimiento y los potenciales peligros que pueden surgir al entregar datos biométricos sensibles.

Enlance copiado