A medida que se redujo el costo del hardware, o de los equipos informáticos que procesan datos biométricos, como los teléfonos celulares o smartwatch, también se hizo más fácil la recolección y análisis de este tipo de información, como el flujo sanguíneo o la voz, considerando que al día de hoy los asistentes virtuales, como Alexa, que reconocen hasta emocionalidad.
“Lo que hace este señor de ChatGPT y la compañía World Coin, lo que quiere es tener y gestionar administrar una identidad única por cada persona en todo el mundo para que cualquier persona en cualquier parte del mundo pueda acceder a sus servicios usándolo a ellos como factor de autenticación”, indicó.
Dijo que si bien la idea es básicamente loable, al hacerse más sencillo el proceso de recolección de datos, también se creó un profundo pozo en el tema de seguridad y privacidad al pagar por el escaneo de iris, lo cual afirmó que no es ilegal, pero es vidrioso en lo ético.
“En otras partes pagaron US$ 100, US$ 50. En Argentina, se formaron cuadras de colas, sobre todo en las villas y eso es lo que desata también el ruido, ¿por qué se van a esos lugares específicamente a recolectar datos? Después, cuando el gobierno argentino le exige las condiciones de uso y las políticas de privacidad, hubo todo un tema ahí, medio vidrioso nuevamente y terminaron multándolo con US$ 200 millones y terminaron también con problemas en otros países”, agregó.
Lea más: Concejal encarnaceno advierte sobre escaneo de iris que se realiza en la ciudad
¿Por qué empresas quieren datos biométricos?
Detalló que lo que buscan las empresas es el acceso a datos que son irrepetibles y que pueden generar una base de datos con más cantidad de registros de personas que pueden ser identificadas inequívocamente, lo cual es algo que no se puede cuantificar monetariamente, debido a su alto valor de importancia.
“La parte delincuencial es la que se interesa en el robo de cuentas cuando accede a este tipo de datos, qué es lo que pasó ahora con esta filtración, que no es una filtración a Meta y a Google, sino que son filtraciones de datos a sesiones abiertas, equipos, dispositivos que se conforman en una base de datos que fue la que se filtró. No tiene nada que ver con Meta ni con Google. Pero las empresas, fuera de lo ciberdelincuencial per se, hacen análisis sociales con los datos”, explicó.
Dijo que cuando una persona instala un servicio digital en un dispositivo o una red social, esa empresa hace un análisis de la información y de la persona en todo momento, y es por eso que pueden llegar a predecir el comportamiento social de un país mediante lo que las personas están posteando, diciendo o buscando en redes.
Dijo que en un caso que tuvo lugar en España, donde el gobierno multó y pidió la devolución de los datos a una empresa ligada a ChatGPT y a otras empresas importantes de tecnología, se utilizaron datos para entrenar los motores de inteligencia artificial o los motores de reconocimiento y búsqueda de sus cámaras, de sus aplicaciones en la calle en tiempo real, lo que se puede utilizar para encontrar e identificar a la gente.
Lea más: Exponen gasto estatal en tecnología de control biométrico

El rechazo a la recolección de datos
Reiteró que los datos sirven a las empresas para entrenar sus modelos de inteligencia artificial, para saber si funciona, considerando que los mismos muchas veces fallan, como fue el caso de Argentina, donde instalaron cámaras con reconocimiento facial y que durante los primeros 10 meses su margen de error fue de un 81%, es decir, ocho de cada diez personas estaban equivocadas en su descripción y en su reconocimiento.
“Entrenar un modelo, entrenar y mejorar los chips de reconocimiento, los programas, las aplicaciones, esto cuesta muchísimo y ellos lo están haciendo por pipoca. Al final lo que pagan es nada con el valor del dato”, aseveró.
Recordó que hacer una consulta a ChatGPT o Pilot como si fuera un buscador es un error, ya que la consulta no se realiza para que la IA responda con las palabras sueltas, sino que busque contextos.
“Ese contexto se lo hemos dado nosotros con el entrenamiento de años, porque esto no es soplar y hacer botella, ha sido prueba y error durante años, porque la inteligencia artificial tenemos desde hace 30 años y estos modelos los tenemos hace 3 o 4 años dando vuelta. Hay un laboratorio nuevo, hay un nuevo entrenamiento de este tipo de cosas que tienen que ver con la identificación de las personas y eso es lo que están haciendo”, refirió.
Lea más: Italia prohíbe usar datos biométricos de IA para vigilar a los italianos
Diferencia uso de datos biométricos con bancos
Señaló que no es lo mismo depositar la confianza en la protección de los datos biométricos en un teléfono de alta gama que en un teléfono de baja gama o media gama, porque la forma de proteger esa información es diferente, ya que los teléfonos de gama media y alta tienen hardware, fierro, circuitos integrados, chips que van a hacer el trabajo del encriptado y protección de ese dato biométrico, mientras que los teléfonos de gama baja tienen software, entonces son mucho más vulnerables y mucho más predecibles.
También destacó que es importante saber dónde permitimos que se recolecte nuestra información biométrica, teniendo en cuenta que en el caso de los bancos, que utilizan datos biométricos del rostro para acceder a las cuentas bancarias desde las aplicaciones móviles, tienen lo que se denomina un “principio de proporcionalidad”.
“Tiene que haber una proporción entre lo que vos querés cuidar y lo que vos recabás como dato para cuidar ese activo físico o digital. En este caso, los bancos están obligados a proteger nuestra información con altos estándares. Por eso es que la gente se puede ir en cualquier momento y pedirle al banco un informe de qué pasó con su información, cómo se trata y el banco se la va a dar. Lo que pasa que no estamos acostumbrados a ver de ese lado”, comentó.
Agregó que no es lo mismo que un banco recolecte el reconocimiento facial para proteger activos económicos a que el grado del hijo de una persona le tome los datos biométricos a al niño para entrar a clase, lo cual consideró es un despropósito y una estupidez total.
Lea más: Paraguay, ¿hub internacional de IA?

Recolección de datos biométricos en Encarnación
“No hay gratuidad, le estás dando datos biométricos para componer un personaje y hoy la suplantación de identidad no solamente es el delito que más crece, sino que las herramientas de inteligencia artificial de sintetización, es decir, aquellas que pueden clonar una voz o generar un cuerpo completo con el mismo tono de piel, peso, altura y lo que fuera, están descontroladas”, aseveró.
“Acá en Paraguay en las últimas dos semanas tuvimos más de 12 casos de colegios en donde toman la foto de una niña y componen un video o una foto porno. Y son herramientas que están ahí disponibles para todo el rollo, anónimas. Entregarse a ese tipo de cosas o sea, y ver que toda la sociedad quiere hacer un anime lo que fuera, es ver que fracasó el sistema educativo porque no terminamos de entender que nuestros datos valen y que estamos entrenando modelos dando nuestros datos más valiosos que son los biométricos”, concluyó.
El concejal colorado Andrés Morel, de Encarnación, expresó el miércoles la inquietud por una práctica que se trasladó a barrios vulnerables de la ciudad de Encarnación, con personas ofreciendo dinero por autorizar el escaneo de su iris.
Denunció el hecho debido a que no encontraron ninguna empresa habilitada en el país para realizar este procedimiento y los potenciales peligros que pueden surgir al entregar datos biométricos sensibles.