El fraude por el “phishing de voz”

Es sabido que el sistema financiero se encuentra lidiando con una práctica novedosa de tinte fraudulenta y que ocupa un “mecanismo” para lograr el error en las personas físicas/jurídicas, pues los agentes escudriñan para obtener información confidencial vía tecnología.

Así nos encontramos ante el suceso que hace creer a las víctimas que se encuentran compartiendo datos con algún conocido y/o representante de alguna entidad bancaria/financiera y/o autoridad tributaria.

La idea se sumerge en que el “phishing de voz” busca suplantar una identidad conocida para aquellas víctimas, pues bien, la idea central es obtener información “confidencial” haciéndose pasar por alguna persona de confianza, lo cual se puede desarrollar por vía de la utilización del correo electrónico o por voz o “vishing” así como por el smishing (mediante mensajes de texto SMS).

Indudablemente, estas acciones se potencian para perpetrar autorizaciones de compras que no fueron autorizadas por el titular de la identidad, como también, la realización de transferencias de dinero. Por ende, se puede deducir que estamos ante una nueva ingeniería social que afecta a las víctimas desde el momento de intercomunicación, afectando a datos financieros (personalísimos). A su vez, estos ataques tecnológicos comprometen el devenir de la confianza transaccional, bajo tenor inmediato de aquellas tácticas como: la implementación del efecto “sorpresa”, generando un supuesto llamado por parte de alguna autoridad tributaria o empresas para iniciar la declaración falsa.

Por otro lado, se tiene aquella formalidad más burda en la que se llama a la víctima para amenazarla, a los efectos de que la misma cumpla con todo lo peticionado, caso contrario supuestamente podría ser pasible de alguna sanción administrativa.

Todos los beneficios, en un solo lugar Descubrí donde te conviene comprar hoy

Entretanto, la clonación de voz, que también resulta en audio deepfake, en vista a que es generada y/o alterada por inteligencia artificial, trasciende conforme a la idea de efectivizar el diseño fraudulento, y en tal efecto, los países analizan la adecuación de una “figura” legal para determinar con precisión esta práctica delictual; es decir, para construir taxatividad con referencia a la estafa por voice phishing, cuando el objetivo tiene como consecuencia la obtención de activos, mediante el engaño perpetrado con ayuda de la suplantación de identidad. En tal sentido, la usurpación digital de la voz, perfecciona el lucro irregular.

Cabe destacar que existen categorías igualmente técnicas como el “robocalls”, que gestiona voces generadas por IA, tal como ocurrió en los Estados Unidos, y que conllevó a iniciativas legislativas federales para tipificar el fraude de réplicas de IA. También se ha vislumbrado el caso del Reino Unido, en donde se sigue el interés por una ley “deepfake”; mientras tanto, se aprecia el Fraud Act 2006 (fraude).

Conforme a lo anterior, se puede precisar que en España aquellos sucesos de audios/deepfakes se han encuadrado en estafa (art. 248 CP), notando ciertos elementos objetivos como la usurpación de identidad, además de la puesta de reformas para regular los montajes con IA. En México, se puede considerar la subsunción bajo modalidad por uso de nuevas tecnologías; y existen proyectos que destacan por el aprecio de penas por usurpación digital y fraudes con tecnología.

Ante ello, el sistema internacional se encuentra en alerta, puesto que, los tipos de suplantación de identidad se aprovechan de los diversos negocios a través de Internet. Entonces, cada ataque que se ejecuta por voice phishing compite con aquellos modelos delictuales de malware. Considerando lo expuesto, cada legislación ocupa su autonomía para verificar la correcta adecuación típica, siempre que se logre determinar probatoriamente cada uno de los vértices de la tecnología aplicada, pues no resulta sencillo distinguir un audio “real” de uno “manipulado” sin peritaje técnico, en razón a que la IA ha mejorado todos los paradigmas.

Es por tanto que estas cuestiones se han vuelto virales, y ejemplo de ello se vislumbra de lo sucedido en el año 2019, resultando víctima una empresa de energía en el Reino Unido, que fue perjudicada por valor de 220.000 euros a partir de un hecho en el que los agentes aplicaron un software de inteligencia artificial para clonar la voz del CEO de la empresa. Así lograron generar una llamada telefónica al director de una sucursal de dicha empresa, solicitando una transferencia urgente de fondos a una cuenta en Hungría. En vista de que la “voz” era bastante convincente, el director cae en error y ordena la transferencia, efectivizándose el fraude a la empresa.

Definitivamente, estamos ante una sociedad de riesgo, puesto que, el voice hacking se encuentra en la agenda de los agentes o grupo criminal, ante el perfeccionamiento en la clonación de voz para imitar con exactitud, y consolidar la ejecución del engaño a instituciones financieras o personas físicas particulares.

Todo lo dimensionado potencia el interés por cautelar cualquier perjuicio económico inminente, así como la posibilidad del daño a la reputación de la persona jurídica.

Por correo o por voz

Suplantar la identidad haciéndose pasar por alguna persona de confianza, lo que se puede desarrollar por vía de correo electrónico o voz.

Cautelar perjuicio

Potencia el interés por cautelar cualquier perjuicio económico inminente, así como la posibilidad del daño a la reputación de la persona jurídica.

(*) Docente investigador de la carrera de Derecho de la Universidad Americana. Doctor en Derecho. PosDoctor en Ciencias (PD Cs.) - Mención Investigación Científica. Magíster en Ciencias Penales. X: @MatiasGarceteP

Enlace copiado