Delincuentes se actualizan y usan la Inteligencia Artificial (IA) en su nueva modalidad de estafa. Los criminales obtendrían el patrón de la voz en los videos de redes sociales para luego, con plataformas gratuitas, generar frases de socorro.
Según Erick Iriarte, abogado experto en derecho digital y nuevas tecnologías, se trata de la técnica del ‘deepfake’: programas que permiten escribir un texto para que sea convertido de forma casi inmediata en la misma voz de los audios que se obtuvieron previamente en las redes sociales de la víctima. En Estados Unidos, en enero de este año, comenzó a reportarse casos donde incluso algunas víctimas llegaron a pagar.
El periodista de Ciencia y tecnología Bruno Ortiz , recomienda usar frases claves al momento de comunicarnos con nuestros amigos y familiares para evitar ser víctimas de esta nueva modalidad de estafa.
Hasta la fecha en nuestro país existirían 55 casos de esta modalidad de estafa en los que las víctimas oyeron, al otro lado del teléfono, una voz exacta a la de un familiar solicitando dinero por alguna “urgencia” o amenaza.
CASI ESTAFAN A SU MAMÁ
La actriz Milett Figueroa denunció que su madre, Martha Valcárcel, pasó por ese mal momento, y que unos estafadores intentaron quitarle dinero bajo este modus operandi. Según contó, los delincuentes usaron una voz extremadamente parecida a la de su hermana y engañaron a su mamá diciéndole que su hija estaba secuestrada. Su progenitora señaló que “casi le da un infarto”.