La IA generativa crea “deepfakes” cada vez más realistas y peligrosos
La Inteligencia Artificial generativa (GenAI, por sus siglas en inglés) como toda tecnología puede usarse para mejorar la productividad, pero también puede ser un riesgo de ciberseguridad si se le da un uso inadecuado.
Precisamente esta tecnología crea cada día deepfakes más realistas, lo que ocasiona más riesgos informáticos que ponen en peligro la seguridad de los usuarios.
Pablo Hernández, Arquitecto de Soluciones de Ciberseguridad SPC Internacional, explicó durante el Seminario Internacional de Ciberseguridad los detalles de la proliferación de los fraudes informáticos a partir del uso de creaciones falsas con el uso de técnicas avanzadas como GenAI.
"Los deepfakes son una amenaza, un riesgo que nace a través de la creación de ciertos algoritmos, de innovaciones en el tema de la IA.
La palabra como tal es origen en inglés y es compuesta que viene precisamente deep o profundo en español y hace alusión al tema de aprendizaje profundo, ya que las tecnologías involucradas precisamente en todo esto se basan en algoritmos de Inteligencia Artificial en aprendizaje profundo o deep learning y por supuesto el tema de fake o falso, porque utiliza estas tecnologías para generar contenidos sintéticos.
Esto es contenido que realmente no existió en ningún momento y lo que busca es falsificar identidad de estas personas o de los sujetos que se utilizan para hacer este tipo de contenido", explica el especialista.
Además, detalló porque esta tecnología es tan riesgosa en muchos sentidos, no solo para robo de información y dinero, sino porque provoca daños reputacionales.
"Lo importante es entender por qué es un peligroso, sin dudas esta tecnología es increíble el avance tecnológico que ha traído, las capacidades y las posibilidades que tienen muchos aspectos positivos, el problema es si tiene una connotación peligrosa.
El deepfake sin duda al ser una tecnología tan avanzada como un contenido tan realista, pues nos deja en desventaja ante situaciones que si un delincuente o personas que quieran utilizar esto para el mal puedan aprovecharlo y creo que esto no es algo nuevo, como tal el ser humano, las personas seguimos siendo el objetivo número uno de los ciberdelincuentes; algunas estadísticas relevantes de los últimos años siguen diciendo que por ejemplo, los ataques más relevantes donde hay más desarrollo e inversión son con tecnología en como las personas maliciosas generan estos ataques relacionados en afectar a los usuarios", añadió.
Phishing e ingeniería social
Durante su presentación expuso que 2 técnicas en las que más crecimiento se determina que esta tecnología va a potenciar y son las relacionadas con los usuarios: el tema de phishing y el segundo que son ataques donde la mayoría de los casos es el mismo usuario es el que a través de un engaño de una técnica de ingeniería social, por medio de algún acceso inadecuado del que es víctima, permite que ingresen estas capacidades generativas, que hacen que sea más realista, preciso y completo el proceso en el que esta tecnología genera un correo mucho más real, por lo que es más fácil en que una persona pueda ser víctima.
Dio un ejemplo en el que a una persona le clonaron la voz, se trataba del director de la compañía; a través de estas técnicas de GenAI le pidió a una de las personas que tenía acceso a grandes capacidades de transacciones financieras que pasara $35 millones para consumar el fraude informático.
"Esto es algo que viene no va a disminuir, más bien todas las estadísticas, todos los estudios consideran que cada vez vamos a hacer más o vamos a estar más conscientes de esta situación, va a haber más ataques", señaló.
Y aunque es un hecho que el tema financiero es uno de los blancos de los ciberatacantes, no es el único.
Por ejemplo, hace algún tiempo a la cantante Taylor Swift le publicaron contenido falso de pornografía, donde realmente nunca estuvo involucrada y le generó una afectación personal muy seria, ya son temas de reputación.
"Entonces es un tema a tomar en consideración, realmente es una tecnología increíble por el alcance que tiene, pero es peligroso y debemos tomarla con mucho cuidado", advirtió.
Nada nuevo
Sin embargo, Hernández aclaró que el tema de la creación digital de imágenes asistidas con computadora no es algo nuevo.
"Esto lo hemos visto en el cine principalmente, es el que nos ha dado a conocer estos temas, sin embargo, como tal la tecnología de deepfake que nace de la Inteligencia Artificial, tiene su hito principal en el año 2014 cuando se desarrollan lo que se llama las redes generativas adversarias, que pues es una técnica de aprendizaje profundo y utiliza una metodología muy interesante donde prácticamente lo que hace esto es poner dos redes: una que genera contenido y una que analiza y discrimina ese contenido a competir de forma que la primera trata de generar, por ejemplo la imagen de una persona y la segunda le va diciendo qué tan realista se va generando ese contenido, en un proceso de aprendizaje y ejecución en el que llegan a un acuerdo en el que el contenido generado tiene un nivel de aceptación válido.
Y de ahí en adelante, ha habido una serie de evoluciones en tecnologías y algoritmos en mejoras de rendimientos que han traído esta tecnología a como la tenemos disponible al día de hoy", manifestó sobre la evolución que ha experimentado y cómo se utiliza para crear daño.
También indicó que la primera generación de casos no estaba tan evolucionada, pues había una falta de calidad, de creación de contenidos con exactitud, de diferentes aspectos que hacen muy visible que este es creado por computadora y era una manifestación no realista.
"Así como esto ocurrió al inicio y ya esa evolución ha seguido avanzando, hemos tenido acceso a herramientas como estas, por ejemplo, donde ahora podemos a través de texto solicitarle una herramienta o una plataforma que queremos crear un video y podamos obtener cosas como una plataforma que se llama Pica; todo esto está totalmente disponible, posiblemente algunas opciones requieran de pagos y suscripciones, pero es algo que podemos utilizar.
Y es que también hay que tomar en cuenta que parte de este crecimiento, esta evolución ha hecho que muchas herramientas están disponibles; actualmente en el mercado, tenemos cientos, sino miles de plataformas que tienen capacidades y esto que vemos son solamente las buenas, las que están de lado legal de las cosas, por supuesto, los atacantes tienen acceso a estos algoritmos, a estas soluciones y las van a usar de forma inapropiada, van a utilizar todas estas tecnologías para fraudes, desinformación, afectación de reputación y demás, entonces esto es algo que ha venido creciendo, les aseguro que ustedes buscan en su teléfono deepfake application y les van a salir cientos de opciones de aplicaciones que tienen el fin de hacer este tipo de contenido o de actividades, entonces esto es algo que esta disponibilidad de herramientas ha ayudado a considerar esta tecnología como con cuidado actualmente", profundizó sobre la evolución que ha tenido la IA hasta la actualidad.
"Siguiendo con esa evolución Open AI que es la organización que creó Chat GPT tiene otro motor u otra plataforma que se llama Sora que busca hacer esto precisamente: que es crear video desde texto, sin embargo, lo hace como un nivel bastante más avanzado", agregó.
De paso mencionó algunas iniciativas que la industria también ha desarrollado, proyectos como Origin, en coaliciones para validación de contenido principalmente enfocadas o desarrolladas por organizaciones fuertes en la industria con foco en desarrollo o creación de contenido.
Esto lo que ha permitido es que se desarrollen tecnologías, por ejemplo, en productos de Adobe o de algunas otras marcas que permitan autentificar el contenido, por ejemplo, cuando este se genera de forma digital que se pueda validar la fuente, que haya un proceso de cadena o de firma digital que permita asegurar que ese contenido sea genuino.
Y existen otras iniciativas como sitios como Verify This para determinar si algún contenido del que se tiene duda, si ha sido modificado o hecho por deepfake, "estas son algunas otras consideraciones que podemos tener en cuenta, pues sin duda siguen avanzando también, así como la tecnología e iniciativas que apoyen con esto, es algo que vamos a seguir viendo".
Otro tema muy relevante también es que muchas veces este tipo de peticiones principalmente cuando hablamos de un tipo de fraude o de estafa y no solamente con deepfake, la diferencia es que con este va a ser mucho más realista ahora, si antes yo recibía una llamada de una persona que no conocía, ahora la diferencia es que la llamada va a venir con la voz de mi papá o de mi hermano o de mi hijo o de mi jefe.
Entonces eso cambia el contexto, por supuesto que eso nos desestabiliza emocionalmente recibir una llamada diciendo que necesita una transacción, por ejemplo, mi papá, es muy diferente recibir una llamada de alguien, que no tiene esa relación emocional conmigo, pero sin duda el tema de agregar un sentido de urgencia ya es una alerta que tenemos que tener en cuenta.
Cuando el mensaje dice: necesito rápido el dinero o haga la transacción ya, porque si no perdemos el negocio o necesito la plata en este momento, sea una persona en la familia o en el trabajo sin duda, eso hay que tomarlo con cuidado y verlo como un posible indicador de una estafa.
¿Y eso cómo lo podemos complementar? precisamente validando de forma directa con esas personas.
Si recibí esa llamada tal vez de mi papá o de algún familiar, lo puedo contactar, inmediatamente cuelgo la llamada y lo llamo directamente a él y confirmo que efectivamente esa situación está ocurriendo, ya sea que ocupa un dinero, muchas veces es que les enviemos información, por ejemplo, que les pasemos datos confidenciales de la organización, entonces, sin duda este proceso nos va a permitir mitigar una situación en la que estemos dando la información o dinero a un tercero que nos está haciendo un fraude.
Fuentes de información
Acerca de las fuentes de información, llamó siempre a verificar una y otra vez el origen, ya que cada vez se vuelve más complejo discriminar entre el contenido real y el generado sintéticamente.
"Es muy relevante tener en cuenta las fuentes, de dónde está saliendo la información que consumimos. Todo ese montón de contenido que se está generando en tiempo real muchas veces eso no es verdadero y los deepfakes vienen a profundizar en el tema o hacerlo más delicado, porque agregan contenido mucho más realista, entonces ahora es más posible que nos engañen ante una situación que tal vez antes no íbamos a tener más cuidado y como detectarla", señaló sobre el cuidado que se debe tener sobre lo todo el material que circula en Internet, las redes sociales y las plataformas de mensajería.
"Entonces sin duda sobre las variedades fuentes de información, es relevante no creer todo lo que escuchamos, primero validamos en la medida de lo posible como estamos consumiendo la información", recomienda.
"Otra consideración es usar todas esas tecnologías que están disponibles para detectar y protegernos, si tenemos algún contenido que estamos revisando, alguna información, pues validemos, entremos a esas plataformas que sabemos que ya están disponibles y confirmemos", aconsejó para enfrentar el contenido generado artificialmente con fines dañinos.
Igualmente llamó a hacer ejercicios para defenderse de las amenazas y probar que realmente se está preparado, ya que así como muchas veces se hacen simulaciones de ingeniería social, estas son técnicas que se deben incorporarse también para asegurar que las personas que están en el entorno, estén preparadas ante situaciones como estas.
"En ningún momento en la historia de la humanidad como hoy tenemos en nuestras manos todo lo que prácticamente necesitamos para hacer a nivel tecnológico, pero también recordemos que somos responsables de cómo lo utilizamos.
Los deepfakes son un recordatorio de que no todo lo que vemos es real, pero lo que hacemos con esa información sí tendrá consecuencias reales", concluyó.