Deepfake, la Inteligencia Artificial que atenta contra las compañías

Hombre con computadora realizando Deepfake

Las empresas están en el foco del peligro con esta nueva práctica, que es cada vez más utilizada por los ciberdelincuentes. Conocé qué medidas tomar para que tus empleados no caigan en el engaño.

La historia comenzó con una foto del Papa Francisco vestido con un camperón blanco de Balenciaga, la cual recorrió el planeta entre risas y dudas; sin embargo, al tiempo salió a la luz que la imagen no era real ya que había sido creada con la herramienta de Inteligencia Artificial (IA), Midjourney.

Este es uno de los miles de ejemplos sobre las nuevas prácticas de la IA, las cuales serán cada vez más frecuentes debido a la expansión inminente de esta tecnología, no solo en el ámbito laboral o escolar sino también en los hogares. El problema radica cuando los criminales sacan provecho de estas situaciones. ¿Cómo? Difundiendo información falsa sobre una empresa, relevando información confidencial obtenida a través del engaño con el fin de conseguir importantes sumas de dinero.

He aquí donde surge el concepto Deepfake, una técnica de suplantación de identidad que se vale de una tecnología avanzada de IA para recopilar datos sobre movimientos físicos, rasgos faciales y la voz de una persona. Luego, se los procesa a través de algoritmos de aprendizaje no supervisados conocidos como RGA (Red generativa antagónica), y crea audios, videos o imágenes falsas pero muy realistas.

En tanto, ¿cómo pueden engañar a tus empleados? De manera muy simple, tal es así que en varias ocasiones se hicieron pasar por directivos en reuniones virtuales o a través de mensajes de voz y llamadas. Una vez lograda la suplantación de identidad, engañan a los colaboradores y extraen información sensible o los convencen de transferir fondos monetarios.

Según la firma internacional Netskope hay cinco claves que toda compañía debería poner en práctica para protegerse ante este tipo de ciberataques:

  • Planificar los simulacros y los procedimientos de respuesta. Los planes de seguridad deben incluir los pasos a seguir en caso de ataque que sean claros y permitan una mejor reacción por parte de la organización.
  • Concienciar a los empleados. Constituir una importante línea de defensa que haga frente de manera efectiva 
  • Elaborar procesos de verificación secundarios para las operaciones sensibles. La doble verificación es una ayuda para contrarrestar los ataques cibernéticos, como así también las marcas de agua, la autenticación paso a paso y el doble control 
  • Recurrir a un seguro de protección. Las aseguradoras son una buena opción que ampliará el abanico de defensa
  • Actualizar las evaluaciones de riesgo. Los Deepfake deben formar parte de los procesos de evaluación de riesgos de ciberseguridad.

Además, según los expertos la disponibilidad de conjuntos de datos públicos y el aumento de la potencia informática serán los principales impulsores del desarrollo de Deepfake en el futuro y harán que sea más difícil distinguirlos del contenido auténtico. Para ello será necesaria su legislación para establecer pautas y hacerlas cumplir. 

Por este y por muchos más riesgos te recomendamos consultar con un experto para la realización de tus soluciones. En #Lemondata nos tomamos muy en serio la evaluación de riesgos, ya que tu seguridad es nuestra prioridad.

Fuente: Telecom

Dejá un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *