Preocupaciones tras la aprobación de nueva legislación

Check Point advierte sobre limitaciones en detección de deepfakes

Mujer con un lado de su rostro pixelado representando deepfakes
La compañía destaca la dificultad de identificar contenidos manipulados.

Check Point Software ha manifestado su preocupación sobre las limitaciones tecnológicas en la detección de deepfakes, a raíz del anteproyecto de ley orgánica aprobado el 13 de enero de 2025 por el Consejo de Ministros. Esta normativa tiene como objetivo salvaguardar los derechos al honor, a la intimidad y a la propia imagen, en un esfuerzo por frenar la manipulación de imágenes y voces generadas por inteligencia artificial.

Desafíos en la detección de contenidos manipulados

A pesar del avance legislativo, la compañía advierte que la identificación confiable de contenidos alterados por inteligencia artificial en tiempo real sigue siendo un reto significativo. Según Eusebio Nieva, director técnico de Check Point Software para España y Portugal, la evolución rápida de los deepfakes complica la distinción entre lo auténtico y lo falso, tanto para los usuarios como para las organizaciones. «Hoy en día, los deepfakes son extremadamente difíciles de identificar y, en un futuro cercano, serán prácticamente indistinguibles de los contenidos reales», afirmó Nieva.

El experto subrayó que actualmente no existe ninguna herramienta capaz de detectar deepfakes de manera efectiva y en tiempo real. Sin avances disruptivos en los próximos dos o tres años, la identificación de estos contenidos se volverá aún más complicada, lo que limitará las capacidades de prevención en el ámbito de la ciberseguridad.

Implicaciones legales y operativas

La nueva legislación busca proteger la reputación y los derechos fundamentales de los individuos, un paso necesario, pero que no aborda el problema desde su raíz técnica. La proliferación de vídeos manipulados que difunden mensajes falsos pone de manifiesto un vacío legal y operativo, ya que demostrar la falsedad de un contenido puede resultar inviable.

Según Nieva, la defensa contra los deepfakes no se basa en soluciones tecnológicas, ya que estas aún no existen. En su lugar, la protección se fundamenta en procedimientos, verificaciones manuales y medidas organizativas que permiten contrastar identidades y mensajes. Aunque la legislación puede ofrecer un marco para actuar una vez que el daño ya se ha producido, la falta de herramientas efectivas de detección mantiene el problema en el ámbito reputacional, legal y social, más que en el de la ciberseguridad.