Las herramientas diseñadas para detectar deepfakes y combatir la desinformación tienen un propósito noble: proteger la autenticidad de la información y evitar la propagación de contenidos manipulados que puedan causar daño o engañar a la gente. Sin embargo, estas mismas tecnologías también podrían ser usadas con fines contrarios si están bajo el control de gobiernos o corporaciones que busquen manipular la narrativa oficial y censurar información. Esto podría llevar a una forma de manipulación digital que afecte la libertad de expresión y la democracia. A continuación, te explico cómo esto podría suceder y por qué sería un riesgo real:
1. Monopolio sobre la “verdad”
Cuando un gobierno o una corporación tiene el control exclusivo sobre herramientas que verifican o validan la autenticidad de la información, se abre la puerta para que definan qué es “verdadero” y qué es “falso”. Si estas herramientas son utilizadas con sesgo, podrían censurar contenidos que cuestionen la narrativa oficial o que expongan la corrupción o abusos. Por ejemplo, si una plataforma controla el acceso a tecnologías como Sensity o Microsoft Video AI Authenticator, podría marcar como falsos o manipulados aquellos contenidos que expongan problemas de gobernanza, aunque estos sean verídicos. Esto reduciría la pluralidad de voces y debilitaría la libertad de prensa.
2. Censura selectiva y manipulación de la percepción pública
Los deepfakes y las tecnologías de manipulación audiovisual pueden ser utilizados no solo para desmentir videos o imágenes legítimos, sino para crear narrativas falsas. Las mismas herramientas que detectan deepfakes podrían usarse para marcar contenido verdadero como “falso” con el fin de desacreditarlo. Por ejemplo, un video que muestra violaciones a los derechos humanos podría ser etiquetado como manipulado, lo que confundiría a la audiencia y minimizaría el impacto de la denuncia.
Además, estas tecnologías podrían emplearse para propagar contenido creado por el gobierno o corporaciones que parezca legítimo, pero en realidad sea manipulado para dirigir la opinión pública en una dirección específica, controlando la percepción de la ciudadanía.
3. Bloqueo de contenido independiente y disidencia
Plataformas como WeVerify y Sentinel están diseñadas para verificar la autenticidad del contenido, lo que en teoría es positivo. Sin embargo, en manos de gobiernos autoritarios, estas herramientas podrían utilizarse para bloquear o limitar el alcance de contenido que no se alinee con la narrativa oficial, eliminando la visibilidad de medios independientes, periodistas críticos, o activistas. Esto podría llevar a una erosión de la democracia, donde solo la narrativa controlada por los poderes fácticos tiene espacio en el discurso público, eliminando la capacidad del pueblo de cuestionar y debatir libremente.
4. Desinformación institucionalizada
En lugar de combatir la desinformación, estas tecnologías podrían usarse para amplificar la propaganda. Por ejemplo, gobiernos autoritarios podrían crear deepfakes que favorezcan su causa y luego utilizar herramientas de verificación controladas para certificar que esos videos o imágenes son “verdaderos”, lo que legitimaría sus mentiras. De este modo, las herramientas de detección de deepfakes podrían volverse instrumentos de desinformación institucionalizada.
5. Erosión de la confianza en la información
Si el público comienza a dudar de todo el contenido que ve debido al uso inadecuado de estas herramientas, se podría crear una atmósfera de confusión e incertidumbre donde nadie confía en nada. Este tipo de escepticismo extremo podría ser utilizado por gobiernos o corporaciones para generar apatía política y debilitar movimientos de oposición o activismo. La falta de confianza en la información auténtica erosiona los pilares de una democracia saludable, que depende de una ciudadanía informada para tomar decisiones.
6. Control de la narrativa global
Corporaciones y gobiernos con acceso a herramientas como Intel FakeCatcher o HyperVerge podrían utilizar estas tecnologías no solo para manipular sus propias poblaciones, sino también para influir en la narrativa global. Si grandes corporaciones tecnológicas controlan estas herramientas, podrían definir qué información es permitida y qué contenido debe ser suprimido en plataformas de alcance global como redes sociales, lo que genera desigualdad informativa a nivel mundial.
Ejemplos históricos y actuales
Ya hemos visto cómo algunos gobiernos y corporaciones han utilizado la tecnología para controlar la narrativa. Por ejemplo, en algunos países con regímenes autoritarios, se controla el acceso a internet y se censuran sitios web críticos. Si estas mismas entidades tuvieran control sobre tecnologías avanzadas de detección y manipulación de información, el impacto sería aún más grave, permitiendo a los líderes consolidar su poder al evitar que la verdad se difunda o manipulando los hechos para sus propios ines(
En conclusión:
Sí, estas herramientas podrían ser usadas para controlar la “verdad” oficial y restringir la libertad de expresión si caen en manos de gobiernos autoritarios o corporaciones que buscan controlar la narrativa. La misma tecnología que tiene el potencial de protegernos de la desinformación puede convertirse en una herramienta de censura y manipulación. La clave para evitar esto radica en la transparencia, supervisión pública y un marco regulatorio adecuado que asegure que estas herramientas se utilicen para el bien común y no como armas para sofocar la libertad de expresión y la democracia.
En la actualidad, el uso de deepfakes y la desinformación ha crecido de manera significativa, lo que ha generado preocupación por el impacto que pueden tener en la sociedad. Para combatir estas amenazas, se han desarrollado diversas herramientas que permiten detectar contenidos manipulados y luchar contra la propagación de información falsa. A continuación, te detallo algunas de las principales herramientas utilizadas para detectar deepfakes:
1. Sentinel
Esta herramienta basada en la nube utiliza inteligencia artificial (IA) para detectar deepfakes en tiempo real. Funciona analizando puntos de referencia faciales, la coherencia temporal y el parpadeo en videos e imágenes para identificar cualquier manipulación. Además, ofrece un informe visual detallado que muestra las áreas donde se ha detectado la alteración, permitiendo una comprensión clara de la manipulación. Sentinel es útil para empresas que requieren análisis precisos de medios digitales manipulados, aunque su uso está más enfocado a sectores específicos y su tecnología puede ser compleja de implementar.
2. Sensity
Sensity es una plataforma impulsada por IA que monitorea grandes volúmenes de contenido en tiempo real para identificar deepfakes y otros tipos de desinformación visual. Es utilizada principalmente por gobiernos y grandes empresas para proteger la integridad de la información en línea. Esta herramienta destaca por su capacidad de detectar intercambios de rostros, audio manipulado e imágenes generadas por IA. Además, es valiosa en la prevención del fraude de identidad y es altamente efectiva en condiciones difíciles, aunque también está limitada a sectores específicos que se centran en la desinformación visual.
3. Oz Liveness
Oz Liveness se especializa en la detección de intentos de suplantación de identidad. Con un alto grado de precisión, esta herramienta ayuda a prevenir fraudes mediante la identificación de ataques de suplantación en procesos de verificación facial. Certificada bajo estándares internacionales, su integración en plataformas móviles y web la convierte en una opción versátil para empresas que buscan asegurar la autenticidad de sus usuarios.
4. WeVerify
WeVerify es una herramienta orientada a periodistas y comunidades en línea que necesitan verificar la autenticidad de contenido en redes sociales. Utiliza una base de datos pública basada en blockchain que contiene ejemplos conocidos de deepfakes y permite analizar y contextualizar la información que circula en internet. También facilita la verificación multimodal de contenido (imagen, video, texto) y su objetivo principal es combatir la desinformación en plataformas sociales.
5. HyperVerge
HyperVerge es una solución avanzada que utiliza IA para la detección precisa de deepfakes, especialmente en entornos donde la verificación de identidad y la seguridad son cruciales, como procesos KYC (Conozca a su cliente). Esta herramienta es conocida por su precisión y por ser utilizada en una amplia variedad de industrias globales. Además, cuenta con certificaciones internacionales de reconocimiento facial, lo que garantiza su confiabilidad y seguridad.
6. FakeCatcher de Intel
Intel desarrolló FakeCatcher, una herramienta que destaca por su capacidad para detectar deepfakes en tiempo real, basándose en pistas sutiles como los cambios en el flujo sanguíneo de los píxeles de un video. Con una tasa de precisión del 96%, FakeCatcher puede devolver resultados en milisegundos, lo que lo convierte en una opción eficiente para detectar videos manipulados antes de que se propaguen en línea.
7. Microsoft Video AI Authenticator
Esta herramienta de Microsoft está diseñada para identificar videos e imágenes manipulados mediante una puntuación de confianza. Video AI Authenticator detecta inconsistencias que son difíciles de percibir a simple vista, como los bordes de los rostros o sutiles diferencias en la escala de grises. Es una opción accesible y gratuita para combatir la desinformación visual en plataformas de video.
8. Deepware
Deepware es otra solución que ayuda a los usuarios a detectar deepfakes mediante el análisis de videos e imágenes. Esta herramienta es ideal para quienes buscan una opción rápida y efectiva para analizar contenido sospechoso, ofreciendo una interfaz sencilla y fácil de usar.
9. Phoneme-Viseme Mismatch
Esta técnica se centra en la detección de desajustes entre fonemas (sonidos del habla) y visemas (movimientos labiales) en videos manipulados. Este enfoque permite detectar deepfakes de videos donde el audio y los movimientos faciales no coinciden, una técnica común en falsificaciones generadas por IA.
10. DuckDuckGoose
DuckDuckGoose utiliza un enfoque de machine learning para detectar imágenes y videos manipulados. Esta herramienta ofrece una solución ágil para el análisis de grandes cantidades de datos visuales, permitiendo detectar manipulaciones de forma rápida y eficiente.
11. MediaInfo y ExifTool
Estas herramientas están orientadas al análisis de metadatos en archivos de video e imagen, permitiendo a los usuarios detectar manipulación en la información de origen, como la fecha de creación o las características técnicas del archivo. Aunque no están diseñadas exclusivamente para detectar deepfakes, son útiles en la investigación de medios sospechosos.
12. FaceForensics
FaceForensics es un conjunto de datos que se utiliza para entrenar modelos de IA en la detección de manipulaciones faciales en videos. Esta base de datos es ampliamente utilizada por investigadores para mejorar las capacidades de los algoritmos de detección de deepfakes.
13. Audio Fingerprinting
El reconocimiento de huellas de audio (audio fingerprinting) permite identificar audio manipulado o generado por IA. Esta técnica es útil para detectar falsificaciones en archivos de sonido y es utilizada en plataformas donde se requiere la verificación de contenido de audio.
Estas herramientas y tecnologías están en constante evolución para enfrentar las crecientes amenazas de deepfakes y la desinformación. La adopción de estas soluciones es fundamental para proteger la integridad de la información y reducir el impacto de los contenidos manipulados en la sociedad.
Fuentes:
- WeLiveSecurity(
- ESET Security News)(
- ESET Security News)
Las herramientas para detectar deepfakes y combatir la desinformación han sido desarrolladas principalmente para enfrentar los riesgos que plantean los contenidos falsificados y la manipulación digital. Estas herramientas tienen varias aplicaciones, todas relacionadas con la seguridad, la autenticidad de la información y la protección frente al fraude. A continuación, te detallo para qué pueden servir y con qué propósito fueron creadas:
1. Proteger la integridad de la información
Uno de los principales propósitos de estas herramientas es detectar contenidos falsos, como videos o imágenes manipulados por IA. Los deepfakes pueden utilizarse para difundir información errónea, suplantar identidades o crear escenarios ficticios que confunden al público. Herramientas como Sentinel, Sensity, y WeVerify han sido creadas para identificar estas falsificaciones antes de que se propaguen, protegiendo así a las personas y a las organizaciones de los efectos negativos de la desinformación(
2. Prevenir el fraude y el robo de identidad
Muchas de estas herramientas, como Oz Liveness y HyperVerge, están diseñadas para proteger a las personas y empresas de intentos de fraude. Estos sistemas verifican la autenticidad de imágenes y videos, evitando que actores malintencionados utilicen deepfakes para suplantar identidades o manipular procesos de verificación, como en el sector financiero o en plataformas de KYC (Know Your Customer)(
3. Combatir la desinformación en medios digitales
Herramientas como WeVerify y Sensity están orientadas a monitorear contenido en redes sociales y plataformas de información, detectando deepfakes que podrían utilizarse para difundir propaganda, información errónea o campañas de desinformación. Estas plataformas ayudan a periodistas, comunidades y empresas a verificar la autenticidad del contenido en línea, protegiendo a la sociedad de los efectos perjudiciales de la manipulación mediática(
4. Garantizar la seguridad en procesos de verificación
En sectores como la banca, las telecomunicaciones y el comercio electrónico, la autenticidad de las transacciones y la identidad de los usuarios es crucial. Herramientas como HyperVerge y Oz Liveness permiten la verificación facial y la detección de suplantaciones en tiempo real, garantizando que las personas involucradas en los procesos sean quienes dicen ser. Esto es fundamental para evitar fraudes y proteger la seguridad financiera(
5. Apoyar en investigaciones forenses y judiciales
Herramientas como MediaInfo y ExifTool permiten analizar los metadatos de archivos de video e imagen para detectar manipulaciones ocultas. Son útiles para investigadores forenses que buscan pruebas de alteración en los archivos presentados como evidencia en investigaciones o casos judiciales(
6. Mejorar la seguridad en plataformas de contenido multimedia
Empresas tecnológicas como Microsoft e Intel han desarrollado herramientas como FakeCatcher y Microsoft Video AI Authenticator para identificar falsificaciones en tiempo real en videos e imágenes. Esto es fundamental para plataformas de streaming, redes sociales y medios de comunicación, donde la autenticidad del contenido es vital para mantener la confianza del público(
7. Asegurar la transparencia y la verificación en blockchain
Algunas herramientas como WeVerify utilizan bases de datos públicas basadas en blockchain para almacenar ejemplos conocidos de deepfakes. Esto asegura que cualquier falsificación detectada sea accesible para el público, promoviendo la transparencia y ayudando a prevenir la diseminación de desinformación(
En resumen, estas herramientas fueron creadas para:
- Detectar y prevenir manipulaciones digitales.
- Proteger a personas y empresas de fraudes e intentos de suplantación.
- Monitorear el contenido en redes sociales y combatir la desinformación.
- Garantizar la autenticidad en procesos judiciales, transacciones financieras y verificaciones de identidad.
- Asegurar la transparencia en la detección y registro de deepfakes a nivel global.
Estas herramientas son cruciales en un mundo cada vez más digitalizado, donde las falsificaciones y la desinformación pueden tener consecuencias serias para la seguridad personal, financiera y social.