LOS VIDEOS DE DEEPFAKE REPRESENTAN UNA AMENAZA A LARGO PLAZO PARA LAS CAMPAÑAS



Por David Kennedy


  • La interferencia de Rusia en el ciclo electoral de 2016 fue una llamada de atención para muchos. Pero a pesar del alboroto que ha causado en la política estadounidense, la realidad es que las tácticas de Rusia fueron sorprendentemente poco sofisticadas , defectuosas y, sin embargo, tuvieron un gran impacto en muchos aspectos.


Lo que cada campaña a partir de este punto en adelante debería preocuparse es cómo evolucionarán los esfuerzos de interferencia digital en los próximos años para que sean mucho más específicos, perturbadores y más difíciles de prevenir.


Se podrían aprovechar métodos y tecnologías más sofisticados para causar un daño increíble en estas campañas. Una de las amenazas más perturbadoras es el uso potencial de "deepfakes": videos altamente convincentes, pero en última instancia, falsos creados por tecnología de aprendizaje profundo. Esto es lo que necesita entender acerca de esta tecnología.


De donde viene el nombre

El término deepfakes proviene de un foro sub-Reddit donde esta capacidad primero obtuvo una amplia atención. Hasta ahora, los creadores de deepfakes se han limitado principalmente a hacer simulaciones de celebridades y pornografía falsa. Pero el potencial de los errores profundos claramente va más allá de estos usos.



Investigadores de la Universidad de Washington utilizaron hechos falsos para crear un video documentado del ex presidente Barack Obama . En mayo, un partido político belga creó un video falso del presidente Donald Trump pronunciando un discurso contra el cambio climático. Un punto notable con el video belga es que, aunque no fue tan sofisticado como era, engañó a muchas personas, hasta el punto en que los creadores del video tuvieron que recurrir a las redes sociales para controlar los daños y explicar que fue pensado como una broma práctica.


El gobierno de los Estados Unidos no se está riendo. Los legisladores enviaron una carta al Director de Inteligencia Nacional el otoño pasado, instándole a evaluar la amenaza que esta nueva tecnología representa para la seguridad nacional. El peligro planteado por Deepfakes se incluyó más tarde en el Informe de Evaluación de Amenazas en todo el mundo de DNI 2019 como una de las principales amenazas para el ciclo electoral de 2020: "Los adversarios y los competidores estratégicos probablemente intentarán utilizar falsificaciones profundas o tecnologías similares de aprendizaje automático para crear convincentes, pero falsos. "Archivos de imagen, audio y video para aumentar las campañas de influencia dirigidas contra Estados Unidos y nuestros aliados y socios".


Riesgos para candidatos, partidos y grupos

Los errores profundos representan una serie de riesgos significativos para las campañas políticas. Se podrían usar para crear controversias falsas al poner literalmente las palabras en la boca de un candidato, o al editar las imágenes de sus mítines y recaudaciones de fondos para retratar a los partidarios de manera negativa. Los candidatos pueden ser engañados por fallas profundas, y retuitear accidentalmente o respaldar un video falso creado contra un oponente o sobre un tema que les importa, dañando así su imagen pública y credibilidad.



Los errores profundos podrían aparecer en los canales de las redes sociales durante un período de semanas o meses para distraer una campaña y extraer recursos, o se podrían usar en un "efecto de enjambre" descargando varias falsificaciones al mismo tiempo en los últimos días de una campaña.


El alcance del problema

Combatir las fallas profundas es complicado porque incluso cuando un video se expone como una falsificación, en muchos casos el daño ya se hizo y el cambio en la percepción pública, que es algo que han visto y oído visualmente, se vuelve aún más difícil.


No es un secreto que en la política, como en otras áreas de la vida, las personas a menudo tienen fuertes creencias y nociones preconcebidas, y esas creencias no necesariamente cambian solo porque los hechos dicen lo contrario (conocida en psicología como "disonancia cognitiva"). La gente puede negarse a creer que un video falso realmente es falso. Pueden llamar cualquier esfuerzo para desacreditarlo como una conspiración, o pueden aceptar el hecho de una falsificación, pero aún así estar psicológicamente influenciados por la caracterización negativa que presentó del candidato.


Por no mencionar que descalificar un video como una imitación profunda, y eliminarlo de una plataforma de redes sociales, no es necesariamente un hecho.



Los candidatos y sus partidarios tendrán que recurrir a las principales compañías de medios sociales cada vez que surja un video falso para eliminarlo. Luego, tendrán que contrarrestar las afirmaciones del video haciendo público su oposición, ya sea a través de comunicaciones directas (medios sociales, comunicados de prensa, publicaciones de blogs, etc.) o los medios de comunicación principales.


Pero, ¿cuántos votantes potenciales que vieron el video falso también verán la retractación? ¿Y con qué frecuencia los medios elegirán cubrir estas historias, particularmente en las carreras locales? Si los errores profundos se generalizan, también perderán su efecto de novedad para la prensa. ¿Entonces que?

El tema es mucho más complicado de lo que parece. Incluso con las nuevas herramientas basadas en inteligencia artificial que se están desarrollando para detectar fallas profundas, la resolución para los candidatos puede ser más difícil e insatisfactoria, como mínimo.


Cómo identificar un deepfake

La calidad de deepfakes variará según la habilidad y experiencia de los creadores y las herramientas que utilicen. Algunos errores profundos pueden ser extremadamente realistas y difíciles de detectar. Pero en muchos casos es posible encontrar defectos en el video que lo exponen como una falsificación.



Aquí hay algunas cosas para buscar:

  • Efecto recortado en el cuello, ojos o boca.

  • "Destello y falta de claridad" en la boca o la cara.

  • Forma de caja en la boca, dientes o barbilla.

  • Diferencias en el tono de la piel.

  • Inconsistencias en el fondo o la iluminación.

  • Movimientos no naturalesParpadeo irregular


Consejos para contrarrestar los “errores profundos”.

Las campañas individuales tendrán dificultades para enfrentar esta amenaza por sí mismas. Es un problema que requiere una respuesta multinivel: una fuerte coordinación entre los partidos del condado, estatal y nacional, y entre los candidatos, el liderazgo de su partido, la aplicación de la ley y los medios de comunicación.


No hay duda de que las partes deben liderar este tema. Un buen modelo a seguir es lo que algunas organizaciones de noticias están haciendo ahora, como el Wall Street Journal ( ver aquí). Ese modelo comienza con el establecimiento de un grupo de trabajo central para investigar y desarrollar mejores estrategias para contrarrestar la amenaza, coordinando con grupos externos (gobierno, universidades, empresas privadas), que tienen experiencia en este campo para comprender mejor la tecnología y realizando capacitación periódica para el personal .


Las campañas de nivel superior también deben establecer equipos de medios sociales capaces de monitorear las 24 horas, especialmente a medida que la carrera se acerca a la línea de meta. Estos equipos deben ser capaces de detectar fallas profundas desde el principio y escalar el esfuerzo de respuesta.


A través de una mejor coordinación, capacitación y monitoreo vigilante de las redes sociales, las campañas podrán mitigar el daño potencial de un ataque profundo. C&E

Copyright © C&E Campaigns & Elections México 2020

Siguenos en redes

  • Facebook
  • Twitter Social Icon
  • YouTube Social  Icon
  • Instagram Social Icon