Especialistas explican que sólo la verificación por parte de los internautas votantes puede contrarrestar los deepfakes
Diana López Silva
No hay modo de detener los deepfakes en este proceso electoral.
El único antídoto consiste en que el electorado incorpore a su consumo en redes sociales la verificación de la información.
En ello coinciden Mariana Sánchez, especialista en marketing de la cúpula de Canacintra; Lorna Rosas, catedrática de la Upaep, y Eduardo Zubillaga, funcionario del más alto tribunal electoral del país.
Los videos y audios que suplantan imagen y voz de personajes políticos ya probaron en México su éxito durante enero: se viralizó un video falso, creado con inteligencia artificial, que hacía ver como defraudadora a Claudia Sheinbaum.
“Los deepfakes son la evolución de las noticias falsas –fake news–; imitan en forma tan sofisticada que el público difícilmente puede notar el engaño”, asegura Rosas.
Agrega que los big boys generan audios falsos para construir declaraciones irreales y los deepface manipulan imágenes.
Esta tecnología captó la atención del público en 2017, cuando rostros y voces de celebridades fueron colocados en imágenes pornográficas, añade.
El reto, dice, es generar una “alfabetización digital”, para que los ciudadanos sean capaces de verificar información y, en consecuencia, detectar y prevenir la propagación de deepfakes.
¿Hay herramientas para detectar suplantaciones? Sí, responde Yareli Delgado, estudiante de la Upaep.
Hay software especializado en identificar movimientos de ojos, sincronización con audio, movimiento de labios y otros detalles que revelan personajes impostores.
Pero la tecnología se afina: una para engañar, otra para descifrar el embuste, indica.
Tanto se encuentra la inteligencia artificial al alcance de todos los internautas, que cualquiera puede hacer suplantaciones sin ser programador.
Eduardo Zubillaga afirma que aspirantes a cargos de elección popular usan herramientas de inteligencia artificial como perfiles con información precargada para “dialogar” con sus simpatizantes en el ciberespacio.
Los riesgos de dejar a robots las decisiones sobre el futuro de la humanidad se discuten desde 1950, añade.
“En Francia, desde 2017 hologramas de candidatos tuvieron buenos resultados en la percepción de los electores”.
El peligro: que se utilicen modelos de lenguaje para manipular, influir o inducir a los votantes, concluyó.
ADAPTACIÓN A LA VIDA COTIDIANA
La consejera electoral estatal Susana Rivas Vera afirma que:
- De 2017 a 2022, cuatro de cada diez empresas mexicanas de productos financieros adoptaron esta tecnología
- Ello lo asentó la plataforma HelloSafe que compara estos productos
- Las empresas que la usaron, la dedicaron a marketing y servicios automatizados