Deepfakes en las elecciones ecuatorianas de 2025. Percepción ciudadana y desafíos

Deepfakes in the 2025 Ecuadorian Elections: Citizen perception and challenges

Gabriela Lourdes Vélez Bermello1 ,John Jairo Reyes Andrade1 ,María Emilia Parrales Saltos1

1Universidad Laica Eloy Alfaro de Manabí (ULEAM)- ECUADOR


DOI: 10.26807/rp.v29i124.2308

Fecha de envío: 12/08/2025 | Fecha de aceptación: 22/12/2025 | Fecha de publicación: 26/12/2025

Resumen

El estudio analiza el impacto de los deepfakes durante las elecciones presidenciales de Ecuador en 2025, con énfasis en la percepción ciudadana y el papel de las plataformas de verificación. El objetivo fue evaluar la influencia de estos contenidos manipulados en el debate público y la efectividad del fact-checking en redes sociales. Se empleó una metodología mixta, con tres fases: análisis de contenido de 22 videos publicados por Ecuador Chequea, Ecuador Verifica y Lupa Media en Facebook; una encuesta digital a 246 votantes sobre exposición y confianza; y triangulación de resultados con revisión teórica. Los resultados muestran que Lupa Media generó mayor interacción (31.3 likes y 7.2 comentarios por video), mientras que Ecuador Verifica tuvo menor impacto. A pesar de los desmentidos, los deepfakes se difundieron ampliamente, afectando la percepción pública, especialmente en contextos de baja alfabetización mediática. La encuesta reveló desconfianza generalizada hacia los verificadores, y alta preocupación por la influencia de estos contenidos. Se concluye que la sola verificación no es suficiente: se requiere comunicar estratégicamente, integrar alfabetización mediática, y establecer regulaciones legales claras. La contención de los deepfakes demanda un enfoque integral que combine herramientas tecnológicas, educación diferenciada según perfil demográfico y colaboración entre plataformas digitales y el Estado.

Palabras claves: Deepfakes, desinformación, elecciones, verificación

Abstract

This study analyzes the impact of deepfakes during Ecuador’s 2025 presidential elections, focusing on citizen perception and the role of verification platforms. The objective was to assess how manipulated audiovisual content influenced public opinion and how effective fact-checking initiatives were in counteracting disinformation. A mixed-methods approach was used, structured in three phases: (1) digital content analysis of 22 videos shared by Ecuador Chequea, Ecuador Verifica, and Lupa Media on Facebook during both election rounds; (2) an online survey of 246 citizens from different regions to gauge their exposure, perception, and trust in verification platforms; and (3) triangulation with national and international academic literature. The results indicate that although all platforms debunked fake content, Lupa Media generated the highest engagement (31.3 likes and 7.2 comments per video). Deepfakes were widely circulated and often more emotionally impactful than their corrections. Most participants believed these videos influence public opinion, but showed limited trust in fact-checkers. Legal gaps and low media literacy further aggravated the issue. The study concludes that verifying is not enough strategic communication and engagement are essential. Combating deepfakes requires an integrated strategy combining regulation, digital literacy, and collaboration between governments and tech platforms to strengthen democratic resilience..

Keywords: Deepfakes, disinformation, elections, fact-checking

1. Introducción

Las recientes elecciones presidenciales ecuatorianas de 2025 evidencian la consolidación de los deepfakes como herramientas de manipulación política sin precedentes en el país. La campaña electoral estuvo plagada de contenidos elaborados mediante inteligencia artificial, destacándose casos emblemáticos como un supuesto presentador de Deutsche Welle sugiriendo corrupción en el gobierno de Daniel Noboa y montajes de la candidata opositora Luisa González exponiendo planes inexistentes diseñados para generar temor entre el electorado. Estos ejemplos representan la materialización de lo que expertos habían advertido: la evolución de las estrategias de desinformación en América Latina mediante tecnologías de manipulación audiovisual hiperrealista (Ballesteros Aguayo & Ruiz del Olmo, 2024).

Aunque el artículo aborda con profundidad los efectos de los deepfakes en el contexto electoral ecuatoriano, resulta fundamental incluir una definición formal del término. En línea con Wardle y Derakhshan (2017), es crucial distinguir entre disinformation (información falsa difundida deliberadamente para causar daño), misinformation (información falsa compartida sin intención de dañar) y malinformation (información verdadera utilizada de forma manipuladora). Los deepfakes pueden encajar en cualquiera de estas categorías dependiendo del contexto de uso, por lo que delimitar conceptualmente estos términos permitiría una mejor comprensión de los riesgos comunicacionales y éticos que plantea este fenómeno. Además, tal distinción es esencial para desarrollar respuestas legales, educativas y tecnológicas apropiadas.

El fenómeno de los deepfakes en Ecuador no surge espontáneamente en el contexto electoral de 2025, sino que ha venido manifestándose en diferentes ámbitos. Estudios recientes han identificado que la ausencia de regulación sobre inteligencia artificial y deepfakes en el país ha resultado en la vulneración sistemática de derechos de los usuarios en redes sociales (Puetate Paucar, Toro Hernández & Coka Flores, 2024). Esta situación se torna particularmente grave cuando consideramos que los deepfakes han pasado de ser una curiosidad tecnológica a convertirse en una amenaza real para la privacidad, el honor y la seguridad de las personas (Arévalo Fernández, 2024). El caso ecuatoriano representa un ejemplo paradigmático de cómo las democracias latinoamericanas enfrentan desafíos inéditos ante la rápida evolución de tecnologías de manipulación audiovisual en contextos de baja alfabetización mediática (Pereira Hernández & Zatarain Avendaño, 2024).

La campaña presidencial ecuatoriana de 2025 quedará registrada como un punto de inflexión en la utilización de deepfakes con fines políticos en la región. Según evidencia documentada por verificadores internacionales, circularon videos manipulados donde un falso presentador de DW sugería vínculos corruptos del gobierno de Daniel Noboa, mientras que montajes sofisticados mostraban a la candidata Luisa González anunciando medidas extremistas que nunca formaron parte de su plataforma (Souza, 2023; Ballesteros Aguayo & Ruiz del Olmo, 2024). Estas producciones, caracterizadas por su alto nivel de refinamiento técnico, fueron ampliamente compartidas en plataformas digitales, generando confusión entre el electorado y obligando a los equipos de campaña a destinar recursos significativos para desmentir contenidos falsificados en lugar de centrarse en propuestas programáticas (Andino Veloz, 2025).

Vacío Legal y Desafíos Normativos

La problemática de los deepfakes en Ecuador se agrava por la ausencia de una tipificación específica de este delito en el ordenamiento jurídico nacional. Si bien el Código Orgánico Integral Penal (COIP) establece obligaciones para la entrega de grabaciones en investigaciones penales, esta normativa resulta insuficiente ante las características específicas de los deepfakes generados mediante inteligencia artificial (Arévalo Fernández, 2024), reforzando la necesidad de marcos de gobernanza ética de la IA (Molina, 2024a). Se evidencia así la urgencia de tipificar específicamente los deepfakes como un delito dentro del ordenamiento jurídico ecuatoriano, dotando a las autoridades de herramientas sólidas para hacer frente a esta forma de violencia digital (Arévalo Fernández, 2024; Ballesteros Aguayo & Ruiz del Olmo, 2024).

A diferencia de Ecuador, otras jurisdicciones han avanzado significativamente en la regulación de los deepfakes. La Unión Europea, a través del Reglamento de Inteligencia Artificial (RIA), ha establecido que los proveedores de sistemas de IA deben integrar soluciones técnicas que permitan marcar y detectar cuando un contenido ha sido generado o manipulado por IA, exigiendo además que se indique de forma pública, clara y distinguible que dicho contenido ha sido creado artificialmente (Lendvai & Gosztonyi, 2024). Por su parte, Estados Unidos ha intensificado sus esfuerzos para enfrentar este problema mediante la presentación del “Nurture Originals, Foster Art, and Keep Entertainment Safe Act of 2024” (NO FAKES Act), una iniciativa bipartidista que busca establecer protecciones contra el uso no autorizado de la imagen de las personas en contenidos generados por IA (Lendvai & Gosztonyi, 2024). Estas respuestas normativas contrastantes revelan la complejidad de abordar un fenómeno transfronterizo desde marcos legislativos nacionales (Arévalo Fernández, 2024).

Impacto en la Percepción Ciudadana y el Proceso Democrático

Los deepfakes difundidos durante las elecciones ecuatorianas de 2025 han tenido un impacto profundo en la confianza ciudadana hacia las instituciones democráticas. La dificultad para distinguir entre contenidos auténticos y falsificados ha generado un ambiente de escepticismo generalizado donde cualquier declaración política, incluso las legítimas, puede ser cuestionada bajo la sospecha de manipulación (Bañuelos Capistrán, 2020; Ballesteros Aguayo & Ruiz del Olmo, 2024). Esta erosión de la confianza pública representa quizás el daño más perdurable de los deepfakes en el ecosistema político ecuatoriano, afectando no sólo la percepción de los candidatos particulares, sino la legitimidad del sistema democrático en su conjunto (Andino Veloz, 2025).

El impacto de los deepfakes en Ecuador se ve amplificado por vulnerabilidades contextuales específicas. La investigación de Puetate Paucar, Toro Hernández y Coka Flores (2024) ha evidenciado que el avance tecnológico ha generado nuevas amenazas a los derechos digitales, siendo los grupos más vulnerables quienes enfrentan mayores riesgos en este entorno. En el caso específico del proceso electoral, la falta de regulaciones específicas para proteger a los ciudadanos ante fenómenos como los deepfakes ha resultado en una asimetría preocupante: mientras los creadores de contenidos falsos operan con relativa impunidad, las víctimas enfrentan obstáculos significativos para obtener reparaciones efectivas por los daños a su imagen e integridad (Arévalo Fernández, 2024).

Desafíos para la Verificación y el Fact-checking

Los equipos de verificación de datos enfrentaron desafíos sin precedentes durante la campaña electoral ecuatoriana de 2025. A diferencia de la desinformación tradicional, los deepfakes presentan características que complican su detección: son visualmente convincentes, apelan a respuestas emocionales inmediatas y se viralizan con mayor rapidez que sus respectivos desmentidos (Vélez, 2025). Además, la sofisticación creciente de los algoritmos de IA utilizados para generar estos contenidos dificulta incluso a especialistas distinguir entre videos auténticos y falsificados. Esta situación ha puesto de manifiesto las limitaciones de las estrategias convencionales de fact-checking y la necesidad de desarrollar herramientas tecnológicas específicas para la detección automatizada de deepfakes en tiempo real (Vélez, 2025; Andino Veloz, 2025).

Ante la amenaza de los deepfakes, diversas organizaciones ecuatorianas han impulsado iniciativas de alfabetización mediática orientadas a desarrollar capacidades críticas en la ciudadanía. Estas iniciativas tienen como objetivo no sólo proporcionar herramientas para identificar contenidos manipulados, sino también fomentar una cultura de escepticismo saludable frente a contenidos potencialmente engañosos (Pereira Hernández & Zatarain Avendaño, 2024). Sin embargo, el alcance de estos esfuerzos resulta limitado frente a la masividad y sofisticación de los deepfakes políticos, evidenciando la necesidad de integrar la alfabetización mediática digital como componente fundamental del sistema educativo formal ecuatoriano (Pereira Hernández & Zatarain Avendaño, 2024).

De todos modos, las prácticas de fact-cheking están en permanente estudio por parte de investigadores que ven en estas acciones una fortaleza contra la desinformación, mientras que existe el lado opuesto en que se generan discusiones de fondo frente a su metodología que aplican (Graves, 2018; Clayton et al., 2020).

La experiencia de las elecciones de 2025 ha catalizado el debate sobre la necesidad de una regulación integral de los deepfakes en Ecuador. Diversas propuestas han emergido, desde la tipificación específica del delito de deepfake en el COIP hasta el establecimiento de obligaciones para las plataformas digitales en cuanto a la identificación y moderación de contenidos manipulados (Arévalo Fernández, 2024). La investigación jurídica reciente destaca la urgencia de configurar legalmente el tipo penal de deepfake en la parte especial del Código Orgánico Integral Penal de Ecuador, con el fin de garantizar la seguridad ciudadana a través de los principios de legalidad y tipicidad (Arévalo Fernández, 2024). Estas propuestas buscan no sólo sancionar a los infractores, sino también reparar las graves consecuencias derivadas de estos actos y prevenir nuevas vulneraciones (Ballesteros Aguayo & Ruiz del Olmo, 2024).

Responsabilidad de las Plataformas Tecnológicas

Las plataformas de redes sociales jugaron un papel decisivo en la difusión de deepfakes durante la campaña electoral ecuatoriana. Su arquitectura algorítmica, diseñada para maximizar el engagement, favoreció la viralización de contenidos manipulados caracterizados por su alto impacto emocional (Andino Veloz, 2025). Como señala Molina (2024b), la digitalización del tejido social no es neutra y tiende a reproducir o incluso profundizar las brechas generando nuevas formas de relatos y contra relatos. Ante esta realidad, el debate sobre la responsabilidad de estas plataformas se ha intensificado, planteando la necesidad de establecer normativas específicas que limiten la recopilación y tratamiento indebido de datos sensibles para la creación de contenido digital manipulado (Lendvai & Gosztonyi, 2024). Las experiencias internacionales sugieren que cualquier estrategia efectiva para combatir los deepfakes requiere la cooperación activa de las plataformas tecnológicas, estableciendo estándares claros sobre el etiquetado de contenidos generados por IA y mecanismos ágiles para la remoción de material fraudulento (Lendvai & Gosztonyi, 2024).

Las elecciones presidenciales ecuatorianas de 2025 representan un punto de inflexión en la comprensión de los riesgos que los deepfakes suponen para los procesos democráticos en América Latina. La experiencia ecuatoriana revela la urgencia de desarrollar respuestas multidimensionales que integren aspectos regulatorios, educativos y tecnológicos para contrarrestar el impacto de la manipulación audiovisual en el debate público (Bañuelos Capistrán, 2020; Arévalo Fernández, 2024). El desafío trasciende las fronteras nacionales y requiere cooperación internacional, particularmente en un contexto donde las tecnologías de IA para la generación de deepfakes se vuelven cada vez más accesibles y sofisticadas (Lendvai & Gosztonyi, 2024). Solo mediante un abordaje integral que combine alfabetización mediática, regulación efectiva y cooperación entre actores públicos y privados, Ecuador podrá desarrollar mecanismos de resiliencia democrática frente a la amenaza creciente de la desinformación audiovisual hiperrealista (Pereira Hernández & Zatarain Avendaño, 2024; Vélez, 2025).

2.Método

Este estudio adopta un enfoque mixto (cuantitativo y cualitativo), con un diseño descriptivo y exploratorio, adecuado para el análisis de fenómenos emergentes como los deepfakes en contextos político-electorales (Creswell, 2014; Hernández Sampieri et al., 2014). La investigación se desarrolló en tres fases metodológicas claramente diferenciadas y articuladas entre sí: relevamiento documental digital, encuesta a votantes y triangulación analítica.

Fase 1: Relevamiento de información en plataformas de verificación

En una primera etapa, se realizó un análisis de contenido digital enfocado en identificar casos de deepfakes durante la campaña presidencial ecuatoriana de 2025 (primera y segunda vuelta). Se procedió a revisar sistemáticamente las fanpages oficiales en Facebook de tres reconocidas plataformas de verificación de datos: Ecuador Chequea, Ecuador Verifica y Lupa Media. Estas organizaciones han sido previamente reconocidas por su labor en la lucha contra la desinformación electoral en América Latina (Red LEAL, 2023).

Los datos fueron sistematizados en una matriz de análisis en Excel, incluyendo las siguientes variables:

Link del video

Fecha de publicación

Plataforma de difusión

Temática del contenido

Nivel de engagement (likes)

Número de comentarios

Reacciones específicas: me encanta, me importa, me divierte, me entristece, me enoja, me asombra

Desmentido (Sí/No)

Impacto del desmentido

Esta técnica permitió evaluar no solo la presencia de contenidos falsos, sino también su nivel de interacción y el papel de los desmentidos en su difusión y recepción, siguiendo criterios sugeridos por Wardle y Derakhshan (2017) sobre la circulación emocional de la desinformación.

Hay que considerar que las elecciones presidenciales de Ecuador en 2025 se llevaron a cabo en dos vueltas:

Primera vuelta: domingo 9 de febrero de 2025.

Segunda vuelta: domingo 13 de abril de 2025.

El Consejo Nacional Electoral (CNE) estableció los siguientes periodos oficiales para la campaña electoral:

Campaña electoral – Primera vuelta

Inicio: 5 de enero de 2025

Fin: 6 de febrero de 2025

Durante este periodo, los candidatos presidenciales realizaron actividades proselitistas para promover sus propuestas de cara a la primera vuelta electoral.

Campaña electoral – Segunda vuelta

Inicio: 23 de marzo de 2025

Fin: 10 de abril de 2025

Este periodo fue destinado a la promoción de los candidatos que pasaron a la segunda vuelta, permitiéndoles presentar sus propuestas y participar en actividades de campaña antes del balotaje. Estas fechas fueron establecidas por el CNE y comunicadas oficialmente a través de su calendario electoral.

Fase 2: Encuesta a votantes ecuatorianos

La segunda fase consistió en la aplicación de una encuesta digital autoadministrada, construida en Google Forms, y difundida de forma abierta en redes sociales, alcanzando una muestra de 246 personas residentes en las cuatro regiones del país: Costa, Sierra, Amazonía e Insular. Se utilizó un muestreo no probabilístico por conveniencia, dado el carácter exploratorio del estudio (Babbie, 2000).

El estudio se basó en un muestreo no probabilístico por conveniencia, una estrategia habitual en investigaciones exploratorias donde el objetivo principal es identificar tendencias iniciales y patrones perceptuales en fenómenos emergentes, como la difusión de deepfakes en contextos electorales (Babbie, 2000). Aunque este tipo de muestreo no permite generalizar los resultados a toda la población ecuatoriana, se tomaron medidas para aumentar la pertinencia y la comprensión del instrumento de recolección de datos. El cuestionario fue sometido a una doble validación: por un lado, fue revisado por especialistas en desinformación, comunicación política y periodismo, quienes evaluaron la claridad, coherencia y adecuación contextual de los ítems; y por otro, se aplicó una prueba piloto a personas de distintos grupos etarios (16, 30, 50 y 60 años) y niveles socioeconómicos (bajo, medio y alto). Esta prueba buscó verificar que las preguntas fueran comprensibles, culturalmente pertinentes y aplicables para votantes desde los 16 años en adelante, en conformidad con la legislación electoral ecuatoriana. Durante la fase piloto, se habilitó un canal informal de retroalimentación vía WhatsApp, que permitió ajustar redacciones, corregir ambigüedades y mejorar la fluidez del instrumento antes de su aplicación final. El cuestionario definitivo está disponible públicamente en el siguiente enlace: Formulario de encuesta.

El cuestionario incluyó 14 ítems cerrados y de escala Likert, organizados en cinco secciones:

  1. Datos demográficos y uso de redes sociales (especialmente Facebook).
  2. Nivel de exposición a videos manipulados mediante IA durante la campaña.
  3. Percepción sobre la capacidad de identificación de deepfakes.
  4. Conocimiento y confianza en plataformas de verificación.
  5. Opiniones sobre regulación, impacto y motivos de compartir estos contenidos.

Este instrumento permitió medir la percepción ciudadana respecto a los deepfakes y la verificación de información electoral, articulando la dimensión tecnológica con la comunicacional y sociopolítica del fenómeno.

Fase 3: Triangulación de resultados

Finalmente, se realizó un análisis de triangulación entre tres fuentes principales:

  1. El análisis de contenido de los videos detectados y desmentidos.
  2. Los resultados cuantitativos de la encuesta ciudadana.
  3. La revisión teórica y documental sobre el fenómeno deepfake, tanto en Ecuador como a nivel internacional.

Esta triangulación permitió establecer patrones de circulación, percepción e impacto, considerando tanto la inteligencia artificial como herramienta de manipulación, como las respuestas institucionales y sociales frente a la desinformación.

El enfoque metodológico del estudio se inspira en los planteamientos de Flick (2004) sobre el valor de la triangulación como estrategia de validación en investigaciones complejas, y en los aportes de Tandoc et al. (2018) sobre el rol de la verificación digital en tiempos de desinformación.

Limitaciones del estudio

Como toda investigación empírica, este estudio presenta limitaciones metodológicas que deben tenerse en cuenta al interpretar sus resultados. La muestra fue de carácter no probabilístico por conveniencia, lo que restringe la posibilidad de generalizar los hallazgos a toda la población ecuatoriana. El análisis se centró exclusivamente en contenidos difundidos en Facebook, dejando fuera otras plataformas digitales relevantes como TikTok, X (Twitter) o WhatsApp, donde también circulan contenidos manipulados de alto alcance. Además, el estudio se enfocó en variables cuantitativas de interacción, como likes, comentarios y reacciones, sin incorporar un análisis semiótico o narrativo de los videos, lo que habría enriquecido la comprensión de las estrategias discursivas empleadas en los deepfakes. Tampoco se accedió a métricas completas como el número total de visualizaciones o el alcance real de los contenidos, lo que limitó la evaluación del impacto a indicadores visibles. Estas limitaciones abren nuevas líneas de investigación complementarias que permitirán profundizar en el estudio del fenómeno deepfake desde enfoques más integrales y multidimensionales.

3. Resultados

En general, los votantes mostraron una percepción variable respecto a su capacidad para detectar deepfakes. La mayoría se ubicó en la categoría “regular”, seguida de quienes manifestaron que les resultaba “fácil” identificarlos. Este dato revela que, aunque existe cierta familiaridad con los contenidos digitales manipulados, también persisten dudas respecto a su detección confiable.

Por otro lado, el nivel de confianza en las plataformas de verificación de datos fue moderado o neutro en la mayoría de los casos, lo que evidencia una relación ambivalente entre los votantes y los fact-checkers. Este hallazgo sugiere que, si bien se reconoce su existencia, todavía no se consolida una confianza fuerte en sus procesos.

A partir del análisis de regresión logística, se observó que las variables de mayor peso en la detección de deepfakes fueron el nivel de confianza en los servicios de verificación y el uso de redes sociales como Facebook. La edad, en cambio, mostró una influencia mínima. Estos resultados coinciden con estudios previos que relacionan la alfabetización mediática con la exposición digital constante.

El análisis de clústeres permitió identificar agrupaciones diferenciadas de votantes según sus respuestas: un grupo con alta confianza en los fact-checkers y percepción alta de detección, otro con escepticismo generalizado, y un grupo intermedio. Este análisis aporta insumos para segmentar futuras estrategias de alfabetización mediática.

De los 9 videos analizados, 7 fueron claramente desmentidos. Sin embargo, 2 no presentaron información sobre desmentido. A pesar de esto, varios de estos videos alcanzaron niveles altos de difusión, lo que plantea una alerta sobre la necesidad de reaccionar más ágilmente en casos de alto engagement.

Tabla 1. Análisis comparativo de resultados entre plataformas

Plataforma

Videos Analizados

Desmentidos

Prom. Likes/Video

Prom. Comentarios/Video

Ecuador Chequea

7

6

1.57

0.43

Ecuador Verifica

6

6

1.00

0.00

Lupa Media

9

7

31.33

7.22

El análisis cuantitativo de los datos evidencia diferencias significativas entre Ecuador Chequea, Ecuador Verifica y Lupa Media, tanto en el volumen de actividad como en el impacto generado en redes sociales. Aunque las tres plataformas mantuvieron un trabajo constante en la verificación de videos deepfake, con entre 6 y 9 piezas analizadas por cada una, Lupa Media sobresale por su mayor cobertura y su estrategia comunicacional más efectiva.

En términos de eficacia, Ecuador Verifica desmintió el 100 % de los videos revisados, evidenciando una orientación enfocada exclusivamente en la detección de falsedades. Ecuador Chequea, por su parte, presentó un 85 % de tasa de desmentido, mientras que Lupa Media alcanzó un 77 %. Sin embargo, esta última no solo verifica falsedades, sino que también contrasta contenidos legítimos, mostrando matices más complejos de manipulación.

Donde se observan diferencias más marcadas es en el nivel de interacción generado con el público. Lupa Media obtiene un promedio significativamente más alto de “likes” y comentarios por publicación, lo que indica una mayor capacidad para provocar conversación y resonancia social. En contraste, Ecuador Verifica registra mínimos niveles de interacción, lo que podría sugerir baja visibilidad o escaso alcance orgánico. Ecuador Chequea, en cambio, se ubica en una posición intermedia, con una interacción modesta pero constante.

Estos hallazgos permiten afirmar que la lucha contra la desinformación no se gana únicamente con verificaciones técnicas, sino también con estrategias comunicativas que involucren activamente a las audiencias. Lupa Media destaca como la plataforma con mayor incidencia social, mientras que Ecuador Chequea y Ecuador Verifica cumplen un rol técnico esencial, aunque todavía pueden potenciar su capacidad de movilización mediante contenidos más atractivos y emocionales.

A partir de aquí, en el siguiente grafico se describe cómo los participantes en de la encuesta perciben los deepfakes y qué actitudes muestran frente a su identificación, influencia y regulación. Estas variables configuran el punto de partida cuantitativo y ayudan a contextualizar el resto de los análisis. La siguiente figura muestra la distribución de respuestas en la escala de “facilidad para detectar un deepfake” (1 = “Muy difícil” … 5 = “Muy fácil”). Se observa que la categoría más frecuente es “Regular” (113 encuestados), seguida de “Fácil” (77). En contraste, solo 8 votantes indican “Muy difícil” y 23, “Muy fácil”. Esto sugiere que, en general, la mayoría de los participantes percibe su habilidad para distinguir un deepfake como intermedia o ligeramente superior a la media.

Figura 1 Percepción de facilidad para detectar deepfakes entre votantes ecuatorianos (n = 246)

Nota. Elaboración propia con base en datos de encuesta nacional.

Por otra parte, se ilustra la confianza que los encuestados depositan en fact-checkers. Más de la mitad de la muestra se sitúa en “Neutro” (108 votantes) o “Poca confianza” (68), mientras que apenas 4 personas declaran “Mucha confianza” y 19 reportan “Nada de confianza”. Estos datos evidencian que la confianza en servicios de verificación es débil o moderada en la mayoría de los votantes.

Figura 2 Nivel de confianza en plataformas de verificación de datos entre votantes ecuatorianos (n = 246)

Nota. Elaboración propia a partir de datos de encuesta nacional.

Comparación entre plataformas de verificación

El análisis cuantitativo permitió comparar las acciones de Ecuador Chequea, Ecuador Verifica y Lupa Media frente a la circulación de deepfakes. Las diferencias no solo se reflejan en el volumen de videos analizados, sino también, y sobre todo, en el nivel de interacción que generaron sus publicaciones.

En cuanto al volumen de actividad, las tres plataformas muestran un trabajo activo y comparable (6–7 videos desmentidos cada una), con excepción de Lupa Media, que destaca con 9 videos analizados. Esto sugiere un mayor interés por intervenir en la conversación pública mediante contenido verificado.

En términos de eficacia, Ecuador Verifica alcanzó una tasa del 100 % de desmentidos entre los contenidos que abordó, lo que refleja un enfoque claramente centrado en desmontar falsedades. Ecuador Chequea reportó un 85 %, mientras que Lupa Media, con un 77 %, adopta una estrategia más amplia que incluye el análisis de videos legítimos para evidenciar manipulaciones sutiles.

En lo referente al engagement, los resultados muestran un panorama divergente. Lupa Media generó en promedio más de 31 likes y 7 comentarios por video, superando ampliamente a las otras plataformas. Ecuador Verifica, por otro lado, tuvo el nivel más bajo de interacción, con apenas 1 like por video y ningún comentario. Ecuador Chequea se ubicó en un punto intermedio, con niveles de interacción modestos pero constantes.

Estos hallazgos sugieren que la verificación, aunque fundamental, no es suficiente: el contenido verificado debe ser comunicado de forma estratégica para generar conciencia, conversación y participación. En este sentido, Lupa Media no solo verifica, sino que incide socialmente mediante contenidos visuales y emocionales más atractivos.

Encuesta a votantes ecuatorianos

Con el fin de comprender las percepciones ciudadanas en torno a los deepfakes, se aplicaron 246 encuestas válidas entre mayo y junio de 2025. Las preguntas abarcaban variables como edad, confianza en fact-checkers, uso de redes sociales, percepción de influencia y nivel de acuerdo con su regulación.

Los resultados muestran que la mayoría de los votantes percibe que los deepfakes influyen significativamente en la opinión pública. Un total de 155 encuestados respondió que influyen “definitivamente” y 80 opinó que lo hacen “solo en ciertas personas”. Apenas 7 respondieron “no lo creo” y 4 no tenían una opinión formada.

En cuanto a la necesidad de regulación, existe un consenso claro: 132 personas optan por la “prohibición total” y 103 por “restricciones parciales”. Solo 9 consideran que “no es necesario regular” y 2 no tienen una opinión definida.

Diferencias por región

El nivel de exposición a deepfakes varía según la región de residencia. En la Costa, el 67 % ha visto videos manipulados “varias veces”, frente a un 25 % que los ha visto “pocas veces” y solo un 7 % que “no está seguro”. En la región Insular, los encuestados se dividen en partes iguales entre quienes los han visto varias veces y pocas veces. En el Oriente, el 84 % reporta una alta exposición, mientras que en la Sierra, aunque el 70 % ha visto deepfakes, existe mayor incertidumbre (23 % no está seguro). Estos datos reflejan una amplia familiaridad con este tipo de contenido en todo el país, especialmente en regiones periféricas como Oriente y Sierra.

Edad y percepción de detección

El análisis de la variable “facilidad para detectar deepfakes” mostró diferencias notables por edad. Las personas que reportan mayor dificultad tienen una mediana de edad de aproximadamente 38 años, mientras que quienes afirman detectarlos con facilidad tienen una mediana cercana a los 24 años. Esto sugiere que los votantes jóvenes perciben tener mayor capacidad para identificar contenidos manipulados, mientras que los mayores tienden a expresar inseguridad al respecto.

Correlaciones perceptuales

Al calcular la matriz de correlaciones entre las variables ordinales (confianza, influencia, regulación, uso de Facebook y facilidad de detección), se identificó una relación positiva moderada entre percepción de influencia y acuerdo con la regulación (r ≈ 0.19), así como entre uso de Facebook e influencia (r ≈ 0.18). Las demás correlaciones fueron bajas, descartando problemas de colinealidad entre las variables.

Análisis por género y profesión

El análisis comparativo entre hombres y mujeres no mostró diferencias sustanciales en la percepción de la influencia de los deepfakes: ambos grupos presentaron medianas idénticas y rangos similares. De igual modo, la confianza en fact-checkers fue similar entre estudiantes, profesionales independientes y otros grupos ocupacionales. La prueba ANOVA resultó no significativa (p = 0.869), lo que indica que la ocupación no afecta la confianza media en estas plataformas.

Modelos predictivos y perfiles

Para comprender qué factores inciden en la autopercepción de facilidad para detectar deepfakes, se construyó un modelo de regresión logística que incluyó edad, uso de Facebook y confianza en fact-checkers como predictores. Además, se empleó análisis de componentes principales (PCA) y clasificación K-Means para explorar agrupamientos de votantes según sus características perceptuales y conductuales. Esta aproximación permitió visualizar perfiles diferenciados y mapear la diversidad de posturas frente a los deepfakes y su regulación.

De esta manera, se representa el forest plot de los coeficientes estimados para las variables Edad_num, Uso_FB y Confianza_num (con su intervalo de confianza al 95 %) en el modelo Logit. Se observa que Uso_FB (β ≈ 0.28, p < 0.001) y Confianza_num (β ≈ 0.52, p < 0.001) figuran como predictores estadísticamente significativos, mientras que Edad_num muestra un efecto leve y marginal (β ≈ 0.02, p ≈ 0.06). Esto indica que, manteniendo edad y confianza constantes, cada nivel adicional de uso de Facebook aumenta en 32 % la probabilidad de identificar un deepfake con facilidad, y cada nivel extra de confianza eleva esa probabilidad en 67 %.

Figura 3 Forest plot de coeficientes estimados en modelo de regresión logística sobre la detección de deepfakes

Nota. Elaboración propia a partir del modelo logístico aplicado a datos de encuesta nacional. Se muestran los coeficientes y sus intervalos de confianza del 95 %.

Continuando con los modelos de regresión logística y análisis multivariante, para conocer el perfil de votantes, se llevaron a cabo dos pasos sucesivos: reducción de dimensionalidad mediante PCA y, sobre las dos primeras componentes, un algoritmo de K‐Means con k = 3

La siguiente figura presenta la varianza explicada por las dos primeras componentes principales. La primera (PC1) absorbe aproximadamente 26.8 % de la varianza y la segunda (PC2), 23.4 %, sumando en conjunto 50.2 %. Aunque el porcentaje total es moderado, indica que un subespacio bidimensional refleja buena parte de la estructura conjunta entre las cinco variables ordinales.

Seguidamente se muestra cada votante proyectado en (PC1, PC2) y los vectores de las cinco variables tomadas para este análisis. Se observa que Uso_FB y Regulacion apuntan en dirección similar (alta carga en PC1), mientras que Confianza_num aporta fuertemente a ambos ejes. Estos vectores ilustran cómo se correlacionan las variables en el espacio reducido.

Finalmente, para conocer el perfil de votantes con K-Means sobre las componentes principales, se grafican los tres clústeres resultantes (Perfil 0, Perfil 1 y Perfil 2) en el espacio de las dos primeras componentes, junto con sus centroides. El Perfil 0 (puntos azules) agrupa a votantes con uso moderado de Facebook, confianza intermedia y facilidad “Regular”/“Difícil”. El Perfil 1 (naranjas) concentra a quienes tienen uso alto de redes, gran confianza y nivel “Fácil”/“Muy fácil”. El Perfil 2 (verdes) incluye a votantes con bajo uso de Facebook, baja confianza y mayor percepción de influencia. Estos tres grupos abarcan el 37.6 %, 38.0 % y 24.4 % de la muestra, respectivamente.

Tabla 2. Perfiles de votantes según análisis de clústeres K-Means (n=242)

Perfil

Descripción simplificada

Tamaño (n)

% total

PC1

PC2

0

Uso moderado de Facebook, confianza intermedia, facilidad media/baja

62

25.6 %

0.0321

−1.3682

1

Alto uso de Facebook, alta confianza, facilidad alta

99

40.9 %

0.9327

0.4249

2

Bajo uso de Facebook, baja confianza, alta percepción de influencia

81

33.5 %

−1.1645

0.5279

Triangulación de resultados

Los tres ejes de analis de este trabajo: Relevamiento de información en plataformas de verificación, encuesta a los votantes y el lente teórico expuesto, permiten entender no solo qué piensan los ciudadanos sobre los deepfakes, sino también cómo ese imaginario se nutre de la forma en que se producen y desacreditan estos contenidos en el entorno digital, al mismo tiempo que confirma o matiza las hipótesis sobre la influencia de variables como la edad, la confianza y el uso de redes sociales.

En primer lugar, el marco teórico señala que los deepfakes representan una amenaza creciente para la calidad del debate político (Ballesteros Aguayo & Ruiz del Olmo, 2024; Arévalo Fernández, 2024). Se sostiene que, en contextos de baja alfabetización mediática, estos videos hiperrealistas pueden pasar desapercibidos, erosionando la confianza en las instituciones y en la información oficial. Los datos del estudio de relevamiento muestran que, en Facebook, los contenidos verificados por Lupa Media generan un promedio de 31 likes y 7 comentarios, mientras que Ecuador Chequea y Ecuador Verifica apenas mueven entre 1 y 2 “likes” por video y casi ningún comentario. Estas diferencias en engagement sugieren que, aunque las plataformas cumplen con su rol técnico de desmentir, su capacidad para captar la atención ciudadana varía de forma drástica. Es decir, en la práctica, la sola función de verificar no garantiza que el público se detenga a leer el desmentido o a sospechar de un deepfake.

De manera complementaria, la encuesta a votantes revela que la percepción de influencia de los deepfakes es muy alta: 155 de 246 encuestados creen que esos videos “influyen definitivamente” en la opinión pública, y solo 11 responden con escepticismo (“No lo creo” o “No estoy seguro/a”). Este hallazgo se alinea con las advertencias teóricas de que los deepfakes, por su carácter emocionalmente atractivo, pueden socavar la confianza incluso antes de que intervengan los fact‐checkers. Al mismo tiempo, la encuesta muestra que el nivel de confianza en esas mismas plataformas de verificación es, en su mayoría, moderado o bajo: el 55 % se coloca en “Neutro” o “Poca confianza”, y apenas un 4 % confía “mucho”. Dicha desconfianza explica, en parte, por qué los desmentidos no detienen la difusión de los deepfakes ni generan debate: si el público no confía en la fuente que corrige el contenido, no hay un incentivo real para revisar o cuestionar el video original.

Por otro lado, la literatura recomienda entender la regulación como una estrategia necesaria para contener el avance de los deepfakes (Arévalo Fernández, 2024; Pereira Hernández & Zatarain Avendaño, 2024), y de hecho el 94 % de los encuestados en nuestro estudio se pronuncia a favor de algún tipo de regulación (“Solo con restricciones” o “Prohibición total”). Esto está en consonancia con los hallazgos del relevamiento: las plataformas de verificación, en su rol ad hoc, no son capaces de frenar el problema por sí solas, pues operan en un vacío legal que las limita. La urgencia de un marco normativo se ve reforzada al ver que el público reclama medidas más contundentes y que la explicación teórica coincide en señalar la falta de tipificación específica de deepfakes en el ordenamiento ecuatoriano como una deuda pendiente.

Al introducir la dimensión demográfica, la teoría sugiere que grupos de mayor edad y con menos experiencia en redes suelen enfrentar mayores dificultades para identificar contenidos manipulados (Puetate Paucar et al., 2024). Los resultados del boxplot de edad confirman esta hipótesis: la mediana de 38 años entre quienes califican como “Difícil” detectar un deepfake contrasta con los 24 años de quienes lo encuentran “Fácil”. Este patrón se conecta con el análisis de relevamiento en el sentido de que los desmentidos de plataformas como Lupa Media, que alcanzan altos niveles de interacciones, tienden a moverse en espacios donde la audiencia es más joven y más activa en redes. Sin embargo, en regiones como la Sierra y la Amazonía, donde los encuestados reportan una exposición frecuente a deepfakes (70–84 % ha visto varios), el hecho de que no todos logren distinguirlos se corresponde con la escasa penetración de las estrategias de alfabetización mediática, tal como advierten Pereira Hernández & Zatarain Avendaño (2024).

La regresión logística también ofrece un puente entre teoría y práctica: los estudios previos postulan que un mayor uso de redes sociales y una mayor confianza en los fact‐checkers incrementarían la habilidad para detectar deepfakes (Vélez Bermello, 2025). En nuestro modelo, el coeficiente de Uso_FB (OR ≈ 1.32) y de Confianza_num (OR ≈ 1.67) resultan significativos, lo que confirma que, efectivamente, quienes pasan más tiempo en Facebook y confían algo en las plataformas de verificación tienen mayores probabilidades de ubicar un deepfake como “Fácil” o “Muy fácil”. Este hallazgo es coherente con el relevamiento que muestra la superior capacidad de Lupa Media para generar conversación: entre quienes siguen de cerca esas páginas, la exposición a contenidos desmentidos y a discusiones asociadas a estos videos falsos amplía la conciencia crítica y fortalece la confianza en la verificación.

Finalmente, el análisis de clústeres (PCA + K‐Means) identifica tres perfiles de votantes que sintetizan la teoría de Estrategias de Difusión de Desinformación (Wardle & Derakhshan, 2017) y los enfoques sobre la alfabetización mediática (Pereira Hernández & Zatarain Avendaño, 2024). El “Perfil 1” (40.9 %) agrupa a usuarios muy activos en Facebook, con alta confianza y gran facilidad para detectar deepfakes; este segmento probablemente vincula directamente la experiencia en redes con la credibilidad (Fazio et al., 2015) en los fact‐checkers y, por ende, participa más en contenidos verificados como los de Lupa Media. El “Perfil 2” (33.5 %), con bajo uso de redes y baja confianza, coincide con la categoría teórica de “usuarios vulnerables” que reciben pasivamente el contenido sin cuestionarlo, situación que se observa en regiones y grupos etarios con menor alfabetización digital. El “Perfil 0” (25.6 %) funciona como intermedio: experiencia moderada en redes, confianza intermedia y actitud mixta. De este modo, la estructura de perfiles confirma la hipótesis de que la interacción entre uso de redes, confianza y actitudes ante la regulación configura el grado de resistencia o vulnerabilidad frente a los deepfakes.

Si bien el análisis de contenido se basó en métricas cuantitativas como el número de “likes” y comentarios, los datos recolectados también permiten identificar patrones cualitativos vinculados a las emociones generadas por los deepfakes. Las reacciones emocionales capturadas por la plataforma, como “me enoja”, “me divierte” o “me asombra”, ofrecen una ventana al tipo de afectos que estos contenidos buscan provocar. Por ejemplo, los videos con mayor nivel de “me enoja” o “me asombra” suelen estar asociados a temáticas alarmistas o sensacionalistas, lo cual coincide con estudios previos que señalan que los deepfakes más efectivos son aquellos que apelan a emociones intensas para facilitar su viralización. Además, algunas descripciones temáticas (“sucede en día de elecciones”, “corrupción del gobierno”) evidencian una narrativa orientada al escándalo o al miedo. Estas observaciones permiten avanzar hacia una codificación semiótica inicial del contenido, donde los signos visuales y discursivos no sólo informan, sino que también buscan activar marcos mentales específicos en los espectadores. Así, una futura línea de investigación podría incluir un análisis narrativo más profundo que integre no solo las reacciones del público, sino también los elementos simbólicos, tonos de voz, escenografías o expresiones faciales de los personajes generados por IA.

Discusión

Los resultados de este estudio revelan matices que aporta al entendimiento de cómo los votantes ecuatorianos se enfrentan a problemas de las democracias contemporáneas como lo son las deepfakes en un entorno electoral. De entrada, llama la atención que la mayoría reconoce que estos videos pueden influir en la opinión pública, pero al mismo tiempo hay una muestra considerable que desconfían de las plataformas de verificación de información que los desmienten. En la práctica, esto significa que detectar un deepfake va más allá de tener acceso a un “fact‐checker”: si la gente no confía en las fuentes, incluso un desmentido riguroso puede pasar desapercibido.

La diferencia de edad aporta otra clave: quienes tienen alrededor de 38 años suelen decir que les resulta difícil identificar un deepfake, mientras que los votantes más jóvenes (cerca de 24 años) ven esa tarea como relativamente sencilla. Esto sugiere que no basta con publicar tutoriales generales en redes; los adultos mayores podrían beneficiarse de talleres presenciales o materiales impresos que muestren ejemplos concretos y señaladores prácticos, mientras que los jóvenes, que ya navegan con soltura, podrían asimilar mejores enfoques más avanzados sobre técnicas de manipulación.

El análisis de perfiles profundiza esta idea. Se detectaron tres grupos de votantes, unos muy activos en Facebook, que confían en los verificadores y se sienten capaces de distinguir deepfakes; otros que usan poco las redes y desconfían de los fact‐checkers, por lo que quedan más expuestos; y un tercer grupo intermedio, con actitudes mixtas. Esto lleva a concluir que la comunicación debe adaptarse a cada segmentación. Por ejemplo, para quienes desconfían de lo digital, podría ser mejor llegarles por radio o televisión, invitándolos primero a cuestionar el contenido sin mencionar de inmediato una plataforma de verificación. En cambio, los más conectados podrían recibir videos cortos o publicaciones directas que enlacen a notas verificadas.

Otro hallazgo importante es el consenso sobre la necesidad de regular los deepfakes, casi todos opinan que debe haber normas claras. El desafío estará en articular esa regulación con las propias redes sociales. No basta con una ley en papel; es preciso que haya canales para que los usuarios reporten fácilmente un video sospechoso y que las plataformas implementen mecanismos ágiles de respuesta, sin esperar a que un fact‐checker intervenga manualmente.

Entre las limitaciones de este estudio está el método de encuestas, que fueron enviadas a través de WhatsApp. Es posible que algunos grupos, especialmente en zonas rurales con conexión más débil, hayan quedado menos representados. Tampoco se profundizó en el tipo concreto de deepfake que vieron los votantes ni en su contexto político específico. Sería valioso en investigaciones futuras entrevistar a personas de zonas rurales o analizar directamente los deepfakes virales para comprender qué elementos les hacen más o menos creíbles analizar si estas generan cámaras de eco y como se componen las redes de menciones.

Una dimensión que merece mayor desarrollo en el análisis es el impacto emocional y cognitivo que los deepfakes generan en los ciudadanos. Diversos estudios han demostrado que los contenidos audiovisuales manipulados, especialmente cuando apelan a emociones como el miedo, la indignación o la sorpresa, tienen mayor probabilidad de ser recordados, compartidos y creídos, incluso después de ser desmentidos. Este fenómeno se explica por el llamado “efecto de verdad ilusoria”, que señala cómo la exposición repetida a información falsa puede aumentar su credibilidad percibida (Fazio et al., 2015). En el caso ecuatoriano, el alto nivel de preocupación por los deepfakes y la baja confianza en los verificadores podría estar relacionado con este tipo de respuesta emocional, lo que refuerza la necesidad de considerar no solo los aspectos técnicos de la desinformación, sino también sus efectos psicológicos en el comportamiento político de la ciudadanía.

Si bien las plataformas de verificación desempeñan un rol clave en la contención de la desinformación, su legitimidad social no está garantizada. Diversos estudios advierten que el exceso de mensajes correctivos, especialmente en contextos polarizados, puede generar lo que se conoce como “fatiga del fact-checking” (Graves, 2018; Clayton et al., 2020). Esta fatiga se manifiesta como escepticismo o indiferencia hacia las verificaciones, lo que reduce su efectividad y, en algunos casos, incluso refuerza las creencias erróneas. En el presente estudio, esta dinámica se refleja en la baja confianza que reportan los votantes hacia los verificadores, a pesar de reconocer la influencia de los deepfakes. Esto sugiere que no basta con verificar: también es necesario comprender cómo percibe la ciudadanía a quienes emiten los desmentidos y adaptar las estrategias comunicativas a distintos perfiles sociales y emocionales.

Conclusiones

En este trabajo hemos confirmado que, en el contexto de las elecciones presidenciales de 2025 en Ecuador, los deepfakes se perciben como una amenaza real para la opinión pública y que existe una predisposición casi unánime a regularlos. Sin embargo, esa conciencia no se traduce automáticamente en confianza en las plataformas de verificación, lo cual genera un vacío en el que muchos votantes, especialmente los de mayor edad, quedan vulnerables a contenidos manipulados.

El análisis demográfico dejó en evidencia que la distancia generacional es un factor clave: los votantes jóvenes tienden a desarrollar con mayor facilidad las habilidades para detectar un deepfake, mientras que los mayores requieren recursos didácticos más accesibles y orientados al contexto local. Por su parte, la segmentación en tres perfiles de votantes (activos y confiados, escépticos y de uso moderado) demuestra que no existe un público homogéneo: cada grupo presenta necesidades comunicacionales distintas, desde estrategias digitales avanzadas hasta acercamientos más básicos a través de canales comunitarios.

En materia de políticas públicas, los hallazgos indican que las plataformas de fact‐checking deben ir acompañadas de campañas de alfabetización mediática que reconstruyan la confianza en las fuentes. La regulación de los deepfakes no puede limitarse únicamente a sanciones legales; su eficacia pasa por implementar mecanismos de denuncia ciudadana integrados en redes sociales y por promover la certificación de contenidos genuinos en espacios que, a día de hoy, resultan invisibles para amplios sectores de la población.

Finalmente, este estudio concluye que la contención de los deepfakes depende de una conjunción de elementos: herramientas tecnológicas de detección, formación adaptada a cada perfil de usuario, colaboración entre el sector público y las plataformas digitales, y normas claras que garanticen la transparencia en la comunicación electoral. Solo al abordar simultáneamente estos componentes se puede reforzar la resiliencia ciudadana y proteger el proceso democrático frente a la desinformación audiovisual.

ReferenciasBibliográficas

Andino Veloz, B. (2025). Deepfake, cinismo y diversión en la crueldad: Un caso de colegiales y pornografía en Ecuador. Uru: Revista de Comunicación y Cultura, (11), 8–28. https://doi.org/10.32719/26312514.2025.11.2

Arévalo Fernández, N. L. (2024). La omisión del delito de deepfake en el Código Orgánico Integral Penal en Ecuador [Trabajo de titulación, Universidad Católica de Cuenca].

Babbie, E. (2000). The practice of social research. Wadsworth Publishing.

Ballesteros Aguayo, L., & Ruiz del Olmo, F. J. (2024). Vídeos falsos y desinformación ante la IA: El deepfake como vehículo de la posverdad. Revista de Ciencias de la Comunicación e Información, 29, 1–14. https://doi.org/10.35742/rcci.2024.29.e294

Bazante, C. (2025, abril 14). La desinformación en las elecciones de Ecuador y el rol de la IA. Newtral. https://www.newtral.es/desinformacion-elecciones-ecuador/20250414/

Bañuelos Capistrán, J. (2020). Deepfake: la imagen en tiempos de la posverdad. Revista Panamericana de Comunicación, 1(2), 51–61. https://doi.org/10.21555/rpc.v0i1.2315

Clayton, K., Blair, S., Busam, J. A., Forstner, S., Glance, J., Green, G., Rogowski, J. C., & Nyhan, B. (2020). Real solutions for fake news? Measuring the effectiveness of general warnings and fact-check tags in reducing belief in false stories on social media. Political Behavior, 42(4), 1073–1095. https://doi.org/10.1007/s11109-019-09533-0

Consejo Nacional Electoral. (2025). Repositorio de noticias falsas. https://www.cne.gob.ec/repositorio-de-noticias-falsas/

Creswell, J. W. (2014). Research design: Qualitative, quantitative, and mixed methods approaches. SAGE.

Fazio, L. K., Brashier, N. M., Payne, B. K., & Marsh, E. J. (2015). Knowledge does not protect against illusory truth. Journal of Experimental Psychology: General, 144(5), 993–1002. https://doi.org/10.1037/xge0000098

Flick, U. (2004). Triangulation in qualitative research. In U. Flick, E. von Kardorff, & I. Steinke (Eds.), A companion to qualitative research (pp. xx–xx). SAGE.

Graves, L. (2018). Understanding the Promise and Limits of Automated Fact-Checking. Reuters Institute for the Study of Journalism. https://reutersinstitute.politics.ox.ac.uk/understanding-promise-and-limits-automated-fact-checking

Hernández Sampieri, R., Fernández Collado, C., & Baptista Lucio, P. (2014). Metodología de la investigación. McGraw-Hill.

Lendvai, G. F., & Gosztonyi, G. (2024). Deepfake y desinformación – ¿Qué puede hacer el derecho frente a las noticias falsas creadas por deepfake? IDP: Revista de los Estudios de Derecho y Ciencia Política, 41, 1–22. https://idp.uoc.edu

Lupa Media. (2025, abril 9). Desinformación electoral en Ecuador. https://lupa.com.ec/explicativos/desinformacion-electoral-ecuador-2025/

Lupa Media. (2025). Fact-check electoral: Más de la mitad de declaraciones de candidatos resultaron falsas o imprecisas. https://lupa.com.ec/explicativos/fact-check-electoral-mas-mitad-declaraciones-candidatos-resultaron-falsas-o-imprecisas/

Molina, O. (2024a). Disonancia entre la transformación tecnológica y ética periodística: Una reflexión crítica del impacto de la inteligencia artificial en los medios de comunicación. AdComunica, (28), 91–114. https://doi.org/10.6035/adcomunica.8002

Molina, O. (2024b). Boczkowski, P., y Mitchelstein, E. (2022). El entorno digital: Breve manual para entender cómo vivimos, aprendemos, trabajamos y pasamos el tiempo libre hoy. Estudios sobre el Mensaje Periodístico, 30(3), 683–684. https://doi.org/10.5209/emp.96552

Nyhan, B., & Reifler, J. (2010). When corrections fail: The persistence of political misperceptions. Political Behavior, 32(2), 303–330. https://doi.org/10.1007/s11109-010-9112-2

Pereira Hernández, M. L., & Zatarain Avendaño, V. M. (2024). Pornografía deepfake en la era de la IA: Nuevos desafíos para la educación de género, humanística y tecnológica. Revista Electrónica Científica de Investigación Educativa, 8. https://doi.org/10.33010/recie.v8i0.2337

Puetate Paucar, J. M., Toro Hernández, G. A., & Coka Flores, D. F. (2024). Deepfake: un desafío latente para la seguridad de los menores ecuatorianos en el entorno digital. Revista Dilemas Contemporáneos: Educación, Política y Valores, 12(1), Artículo 100. http://www.dilemascontemporaneoseducacionpoliticayvalores.com

Rivera Costales, J. (2025, abril 12). Deepfakes y desinformación: La IA como arma en las elecciones de Ecuador 2025. Tikinauta. https://tikinauta.com/blog/deepfakes-y-desinformacion-la-ia-como-arma-en-las-elecciones-de-ecuador-2025/

Tandoc Jr, E. C., Lim, Z. W., & Ling, R. (2018). Defining “Fake News”. Digital Journalism, 6(2), 137–153. https://doi.org/10.1080/21670811.2017.1360143

Tikinauta. (2025). El impacto de las redes sociales en las campañas electorales de Ecuador 2025. https://tikinauta.com/blog/el-impacto-de-las-redes-sociales-en-las-campanas-electorales-de-ecuador-2025/

Universidad Técnica Particular de Loja (UTPL). (2025). El rol de la educación a distancia y la inteligencia artificial en la campaña electoral 2025. https://noticias.utpl.edu.ec/el-rol-de-la-educacion-a-distancia-y-la-inteligencia-artificial-en-la-campana-electoral-2025

Vélez Bermello, G. (2025). Verificar para informar [Webinar]. Universidad Técnica del Norte, Maestría en Comunicación, mención Comunicación Digital. https://revistas.uasb.edu.ec/index.php/uru

Wardle, C., & Derakhshan, H. (2017). Information disorder: Toward an interdisciplinary framework for research and policy making. Council of Europe. https://rm.coe.int/information-disorder-report-2017/1680764666