Artículo de investigación    MANIPULACIÓN DE LA IMAGEN POLÍTICA MEDIANTE DEEPFAKES: RIESGOS DE LA INTELIGENCIA ARTIFICIAL EN PROCESOS ELECTORALES DE ECUADOR Y ESPAÑA, 2022-2025 Bryan Aníbal Vera Ruíz Universidad Bolivariana, Consejo de la Judicatura-Ecuador baverar@ube.edu.ec ORCID: 0009-0003-5233-7924 Leonardo Sebastián Harnisth Sigcho Universidad Casa Grande-Ecuador leonardo.harnisths@ug.edu.ec ORCID: 0000-0003-4260-4753 Margarita Rosa Cabrera Cevallos Universidad Bolivariana, Universidad Andina Simón Bolívar-Ecuador margarita.cabrerac@ug.edu.ec ORCID: 0000-0002-5222-5266 Resumen Este artículo investigó el impacto de la inteligencia artificial —específicamente sus aplicaciones deepfake — en la construcción, distorsión y disputa de la imagen política durante elecciones en Ecuador y España de 2022 a 2025. Utilizando un enfoque cualitativo y documental, se compararon casos confirmados con un uso diferenciado de la tecnología: debilitamiento, desinformación, propaganda y manipulación estética. Teorías como el framing, posverdad, propaganda computacional y estética política fueron presentadas y sustentadas con un análisis jurídico comparado que incluyen referencias al AI Act, recomendaciones de la UNESCO y vacíos legales en América Latina. Las metodologías incluyeron la creación de matrices comparativas y análisis discursivo-visual para identificar narrativas repetitivas, grupos estereotipados y efectos en la sensibilidad pública. Los resultados indican que en ambos países la manipulación digital de la imagen política viola derechos básicos como identidad, participación política y veracidad en la información propiciando un riesgo estructural a la transparencia democrática. Este trabajo finaliza con recomendaciones jurídicas y políticas dirigidas hacia una regulación ética y responsable de la inteligencia artificial. Palabras clave: inteligencia artificial; manipulación de datos; desinformación; sistema electoral; derecho comparado. MANIPULATION OF POLITICAL IMAGES THROUGH DEEPFAKES: THE RISKS OF ARTIFICIAL INTELLIGENCE IN ELECTION PROCESSES IN ECUADOR AND SPAIN, 2022-2025 Abstract This article examined the impact of artificial intelligence — specifically, its deepfake applications — on the construction, distortion, and contestation of political image during the elections in Ecuador and Spain from 2022 to 2025. Using a qualitative and documentary approach, confirmed cases were compared with differentiated use of technology: undermining, disinformation, propaganda, and aesthetic manipulation. Theories such as framing, post-truth, computational propaganda, and political aesthetics were presented and supported by a comparative legal analysis that included references to the AI Act, UNESCO recommendations, and legal loopholes in Latin America. The methodologies included the creation of comparative matrices and discursive-visual analysis to identify repetitive narratives, stereotyped groups, and effects on public sensitivity. The results show that in both countries, digital manipulation of political images violates basic rights such as identity, political participation, and truthfulness in information, creating a structural risk to democratic transparency. This paper concludes with legal and policy recommendations aimed at ethical and responsible regulation of artificial intelligence. Keywords: artificial intelligence; data manipulation; misinformation; electoral system; comparative law. INTRODUCCIÓN La inteligencia artificial (AI) al se ha convertido en una herramienta novedosa y práctica, que sirve de ayuda a una serie de sectores, principalmente en lo referente a matrización de datos (Medina, 2025), razón por la que en regiones del mundo como el Oriente (China) y Occidente, se habla hoy en día de una “gobernanza de la IA” (Cuihong y Jiahui, 2025), que por un lado, desregulariza a la IA priorizando el control que esta genera sobre la población, y por otro lado, la limita frente a derechos como la seguridad de datos. Una de las tecnologías emergentes que se relacionan con lo anterior son los deepfakes, que denota la generación o modificación sintética de imágenes, videos o grabaciones de audio utilizando algoritmos de aprendizaje profundo que pueden tener diversas finalidades: sátira, parodia, manipulación, intervención estética, activismo o desinformación política (Garrido, 2025). En este estudio, se examinaron los deepfakes de índole política, es decir, la forma en que funciona esta técnica como una herramienta de comunicación y manipulación política al presentar elementos visuales alterados para intentar influir en la percepción de los decodificadores, cambiar las narrativas y dañar la reputación de los actores políticos. Para interpretar este fenómeno, es adecuado recurrir a varios marcos teóricos. En particular, la teoría del framing; la noción de posverdad, que sugiere que las emociones y las creencias son más significativas que los hechos; estética política, que analiza la construcción de poder con la ayuda de la imagen; la teoría crítica de la tecnología que cuestiona cómo las innovaciones técnicas influyen en las estructuras sociales y políticas. Todos estos conceptos permiten comprender que los deepfakes no se limitan a ser una amenaza técnica. Es, en primer lugar, un problema comunicativo y sociopolítico. Estos aspectos son de necesaria revisión en un escenario de desarrollo tecnológico e hiperglobalización que ha automatizado los sistemas digitales existentes, al punto de que el ser humano deja de ser prescindible para el mismo, y pasa a convertirse una herramienta del mundo automatizado (Ortega y Pericacho, 2025). Ejemplo de lo mencionado es la educación, la ejecución de cobros automatizados por medio de registros dactilares, palmares y faciales, que son objeto de observación en Europa (Sanz, 2025), y últimamente, la gobernanza tecnológica y algorítmica, considerando el impacto que ha tenido las IA en las relaciones internacionales y nacionales (Garrido, 2025). A pesar de lo indicado, la legislación se encuentra aún ajena a la realidad tecnológica de la sociedad contemporánea. Si bien, la Organización de Naciones Unidas en 2024 ha advertido sobre el uso de las IA en los procesos electorales, sobre todo considerando que en este año más de 60 países, es decir, la mitad de la población mundial fue a las urnas por uso de deepfakes, la realidad es que no existe una norma en firme que lo limite al presente sino como una meta a futuro. En este sentido, el órgano internacional ha motivado una resolución para la gestión de sistemas IA “seguras y fiables”, así como también la puesta en marcha de un órgano asesor sobre IA, y el desarrollo de la Ley de Inteligencia artificial de la Unión Europea que entrará en vigor en 2026. Sin embargo, es que su aplicación es atemporal y descontextualizada a la realidad de las distintas partes del mundo (Ulloa, 2024). En Latinoamérica se han desarrollado entre 2019 a 2021 estrategias normativas ante la protección normativa, que a pesar de tener la intención de proteger siguen siendo limitativas, este es el caso de Argentina, Brasil, México y Uruguay (García, 2023). Ecuador no es una excepción, dado que las limitaciones ante la protección de datos, y derecho a la imagen política en el contexto de las inteligencias artificiales superan las disposiciones normativas establecidas para dichos efectos (Dueñas et al., 2024), afectando en contextos específicos derechos políticos vigentes. Esto se ha evidenciado gracias a la presencia de deepfakes, ridiculizaciones a políticos tanto de turno como postulantes por medio de alteración de inteligencia artificial, así como también manipulación mediática de la imagen de dichos políticos, la alteración de vestuario o retiro de este, que más allá de una afección a una imagen política, atenta también contra los derechos de género (Ojeda, 2024). METODOLOGÍA La investigación se desarrolló bajo un enfoque cualitativo y un paradigma interpretativo, con carácter no experimental, descriptivo y exploratorio, orientado a comprender los significados, configuraciones discursivas e implicaciones sociales, jurídicas y políticas de la manipulación de la imagen política mediante inteligencia artificial en contextos electorales. Se aplicaron los métodos comparativos, de estudio de casos e inductivo, lo que permitió analizar semejanzas, diferencias y patrones entre Ecuador y España. Las técnicas incluyeron revisión documental sistemática, análisis de contenido, discursivo y semiótico-visual, complementadas con verificación de datos (fact-checking) a partir de fuentes académicas, normativas y periodísticas. Como instrumentos se emplearon matrices comparativas y fichas de análisis documental sustentadas en un marco teórico basado en la ética algorítmica, los derechos fundamentales, la gobernanza tecnológica y teorías como el framing y la posverdad. Esta metodología responde a los lineamientos de investigación cualitativa propuestos por Hernández-Sampieri et al., (2022) garantizando rigor interpretativo y coherencia entre objetivos, métodos y resultados. RESULTADOS Y DISCUSIÓN a) Panorama normativo y gobernanza de la IA en Latinoamérica Es innegable una fuerte influencia de la Ley de IA en proyectos de ley en Latinoamérica, específicamente del enfoque basado en riesgos, es así como Chile y México ya han presentado proyectos que clasifican los sistemas de inteligencia artificial según su nivel de riesgo (limitado, alto, inaceptable), e incluye indicadores asociado a las evaluaciones de impacto, principios de transparencia y supervisión de sistemas. Además, se han promovido la formación de instituciones de gobernanza algorítmica, como el Observatorio Federal de IA en Argentina en 2024 (UDA-OIA) o el Observatorio Brasileiro de IA (OBIA) en Brasil en 2022, así como propuestas similares en Chile o México; aunque su implementación y capacidad de control todavía sea muy limitada. Algunos estados han comenzado a aplicar las leyes de protección de datos personales para regular la IA, como el caso de la Ley General de Protección de Datos de Brasil (LGPD) o el llamado de México a actualizar su legislación existente (Yela, 2024). Si bien el progreso normativo ha sido notorio, los desafíos en la región siguen siendo demasiado significativos en este aspecto. La falta de continuidad en las políticas públicas, la escasa coordinación entre países, y la falta de una visión integral y mandante han permitido que los esfuerzos multilaterales tales como la Declaración de Montevideo, la Declaración de Cartagena y la Alianza Digital UE-ALC sean declarativos y poco efectivos en la práctica. Por consiguiente, la característica principal del panorama regulatorio latinoamericano en cuanto a la inteligencia artificial es que existe una realización limitada en términos de diseño y ejecución entre las buenas intenciones y una estructura institucional variada, y es necesario avanzar hacia un modelo que tenga marcos jurídicos que se conecten con la realidad del continente. b) Derecho a la imagen y vulnerabilidad en la era de la IA El desarrollo de la sociedad digital ha contribuido a la creciente vulnerabilidad de la imagen personal. La creación de numerosas plataformas digitales, redes sociales, y herramientas tecnológicas sofisticadas ha permitido que surjan nuevas formas de uso sin autorización, imágenes compartidas sin consentimiento y explotación comercial sin permiso de la imagen humana sin su consentimiento previo. Autores como Yela (2024) argumentan que la falta de regulación significativa en el país ha llevado al uso sin restricciones de imágenes en línea afectando como resultado, la privacidad y la reputación de las personas, quienes han sufrido varios impactos negativos (Piedra, 2024). El derecho a la imagen aborda uno de los desafíos más disruptivos en la esfera de la inteligencia artificial. En términos generales, la inteligencia artificial ha desarrollado métodos de drástica precisión para modificar, falsificar y recrear imágenes. Uno de los peligros y claros ejemplos es el deepfake y la alteración de fotos en general, cuya tecnología resulta eficaz para el cambio de rostros y expresiones, generando un caso clásico del cambio de derecho a la imagen por alteración (Trujillo, 2024). Otro problema es la reproducción algorítmica de imágenes sin consentimiento. Algunos modelos de IA son entrenados con millones de imágenes recopiladas de internet sin autorización de los titulares. Este factor plantea preguntas sobre la violación de los derechos de la imagen y el uso no-autorizado de información personal en la producción de contenido digital. Además, la automatización de la apropiación y difusión de imágenes mediante IA permite que los algoritmos creados para la generación de contenido repliquen imágenes de personas sin el consentimiento de éstas (Faicán, 2024), por lo que, dichas imágenes pueden ser utilizadas en anuncios, redes sociales u otros entornos digitales con objetivos comerciales, políticos o fraudulentos. De este modo, varios estudios han hecho referencia a que la protección jurídica del derecho a la imagen en las redes sociales es “frágil”, advirtiendo que la publicación precaria de una imagen en la plataforma digital no supone la aprobación para el uso de tal imagen por terceros (García, 2023). En general, sin embargo, el problema de la fragilidad del derecho a la imagen adquiere una escala completamente nueva con el desarrollo de la AI porque los sistemas de identificación facial y de procesamiento de imágenes pueden extraer, procesar y usar cualquier imagen personal sin el control adecuado (Garrido, 2025). Esto es preocupante dado que los avances de la IA han llevado a la producción de tecnologías que pueden rehacer de manera realista imágenes, videos, y pistas de audio. Uno de los fenómenos más disruptivos asociados con estas tecnologías es los deepfakes: contenidos audiovisuales generados por ordenador que imitan con precisión asombrosa las apariencias faciales, voces y gestos de personas reales (Murguía et al., 2025), y que al día de hoy son usados para fines lícitos como los publicitarios e ilícitos como las estafas en la web mediante suplantación de identidad. De igual manera, la multiplicación de herramientas al alcance para la elaboración de deepfakes democratiza el peligro, pues no se requiere de conocimientos especializados para modificar la imagen de una persona. La actual sencillez con que se puede modificar un video de campaña, suplantar un discurso y falsificar la voz de una autoridad, constituye una clara amenaza a la integridad de los procesos electorales, tal como lo señala la Organización de Naciones Unidas. De este modo, evaluando el fenómeno de los deepfakes desde la dimensión técnica hasta sus consecuencias sociopolíticas, es posible considerar que su estudio es un punto de quiebre en favor del acercamiento necesario entre la ética algorítmica, el derecho digital y la gobernanza tecnológica. Como la desarrollan autores como Floridi y Taddeo (2016), examinan las responsabilidades y valores involucrados en el diseño, implementación y uso de algoritmos automatizados, focalizándose en principios de transparencia, justicia, explicabilidad y rendición de cuentas. c) Deepfakes como fenómeno sociopolítico La utilización de la IA para la manipulación de imágenes no es un fenómeno exclusivo de la política, sino de la multidimensionalidad de las relaciones sociales. Esto justifica la necesidad de extender la regulación del derecho a la propia imagen en las condiciones del espacio público digital. Si los deepfakes políticos son una forma de manipulación de discursos, de votantes y de desinformación, puede usarse para la cosificación de la imagen femenina, el acoso cibernético o para montar pruebas falsas en una corte (Andino, 2025). Existen varios ejemplos en el ámbito puramente político internacional, por ejemplo, durante las elecciones en Francia en 2022, se publicó un video deepfake del presidente Emmanuel Macron, quien supuestamente habló sobre la inacción en relación con la guerra en Ucrania. Se han registrado incidentes similares en Estados Unidos en relación con Joe Biden y Donald Trump, así como en América Latina. Por lo tanto, se ha comprobado que la IA es una tecnología que se puede utilizar para reducir la confianza del público en los líderes y lideresas políticos y en la verdad de los discursos oficiales. Ahora bien, el 96% de los deepfakes creados en 2019 eran pornográficos y la abrumadora mayoría tenía como objetivo a mujeres. Incluso políticas como Sanna Marin, de Finlandia, y Kamala Harris, vicepresidenta de Estados Unidos, han sido blanco de manipulaciones digitales de sus imágenes para desacreditar su liderazgo. En países como España se puede ver que el uso de inteligencia artificial en la producción de imágenes en la política en los años 2022 y 2024 ha impactado fuertemente en la opinión pública e imagen de los políticos y postulantes a cargos, es así como la investigación exploratoria de Rojas (2024) engloba 19 casos en cuatros categorías: campañas políticas, medios de comunicación y sátira, comunicación institucional y desinformación. De esta forma se clasificó los casos en dos modalidades de análisis: el desarrollo de la IA en espacios tradicionales de campaña y en nuevos marcos de diálogo político digital. La creciente incorporación de la inteligencia artificial (IA) en los entornos digitales ha transformado profundamente las dinámicas sociales, económicas y políticas en todo el mundo. En particular, el desarrollo de tecnologías como los deepfakes —contenidos audiovisuales generados artificialmente— ha planteado nuevos desafíos en torno a la manipulación de la imagen personal y la desinformación en contextos electorales. La ausencia de marcos normativos específicos ha agravado la vulnerabilidad de los derechos personalísimos, como el derecho a la imagen, frente al uso no consentido de datos visuales y sonoros de figuras públicas. d) Comparativa Ecuador – España Esta problemática ha sido especialmente visible en países como Ecuador y España, donde entre 2022 y 2025 se han registrado múltiples casos de alteración de imagen política mediante IA, afectando tanto a candidatos oficiales como a líderes opositores. En este contexto, es importante examinar cómo estas prácticas dañan la integridad de los procesos democráticos, la confianza del público y los derechos humanos y civiles como se examina en este artículo. A través de una metodología cualitativa y un análisis documental sistemático, se buscó identificar patrones de uso de la IA en campañas, medios de comunicación y plataformas digitales, con el fin de proponer una reflexión crítica sobre la necesidad de regulaciones eficaces y éticas que garanticen la transparencia democrática en la era digital. Tabla 1 Presentación de acopio de casos de manipulación de propaganda electoral en España en el período 2023-2025. Nº Categoría Año Actor / Fuente Descripción resumida Propósito principal 1 Campaña electoral 2024 Ciudadanos Cartel con Sánchez y Puigdemont dándose la mano, generado con IA Manipulación / impacto visual 2 Campaña electoral 2023 Junts per Catalunya Video con deepfake de Sánchez desde la Moncloa Manipulación / contraste político 3 Campaña electoral 2023 Comuns Video comparando futuros con IA vs. “inteligencia colectiva” Creatividad / reflexión crítica 4 Campaña electoral 2023 Sumar Serie de videos “Michiplátano” con personajes animados IA Creatividad / viralización juvenil 5 Campaña electoral 2023 PSOE (Paco Cuenca) Cartel de campaña con retrato de IA Creatividad estética 6 Medio de comunica-ción 2023 El Mundo Portada con imagen simulada de Díaz e Iglesias juntos Creatividad / provocación mediática 7 Sátira digital 2022 United Unknown Gladiadores políticos con cuerpos musculosos generados con IA Sátira / crítica política 8 Sátira digital 2023 Iberian Son Videos humorísticos imitando a líderes políticos con IA Sátira / entretenimiento 9 Medio de comunicación 2023 ABC Imagen de Sánchez y Rajoy como raperos generados con IA Crítica / experimento ideológico 10 Sátira televisiva 2024 El Intermedio (La Sexta) Videos IA con rostros y voces manipuladas en tono humorístico Sátira televisiva 11 Comunicación institucional 2023 Nadia Calviño / Gobierno Selfi del equipo de gobierno como niños, con IA Humanización / cercanía 12 Comunicación institucional 2024 Israel Katz (Israel) Imagen de Sánchez y Díaz atacados con huevos, generada con IA Ataque político / provocación diplomática 13 Desinformación / redes sociales 2023 Ion Antolín (PSOE) Imagen de manifestantes agresivos frente a Ferraz, generada con IA Manipulación / estigmatización del adversario 14 Desinformación / redes sociales 2023 Partido Popular Imagen del gobierno de Sánchez con independentistas incluida por IA Manipulación / distorsión política Nota. Fuente: Rojas, (2024). En el ámbito electoral, los partidos políticos han experimentado los efectos de las imágenes generadas por IA, uno de los ejemplos se refiere al uso del deepfake en los carteles de ciudadanos, que dibujan un hiperrealista apretón de manos entre Pedro Sánchez y Carles Puigdemont, lo que visualmente apela al rechazo del independentismo. En otros casos, como los de Comuns y Sumar, la estética es lúdica o reflexiva, por un lado, intentando conectar con el electorado joven, poniendo sobre la mesa la discusión del papel de la IA en el marketing político, debido a que, en este caso, la tecnología se utiliza para crear no solo la confrontación sino también la innovación estética y discursiva. En el plano institucional, hay ejemplos de mayor uso que parecen ir más en un sentido simbólico o de marketing político. Por ejemplo, la vicepresidenta del gobierno español Nadia Calviño compartió una imagen alterada con IA que la mostraba a miembros del gobierno como niños, acompañado de un mensaje contra la necesidad de legislar sobre nuevas tecnologías. Aunque parece inofensivo, incluso en el campo oficial se investiga la IA con la idea de humanizar a los líderes y lideresas, suavizar sus discursos o hacerlos más cómodos con el voto. No obstante, también hubo ejemplos problemáticos: el ministro de asuntos exteriores de Israel usó una imagen con IA para atacar a España o enfatizar el riesgo de IA como arma política internacional. Sin embargo, esta es una realidad que también como se ha anticipado se replica en el Ecuador, como se muestra en la siguiente tabla comparativa con el caso español: Tabla 2. Presentación de acopio de casos de manipulación de propaganda en Ecuador dentro del período 2023-2025. Fecha Actor / Responsable Contenido Manipulado Tecnología Usada Objetivo Político Fuente / Verificación Dic. 2024 Anónimo Video con Fernando del Rincón (CNN) hablando contra RC y vinculándola al crimen Deepfake (imagen + voz) Desacreditar a la Revolución Ciudadana Verificado por AFP Ene. 2025 Anónimo Video con supuesta periodista de NTN24 acusando a Noboa de pagar por ir a posesión IA generativa Vincular a Noboa con corrupción internacional NTN24 desmintió Ene. 2025 Anónimo Video con Luisa González ofreciendo tarjeta “Así es” con beneficios sociales IA (voz e imagen) Manipular electorado / Phishing Verificado por EFE Ene. 2025 Anónimo Video de Trump acusando a Noboa de tráfico de droga en contenedores de banano Deepfake audiovisual Asociar a Noboa con narcotráfico Verificado por AFP Dic. 2024 Anónimo Video donde Noboa dice que se “pegará un tiro” si no se soluciona crisis energética IA (voz) Ridiculizar a Noboa Verificado por EFE Dic. 2024 Anónimo Imagen diciendo: “por decreto presidencial, los PPL ya no pueden votar” Imagen editada Generar rechazo contra Noboa Verificado por EFE Ene. 2025 Anónimo Video con Del Rincón y Verónica Abad hablando de pacto con González Deepfake (voz + imagen) Desinformar sobre alianzas No especificado Oct. 2023 Anónimo Video de Johanna Ramos (Teleamazonas) diciendo que la droga sale por puerto de Noboa Voz clonada Vincular a Noboa con narcotráfico Rechazado por Ramos Ene. 2025 Luis Tillería (candidato) Video con Tillería abrazando a “Dios” tras archivarse demanda en su contra IA animada / creativa Posicionarse como “elegido” ante denuncias TikTok Ene. 2025 Juan Iván Cueva (candidato) Video con González y Noboa IA en el mismo carro, culpados de dañar el país IA generativa Proyectarse como única alternativa viable TikTok Nota. Fuente: Plan V, (2025). En el caso del actual presidente y figura central del oficialismo, Daniel Noboa, el uso de IA ha buscado socavar su credibilidad a través de mensajes de montajes que lo vinculan con el narcotráfico, como el deepfake de Donald Trump o el video atribuido falsamente a Johanna Ramos, y la desinformación con el falso decreto que impedía votar a personas privadas de libertad (Rojas, 2024). Lo antes mencionado se da en un ataque orientado a la imagen de un liderazgo joven, moderno y pragmático, estos contenidos, incluso una vez desmentidos, dejan su rastro en el imaginario colectivo, en donde, con frecuencia, la sospecha persiste más allá del verificador (Plan V, 2025). En cambio, Luisa González, como la figura más importante de oposición correísta, fue objeto de manipulaciones que pretendían burlarse o caricaturizar su propuesta política, algunos ejemplos ya antes presentados son el caso de la tarjeta “así es”, donde su imagen y su voz fueron alteradas para prometer propuestas inexistentes, intentando desacreditar su postura frente a la justicia social al presentarla como “oportunista” o “demagoga” (Olivo, 2025). e) Implicaciones para integridad democrática La comparación entre España y Ecuador pone de manifiesto que, si bien las realidades políticas y mediáticas de los dos países tienen una serie de diferencias importantes, las dinámicas de la manipulación de la imagen política a través de la IA demuestran tener ciertos patrones en común que pueden ser analizados mediante los marcos conceptuales expuestos anteriormente. En este sentido, el fenómeno de la posverdad se manifiesta de manera similar en ambos contextos: las imágenes y videos manipulados no buscan solamente transmitir los datos, sino causar una reacción emocional que alimente sesgos ideológicos. En España, este fenómeno se refleja en los deepfakes y carteles hiperrealistas que tienden a invocar la polarización territorial o ideológica. Por ejemplo, el apretón de manos ficticio entre Sánchez y Puigdemont. Mientras tanto, en Ecuador, se manifiesta en discursos sobre vinculación de candidatos con corrupción, crimen organizado y demagogia, respectivamente, desde la perspectiva de su perfil político. Utilizando el marco de Wardle y Derakhshan (2017), se puede concluir que en ambos casos la desinformación es, en su mayoría, desinformación intencional, dado que la misma busca influir en elecciones. Sin embargo, en España, las narrativas falsas son usualmente distribuidas por partidos, medios y colectivos creativos a través de marcas de propaganda o contenido satírico y humorístico. Al contrario, en Ecuador fuentes identificadas, en su mayoría, son anónimas, con lo cual un factor de opacidad se suma, dificultando la atribución y responsabilización. En cualquier caso, la IA acelera la producción y multiplicación de los contenidos, sin dar tiempo para la verificación, que es necesaria en estos contextos. La teoría del framing de Entman explica cómo el encuadre narrativo difiere según el contexto político. En España, los frames suelen centrarse en la confrontación ideológica y en la ridiculización o exageración de atributos de líderes políticos, con un marcado componente de sátira. En Ecuador, en cambio, el encuadre tiende a ser más agresivo y dirigido a minar la legitimidad moral o la credibilidad de los candidatos, especialmente del presidente Noboa y la líder opositora Luisa González, lo que configura ataques personalizados que buscan erosionar la confianza ciudadana en su integridad. En definitiva, desde la perspectiva de la ética algorítmica, los dos casos presentados confirmaron la falta de marco regulatorio ético para la manipulación audiovisual por AI en el contexto de la elección. Son simétricos, si bien la asimetría aparece en el hecho de la capacidad institucional de respuesta: en el caso de España, a pesar de la falta de regulación, el marco legal en desarrollo y la discusión dentro del reglamento de la AI europea ya realizado. En el caso de Ecuador, la respuesta institucional es incipiente, fragmentada y no contiene un instrumento de sanción. Esta asimetría refleja no solo la brecha de regulación, sino también la necesidad de un planteamiento regional que establezca estándares intergubernamentales de transparencia, rastreo y responsabilidad para la manipulación de audiovisual con AI con fines políticos. Los resultados de este trabajo confirman la existencia del fenómeno de la posverdad, con base en la definición de McIntyre (2018) entendida como la subordinación deliberada de la verdad a las emociones y creencias individuales. Tanto los deepfakes como otras manipulaciones audiovisuales usadas en Ecuador y España no solo añaden su material gráfico como prueba de un argumento, sino que lo hacen buscando impactar emocionalmente y, con ello, fortalecer lo que ya se creía previamente. Así, la veracidad de los hechos objetiva queda subordinada a la efectividad de la persuasión, permitiendo un marco para que incluso los mensajes falsos consigan sobrevivir en la cultura. Además, es posible clasificar este fenómeno dentro de la tipología de desórdenes informativos (information disorder) propuesta por Wardle y Derakhshan (2017), la cual distingue tres categorías: - Misinformation: información falsa compartida sin intención de causar daño). - Disinformation: información falsa difundida deliberadamente para manipular o engañar); y, - Malinformation: información verídica utilizada fuera de contexto o con fines dañinos. Los casos documentados constituyen ejemplos de misinformation, pues incluyen tanto desinformación intencional como contenidos verdaderos descontextualizados. La inteligencia artificial amplifica este fenómeno al facilitar la producción y difusión de materiales de baja calidad, lo que distorsiona los procesos de verificación y mantiene la falsedad activa dentro del ecosistema digital. Según la teoría del framing de Entman, los deepfakes y otras alteraciones gráficas son estructuras de narración, específicamente en el contexto tratado en este trabajo, son marcos narrativos que dan forma a la percepción pública del liderazgo político. En otras palabras, la conexión gráfica de una figura con actividades delictivas, estereotipos negativos o características exageradas crea interpretaciones que se imponen al juicio ciudadano. Aunque, a posteriori, el contenido se desmiente, el marco creado en el informe inicial tiende a prevalecer, afectando la opinión pública de forma más significativa que la corrección. Los resultados confirman la urgencia de la llamada ética algorítmica de Floridi, que busca gestionar la tensión entre la innovación tecnológica y la protección de los derechos humanos fundamentales de las personas. El uso de IA para transformar la imagen de las personas en el contexto electoral pone de relieve la falta de salvaguardias eficaces que aborden los problemas de consentimiento, transparencia y responsabilidad. Esto plantea un problema legal, y al mismo tiempo una exigencia ética: la necesidad de promulgar una gobernanza tecnológica que no permita el uso indebido de las herramientas y las alinee sistemáticamente con los valores democráticos. Con lo antes señalado, se puede hacer un esbozo de las primeras conclusiones investigativas que atañen a que, en la actualidad, los medios de comunicación y colectivos de sátira digital como “El Mundo” o “El Intermedio” cuentan con la IA como una herramienta para polemizar y llamar la atención. Si bien estas imágenes no llegan implícitas en campañas electorales, su impacto en la esfera pública es aún mayor. Y constriñen creatividad, crítica y provocación, generan menos opinión y más líneas “opinables”, incidiendo en la construcción de narrativas políticas y la percepción de los actores públicos. La sátira visual que hace uso de la IA posee un potencial muy sugestivo sobre los límites entre arte, crítica política y desinformación. El aspecto que atañe a imágenes falsas o descontextualizadas con objetivos de desinformar tal vez sea el aspecto más preocupante de este fenómeno. Algún material, como el video en pareja del director de comunicación del PSOE, o montajes descriptivos publicitados por el Partido Popular, muestran un uso claramente manipulativo de la tecnología con imágenes producidas por IA como si fueran reales, sin ningún tipo de aviso ni contexto, la percepción pública se ve alterada; se viola la transparencia democrática. Sin embargo, ambos liderazgos comparten una vulnerabilidad común: la imposibilidad práctica del público de distinguir entre lo que es o no editado y real. En un entorno en el que la imagen es un campo de batalla de desinformación gráfica gracias a su impacto emocional en términos de persuasión, un ataque es siempre más efectivo que una refutación. Esto, a su vez, ha llevado tanto al oficialismo como a la oposición a desarrollar áreas como la verificación, la respuesta rápida y el control de daños de la reputación. Pero también ha puesto al descubierto la falta de reglamentación, en la que tales prácticas no llevan a consecuencias jurídicas o institucionales. En términos más amplios, el uso de la IA en la manipulación de imagen política en Ecuador apunta a un cambio en el campo de batalla electoral. La lucha no tiene lugar solo en los debates, las promesas o los mítines: los campos de batalla de la simulación digital son tan o más importantes. La credibilidad de los periodistas, los medios y las personalidades públicas es instrumentalizada en la mentira, estructura que pretende confundir deliberadamente al electorado y deslegitimar la democracia misma. CONCLUSIONES El uso de la inteligencia artificial en la manipulación de la imagen política es, por lo tanto, uno de los desafíos más apremiantes para la legitimidad de los procedimientos democráticos. A la luz de los casos ecuatorianos y españoles documentados, puede afirmarse que los deepfakes no solo distorsionan la percepción de candidatos y figuras de autoridad entre los miembros del público; crean, de manera constante, un ambiente en el que se socava la confianza de los ciudadanos en las instituciones, los medios de comunicación y la política como arena de argumentación. Para el caso ecuatoriano, mientras tanto, las figuras del presidente Daniel Noboa y la líder de la oposición, Luisa González, distan de atenerse a los preceptos de independencia judicial y publicidad. Este hecho denota la condición central de la imagen de estas figuras políticas y el uso de la IA con propósitos dirigidos a la “manipulación fotográfica” con pretexto de la desacreditación o ridiculización. En tal sentido, se ven burlados no solo su derecho a la imagen, sino también su derecho a participar en la vida política, su derecho a su propia identidad y su derecho a recibir información veraz, este último, siendo un derecho compartido o colectivo. Con base en los resultados obtenidos, se concluyó que la IA, utilizada para la creación de contenido falso, agudiza el peligro de manipulación electoral, desinformación en masa y polarización ideológica. La manipulación ágil y rápida de la imagen o el video sin habilidades avanzadas en informática asegura que este tipo de contenido sea aún más común y pierda su efectividad en un mundo saturado digitalmente donde la imagen tiene un poder abrumador. Así, esta exploración contribuyó a la literatura disponible al ordenar y confrontar incidentes de la vida real en dos sistemas nacionales, lo cual resultó en una percepción comparativa indicando que se necesita una regulación legal del empleo de IA en las elecciones de forma urgente. De igual manera, subrayó la necesidad de políticas públicas de alfabetización mediática y digital que permitan a los ciudadanos desarrollar una resiliencia operativa de estos despliegues manipulativos. Se consideró imprescindible avanzar hacia una gobernanza ética y responsable de las tecnologías emergentes, que articule marcos jurídicos, criterios técnicos y estándares internacionales de derechos humanos. En definitiva, este estudio evidenció la urgencia de avanzar hacia una gobernanza ética y responsable de las tecnologías emergentes, capaz de articular marcos jurídicos, criterios técnicos y estándares internacionales de derechos humanos. Al mismo tiempo, abre la puerta a nuevas líneas de investigación que profundicen en la percepción ciudadana frente a los deepfakes, la eficacia de las regulaciones nacionales e internacionales y el impacto diferenciado de estas tecnologías en distintos contextos sociopolíticos. Solo mediante este esfuerzo conjunto entre academia, legisladores y sociedad civil será posible proteger la imagen política como bien jurídico fundamental y garantizar procesos democráticos libres, transparentes y justos en la era digital. REFERENCIAS BIBLIOGRÁFICAS Alonso-González, M., y Sánchez-González, H. (2024). Inteligencia artificial en la verificación de la información política. Herramientas y tipología. Más Poder Local, 1(56), 27-45. https://doi.org/10.56151/maspoderlocal.215 Andino, B. (2025). Deepfake , cinismo y diversión en la crueldad: un caso de colegiales y pornografía en Ecuador. Revista de comunicación y cultura, (11), 20-25. http://hdl.handle.net/10644/10353 Cuihong, C., y Jiahui, Y. (2025). Cultural and Ethical Foundations of AI Governance . Política Internacional, 7(1), 215-233. https://doi.org/10.5281/zenodo.14473453 Dueñas, R., Ochoa, W., Ponce, Y., y Vargas, G. (2024). La antijuridicidad en el derecho penal: Conceptos, tipos y relevancia en el sistema jurídico. Lexenlace, 1(1), 1-9. http://revistalexenlace.com/index.php/ojs/article/view/1 Faicán, J. y Aguirre, M. (2024). Los derechos de imagen, honor y buen nombre frente al uso de las inteligencias tecnológicas artificiales [Tesis de grado, Universidad Católica de Cuenca]. Repositorio Institucional. https://dspace.ucacue.edu.ec/items/9a0647a6-e9fa-4fe6-b493-84fba730e523 Floridi, L., y Taddeo, M. (2016). What is Data Ethics? Philosophical Transactions of the Royal Society A, 374(2083). http://dx.doi.org/10.1098/rsta.2016.0360 García, J. (2023, 24 de noviembre). América Latina ante la inteligencia artificial: mapeo de iniciativas regulatorias en la región. Derechos Digitales. https://www.derechosdigitales.org/22881/america-latina-ante-la-inteligencia-artificial-mapeo-de-iniciativas-regulatorias-en-la-region/ Garrido, V. (2025). Impacts of the Artificial Intelligence on International Relations: Towards a Global Algorithms Governance. Revista UNISCI, 1(67). https://www.unisci.es/impacts-of-the-artificial-intelligence-on-international-relations-towards-a-global-algorithms-governance/ León, C. (2025). Crítica, desactualización y anonadamiento. Apuntes para pensar. Revista de Comunicación y Cultura ,(11). https://doi.org/10.32719/26312514.2025.11.1 McIntyre, Lee C. (2018). PostTruth. Cambridge, MA: The MIT Press. Medina, C. (2025). Robótica, Inteligencia Artificial y Derecho: Nuevas Dimensiones Jurídicas en el Siglo XXI. Ciencia Latina Revista Científica Multidisciplinar , 9(1), 9488-9513. https://doi.org/10.37811/cl_rcm.v9i1.16574 Murguía, J., de la Toba, C., Campos, S., Aramburo, L., y Díaz, G. (2025). Deepfake s: Revisión sistemática de tecnologías, impacto y estrategias de detección. RITI Jorunal , 13(29), 19-37. https://doi.org/10.36825/RITI.13.29.003 OCDE (2019, 13 de agosto). Los principios de Inteligencia Artificial de la OCDE. Datos.gob.ec. https://datos.gob.es/es/blog/los-principios-de-inteligencia-artificial-de-la-ocde Ojeda, K. (2024). La inteligencia artificial, un análisis desde el derecho comparado con España y Colombia. [Tesis de grado, Universidad de los Andes]. Repositorio Institucional. https://dspace.uniandes.edu.ec/handle/123456789/18532 Olivo, A. (2025, 11 de marzo). Campaña de ‘fake news’ en contra de Luisa González circula sin control en internet. Radio Pichincha. https://www.radiopichincha.com/campana-fake-news-luisa-gonzalez-internet/ Organización de las Naciones Unidas (2024, 10 de junio). ¿Puede la Inteligencia Artificial influenciar los procesos electorales? Organización de las Naciones Unidas. https://unric.org/es/peligros-y-beneficios-de-la-inteligencia-artificial-en-procesos-electorales/ Ortega, O., y Pericacho, F. (2025). La utilidad didáctica percibida del ChatGPT por parte del alumnado universitario. PICEL-BIT Revista de medios y educación, (72), 1-19. https://doi.org/10.12795/pixelbit.109778 Piedra, J. (2024). Democracias generativas: inteligencia artificial y manipulación en el siglo XXI. Trajectoires Humaines Transcontinentales, (18). https://doi.org/10.25965/trahs.6334 Plan V. (2025, 7 de abril). Los peores ‘fakes’ de la campaña: un falso informe de la DEA y videos trucados. Plan V. https://planv.com.ec/losconfidenciales/confidencialpolitica/peores-fakes-campana-elecciones-2025/ Quilligana, K. (2025). Narrativa digital: cómo las mujeres redefinen la política en redes sociales. [Tesis de grado, Universidad Técnica de Ambato]. Repositorio Institucional. https://repositorio.uta.edu.ec/items/eb1d1250-0e1c-449b-81fd-0ea046a8cc25 Rojas, A. (2024). Los usos de imágenes generadas con IA en la política española: entre la creatividad y la manipulación . Revista comunicación política , 6(1), 1- 26. https://doi.org/10.29105/rcp.v6i1.60 Sanz, A. (2025). El Reglamento Europeo de Inteligencia Artificial: análisis jurídico del uso de la biometría. [Tesis de grado, Universidad de Oviedo]. Repositorio Institucional. https://digibuo.uniovi.es/dspace/handle/10651/77211 Trujillo, C. (2024). El derecho a la propia imagen (y a la voz) frente a la inteligencia artificial . InDret, 1-40. https://indret.com/wp-content/uploads/2024/01/1841.pdf Ulloa, M. (2024, 1 de octubre). Avances en la regulación de la Inteligencia Artificial en América Latina. Observatorio de Riesgos catastróficos Globales: https://orcg.info/articulos/avances-en-la-regulacin-de-la-inteligencia-artificial-en-amrica-latina UNESCO (2023, 30 de agosto). Recomendación sobre la ética de la inteligencia artificial. UNESCO. https://www.unesco.org/es/articles/recomendacion-sobre-la-etica-de-la-inteligencia-artificial Vásquez, R. (2023, 28 de septiembre). Estos son los riesgos de usar la inteligencia artificial en los procesos electorales. Forbes México. https://forbes.com.mx/los-riesgos-de-la-inteligencia-artificial-en-los-procesos-electorales/ Wardle, C. y Derakhshan, H. (2017). Information Disorder: Toward an interdisciplinary framework for research and policy making. Council of Europe Report DGI(2017)09. Yela, P. (2024). Insuficiencia Normativa del derecho a la imagen en el contexto de la sociedad digital en Ecuador [Tesis de grado, Universidad Uniandes]. Repositorio Institucional. https://dspace.uniandes.edu.ec/handle/123456789/18818