La inteligencia artificial ya impacta campañas en Ecuador y pone a prueba su capacidad de control

La inteligencia artificial dejó de ser una amenaza futura para la conversación pública en Ecuador. Durante el proceso electoral reciente, su uso en la difusión de contenidos manipulados evidenció que el riesgo ya no es hipotético, sino una realidad que puede incidir en la percepción ciudadana en momentos decisivos.

Desde una perspectiva de ciberseguridad, este fenómeno trasciende la comunicación política y se instala como un problema de integridad informativa. La capacidad de producir y difundir contenidos alterados a gran escala, con niveles crecientes de realismo, introduce tensiones en la confianza pública y en la forma en que los ciudadanos consumen información. El desafío no radica únicamente en la existencia de contenido falso, sino en la velocidad con la que este circula y en su capacidad de influir antes de ser verificado.

En el caso ecuatoriano, ya se han dado pasos para enfrentar este escenario. El fortalecimiento de herramientas de monitoreo y la incorporación de inteligencia artificial para identificar desinformación reflejan una creciente conciencia institucional frente al problema. Sin embargo, estos avances conviven con limitaciones estructurales. Persisten brechas en el control de la propaganda digital y en la capacidad de supervisar de manera integral el ecosistema de redes sociales, donde se concentra gran parte de la conversación pública.

Este desfase entre la velocidad de la manipulación digital y la capacidad de respuesta institucional revela un punto crítico. La desinformación no opera únicamente a través de piezas altamente sofisticadas. En muchos casos, basta un contenido editado, una imagen fuera de contexto o un formato que imite a un medio para generar impacto. El riesgo, por tanto, no está solo en la tecnología utilizada, sino en la eficacia con la que estos contenidos logran insertarse en la conversación pública y moldear percepciones.

Para Juan Fernando López, docente de la Escuela de Ciencias de la Computación de la Universidad Internacional del Ecuador (UIDE), el desafío central no es frenar la tecnología, sino comprender su alcance. Desde su análisis, la inteligencia artificial también puede convertirse en una herramienta clave para fortalecer procesos de monitoreo, identificación de patrones y verificación de contenidos, siempre que su uso se articule con marcos éticos y capacidades técnicas adecuadas.

En este escenario, la pregunta de fondo no es si el país ha sido expuesto a campañas con inteligencia artificial, sino si cuenta con las condiciones necesarias para detectarlas, verificarlas y contenerlas a tiempo. Los avances institucionales muestran una dirección clara, pero las limitaciones evidencian que aún no existe una respuesta plenamente robusta frente a dinámicas de desinformación cada vez más complejas.

A este desafío se suma un elemento determinante: el rol del ciudadano. La expansión de contenidos manipulados no depende únicamente de su creación, sino de su circulación. En un entorno digital donde la velocidad prima sobre la verificación, las decisiones individuales adquieren un peso significativo en la amplificación de la desinformación.

En este contexto, prácticas básicas como verificar la fuente, revisar la fecha, contrastar la información y analizar la evidencia se convierten en herramientas fundamentales. Más que un conocimiento técnico especializado, lo que se requiere es una cultura de verificación capaz de frenar la difusión de contenidos dudosos antes de que se consoliden como verdad.

López sostiene que, en un entorno atravesado por la inteligencia artificial, la principal barrera frente a la desinformación sigue siendo humana. La capacidad de cuestionar, contrastar y reflexionar antes de compartir información se posiciona como un elemento clave para sostener la calidad del debate público.

En un país donde la digitalización continúa avanzando, la discusión sobre inteligencia artificial y desinformación no puede limitarse a lo tecnológico. Se trata, en última instancia, de un desafío que pone a prueba la solidez institucional, la responsabilidad de las plataformas y, sobre todo, la capacidad de la ciudadanía para ejercer un consumo crítico de la información. Porque en la era de la inteligencia artificial, la diferencia entre lo verdadero y lo falso no siempre está en la tecnología, sino en la decisión de detenerse a verificar antes de creer.

Bibliografía

Consejo Nacional Electoral. (2024, 10 de septiembre). CNE y PNUD presentan herramienta de combate a la desinformación y clausuran talleres Botas Violeta. https://www.cne.gob.ec/cne-y-pnud-presentan-herramienta-de-combate-a-la-desinformacion-y-clausuran-talleres-botas-violeta/

Organización de los Estados Americanos. (2025, 15 de abril). Informe preliminar de la Misión de Observación Electoral de la OEA en Ecuador para la segunda vuelta de las elecciones presidenciales. https://www.oas.org/fpdb/press/2025_MOE_Ecuador_Segunda_Vuelta_Preliminar_ESP.pdf

Programa de las Naciones Unidas para el Desarrollo. (2024, 30 de agosto). PNUD continúa la asistencia para el fortalecimiento las capacidades del CNE para combatir la desinformación en procesos electorales. https://www.undp.org/es/ecuador/noticias/pnud-continua-la-asistencia-para-el-fortalecimiento-las-capacidades-del-cne-para-combatir-la-desinformacion-en-procesos-electorales

Programa de las Naciones Unidas para el Desarrollo, & UNESCO. (2025, 19 de mayo). Freedom of expression, artificial intelligence and elections. https://www.undp.org/publications/freedom-expression-artificial-intelligence-and-elections

World Health Organization. (2020, 21 de octubre). Let’s flatten the infodemic curve. https://www.who.int/news-room/spotlight/let-s-flatten-the-infodemic-curve

World Health Organization. (s. f.). How to report misinformation online. https://www.who.int/campaigns/connecting-the-world-to-combat-coronavirus/how-to-report-misinformation-online

Uploaded Image

darwindws Spotify

Radio Zaracay