Por Camilo Calderón / Andrés Martínez Zalamea
Introducción
El domingo 27 de julio de 2025, en el marco de la 13.ª edición del Festival Gabo, se realizó en Bogotá el taller ‘Códigos y relatos: inteligencia artificial en la producción audiovisual’. La cita reunió a periodistas, realizadores y estudiantes con un interés común: entender cómo la inteligencia artificial (IA) puede aportar, de manera práctica, en etapas centrales de la producción como la investigación, el guion, el montaje y la creación de imágenes.
Los encargados de dirigir la jornada fueron Jorge Caballero (Colombia) y Anna Giralt Gris (España), cofundadores de GusanoFilms y de la iniciativa Artefacto. Con ellos, los asistentes pasaron de explicaciones conceptuales a ejercicios prácticos y de allí a debates abiertos sobre los usos y límites de estas herramientas. Artefacto trabaja desde tres ejes: acercar el cine a la tecnología, desarrollar pedagogías de investigación y divulgación, y crear soluciones técnicas pensadas desde y para el audiovisual.
La idea central del taller fue desarmar los mitos alrededor de la IA. No se la presentó como una inteligencia general todopoderosa, sino como un conjunto de modelos y técnicas que cumplen funciones específicas. Bien elegida, una herramienta puede ahorrar tiempo, revelar patrones y abrir posibilidades creativas; mal usada, puede nublar el criterio humano o desplazar responsabilidades editoriales.
Los participantes llegaron con inquietudes muy concretas: identificar herramientas útiles para redacciones y rodajes, aprender a redactar instrucciones claras —los llamados prompts— y reflexionar sobre los límites éticos y riesgos editoriales. Los maestros insistieron en evitar posturas extremas: ni rechazo automático ni entusiasmo desmedido. La apuesta fue por una apropiación crítica, en la que la IA actúa como asistente para análisis, organización y exploración creativa, sin sustituir la voz autoral ni periodística.
El panorama internacional ayudó a dimensionar el tema: cada vez más festivales —SXSW, TIFF, IDFA, Visions du Réel, Rotterdam, Berlín, Locarno, Tribeca, Sundance, CPH:DOX, Hot Docs, Sheffield DocFest, Marché du Film Cannes, Sitges— exhiben obras apoyadas en IA. Y las colaboraciones con instituciones como ARTE, Runway AI, Hailuo AI, Hugging Face, OpenDocs, la Cinemateca de Bogotá, RTS Radio Télévision Suisse, el Goethe-Institut o la revista Caimán muestran que el cruce entre cine y algoritmos ya es un campo de exploración compartida.
Como primera conclusión, la IA aparece como un recurso eficaz para optimizar búsquedas, verificaciones y análisis de patrones narrativos y visuales, siempre que se use con responsabilidad. Los pilotos realizados al final —generación de imágenes fijas y en movimiento, seguidos de su evaluación colectiva— permitieron comprobar su potencial y discutir cómo ubicarla en la mesa de edición y en el set. Ese ejercicio abrió la puerta a pensar en la IA como un medio emergente con lenguajes propios.
Una “declaración IA” de cierre reforzó la mirada crítica: recordó que ningún sistema es neutral y que también debe considerarse la huella ambiental de su uso. El investigador Eryk Salvaggio, citado en la sesión, estima que producir mil imágenes en Midjourney (un generador de imágenes a partir de texto) equivale a 4,1 millas recorridas en coche o 35 litros de agua. Su propuesta es reducir impactos con resoluciones más bajas, reutilización de archivos y flujos híbridos que combinen IA con materiales de archivo.
Qué entendemos por “IA” en la mesa de edición y en el set
Los facilitadores propusieron distinguir entre dos grandes familias:
- IA discriminativa: la que entiende y clasifica. Sirve, por ejemplo, para detectar objetos en una escena o rastrear la frecuencia de aparición de un personaje en un guion.
- IA generativa: la que produce. Permite escribir un resumen, crear una imagen conceptual o generar un clip audiovisual a partir de instrucciones.
El contraste se volvió tangible con ejercicios concretos. Una prueba con YOLO (You Only Look Once, un modelo de visión computarizada especializado en detección de objetos en imágenes y video en tiempo real) permitió inventariar lo que aparecía en una escena con distintos niveles de confianza. En otro ejercicio, los participantes redactaron descripciones textuales para que un modelo generara imágenes: un simple cambio en las palabras transformaba por completo el resultado, lo que mostró la importancia de aprender a formular prompts.
De ahí surgió una idea clave: ningún modelo lo hace todo. Cada sistema resuelve un conjunto acotado de tareas y conviene elegir con precisión qué se le pide. La metáfora utilizada fue la del “complejoscopio”: una lente que ayuda a descubrir patrones y relaciones narrativas que normalmente pasan inadvertidos, como la recurrencia de ciertos temas o la distribución de voces en un relato.
El debate se conectó con el esqueumorfismo tecnológico, el fenómeno por el cual las nuevas tecnologías imitan prácticas conocidas antes de redefinirlas. Igual que los primeros automóviles parecían carruajes sin caballos o las primeras interfaces digitales copiaban escritorios y carpetas, la IA empieza replicando flujos familiares. Ya en 1985, un artículo del Hawaiian Tribune advertía con ironía que, “hasta que pueda lavar los platos, la computadora doméstica seguirá teniendo poco valor para las familias”. Aquella desconfianza reflejaba que, mientras una máquina no asumiera tareas reconocibles —como lavar platos o pasar la aspiradora—, su utilidad parecía dudosa. Con el tiempo, como sucedió con la fotografía y el cine, el verdadero salto llega cuando la tecnología deja de imitar y crea formas propias.
Los avances recientes en Big Data, redes neuronales y procesadores gráficos (GPUs) explican por qué la IA pasó de ser un campo experimental a convertirse en una herramienta cotidiana. Dichos componentes sostienen tanto el análisis discriminativo como la generación creativa, e influyen en la producción audiovisual.
Usos periodísticos y cinematográficos: análisis y relato
La inteligencia artificial abre nuevas posibilidades para leer y descomponer un guion o un metraje. Durante el taller, los participantes exploraron técnicas como el conteo de vocabulario, el seguimiento de verbos y adjetivos, el trazo de la evolución de los personajes y la visualización de los vínculos entre ellos. Estos ejercicios mostraron cómo un modelo de IA puede revelar la arquitectura de una historia en aspectos que a simple vista permanecen ocultos.
El trabajo con descripciones de imágenes —por ejemplo, distintas variaciones de una escena con un perro— permitió comprobar cómo pequeños cambios en el lenguaje producen transformaciones significativas en el resultado. Con ello quedó claro que la IA puede intervenir tanto en el análisis previo —al ayudar a identificar ritmos narrativos, puntos de giro o balances de voces— como en la puesta en escena, al sugerir visualizaciones alternativas que enriquecen el proceso creativo.
Un caso especialmente revelador fue el de Membrana. Jorge Carrión publicó esta novela en 2021 con una premisa singular: la narradora es una inteligencia artificial del año 2100 que redacta el catálogo del Museo del Siglo XXI. El resultado fue un texto entre lo poético y lo técnico, con tintes distópicos y especulativos. Al pensar en una adaptación audiovisual, Carrión consideró natural trabajar con IA real, en diálogo con los equipos de Anna Giralt Gris y Jorge Caballero. De esa colaboración nació un proyecto donde personajes como Karla Spinoza —madre de los “algoritmos catedral”— cobran cuerpo y rostro a través de sistemas generativos, y en el que guion, imagen, color y sonido se desarrollan con protocolos algorítmicos. El ejemplo evidenció cómo la IA puede integrarse en la puesta en escena sin suplantar la voz del autor, ofreciendo materiales y bocetos que expanden el lenguaje narrativo y replantean la colaboración entre humanos y máquinas.
En el terreno de los textos escritos, la IA puede funcionar como un “segundo ayudante” de edición: revisar consistencia, verificar referencias y vigilar el estilo. Eso sí, siempre bajo la mirada crítica y la supervisión de un editor humano.
Herramientas trabajadas: muestrario y usos
El taller no se quedó en la teoría. Los participantes exploraron un abanico de herramientas que hoy están marcando la pauta en el cruce entre IA y producción audiovisual.
- YOLO (You Only Look Once): un modelo de visión computarizada que detecta objetos en imágenes y video en tiempo real. Los facilitadores mostraron su uso en proyectos propios como Artefactos de Guerra, donde ha permitido inventariar elementos de una escena de manera rápida y con distintos niveles de confianza.
- Gemini: un modelo multimodal de Google capaz de trabajar con texto, imagen y datos combinados. En la práctica, resulta útil para investigar y sintetizar fuentes; sin embargo, cuando los materiales son sensibles, conviene usar versiones locales que garanticen privacidad.
- Midjourney: un generador de imágenes a partir de descripciones escritas, muy popular por la calidad estética de sus resultados.
- Runway: una plataforma diseñada para creadores audiovisuales que permite editar y generar video con IA, desde reemplazo de fondos hasta escenas completas.
- Veo 3: modelo especializado en la creación de video a partir de instrucciones textuales.
- DaVinci Resolve: un software profesional de posproducción que ahora integra funciones de IA para agilizar montaje, color y efectos.
El recorrido incluyó también distintas modalidades de trabajo con imágenes y video:
- Texto a imagen, como DALL·E o el propio Midjourney, que traducen descripciones en imágenes.
- Imagen a imagen, como Stable Diffusion, que permite transformar o variar una imagen ya existente.
- En video, se exploraron tres rutas: la animación cuadro a cuadro con Deforum, la interpolación de movimiento con RIFE, y los sistemas de texto a video como Sora (OpenAI) o Pika Labs, que generan clips completos a partir de descripciones.
Los facilitadores también compartieron comparativos entre distintos modelos de lenguaje —GPT-4, Gemini, Grok 3 y Claude—, explicando parámetros clave como el context window (la cantidad de texto que un modelo puede procesar de una vez), la temperatura (qué tan creativo o literal es en sus respuestas) y las penalizaciones (ajustes para evitar repeticiones). Estas referencias dieron a los participantes criterios prácticos para elegir la herramienta adecuada según el proyecto, equilibrando potencia, costo, privacidad y colaboración.
Modelos de lenguaje: cómo pedir y cómo evaluar
Una parte central del taller fue aprender a dar instrucciones claras a los modelos de lenguaje. No basta con escribir cualquier cosa en la caja de texto: la forma en que se formula el prompt (la instrucción) determina por completo la calidad de la respuesta.
Los facilitadores propusieron una fórmula sencilla con cuatro piezas: rol, tarea, contexto y formato. Es decir: asignar un papel a la IA (“actúa como editor de estilo”), definir lo que debe hacer (“corrige este párrafo”), dar información suficiente para orientarla (“el texto es un reportaje cultural para un público general”) y aclarar cómo debe entregar el resultado (“devuélvelo en párrafos de máximo cinco líneas”).
Para estructurar estos pedidos se sugirió inspirarse en el método SMART (Specific, Measurable, Achievable, Relevant, Time-bound): instrucciones específicas, medibles, realistas, relevantes y, cuando aplica, acotadas en el tiempo. En los ejercicios, los asistentes armaron prompts completos, revisaron los resultados, hicieron ajustes y repitieron el ciclo, comprobando que trabajar por iteraciones con revisión humana es más eficaz que esperar una respuesta perfecta al primer intento.
Entre las buenas prácticas que se compartieron destacan: dar contexto antes de pedir resultados, incluir ejemplos concretos, ser específico en tono, extensión y estructura. Entre los errores a evitar: instrucciones vagas (“hazlo mejor”), pedidos imposibles o sobrecargar de información irrelevante.
También se habló de la elección del modelo según la tarea. No es lo mismo pedirle a un sistema que redacte un texto creativo que confiarle datos sensibles. En casos de información altamente confidencial, conviene trabajar en entornos locales o controlados. Se mostró como ejemplo NotebookLM, un sistema que permite subir documentos propios y analizarlos con un modelo multimodal, combinando texto, tablas e imágenes en una misma búsqueda.
Finalmente, se abordó la cuestión de la detección de texto generado por IA. No existe un método infalible, pero hay señales que delatan la intervención algorítmica: frases repetitivas, giros grandilocuentes poco naturales (algunos ejemplos en inglés: “delve into”, “realm”, “pivotal”), exceso de conectores o un estilo demasiado uniforme.
Imagen y video con IA: posibilidades y límites
El taller también entró en el terreno visual, explorando cómo trabajan las principales rutas creativas de la IA. Los participantes experimentaron con procesos que van desde convertir un texto en imagen (caso de DALL·E o Midjourney), hasta generar un video a partir de imágenes o construirlo cuadro por cuadro, como en la animación tradicional. También se mostraron procesos híbridos, que mezclan varias técnicas en una misma pieza. Al comparar resultados entre plataformas, fue evidente que cada una tiene un estilo propio: unas ofrecen mayor precisión en la composición, otras privilegian el movimiento o la textura.
Las tendencias más visibles apuntan hacia hibridaciones estéticas, donde un mismo plano puede mezclar rasgos pictóricos y fotográficos, o hacia transiciones fluidas que conectan escenas sin cortes bruscos. Otra línea en expansión es la de las variaciones de escala, que permiten pasar de un detalle microscópico a un plano general sin perder continuidad. Estas exploraciones muestran cómo la IA está ampliando el lenguaje audiovisual más allá de los límites tradicionales.
Para aprovechar mejor estas herramientas, los facilitadores recomendaron pensar cada pedido como una “ficha técnica” del plano. Igual que un director describe a su equipo el encuadre, el sujeto, la acción, la composición, el tipo de lente, la textura o la iluminación, conviene detallar esos elementos en el prompt. Cuanto más clara sea la descripción, más control tendrá el creador sobre el resultado.
Los instructores sugirieron usar prompts universales —mencionar estilo, tipo de plano, atmósfera— y, cuando se necesita más precisión técnica, recurrir a estructuras JSON, un formato que permite indicar con exactitud parámetros de cámara, color o movimiento.
Los facilitadores y participantes concordaron en que la IA es un generador de bocetos y alternativas, pero no sustituye el trabajo de dirección. Sirve para ensayar estilos, probar atmósferas o encontrar soluciones visuales inesperadas, pero la decisión final y el sello artístico siguen estando en manos del equipo humano.
La reflexión sobre los límites expresivos se apoyó en referencias teóricas que ayudaron a darle contexto a los experimentos prácticos. Roland Barthes sirvió para pensar en la ambigüedad semántica de las imágenes, siempre abiertas a múltiples interpretaciones que los algoritmos no logran acotar del todo. Jean Baudrillard ofreció un marco para discutir la descontextualización, cuando la IA genera imágenes sin anclaje en la realidad. Y Maurice Merleau-Ponty permitió abordar la idea de una percepción desencarnada, en la que falta la experiencia corporal y sensible del creador humano.
Para mostrar que este debate no es nuevo, se trazó un puente con la écfrasis griega —la práctica de describir imágenes con palabras— y con la iconotextualidad moderna, que estudia cómo texto e imagen dialogan en una misma obra. Lo que cambia hoy es la velocidad: gracias a los prompts, esa interacción ocurre de manera inmediata y a gran escala.
Ética y riesgos: cómo cubrirse las espaldas
Más allá del entusiasmo creativo, el taller puso sobre la mesa los riesgos de trabajar con inteligencia artificial y las precauciones necesarias para no perder control ni credibilidad.
Uno de los temas centrales fueron las alucinaciones: respuestas inventadas por los modelos que suenan verosímiles, pero no tienen base en datos reales. Cualquier salida de la IA debe verificarse con fuentes externas antes de publicarse. Lo mismo ocurre con los sesgos, inevitables porque los modelos se entrenan con información proveniente de contextos culturales y políticos específicos. La única forma de reducir su impacto es mantener una lectura crítica de cada resultado.
La privacidad marcó otra línea de debate. No es lo mismo trabajar con herramientas locales que con servicios en la nube, donde los datos viajan a servidores externos. Cada equipo debe evaluar qué tan sensible es el material y decidir dónde correr el riesgo.
En el plano editorial, la palabra clave fue transparencia. Cualquier uso de IA en un reportaje, documental o pieza audiovisual debería explicarse al público: qué parte se produjo o procesó con algoritmos y por qué. Esa honestidad no solo protege al medio, sino que también fortalece la confianza de la audiencia.
La discusión se amplió al terreno laboral y legal. La Ley de Inteligencia Artificial (AI Act), aprobada en la Unión Europea en 2024, clasifica los usos de la IA por nivel de riesgo: permite aplicaciones creativas siempre que cuenten con consentimiento y estén claramente etiquetadas, pero prohíbe prácticas de manipulación subliminal o vigilancia emocional. Sin embargo, permanece sin resolver un punto crucial: la atribución autoral. ¿A quién pertenece un resultado generado con IA: al creador humano, al modelo, o a la empresa que lo gestiona?
Los costos energéticos también entraron en juego. Cada imagen o video generado tiene una huella de carbono y de agua, y se insistió en la necesidad de reducirla: usar resoluciones más bajas cuando sea posible, reutilizar materiales y mezclar técnicas híbridas.
En el plano laboral, los números fueron contundentes. Ya en 2013, los economistas de Oxford Carl Benedikt Frey y Michael Osborne publicaron el estudio The Future of Employment, donde advertían que hasta el 47% de los empleos podría correr riesgo de automatización. Una década más tarde, OpenAI (2023) calculó que los modelos de lenguaje afectan hasta el 80% de las tareas de un trabajador promedio. Sin embargo, un estudio de Michael Shinn y colegas de Stanford (2024) mostró que los llamados agentes autónomos —programas diseñados para ejecutar tareas complejas sin supervisión humana constante— fallan en el 76% de los intentos, lo que confirma que todavía no pueden sustituir a las personas. De fondo, el Foro Económico Mundial (2025) proyecta que, hacia 2030, el 39% de las habilidades laborales cambiará, lo que obliga a invertir en reskilling: la capacitación continua de profesionales para adaptarse a nuevas tareas.
La conversación también tocó la estética emergente del cine hecho con IA. Aparecen rasgos recurrentes: un gusto por el surrealismo, el zoom infinito que encadena planos sin cortes, atmósferas retro-nostálgicas y narrativas que se pliegan sobre sí mismas en clave meta. Ejemplos recientes en festivales incluyen Ancestra (Tribeca 2025), About a Hero (IDFA 2024) y May 9th, 1982 (FIDMarseille 2025).
De cara al futuro, los facilitadores señalaron varios retos: conseguir personajes consistentes en imagen y voz a lo largo de una obra; avanzar hacia narrativas multimodales que combinen texto, audio, video e interacción; evitar la concentración en monopolios infraestructurales que controlen todas las capas de la cadena creativa; garantizar la privacidad en sistemas de RAG (Retrieval-Augmented Generation, modelos que buscan datos externos para dar contexto); y superar el esqueuomorfismo tecnológico, esa tendencia de la IA a imitar formas ya conocidas en lugar de inventar lenguajes propios.
Consejos prácticos para redacciones y equipos
El taller dejó una serie de recomendaciones concretas para que periodistas, realizadores y editores puedan incorporar la IA en sus rutinas sin perder control creativo ni caer en riesgos legales o éticos. La idea no es sumar tecnología por moda, sino integrarla con criterio, sabiendo qué esperar de cada herramienta y cómo documentar su uso.
1. Definir el rol de la IA en cada etapa del proceso
La IA funciona mejor cuando tiene una tarea clara. En la investigación puede sintetizar fuentes o detectar patrones; en la escritura de guiones, ayudar a verificar consistencia; en la edición, cruzar información textual y visual; y en la posproducción, generar materiales de apoyo como bocetos o assets visuales. Es clave especificar desde el inicio el formato de salida esperado —listas, resúmenes, storyboards— para alinear expectativas y evitar sobrecarga. Dado que las herramientas evolucionan rápido, conviene actualizarse de manera continua: modelos como Gemini o Runway cambian mes a mes y solo producen buenos resultados si se usan con criterio humano.
2. Establecer guías internas de uso
Las redacciones que quieran trabajar con IA necesitan manuales propios: plantillas de “rol-tarea-contexto-formato”, checklists de prompts efectivos y ejemplos comparativos de solicitudes claras frente a ambiguas. Una guía básica puede incluir instrucciones del tipo: “actúa como editor periodístico”, con tareas delimitadas y formatos específicos de respuesta. Además, no se trata solo de técnica: antes de usar un modelo en proyectos comerciales, hay que verificar licencias y condiciones de uso para no exponerse a problemas de propiedad intelectual.
3. Diseñar pilotos pequeños y medibles
Antes de transformar por completo un flujo de trabajo, conviene empezar con proyectos acotados. ¿Qué tanto tiempo se ahorra? ¿Qué errores se evitan? ¿La narrativa gana en claridad? Estas métricas simples ayudan a evaluar el impacto real. La recomendación es presupuestar de forma realista, considerando tanto el costo de las herramientas como la capacitación del equipo, y consultar desde el inicio a asesores legales para despejar dudas sobre derechos de autor, contratos o datos sensibles.
4. Documentar cada decisión y priorizar la transparencia
Un uso responsable de la IA exige dejar huella: qué modelo se usó (GPT-4, Claude, etc.), con qué prompts, qué resultados produjo y qué decisiones editoriales se tomaron a partir de ello. Esa trazabilidad protege al equipo y facilita auditorías. Lo mismo aplica al consentimiento: clonar voces, imágenes o usar datos personales requiere autorización explícita. La transparencia es la última capa: etiquetar y comunicar cuándo un contenido se apoyó en IA no solo responde a normativas como el AI Act europeo, sino que refuerza la confianza del público.
Sobre Jorge Caballero
Es creador e investigador que trabaja en la intersección de la tecnología, el cine y el impacto social. Es Doctor, mención Cum Laude por la Universidad Pompeu Fabra. Investigando el cine y su convergencia con la Inteligencia Artificial. Máster en Medios Interactivos por la Universidad de Limerick. Ingeniero técnico de telecomunicaciones y Comunicador Audiovisual.
Como profesor asociado en la Universidad Pompeu Fabra y la Universitat Autònoma de Barcelona, lidera talleres que exploran la convergencia entre tecnología, cine y transformación social. Codirige el posgrado en Algoritmos de Cine e IA en la UAB, donde forma a la próxima generación de narradores en la era de la inteligencia artificial.
Caballero es cofundador de GusanoFilms y Artefacto, donde sus producciones se han proyectado y han recibido reconocimiento en festivales de prestigio como Rotterdam, HotDocs, SXSW, DocNYC, Guadalajara, Mar del Plata, BAFICI, o Visions Du Reel entre muchos otros. Su trabajo ha sido respaldado por el Sundance Institute, Tribeca Film Institute, con el apoyo de televisiones y plataformas como ARTE, Discovery Channel, TV3, entre muchas otras. Como director, ha sido galardonado en dos ocasiones con el Premio Nacional de Documental en Colombia.
Su investigación incluye colaboraciones con la ONU en proyectos de realidad virtual centrados en el proceso de paz en Colombia, y estudios innovadores sobre la capacidad del cine para inducir cambios comportamentales pro-sociales. Actualmente miembro del comité de selección del IDFA Bertha Fund.
Sobre Anna Giralt Gris
Anna Giralt como cofundadora y CEO de Artefacto está a la vanguardia de la producción de películas innovadoras y el desarrollo de nuevas iniciativas en medios, con un enfoque en aplicaciones cinematográficas y programas educativos impulsados por inteligencia artificial de vanguardia.
Es una reconocida cineasta, productora e investigadora, además de CEO y cofundadora de Artefacto, un centro de investigación, producción e innovación en cine y tecnología con sede en Barcelona.
Ha producido y dirigido películas y proyectos de nuevos medios que han sido seleccionados y premiados en festivales como IFFR, CPH:DOX, Visions du Réel, HotDocs, SXSW o IDFA, entre muchos otros. En 2018 fue seleccionada para el IDFA DocLab Academy y en 2019 para el Berlinale Talent Campus.
Anna también es coordinadora del posgrado “Cine, Algoritmos e Inteligencia Artificial” en la Universidad Autónoma de Barcelona y profesora asociada en la UPF. Ha colaborado con instituciones como el CCCB, la Fundación Foto Colectania, MediaLab Prado y Sónar+D, entre otras.
Es licenciada en Comunicación Audiovisual y tiene un Máster en Investigación en Comunicación por la Universidad Pompeu Fabra. Desde 2017 investiga el impacto de la inteligencia artificial en el cine, y sus presentaciones más recientes han tenido lugar en el Marché du Film de Cannes, Sheffield Doc Fest, Sunny Side of the Doc, el Instituto Goethe y la conferencia internacional Picture This, entre muchas otras.
Sobre el Festival Gabo
Con el lema ‘Vernos de cerca’, el Festival Gabo 2025 se celebró en múltiples escenarios de Bogotá, entre ellos el Gimnasio Moderno y las sedes de BibloRed. Este año reunió a más de 150 invitados de Iberoamérica y del mundo en más de 100 eventos organizados por la Fundación Gabo.
El Festival Gabo es posible gracias a Bancolombia, CAF – banco de desarrollo de América Latina y la Alcaldía de Bogotá a través de la Secretaría de Cultura y BibloRed.