Por Abel Flores
El siglo XXI tiene una constante: todos quieren una inteligencia artificial que los haga parecer más inteligentes. Y si los bancos centrales no eran suficientes templos de dogmas financieros, ahora también quieren convertirse en laboratorios de IA. La ortodoxia monetaria se está codeando con los algoritmos, y la Reserva Federal, el Banco Central Europeo y hasta el mismísimo Banco de México, ya le dan asiento a la inteligencia artificial en sus juntas de política económica.
El nuevo oráculo no es ni el oro ni el dólar: es el aprendizaje automático.
Según el reportaje del diario Reforma, más de 50 bancos centrales ya están implementando herramientas de IA para tareas que van desde la detección de fraudes hasta la vigilancia del sistema financiero, pasando por la predicción de riesgos, análisis de texto y modelado económico. El Fondo Monetario Internacional lo confirma: la IA ya no es un lujo experimental, sino un instrumento de gestión cotidiana.
Pero… ¿qué tipo de decisiones automatizadas están tomando estas entidades? ¿De verdad queremos un algoritmo afinando las tasas de interés que determinan la inflación, el crédito y el desempleo?
La imagen es grotesca, pero real: el Comité de Política Monetaria del Banco de Inglaterra ya utiliza grandes modelos de lenguaje como GPT para redactar discursos, analizar actas de reuniones y sintetizar tendencias económicas. ¿Será que un día no lejano el comunicado oficial no lo firme el gobernador, sino un prompt?
La IA no solo predice. Espía, rastrea, vigila y compara. El BCE la usa para analizar automáticamente riesgos en las carteras bancarias; en Hong Kong la aplican para descubrir movimientos financieros inusuales; y en Canadá para modelar inflación e inflación esperada. La multiplicación de datos y de variables hace imposible que un equipo humano pueda gestionarlo todo a tiempo. Pero los datos no son sabiduría.
Un sistema entrenado con sesgos históricos o bajo presiones políticas puede reforzar decisiones que afecten desproporcionadamente a ciertas poblaciones o sectores. ¿Qué pasa si el algoritmo decide que el alza de tasas no afecta al ciudadano promedio, pero sí “corrige” los mercados? ¿O si determina que un país emergente debe sufrir más ajuste fiscal para calmar a los inversores?
La pregunta no es si la IA puede ayudar, sino quién la programa, con qué datos y para qué intereses.
En el caso mexicano, Banxico ha comenzado a explorar modelos de IA para reforzar su labor analítica y estadística. También, como es típico, ha mostrado “cautela institucional”, eufemismo que en castellano se traduce como “vamos tarde, pero no lo digan fuerte”. En colaboración con la Universidad de Columbia, el banco central mexicano ya ha ensayado sistemas para la clasificación de noticias económicas y el análisis de emociones en textos financieros.
Aunque la noticia puede parecer positiva, no deja de levantar sospechas. ¿Acaso estos sistemas sustituirán la lectura crítica del contexto económico? ¿Se entrenará el algoritmo con columnas de economistas de café, declaraciones políticas o proyecciones desmentidas al mes siguiente? ¿Quién vigila al vigilante?
Una revolución silenciosa… y sin regulación
Más de la mitad de los bancos centrales del mundo han adoptado alguna forma de IA. Pero apenas un puñado tiene marcos regulatorios para su uso ético, su transparencia o su supervisión. En pocas palabras: los guardianes del dinero están jugando con fuego algorítmico sin extintores a la vista.
Y no es exageración: el mismo Banco de Pagos Internacionales (BIS) ha advertido que la falta de reglas claras puede derivar en dependencias peligrosas, errores amplificados o manipulaciones sofisticadas. En otras palabras, la IA puede volverse un riesgo sistémico si no se controla su uso con el mismo celo con el que se controlan los flujos de capital.
La inteligencia artificial llegó para quedarse. Pero no toda inteligencia es sabia, y no todo sistema que predice acierta. Los bancos centrales están sumergiéndose en un océano de datos, pero podrían olvidar que nadar en números no garantiza llegar a la orilla del buen juicio.
“El que controla los algoritmos, controla la percepción; y el que controla la percepción, manipula la economía”, decía un viejo banquero anónimo en un foro de Davos. Pero hoy ni eso es necesario: basta con que un modelo automático diga “ajuste”, y todo el sistema responde.
¿Estamos a las puertas de una nueva tecnocracia financiera? O peor aún: ¿de un despotismo ilustrado por inteligencia artificial?
“Los bancos centrales ahora creen en la IA. Pero la IA no cree en los bancos centrales”
La era en que la política monetaria se redacta con algoritmos y no con pensamiento
Alguna vez se creyó que los bancos centrales eran el último bastión de lo humano: decisiones complejas, matizadas, sostenidas en la sabiduría de los datos… pero también en la intuición, la experiencia y el juicio. Esa época terminó. Bienvenidos al siglo donde los discursos los redacta un robot y la estabilidad financiera se mide con “sentimientos” calculados por una red neuronal.
Hoy, bancos como el de Inglaterra, Canadá, Japón o México, dejaron de leer a Keynes o a Milton Friedman. Ahora leen prompts. Y el culto tecnocrático se rindió ante el nuevo dios: la Inteligencia Artificial.
Según el informe de Reforma, más de 50 bancos centrales han adoptado IA para tareas que van desde el análisis de actas y discursos públicos, hasta la detección de fraudes y la predicción de crisis. La Reserva Federal, el BCE, el Banco de Japón y Banxico no solo la usan: la están institucionalizando.
¿La novedad? La IA ya no es un “experimento de laboratorio”. Es una voz más —silenciosa pero dominante— en la mesa donde se decide cuánto valdrá tu dinero, tu crédito y tus ahorros.
Los ejemplos son inquietantes:
- El Banco de Inglaterra ya redacta documentos internos y discursos públicos con modelos GPT.
- El Banco Central Europeo analiza emociones del mercado con minería de texto.
- Canadá modela la inflación futura con aprendizaje automático.
- México, con ayuda de la Universidad de Columbia, entrena algoritmos para clasificar noticias económicas y evaluar su impacto.
Sí, la misma IA que te recomienda videos de gatitos, ahora te dice si habrá recesión o si subirá la tasa de interés.
El argumento es seductor: la IA puede procesar millones de datos que el ojo humano jamás abarcaría. Pero eso no la hace sabia. Tampoco justa. Una IA mal entrenada, sesgada o manipulada puede sugerir una política monetaria igual de catastrófica que la de un banquero incompetente. Solo que con mejor gramática.
El BIS (Banco de Pagos Internacionales) ya advirtió lo obvio: “el uso indiscriminado de IA puede amplificar errores, generar riesgos sistémicos y desdibujar responsabilidades”. ¿Quién decide si una predicción fue correcta? ¿Quién asume el costo si el algoritmo falla? ¿Quién revisa el sesgo de los datos?
Spoiler: nadie. Porque el dogma tecnológico también ha reemplazado la autocrítica.
En el caso mexicano, el Banco de México coquetea con la IA, pero desde su usual lugar de rezago institucional. No lidera, observa. No innova, imita. Y como siempre, llega tarde a la fiesta… y sin regalo.
¿En qué se traduce esto? Modelos que analizan titulares de prensa, que evalúan emociones de mercado y que predicen inflación a partir de “big data” emocional. Un oxímoron disfrazado de modernidad.
Pero si el algoritmo decide que “el mercado está nervioso”, ¿quién se pone nervioso? ¿El algoritmo, los banqueros o nosotros, los humanos del otro lado del mostrador?
La gran paradoja de esta historia no es que los bancos centrales usen IA. La paradoja es que nadie regula su uso. Más de la mitad de las autoridades monetarias del planeta ya adoptan estas tecnologías, pero solo unas pocas cuentan con marcos éticos, de supervisión o protocolos de error.
Es decir, los arquitectos del dinero están montando un nuevo sistema sin planos, sin reglas y sin supervisores. Una máquina puede vigilar otra, sí. Pero ninguna máquina puede asumir responsabilidad moral.
En resumen: se está delegando poder sin delegar consecuencias.