El nuevo gasto fuera de control en las empresas: así nació el FinOps para IA
Lo que parece un caso aislado de Silicon Valley es, en realidad, una advertencia directa para la banca mexicana: sin disciplina financiera, la inteligencia artificial se vuelve ingobernable.
Las opiniones expresadas por los colaboradores de Entrepreneur son personales.
Conclusiones Clave
- La IA generativa no funciona como el SaaS tradicional: opera por consumo de tokens, inferencia y GPU, lo que convierte un piloto aparentemente accesible en una línea de gasto capaz de crecer más rápido que cualquier presupuesto.
- FinOps para IA es la metodología que busca crear visibilidad compartida entre tecnología y finanzas para controlar, optimizar y gobernar el costo real de operar inteligencia artificial a escala dentro de las organizaciones.
- Para fintech y bancos medianos en México, el riesgo no es solo gastar más de lo esperado, sino construir productos financieramente inviables una vez que escalen.
Cuatro meses fueron suficientes para que Uber Technologies consumiera el presupuesto anual que había destinado a inteligencia artificial (IA) para 2026. Y no ocurrió por una adquisición fallida ni por una expansión agresiva, sino por algo que parecía completamente positivo: miles de ingenieros utilizando herramientas de coding asistido y copilots de IA para acelerar desarrollo y automatizar tareas.
Conforme el uso interno creció, también lo hicieron los costos asociados al consumo de modelos, inferencia y procesamiento, hasta llevar el gasto de investigación y desarrollo a niveles cercanos a los $3,400 millones de dólares mucho antes de lo previsto. Lo verdaderamente relevante no es solo la cifra, sino lo que revela: la inteligencia artificial ya comenzó a comportarse como una nueva categoría de gasto operativo capaz de crecer más rápido que la capacidad de muchas empresas para controlarla.
Relacionado: Mientras avanza la ola de la IA, directivos prevén cerrar proyectos que no cumplan las expectativas
La noticia circuló como otra historia más de Silicon Valley, pero el verdadero problema no está en California, sino aquí, en los bancos mexicanos que hoy liberan copilots internos sin métricas claras de consumo y en las fintech que ya integran modelos generativos en onboarding, atención al cliente o prevención de fraude sin entender todavía el costo real de operar esas capacidades a escala.
A eso se suman las SOFIPOs que siguen pensando que el mayor riesgo de la IA está únicamente en la regulación o la ciberseguridad, cuando el primer golpe podría venir directamente desde finanzas.
Durante los últimos dos años, el mensaje dominante en la industria tecnológica fue prácticamente el mismo: adoptar inteligencia artificial rápido o quedarse atrás. El mercado comenzó a premiar velocidad, experimentación y despliegues agresivos, mientras equipos enteros operaban bajo la lógica del AI First impulsados por proveedores como OpenAI, Anthropic y Google Cloud, que empujaban modelos cada vez más poderosos y accesibles. La conversación giraba alrededor de productividad, automatización y eficiencia, pero casi nadie se detuvo a discutir el costo estructural de mantener esa promesa funcionando todos los días.
Relacionado: Todo el mundo quiere crear llamativas herramientas de IA — pero aquí es donde realmente está el dinero
IA generativa y retos para la industria financiera
Ahí es donde comienza el verdadero problema para la industria financiera, porque la IA generativa no se comporta como el SaaS tradicional ni opera bajo una lógica de licencias estables y presupuestos relativamente predecibles. Su modelo funciona por consumo: tokens, inferencia, uso de GPU, ventanas de contexto más largas y modelos cada vez más demandantes computacionalmente. En consecuencia, lo que dentro de una presentación ejecutiva parecía un piloto accesible o un experimento de bajo costo puede transformarse rápidamente en una línea de gasto capaz de competir con infraestructura core, nube o incluso nómina altamente especializada.
Diversos proyectos de IA generativa están enfrentando dificultades para avanzar más allá de la fase de prueba de concepto debido a problemas relacionados con costos elevados, mala calidad de datos, controles de riesgo insuficientes o la falta de un retorno claro de inversión.
Al mismo tiempo, comenzó a posicionarse formalmente el concepto de AI FinOps como la siguiente evolución del gobierno financiero en tecnología, reflejando un cambio importante dentro de la industria: el reto ya no consiste únicamente en implementar IA, sino en lograr que sea económicamente sostenible conforme escala dentro de las organizaciones.
La moraleja del caso Uber no es que la inteligencia artificial sea demasiado cara. El verdadero aprendizaje es otro: sin disciplina financiera, la IA se vuelve ingobernable y esa es precisamente la categoría que FinOps para IA busca resolver.
Relacionado: SLMs: el principio del fin de la IA genérica (y el inicio de modelos más eficientes)
¿Qué busca FinOps?
FinOps nació originalmente como una metodología para controlar y optimizar el gasto en nube. Su lógica era relativamente sencilla: crear visibilidad compartida entre tecnología y finanzas para entender quién consume recursos, cuánto cuestan y cómo optimizarlos continuamente. Con IA, esa conversación se vuelve mucho más compleja porque cada decisión técnica impacta directamente en el costo operativo del negocio.
El modelo elegido, la longitud de los prompts, la frecuencia de llamadas, el tipo de inferencia, el fine tuning e incluso la arquitectura de agentes pueden modificar radicalmente la factura mensual de una organización. En ese contexto, ya no se trata únicamente de administrar servidores, nube o almacenamiento, sino de aprender a gobernar economías completas construidas alrededor del consumo algorítmico. El problema es que la velocidad de adopción está creciendo tan rápido que el salto entre un “experimento interno” y una nueva partida estratégica de gasto puede ocurrir en apenas un trimestre, muchas veces antes de que las áreas financieras dimensionen realmente el impacto operativo de esa escalabilidad.
¿Cómo se ve el panorama para la banca en México?
El problema para la banca mexicana es que muchas organizaciones todavía están operando IA desde la lógica de innovación y no desde la lógica de rentabilidad. La conversación sigue enfocada en capacidades: asistentes virtuales, automatización documental, modelos antifraude o experiencia de usuario. Muy pocos están discutiendo métricas como costo por transacción enriquecida, costo por ticket resuelto vía IA, costo por línea útil de código generada o margen operativo real de productos intensivos en modelos generativos.
Ahí es donde comienza a aparecer una segunda ola de riesgo todavía más peligrosa que el shock inicial de presupuesto, porque el verdadero desafío será operar negocios cuyo costo marginal dependa cada vez más de infraestructura de inteligencia artificial controlada por terceros. Cada nueva funcionalidad construida sobre modelos externos incrementa la dependencia tecnológica, reduce capacidad de negociación frente a proveedores y comienza a presionar márgenes en industrias donde la rentabilidad ya opera bajo tensión constante. Lo delicado es que muchas organizaciones todavía están escalando estas capacidades sin dimensionar el impacto financiero de sostenerlas en el largo plazo.
Para las fintech y bancos medianos en México, el riesgo no es solo gastar más de lo esperado. El riesgo es construir productos financieramente inviables una vez que escalen. Muchas soluciones parecen sostenibles mientras operan con pocos usuarios. El problema emerge cuando el volumen crece y el costo por inferencia comienza a erosionar las unit economics silenciosamente.
Por eso FinOps para IA dejó de ser opcional. Ya no se trata únicamente de un tema técnico ni de otro buzzword impulsado por consultoras, sino de una capacidad estratégica que permitirá decidir qué casos de uso realmente pueden escalar, cuáles necesitan rediseñarse y cuáles simplemente no tienen sentido económico. En el fondo, se está convirtiendo en el puente entre la euforia tecnológica y la realidad financiera de las empresas.
La pregunta crítica para cualquier CEO, CFO o CIO ya no es si su organización utiliza inteligencia artificial, sino algo mucho más incómodo: si alguien dentro de la empresa tiene realmente visibilidad granular y en tiempo real del costo operativo que implica mantener esa IA funcionando todos los días.
Si hoy una institución financiera no puede generar en menos de 72 horas un reporte detallado de gasto por proveedor, área, modelo y caso de uso, entonces ya existe un problema de gobierno tecnológico y, probablemente, también un riesgo financiero incubándose en silencio dentro de la organización.
La conversación sobre IA en México está entrando a una nueva etapa. La primera estuvo marcada por la velocidad de adopción y la urgencia de no quedarse atrás; la siguiente estará definida por sostenibilidad económica, eficiencia operativa y capacidad real de controlar el costo de escalar estas tecnologías. Las organizaciones que logren entender eso antes que el resto no necesariamente serán las que tengan más modelos o más pilotos de IA, sino las que aprendan primero a operar inteligencia artificial con verdadera disciplina financiera.
Porque, al final, el desafío no será quién adoptó IA más rápido, sino quién logró convertirla en una ventaja sostenible sin comprometer márgenes, rentabilidad ni capacidad de crecimiento. Esa diferencia probablemente marcará a los líderes de la próxima década financiera.
Conclusiones Clave
- La IA generativa no funciona como el SaaS tradicional: opera por consumo de tokens, inferencia y GPU, lo que convierte un piloto aparentemente accesible en una línea de gasto capaz de crecer más rápido que cualquier presupuesto.
- FinOps para IA es la metodología que busca crear visibilidad compartida entre tecnología y finanzas para controlar, optimizar y gobernar el costo real de operar inteligencia artificial a escala dentro de las organizaciones.
- Para fintech y bancos medianos en México, el riesgo no es solo gastar más de lo esperado, sino construir productos financieramente inviables una vez que escalen.
Cuatro meses fueron suficientes para que Uber Technologies consumiera el presupuesto anual que había destinado a inteligencia artificial (IA) para 2026. Y no ocurrió por una adquisición fallida ni por una expansión agresiva, sino por algo que parecía completamente positivo: miles de ingenieros utilizando herramientas de coding asistido y copilots de IA para acelerar desarrollo y automatizar tareas.
Conforme el uso interno creció, también lo hicieron los costos asociados al consumo de modelos, inferencia y procesamiento, hasta llevar el gasto de investigación y desarrollo a niveles cercanos a los $3,400 millones de dólares mucho antes de lo previsto. Lo verdaderamente relevante no es solo la cifra, sino lo que revela: la inteligencia artificial ya comenzó a comportarse como una nueva categoría de gasto operativo capaz de crecer más rápido que la capacidad de muchas empresas para controlarla.
Relacionado: Mientras avanza la ola de la IA, directivos prevén cerrar proyectos que no cumplan las expectativas
La noticia circuló como otra historia más de Silicon Valley, pero el verdadero problema no está en California, sino aquí, en los bancos mexicanos que hoy liberan copilots internos sin métricas claras de consumo y en las fintech que ya integran modelos generativos en onboarding, atención al cliente o prevención de fraude sin entender todavía el costo real de operar esas capacidades a escala.
A eso se suman las SOFIPOs que siguen pensando que el mayor riesgo de la IA está únicamente en la regulación o la ciberseguridad, cuando el primer golpe podría venir directamente desde finanzas.
Durante los últimos dos años, el mensaje dominante en la industria tecnológica fue prácticamente el mismo: adoptar inteligencia artificial rápido o quedarse atrás. El mercado comenzó a premiar velocidad, experimentación y despliegues agresivos, mientras equipos enteros operaban bajo la lógica del AI First impulsados por proveedores como OpenAI, Anthropic y Google Cloud, que empujaban modelos cada vez más poderosos y accesibles. La conversación giraba alrededor de productividad, automatización y eficiencia, pero casi nadie se detuvo a discutir el costo estructural de mantener esa promesa funcionando todos los días.
Relacionado: Todo el mundo quiere crear llamativas herramientas de IA — pero aquí es donde realmente está el dinero
IA generativa y retos para la industria financiera
Ahí es donde comienza el verdadero problema para la industria financiera, porque la IA generativa no se comporta como el SaaS tradicional ni opera bajo una lógica de licencias estables y presupuestos relativamente predecibles. Su modelo funciona por consumo: tokens, inferencia, uso de GPU, ventanas de contexto más largas y modelos cada vez más demandantes computacionalmente. En consecuencia, lo que dentro de una presentación ejecutiva parecía un piloto accesible o un experimento de bajo costo puede transformarse rápidamente en una línea de gasto capaz de competir con infraestructura core, nube o incluso nómina altamente especializada.
Diversos proyectos de IA generativa están enfrentando dificultades para avanzar más allá de la fase de prueba de concepto debido a problemas relacionados con costos elevados, mala calidad de datos, controles de riesgo insuficientes o la falta de un retorno claro de inversión.
Al mismo tiempo, comenzó a posicionarse formalmente el concepto de AI FinOps como la siguiente evolución del gobierno financiero en tecnología, reflejando un cambio importante dentro de la industria: el reto ya no consiste únicamente en implementar IA, sino en lograr que sea económicamente sostenible conforme escala dentro de las organizaciones.
La moraleja del caso Uber no es que la inteligencia artificial sea demasiado cara. El verdadero aprendizaje es otro: sin disciplina financiera, la IA se vuelve ingobernable y esa es precisamente la categoría que FinOps para IA busca resolver.
Relacionado: SLMs: el principio del fin de la IA genérica (y el inicio de modelos más eficientes)
¿Qué busca FinOps?
FinOps nació originalmente como una metodología para controlar y optimizar el gasto en nube. Su lógica era relativamente sencilla: crear visibilidad compartida entre tecnología y finanzas para entender quién consume recursos, cuánto cuestan y cómo optimizarlos continuamente. Con IA, esa conversación se vuelve mucho más compleja porque cada decisión técnica impacta directamente en el costo operativo del negocio.
El modelo elegido, la longitud de los prompts, la frecuencia de llamadas, el tipo de inferencia, el fine tuning e incluso la arquitectura de agentes pueden modificar radicalmente la factura mensual de una organización. En ese contexto, ya no se trata únicamente de administrar servidores, nube o almacenamiento, sino de aprender a gobernar economías completas construidas alrededor del consumo algorítmico. El problema es que la velocidad de adopción está creciendo tan rápido que el salto entre un “experimento interno” y una nueva partida estratégica de gasto puede ocurrir en apenas un trimestre, muchas veces antes de que las áreas financieras dimensionen realmente el impacto operativo de esa escalabilidad.
¿Cómo se ve el panorama para la banca en México?
El problema para la banca mexicana es que muchas organizaciones todavía están operando IA desde la lógica de innovación y no desde la lógica de rentabilidad. La conversación sigue enfocada en capacidades: asistentes virtuales, automatización documental, modelos antifraude o experiencia de usuario. Muy pocos están discutiendo métricas como costo por transacción enriquecida, costo por ticket resuelto vía IA, costo por línea útil de código generada o margen operativo real de productos intensivos en modelos generativos.
Ahí es donde comienza a aparecer una segunda ola de riesgo todavía más peligrosa que el shock inicial de presupuesto, porque el verdadero desafío será operar negocios cuyo costo marginal dependa cada vez más de infraestructura de inteligencia artificial controlada por terceros. Cada nueva funcionalidad construida sobre modelos externos incrementa la dependencia tecnológica, reduce capacidad de negociación frente a proveedores y comienza a presionar márgenes en industrias donde la rentabilidad ya opera bajo tensión constante. Lo delicado es que muchas organizaciones todavía están escalando estas capacidades sin dimensionar el impacto financiero de sostenerlas en el largo plazo.
Para las fintech y bancos medianos en México, el riesgo no es solo gastar más de lo esperado. El riesgo es construir productos financieramente inviables una vez que escalen. Muchas soluciones parecen sostenibles mientras operan con pocos usuarios. El problema emerge cuando el volumen crece y el costo por inferencia comienza a erosionar las unit economics silenciosamente.
Por eso FinOps para IA dejó de ser opcional. Ya no se trata únicamente de un tema técnico ni de otro buzzword impulsado por consultoras, sino de una capacidad estratégica que permitirá decidir qué casos de uso realmente pueden escalar, cuáles necesitan rediseñarse y cuáles simplemente no tienen sentido económico. En el fondo, se está convirtiendo en el puente entre la euforia tecnológica y la realidad financiera de las empresas.
La pregunta crítica para cualquier CEO, CFO o CIO ya no es si su organización utiliza inteligencia artificial, sino algo mucho más incómodo: si alguien dentro de la empresa tiene realmente visibilidad granular y en tiempo real del costo operativo que implica mantener esa IA funcionando todos los días.
Si hoy una institución financiera no puede generar en menos de 72 horas un reporte detallado de gasto por proveedor, área, modelo y caso de uso, entonces ya existe un problema de gobierno tecnológico y, probablemente, también un riesgo financiero incubándose en silencio dentro de la organización.
La conversación sobre IA en México está entrando a una nueva etapa. La primera estuvo marcada por la velocidad de adopción y la urgencia de no quedarse atrás; la siguiente estará definida por sostenibilidad económica, eficiencia operativa y capacidad real de controlar el costo de escalar estas tecnologías. Las organizaciones que logren entender eso antes que el resto no necesariamente serán las que tengan más modelos o más pilotos de IA, sino las que aprendan primero a operar inteligencia artificial con verdadera disciplina financiera.
Porque, al final, el desafío no será quién adoptó IA más rápido, sino quién logró convertirla en una ventaja sostenible sin comprometer márgenes, rentabilidad ni capacidad de crecimiento. Esa diferencia probablemente marcará a los líderes de la próxima década financiera.