Expertos lanzan alerta sobre las consecuencias éticas por uso desmedido de la inteligencia artificial
Expertos alertan sobre el uso desmedido de la inteligencia artificial en grandes empresas y la brecha entre preocupación ética y gobernanza.

Las opiniones expresadas por los colaboradores de Entrepreneur son personales.
Conclusiones Clave
- El 97% de los CIO y CTO están preocupados por el uso poco ético de la IA, pero solo el 38% tiene supervisión formal en sus empresas.
- Adoptar IA apresuradamente por reducción de costos sin alineación estratégica puede generar fallas y pérdidas.
En la carrera por ver quién resalta más en la era de la IA, expertos lanzaron una alerta por el uso desmedido detrás de la promesa de “reducción de costos”.
Mientras la preocupación por las implicaciones éticas de la IA es evidente, el interés por mitigar sus peligros es bajo. Esta es la principal conclusión del estudio Solvd CIO & CTO insights: AI research 2025.
La investigación, realizada por Solvd y Wakefield Research entre 500 directores de información (CIO) y tecnología (CTO) de grandes empresas con ingresos superiores a los $500 millones de dólares, muestra una situación que ya se preveía.
El 97% de los expertos muestra preocupación por el uso poco ético de la IA en sus propias organizaciones. Sin embargo, solo un 38% afirma contar con una supervisión interna formal para prevenirla. Esta brecha de implementación ética señala una desconexión peligrosa entre la conciencia del problema y la voluntad o capacidad de actuar.
Actualmente en las organizaciones el 90% de los trabajadores están utilizando la IA en sus funciones, pero, ¿están las empresas al tanto de esto? ¿controlan el uso de esta tecnología aun sabiendo sus peligros?
“La IA se está moviendo a una velocidad vertiginosa, pero la velocidad por sí sola no es una estrategia”, explica Adam Gabrault, CEO de Solvd, firma consultora especializada en IA que reveló el estudio.
Relacionado: Los primeros 1,000 días de ChatGPT: lecciones clave de IA para líderes empresariales
Encontrar el sentido del uso de la IA
La presión por demostrar quién es el mejor es uno de los factores en este estudio. El 71% de los expertos reconoce que el liderazgo ejecutivo tiene expectativas poco realistas sobre los resultados de la IA. La demanda de resultados inmediatos los lleva hacia decisiones cortoplacistas, priorizando la reducción de costos sobre una integración estratégica y responsable.
Gabrault critica este enfoque: “La tasa de fracaso del 95% muestra a empresas que persiguen ‘actos aleatorios de IA’, donde marcan una casilla en lugar de vincular los esfuerzos con los resultados comerciales. El 5% que tiene éxito trata la IA como una capacidad a largo plazo con una alineación ejecutiva más amplia, no como un proyecto secundario”.
Para el directivo, el verdadero valor de la IA no reside únicamente en sustituir puestos de trabajo, sino en rediseñar procesos, desbloquear posibilidades y prepararse para un futuro incierto. “Tratar la IA puramente como una herramienta de reducción de costos hace que se pasen por alto las grandes oportunidades. La inteligencia artificial solo puede multiplicar lo que ya tienes, lo que significa que necesitas tener a las personas correctas y seguir invirtiendo en ellas”, añadió.
Por otro lado, el informe también revela una notable ambigüedad en cuanto a la responsabilidad de la gobernanza. Nadie se quiere hacer cargo de la supervisión. La carga recae mayoritariamente en los CIOs y CTOs, mientras que solo un 5% reporta que esta tarea es responsabilidad de un comité de ética o cumplimiento dedicado.
La falta de claridad estructural agrava el problema. Respecto a la regulación externa, el sentimiento está dividido: aunque un 61% se inclina por una regulación pública o gubernamental a largo plazo, un 36% aún prefiere la autorregulación de la industria, reflejando el miedo que persiste en una normativa excesiva pueda frenar la innovación.
Relacionado: CEO de Nvidia: la IA hará que trabajemos más rápido, pero no menos
La necesidad de una regulación
Los grandes líderes tecnológicos no son indiferentes a esto. Elon Musk dijo en 2014 sobre el tema regulatorio que “cada vez me inclino más a pensar que debería existir una supervisión regulatoria, tal vez a nivel nacional e internacional, para asegurarnos de no hacer algo muy imprudente”.
Las palabras de Musk resuenan también en la actualidad, cuando vemos que el panorama se va complicando.
En 2023, Sam Altman, CEO de Open AI, planteó de manera sorpresiva que el Congreso de los Estados Unidos debería regular el uso de la IA lanzando una llamativa confesión: “Mi peor temor es que causemos un daño significativo al mundo”.
Seguir usando la IA de forma apresurada, sin una supervisión ética, podría obligar a las organizaciones a realizar correcciones posteriores complejas y costosas. “La IA no debería ser un caso de ‘adopta ahora y piensa en la ética después’”, concluye Gabrault.
“Las empresas más exitosas serán aquellas que traten la gobernanza como una prioridad estratégica desde el principio. La adopción de la IA debe ser tanto innovadora como sostenible; no tiene que ser una cosa o la otra”.
La IA no es ni el salvador que imaginan sus principales promotores ni la amenaza existencial que algunos críticos hacen referencia. Es, en cambio, una herramienta de utilidad que está cambiando sistemas y comportamientos. La pregunta central ya no es “¿qué hará la IA?”, sino “¿qué está haciendo ya la IA?”, y “¿es este el futuro en el que queremos vivir?”.
El informe concluye con un llamado para comenzar a trabajar en soluciones que permitan el uso ético de la IA.
Relacionado: La ventaja no está en la IA: está en tu gente
Conclusiones Clave
- El 97% de los CIO y CTO están preocupados por el uso poco ético de la IA, pero solo el 38% tiene supervisión formal en sus empresas.
- Adoptar IA apresuradamente por reducción de costos sin alineación estratégica puede generar fallas y pérdidas.
En la carrera por ver quién resalta más en la era de la IA, expertos lanzaron una alerta por el uso desmedido detrás de la promesa de “reducción de costos”.
Mientras la preocupación por las implicaciones éticas de la IA es evidente, el interés por mitigar sus peligros es bajo. Esta es la principal conclusión del estudio Solvd CIO & CTO insights: AI research 2025.
La investigación, realizada por Solvd y Wakefield Research entre 500 directores de información (CIO) y tecnología (CTO) de grandes empresas con ingresos superiores a los $500 millones de dólares, muestra una situación que ya se preveía.
El 97% de los expertos muestra preocupación por el uso poco ético de la IA en sus propias organizaciones. Sin embargo, solo un 38% afirma contar con una supervisión interna formal para prevenirla. Esta brecha de implementación ética señala una desconexión peligrosa entre la conciencia del problema y la voluntad o capacidad de actuar.
Actualmente en las organizaciones el 90% de los trabajadores están utilizando la IA en sus funciones, pero, ¿están las empresas al tanto de esto? ¿controlan el uso de esta tecnología aun sabiendo sus peligros?
“La IA se está moviendo a una velocidad vertiginosa, pero la velocidad por sí sola no es una estrategia”, explica Adam Gabrault, CEO de Solvd, firma consultora especializada en IA que reveló el estudio.
Relacionado: Los primeros 1,000 días de ChatGPT: lecciones clave de IA para líderes empresariales
Encontrar el sentido del uso de la IA
La presión por demostrar quién es el mejor es uno de los factores en este estudio. El 71% de los expertos reconoce que el liderazgo ejecutivo tiene expectativas poco realistas sobre los resultados de la IA. La demanda de resultados inmediatos los lleva hacia decisiones cortoplacistas, priorizando la reducción de costos sobre una integración estratégica y responsable.
Gabrault critica este enfoque: “La tasa de fracaso del 95% muestra a empresas que persiguen ‘actos aleatorios de IA’, donde marcan una casilla en lugar de vincular los esfuerzos con los resultados comerciales. El 5% que tiene éxito trata la IA como una capacidad a largo plazo con una alineación ejecutiva más amplia, no como un proyecto secundario”.
Para el directivo, el verdadero valor de la IA no reside únicamente en sustituir puestos de trabajo, sino en rediseñar procesos, desbloquear posibilidades y prepararse para un futuro incierto. “Tratar la IA puramente como una herramienta de reducción de costos hace que se pasen por alto las grandes oportunidades. La inteligencia artificial solo puede multiplicar lo que ya tienes, lo que significa que necesitas tener a las personas correctas y seguir invirtiendo en ellas”, añadió.
Por otro lado, el informe también revela una notable ambigüedad en cuanto a la responsabilidad de la gobernanza. Nadie se quiere hacer cargo de la supervisión. La carga recae mayoritariamente en los CIOs y CTOs, mientras que solo un 5% reporta que esta tarea es responsabilidad de un comité de ética o cumplimiento dedicado.
La falta de claridad estructural agrava el problema. Respecto a la regulación externa, el sentimiento está dividido: aunque un 61% se inclina por una regulación pública o gubernamental a largo plazo, un 36% aún prefiere la autorregulación de la industria, reflejando el miedo que persiste en una normativa excesiva pueda frenar la innovación.
Relacionado: CEO de Nvidia: la IA hará que trabajemos más rápido, pero no menos
La necesidad de una regulación
Los grandes líderes tecnológicos no son indiferentes a esto. Elon Musk dijo en 2014 sobre el tema regulatorio que “cada vez me inclino más a pensar que debería existir una supervisión regulatoria, tal vez a nivel nacional e internacional, para asegurarnos de no hacer algo muy imprudente”.
Las palabras de Musk resuenan también en la actualidad, cuando vemos que el panorama se va complicando.
En 2023, Sam Altman, CEO de Open AI, planteó de manera sorpresiva que el Congreso de los Estados Unidos debería regular el uso de la IA lanzando una llamativa confesión: “Mi peor temor es que causemos un daño significativo al mundo”.
Seguir usando la IA de forma apresurada, sin una supervisión ética, podría obligar a las organizaciones a realizar correcciones posteriores complejas y costosas. “La IA no debería ser un caso de ‘adopta ahora y piensa en la ética después’”, concluye Gabrault.
“Las empresas más exitosas serán aquellas que traten la gobernanza como una prioridad estratégica desde el principio. La adopción de la IA debe ser tanto innovadora como sostenible; no tiene que ser una cosa o la otra”.
La IA no es ni el salvador que imaginan sus principales promotores ni la amenaza existencial que algunos críticos hacen referencia. Es, en cambio, una herramienta de utilidad que está cambiando sistemas y comportamientos. La pregunta central ya no es “¿qué hará la IA?”, sino “¿qué está haciendo ya la IA?”, y “¿es este el futuro en el que queremos vivir?”.
El informe concluye con un llamado para comenzar a trabajar en soluciones que permitan el uso ético de la IA.
Relacionado: La ventaja no está en la IA: está en tu gente