viernes, noviembre 7, 2025
Nacional

Riesgos de la IA en las empresas

Entre esos errores se identifican los resultados deficientes, incumplimiento de normativas, pérdida de confianza y disminución de la competitividad

El uso de la Inteligencia Artificial (IA) en las empresas que operan en México avanza, sin embargo, una gran mayoría no cuenta con mecanismos que le permitan evaluar los riesgos derivados de estas tecnologías, de acuerdo con la firma consultora KPMG.

En el estudio “Panorama de la inteligencia artificial en México y Centroamérica 2025, estrategias para acelerar la adopción efectiva” se encontró que en un 38% de los encuestados en México “indican que la evaluación es mínima y principalmente reactiva, apoyada en actores clave”.

Mientras que otro 38% dijo que no cuentan con un mecanismo de evaluación, en tanto que un 23% dijo que se planea con base en evaluaciones de riesgos, regulacionales y organizacionales bien definidas y marcos de mitigación actualizados en forma proactiva”.

La firma de consultoría dijo que “el nivel de entendimiento, aplicación y marco de implementación de la IA en la región sigue siendo incipiente. En consecuencia, los mecanismos de evaluación de riesgos asociados a esta tecnología también son limitados; no obstante, el hecho de que no se contemplen formalmente no significa que dichos riesgos no existan”.

Entre esos errores o riesgos que se identifican por el uso de la inteligencia artificial están: resultados deficientes, incumplimiento de normativas, pérdida de confianza y disminución de la competitividad.

Por otra parte, está también el riesgo de que se queden rezagadas frente a la competencia, lo que les genera presión para que puedan implementar las herramientas tecnológicas.

De ahí que, muchas firmas no consideran aspectos éticos y corporativos lo que incrementa “exponencialmente el nivel de amenaza”.

PLANEACIÓN SÓLIDA
Por lo anterior, KPGM dijo que es importante “contar con una planeación sólida y marcos de gobernanza específicos para la IA”, guiados por especialistas y alineados con la estrategia corporativa; esta es la mejor práctica para prevenir riesgos”.

Algunos de los riesgos de la IA son los mismos que los de la implementación de cualquier tecnología nueva: una alineación estratégica deficiente con los objetivos comerciales, una falta de habilidades para respaldar las iniciativas y la falta de aceptación en todos los rangos de la organización.

Para tales desafíos, los ejecutivos deben apoyarse en las mejores prácticas que han guiado la adopción efectiva de otras tecnologías. Los consultores de gestión y los expertos en IA dijeron que aconsejan a los CIO y a sus colegas de dirección para identificar áreas en las que la IA puede ayudarlos a cumplir los objetivos de la organización, desarrollar estrategias para garantizar que tengan la experiencia para respaldar los programas de IA y crear políticas sólidas de gestión de cambios para suavizar y acelerar la adopción en la empresa.

FALTA DE CONFIANZA
No todos los trabajadores están listos para adoptar la IA. La firma de servicios profesionales KPMG, en asociación con la Universidad de Queensland en Australia, descubrió que el 61 % de los encuestados en su informe “Confianza en la inteligencia artificial: perspectivas globales 2023” son ambivalentes o no están dispuestos a confiar en la IA.

Sin esa confianza, una implementación de IA será improductiva, según los expertos. Considere, por ejemplo, qué sucedería si los trabajadores no confían en una solución de IA en una planta de producción que determina que una máquina debe apagarse para realizar el mantenimiento. Incluso si el sistema de IA es casi siempre preciso, si el usuario no confía en la máquina, entonces la IA es un fracaso.

SESGOS NO INTENCIONALES
En su nivel más básico, la IA toma grandes volúmenes de datos y luego, mediante algoritmos, identifica y aprende a actuar a partir de los patrones que identifica en los datos. Pero cuando los datos están sesgados o son problemáticos, la IA produce resultados defectuosos.

Del mismo modo, los algoritmos problemáticos –como los que reflejan los sesgos de los programadores– pueden hacer que los sistemas de IA produzcan resultados sesgados. “Este no es un problema hipotético”, según “Las Implicaciones de los Algoritmos para los Derechos Civiles”, un informe de marzo de 2023 del Comité Asesor de Connecticut a la Comisión de Derechos Civiles de EE. UU.

ERRORES MAGNIFICADOS
Los trabajadores humanos, por supuesto, tienen prejuicios y cometen errores, pero las consecuencias de sus errores se limitan al volumen de trabajo que realizan antes de detectar los errores, que a menudo no es mucho. Sin embargo, las consecuencias de los sesgos o errores ocultos en los sistemas operativos de IA pueden ser exponencialmente mayores.

Como explicaron los expertos, los humanos pueden cometer docenas de errores en un día, pero un bot que maneja millones de transacciones al día magnifica por millones cualquier error individual.

El dato:
La mayoría de los sistemas de IA son estocásticos o probabilísticos. Esto significa que los algoritmos de aprendizaje automático, el aprendizaje profundo, el análisis predictivo y otras tecnologías trabajan juntas para analizar datos y producir la respuesta más probable en cada escenario. Eso contrasta con los entornos de IA deterministas, en los que el comportamiento de un algoritmo se puede predecir a partir de la entrada.