Por: Mtro. Rodolfo Guerrero Martínez (México)
Director de ética en IA y en asuntos internacionales en EIA. Socio ENATIC (España) y vocal de LegalTech e Innovación LATAM en la Comisión Joven. CEO de Coffee Law SC (México). Titular de la Comisión de Legaltech INCAM Occidente. Profesor de Aspectos legales de criptomonedas y criptoactivos, así como de Finanzas tecnológicas en la Universidad Panamericana, Campus Guadalajara.
El panorama corporativo contemporáneo atraviesa una metamorfosis sin precedentes impulsada por la integración masiva de sistemas inteligentes en el núcleo de las operaciones. En la actualidad, la tecnología ha dejado de ser una herramienta periférica para consolidarse como el motor de una nueva era de competitividad y eficiencia global.
Para comprender la magnitud de este fenómeno, Rawat (2025) advierte que esta oleada de innovación proyecta añadir un valor aproximado de quince billones de dólares a la economía mundial para el cierre de esta década.
Bajo esta premisa, se sostiene que la gobernanza digital no puede limitarse a una gestión técnica aislada, sino que debe evolucionar hacia un marco fiduciario donde la responsabilidad ética sea el pilar central de cada decisión automatizada. Tal es el caso del sector de los servicios financieros, donde la implementación de modelos predictivos exige una supervisión que trascienda la rentabilidad para asegurar la equidad en el acceso al crédito.
I. Evolución de inteligencia artificial hacia riesgo material para juntas directivas
La percepción de los riesgos tecnológicos en las altas esferas del mando empresarial ha experimentado un cambio de paradigma radical en los últimos veinticuatro meses. Es decir, lo que anteriormente se consideraba una contingencia técnica menor, hoy se evalúa como una variable crítica capaz de comprometer la viabilidad financiera de las organizaciones más robustas del mercado.
Se ha documentado que la mención de la inteligencia artificial como un riesgo material en los informes anuales de las principales empresas de Estados Unidos escaló del 12% en 2023 a un contundente 62% por ciento en 2025 (Tonello, 2025).
Desde una perspectiva analítica, este fenómeno impone a las juntas directivas la obligación de integrar la vigilancia algorítmica dentro de sus planes de continuidad de negocio y deberes de lealtad hacia los accionistas. Para ilustra esto, se considera cómo una brecha en la privacidad de los datos o una vulnerabilidad de ciberseguridad puede afectar gravemente el valor de una marca en pocas horas, lo que obliga a implementar protocolos de respuesta inmediata que ya no son responsabilidad exclusiva del área de tecnologías de la información.
II. Marcos de cumplimiento mediante diseño bajo regulación global europea
El ecosistema legal está migrando rápidamente desde un modelo de autorregulación voluntaria hacia una estructura de cumplimiento obligatorio y preventivo, donde el estándar internacional ahora se rige por un enfoque basado en el riesgo, donde las sanciones por incumplimiento pueden desestabilizar la estructura de costos de cualquier multinacional.
Un hito fundamental de este nuevo orden jurídico es la prohibición estricta, vigente desde febrero de 2025, de sistemas que utilicen técnicas de manipulación cognitiva o realicen puntuación social por parte de autoridades (Rawat, 2025).
Cabe resalta que, las empresas deben adoptar ahora una filosofía de cumplimiento por diseño, garantizando que la trazabilidad y la transparencia estén insertas en el código fuente de sus herramientas. Así también, como se muestra en el despliegue de tecnologías biométricas en espacios públicos, la normativa actual obliga a las corporaciones a realizar evaluaciones de impacto previas para evitar la violación sistemática de los derechos fundamentales de los usuarios.
III. Prevalencia de humanidades con juicio ético humano ante procesos automatizados
La automatización de tareas analíticas y técnicas ha generado un resurgimiento en la valoración de las capacidades exclusivamente humanas dentro del mercado laboral de élite. Contrario a la creencia popular de que el conocimiento técnico es el único refugio frente a la máquina, los líderes de la industria tecnológica han comenzado a enfatizar que el estudio de las humanidades y la historia será más importante que nunca en esta nueva etapa (Ma, 2026).
Resulta evidente que, en un entorno donde la inteligencia artificial puede replicar procesos lógicos a gran velocidad, el pensamiento crítico y la inteligencia emocional se convierten en los únicos filtros capaces de dotar de significado y ética a los resultados generados por los algoritmos.
Por citar un caso concreto, la contratación de personal en empresas de vanguardia ya no prioriza únicamente el dominio de lenguajes de programación, sino la capacidad del individuo para comunicarse con empatía y resolver dilemas éticos complejos que una instrucción de código no puede procesar.
IV. Arquitecturas de gobernanza centradas en colaboración constante con sistemas inteligentes
El éxito de la transformación digital en la empresa moderna no reside en la potencia bruta de sus modelos, sino en la eficacia de la interacción entre el usuario y la herramienta. Por lo tanto, se está abandonando el paradigma estático de comandos lineales como sugieren Smith et al. (2026) para adoptar un ecosistema donde la interfaz funciona semejante a una capa de colaboración e iteración constante entre el juicio humano y la inteligencia de la máquina.
Desde mi óptica académica, la gobernanza debe centrarse en diseñar sistemas que no operen como cajas negras, sino como socios transparentes que expongan sus razonamientos y permitan la intervención humana en momentos críticos del flujo de trabajo.
Un ejemplo tangible de esta dinámica se encuentra en el desarrollo de agentes inteligentes para investigación de mercado, donde el sistema propone hipótesis y el directivo las refina mediante un diálogo iterativo, asegurando que el resultado final sea una síntesis de la capacidad de procesamiento algorítmico y la visión estratégica humana.
V. Conclusión general
La reconfiguración del gobierno corporativo bajo la influencia de la inteligencia artificial representa el desafío fiduciario más significativo del siglo XXI. Es decir, la transición de esta tecnología hacia la categoría de riesgo material obliga a las juntas directivas a abandonar la pasividad y adoptar un liderazgo ético que anticipe las tensiones regulatorias y sociales.
No basta con integrar herramientas avanzadas; el imperativo actual es construir una arquitectura organizacional donde la transparencia y el cumplimiento por diseño aseguren que la innovación sea, ante todo, una extensión de los valores humanos y no un sustituto de la responsabilidad corporativa.
En última instancia, la ventaja competitiva de las empresas que sobrevivan a esta revolución tecnológica no vendrá de la exclusividad de sus algoritmos, sino de la solidez de su juicio ético, por lo tanto, la revalorización de las humanidades y el diseño de experiencias colaborativas permiten que la inteligencia artificial potencie la productividad sin sacrificar la dignidad del trabajador ni la confianza del consumidor.
VI. Referencias bibliográficas
Ma, J. (2026). Anthropic cofounder says studying the humanities will be 'more important than ever' in the age of AI. Fortune.
Rawat, P. (2025). How the EU AI Act Impacts AI Governance Practices? InfosecTrain.
Smith, C., Gryskiewicz, K., Tupe, R., & Wu, Y. (2026). Building next-horizon AI experiences. McKinsey & Company.
Tonello, M. (2025). AI Risk Disclosures in the S&P 500: Reputation, Cybersecurity, and Regulation. Harvard Law School Forum on Corporate Governance.