10 Principios para el Uso Responsable de la Inteligencia Artificial en México

Una guía práctica basada en estándares internacionales para implementar IA ética, transparente y centrada en el ser humano en instituciones públicas y privadas mexicanas

Conoce los principios

Introducción: La IA en el contexto mexicano

La inteligencia artificial está transformando radicalmente la forma en que funcionan los gobiernos, las empresas y la sociedad en su conjunto. En México, la adopción de sistemas de IA está creciendo aceleradamente en sectores como salud, educación, justicia, servicios financieros y administración pública. Sin embargo, esta transformación trae consigo desafíos críticos: sesgos algorítmicos que pueden perpetuar discriminación, opacidad en la toma de decisiones automatizadas, riesgos de privacidad, y la posibilidad de impactos sociales negativos si estas tecnologías no se implementan con responsabilidad.

México se encuentra en un momento crucial para establecer los cimientos de una gobernanza de IA que proteja los derechos de las personas mientras aprovecha el potencial transformador de esta tecnología. A nivel internacional, organismos como la OCDE, UNESCO, la Unión Europea y el G20 han desarrollado marcos éticos y regulatorios que ofrecen directrices valiosas.

Los siguientes 10 principios constituyen una síntesis de los estándares internacionales más relevantes, adaptados al contexto mexicano. Están diseñados para servir como guía práctica para instituciones públicas, empresas privadas y organizaciones de la sociedad civil que desarrollan, adquieren o implementan sistemas de inteligencia artificial en México.

Los 10 Principios

La IA debe aumentar las capacidades humanas, no reemplazar la dignidad o autonomía de las personas.

Los sistemas de inteligencia artificial deben diseñarse, desarrollarse e implementarse con el propósito fundamental de servir al bienestar humano, respetando la dignidad inherente de cada persona y protegiendo todos los derechos humanos reconocidos en la Constitución Política de los Estados Unidos Mexicanos y en los tratados internacionales de los que México es parte.

Este principio implica que la IA debe funcionar como una herramienta que amplifica las capacidades humanas, no como un sustituto de la autonomía, el criterio o la responsabilidad humana en decisiones que afecten derechos fundamentales. Las personas deben mantener control significativo sobre las tecnologías que utilizan, y nunca deben ser reducidas a meros puntos de datos o perfiles algorítmicos.

En el contexto mexicano, esto significa que cualquier sistema de IA implementado en ámbitos como justicia, salud, educación, empleo o servicios públicos debe evaluarse rigurosamente para garantizar que no vulnere derechos como la igualdad, la no discriminación, el debido proceso, la privacidad, la libertad de expresión y el acceso a la información.

Aplicación en México

  • Evaluar todo sistema de IA contra el marco constitucional mexicano de derechos humanos antes de su implementación
  • Realizar evaluaciones de impacto en derechos humanos para sistemas de IA de alto riesgo
  • Garantizar mecanismos de recurso y reparación cuando sistemas de IA vulneren derechos
  • Involucrar a la sociedad civil y grupos afectados en el diseño de sistemas que les impacten

Las decisiones de IA deben poder explicarse de manera comprensible para las personas afectadas.

Las organizaciones que desarrollan o implementan sistemas de IA deben garantizar un nivel apropiado de transparencia sobre cómo funcionan estos sistemas, qué datos utilizan, qué decisiones toman y bajo qué criterios. Esta transparencia debe adaptarse a diferentes audiencias: desde explicaciones técnicas para expertos hasta comunicaciones comprensibles para ciudadanos sin conocimientos especializados.

La explicabilidad implica que cuando un sistema de IA toma una decisión que afecta a una persona (por ejemplo, denegar un crédito, rechazar una solicitud de empleo, o recomendar una sentencia judicial), esa persona tiene derecho a recibir una explicación significativa sobre los factores principales que llevaron a esa decisión, en un lenguaje que pueda comprender.

Este principio reconoce que diferentes niveles de transparencia pueden ser apropiados según el contexto y el riesgo del sistema. Sistemas de IA de alto riesgo (como los utilizados en justicia penal, contratación pública o servicios de salud) requieren estándares más estrictos de transparencia y explicabilidad que sistemas de bajo riesgo.

Aplicación en México

  • Publicar información clara sobre qué sistemas de IA utiliza cada dependencia pública
  • Proporcionar explicaciones comprensibles cuando un ciudadano pregunte sobre una decisión automatizada
  • Documentar los modelos, datos y procesos de decisión de sistemas de IA críticos
  • Alinear con la Ley Federal de Transparencia y Acceso a la Información Pública

Los sistemas de IA no deben crear, perpetuar o amplificar la discriminación.

Los sistemas de inteligencia artificial deben diseñarse y operarse de manera que promuevan la equidad y la inclusión, evitando sesgos injustos o discriminatorios basados en características como origen étnico, género, edad, condición socioeconómica, orientación sexual, discapacidad, religión, opinión política o cualquier otra categoría protegida por la legislación mexicana.

Este principio reconoce que los sesgos pueden introducirse en múltiples etapas del ciclo de vida de la IA: en los datos de entrenamiento que reflejan desigualdades históricas, en el diseño de algoritmos que optimizan para ciertas métricas sin considerar impactos distributivos, en la implementación que afecta desproporcionadamente a ciertos grupos, o en la interpretación de resultados que perpetúa estereotipos.

En México, donde existen profundas desigualdades estructurales y poblaciones históricamente marginadas, es fundamental que los sistemas de IA se auditen sistemáticamente para identificar y mitigar sesgos, especialmente cuando se utilizan para tomar decisiones sobre acceso a servicios, oportunidades o derechos.

Aplicación en México

  • Realizar auditorías de equidad en sistemas de IA que afecten decisiones sobre personas
  • Asegurar que los datos de entrenamiento representen la diversidad de la población mexicana
  • Establecer métricas de equidad desagregadas por grupo demográfico
  • Involucrar a comunidades indígenas y grupos vulnerables en el diseño de sistemas que les afecten
  • Prohibir el uso de IA para discriminación automatizada

El uso de IA debe respetar plenamente el derecho a la protección de datos personales.

El desarrollo e implementación de sistemas de IA debe respetar rigurosamente el derecho humano a la privacidad y la protección de datos personales, reconocido en el artículo 16 constitucional y regulado por la Ley Federal de Protección de Datos Personales en Posesión de los Particulares (LFPDPPP) y la Ley General de Protección de Datos Personales en Posesión de Sujetos Obligados (LGPDPPSO).

Los sistemas de IA frecuentemente requieren grandes volúmenes de datos personales para su entrenamiento y operación. Este principio establece que el tratamiento de estos datos debe regirse por los principios de licitud, consentimiento, información, calidad, finalidad, lealtad, proporcionalidad y responsabilidad. Las personas tienen derecho a conocer qué datos personales se utilizan, para qué fines, y deben poder ejercer sus derechos ARCO (Acceso, Rectificación, Cancelación y Oposición).

Especial atención debe prestarse a datos sensibles (origen racial o étnico, salud, creencias religiosas, opiniones políticas, orientación sexual, datos biométricos) y a la protección de datos de menores de edad, aplicando medidas de seguridad reforzadas y limitando estrictamente su uso.

Aplicación en México

  • Cumplir con LFPDPPP/LGPDPPSO en todas las fases del ciclo de vida de IA
  • Realizar Evaluaciones de Impacto en Privacidad (PIAs) para sistemas de IA que procesen datos personales
  • Implementar técnicas de Privacy by Design y Privacy by Default
  • Aplicar técnicas de anonimización, seudonimización y minimización de datos
  • Coordinar con el INAI la supervisión de sistemas de IA del sector público

Los sistemas de IA deben ser seguros, fiables y resistentes a fallas y ataques.

Los sistemas de inteligencia artificial deben diseñarse y mantenerse para funcionar de manera segura, confiable y robusta durante todo su ciclo de vida. Deben ser capaces de operar correctamente en condiciones normales, resistir ataques maliciosos, manejar situaciones inesperadas sin fallos catastróficos, y degradarse de manera predecible cuando operan fuera de sus condiciones de diseño.

La seguridad de la IA abarca múltiples dimensiones: seguridad cibernética (protección contra ataques adversariales, envenenamiento de datos, extracción de modelos), seguridad operacional (funcionamiento confiable sin fallos que causen daños), y seguridad a largo plazo (consideración de riesgos emergentes conforme la IA se vuelve más capaz). Los sistemas críticos deben incluir mecanismos de fail-safe y kill switches cuando sea apropiado.

Este principio es especialmente crucial en aplicaciones de alto riesgo como vehículos autónomos, sistemas médicos de diagnóstico, infraestructura crítica, sistemas financieros y seguridad pública, donde fallos pueden tener consecuencias graves para la vida, la salud, la seguridad o los derechos de las personas.

Aplicación en México

  • Implementar marcos de gestión de riesgos de IA basados en estándares como NIST AI RMF
  • Realizar pruebas rigurosas de seguridad antes de desplegar sistemas en producción
  • Establecer protocolos de respuesta a incidentes de seguridad de IA
  • Coordinar con autoridades de ciberseguridad nacional la protección de sistemas críticos
  • Implementar monitoreo continuo y actualizaciones de seguridad

Debe existir claridad absoluta sobre quién es responsable de los impactos de la IA.

Las organizaciones y personas que diseñan, desarrollan, implementan u operan sistemas de inteligencia artificial deben ser responsables y rendir cuentas por su funcionamiento, sus decisiones y sus impactos. La automatización no elimina la responsabilidad humana ni organizacional: siempre debe ser posible identificar quién es legalmente responsable cuando un sistema de IA causa daños o vulnera derechos.

Este principio implica establecer cadenas claras de responsabilidad a lo largo de todo el ciclo de vida de la IA: desde quienes financian su desarrollo, quienes diseñan los algoritmos, quienes entrenan los modelos con datos, quienes deciden implementarlos en ciertos contextos, quienes los operan día a día, hasta quienes toman decisiones basadas en sus recomendaciones. Cada actor debe conocer sus responsabilidades específicas.

La rendición de cuentas requiere mecanismos institucionales efectivos: auditorías internas y externas, evaluaciones de impacto, documentación rigurosa, supervisión regulatoria, y vías de recurso accesibles para personas afectadas. En el sector público mexicano, esto se alinea con los principios de responsabilidad administrativa, transparencia y control interno.

Aplicación en México

  • Designar responsables de IA en cada organización que implemente sistemas significativos
  • Mantener registros auditables de decisiones automatizadas en sistemas de alto riesgo
  • Establecer mecanismos de quejas y recursos para decisiones de IA que afecten a personas
  • Realizar auditorías periódicas de sistemas de IA por terceros independientes
  • Integrar la responsabilidad por IA en marcos de compliance y control interno

Los sistemas de IA deben operar bajo supervisión humana adecuada y proporcional al riesgo.

Los sistemas de inteligencia artificial deben diseñarse e implementarse de manera que permitan supervisión, intervención y control humano apropiados. El nivel de supervisión debe ser proporcional al riesgo y al impacto potencial del sistema: decisiones de alto riesgo que afecten derechos fundamentales, libertades o bienestar de personas deben mantenerse bajo control humano significativo.

Control humano significativo implica más que simplemente tener un humano "en el circuito" (human-in-the-loop). Requiere que las personas supervisoras tengan: 1) información suficiente sobre cómo funciona el sistema, 2) capacidad real de comprender sus recomendaciones, 3) autoridad para anular sus decisiones, 4) tiempo adecuado para ejercer juicio reflexivo, y 5) incentivos organizacionales que hagan efectivo ese control, no meramente formal.

Este principio reconoce que existen diferentes niveles de autonomía apropiados según el contexto: desde sistemas completamente automatizados para tareas de bajo riesgo, hasta sistemas puramente de apoyo a la decisión humana en contextos críticos. La clave es que el diseño del sistema y de la organización en que opera garanticen que humanos capacitados mantienen autoridad real sobre las decisiones importantes.

Aplicación en México

  • Prohibir decisiones completamente automatizadas en ámbitos como justicia penal, sin revisión humana
  • Diseñar interfaces que faciliten el escrutinio humano efectivo, no que lo obstaculicen
  • Capacitar a operadores humanos para comprender, cuestionar y anular decisiones de IA
  • Establecer protocolos claros de escalamiento humano cuando la IA enfrenta situaciones complejas
  • Evitar automation bias mediante entrenamiento y diseño organizacional

El desarrollo de IA debe ser ambientalmente sostenible y contribuir a los ODS.

El desarrollo, entrenamiento y operación de sistemas de inteligencia artificial deben realizarse de manera ambientalmente sostenible, minimizando su huella de carbono, consumo energético y generación de residuos electrónicos. Al mismo tiempo, la IA debe contribuir positivamente al logro de los Objetivos de Desarrollo Sostenible (ODS) de las Naciones Unidas y a los compromisos climáticos de México.

El entrenamiento de modelos grandes de IA puede consumir enormes cantidades de energía y agua para enfriamiento de centros de datos, con impactos climáticos significativos. Este principio requiere que organizaciones que desarrollan IA evalúen y mitiguen estos impactos mediante el uso de energías renovables, optimización de eficiencia algorítmica, reutilización de modelos pre-entrenados, y transparencia sobre la huella ambiental de sus sistemas.

Más allá de minimizar daños, la IA puede ser una herramienta poderosa para la sostenibilidad: optimizando redes eléctricas, mejorando eficiencia en agricultura, monitoreando deforestación, prediciendo fenómenos climáticos extremos, y acelerando investigación en energías limpias. México debe priorizar aplicaciones de IA que contribuyan a estos objetivos, alineándose con su Estrategia Nacional de Cambio Climático.

Aplicación en México

  • Medir y reportar la huella de carbono de sistemas de IA significativos
  • Priorizar centros de datos alimentados por energías renovables
  • Implementar políticas de economía circular para hardware de IA
  • Fomentar proyectos de IA para monitoreo ambiental, adaptación climática y protección de biodiversidad
  • Alinear inversión pública en IA con compromisos del Acuerdo de París

El ecosistema de IA debe construirse con participación amplia de todos los sectores.

La gobernanza de la inteligencia artificial en México debe construirse mediante procesos participativos e inclusivos que involucren a todos los sectores relevantes: gobierno, academia, sector privado, sociedad civil, comunidades afectadas, pueblos indígenas, y organismos internacionales. Las decisiones sobre cómo se regula, desarrolla e implementa la IA no deben tomarse de manera unilateral o tecnocrática.

Este principio reconoce que diferentes actores aportan perspectivas y expertises complementarias: la academia aporta conocimiento científico, el sector privado entiende las dinámicas de innovación, la sociedad civil representa intereses públicos y de grupos vulnerables, los pueblos indígenas tienen derecho a participar en decisiones que les afecten, y el gobierno tiene la responsabilidad de articular y proteger el interés general.

La colaboración multisectorial debe ser genuina, no meramente consultiva o simbólica. Implica crear espacios institucionales permanentes de diálogo, compartir información relevante de manera accesible, incorporar retroalimentación de manera demostrable, y reconocer que las comunidades afectadas por sistemas de IA tienen conocimientos legítimos que deben informar su diseño e implementación.

Aplicación en México

  • Crear un Consejo Nacional de Inteligencia Artificial con representación multisectorial
  • Realizar consultas públicas sobre proyectos de IA de alto impacto antes de su implementación
  • Garantizar participación de pueblos indígenas cuando IA se implemente en sus territorios o con sus datos
  • Fomentar colaboración academia-industria-gobierno en investigación de IA ética
  • Establecer mecanismos de participación ciudadana en supervisión de IA gubernamental

La sociedad debe desarrollar capacidades para comprender, usar y gobernar la IA.

México debe invertir estratégicamente en el desarrollo de capacidades nacionales en inteligencia artificial, desde educación básica hasta investigación avanzada. La alfabetización en IA no es solo para especialistas técnicos: todos los ciudadanos deben desarrollar conocimientos básicos sobre qué es la IA, cómo funciona, qué puede y no puede hacer, y cuáles son sus implicaciones sociales y éticas.

Diferentes niveles de alfabetización son necesarios para diferentes actores: ciudadanos generales necesitan comprensión básica para tomar decisiones informadas como consumidores y votantes; funcionarios públicos necesitan capacidad para evaluar y supervisar sistemas de IA en sus instituciones; legisladores y reguladores necesitan conocimiento profundo para crear políticas efectivas; académicos e investigadores deben desarrollar capacidades de frontera en IA ética y técnica.

Este principio también implica cerrar brechas de género y regionales en el acceso a educación en IA, fomentar la diversidad en quienes desarrollan estas tecnologías, y garantizar que México no dependa exclusivamente de capacidades extranjeras. La soberanía tecnológica requiere inversión sostenida en talento, investigación e infraestructura nacional.

Aplicación en México

  • Integrar alfabetización en IA en currículos de educación básica, media y superior
  • Crear programas de capacitación en IA para funcionarios públicos de todos los niveles
  • Invertir en investigación académica en IA ética, explicable y centrada en las personas
  • Establecer becas y programas para aumentar diversidad en carreras STEM relacionadas con IA
  • Fomentar colaboración internacional en educación e investigación en IA responsable

Conclusión

La inteligencia artificial representa una de las transformaciones tecnológicas más profundas de nuestra época. Los 10 principios presentados no son aspiraciones abstractas, sino compromisos concretos que instituciones públicas, empresas privadas y organizaciones de la sociedad civil en México pueden adoptar e implementar hoy.

México tiene la oportunidad de posicionarse como líder regional en el uso responsable de la inteligencia artificial. No se trata de frenar la innovación, sino de canalizarla hacia objetivos que reflejen nuestros valores democráticos, nuestro compromiso con los derechos humanos y nuestra aspiración a un desarrollo inclusivo y sostenible.

¿Tu organización está lista para implementar IA de manera responsable?

En Datamorfosis te acompañamos en el diseño e implementación de marcos de gobernanza de IA alineados con estos principios y las mejores prácticas internacionales.

Referencias

  1. UNESCO (2021). Recommendation on the Ethics of AI. https://www.unesco.org/en/legal-affairs/recommendation-ethics-artificial-intelligence
  2. OECD (2024). OECD AI Principles. https://oecd.ai/en/ai-principles
  3. European Union (2024). Regulation on Artificial Intelligence (AI Act). https://eur-lex.europa.eu/eli/reg/2024/1689/oj
  4. NIST (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0). https://www.nist.gov/itl/ai-risk-management-framework
  5. European Union (2016). General Data Protection Regulation (GDPR). https://eur-lex.europa.eu/eli/reg/2016/679/oj
  6. G20 (2019). G20 AI Principles. https://www.mofa.go.jp/policy/economy/g20_summit/osaka19/pdf/documents/en/annex_08.pdf
  7. Beijing Academy of Artificial Intelligence (2019). Beijing AI Principles. https://www.baai.ac.cn/beijing-ai-principles-en.html
  8. UK Government (2023). The Bletchley Declaration by Countries Attending the AI Safety Summit. https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration
  9. World Economic Forum (2022). Responsible AI Framework. https://www.weforum.org/publications/responsible-ai-framework/