
PRINCIPIOS GENERALES
Introducción
La inteligencia artificial ya forma parte de la vida cotidiana de un número cada vez más amplio de personas y redefine la manera en la que las audiencias se informan, forman su criterio y definen posturas sobre los más diversos aspectos. Frente a esta realidad, la Organización Editorial Mexicana (OEM) asume su responsabilidad ética y operativa al elaborar un código claro sobre para qué y cómo debe usarse la IA en el quehacer periodístico.
En este contexto emergen con fuerza los neuroderechos, que buscan proteger la integridad mental y la autonomía individual ante tecnologías que pueden influir en las emociones, decisiones y procesos cognitivos. Incorporar estos derechos en un código de uso responsable es vital para que la IA no invada lo más íntimo de las personas ni condicione su libertad de pensamiento.
En suma, ESTO apuesta por un compromiso colectivo que ponga la tecnología al servicio de la sociedad, y no al revés. Se trata de asegurar que la innovación fortalezca el periodismo ético y la democracia, sin sacrificar aquello que distingue la naturaleza humana: la capacidad de decidir, de cuestionar, de informar en libertad y de acceder a informaciones de interés público que minimicen sesgos y fortalezcan la pluralidad de ideas e informaciones que representan la materia prima que permite que la sociedad norme su propio criterio.
La inteligencia artificial debe ser empleada exclusivamente como una herramienta al servicio del periodismo.
Su uso debe responder a una finalidad editorial legítima, previamente aprobada por los responsables editoriales. Las mejoras en productividad deben estar alineadas con los valores editoriales. La IA es una herramienta para potenciar el trabajo de los periodistas, no para sustituirlos.
Este documento constituye el Manual Ético y Operativo para el Uso de Inteligencia Artificial en los procesos editoriales de las empresas que forman parte de la OEM.
Aquí se establecen los principios, los límites y los procedimientos que rigen el uso de herramientas de IA en el entorno periodístico de la organización.
Este manual:
Todo el personal editorial, técnico y directivo deberá adherirse a estas directrices como parte del funcionamiento institucional. Las infracciones a estos principios serán tratadas conforme a las políticas internas de responsabilidad profesional.
La Unidad de IA de la OEM está conformada por un editor que coordinará todos los trabajos relacionados con motores de Inteligencia Artificial, un ingeniero en sistemas y tendrá la participación rotativa de reporteros o editores de toda las empresas editoriales de la OEM para prueba de las diferentes herramientas
Toda actividad que implique el uso de IA debe estar sujeta a supervisión humana informada, documentada y con responsabilidad asignada.
Las herramientas de IA que se desarrollen para uso en las empresas que forman parte de la Organización Editorial Mexicana deben estar regidas por los distintos códigos de la organización, como el Código de Ética y el Manual de Estilo.
La inteligencia artificial se utilizará en ESTO exclusivamente como una herramienta de apoyo editorial y operativo.
Usos no permitidos
Está prohibido utilizar IA para elaborar textos periodísticos desde cero, incluidos:
No se permite generar imágenes con apariencia fotográfica realista que incluyan:
Está estrictamente prohibido alterar imágenes fotográficas reales de carácter informativo o documental, salvo para ajustes técnicos mínimos (luz, encuadre), siempre que no modifiquen el contenido o el contexto de lo representado.
No se pueden utilizar herramientas de IA generativa que no permitan trazabilidad del contenido, transparencia en su entrenamiento o revisión de errores y sesgos.
Está estrictamente prohibido utilizar imágenes o insumos editoriales de los que no tenemos claridad sobre su origen
Todo contenido generado o asistido con inteligencia artificial debe estar claramente identificado ante la audiencia. Esto incluye artículos y columnas de colaboradores internos o externos.Esto implica el uso de etiquetas visibles cuando se hizo uso sustancial de la IA en el proceso editorial, es decir, que la IA desarrolló 50% o más del contenido final.
Cuando el equipo editorial lo considere necesario pueden incluirse notas editoriales o leyendas explicativas. La audiencia debe saber que se usó IA.
1. Este contenido fue generado con el apoyo de herramientas de inteligencia artificial y revisado por el equipo editorial de ESTO
2. Este resumen fue generado por Inteligencia Artificial y verificado por nuestro equipo editorial.
3. Ilustración generada con IA bajo la dirección de [Nombre del diseñador o editor de video]. Esta imagen no representa un hecho real.
4. Este audio fue generado por Inteligencia Artificial y verificado por nuestro equipo editorial.
La gobernanza algorítmica exige supervisión humana continua, trazabilidad técnica y explicabilidad de los sistemas de IA.
Se requiere documentar los prompts utilizados, las fuentes de entrenamiento, la versión del modelo y las decisiones tomadas durante la generación. La Unidad de IA centraliza esta supervisión, mantiene registro público interno de prompts, y evalúa periódicamente los resultados generados en busca de errores fácticos o sesgos. Toda herramienta usada deberá permitir trazabilidad y transparencia.
Mitigar riesgos y evitar usos dañinos de la IA implica implementar controles técnicos, éticos, editoriales y legales para prevenir errores, sesgos o impactos negativos.
Esta evaluación debe incluir aspectos como el respeto a los derechos de terceros, la privacidad, el medio ambiente, los derechos laborales y la integridad periodística.
Se deben anticipar riesgos éticos, tecnológicos, reputacionales y legales, y establecer mecanismos para minimizarlos antes de implementar cualquier uso de inteligencia artificial.
Asimismo, debe garantizarse el respeto a la propiedad intelectual, protegiendo los derechos de autor y la integridad de los creadores cuyos contenidos puedan verse afectados por el uso de IA. La Unidad de IA debe revisar periódicamente los incidentes y mantener protocolos activos de mejora continua, en observancia del Código de Ética
Toda herramienta o proceso de IA debe ser evaluado antes de su aplicación editorial, considerando riesgos como:
Cómo afrontarlos