Con la tecnología de Google Traductor

Uso de IA en la redacción

PRINCIPIOS GENERALES

Introducción

La inteligencia artificial ya forma parte de la vida cotidiana de un número cada vez más amplio de personas y redefine la manera en la que las audiencias se informan, forman su criterio y definen posturas sobre los más diversos aspectos. Frente a esta realidad, la Organización Editorial Mexicana (OEM) asume su responsabilidad ética y operativa al elaborar un código claro sobre para qué y cómo debe usarse la IA en el quehacer periodístico.

En este contexto emergen con fuerza los neuroderechos, que buscan proteger la integridad mental y la autonomía individual ante tecnologías que pueden influir en las emociones, decisiones y procesos cognitivos. Incorporar estos derechos en un código de uso responsable es vital para que la IA no invada lo más íntimo de las personas ni condicione su libertad de pensamiento.

En suma, ESTO apuesta por un compromiso colectivo que ponga la tecnología al servicio de la sociedad, y no al revés. Se trata de asegurar que la innovación fortalezca el periodismo ético y la democracia, sin sacrificar aquello que distingue la naturaleza humana: la capacidad de decidir, de cuestionar, de informar en libertad y de acceder a informaciones de interés público que minimicen sesgos y fortalezcan la pluralidad de ideas e informaciones que representan la materia prima que permite que la sociedad norme su propio criterio.

  1. Uso centrado en la calidad periodística

La inteligencia artificial debe ser empleada exclusivamente como una herramienta al  servicio del periodismo.

Su uso debe responder a una finalidad editorial legítima, previamente aprobada por los responsables editoriales. Las mejoras en productividad deben estar alineadas con los valores editoriales. La IA es una herramienta para potenciar el trabajo de los periodistas, no para sustituirlos.  

  • La IA no debe utilizarse para escribir artículos completos ni para alterar fotografías y/o videos de carácter informativo.
  • La IA no debe influir en decisiones editoriales de fondo ni sustituir el criterio periodístico.
  1. Guías éticas  

Este documento constituye el Manual Ético y Operativo para el Uso de Inteligencia Artificial en los procesos editoriales de las empresas que forman parte de la OEM.

Aquí se establecen los principios, los límites y los procedimientos que rigen el uso de herramientas de IA en el entorno periodístico de la organización.

Este manual:

  • Define los usos permitidos de la IA, (Large language models y así como herramientas equivalentes) 
  • Establece protocolos de verificación, corrección y revisión editorial.
  • Asigna responsables de supervisión y documentación de todos los usos.
  • Detalla cómo se promueve la generación de contenido con una perspectiva ética, legal y de transparencia en el proceso de la toma de decisiones.
  • Establece canales para la actualización y revisión periódica del propio documento 
  • Promueve la revisión y actualización de las directrices a medida que evolucionan las capacidades de IA y los estándares de la industria.

Todo el personal editorial, técnico y directivo deberá adherirse a estas directrices como parte del funcionamiento institucional. Las infracciones a estos principios serán tratadas conforme a las políticas internas de responsabilidad profesional.

  1. Unidad de IA para Organización Editorial Mexicana

La Unidad de IA de la OEM está conformada por un editor que coordinará todos los trabajos relacionados con motores de Inteligencia Artificial, un ingeniero en sistemas y tendrá la participación rotativa de reporteros o editores de toda las empresas editoriales de la OEM para prueba de las diferentes herramientas

  • promoverá capacitaciones
  • desarrollará herramientas que respondan a las necesidades de las redacciones
  • medirá uso y alcance de cada herramienta para verificar su funcionamiento
  • participará activamente en la decisión de contratación de servicios o herramientas necesarias
  1. Supervisión humana y rendición de cuentas

Toda actividad que implique el uso de IA debe estar sujeta a supervisión humana informada, documentada y con responsabilidad asignada.

Las herramientas de IA que se desarrollen para uso en las empresas que forman parte de la  Organización Editorial Mexicana deben estar regidas por los distintos códigos de la organización, como el Código de Ética y el Manual de Estilo. 

  • La IA debe comenzar y terminar con humanos. Siempre deberá haber intervención y validación humana en cada paso del proceso.
  • Para todos los resultados generados por IA el personal editorial tiene la responsabilidad final de la precisión y el tono.  
  • Se asesorará en el uso de IA en textos, video, análisis de dato, audio; sin embargo, cada uso quedará bajo responsabilidad de reporteros, editores de video, editores de audio, diseñadores y sus jefes inmediatos
  • Si se llega a publicar un error, de inmediato el medio asume total responsabilidad y debe rectificarlo públicamente de forma transparente.
  • Se debe mantener un registro interno de las decisiones tomadas, las herramientas usadas y el grado de intervención de IA. Este registro recae en la Unidad de IA, por lo mismo, cada experimento o prueba al respecto, debe ser notificado al equipo de la Unidad de IA para su seguimiento. 
  1. Usos aceptables de la inteligencia artificial en ESTO

La inteligencia artificial se utilizará en ESTO exclusivamente como una herramienta de apoyo editorial y operativo.  

  • Adaptación de contenido para distintos formatos y plataformas
    • Conversión de textos periodísticos en guiones, cápsulas informativas, hilos, newsletters, posts, etc.
    • Redacción de versiones abreviadas o contextos para redes sociales, notificaciones. 
  • Sugerencias de ángulos editoriales o ideas de enfoque
    • Generación de posibles líneas narrativas, títulos tentativos o enfoques para cubrir un hecho.
    • Lluvia de ideas editorial como insumo, no como decisión automática.
  • Creación de elementos editoriales complementarios
    • Resúmenes, titulares, sumarios y encabezados intermedios, cajas de datos, extractos o citas clave y otros elementos similares
  • Optimización para plataformas de distribución
    • Sugerencias para mejorar posicionamiento en buscadores y otros medios de difusión. Ajustes de títulos o entradas para engagement en redes. Revisión de estructura de texto según el canal de distribución.
  • Gráficos ilustrativos, no informativos
    • Imágenes simbólicas o conceptuales generadas con IA, siempre rotuladas y sin intención de representar hechos reales.
  • Conversiones entre formatos
    • Texto a audio (lectura automática para accesibilidad o multiplataforma).
    • Audio a texto (transcripciones de entrevistas o declaraciones).
  • Edición de video sin generación de imágenes
    • Cortes automáticos, subtitulado, ajuste de ritmo o formato para redes.
    • Prohibido usar IA para generar rostros, ambientes, voces o escenas que no existieron. Se podrá utilizar para voz en off en videos estableciendo que se trata de AI
  • Generación de reportes de uso, desempeño o resumen de datos
    • Informes automatizados sobre métricas, tráfico o consumo de contenidos, que luego serán interpretados por el equipo humano.

Usos no permitidos

Está prohibido utilizar IA para elaborar textos periodísticos desde cero, incluidos:

  • Noticias, crónicas, entrevistas, análisis u opinión.
  • Contenido firmado por periodistas, aún si fuera revisado posteriormente.
  • Notas que simulen trabajo periodístico autónomo.

No se permite generar imágenes con apariencia fotográfica realista que incluyan:

  • Personas identificables.
  • Representaciones de menores de edad.
  • Escenarios de hechos noticiosos o reconstrucciones engañosas.

Está estrictamente prohibido alterar imágenes fotográficas reales de carácter informativo o documental, salvo para ajustes técnicos mínimos (luz, encuadre), siempre que no modifiquen el contenido o el contexto de lo representado.

No se pueden utilizar herramientas de IA generativa que no permitan trazabilidad del contenido, transparencia en su entrenamiento o revisión de errores y sesgos.

Está estrictamente prohibido utilizar imágenes o insumos editoriales de los que no tenemos claridad sobre su origen 

  1. Transparencia y divulgación clara

Todo contenido generado o asistido con inteligencia artificial debe estar claramente identificado ante la audiencia. Esto incluye artículos y columnas de colaboradores internos o externos.Esto implica el uso de etiquetas visibles cuando se hizo uso sustancial de la IA en el proceso editorial, es decir, que la IA desarrolló 50% o más del contenido final. 

Cuando el equipo editorial lo considere necesario pueden incluirse notas editoriales o leyendas explicativas. La audiencia debe saber que se usó IA.

  • Las etiquetas que se utilizarán en los medios de la OEM serán las siguientes:

1.  Este contenido fue generado con el apoyo de herramientas de inteligencia artificial y revisado por el equipo editorial de ESTO 

2.  Este resumen fue generado por Inteligencia Artificial y verificado por nuestro equipo editorial. 

3.  Ilustración generada con IA bajo la dirección de [Nombre del diseñador o editor de video]. Esta imagen no representa un hecho real.  

4. Este audio fue generado por Inteligencia Artificial y verificado por nuestro equipo editorial. 

  1. Gobernanza algorítmica y explicabilidad

La gobernanza algorítmica exige supervisión humana continua, trazabilidad técnica y explicabilidad de los sistemas de IA.

Se requiere documentar los prompts utilizados, las fuentes de entrenamiento, la versión del modelo y las decisiones tomadas durante la generación. La Unidad de IA centraliza esta supervisión, mantiene registro público interno de prompts, y evalúa periódicamente los resultados generados en busca de errores fácticos o sesgos. Toda herramienta usada deberá permitir trazabilidad y transparencia. 

  • Se debe documentar y mantener accesibles para el equipo editorial los prompts o instrucciones y la versión del modelo utilizada.
  • Se adoptarán marcos de explicabilidad para rastrear o abordar errores y sesgos de IA.
  • Se supervisará el rendimiento de la IA regularmente para detectar estereotipos involuntarios o errores fácticos.
  • Se mantendrá un registro de herramientas aprobadas y promueven la auditoría interna de su rendimiento.  
  1. Evaluación de riesgos, mitigación de errores, control de sesgos, cumplimiento legal y respeto a la propiedad intelectual

Mitigar riesgos y evitar usos dañinos de la IA implica implementar controles técnicos, éticos, editoriales y legales para prevenir errores, sesgos o impactos negativos.

Esta evaluación debe incluir aspectos como el respeto a los derechos de terceros, la privacidad, el medio ambiente, los derechos laborales y la integridad periodística.

Se deben anticipar riesgos éticos, tecnológicos, reputacionales y legales, y establecer mecanismos para minimizarlos antes de implementar cualquier uso de inteligencia artificial.

Asimismo, debe garantizarse el respeto a la propiedad intelectual, protegiendo los derechos de autor y la integridad de los creadores cuyos contenidos puedan verse afectados por el uso de IA. La Unidad de IA debe revisar periódicamente los incidentes y mantener protocolos activos de mejora continua, en observancia del Código de Ética
Toda herramienta o proceso de IA debe ser evaluado antes de su aplicación editorial, considerando riesgos como:   

  • Alucinaciones (errores fácticos generados por IA).
  • Discriminación, estereotipos o sesgos culturales, de género o raciales.
  • Violaciones de privacidad o confidencialidad.
  • Sesgo emocional, cognitivo 
  • Reutilización no autorizada de contenidos (riesgos de copyright).

Cómo afrontarlos

  • Se deben adaptar las herramientas internas para reducir distorsiones como las mencionadas anteriormente. 
  • Involucrar equipos diversos en el desarrollo de políticas de IA dentro de la Unidad de IA para identificar puntos ciegos.
  • Toda herramienta debe pasar por un piloto limitado y una auditoría previa, en coordinación con la Unidad de IA