En pocos años, la inteligencia artifical (en adelante IA) ha experimentado un salto cualitativo como tecnología al alcance de todas las personas, con un potencial ilimitado para incrementar la productividad. Debido a su rápida expansión, hoy día puede considerarse una herramienta habitual en multitud de actividades, incluyendo el entorno académico, tanto en su vertiente de enseñanza como en la investigación, y así debe entenderse por su condición de software de código abierto. Sin embargo, conviene identificar y tener presentes los riesgos derivados de su uso para evitar que se materialicen. Del estudio de las normas de publicación de 32 editoriales reunidas en torno a STM Integrity Hub, la comisión de integridad de STM, se desprende un reconocimiento de las posibilidades que ofrece la IA en la elaboración de artículos científicos, siempre que se emplee como herramienta, no como coautora, y reclaman un uso responsable, bajo criterios éticos. Por fin, se compendian algunas buenas prácticas para el correcto uso de IA en la literatura académica. Estas normas evolucionarán, previsiblemente, a medida que avance el conocimiento y la experiencia empírica en la materia. Se concluye que la cooperación entre las editoriales académicas, en busca de criterios universalizables, resulta esencial para evitar riesgos.