UNAM impulsa un protocolo ético para el uso de IA en posgrados

Mobirise

La Universidad Nacional Autónoma de México (UNAM) ha dado un paso decisivo en la regulación del uso de Inteligencia Artificial (IA) dentro de sus programas de posgrado. En un contexto donde el 86% de estudiantes y el 76% de docentes ya han interactuado con estas herramientas, la institución presentó un Protocolo para el uso ético de IA en posgrados, diseñado para garantizar que la tecnología complemente la investigación sin sustituir el juicio crítico ni la autoría académica.

El auge de la IA ha traído consigo beneficios evidentes, como la automatización de tareas repetitivas y la generación rápida de borradores. Sin embargo, también plantea riesgos significativos

  • Alucinaciones de la IA: los sistemas pueden producir información convincente pero falsa, lo que amenaza la calidad de la investigación.
  • Sesgos culturales y sociales: los modelos reflejan patrones de discriminación o parcialidad presentes en sus datos de entrenamiento.
  • Plagio y ghostwriting: el uso indebido de IA puede derivar en trabajos académicos que carecen de originalidad y honestidad intelectual.

El protocolo de la UNAM busca mitigar estos riesgos mediante reglas claras de transparencia y supervisión.

Uno de los pilares del protocolo es la declaración explícita del uso de IA en proyectos académicos. Esto implica que los estudiantes deben registrar cómo y en qué etapas utilizaron estas herramientas, incluyendo los prompts o instrucciones que generaron los resultados.

Este enfoque se asemeja a las prácticas de ciberseguridad, donde la trazabilidad y la auditoría son esenciales para detectar anomalías y garantizar la confianza en los sistemas. En el ámbito académico, la transparencia permite validar la información y evitar que datos falsos o sesgados se integren en investigaciones de alto impacto.

El protocolo también contempla la capacitación continua de estudiantes y docentes. La idea es que todos los actores académicos desarrollen habilidades críticas para evaluar la información generada por IA, identificar sesgos y verificar fuentes.En términos de seguridad digital, esto equivale a entrenar a los usuarios en buenas prácticas para reducir riesgos humanos, como el phishing o la propagación de malware. La alfabetización digital se convierte así en un escudo contra la desinformación y el mal uso de la tecnología.

Aunque el protocolo está diseñado para el ámbito universitario, sus principios tienen un alcance mucho mayor. Empresas de ciberseguridad, marketing digital y desarrollo tecnológico pueden adoptar medidas similares para garantizar que la IA se use de manera responsable. La lección es clara: la IA debe ser una herramienta auxiliar, nunca un sustituto del pensamiento humano. En un entorno donde la desinformación puede derivar en fraudes, manipulación política o pérdida de confianza digital, la apuesta por la transparencia y la educación crítica es indispensable.

Mobirise
The Game Awards 2025: fecha, transmisión y cómo participar

La duodécima edición de The Game Awards 2025 se celebrará en diciembre desde el Peacock Theater en Los Ángeles, California, consolidándose como la ceremonia más... Leer más..

Rusia bloquea FaceTime en su ofensiva digital contra Apple y las tecnológicas extranjeras

La decisión de Rusia de bloquear la aplicación de videollamadas FaceTime de Apple marca un nuevo episodio en la creciente ofensiva del país contra las grandes tecnológicas extranjeras... Leer más..

La integración de datos financieros que redefine la seguridad en la nube

La London Stock Exchange Group (LSEG) anunció la integración de sus datos financieros y analíticos dentro de ChatGPT, la plataforma empresarial de OpenAI.... Leer más..

OpenAI declara estado de alerta máxima

El director ejecutivo de OpenAI, Sam Altman, envió un memorándum a sus empleados declarando un “código rojo” dentro de la compañía... Leer más...

AI Website Creator