Enrique Dans, experto en innovación educativa, dice cosas sorprendentes sobre la IA en RR. SS., como que "usar detectores de IA para sancionar a un alumno es irresponsable, casi criminal" y que prohibirla en las aulas sería “una aberración intelectual”. Es porque lo que entendemos por aprender cambia y lo importante es qué aprendió el alumno al producir un texto. Y termina asegurando que “la IA no sustituye la inteligencia humana, la amplifica”.
Me parece necesario plantear este debate y ver lo que piensan los lectores acerca de esto. ¿Tenemos que integrar la IA en el aprendizaje, que no es hacer trampa, sino prolongar la inteligencia? La clave está en cómo se usa la IA.
La IA puede actuar como una herramienta cognitiva, ayudando a organizar ideas, generar ejemplos, resumir información o explicar conceptos difíciles.
No reemplaza el pensamiento crítico, pero puede amplificarlo si se usa con intención y criterio. Usar IA para copiar respuestas sin entenderlas sí puede ser hacer trampa. Pero usarla para explorar, preguntar, debatir o aprender es como tener un tutor disponible. Es un trampolín, no una trampa.
Aprender con IA es como aprender con libros, profesores o compañeros: cada uno aporta algo distinto.
La inteligencia no es solo memorizar, sino saber usar recursos para pensar mejor. Y la IA es uno de esos recursos.
Integrar la inteligencia artificial en el aula o en el estudio personal puede ser una revolución educativa… si se hace con ética y propósito. Esto implica: transparencia. Explica claramente qué herramientas de IA se están usando, cómo funcionan y qué datos manejan. Privacidad. Protege los datos personales de estudiantes y docentes. Evita compartir información sensible con plataformas sin garantías. Equidad. Todos los estudiantes han de tener acceso a las herramientas de IA, evitando brechas digitales. Responsabilidad: Promueve el uso consciente, evitando que la IA sustituya el pensamiento crítico o la creatividad.
No debe hacerse: Usar IA para copiar tareas sin entender el contenido. Delegar todo el pensamiento en la máquina. Ignorar los sesgos o errores que puede tener la IA.
No se copia, se aprende. Se usa la IA como guía, no como sustituto.
Presentar un trabajo “tal cual” —sin adaptarlo, ajustarlo ni clarificarlo— puede parecer eficiente, pero suele ser contraproducente, especialmente en contextos educativos o profesionales. Hay razones que lo explican, la principal es el riesgo de lo impersonal, ya que faltará autenticidad: Un trabajo sin tu voz, estilo o perspectiva puede parecer genérico, como si lo hubiera hecho otra persona (o una IA). Tendrá desconexión con el público: Si no se adapta a la audiencia (profesor, colegas, jurado), puede que no conecte ni convenza. Contará con menor impacto: Los trabajos que transmiten personalidad, reflexión y claridad suelen destacar más.
Adaptar un trabajo supone clarificar ideas para que lo que se dice se entienda bien. También Ajustar el tono: formal, informal, técnico, narrativo… según el contexto, así como incluir la propia perspectiva: Opiniones, ejemplos personales, reflexiones propias. Finalmente, revisar y pulir para que el texto fluya, tenga coherencia y sea agradable de leer.
Si se usa IA como ayuda, entonces es aún más importante revisar el contenido para ver si está bien explicado y si tiene sentido para la audiencia a la que va dirigido. Hay que hacerlo propio, añadiendo toque, ideas, y forma de expresión personal. Hay que entenderlo, es decir, que si te preguntan sobre el trabajo, debes poder defenderlo.
Sí, se puede presentar un trabajo sin adaptarlo… pero no se debe. La personalización no es un lujo, es lo que convierte un texto en el trabajo propio trabajo. Y eso es lo que realmente tiene valor.
Sí a la IA…como herramienta poderosa: Puede mejorar la medicina, la educación, la ciencia, la accesibilidad, y mucho más. Para automatizar tareas repetitivas: Libera tiempo para que las personas se enfoquen en lo creativo, lo humano. Como apoyo en decisiones complejas: Desde diagnósticos médicos hasta análisis financieros.
No a la IA… sin ética ni regulación: Puede amplificar sesgos, invadir la privacidad o tomar decisiones injustas. Cuando reemplaza lo humano sin necesidad: En ámbitos donde la empatía, el juicio moral o la creatividad son esenciales. Si se usa para manipular o controlar: Por ejemplo, en vigilancia masiva o desinformación.
Así que sí, pero con cabeza, corazón y reglas claras.
La IA puede despertar entusiasmo e inquietud y eso es completamente natural. Entusiasma porque… Abre nuevas posibilidades: Desde diagnósticos médicos más precisos hasta traducciones instantáneas y arte generado por algoritmos. Acelera la innovación: En ciencia, educación, sostenibilidad, accesibilidad… está ayudando a resolver problemas complejos. Empodera a las personas: Herramientas como asistentes inteligentes, editores automáticos o sistemas de recomendación hacen la vida más fácil.
Inquieta porque… Puede reemplazar empleos: La automatización genera incertidumbre laboral en muchos sectores. Plantea dilemas éticos: ¿Quién es responsable si una IA comete un error grave? ¿Cómo se evita el sesgo? Invade la privacidad: El uso de datos personales por sistemas inteligentes preocupa a muchos. La clave está en cómo se diseña, regula y usa.