La IA no puede asumir mi responsabilidad

Entrevista a Antonio Serrano Acitores, experto en Inteligencia Artificial

«El riesgo principal es que la universidad funcione por “normas implícitas” y decisiones ad hoc: cada profesor interpreta, cada centro improvisa y el estudiante recibe mensajes contradictorios. Eso genera inseguridad jurídica y académica, desigualdad, arbitrariedad disciplinaria, y una erosión de la integridad (o, peor, una integridad “punitiva” basada en sospecha permanente)», según Antonio Serrano Acitores, profesor de la Universidad Rey Juan Carlos.


Antonio Serrano Acitores es un jurista y académico español con una trayectoria especialmente reconocida en la intersección entre derecho mercantil, transformación digital e inteligencia artificial. Desarrolla su labor como profesor en la Universidad Rey Juan Carlos, donde también ha asumido responsabilidades vinculadas a innovación y digitalización, situándose como una voz activa en la modernización del pensamiento jurídico ante los retos tecnológicos contemporáneos.

Su relevancia pública se sustenta en una producción académica amplia, una intensa actividad como conferenciante y una proyección que trasciende el ámbito estrictamente universitario, participando en foros sobre regulación tecnológica, legaltech y gobernanza de la IA. Su perfil combina autoridad doctrinal, capacidad divulgativa e implicación en ecosistemas de innovación, lo que lo posiciona como referente en el debate sobre cómo adaptar el derecho y la universidad a los entornos digitales emergentes.

Empezamos con una meta pregunta ¿La entrevista la ha contestado su inteligencia artificial o usted personalmente? ¿Podemos saber si nos dice la verdad?

Lo he contestado yo, personalmente. Dicho esto, no voy a caer en la hipocresía: uso herramientas de IA como apoyo (para ordenar ideas, contrastar riesgos, pulir estructura), pero el criterio, la responsabilidad y la firma intelectual son míos. ¿Cómo pueden saber si digo la verdad? En sentido absoluto, no pueden: en una entrevista siempre hay un componente de confianza.

Lo que sí puedo ofrecer es transparencia verificable: declarar cuándo he usado IA y para qué (edición/estructura vs. contenido sustantivo), mantener trazabilidad de borradores y, sobre todo, aceptar que lo que importa es que el argumento sea defendible públicamente: con razones, límites, y asumiendo consecuencias. La IA puede ayudar a escribir; no puede asumir mi responsabilidad.

El efecto neto (de la IA) puede ser muy positivo… si se gobierna bien: con reglas claras, alfabetización crítica y límites éticos

¿Qué ha aportado hasta el momento la IA a la educación superior?

Ha aportado tres cosas muy concretas:

Primero, capacidad de apoyo personalizado: tutorías, explicaciones alternativas, práctica guiada, feedback rápido, adaptación de materiales y accesibilidad (resúmenes, traducción, apoyo a estudiantes con necesidades diversas).

Segundo, aceleración de la investigación: exploración bibliográfica, codificación, análisis preliminar, redacción de borradores, generación de hipótesis (con la cautela de no confundir velocidad con verdad).

Tercero, eficiencia organizativa: automatización de tareas administrativas repetitivas, atención al estudiante, analítica para detectar abandono, y mejora de procesos internos. El efecto neto puede ser muy positivo… si se gobierna bien: con reglas claras, alfabetización crítica y límites éticos.

sin gobernanza democrática aparecen riesgos de privacidad y soberanía de datos, dependencia de proveedores, y brechas de acceso…sin deliberación institucional, manda el mercado o la inercia

Según una encuesta reciente de la UNESCO menos del 10% de las universidades dispone de políticas formales sobre IA generativa. ¿Qué riesgos implica la falta de respuestas institucionales claras y democráticamente deliberadas a la gobernanza de la IA en la universidad?

UNESCO alertó de que menos del 10% de instituciones educativas contaban con guías formales ante la irrupción de la IA generativa, precisamente cuando más se necesitaban marcos comunes. El riesgo principal es que la universidad funcione por “normas implícitas” y decisiones ad hoc: cada profesor interpreta, cada centro improvisa y el estudiante recibe mensajes contradictorios. Eso genera inseguridad jurídica y académica, desigualdad, arbitrariedad disciplinaria, y una erosión de la integridad (o, peor, una integridad “punitiva” basada en sospecha permanente).

Además, sin gobernanza democrática aparecen riesgos de privacidad y soberanía de datos, dependencia de proveedores, y brechas de acceso. La buena noticia es que se observa evolución: en 2025 UNESCO reportó que, al menos en el ecosistema de Cátedras UNESCO/UNITWIN, una mayoría ya tenía o desarrollaba guías. Pero el punto de fondo sigue: sin deliberación institucional, manda el mercado o la inercia.

Pablo Acosta /Gemini

¿Cómo debería replantearse la relación entre universidades y empresas tecnológicas para evitar que la agenda educativa quede subordinada a intereses comerciales que poco tienen que ver con la misión pública de la educación superior?

Con un principio: la universidad no puede “externalizar” su misión pública. Eso se traduce en medidas prácticas:

  • Contratos con condiciones de interés público: límites claros de uso de datos (no entrenar modelos con datos de estudiantes/profesores), auditorías, reversibilidad y salida (evitar vendor lock-in).
  • Gobernanza mixta y transparente: comités éticos y académicos con capacidad real de veto y evaluación de impacto (pedagógico, jurídico, social).
  • Pluralidad de proveedores y estándares abiertos: interoperabilidad, portabilidad, y preferencia por soluciones que permitan control institucional (cuando sea viable).
  • Separar “pilotos” de “infraestructura crítica”: experimentar sí; depender estructuralmente, no.
  • Cláusulas de independencia: la investigación y el currículo no se subastan; se co-diseñan desde prioridades académicas.

la universidad no puede “externalizar” su misión pública…experimentar sí; depender estructuralmente, no

Desde su perspectiva como experto, ¿hasta qué punto considera usted que el despliegue masivo de tecnologías de IA en la docencia, la investigación y la gestión universitaria es compatible con los valores esenciales de la universidad —pluralidad epistémica, disenso y crítica radical— y dónde sitúa usted las principales líneas rojas que no deberían cruzarse?

Es compatible si la IA se integra como herramienta discutible y no como autoridad. La universidad es, por definición, un espacio de pluralidad y crítica: la IA puede ayudar a comparar enfoques, detectar sesgos, abrir bibliografía, simular objeciones… pero también puede homogeneizar el pensamiento (la “respuesta promedio”), desplazar voces minoritarias y reforzar dependencias de plataformas.

Mis líneas rojas:

  • Decisiones académicas automatizadas sin explicabilidad ni recurso humano (admisión, becas, evaluación, contratación).
  • Vigilancia y perfilado del alumnado (especialmente biométrico o emocional) como condición de aprendizaje.
  • Opacidad contractual: si no sabemos qué datos se usan, dónde van, y con qué fines, no se despliega.
  • Sustituir la evaluación del juicio por la evaluación de “productos” generados (porque eso mata la educación).

La IA debe reforzar el pensamiento crítico; si lo anestesia, es anti-universitaria.

La universidad es, por definición, un espacio de pluralidad y crítica: la IA puede ayudar a comparar enfoques, detectar sesgos, abrir bibliografía, simular objeciones… pero también puede homogeneizar el pensamiento (la “respuesta promedio”), desplazar voces minoritarias y reforzar dependencias de plataformas

¿Es sostenible económica y organizativamente, incluso medioambientalmente, el despliegue exponencial de la IA en las organizaciones?

No es sostenible si se despliega de forma indiscriminada. El coste real no es solo licencias: es ciberseguridad, formación, rediseño de procesos, gobernanza, cumplimiento, y gestión del cambio. Y está el vector ambiental: el crecimiento de centros de datos y el uso intensivo de IA presionan la demanda eléctrica; la IEA prevé que el consumo de electricidad de los centros de datos se dispare hacia 2030 y señala a la IA como gran motor del aumento. Además, hay impactos en agua y refrigeración, y un déficit de transparencia que todavía se está corrigiendo.

La sostenibilidad pasa por “IA sobria”: casos de uso de alto valor, modelos más pequeños cuando baste, medición de huella, compras responsables, y alineación con obligaciones de transparencia y eficiencia que están creciendo en Europa.

Pablo Acosta / Gemini

¿Cómo evitamos el riesgo de que la IA transforme la educación universitaria en un «kayfabe» —ese pacto implícito de la lucha libre profesional donde todos fingen que lo ficticio es real, manteniendo la ilusión ante el público— Convertir la universidad en una mera simulación educativa, donde estudiantes simulan aprender y profesores simulan evaluar, priorizando respuestas plausibles sobre el aprendizaje auténtico y profundo?

Atacando el problema de raíz: el diseño de evaluación. Si evaluamos productos fácilmente imitables, obtendremos simulación. La solución es volver a evidencias de aprendizaje auténtico:

  • Evaluación por proceso (borradores, decisiones, justificación, bitácoras).
  • Defensas orales y preguntas en tiempo real.
  • Proyectos con “fricción” real: datos propios, trabajo de campo, casos con contexto local, iteraciones y retroalimentación.
  • Transparencia: declaración de uso de IA (qué se usó, cómo, qué se verificó) como parte de la competencia académica.

La IA puede convivir con aprendizaje profundo si la universidad deja de examinar “textos” y empieza a examinar criterio, método y juicio.

La IA puede convivir con aprendizaje profundo si la universidad deja de examinar “textos” y empieza a examinar criterio, método y juicio

La progresiva automatización de las funciones de aprendizaje y evaluación en los LMS —desde la generación de contenidos personalizados hasta la corrección automática y la tutoría inteligente— ¿podría hacer inviable el control de la autenticidad en los títulos universitarios oficiales online, destruyendo así su valor como garantía de competencias reales adquiridas por el estudiante?

Puede tensionarlo seriamente si el control de autenticidad se basa en “detectar trampas” en lugar de diseñar evaluaciones robustas. Los títulos online no deberían sostenerse sobre proctoring invasivo como único pilar (además de los riesgos de privacidad), sino sobre una arquitectura de garantías: hitos evaluables, defensas síncronas, rúbricas centradas en razonamiento, verificación de identidad proporcional y —en programas habilitantes— capstones o pruebas integradoras con validación fuerte. El objetivo no es “cazar” al estudiante, sino construir un sistema donde el fraude sea difícil y el aprendizaje sea visible. Si no hacemos ese rediseño, sí: el valor reputacional puede erosionarse.

¿Cree usted que la irrupción de la IA lo que ha hecho evidente son las carencias estructurales de un sistema universitario que, en algunos casos, prometía aprendizajes profundos y una atención personalizada a los estudiantes que no estaba realmente ofreciendo —por ejemplo, mediante evaluaciones superficiales, memorísticas o fácilmente automatizables—, y que la brecha entre el “aprendizaje sobre plataformas de IA” y el realmente existente en muchas universidades no es tan grande como se presenta?

Sí, y conviene decirlo sin dramatismos: la IA actúa como una prueba de estrés. Si una asignatura se aprueba con evaluación memorística o tareas automatizables, el problema no es la IA: es que estábamos confundiendo “entrega” con “aprendizaje”. La brecha entre “aprender con IA” y “lo que de verdad ocurría” en algunos contextos quizá no era tan grande: había ya una simulación previa, solo que más lenta.

La oportunidad es enorme: rediseñar currículos hacia competencias, pensamiento crítico, método científico-jurídico, creatividad, ética aplicada, trabajo en equipo y comunicación; y recuperar el acompañamiento real al estudiante, que es lo que nunca debe automatizarse del todo.

El objetivo no es “cazar” al estudiante, sino construir un sistema donde el fraude sea difícil y el aprendizaje sea visible. Si no hacemos ese rediseño, sí: el valor reputacional puede erosionarse

La inteligencia artificial está destruyendo las posiciones actuales de entrada de los universitarios en las empresas ¿Cómo pueden reaccionar las universidades a esta nueva situación?

Primero, con realismo: algunos trabajos junior basados en tareas repetitivas se reducirán; otros se transformarán. La universidad debe reaccionar en tres frentes:

  • Currículo: formar en “IA + disciplina”, no en IA como moda; y reforzar lo que la IA no sustituye bien: criterio, negociación, liderazgo, comprensión contextual, responsabilidad.
  • Aprendizaje experiencial: prácticas, clínicas, proyectos con empresas e instituciones (con evaluación académica), y resolución de problemas reales.
  • Orientación profesional: nuevas rutas de entrada (roles híbridos, analítica, compliance tecnológico, auditoría de IA, gestión del cambio).

Si la IA reconfigura el trabajo, la universidad no puede seguir graduando para el trabajo de ayer.

La brecha entre “aprender con IA” y “lo que de verdad ocurría” en algunos contextos quizá no era tan grande: había ya una simulación previa, solo que más lenta

En Francia se está produciendo un movimiento entre los docentes que promueve la no utilización de la IA en las universidades ¿Cómo valora el derecho a la objeción de conciencia frente a la IA que pretende este colectivo?

Lo valoro como una señal saludable de que hay conflicto de valores y necesidad de deliberación. En Francia ha aparecido un debate explícito sobre “objeción de conciencia” frente a la IA generativa en el ámbito educativo e investigador.

Dicho esto, yo distinguiría: el derecho a la objeción merece respeto cuando se fundamenta en convicciones éticas (impacto ambiental, explotación de datos, precarización cognitiva), pero debe convivir con otros derechos: el del estudiante a una formación actualizada y el de la institución a garantizar competencias.

Mi propuesta: no imponer IA, ofrecer alternativas, proteger la libertad de cátedra y, al mismo tiempo, asegurar alfabetización crítica mínima para todos. Prohibir sin más puede entregar el control al uso clandestino; gobernar y educar es más difícil, pero más universitario.

El derecho a la objeción merece respeto cuando se fundamenta en convicciones éticas pero debe convivir con otros derechos: el del estudiante a una formación actualizada y el de la institución a garantizar competencias

Por último, acaba de publicar su último libro  “Hola, inteligencia artificial”, y lo ha hecho con sus dos hijos de 15 y 12 años. ¿Cómo deben relacionarse los menores con la IA?

La IA no es un juguete inocuo ni un oráculo: es una herramienta potente con sesgos, errores y efectos sobre la atención y la autonomía. En casa y en la escuela, yo aplicaría reglas simples: uso con finalidad clara (crear, aprender, explorar), nunca para sustituir el esfuerzo básico; verificación obligatoria; protección de datos (no volcar información personal); y conversación constante sobre qué es y qué no es la IA. La UNESCO, por ejemplo, ha sugerido un límite de edad de 13 años para el uso de herramientas de IA en el aula y subraya la necesidad de formación docente.

Y algo más: enseñar a los menores que la IA puede amplificar su creatividad, pero su dignidad intelectual está en pensar por sí mismos. Con esa brújula, la IA puede ser un aliado educativo, no un atajo empobrecedor.


ENTREVISTA POR ALFONSO GONZÁLEZ


Puedes seguir día a día los contenidos nacionales e internacionales más relevantes sobre educación superior en la página de Linkedin del Observatorio de educación superior

Agradeceremos tus comentarios y preguntas sobre este artículo. Envía  un correo electrónico a los editores o envíe una carta para su publicación.

Espacios de Educación Superior está dirigido a poner en contacto a las personas e instituciones interesadas en la sociedad del aprendizaje en Iberoamérica y España.