Revista Científica Retos de la Ciencia, 1(6), 2025.
https://www.retosdelacienciaec.com/Revistas/index.php/retos
Edición Especial
Sepembre, 2025
Vol.1, No. 6, 31-54
hps://doi.org/10.53877/rc1.6-600
ISSN 2602-8237
Retos de la Ciencia
La integración de la inteligencia artificial en la docencia universitaria:
Implicaciones económicas, pedagógicas y éticas
The integration of artificial intelligence in university teaching: Economic,
pedagogical and ethical implications
Francisco Javier Ramos González
Universidad Complutense de Madrid. España.
fjramosg@ucm.es
https://orcid.org/0009-0009-1344-8078
Francisco Avendaño Martínez
CES Cardenal Cisneros. España.
favedano@cescisneros.es
https://orcid.org/0000-0003-1289-5430
Recibido: 03-05-2025 Aceptado: 10-06-2025 Publicado: 15-09-2025
Cómo citar: Ramos-González, F. J. y Avendaño-Martínez, F. (2025). La integración de la inteligencia
artificial en la docencia universitaria: Implicaciones económicas, pedagógicas y éticas. Revista
Científica Retos de la Ciencia, 1(6), Ed. Esp. pp. 31-54. https://doi.org/10.53877/rc1.6-600
RESUMEN
Este artículo examina la integración de la inteligencia artificial (IA) en la docencia
universitaria desde una perspectiva interdisciplinaria, enfatizando sus impactos económicos
en la productividad laboral, la equidad en el mercado de trabajo y la transformación de roles
docentes. Basado en una revisión exhaustiva de literatura y reflexiones teóricas, se analiza la
conceptualización de la IA como sistemas sociotécnicos híbridos, y desafíos como la
autonomía, creatividad, epistemología y el debilitamiento del pensamiento crítico. Se abordan
paradojas de productividad, dimensiones éticas y de gobernanza, la producción de contenidos
educativos, el apoyo docente y sus consecuencias a largo plazo en el mercado laboral, así como
el debate de la tecnología y los Derechos Humanos. Los hallazgos sugieren que, aunque la IA
ofrece oportunidades para lograr una mayor eficiencia (hasta un 40% de reducción en tareas
administrativas), su adopción poco meditada puede provocar desigualdades laborales y
cognitivas. Se proponen recomendaciones en el ámbito de las políticas institucionales que
prioricen la mejora de las capacidades humanas, fomentando un mercado laboral educativo
resiliente y equitativo, con énfasis en una adopción tecnológica equilibrada.
PALABRAS CLAVE: inteligencia artificial, docencia universitaria, productividad,
pensamiento crítico, ética, derechos humanos.
ABSTRACT
This article examines the integration of artificial intelligence (AI) into university teaching from
an interdisciplinary perspective, emphasising its economic impacts on labour productivity,
labour market equity, and the transformation of teaching roles. Based on a comprehensive
32
Francisco Ramos / Francisco Avendaño
Fundación Internacional para la Educación la Ciencia y la Tecnología, FIECYT.
review of literature and theoretical reflections, it analyses the conceptualisation of AI as
hybrid socio-technical systems and challenges such as autonomy, creativity, epistemology,
and the weakening of critical thinking. It addresses productivity paradoxes, ethical and
governance dimensions, the production of educational content, teaching support and its long-
term consequences in the labour market, as well as the debate on technology and human
rights. The findings suggest that, although AI offers opportunities for greater efficiency (up
to a 40% reduction in administrative tasks), its ill-considered adoption can lead to labour and
cognitive inequalities. Recommendations are proposed in the area of institutional policies that
prioritise the improvement of human capabilities, promoting a resilient and equitable
educational labour market, with an emphasis on balanced technological adoption.
KEYWORDS: artificial intelligence, university teaching, productivity, critical thinking,
ethics, human rights.
INTRODUCCIÓN
La universidad ha constituido un pilar fundamental en el desarrollo de la Modernidad, no
solo por su función en la transmisión del conocimiento, sino también por su influencia en los
ámbitos ético, moral, científico y social. A lo largo de su evolución histórica, ha experimentado
transformaciones significativas; sin embargo, su esencia se mantiene constante: organizar y
renovar el saber humano con el fin de sustentar el progreso social. Sus orígenes se remontan
a las escuelas catedralicias de París, Oxford, Salamanca y Bolonia, donde emergió como una
institución autorregulada que fomentaba el pensamiento crítico a través del método
escolástico y el diálogo entre maestros y estudiantes.
En la era digital, las universidades enfrentan una transformación acelerada,
caracterizada por la integración de la docencia en un ecosistema híbrido potenciado por la
inteligencia artificial. Esta realidad demanda el desarrollo de nuevas competencias docentes
para prevenir la obsolescencia profesional. En la actualidad, el acceso a la información es
prácticamente ilimitado, lo que plantea una cuestión fundamental: ¿qué valor añadido ofrece
el aula más allá de la mera reproducción de datos disponibles en la red? La relevancia del
espacio educativo radica en la formación del pensamiento autónomo, el fomento del diálogo
con la diversidad y el desarrollo del juicio crítico, procesos mediante los cuales la información
se convierte en conocimiento significativo a través de la mediación pedagógica del docente.
Como señala Morin (2025), la verdadera amenaza no radica en la inteligencia artificial,
sino en una inteligencia humana superficial, alimentada por la mera acumulación de
información carente de reflexión crítica. Repensar el uso educativo de la tecnología requiere
reconocer que, si bien esta democratiza el acceso al conocimiento, no puede sustituir la
profundidad del diálogo y la experiencia compartida. El desafío contemporáneo consiste en
articular la tradición universitaria con la innovación digital, configurando una educación
integral y crítica en un contexto en el que la inteligencia artificial se consolida como una
infraestructura cognitiva que redefine la creación, la colaboración y las dinámicas laborales en
el ámbito educativo.
1. Conceptualización de la IA como Sistemas Sociotécnicos Híbridos
Las inteligencias artificiales constituyen herramientas tecnológicas que nos instan a
reconsiderar los fundamentos pedagógicos, administrativos y éticos de la educación superior
33
La integración de la inteligencia artificial en la docencia universitaria: Implicaciones económicas, pedagógicas y éticas
Retos de la Ciencia, 1(6), Edición Especial. 31-54.
ISSN 2602-8237
mediante una profunda reevaluación de los conceptos de enseñanza, aprendizaje e
investigación. El concepto de Transformación Digital en la educación superior, al igual que en
cualquier otra actividad u organización, va más allá de la simple digitalización de procesos
existentes, como la migración de registros en papel a formatos digitales. Se trata de una serie
de cambios culturales, profundos y coordinados, que involucran tanto a las personas
trabajadoras como a las tecnologías, impulsando nuevos modelos de negocio y sus
correspondientes propuestas de valor. Este enfoque holístico enfatiza que la tecnología
constituye únicamente un componente dentro de una reestructuración s amplia que
impacta a toda la sociedad.
En este contexto, sostenemos que las inteligencias artificiales generativas no deben
concebirse meramente como artefactos, sino como sistemas sociotécnicos híbridos, diseñados
y desarrollados por humanos mediante procesos complejos que involucran tanto la creación
como la interacción continua con los usuarios, extendiendo su conceptualización más allá de
una simple interacción puntual para abarcar prolongados procesos de entrenamiento y
adaptación (Baxter y Sommerville, 2011). Esta perspectiva se alinea con investigaciones
recientes que subrayan el carácter sociotécnico de la inteligencia artificial generativa, en la
cual la tecnología no opera de manera aislada, sino en estrecha interdependencia con factores
humanos y organizacionales (Mitra, Cramer y Gurevich, 2024). Aplicado al ámbito de la
docencia universitaria, ello implica que los educadores no deben considerar las inteligencias
artificiales generativas como herramientas pasivas destinadas únicamente a la producción
automática de contenidos educativos tales como lecciones o evaluaciones—, sino como
componentes integrales de sistemas sociotécnicos que requieren una intervención constante
para su adaptación a contextos pedagógicos dinámicos. Desde una perspectiva económica,
esta hibridación tiene el potencial de optimizar la labor docente al reducir las cargas
administrativas, siempre y cuando se realicen inversiones adecuadas en infraestructuras
sociotécnicas que permitan mitigar los costos asociados a la transición. De este modo, se
podría lograr un incremento en la productividad educativa de entre un 15 % y un 20 % a largo
plazo, mediante una mayor escalabilidad de los cursos en entornos híbridos (Chatterjee y
Bhattacharjee, 2020).
Autonomía, Creatividad y Epistemología en la IA Generativa
Al interactuar con una inteligencia artificial generativa, los modelos de lenguaje (LLM)
amplían las capacidades del razonamiento humano; sin embargo, un exceso de reflexión
puede deteriorar su desempeño. Zihao et al. (2025) identifican tres etapas en el proceso de
razonamiento: exploración insuficiente, razonamiento compensatorio y convergencia. La
segunda etapa se asocia con la generación de respuestas más precisas, mientras que la tercera
conlleva un “pensamiento excesivo”, que implica un desperdicio de recursos y la repetición
innecesaria de información. La detección del punto de finalización del razonamiento (RCP)
resulta fundamental para optimizar el proceso y evitar ciclos improductivos.
En el ámbito universitario, la incorporación de las inteligencias artificiales (IA) plantea
diversos desafíos éticos y sociales. Su utilización podría intensificar las desigualdades
digitales entre instituciones y aumentar la carga laboral del personal docente, especialmente
en contextos con menor financiamiento (Mhlanga, 2023). Aunque la IA puede asistir en la
realización de tareas complejas, la autonomía permanece en manos humanas, dado que
únicamente el juicio del profesorado confiere sentido y valor a los resultados obtenidos
(Larson, 2021). En este sentido, las inteligencias artificiales deben concebirse como
34
Francisco Ramos / Francisco Avendaño
Fundación Internacional para la Educación la Ciencia y la Tecnología, FIECYT.
herramientas complementarias y no como sustitutas, preservando así el papel crítico y ético
del cuerpo docente.
La creatividad, lejos de ser una característica exclusivamente humana, se concibe como
un fenómeno híbrido que emerge de la interacción entre las capacidades humanas y las
tecnologías (Walther, 2025). Este enfoque, aplicado al ámbito educativo, promueve la co-
creación de materiales personalizados, incrementa la productividad y estimula la innovación
pedagógica, sin menoscabar el papel fundamental del docente. La inteligencia artificial debe
ser entendida como una infraestructura orientada al bienestar, y no como un fin técnico en sí
misma, debiendo estar siempre guiada por principios éticos y bajo una supervisión adecuada.
Las inteligencias artificiales generativas carecen de referencia y comprensión, ya que
operan mediante procesos estadísticos sin distinguir entre verdad y falsedad (Salvagno et al.,
2023). Las denominadas “alucinaciones” constituyen construcciones probabilísticas que
requieren verificación por parte de expertos humanos para prevenir la desinformación y la
ansiedad epistémica (Alkaissi y McFarlane, 2023). Desde la perspectiva de la cognición
distribuida (Osler, 2025), estas interacciones pueden modificar creencias y narrativas
personales, lo que enfatiza la necesidad de establecer protocolos docentes de validación con
el fin de salvaguardar la credibilidad académica.
De acuerdo con Searle (1980), las inteligencias artificiales operan a nivel sintáctico y no
semántico; por lo tanto, corresponde al docente atribuir significado a los resultados
generados, fortaleciendo el pensamiento crítico y previniendo la pérdida de una comprensión
profunda. Asimismo, aunque estas tecnologías simulan procesos de razonamiento inductivo,
carecen de capacidad abductiva, es decir, de comprensión interpretativa (Larson, 2021). En
consecuencia, las instituciones universitarias deben incorporar la inteligencia artificial como
una herramienta de apoyo inductivo, reservando el juicio abductivo para el profesorado, con
el fin de garantizar la integridad académica y la sostenibilidad laboral en el contexto de las
economías digitales.
2. IA y pensamiento crítico: impactos cognitivos y económicos
La interacción con la inteligencia artificial generativa amplía las capacidades del
razonamiento humano; sin embargo, un exceso de reflexión puede reducir su eficacia. Zihao
et al. (2025) identifican tres etapas cognitivas en estos modelos: exploración insuficiente,
razonamiento compensatorio y convergencia. La segunda etapa se asocia con la generación
de respuestas s precisas, mientras que la tercera conlleva un pensamiento excesivo” y la
repetición de contenidos. La identificación del punto de finalización del razonamiento (RCP)
resulta fundamental para optimizar el rendimiento y evitar ciclos improductivos.
En el ámbito universitario, la incorporación de la inteligencia artificial (IA) plantea
desafíos éticos y sociales, particularmente en lo que respecta a la equidad tecnológica. Su
implementación puede acentuar las desigualdades entre instituciones y aumentar la carga
laboral del personal docente (Mhlanga, 2023). Si bien estas herramientas facilitan la realización
de tareas complejas, la autonomía y el juicio crítico continúan siendo prerrogativas
exclusivamente humanas (Larson, 2021). Por tanto, la IA debe concebirse como un recurso
complementario que potencia la reflexión académica, y no como un sustituto del docente.
La creatividad contemporánea se configura como un fenómeno híbrido, resultado de
la interacción entre las capacidades humanas y las tecnologías emergentes (Walther, 2025). En
el ámbito educativo, esta sinergia promueve la personalización, la innovación y la eficiencia,
siempre que se mantenga un marco ético que garantice la intencionalidad pedagógica. No
obstante, es importante señalar que las inteligencias artificiales no poseen la capacidad de
comprender ni verificar la verdad, dado que su funcionamiento se basa en procesos
35
La integración de la inteligencia artificial en la docencia universitaria: Implicaciones económicas, pedagógicas y éticas
Retos de la Ciencia, 1(6), Edición Especial. 31-54.
ISSN 2602-8237
estadísticos, lo que puede dar lugar a la generación de “alucinaciones” o construcciones
verosímiles pero falsas (Salvagno et al., 2023; Alkaissi & McFarlane, 2023). En este sentido, la
validación por parte del profesorado resulta fundamental para prevenir la desinformación y
salvaguardar la credibilidad académica.
Desde la perspectiva de la cognición distribuida (Osler, 2025), estas tecnologías
modifican significativamente los procesos mediante los cuales se construye y se comparte el
conocimiento. Sin embargo, como señala Searle (1980), la inteligencia artificial opera a nivel
sintáctico y no semántico; el significado auténtico solo surge a través de la interpretación
humana. Asimismo, aunque la IA puede emular razonamientos inductivos, carece de la
capacidad abductiva, es decir, de una comprensión interpretativa profunda (Larson, 2021). En
consecuencia, resulta imprescindible que la universidad integre la inteligencia artificial como
una herramienta de apoyo analítico, reservando al profesorado la responsabilidad de la
interpretación crítica y ética del conocimiento, con el fin de garantizar tanto la integridad
académica como la sostenibilidad laboral en un entorno digital.
De este modo, cuarenta años después, continuamos planteándonos la misma
interrogante que Solow formuló.
Consideramos que la medición del Producto Interno Bruto (PIB) se ha vuelto más
compleja debido a la creciente penetración de las nuevas tecnologías digitales. En
consecuencia, es posible que se esté subestimando tanto el crecimiento económico como el
aumento de la productividad. Asimismo, la difusión generalizada del impacto de la
revolución tecnológica suele manifestarse con un retraso temporal considerable. En todo caso,
el incremento de la productividad debe entenderse como el resultado de la interacción de
ltiples factores que, hasta ahora, no han sido debidamente considerados.
Para nuestro análisis, la evolución de la productividad debe abordarse considerando
los siguientes cinco factores:
a) Capital humano: el capital humano constituye la base fundamental para el
crecimiento sostenible y demanda una educación de calidad que promueva la
adquisición y el desarrollo de habilidades adaptativas. Este componente abarca la
formación continua, la cual permite la actualización constante de las competencias
y destrezas de la fuerza laboral frente a las innovaciones tecnológicas permanentes.
b) Innovación: desde el trabajo seminal de Schumpeter, se reconoce que la innovación
constituye el motor fundamental del crecimiento económico, al incrementar la
productividad mediante mecanismos interrelacionados. La inversión en
investigación y desarrollo (I+D), tanto pública como privada, propicia avances
tecnológicos y fomenta la creación de ecosistemas innovadores, los cuales pueden
ser cuantificados a través de indicadores como el número de investigadores per
cápita o por cada mil habitantes. Asimismo, la colaboración entre universidades y
empresas acelera la transferencia de conocimiento, mientras que la adopción de la
inteligencia artificial contribuye a un crecimiento anual adicional de hasta un 1,5
% al optimizar procesos productivos (Grossman, 1991). De igual modo, la
inversión en activos intangibles, tales como software y marcas, junto con la
proximidad a la frontera tecnológica, facilita la captación de externalidades
tecnológicas (“spillovers”) a nivel global y la transformación de ideas innovadoras
en ganancias sostenibles de eficiencia.
c) Infraestructuras: según Aschauer (1989), constituyen los cimientos invisibles que
sustentan el crecimiento económico al facilitar la eficiencia operativa y la
conectividad. El sector del transporte, a través de una red desarrollada de
36
Francisco Ramos / Francisco Avendaño
Fundación Internacional para la Educación la Ciencia y la Tecnología, FIECYT.
carreteras, puertos y aeropuertos, contribuye a la reducción de los costos logísticos
y a la aceleración del comercio, lo que incrementa la productividad sectorial. En
cuanto a la energía, un acceso óptimo y una confiabilidad eléctrica adecuada
garantizan la continuidad de las operaciones tanto en la industria como en los
hogares, minimizando las rdidas derivadas de interrupciones. Las
telecomunicaciones, representadas por tecnologías como la banda ancha y el 5G,
posibilitan la digitalización y el flujo de información en tiempo real, fomentando
la innovación a distancia. Asimismo, los servicios básicos de agua y saneamiento
mejoran la salud pública y fortalecen la fuerza laboral. Por último, un elevado stock
de capital físico per cápita refleja inversiones acumuladas que generan retornos
multiplicadores en el producto interno bruto (PIB). Estos componentes
interrelacionados transforman las barreras en oportunidades para alcanzar una
prosperidad sostenible.
d) Instituciones: Acemoglu y Robinson (1989) demostraron que las instituciones
constituyen, posiblemente, el factor más relevante para el aumento de la
productividad en un país, al establecer un marco confiable que incentiva la
inversión, la innovación y el esfuerzo individual. El estado de derecho, junto con
la protección de la propiedad privada y la independencia judicial, genera confianza
en los contratos y salvaguarda los derechos, promoviendo así la acumulación de
capital. El control de la corrupción y la calidad regulatoria contribuyen a eliminar
distorsiones ineficientes, mientras que la facilidad para hacer negocios reduce las
barreras burocráticas, atrayendo tanto a emprendedores como a capital extranjero.
Finalmente, la estabilidad política y la democracia, especialmente en países en
desarrollo, garantizan la implementación de políticas consistentes e inclusivas que
potencian el crecimiento económico a largo plazo.
e) Estructura productiva: La estructura productiva de un país influye de manera
significativa en su incremento de productividad, dado que no solo importa qué se
produce, sino también cómo se produce. La diversificación sectorial contribuye a
mitigar los riesgos asociados a la dependencia de commodities” volátiles
(Shleifer, 2025), mientras que una mayor participación de los sectores industrial y
manufacturero favorece la generación de empleo calificado y el desarrollo de los
denominados “encadenamientos productivos”. Asimismo, el tamaño del mercado
interno facilita la obtención de economías de escala y la atracción de inversiones.
Cuando estos elementos se encuentran alineados, resultan fundamentales para
transformar la base productiva en un catalizador de crecimiento sostenido y
equitativo.
Consideramos que la clave del paradigma de la productividad radica en la comprensión
insuficiente de estos factores y, en consecuencia, en la inadecuada medición de estos.
En síntesis, estas consideraciones adicionales —la adopción tecnológica, las
percepciones duales y el lento despliegue de dichas tecnologías— plantean un desafío para el
cuerpo docente, instándolo a adoptar una perspectiva estratégica que permita convertir la
paradoja de la productividad en una oportunidad para fomentar la innovación económica y
laboral en el ámbito universitario.
Producción de Contenidos Educativos
La inteligencia artificial está revolucionando la producción de contenidos educativos
mediante la automatización de procesos creativos, tales como la elaboración de lecciones
personalizadas y evaluaciones adaptativas, libera a los docentes de tareas rutinarias,
37
La integración de la inteligencia artificial en la docencia universitaria: Implicaciones económicas, pedagógicas y éticas
Retos de la Ciencia, 1(6), Edición Especial. 31-54.
ISSN 2602-8237
permitiéndoles concentrarse en interacciones pedagógicas más significativas (Cope, Kalantzis
y Searsmith, 2020). En el ámbito universitario, la inteligencia artificial facilita la generación de
contenidos escalables que incrementan el compromiso de los estudiantes sin sustituir el
componente humano; sin embargo, un uso excesivo de estas tecnologías podría restringir la
originalidad al reutilizar materiales preexistentes (Chan y Hu, 2023; Chan y Colloton, 2024;
Yin et al., 2024). Diversos estudios evidencian que la inteligencia artificial contribuye a mejorar
la calidad docente y a elevar la motivación estudiantil, aunque también plantea desafíos
éticos, tales como la dependencia excesiva, la disminución de la creatividad y la perpetuación
de sesgos algorítmicos, especialmente en ausencia de una supervisión humana adecuada
(SciELO, 2025; Akgun y Greenhow, 2021).
Angela Duckworth (2021) enfatiza que, en la era de la inteligencia artificial, los
estudiantes requieren aún más la presencia de los docentes, no con el propósito de competir
con la tecnología, sino para orientar su uso y ejemplificar valores fundamentales como la
integridad y la perseverancia. Si bien la inteligencia artificial proporciona eficiencia y acceso
a la información, no contribuye al desarrollo del carácter ni de habilidades críticas. Por lo
tanto, el papel del docente continúa siendo esencial para fomentar la creatividad, la resiliencia
y la ética. La integración de la inteligencia artificial debe concebirse como un complemento
que potencie la labor educativa humana, sin llegar a reemplazarla.
Desde una perspectiva económica, la inteligencia artificial (IA) desplaza ciertos
empleos, al tiempo que incrementa la productividad y genera demanda de nuevas
competencias (Brynjolfsson, 2016). La adopción de tecnologías provoca ajustes heterogéneos
entre los trabajadores, quienes atraviesan períodos de transición hacia nuevas ocupaciones,
tal como se ha observado en revoluciones tecnológicas previas relacionadas con las
tecnologías de la información (Autor et al., 2024; Bresnahan et al., 2002; Brynjolfsson et al.,
2021). Datos recientes evidencian avances acelerados en las capacidades de la IA y una
adopción creciente de modelos de lenguaje extenso (LLM, por sus siglas en inglés),
alcanzando un 46 % de usuarios en Estados Unidos para el año 2025 (Hartley et al., 2025;
Maslej et al., 2025).
Investigaciones recientes señalan que los trabajadores jóvenes en profesiones con
mayor exposición a la inteligencia artificial han experimentado una disminución en sus
niveles de empleo. En contraste, los sectores menos expuestos y los trabajadores con mayor
experiencia han mantenido o incrementado sus tasas de empleo, lo que evidencia que los
impactos iniciales son desproporcionados y se concentran en roles altamente susceptibles a la
automatización (Brynjolfsson, Chandar y Chen, 2025). Estos resultados sugieren que la
revolución de la inteligencia artificial está comenzando a afectar de manera significativa el
empleo de los trabajadores principiantes, mientras que la experiencia y la capacidad para
complementar la tecnología actúan como factores mitigadores del riesgo en otros ámbitos
laborales.
En resumen, la inteligencia artificial presenta beneficios evidentes en términos de
eficiencia y personalización educativa; sin embargo, requiere una supervisión ética rigurosa,
la preservación del papel del docente y una adecuada adaptación del mercado laboral, con el
fin de maximizar las oportunidades sin comprometer la creatividad ni la equidad.
La difusión de las IAs generativas y su impacto en el primer empleo
Las conclusiones de Brynjolfsson, Chandar y Chen (2025) han sido recientemente validadas
por Lichtinger y Hosseini Maasoum (2025), quienes evidencian que la adopción de la
inteligencia artificial generativa conlleva una reducción en la demanda de personal junior,
38
Francisco Ramos / Francisco Avendaño
Fundación Internacional para la Educación la Ciencia y la Tecnología, FIECYT.
mientras que el empleo de trabajadores senior se mantiene estable. Sus investigaciones
revelan una disminución del 7,7 % en la plantilla juvenil, así como una reducción del 40 % en
las contrataciones trimestrales en empresas mayoristas y minoristas durante un período de
seis trimestres. Este descenso se atribuye principalmente a una desaceleración en la
contratación, más que a despidos, aunque los empleados jóvenes que permanecen en la
organización podrían beneficiarse de mayores oportunidades de promoción.
El impacto de la inteligencia artificial generativa en la población juvenil varía en
función del sector económico y del nivel de formación académica. Las disminuciones en el
empleo son más pronunciadas en los sectores de comercio mayorista y minorista, mientras
que otros sectores experimentan reducciones menores, aunque significativas. La reducción
del empleo juvenil sigue un patrón en forma de U: los graduados de nivel medio resultan ser
los más afectados, en tanto que aquellos provenientes de escuelas de élite o de niveles
educativos inferiores presentan pérdidas menores. Este fenómeno refleja diferencias en
productividad y costos laborales que inciden en la vulnerabilidad frente a la automatización.
Estos hallazgos indican que la inteligencia artificial generativa desplaza tareas de nivel
básico, impactando los primeros escalones en el desarrollo de las trayectorias profesionales.
Considerando que estos empleos son fundamentales para el crecimiento salarial y la
movilidad laboral futura, la reducción de oportunidades para los jóvenes podría intensificar
la desigualdad y modificar la distribución de los beneficios derivados de las tecnologías.
Paralelamente, las empresas suelen privilegiar la antigüedad, promoviendo a empleados con
experiencia y recurriendo a trabajadores consolidados, lo cual refuerza esta dinámica.
En conjunto, la evidencia sugiere que la inteligencia artificial generativa está
modificando la estructura interna del empleo, privilegiando la experiencia acumulada por
encima de la incorporación de nuevos talentos. Esta tendencia conlleva importantes
implicaciones para el desarrollo del capital humano, la movilidad profesional y la equidad en
la distribución de los beneficios tecnológicos. De cara al futuro, resulta imprescindible llevar
a cabo un monitoreo y análisis continuos de estos efectos, con el fin de diseñar y ajustar
políticas laborales y educativas que permitan mitigar los riesgos asociados a la desigualdad
generacional y sectorial.
Automatización vs. Potenciación de las capacidades humanas en la IA Generativa
En relación con la dicotomía entre la automatización y la potenciación de las capacidades
humanas en la docencia universitaria, se observa que esta tensión no debe concebirse de
manera binaria, sino como un espectro que reconfigura el mercado laboral educativo. La
inteligencia artificial desplaza tareas rutinarias y, simultáneamente, fortalece las habilidades
humanas, en consonancia con análisis que subrayan su potencial para generar nuevos
empleos a través de dicha potenciación, aunque advierten sobre los riesgos de desigualdad
en caso de que predomine la automatización (Autor, 2024).
Desde una perspectiva teórica, la automatización se entiende como el reemplazo de
tareas humanas repetitivas tales como la calificación o la recopilación de datoslo que
conlleva riesgos de obsolescencia en los roles administrativos y operativos. En contraste, la
potenciación concibe la inteligencia artificial como un complemento que permite liberar
tiempo para actividades de mayor valor, tales como el diseño creativo de planes de estudio o
la interacción empática con los estudiantes, fomentando así la creación de nuevos empleos en
el ámbito de la innovación pedagógica (Acemoglu y Restrepo, 2019).
Marguerit (2025) señala que la inteligencia artificial automatizadora provoca una
disminución del empleo y de los salarios en ocupaciones poco cualificadas, con una reducción
aproximada del 5 %. Por el contrario, la inteligencia artificial orientada a la potenciación
39
La integración de la inteligencia artificial en la docencia universitaria: Implicaciones económicas, pedagógicas y éticas
Retos de la Ciencia, 1(6), Edición Especial. 31-54.
ISSN 2602-8237
incrementa tanto el empleo como los salarios en ocupaciones altamente cualificadas, con un
aumento cercano al 3 %. Estos hallazgos evidencian el papel de la inteligencia artificial en la
ampliación de la desigualdad salarial. En consecuencia, resulta imprescindible implementar
políticas que prioricen el fortalecimiento de las capacidades humanas, evitando recortes en
los niveles educativos básicos. En este sentido, aunque la inteligencia artificial puede
automatizar ciertas tareas, también tiene el potencial de aumentar la productividad general
en un 14 % en empleos basados en el conocimiento, como la docencia (Brynjolfsson et al.,
2023).
Eloundou et al. (2023) estiman que aproximadamente el 80 % de la fuerza laboral en
Estados Unidos verá afectado al menos el 10 % de sus tareas por los modelos de lenguaje de
gran escala (LLMs, por sus siglas en inglés), mientras que un 19 % experimentará
modificaciones en más del 50 % de sus actividades, con un impacto más significativo en
empleos de altos ingresos, incluyendo el sector educativo. Este fenómeno respalda el modelo
de la “curva en J” en productividad, que contempla pérdidas iniciales derivadas del proceso
de adaptación, seguidas de incrementos sostenidos a largo plazo. De acuerdo con el McKinsey
Global Institute (2023), la integración de la inteligencia artificial generativa podría incrementar
la productividad laboral entre un 0,5 % y un 0,9 % anual hasta el año 2030, especialmente
mediante la potenciación de las capacidades humanas en el ámbito educativo.
Costes Invisibles de la IA en la Docencia
Resulta evidente que la aparente “gratuidad” de herramientas como los grandes modelos de
lenguaje (LLM) encubre intercambios profundos en términos de dependencia conductual,
erosión de la autonomía cognitiva y ampliación de las desigualdades. La inteligencia artificial,
además de potenciar la productividad, está reconfigurando el mercado laboral educativo al
desplazar tareas rutinarias y generar nuevos costos intangibles, tales como el agotamiento del
profesorado y la brecha de habilidades (McKinsey Global Institute, 2023).
Los costos invisibles de la inteligencia artificial (IA) en el ámbito educativo trascienden
las dimensiones económicas, manifestándose en una creciente dependencia tecnológica y en
la pérdida de autonomía cognitiva. Herramientas consideradas “gratuitas”, como las
desarrolladas por Google u OpenAI, fomentan la eficiencia a expensas del pensamiento
crítico, generando una “deuda cognitiva” que, según Kosmyna (2025), reduce la
productividad a largo plazo. En el estudio Your Brain on ChatGPT, se evidenció que los
usuarios de modelos de lenguaje extenso (LLMs) para la redacción de ensayos presentaron
una menor actividad neuronal en regiones cerebrales vinculadas con la memoria y la
creatividad. Estos hallazgos sugieren que la IA tiende a homogeneizar el aprendizaje,
erosionar la diversidad cognitiva y disminuir la empleabilidad futura en un 10–15 % en
sectores de alta tecnología (World Economic Forum, 2025).
A lo anterior se añaden los impactos éticos y ambientales, que con frecuencia son
pasados por alto. La utilización masiva de la inteligencia artificial en el ámbito educativo
incrementa significativamente la huella ecológica global: se estima que su entrenamiento
podría consumir una cantidad de energía equivalente al consumo energético de Japón para el
año 2026, así como 1,7 billones de galones de agua para 2027, lo cual implicaría un aumento
considerable en los costos operativos de las universidades, especialmente en regiones en vías
de desarrollo (Washington University Sustainability, 2024). Estas externalidades se traducen
en un incremento de los costos energéticos y en una reducción de la sostenibilidad
institucional.
40
Francisco Ramos / Francisco Avendaño
Fundación Internacional para la Educación la Ciencia y la Tecnología, FIECYT.
Asimismo, los modelos de lenguaje de gran escala (LLMs), como ChatGPT, tienden a inducir
razonamientos superficiales, lo que conlleva una disminución en la capacidad de abstracción
teórica y favorece el aislamiento en entornos digitales. Esta situación podría traducirse en
pérdidas equivalentes al 5–7 % del Producto Interno Bruto (PIB) educativo en regiones con
brechas en habilidades (Lin, 2025). De manera similar, los tutores virtuales suelen promover
un aprendizaje pasivo, lo que reduce la motivación intrínseca y refuerza sesgos algorítmicos
que afectan negativamente el desarrollo de habilidades emocionales (Chan y Colloton, 2024).
En consecuencia, futuras investigaciones deberían priorizar la realización de estudios
longitudinales multiculturales que analicen el bienestar y los efectos cognitivos derivados del
uso de la inteligencia artificial. Asimismo, es fundamental diseñar marcos bridos que
orienten la enseñanza digital hacia la emancipación, evitando fomentar la dependencia
tecnológica. De este modo, se garantizará que la tecnología potencie las capacidades humanas
sin agravar las desigualdades ni incrementar los costos económicos vinculados a la brecha de
habilidades.
3. Dimensiones de gobernanza: regulación y marcos internacionales
En el ámbito de la gobernanza, es necesario establecer una regulación que equilibre la
innovación, los derechos y la equidad, evitando la concentración del poder tecnológico en un
reducido número de corporaciones y fomentando la adopción de estándares éticos globales,
inspirados en el denominado “efecto Bruselas”. El informe de la UNESCO (2021), actualizado
en 2025, propone marcos éticos que priorizan competencias críticas, tales como la evaluación
de riesgos y la alfabetización digital inclusiva, las cuales son consideradas habilidades que no
pueden ser replicadas por máquinas.
La OCDE (2023) advierte que, en ausencia de marcos regulatorios sólidos, la
inteligencia artificial (IA) tiende a amplificar las desigualdades educativas, especialmente en
los países en desarrollo, donde únicamente el 30 % del estudiantado cuenta con acceso a
herramientas digitales básicas. Su informe de 2024 pone de manifiesto que los algoritmos
pueden perpetuar prácticas discriminatorias; sin embargo, también ofrecen oportunidades
para una personalización educativa inclusiva, siempre que su gestión se realice bajo principios
éticos. En el documento Trends Shaping Education (2025), la OCDE proyecta una expansión
de la colaboración entre humanos e IA en el ámbito educativo, al tiempo que enfatiza la
necesidad de establecer contrapesos democráticos que eviten la concentración monopólica de
tecnologías y la pérdida de autonomía institucional.
No obstante, menos del 40 % de las universidades han implementado políticas
formales respecto al uso de la inteligencia artificial, lo que provoca inconsistencias en la
integridad académica (Francis, Jones y Smith, 2025). En este contexto, se recomienda la
adopción del Marco de Alfabetización en Inteligencia Artificial promovido por la Unión
Europea, el cual integra conocimientos técnicos, competencias éticas y actitudes reflexivas
para fomentar una interacción responsable con sistemas inteligentes, fortaleciendo así el juicio
crítico y la autonomía digital tanto del profesorado como del estudiantado.
En América Latina, los desafíos en materia de gobernanza se ven exacerbados por la
brecha digital y la insuficiencia de infraestructura, dado que únicamente entre el 40 % y el 50
% de las universidades cuentan con políticas éticas relacionadas con la inteligencia artificial
(IA). Esta situación contribuye a profundizar la desigualdad y a perpetuar sesgos algorítmicos
en contextos sociales caracterizados por su diversidad (CEPAL, 2024). El Índice
Latinoamericano de Inteligencia Artificial (ILIA) evidencia que países como Chile y Brasil
lideran en la adopción tecnológica; sin embargo, enfrentan importantes deficiencias en
términos de equidad y sostenibilidad. En consecuencia, la CEPAL (2024) recomienda la
41
La integración de la inteligencia artificial en la docencia universitaria: Implicaciones económicas, pedagógicas y éticas
Retos de la Ciencia, 1(6), Edición Especial. 31-54.
ISSN 2602-8237
implementación de políticas regionales que prioricen la inversión en alfabetización digital y
fomenten la cooperación transnacional, adaptando las normativas europeas a las
particularidades locales, con el fin de que la gobernanza de la IA no obstaculice la innovación
inclusiva, sino que la fortalezca.
En resumen, las universidades deben promover una "inteligencia artificial
responsable" a través de:
a) Modelos híbridos que integren inteligencia artificial con la interacción física, con el
fin de preservar la experiencia corporal.
b) Políticas democráticas que incorporen alianzas público-privadas destinadas a la
realización de auditorías éticas;
c) Investigación interdisciplinaria orientada a evaluar los impactos a largo plazo en
términos de equidad y sostenibilidad.
Sin la implementación de estas medidas, se corre el riesgo de que la educación se
deshumanice; en cambio, su adopción permite alcanzar un equilibrio en el cual la inteligencia
artificial potencie las cualidades humanas. Este enfoque no solo contribuye a resolver las
tensiones presentes, sino que también sienta las bases para un futuro inclusivo y ético en la
enseñanza universitaria, garantizando que la tecnología esté al servicio de la humanidad y no
viceversa.
Es esencial adoptar una postura crítica respecto a los objetivos subyacentes en las
soluciones de gobernanza de la inteligencia artificial (IA) y sus repercusiones culturales,
especialmente cuando la formulación de normas éticas y regulatorias emana del sector
privado. Resulta pertinente cuestionar qué aspectos quedan excluidos bajo términos como
«equidad», «rendición de cuentas» o «transparencia», y si estos conceptos abarcan de manera
efectiva la justicia social y los derechos humanos. Winfield y Jirotka (2018) señalan que los
principios éticos constituyen únicamente un primer paso, cuya eficacia depende de su
implementación y supervisión constante; la verdadera prueba se manifiesta cuando el sistema
es sometido a evaluación práctica.
Coglianese (2024) cuestiona la concepción estática de la regulación, entendida como
un conjunto cerrado e inmutable de normas. En su lugar, propone abordarla en forma de
gerundio —“regulando”—, es decir, como un proceso continuo y dinámico de adaptación a
los avances tecnológicos (Medicherla, 2025). En el ámbito universitario, esta perspectiva
resulta fundamental, dado que la incorporación de herramientas de inteligencia artificial en
la evaluación y el aprendizaje personalizado conlleva riesgos asociados a sesgos y
vulneraciones de la privacidad, los cuales demandan ajustes regulatorios constantes. En este
contexto, el papel del profesorado es crucial: tanto docentes como desarrolladores pueden
contribuir a agravar las desigualdades si no implementan una gobernanza ética y flexible que
permita mitigar los daños y potenciar los beneficios.
El objetivo de la regulación, según lo expuesto por Coglianese, consiste en modificar
comportamientos y optimizar resultados en contextos dinámicos y cambiantes. En el ámbito
europeo, el Reglamento de Inteligencia Artificial (Parlamento Europeo y Consejo de la Unión
Europea, 2024) adopta un enfoque fundamentado en la gestión de riesgos, prohibiendo
determinadas aplicaciones consideradas de alto riesgo y estableciendo requisitos de
transparencia y supervisión humana. Este principio subraya la importancia de monitorear y
adaptar de manera continua las herramientas educativas, con el fin de prevenir sesgos que
puedan afectar a poblaciones diversas.
La regulación debe ser complementada con la negociación colectiva. En España, la
legislación laboral establece la obligación de informar sobre los algoritmos que inciden en las
42
Francisco Ramos / Francisco Avendaño
Fundación Internacional para la Educación la Ciencia y la Tecnología, FIECYT.
condiciones de trabajo (artículo 64.4.d del Estatuto de los Trabajadores). Asimismo, el
Reglamento (UE) 2016/679 impone la realización de evaluaciones continuas de impacto en
materia de protección de datos en el ámbito de las tecnologías educativas (Unión Europea,
2016). En particular, su artículo 35 exige la valoración de los riesgos asociados a la
implementación de nuevas tecnologías, lo que obliga a las universidades a llevar a cabo
revisiones periódicas de plataformas como Moodle o Blackboard, con el fin de garantizar la
protección de la privacidad de los estudiantes.
Asimismo, el Plan de Acción de Educación Digital (2021-2027) fomenta una educación
digital caracterizada por principios éticos y equitativos (Comisión Europea, 2020). Por su
parte, la Directiva (UE) 2024/2831 establece la obligación de garantizar la transparencia en la
gestión algorítmica de las plataformas educativas, protegiendo tanto a docentes como a
estudiantes frente a decisiones automatizadas opacas (Rodríguez Fernández, 2025). En
conjunto, estas normativas contribuyen al fortalecimiento de un modelo de gobernanza
dinámico que integra la ética, la transparencia y la justicia social.
En conclusión, la convergencia entre el Reglamento (UE) 2016/679 y la Directiva (UE)
2024/2831 establece un marco normativo que posibilita a los educadores la implementación
de prácticas docentes innovadoras y éticas, adecuadas a los avances tecnológicos. La
regulación no debe concebirse únicamente como el cumplimiento estricto de normas, sino
como un proceso dinámico de supervisión, evaluación y ajuste constante, orientado a
garantizar la protección de los derechos, la integridad académica y la promoción de una
innovación responsable.
Inteligencia Artificial, derechos y libertades
En los últimos años, los retos éticos de las tecnologías convergentes —la integración de la
informática, las telecomunicaciones, la inteligencia artificial (IA), la robótica y el Internet de
las Cosas (IoT) han adquirido especial relevancia. Estas tecnologías, al operar bajo una
infraestructura común, potencian la interconexión y la innovación, pero también generan
disrupciones sociales profundas que desafían normas y valores establecidos (De Asís Roig,
2022). Hopster (2021) las define como tecnologías socialmente disruptivas, y propone
analizarlas según el tipo de disrupción (ontológica, epistemológica o axiológica), su
significado normativo (positivo o negativo) y su previsibilidad. Este enfoque permite evaluar
de forma sistemática los impactos éticos y anticipar sus consecuencias.
Entre los desafíos más relevantes destacan la igualdad y la no discriminación, la
autonomía, la responsabilidad moral y legal, y la privacidad, cuestiones que tensionan la
protección de la identidad humana y los límites del marco tradicional de derechos humanos.
Surgen preguntas sobre la necesidad de nuevos derechos, como los neuroderechos,
destinados a salvaguardar la integridad mental ante los avances en neurotecnología. Esta
complejidad se acentúa por el carácter global y acelerado del desarrollo tecnológico, que
dificulta la regulación efectiva (De Asís Roig, 2022).
El Informe del Alto Comisionado de las Naciones Unidas para los Derechos Humanos
(OHCHR, 2021) advierte que la expansión de la IA puede exigir reinterpretar derechos
existentes para enfrentar riesgos como la vigilancia masiva o el sesgo algorítmico. Desde una
perspectiva interdisciplinaria —ética, jurídica, económica y sociotécnica—, resulta
imprescindible analizar cómo la IA transforma la identidad y los derechos humanos,
especialmente en entornos educativos y laborales, donde redefine los roles de docentes y
estudiantes. Aunque el marco actual de derechos humanos sigue siendo esencial, su eficacia
dependerá de adaptaciones normativas que garanticen equidad y acceso justo en el uso de la
IA (UNESCO, 2021).
43
La integración de la inteligencia artificial en la docencia universitaria: Implicaciones económicas, pedagógicas y éticas
Retos de la Ciencia, 1(6), Edición Especial. 31-54.
ISSN 2602-8237
La Protección de la Identidad
La cuestión de la identidad ocupa un lugar central en el campo de los derechos humanos, ya
que subyace al fundamento principal de estos: la dignidad humana.
La dignidad humana se fundamenta en atributos que singularizan al ser humano y se
expresan en términos de identidad, incluyendo aspectos biológicos, psicológicos y sociales
(Peces-Barba, 1989). Desde esta perspectiva, surge la importancia de preservar la identidad
personal, que enfatiza lo singular de cada individuo, la atención personalizada, la diversidad
y la dimensión individual de una vida digna, alineándose con el artículo 22 de la Declaración
Universal de los Derechos Humanos (1948), que promueve el libre desarrollo de la
personalidad.
Por otro lado, las tecnologías convergentes plantean riesgos de alteración de la
identidad a múltiples niveles. En genética, técnicas como CRISPR-Cas9 permiten el desarrollo
de ediciones precisas del ADN, con potencial para reproducir o modificar rasgos humanos, lo
que plantea dilemas éticos sobre, por ejemplo, la eugenesia y la equidad en el acceso a mejoras
genéticas (De Asís Roig, 2022).
En la IA, el uso de "Big Data" y algoritmos de aprendizaje profundo afecta la
privacidad e intimidad al procesar datos personales masivos, generando perfiles predictivos
que pueden invadir la esfera mental (OHCHR, 2021). La robótica, a través de implantes
“ciborgs”, nos cuestiona los mites ontológicos entre lo humano y la quina, mientras que
la neurotecnología —como interfaces cerebro-computadora (BCI)— singulariza la neuroética
por su impacto directo en la identidad cognitiva y emocional. Estos avances no solo alteran la
percepción de la agencia humana, sino que también introducen riesgos de manipulación,
como en el caso de neuromarketing o neuroestimulación, que podrían erosionar el libre
albedrío.
Identidad Humana e Identidad Personal
El concepto de identidad resulta controvertido y abarca diversas perspectivas, entre las cuales
destacan la biológica —que se refiere a los rasgos invariables, como el ADN—, la narrativa —
que implica la construcción de un relato vital a lo largo del tiempo—, la relacional —que se
define por el reconocimiento de los otros en contextos sociales y la psicológica —que
enfatiza la continuidad de la conciencia, tal como se expone en las teorías de la identidad
personal de Wiggins (1980) y Shoemaker (1996). Tradicionalmente, la identidad ha sido
conceptualizada a través de dualidades tales como cuerpo y alma (Agustín de Hipona),
cuerpo y mente (Descartes), o biología y convención social (Mosterín, 2013). No obstante, se
destaca una distinción fundamental entre la identidad humana, entendida como universal y
compartida, y la identidad personal, que es individual y contextualizada.
De acuerdo con el Diccionario de la Real Academia Española (RAE, 2023), la identidad
se define como el "conjunto de rasgos propios de un individuo o colectividad que los
caracterizan frente a los demás" o bien como la "conciencia de ser uno mismo y distinto". Estos
rasgos comprenden tanto órganos biológicos como procesos cognitivos y afectivos, tales como
pensar, sentir y actuar. Por su parte, la conciencia implica facultades como la percepción, la
voluntad, la imaginación, la memoria, la intuición y la razón. Sin embargo, una concepción
que se limite exclusivamente a estos elementos resulta insuficiente; la identidad personal
también incluye el libre albedrío y los proyectos de vida, entendidos como componentes
dinámicos que posibilitan la autorrealización (Peces-Barba, 1989). Asimismo, el contexto
social y la experiencia individual son fundamentales, ya que reflejan la naturaleza sociable del
44
Francisco Ramos / Francisco Avendaño
Fundación Internacional para la Educación la Ciencia y la Tecnología, FIECYT.
ser humano e incorporan nociones como la interseccionalidad, mediante la cual factores como
el género, la raza y la clase social influyen y modulan la identidad (Barranco Avilés, 2016).
Estas dimensiones se emplean en la identificación biométrica mediante la combinación
de características físicas (como las huellas dactilares) y conductuales (tales como los patrones
de comportamiento). No obstante, su utilización también conlleva vulnerabilidades derivadas
del uso indebido de los datos. Los sistemas biométricos, al igual que otros sistemas de
seguridad, presentan debilidades que pueden ocasionar reconocimientos erróneos o la
incapacidad para identificar correctamente a los individuos. Estas vulnerabilidades pueden
dar lugar a la aceptación incorrecta de una persona (suplantación de identidad), afectar el
rendimiento global del sistema (denegación de servicio) o facilitar ataques a otros sistemas
mediante la filtración de datos (robo de identidad).
La identidad humana universaliza las identidades personales, otorgando primacía a la
condición sobre la situación debido a su supuesta universalidad, lo cual puede resultar
problemático frente a la diversidad humana. Por su parte, la identidad personal particulariza
la condición humana, manifestando la diversidad y resaltando las barreras situacionales. En
el ámbito de la fundamentación de los derechos, la identidad humana constituye el
metafundamento de la dignidad, mientras que la identidad personal representa su
fundamento práctico. Como señalan Adler y Schuckers (2009), la historia oscila entre el
control del poder sobre la identidad y la lucha individual por afirmarla”.
El ataque a la identidad personal puede manifestarse a través de daños a su condición,
como ocurre en alteraciones orgánicas inducidas por neurotecnologías, o mediante la
proliferación de barreras, tales como la incapacitación jurídica o la exclusión digital. Por su
parte, el ataque a la identidad humana, que necesariamente incluye la identidad personal, se
caracteriza por daños que impiden su configuración adecuada o que la modifican de manera
radical, como sucede en experimentos no éticos con inteligencia artificial que alteran la
cognición.
Tecnologías e Identidad
Las tecnologías convergentes inciden tanto en la identidad humana como en la identidad
personal, introduciendo conceptos tales como la «mejora humana» y la «diversidad
ampliada». Este planteamiento se ejemplifica mediante dos dimensiones: la diversidad,
vinculada a la identidad personal, y la mejora, relacionada con la identidad humana,
integrando así debates contemporáneos sobre el transhumanismo y el posthumanismo.
La diversidad ha adquirido una relevancia creciente en el ámbito del discurso sobre
derechos humanos; sin embargo, su relación con las tecnologías convergentes presenta
desafíos significativos. Estas tecnologías tienden a generalizar a partir del análisis de grandes
volúmenes de datos, lo que puede poner en riesgo la diversidad mediante la desatención o la
atención excesiva a ciertos grupos. La desatención conduce a la discriminación en el acceso y
a sesgos algorítmicos que agravan las inequidades en poblaciones marginadas, tales como
minorías étnicas o personas con discapacidad (Mergen, A.; Çetin-Kılıç, N.; Özbilgin, M., 2020).
Para contrarrestar estos sesgos, es imprescindible promover la transparencia algorítmica,
fomentar la participación inclusiva en el diseño de tecnologías y ofrecer formación en ética,
considerando la diversidad como un principio rector (UNESCO, 2021). La discriminación
debe entenderse como resultado de circunstancias específicas y no como una característica
inherente a la condición de las personas; en este sentido, la homogeneización de actuaciones
o decisiones puede socavar la diversidad (Merris, A., 2013). Por consiguiente, la
vulnerabilidad en materia de derechos humanos se concibe más como un fenómeno social que
ontológico, enfatizando las barreras contextuales, entre las cuales destaca la "brecha digitalque
45
La integración de la inteligencia artificial en la docencia universitaria: Implicaciones económicas, pedagógicas y éticas
Retos de la Ciencia, 1(6), Edición Especial. 31-54.
ISSN 2602-8237
amplifica las desigualdades en el acceso a la inteligencia artificial (OHCHR, 2021). En este
marco, el reciente Informe del Programa de las Naciones Unidas para el Desarrollo Humano
(UNDP, 2025) subraya que la inteligencia artificial puede tanto empoderar como marginar a
las personas, proponiendo enfoques centrados en la autonomía y la elección humana para
mitigar dichos riesgos.
En el ámbito de la identidad humana, las tecnologías convergentes impulsan avances
que desafían la esencia misma de lo humano, como es el caso de los implantes neurales
destinados a potenciar las capacidades cognitivas (Yuste et al., 2021). Esta realidad emergente
suscita, de manera evidente, un debate en torno a la equidad en el acceso a dichas mejoras.
Diversas críticas advierten sobre los posibles riesgos de una brecha mejoradaque podría
profundizar las desigualdades entre diferentes estratos sociales (Bublitz, 2022).
La suficiencia del enfoque de Derechos Humanos
¿Son necesarios nuevos derechos?
La discusión en torno a la necesidad de establecer nuevos derechos humanos en respuesta a
los avances tecnológicos ha suscitado un intenso debate en los ámbitos de la ética y el derecho.
Se han propuesto derechos digitales orientados a salvaguardar la autonomía de los individuos
en entornos hiperconectados, tal como se refleja en la Ley Orgánica 3/2018 en España.
Asimismo, se han planteado derechos específicos relacionados con la inteligencia artificial,
entre los que destacan el derecho a la explicación algorítmica y el derecho a la no
discriminación (Laukyte, 2020). Por otro lado, los neuroderechos, formulados por Yuste et al.
(2021), tienen como objetivo proteger la privacidad mental, la integridad cognitiva y el libre
albedrío frente a las interfaces cerebro-computadora (BCI, por sus siglas en inglés), así como
garantizar la equidad en el acceso a mejoras neurotecnológicas y mitigar los sesgos
algorítmicos, ante riesgos que exceden la protección ofrecida por los derechos tradicionales.
Diversas críticas señalan que numerosos desafíos pueden ser abordados mediante una
reinterpretación de los derechos ya existentes, con el fin de evitar una “inflación de derechos”
y el encubrimiento de las desigualdades socioeconómicas subyacentes (Bublitz, 2022; Muñoz
Conde, 2022). No obstante, en caso de que se adopten nuevos derechos, resulta imprescindible
la elaboración de catálogos precisos que incluyan garantías jurídicas sólidas, mecanismos de
control internacional y remedios efectivos. Asimismo, es fundamental considerar la
protección de la identidad digitalizada y el acceso equitativo a las mejoras tecnológicas, tal
como evidencian las experiencias desarrolladas en Chile y Portugal.
Los neuroderechos deben ser incorporados dentro de marcos éticos y digitales
integrales, con un enfoque preventivo frente a la explotación comercial o estatal de la
actividad cerebral, así como anticipando los riesgos futuros asociados a la decodificación
mental (Yuste, 2017). En este sentido, los derechos digitales en el ámbito laboral
complementan dichas protecciones, abarcando aspectos como la desconexión digital, la
protección de datos personales y la no discriminación algorítmica. Asimismo, resulta
fundamental que estos derechos sean integrados en los procesos de negociación colectiva, con
el fin de garantizar una transición justa y participativa (Rodríguez Fernández, 2025).
Se enfatiza la distinción entre el creacionismo digital y la coevolución tecnológica,
fomentando el debate interdisciplinario y la educación en derechos humanos, con el propósito
de evitar la falsa neutralidad atribuida a la tecnología. Los derechos deben priorizar la
dignidad humana, siendo compatibles con un transhumanismo ético y con el libre desarrollo
personal (Laukyte, 2020; Liedo y Rueda, 2021).
46
Francisco Ramos / Francisco Avendaño
Fundación Internacional para la Educación la Ciencia y la Tecnología, FIECYT.
La convergencia tecnológica está redefiniendo tanto la identidad como el contrato social, lo
que demanda la participación activa de científicos, juristas, economistas y educadores. En este
contexto, la educación universitaria desempeña un papel fundamental al incorporar la ética
digital y la neuroética, promoviendo una ciudadanía informada y capacitada para
coevolucionar con los avances tecnológicos. Asimismo, los programas de formación en
derechos digitales y alfabetización en neuroderechos contribuyen al fortalecimiento de la
autonomía y la equidad en los mercados laborales, los cuales se ven impactados por las
tecnologías convergentes (Rodríguez Fernández, 2023; Yuste, 2021).
CONCLUSIÓN
La incorporación de la inteligencia artificial en la enseñanza universitaria constituye una
transformación profunda que impacta de manera simultánea las prácticas pedagógicas, las
dinámicas económicas y los planteamientos éticos dentro del ecosistema educativo. La
inteligencia artificial brinda oportunidades para optimizar la eficiencia y personalizar el
aprendizaje a través de la automatización de tareas rutinarias, lo que permite a los docentes
dedicar más tiempo a interacciones significativas. No obstante, su implementación demanda
una supervisión constante para prevenir la erosión del pensamiento crítico, la autonomía y la
creatividad, asegurando que la tecnología potencie, en lugar de reemplazar, el papel del factor
humano en el proceso educativo.
La adopción de la inteligencia artificial genera efectos heterogéneos tanto en el
mercado laboral como en la productividad educativa, implicando inicialmente costos de
transición vinculados a la reconversión profesional y a la capacitación de docentes y
estudiantes. Bajo una gestión adecuada, estas tecnologías poseen el potencial de incrementar
la empleabilidad, optimizar la eficiencia y disminuir las desigualdades en el acceso al
aprendizaje. No obstante, el éxito de su implementación depende de la formulación de
políticas que equilibren la automatización con el fortalecimiento de las capacidades humanas,
así como de la mitigación de las barreras tecnológicas y contextuales existentes.
Conservar el control humano en el uso de la inteligencia artificial resulta esencial para
salvaguardar la autonomía y prevenir la reproducción de sesgos algorítmicos que puedan
comprometer la equidad en los ámbitos educativo y laboral. La gobernanza tecnológica debe
fundamentarse en principios de transparencia y justicia, promoviendo un enfoque
interdisciplinario que integre perspectivas provenientes de las ciencias sociales, la economía,
la ética y la pedagogía. De este modo, se asegura que las decisiones relacionadas con el diseño,
la implementación y la regulación de la inteligencia artificial incorporen diversas voces y
prioricen el bienestar de los individuos.
Ante los desafíos que presentan las tecnologías convergentes, la protección de la
identidad y los derechos humanos demanda tanto una reinterpretación de los marcos
normativos vigentes como la incorporación de nuevos derechos, tales como los neuroderechos
y los derechos digitales. Estas iniciativas tienen como objetivo salvaguardar la integridad
cognitiva, la privacidad mental y la equidad en el acceso a las mejoras tecnológicas,
garantizando que la innovación no menoscabe la dignidad ni la autonomía de los individuos,
particularmente en contextos educativos y laborales caracterizados por una alta digitalización.
Finalmente, la educación universitaria debe trascender la mera formación técnica en
inteligencia artificial, promoviendo la construcción de una ciudadanía crítica y de
profesionales capacitados para evaluar, orientar y coevolucionar con la tecnología. Esto
requiere fomentar la curiosidad, la investigación y el pensamiento crítico mediante
metodologías activas, así como implementar políticas institucionales orientadas a la
47
La integración de la inteligencia artificial en la docencia universitaria: Implicaciones económicas, pedagógicas y éticas
Retos de la Ciencia, 1(6), Edición Especial. 31-54.
ISSN 2602-8237
formación continua, auditorías éticas y estudios multiculturales que permitan evaluar los
impactos a largo plazo. Solo a través de una integración consciente y responsable de la
inteligencia artificial será posible garantizar una docencia universitaria que fortalezca la
equidad laboral, la autonomía y la dignidad humana en la era digital.
REFERENCIAS BIBLIOGRÁFICAS
Abbas, M., Jam, F.A, Khan, ¿T.I. Is it harmful or helpful? Examining the causes and
consequences of generative AI usage among university students. Int J Educ Technol
High Educ 21, 10 (2024). https://acortar.link/AqTbhO
Abdulnour, Raja-Elie E., Brian Gin, Christy K. Boscardin (2025). Educational Strategies for
Clinical Supervision of Artificial Intelligence Use. The New England Journal of
Medicine, Massachusetts Medical Society. DOI: 10.1056/NEJMra2503232 VOL. 393
NO. 8
Acemoğlu, D., Robinson, James A. (2014). Por qué fracasan los países: Los orígenes del poder,
la prosperidad y la pobreza. Editorial: Booket. Fecha de publicación: 21 octubre 2014.
ISBN-13: 978-8423418909.
Acemoğlu, D., Restrepo, P. (2019). Automation and new tasks: How technology displaces and
reinstates labor. Journal of Economic Perspectives, 33 (2), 3-30.
https://acortar.link/mmrYiw
Adler, A., Schuckers, S. (2009). Biometric Vulnerabilities, Overview. In: Li, S.Z., Jain, A. (eds)
Encyclopedia of Biometrics. Springer, Boston, MA. https://acortar.link/iHCz62
Akgun, S., Greenhow, C. (2022). Artificial intelligence in education: Addressing ethical
challenges in K-12 settings. AI Ethics 2, 431–440. https://acortar.link/dUGE7f
Akgun, S., Greenhow, C. (2024). Artificial intelligence in education: Privacy, biases, and digital
gaps. Educational Technology Research and Development, 72 (1), 45-62.
https://acortar.link/hpu3mD
Alkaissi H., McFarlane S. (February 19, 2023) Artificial Hallucinations in ChatGPT:
Implications in Scientific Writing. Cureus 15(2): e35179.
https://doi:10.7759/cureus.35179
Amos, Merris. (2013). Transplanting Human Rights Norms: The Case of the United
Kingdom’s Human Rights Act. Human Rights Quarterly 36 (2013) 386–407. The Johns
Hopkins University Press.
Aschauer, David Alan. (1989). Is public expenditure productive? Journal of Monetary
Economics. Volume 23, Issue 2. Pages 177-200. ISSN 0304-3932
https://acortar.link/wcTgLC
Autor, D. (2024). Applying AI to rebuild middle-class jobs. NBER Working Paper No. 32140.
National Bureau of Economic Research. https://acortar.link/GwGKty
Autor, D., C. Chin, A. Salomons, and B. Seegmiller (2024): New Frontiers: The Origins and
Content of New Work, 1940–2018, The Quarterly Journal of Economics, 139, 1399–1465.
https://acortar.link/vC2hUy
Barranco Avilés, M. del C. (2016). Vulnerabilidad, derechos humanos y empresas. Cuadernos
Electronicos de Filosofia del Derecho. Diciembre 2016. https://acortar.link/FV5S29
48
Francisco Ramos / Francisco Avendaño
Fundación Internacional para la Educación la Ciencia y la Tecnología, FIECYT.
Baxter, Gordon, Sommerville, Ian (2011). Socio-technical systems: From design methods to
systems engineering. Interacting with Computers, 2 (1), 4-17.
https://acortar.link/fVmfbB
Bresnahan, T. F., E. Brynjolfsson, L. M. Hitt (2002): Information Technology, Workplace
Organization, and the Demand for Skilled Labor: Firm-Level Evidence The Quarterly
Journal of Economics, 117, 339–376. 5 https://acortar.link/EEQR4a
Brynjolfsson, E., T. Mitchell, D. Rock (2018): “What Can Machines Learn, and What Does It
Mean for Occupations and the Economy?” AEA Papers and Proceedings, 108, 43–47.
https://acortar.link/ku2sng
Brynjolfsson, E., D. Rock, C. Syverson (2021): The Productivity J-Curve: How Intangibles
Complement General Purpose Technologies, American Economic Journal:
Macroeconomics, 13, 333–372. https://acortar.link/u9BAJp
Brynjolfsson, E., Li, D., Raymond, L. R. (2023). Generative AI at work. NBER Working Paper
No. 31161. National Bureau of Economic Research. https://acortar.link/KYqE7h
Brynjolfsson, E., Chandar, Bharat, Chen, Ruyu. (2025). Canaries in the Coal Mine? Six Facts
about the Recent Employment Effects of Artificial Intelligence. August 26, 2025.
Stanford Digital Economy Lab. Stanford Institute for Human-Centered Artificial
Intelligence. https://acortar.link/x67wBy
Bublitz, J, C. (2022). Novel neurorights: From nonsense to substance. Neuroethics, 15(1),
Article 7. https://acortar.link/Osom8b
Bureau of Labor Statistics. (2024). Occupational outlook handbook: Educators demand
growth. U.S. Department of Labor. https://acortar.link/ODr8N6
CEPAL. (2024). Digital gap in Latin America and AI adoption. Comisión Económica para
América Latina y el Caribe. ILIA 2024: Evaluating AI Readiness and Progress in Latin
America. https://acortar.link/mpF7vE
Chan, C.K.Y., Colloton, T. (2024). Generative AI in Higher Education: The ChatGPT Effect (1st
ed.). Routledge. https://acortar.link/jFUQf7
Chan, C.K.Y., Hu, W. (2023). Students’ voices on generative AI: perceptions, benefits, and
challenges in higher education. Int J Educ Technol High Educ 20, 43
https://acortar.link/w2FJLG
Chatterjee, S., Bhattacharjee, K.K. (2020). Adoption of artificial intelligence in higher
education: a quantitative analysis using structural equation modelling. Educ Inf
Technol 25, 3443–3463. https://acortar.link/G1Cz7W
Clark, A., Chalmers, D. (1998). The Extended Mind. Analysis, 58(1), 7–19.
https://acortar.link/zJwHVx
Coglianese, C. (2024). Regulation is a verb. University of Pennsylvania Law Review. Capital
University Law Review. Pag. 305-330. scholarship.law.upenn.edu
Cope, B., Kalantzis, M., Searsmith, D. (2020). Artificial intelligence for education: Knowledge
and its assessment in AI-enabled learning ecologies. Educational Philosophy and
Theory, 53(12), 1229–1245. https://acortar.link/WVUTq2
De Asís, R. (2022). Derechos y tecnologías. Derechos Humanos y Filosofía del Derecho. ESIC,
2022. ISBN 8411222071, 9788411222075.
De Asís, R. (2022). Transhumanism and Disability. Springer Nature Singapore Pte Ltd. 2022M.
H. Rioux et al. (eds.), Handbook of Disability, DOI: 10.1007/978-981-16-1278-7_37-1
49
La integración de la inteligencia artificial en la docencia universitaria: Implicaciones económicas, pedagógicas y éticas
Retos de la Ciencia, 1(6), Edición Especial. 31-54.
ISSN 2602-8237
Declaración Universal de los Derechos Humanos. (1948). Naciones Unidas.
https://acortar.link/xQoX4
Dewey, J. (1916). Democracy and Education: An Introduction to the Philosophy of Education.
https://acortar.link/gpx2fy
Duckworth, A. (2021). Grit: El poder de la pasión y la perseverancia. Books4pocket. Penguin
Random House. ISBN-13: 978-8416622689
Eloundou, T., Manning, S., Mishkin, P., Rock, D. (2023). GPTs are GPTs: An Early Look at the
Labor Market Impact Potential of Large Language Models. arXiv preprint
arXiv:2303.10130. https://acortar.link/k8tgDi
European Commission. (2020). Digital Education Action Plan 2021-2027 Unlocking Europe's
digital potential. https://acortar.link/fEIqvh
European Parliament, Council of the European Union. (2024a). Regulation (EU) 2024/1689
laying down harmonised rules on artificial intelligence. Official Journal of the
European Union, L, Article 15. https://acortar.link/k9w2qk
European Union. (2016). Regulation (EU) 2016/679 on the protection of natural persons with
regard to the processing of personal data (GDPR). Official Journal of the European
Union, L 119, Article 35. https://acortar.link/l2MszR
Floridi, L., Cowls, J., Beltrametti, M. et al. (2018). AI4People—An Ethical Framework for a
Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds &
Machines 28, 689–707. https://acortar.link/PPOh9x
Francis, Nigel James, Jones, Sue, Smith, David Paul. (2025). Generative AI in Higher
Education: Balancing Innovation and Integrity. British Journal of Biomedical Science
81. Br. J. Biomed. Sci., 09 January 2025. Volume 81 - 2024 https://acortar.link/lkx5GN
Frankfurt, Harry G. (2005). On Bullshit. Princeton University Press. ISBN-13: 978-0691122946
García-López, E., Trujillo-Liñán, L. (2025). Ethical and regulatory challenges of Generative AI
in education: a systematic review. Front. Educ. 10:1565938. doi:
10.3389/feduc.2025.1565938
García-López, E., Muñoz JM and Andorno R. (2021). Editorial: Neurorights and Mental
Freedom: Emerging Challenges to Debates on Human Dignity and Neurotechnologies.
Front. Hum. Neurosci. 15:823570. doi: 10.3389/fnhum.2021.823570
Gerlich, M. (2025). AI Tools in Society: Impacts on CognitiveOffloading and the Future of
Critical Thinking. Societies.15, 6. https://acortar.link/JNn7j5
Gonsalves, C. (2024). Generative AI’s Impact on Critical Thinking: Revisiting Bloom’s
Taxonomy. Journal of Marketing Education, 0(0). https://acortar.link/k6tRd4
Hartley, J., F. Jolevski, V. Melo, Moore, B. (2025): The Labor Market Effects of Generative
Artificial Intelligence, SSRN Scholarly Paper, Social Science Research Network,
Rochester, NY. 1, 9 https://acortar.link/hdekjK
Holstein, K., Doroudi S. (2021). Equity and Artificial Intelligence in Education: ¿Will “AIEd”
Amplify or Alleviate Inequities in Education? arXiv:2104.12920v1 DOI:
10.48550/arXiv.2104.12920
Hopster, Jeroen. (2021). What are socially disruptive technologies? Technology in Society,
Volume 67, 2021,101750, ISSN 0160-791X, https://acortar.link/Q3lP9R
Horowitch, R. (2025): “The Computer-Science Bubble Is Bursting,” The Atlantic, section:
Economy. 6, 4.1, 5 https://acortar.link/Pp7qeO
50
Francisco Ramos / Francisco Avendaño
Fundación Internacional para la Educación la Ciencia y la Tecnología, FIECYT.
Hutson, James, Cotroneo, Peter (2024). Generative AI tools in art education: Exploring prompt
engi- neering and iterative processes for enhanced creativity. Metaverse (2023) Volume
4 Issue 1, 14 pages. DOI: 10.54517/m. v4i1.2164
ILIA-CEPAL. (2024). Latin American AI Index. Comisión Económica para América Latina y
el Caribe. https://acortar.link/WzKX2r
International Labour Organization. (2023). AI skills inequalities. International Labour
Organization. https://acortar.link/hNlfQk
International Monetary Fund. (2025). AI sustainable growth. International Monetary Fund.
https://acortar.link/QV9KQN
Jaldi, Chris Davis, Ilkou, Eleni, Schroeder, Noah, Shimizu, Cogan. (2025). Education in the era
of Neurosymbolic AI, Journal of Web Semantics, Volume 85, 2025, 100857, ISSN 1570-
8268, https://acortar.link/75sMrC
Kasneci, E., et al. (2023). ChatGPT for good? On opportunities and challenges of large
language models for education, Learning and Individual Differences. Volume 103,
2023,102274. ISSN 1041-6080. https://acortar.link/rbTT6J
Kitcher, Patricia, Dennett, D. C. (1990). The Intentional Stance. Philosophical Review 99(1):126.
DOI: 10.2307/2185215
Kosmyna, Nataliya. (2025). Your brain on chatgpt: Accumulation of cognitive debt when
using an ai assistant for essay writing task. MIT Media Lab.
https://acortar.link/AmfTEm
Laukyte, M. (2020). Trustworthy Artificial Intelligence and Human Rights. Law, Computer
Science, Philosophy, Political Science. Current issues on Human Rights, 27 January
2020. DOI:10.2307/j.ctv102bm6p.8 Corpus ID: 216489470
Larson, E. J. (2021). The Myth of Artificial Intelligence: Why Computers Can’t Think the Way
We Do. Belknap Press: An Imprint of Harvard University Press. ISBN-10: 0674983513
ISBN-13: 978-0674983519
Lee, Chien Ching, Low, Malcolm Yoke Hean (2024). Front. Artif. Intell., 01 November 2024.
Sec. AI for Human Learning and Behavior Change. Volume 7 2024.
https://acortar.link/vebwaL
Lei, Ya-Wen, Kim, Rachel (2024). Automation and Augmentation: Artificial Intelligence,
Robots, and Work. Annual Review of Sociology Volume 50, 2024, Vol. 50:251-272, 359-
378. https://acortar.link/V32CGu
Liedo Fernández, Belén, Rueda, Jon (2021). In defence of posthuman vulnerability. Scientia et
Fides. Online. 14 March 2021. Vol. 9, no. 1, pp. 215-239. [Accessed 28 August 2025].
https://acortar.link/Gtmohv
Lichtinger, Guy y Hosseini Maasoum, Seyed Mahdi. (2025). Generative AI as Seniority-Biased
Technological Change: Evidence from U.S. Résumé and Job Posting Data (August 31,
2025). Available at SSRN: https://acortar.link/4YrSJ4
Maloney, Suzanne, Axelsen, Megan, Stone, Cathy, Galligan, Linda, Redmond, Petrea, Brown,
Alice, Turner, Joanna, Lawrence, Jill. (2023). Defining and exploring online
engagement fatigue in a university context. Computers and Education Open. Volume
4, 2023. 100139. ISSN 2666-5573. https://acortar.link/hyIwNB
Marguerit, David (2025). Augmenting or Automating Labor? The Effect of AI Development
on New Work, Employment, and Wages. arXiv:2503.19159v1 24 Mar 2025.
https://acortar.link/F0WVYs
51
La integración de la inteligencia artificial en la docencia universitaria: Implicaciones económicas, pedagógicas y éticas
Retos de la Ciencia, 1(6), Edición Especial. 31-54.
ISSN 2602-8237
Maslej, N., L. Fattorini, R. Perrault, Y. Gil, V. Parli, N. Kariuki, E. Capstick, A. Reuel, E.
Brynjolfsson, J. Etchemendy, et al. (2025): Artificial intelligence index report 2025,
arXiv preprint arXiv:2504.07139. https://acortar.link/YCETXw
McKinsey & Company. (2023). AI education sector growth. McKinsey & Company.
https://acortar.link/2t1JL9
McKinsey Global Institute. (2023). The economic potential of generative AI: The next
productivity frontier. McKinsey Global Institute. https://acortar.link/AP6ppp
Medicherla, Sri. (2025). “Regulating” Instead of Regulation”. The Regulatory Review.
https://acortar.link/bWIRzK
Mergen, Aybike; Nergiz Çetin-Kılıç; Mustafa F. Özbilgin. (2020). Artificial Intelligence and
Bias Towards Marginalised Groups: Theoretical Roots and Challenges. AI and
diversity in a datafied world of work. Doi: https://acortar.link/0gZ0Y9
Mhlanga, David. (2023). Open AI in Education, the Responsible and Ethical Use of ChatGPT
Towards Lifelong Learning (February 11, 2023). Available at SSRN:
https://acortar.link/ibXsDY
Morin, E. (2025). La IA puede dar miedo, pero yo temo sobre todo a la inteligencia humana
superficial. El Mundo. https://acortar.link/ibXsGY
Mosterín, J. (2013). Neural reality and social convention: ¿do they overlap? Annals of The New
York Academy of Sciences. https://acortar.link/0zYTZz
Muñoz Conde, F. (2022). Teoría General del Delito. Editorial: Editorial Tirant lo Blanch. ISBN-
10: 841130759X.
Neerupa, C., Naveen Kumar, R., Pavithra, R., William, A. John. (2024). Game on for learning:
a holistic exploration of Gamification’s impact on student engagement and academic
performance in educational environments. Management Matters 27 June 2024; 21 (1):
38–53. https://acortar.link/p0vpeK
Patel, Nadya Shaznay, Puah, Shermain, Kok, Xiao-Feng Kenan. (2024). Shaping future-ready
graduates with mindset shifts: studying the impact of integrating critical and design
thinking in design innovation education. Front. Educ., 20 June 2024. Sec. Higher
Education. Volume 9 – 2024. https://acortar.link/hH1tr6
OECD. (2021). Bridging the AI skills gap. Is training keeping up?
https://acortar.link/CcvxQv
OECD. (2024). Artificial intelligence and wage inequality. https://acortar.link/lcDpfL
OECD. (2023). Algorithmic Competition. https://acortar.link/amRCgS
OHCHR (2021). The right to privacy in the digital age: report (2021). Issued by Office of the
High Commissioner for Human Rights. A/HRC/48/31. https://acortar.link/ugZeqq
Osler, Lucy. (2025). Hallucinating with AI: AI Psychosis as Distributed Delusions. Cornell
University. https://acortar.link/fqypm6
Parteka, Aleksandra, Kordalska, Aleksandra. (2023). Artificial intelligence and productivity:
global evidence from AI patent and bibliometric data. Technovation, Volume 125,
2023,102764, ISSN 0166-4972, https://acortar.link/AMmK9v
Pedersen, Olaf. (1998). The First Universities. Studium Generale and the Origins of University
Education in Europe. Cambridge University Press. https://acortar.link/1LkD0t
52
Francisco Ramos / Francisco Avendaño
Fundación Internacional para la Educación la Ciencia y la Tecnología, FIECYT.
Perkins, M., Furze, L., Roe, J., MacVaugh, J. (2024). The AI Assessment Scale (AIAS): A
Framework for Ethical Integration of Generative AI in Educational Assessment.
Journal of University Teaching & Learning Practice. https://acortar.link/KkMrfL
Pervaiz, H., Ali, K., Hasanat, M., Razzaq, S, Tariq, M. (2025). The Impact of Ai on Critical
Thinking and Writing Skills in Higher Education. The Critical Review of Social
Sciences Studies. DOI: 10.59075/79fkvy72
Picard, Rosalind. W. (1997). Affective Computing. Computer Science, Art, Psychology.
Semantic Scholar. DOI:10.1037/E526112012-054 https://acortar.link/FxAe59
Rashdall, H. (2010). The universities of Europe in the Middle Ages: Volume 1: Salerno,
Bologna, Paris. Cambridge University Press. DOI: 10.1017/CBO9780511722301
https://acortar.link/lZ3MrU
Ridder-Symoens, H. de. (2019). A History of the University in Europe, Vol. I Universities in
the Middle Ages, ed. Hilde de Ridder-Symoens. Biuletyn Historii Wychowania. DOI:
10.14746/bhw.1995.2.21
Rivas, A. (2025). The arrival of AI in education in Latin America: under construction.
ProFuturo - OEI. https://acortar.link/89bvVa
Rodríguez Fernández, M. L. (2023). La participación de las personas trabajadoras en la
gobernanza de la transición digital: las experiencias de la Unión Europea y de España.
Revista de Derecho Social. 2023. Journal article. Part of ISSN: 1138-8692.
https://acortar.link/HGr2oJ
Rodríguez Fernández, M. L. (2025). Labour Law and Decent Work in the Platform Economy.
Routledge 2025. Book. https://acortar.link/pUY4U6 ISBN: 9781032750354
Salvagno, M., Taccone, F.S., Gerli, A.G. (2023). Artificial intelligence hallucinations. Crit Care
27, 180 (2023). https://acortar.link/LSIU4Q
Sari, Herva Emilda, Tumanggor, Benelekser, Efron, David. (2024). Improving Educational
Outcomes Through Adaptive Learning Systems using AI. International Transactions
on Artificial Intelligence (ITALIC). 3(1):21-31. DOI:10.33050/italic. v3i1.647
Selvaratnam, R., Venaruzzo, L. (2024). “Human-centeredApproach to the Governance of AI
in Higher Education: Principles of InternationalPractice”. Journal of Ethics in Higher
Education (2024): 79–102. DOI: 10.26034/fr.jehe.2024.6864
Shleifer, Andrei. (2025). "The Invention of Corporate Governance," NBER Working Papers
33710, National Bureau of Economic Research, Inc.
Shoemaker, S. (1996). The First-Person Perspective and Other Essays. Cambridge Studies in
Philosophy. Cambridge University Press; 1996: i-vi. https://acortar.link/Br4qg9
Singh, Abhijeet, Berg, Petter. (2024). Myths of official measurement: Limits to test-based
education reforms with weak governance. Journal of Public Economics. Volume 239,
November 2024, 105246.
Stadler, Matthias, Bannert, Maria, Sailer, Michael (2024). Cognitive ease at a cost: LLMs reduce
mental effort but compromise depth in student scientific inquirí. Computers in Human
Behavior. Science Direct. https://acortar.link/DMRoIY
Stöhr, Christian, Wanyu Ou, Amy, Malmström. (2024). Perceptions and usage of AI chatbots
among students in higher education across genders, academic levels and fields of
study, Computers and Education. Artificial Intelligence, Volume 7, 2024, 100259.
https://short.do/lQSFef
53
La integración de la inteligencia artificial en la docencia universitaria: Implicaciones económicas, pedagógicas y éticas
Retos de la Ciencia, 1(6), Edición Especial. 31-54.
ISSN 2602-8237
Thaler, Richard H., Sunstein, Cass R. (2009). Nudge: The Final Edition. Penguin Publishing
Group. ISBN-13: 978-0143137009.
Lin, Chenghua. (2025). The Hidden Multiplier: Unraveling the True Cost of the Global AI
Skills Gap. Technology and Society.
UNDP. (2025). Human Development Report 2025: A matter of choice: People and possibilities
in the age of AI. Human Development Reports. https://acortar.link/qzs30T
UNESCO. (2021). Ethical AI education framework. United Nations Educational, Scientific and
Cultural Organization. https://acortar.link/04XgW1
UNESCO. (2024). AI interdisciplinary development. United Nations Educational, Scientific
and Cultural Organization. https://acortar.link/J2q6cY
Walther, Cornelia C. (2025). How AI Can Unlock Hybrid Creativity in the Workplace.
Knowledge at Wharton. A business journal from the Wharton School of the University
of Pennsylvania. https://acortar.link/50dnv4
Winfield, Alan FT, Jirotka, Marina. (2018). Ethical governance is essential to building trust in
robotics and artificial intelligence systems. Phil. Trans. R. Soc. A.37620180085
https://acortar.link/dAPMkg
Mitra, Bhaskar, Cramer, Henriette, Gurevich, Olya. (2024). Sociotechnical Implications of
Generative Artificial Intelligence for Information Access. Computer Science.
arXiv:2405.11612v2 16 Jul 2024. https://acortar.link/IH4Ygd
Wargo, Katalin, Anderson, Brier. Striking a Balance: Navigating the Ethical Dilemmas of AI
in Higher Education. Columns: Emerging Technologies and Trends. Editors' Pick.
https://acortar.link/hX0lsy
Wiggins, David. (1980). Sameness and substance. Cambridge, Mass. Harvard University
Press. https://acortar.link/GJWZpv
World Economic Forum. (2023). AI continuous education. World Economic Forum.
https://acortar.link/SxjJp5
World Economic Forum. (2024). Report on future of jobs or AI in education. World Economic
Forum. https://acortar.link/2xJWRA
World Economic Forum. (2025). AI routine tasks educators. World Economic Forum.
https://acortar.link/vT0AHR
Yan, Lian, et al. (2025). Beyond efficiency: empirical insights on generative AI´s impact on
cognition, metacognition, and epistemic agency in learning. British Journal of
Educational Technology 2025. 56:1675-1685. https://acortar.link/DgO5Te
Yin, Meng, Jiang, Shiyao and Niu, Xiongying (2024). ¿Can AI really help? The double-edged
sword effect of AI assistant on employees’ innovation behavior. Elsevier Science
Publishers B. V. https://acortar.link/luhwCY
Yuste, R., Genser, J., & Herrmann, J. (2021). It's time for neuro-rights. Horizons: Journal of
International Relations and Sustainable Development, 18, 154-164.
https://acortar.link/AUNwBB
Yuste, R., Goering, S., Arcas, B. et al. (2017). Four ethical priorities for neurotechnologies and
AI. Nature 551, 159–163 (2017). https://acortar.link/9jdmQp
Zawacki-Richter, O., Marín, V. I., Bond, M., Gouverneur, F. (2019). Systematic Review of
Research on Artificial Intelligence Applications in Higher Education—Where Are the
54
Francisco Ramos / Francisco Avendaño
Fundación Internacional para la Educación la Ciencia y la Tecnología, FIECYT.
Educators? International Journal of Educational Technology in Higher Education, 16,
Article No. 39. https://acortar.link/CDjune
Zhai, C., Wibowo, S., Li, L.D. (2024). The effects of over-reliance on AI dialogue systems on
students' cognitive abilities: a systematic review. Smart Learn. Environ. 11, 28 (2024).
https://acortar.link/boGqTw
Zihao Wei et al. (2025). Stop Spinning Wheels: Mitigating LLM Overthinking via Mining
Patterns for Early Reasoning Exit. Cornell University. https://acortar.link/xvC2D6