Skip to content

Ficha Solución

ms-word
Archivo versión candidata a entrega final en Ficha Técnica:
Ficha Técnica DIA-Logos.docx
402 KB

Este trabajo propone la adopción del enfoque Working Backwards para diseñar experiencias de enseñanza-aprendizaje orientadas a fortalecer creatividad, memoria, pensamiento crítico, empatía y juicio ético, sin centrar la interacción humano-IA. El proceso inicia con un Comunicado Pedagógico Futuro que define con claridad el valor para estudiantes y docentes; se complementa con un FAQ pedagógico que alinea expectativas y gestiona riesgos; continúa con la definición anticipada de evidencias y criterios de evaluación coherentes con los resultados de aprendizaje; se concreta en un storyboard de sesión que orquesta activación, andamiaje, práctica, retroalimentación y cierre; y culmina en un plan de implementación que asegura factibilidad operativa, formación docente y seguimiento.

El modelo prioriza métricas de aprendizaje y palancas de ejecución (frecuencia de prácticas, ciclos de feedback, adherencia a rituales), favoreciendo claridad, alineación currículo-evaluación, eficiencia y equidad. Al partir de los resultados deseados y caminar hacia atrás hasta las actividades, se reduce el desajuste didáctico, se enfocan recursos en lo que genera valor para el estudiante y se habilita la iteración basada en evidencia en ciclos cortos y de bajo costo.

A continuación Ficha Técnica en clave de storytelling, descriptiva y con la audiencia ampliada: no solo profesores y estudiantes, sino toda la comunidad académica (incluye personal administrativo y de servicios). Se mantiene estructura para facilitar el envío al reto y se agrega micro‑recursos narrativos (one‑liner, hero, guion 60s, matriz).

Diagnóstico rápido (S.I.S.T.E.M.A.) — tono Sabio | Consultor

Situación: La universidad quiere blindar su cultura frente a la automatización: que el desempeño surja del crecimiento de habilidades profundamente humanas.
Identidad (Guía): DIÁ‑Logos, un equipo diverso que diseña experiencias simples y medibles para activar pensamiento de calidad en lo cotidiano.
Solución (Sistema): DIÁlogos: Cartas Pedagógicas, un kit físico/digital que “hackea” 10–15 minutos de clases, reuniones y cambios de turno para disparar creatividad, memoria, pensamiento crítico, empatía y juicio ético.
Transformación: De actividades rutinarias a conversaciones con propósito, evidenciadas en una wiki común.
Evidencia: Micro‑registros, rúbricas breves y métricas de participación/argumentación y toma de perspectiva.
Misión: Hacer visible la inteligencia humana en la universidad y convertirla en hábito institucional.
Acción: Lanzar un piloto de 5 semanas con cursos, áreas administrativas y equipos de servicios.

Ficha narrativa — Reto del Rector 2025 · ConCiencia UniSabana

Propósito del reto

Potenciar la inteligencia humana —creatividad, memoria, pensamiento crítico, empatía y juicio ético— en el estudio y el trabajo cotidianos de toda la comunidad universitaria.

A. EQUIPO

Nombre: DIÁ‑Logos ​Contacto: [correo del líder]
Integrantes y roles (diversidad intencional):
Lina Paola Sorza – Profesora Planta: experta en aprendizaje basado en juego, gamificación y ABP
Gabriel Pineda – Profesor Planta: Enfocado en la comunicación interpersonal y el uso de la lengua oral y escrita.
Luis Fernando López – Administrativo Senior: Liderazgo estratégico, Director de Biblioteca y CTA
Sandro Jiménez – Invitado Externo Catedrático Faculta de Educación: experto en innovación social y educativa & educación corporativa.
Plus de diversidad: Se involucran profesores, estudiantes, embajadores de áreas administrativas (p. ej., Talento Humano, Biblioteca, Bienestar) y líderes de servicios (p. ej., operaciones, atención al usuario) para adaptar casos y horarios.

B. SOLUCIÓN

Título: DIÁlogos: Micro‑rutas Gamificadas de Inteligencia HumanaFormato: Kit físico/digital de cartas + cartilla e‑book + guía de implementación + registro de evidencias (Wiki institucional o repositorio designado).

¿Qué es y cómo opera?

DIÁlogos es un kit que toma 10–15 minutos de cualquier espacio —clase, reunión de área, comité, cambio de turno o ciclo— para activar conversaciones con propósito. Las cartas provocan que las personas manifiesten lo que piensen en voz alta, contrasten perspectivas y hagan visible su razonamiento, fortaleciendo cinco capacidades humanas clave:
creatividad,
memoria/domino,
pensamiento crítico/metacognición,
empatía y
juicio ético.
Componentes del kit
Mazo 1 – Escenarios: disparadores para momentos del aprendizaje y del trabajo (Adquisición, Colaboración, Discusión, Práctica, Indagación, Producción; + equivalentes en gestión: Alineación, Coordinación, Decisión, Mejora, Servicio, Cierre).
Mazo 2 – Retos: actividades breves vinculadas a las cinco capacidades humanas (preguntas guía, roles, mini‑casos, debate socrático, toma de perspectiva, dilemas éticos).
Cartilla e‑book: guía con variaciones por disciplina y por rol (docencia, administración y servicios), rúbricas cortas y ejemplos.
Plantilla de evidencia: micro‑registro de aportes (aprendizajes, decisiones, mejoras de servicio) en una Wiki común.

Mecánica Gamificada de Uso — Versión Narrativa e Inclusiva (Low‑Tech)

0) Idea fuerza

Cada sesión DIÁlogos es una “partida” de 10–15 minutos que convierte una clase, reunión o cambio de turno o ciclo en una conversación con propósito. El progreso no se mide por apps, sino por argumentos, acuerdos y evidencias en la Wiki.

1) El juego en una escena (core loop portable)

Escenario 1: Aula. La profe saca dos cartas: Momento—Discusión + Reto—Toma de Perspectiva. Tres estudiantes argumentan, uno sintetiza. Se registra en el QR una conclusión y un “próximo experimento”. Se publica en la Wiki. ​Escenario 2: Oficina Administrativa. En 12 minutos, Admisiones usa Momento—Decisión + Reto—Criterios Claros para resolver un caso complejo. El relator sube los criterios a la Wiki y programa una revisión en una semana. ​Escenario 3: Servicios. En el cambio de turno de Biblioteca, el equipo juega Momento—Servicio + Reto—Dilema Ético Breve; acuerdan una frase de acogida y un protocolo de prioridad. Evidencia al QR. ​Loop: Elegir MomentoJugar Escenario+RetoOralidad guiada (explicar–argumentar–sintetizar) → Micro‑registro QRPublicación en WikiReflexión para transferir al siguiente ciclo.

2) Diseño con sentido (MDA + Octalysis, traducido a la práctica)

Mecánicas (lo que se hace): retos cronometrados, turnos, roles, criterios de calidad visibles, puntos por evidencia publicada.
Dinámicas (lo que ocurre): cooperación, debate, toma de perspectiva, descubrimiento.
Estética (lo que se siente): logro compartido, pertenencia y curiosidad (sorpresa de combinaciones de cartas).
Impulsores clave (Octalysis):
Significado épico: “cuidar la inteligencia humana de la U”.
Progreso y logro: avanzar por micro‑rutas.
Creatividad + feedback: iterar criterios y pequeños experimentos.
Influencia social: reconocimiento entre áreas/equipos.
Curiosidad: combinaciones nuevas en cada sesión.

3) Progresión, puntos y “economía” ligera (sin fricción)

Puntos por sesión (se otorgan en vivo):
+1 Participación: argumenta con evidencia.
+1 Perspectiva: integra otra voz/usuario.
+1 Transferencia: propone un experimento aplicable en 1 semana.
+1 Evidencia: sube registro con criterios y acuerdo. ​Niveles por micro‑ruta (4 sesiones): Semilla → Brote → Rama → Hábito (desbloquea carta Reto Avanzado). ​Insignias de equipo: Decisiones Claras, Servicio Justo, Debate Socrático. ​Antifrágil/anticheat: los puntos solo valen si hay evidencia en la Wiki; 1 comodín por sesión (p. ej., extender 60’’ o pedir pista).

4) Recompensas y feedback inmediato

Cierre (2 minutos): el grupo otorga una micro‑medalla por el criterio logrado (p. ej., “Criterios explicitados”, “Acogida empática”). Queda anotado en el QR. ​Refuerzo post‑sesión: mensaje corto con el siguiente micro‑paso y recordatorio para reusar la carta en un contexto real (principio de refuerzo para transferencia).
Voz realista: “Hoy discutimos sin girar en círculos. Salimos con criterios y un experimento pequeño. Se siente avance”.

5) Cartas y objetivos cognitivos (Bloom revisado, etiquetado visible)

Cada Reto viene con su nivel cognitivo para variar a propósito:
Comprender: “Parafrasea los criterios del caso en 2 frases”.
Analizar: “Separa datos de opiniones en 3 aportes del grupo”.
Evaluar: “Contrasta dos opciones con un criterio acordado”.
Crear: “Diseña un experimento de 1 semana para probar la hipótesis”. En el e‑book hay una tabla Bloom × Tipo de conocimiento (Conceptual, Procedimental, Metacognitivo) para elegir la combinación adecuada por disciplina/área/servicio.

6) Telemetría y tablero (Kirkpatrick + ROE)

L1 Reacción: utilidad percibida de las cartas/mecánica (micro‑encuesta QR).
L2 Aprendizaje: rúbricas mini (participación, calidad argumental, perspectiva, ética en acción).
L3 Comportamiento: cambios en prácticas/decisiones observados en la Wiki (3–6 semanas).
L4 Resultados: métricas operativas y de servicio (tiempo de decisión, NPS interno, incidentes). ​Diseño invertido (LXD): evaluación formativa por sesión + sumativa por micro‑ruta; seguimiento 30–90 días de apropiación.

7) Criterio Tech (seguridad, accesibilidad, cero fricción)

Arquitectura mínima viable (sin infraestructura nueva):
Captura: formulario QR → CSV → Wiki/Repositorio con permisos por unidad.
Acceso: enlaces role‑based (docencia/administración/servicios).
Datos mínimos: unidad, rol, Momento, cartas usadas, 3 métricas, enlace a evidencia.
Backbone: Wiki/Repositorio institucional; nada de apps externas. ​Privacidad y accesibilidad: textos legibles, plantillas AA, instrucciones de 1 página.

8) Roles y guion operativo (para fluir en 10–15 min)

Facilitador/a: saca cartas, marca tiempo y turnos.
Relator/a: sintetiza acuerdos/criterios y publica evidencia.
Observador/a: aplica rúbrica mini y entrega feedback puntual.
Mentor/a de área: hace seguimiento de transferencia (L3) y activa apoyos.

9) Catálogo de “Momentos” (aprendizaje y trabajo)

Aprendizaje: Adquisición, Colaboración, Discusión, Práctica, Indagación, Producción.
Gestión/Servicio: Alineación, Coordinación, Decisión, Mejora, Servicio, Cierre. Cada Momento incluye variantes por rol (docencia, administración, servicios) y KPIs sugeridos.
Mini‑guion de “Decisión” en Admisiones (12’): sorteo de roles (Propuesta A / Propuesta B / Relator / Observador). Se aplican criterios; se vota; se registra acuerdo y prueba de 1 semana.

10) Piloto con control de calidad (A/B ligero)

A/B: la misma área compara “Decisión + Criterios” vs. “Debate + Perspectiva”.
Métricas: tiempo de decisión, satisfacción de reunión, claridad de acuerdos.
Retro y ajuste: revisión con stakeholders y afinamiento del mazo (validación→producción).

Micro‑artefactos listos (para anexos)

Rúbricas mini (1 página): criterios observables (argumentación, perspectiva, ética, calidad de decisión/servicio).
Tablero trimestral: % adopción por micro‑ruta, # evidencias, tendencias L4.
Plantillas QR: con textos guía (“¿Qué aprendimos?”, “¿Qué criterio acordamos?”, “¿Cuál es el próximo experimento?”).

“Partida” minuto a minuto (ejemplo universal)

1’ Elegir Momento (Discusión/Decisión/Servicio) y 2 cartas (Escenario+Reto). 1’ Asignar roles (Facilitador/Relator/Observador). 7–9’ Jugar: argumentos en turnos cortos; el Observador aplica rúbrica. 2’ Cierre: acuerdos + micro‑medalla del día. 2’ QR: subir evidencia a la Wiki + siguiente micro‑paso.
Por qué funciona (en una línea): Porque reduce la fricción para pensar mejor juntos y deja huella: evidencia breve, medible y reutilizable en toda la universidad.

C. BENEFICIOS (valor para la Universidad)

Inteligencia humana en acción: práctica, visible y medible en aulas, oficinas y servicios.
Metodología portable: funciona presencial, híbrido o virtual; sin infraestructura adicional.
Aprendizaje y trabajo profundos: activa principios de la ciencia del aprendizaje (recuperación, espaciado, variación, autoexplicación, co‑regulación y feedback útil).
Cultura de oralidad argumentada: pensamiento más allá de productos mediados por IA; decisiones y mejor debatidas.
Trazabilidad institucional: repositorio con micro‑evidencias para mostrar resultados y escalar buenas prácticas entre unidades.

Indicadores de éxito (piloto)

Académico: ≥ 4 micro‑rutas (al menos una por momento clave) · ≥ 120 estudiantes en ≥ 4 programas (Medicina, Derecho, Psicología e Ingenieria) · ≥ 80% de docentes piloto reportan mejora en participación/argumentación · ≥ 60 evidencias publicadas.
Comunidad ampliada: ≥ 2 áreas administrativas (Biblioteca y Gestión Humana) / 1 de servicios (Admisiones) participan · ≥ 60 colaboradores no docentes involucrados · ≥ 70% reporta mejor calidad de decisiones o de servicio tras las sesiones DIÁlogos · ≥ 24 evidencias de mejoras operativas documentadas.

D. INNOVACIÓN (diferenciadores)

Fundamentacion
El avance de la IA empuja a las universidades a formular políticas y prácticas que integren esta tecnología en tareas profesionales y cotidianas, sin confundir productividad con aprendizaje. La IA es una tecnología de propósito general con potencial de impulsar la productividad, pero sus beneficios dependen de inversiones complementarias en capital humano y procesos organizacionales; de lo contrario, las ganancias serán desiguales y no necesariamente reflejarán desarrollo real de competencias. Además, el trabajo de conocimiento y las actividades de toma de decisiones y colaboración serán de los ámbitos más impactados por la IA generativa, lo que vuelve críticas las habilidades metacognitivas y éticas para evitar la delegación acrítica.
En este escenario, evidenciar el pensamiento —no solo los productos mediadores— es clave. La ciencia del aprendizaje respalda estrategias como resumen y parafraseo generativo, práctica distribuida, práctica intercalada y generación de preguntas, que hacen visible el razonamiento y mejoran la retención conceptual; son prácticas superiores a estudiar de forma pasiva y permiten evaluar dominio real más allá de la herramienta utilizada.
{Muchas investigaciones ha establecido la durabilidad de los efectos de la práctica distribuida a lo largo del tiempo, pero se ha prestado mucha menos atención a otros tipos de criterio empleados en contextos educativos. El metaanálisis de Cepeda et al. (2009), por ejemplo, se centró en estudios en los que la variable dependiente era el recuerdo libre verbal. El efecto de la práctica distribuida se ha generalizado a medidas dependientes más allá del recuerdo libre, incluyendo preguntas de opción múltiple, preguntas de recuerdo con claves y de respuesta corta (p. ej., Reynolds y Glaser, 1964), juicios de frecuencia (p. ej., Hintzman y Rogers, 1973) y, en ocasiones, memoria implícita (p. ej., R. L. Greene, 1990; Jacoby y Dallas, 1981). En términos más generales, aunque los estudios que utilizan estas medidas básicas de la memoria pueden informar al campo al hacer avanzar la teoría, los efectos de la práctica distribuida sobre estas medidas no necesariamente se generalizarán a todas las demás medidas relevantes en educación. Dado que a los estudiantes a menudo se les exige ir más allá de la retención básica de los materiales, esta brecha es quizá la mayor y más importante por cubrir en la literatura sobre práctica distribuida.}
Asimismo, una ecología del aprendizaje que conecte lo formal, no formal e informal potencia la transferencia, legitima el conocimiento tácito y posiciona a toda la comunidad universitaria —docencia, administración y servicios— como agentes del conocimiento que aprenden “en flujo” y dejan rastro de sus decisiones y mejoras. Desde la práctica docente, las “preguntas para pensar” ayudan a hacer visible lo que se está pensando y a construir el andamiaje conceptual (Furman, 2021, p. 180, 187). En paralelo, el horizonte formativo puede anclarse en las cinco mentes para el futuro —disciplinar, sintetizadora, creativa, respetuosa y ética— con caminos concretos de implementación en aula y equipos (Gardner, 2006). Así, aprender a escribir/pensar en la disciplina se centra en advertir, reflexionar y proponer soluciones propias del campo (Carlino, 2010, p. 13), mientras la oralidad se reposiciona como espacio de razonamiento y deliberación en tiempos de abundancia informativa (Ong, 1982).

Por qué es innovadora

En tiempos de IA generativa —cuando “hacer” es fácil pero pensar con criterio es el verdadero diferencial— DIÁlogos convierte 10 minutos de cualquier clase, reunión o cambio de ciclo en un laboratorio de inteligencia humana. En lugar de añadir otra plataforma, hackea el tiempo cotidiano con un juego de cartas low‑tech que hace visible el razonamiento, lo mide con evidencias ligeras y lo transforma en hábito institucional para toda la comunidad universitaria (docencia, administración y servicios).

Elementos innovadores (qué trae de nuevo)

Diálogo como evidencia Desplaza el foco del “producto escrito” a interacciones inteligentes: explicar‑argumentar‑sintetizar en voz alta, con registro breve (QR) en Wiki institucional. La evidencia es el criterio acordado, no el archivo bonito.
Micro‑prácticas de alto retorno “Partidas” de 10 min integradas al flujo real de aula/oficina/servicio: menos fricción, más adopción, mejor transferencia de lo discutido a lo que se decide y se hace.
Gamificación con criterio low‑tech Marcos MDA y Octalysis traducidos a mecánicas simples: turnos, roles, retos cronometrados, puntos condicionados a evidencia (anticheat), niveles (Semilla→Hábito) e insignias de equipo. Sin pantallas extra, sin dependencia de apps.
Catálogo bimodal por “momentos” Un mismo mazo sirve para aprendizaje (Adquisición, Colaboración, Discusión, Práctica, Indagación, Producción) y para gestión/servicio (Alineación, Coordinación, Decisión, Mejora, Servicio, Cierre). Esto une aulas, oficinas y servicios bajo un lenguaje común.
Ciencia del aprendizaje, operativizada Cada reto etiqueta su nivel de Bloom (comprender‑analizar‑evaluar‑crear) y activa prácticas con evidencia (autoexplicación, interrogación elaborativa, espaciado/intercalado, generación de preguntas). No es “jugar por jugar”: es diseño instruccional intencionado en 10 minutos.
Telemetría útil (L1–L4) Tablero con reacción, aprendizaje, comportamiento y resultados (Kirkpatrick): participación y calidad argumental, claridad de criterios, tiempos de decisión, NPS interno, incidentes de servicio. Del diálogo a los indicadores.
Antifraude pedagógico Los puntos solo valen si hay evidencia publicada; los comodines son limitados; el Observador aplica rúbrica mini. Se premia el pensamiento de calidad, no el “jugar por puntos”.
Escalable y abiertoLow‑cost, impresión bajo demanda, licencia abierta (CC BY‑NC) y reuso de infraestructura (Wiki). Fácil de replicar por unidades académicas y áreas de apoyo.
Inclusión real de la comunidad Diseñado para todos los roles: profesorado, estudiantes, personal administrativo y de servicios. Un mismo instrumento fortalece creatividad, memoria, pensamiento crítico, empatía y juicio ético en contextos distintos, con métricas comparables.

¿En qué se diferencia de lo existente?

Frente a cursos de “habilidades blandas”: no es capacitación aislada, sino práctica en flujo de trabajo/estudio, repetible y medible, con impacto en decisiones y servicio en semanas.
Frente a apps de gamificación: no requiere nuevas licencias ni pantallas; gamifica conversaciones con reglas claras y anticheat basado en evidencia pública.
Frente a debates o clubes orales: estructura roles, criterios y rúbricas, deja trazabilidad en la Wiki y se alinea con objetivos de curso/área (Bloom + KPIs).
Frente a soluciones centradas en “productos” o detección de IA: cambia el control por cultivo: desarrollar capacidades humanas y mostrar su progreso, no “controlar” entregas.
Frente a rúbricas tradicionales: además de evaluar, enseña a pensar (preguntas para pensar, toma de perspectiva, dilemas éticos) y genera acuerdos transferibles como output mínimo.
En una línea: DIÁlogos no añade tecnología, añade método: convierte minutos dispersos en conversaciones con propósito, con evidencia y progreso, para que la inteligencia humana sea la ventaja competitiva de la universidad.
dialogos02

E. IMPLEMENTACIÓN (plan y tiempos)

Cronograma del Reto: Sept 2–Oct 6 (desarrollo y envío) · Oct 7–24 (preselección) · Nov 3–7 (finales).
Fase 0 – Preparación (semana 1) Equipo diverso y selección de pilotos: 4 Grupos de Pregrado o Posgrado + 2 áreas administrativas + 1 equipo de servicios. Versión 0.9 del kit (cartas imprimibles + e‑book) y plantillas de evidencia.
Fase 1 – Co‑diseño (semana 2) Taller 2h con docentes, jefaturas administrativas y líderes de servicio: elección de momentos/retos y diseño de micro‑rutas por grupo/área.
Fase 2 – Pilotaje (semanas 3–4) ≥ 2 sesiones DIÁlogos por grupo/área. Evidencias en Wiki y mini‑rúbricas (participación, calidad argumental, toma de perspectiva, ética en acción, calidad de decisión/servicio).
Fase 3 – Síntesis y entrega (semana 5) Consolidado de evidencias, métricas e historias de uso. Ficha final (PDF) + pitch (≤5 min).
Si se es finalista (Oct 27→Nov 7) Ajustes del kit. Paquetes Starter/Pro por unidad académica. Demostración en vivo con estudiantes y colaboradores.
Roles y responsables
Líder pedagógico: contenido de cartas, e‑book, rúbricas.
Docentes piloto: co‑diseño y ejecución en clase.
Gestión/Métricas: analítica ligera, consolidado y reporte.
Diseño/Producción: diagramación e impresión bajo demanda.
Embajador/a administrativo y de servicios: adaptación de casos, horarios y RR. HH.
Riesgos y mitigación
Baja adopción → micro‑formación 60’, plantillas simples y acompañamiento entre pares.
Tiempo limitado → actividades 10 min + guía de ajuste rápido.
Variabilidad de evidencias → rúbricas y checklist comunes + curaduría semanal.
Turnos/operación en servicios → sesiones móviles (inicio/fin de turno) y versiones QR.

F. COSTOS Y FINANCIACIÓN (piloto)

Diseño y diagramación (cartas + e‑book): $2.500.000 COP
Impresión 20 mazos piloto (200–240 cartas): $3.000.000 COP
Talleres (2×2h) y acompañamiento: in‑kind (horas del equipo)
Plataforma de evidencias: existente ​Total piloto estimado: $5.500.000 – $6.500.000 COP
Estrategia de financiación Cofinanciación con unidades (imprentas/centros de diseño) + impresión bajo demanda; alianzas de diseño editorial; reutilización de Wiki/LMS; Licencia abierta (CC BY‑NC) para descarga/impresión descentralizada.

G. ALINEACIÓN CON LA RÚBRICA DEL RETO

Coherencia: problema (hacer visible y fortalecer pensamiento humano) → solución (cartas + micro‑rutas) → métricas y evidencias académicas y administrativas.
Propuesta de valor: aprendizaje y trabajo mejores con prácticas probadas y cultura de oralidad argumentada.
Creatividad: gamificación ligera y transversalidad a disciplinas y áreas de gestión.
Conformación diversa: equipo interdisciplinar + enlace con servicios.
Implementación clara: cronograma 5 semanas, entregables (PDF + video).
Pitch: demo en vivo de una micro‑ruta (10–12 cartas, 3 minutos) + resultados de aula y oficina.

H. ANEXOS (para el envío)

Kit DIÁlogos – versión piloto (PDF para impresión).
Guía rápida (1 página).
Rúbricas mini (participación, calidad argumental, toma de perspectiva, ética en acción, calidad de decisión/servicio).
Plantillas de evidencias y acceso a Wiki/Repositorio.
Video pitch (≤5 min) con demo y resultados del piloto.

Declaración de ajuste al reto

Esta solución no integra IA en aula ni en gestión; fortalece inteligencia humana mediante conversación estructurada, memoria, creatividad, juicio ético y empatía, con evidencias transferibles al currículo y a la operación universitaria.

Extras para presentación y adopción

One‑liner de valor

Want to print your doc?
This is not the way.
Try clicking the ··· in the right corner or using a keyboard shortcut (
CtrlP
) instead.