Oferta Académica

Curso

IA, Lenguaje y Python: Introducción Integral DE NLP y LLMS

  • Transformación Digital, Ingeniería de Datos y TIC´S
  • Remoto
  • Inicia el 19 de enero de 2026
  • 48 horas
Inversión

$ 1.650.000

Horarios
lunes y jueves de 18:30 a 20:30
duración 12 semanas
intensidad 48 horas
Facultad Escuela de Ciencias e Ingeniería

comparte este Curso

Objetivo

Este curso está diseñado para entregar a profesionales y estudiantes con conocimientos de programación, experiencia e interés como usuarios(as) de LLMs sólidas capacidades para la identificación, diseño y desarrollo, validación y despliegue de soluciones avanzadas de inteligencia artificial para el procesamiento de texto, permitiéndoles construir y explotar sistemas como buscadores semánticos, asistentes conversacionales, agentes automáticos y sistemas de clasificación.

Dirigido a

Profesionales y estudiantes con conocimientos de programación, nube e inteligencia artificial, que busquen conocimientos especializados en el uso de LLMs para el desarrollo de soluciones prácticas en sus campos. Los perfiles clave a los que se orienta la aplicación de este conocimiento incluyen análisis y ciencia de datos, arquitectura e ingeniería de datos y software, investigación y consultoría tecnológica y todos aquellos con interés en entender en mayor detalle cómo funcionan LLMs como ChatGPT, Gemini, Llama, Mistral y tantos otros, para emplearlos en el desarrollo de soluciones automáticas como buscadores, asistentes y agentes. Igualmente, es idóneo para estudiantes de carreras afines a ingenierías, ciencias de la computación, exactas, económicas e incluso humanidades con orientación digital, que deseen desarrollar habilidades competitivas en el mercado laboral.

Aunque el curso es agnóstico a los lenguajes y herramientas empleados y promueve la comparación activa de múltiples alternativas, se espera que típicamente las y los participantes dominen: 1. Un lenguaje de programación (por ejemplo, Python o R, e incluso Java, C y un largo etcétera) para tareas de conexión vía API, carga y procesamiento de datos, matrices y computación numérica. 2. Un servicio de nube (GCP, AWS, Azure) para flujos básicos de datos y cómputo. 3. LLMs como las de OpenAI, Anthropic, Meta, etc como usuarios frecuentes. Lo más importante, sin embargo, es el interés y entusiasmo en usar estos modelos para resolver problemas interesantes.

  • Conocer el proceso histórico que condujo al desarrollo de la tecnología subyacente a los LLMs y entender la significancia de hitos como el transformador y el concepto de "atención".
  • Identificar las componentes en el proceso de entrenamiento y uso de un LLM, el flujo de los datos y la información, el rol del cómputo y el aprendizaje por refuerzo.
  • Entender la naturaleza de las alucinaciones de los modelos y otros riesgos intrínsecos a su uso.
  • Conectar a través de APIs, con modelos previamente entrenados, tanto comerciales como libres, en soluciones en nube y on-prem.
  • Determinar, tanto con métricas estándar como ad-hoc de cada caso de uso, la calidad y precisión de las respuestas entregadas por los LLMs, para diferentes prompts, modelos y momentos.
  • Construir instrucciones y datos de contexto apropiados para cada tarea, entendiendo los alcances y riesgos de la ingeniería de prompt.
  • Estimar los costos asociados con una solución con LLMs y entender globalmente la economía de la inteligencia artificial.
  • Identificar y priorizar tareas susceptibles de automatización con LLMs, garantizando pertinencia, calidad y retorno.
  • Diseñar y desplegar arquitecturas de solución para tareas de recuperación de información (RAG), encadenamiento de conceptos, ajuste fino de modelos y conexión con otros sistemas.
  • Implementar agentes que solucionen autónomamente tareas relevantes interactuando con sistemas, herramientas e incluso otros modelos.
  • Considerar y proponer bloques operativos en el proceso integral de construcción, despliegue, uso y mantenimiento de soluciones que tengan LLMs en el centro.
  • Incorporar al proceso consideraciones éticas y regulatorias relevantes a la inteligencia artificial.
  • Desarrollar de inicio a fin una solución que aplique lo aprendido en el curso a un problema concreto de procesamiento de lenguaje.

Módulo 1: Desmitificando los LLMs

  • Historia e hitos en el desarrollo tecnológico de los LLMs
  • Arquitectura y flujo del lenguaje en LLMs
  • Componentes y procesos adicionales al LLM en una solución de IA Generativa y lenguaje: datos, entrenamiento, aprendizaje por refuerzo, escalamiento
  • Alucinaciones y otros inconvenientes

Módulo 2: Interacción con LLMS, de usuarios a desarrolladores de soluciones

  • Interfaces de interacción con los modelos: de chatbots a APIs
  • Métricas de evaluación de soluciones con LLMs
  • Taller práctico de conexión automática con modelos y experimentos de evaluación para tareas sencillas

Módulo 3: El universo de los prompts

  • Ingeniería de prompts, metodología y alcances
  • Inyección de prompts y otros riesgos
  • Zero-shot y few-shot prompting
  • De la ingeniería de prompt a la ingeniería de contexto
  • Taller práctico de impacto de los ajustes en el prompt e introducción de mayor contexto en una tarea de complejidad intermedia

Módulo 4: Aspectos Económicos y Financieros de la IA

  • FinOps: costos explícitos y ocultos y construcción de caso de negocio de una solución con IA generativa/LLMs
  • El modelo de negocio de las empresas de IA y sus implicaciones para el desarrollo de soluciones
  • ¿Estamos en una burbuja de la IA? Cómo prepararse

Módulo 5: Selección de necesidad y diseño de solución basada en IA

  • Cómo construir una estrategia de soluciones IA alineada con la estrategia organizacional
  • Metodología de identificación y priorización de necesidades abordables desde proyectos con LLMs
  • Taller práctico de definición y refinamiento de proyectos finales del curso

Módulo 6: Soluciones intermedias, RAG y Herramientas

  • Arquitectura básica de RAG y otras soluciones que integran LLMs con otros sistemas y herramientas
  • Fine tuning: alcance y aplicación práctica
  • Principios y usos de LangChain y LangGraph y alternativas similares
  • Taller práctico de búsqueda semántica y respuesta a preguntas en un repositorio documental

Módulo 7: Agentes

  • Fundamentos de agentes
  • Herramientas para desarrollo de agentes existentes en el mercado
  • Model Context Protocol y agentes que interactúan con agentes
  • Taller práctico de desarrollo de agente para tareas personales específicas

Módulo 8: Integración de soluciones basadas en LLMs

  • Fundamentos de MLOps y LLMOps: procesos, roles y tecnología
  • "Human in the Loop", validación, monitoreo y ajuste de soluciones en despliegue
  • Sesión presentación avances y solución dudas y problemas proyectos finales

Módulo 9: Aspectos Éticos y Regulatorios

  • Estado actual y tendencias en la regulación de la IA en el mundo
  • Riesgos existenciales y concretos
  • Consideraciones Éticas: sesgos en modelos, democratización y acceso a la tecnología, consumo de recursos, derechos de autor, impacto en el trabajo y la educación

Módulo 10: Proyecto Final Integrador

  • Cierre y entrega de proyectos finales: chatbots, asistentes, agentes, traductores, sistemas de clasificación y recomendación, etc

Conoce a tus profesores

Ver a todos los docentes

Contacta a nuestro asesor

Luisa Fernanda Zubieta

3118392140

Todos nuestros programas incluyen un certificado de asistencia*

La Universidad del Rosario se reserva el derecho de modificar el equipo académico o el orden temático presentado.

La Universidad del Rosario podrá modificar las fechas de desarrollo de los programas

Los programas de Educación continua son educación informal, no conducen a título profesional.

 
Nombre teacher

Oferta Académica

Curso

IA, Lenguaje y Python: Introducción Integral DE NLP y LLMS

Te ayudamos a cumplir tus

sueños con nuestras opciones

de descuentos

Línea de atención

(+57) 601 297 0200 Opción 6

Financiación
Curso para empresa

¿QUIERES ESTE PROGRAMA PARA TU EMPRESA?

quiero más información