Guia |
![]()
Luciano Radrigan F.
|
---|---|
Áreas | Inteligencia artificial |
Sub Áreas | Aprendizaje de máquina |
Estado | Disponible |
La memoria tiene como propósito diseñar e implementar un pipeline de Inteligencia Artificial (IA) en la plataforma Amazon Web Services (AWS), evaluando su desempeño, escalabilidad y costo en comparación con alternativas tradicionales.
El trabajo contempla el desarrollo de un flujo completo que incluye:
Ingesta y preprocesamiento de datos utilizando servicios como Amazon S3 y AWS Glue.
Entrenamiento y optimización de modelos de IA mediante Amazon SageMaker.
Despliegue e inferencia en producción con endpoints administrados o arquitecturas serverless (AWS Lambda, API Gateway).
Monitoreo, logging y gestión del ciclo de vida con herramientas de MLOps disponibles en AWS.
Se analizarán aspectos claves como escalabilidad, eficiencia en costos, seguridad y buenas prácticas de gobernanza en la nube. Asimismo, se presentará un caso práctico aplicado a un dataset real, donde se implementará un pipeline end-to-end y se evaluarán métricas de rendimiento y consumo de recursos.
Con este trabajo se busca ofrecer un marco de referencia para la implementación de pipelines de IA en AWS, orientado a proyectos académicos e industriales que requieran soluciones reproducibles, seguras y escalables.