Introducción al Trabajo de Título
Guia Coguia
Áreas Inteligencia artificial, Teoría de la computación
Sub Áreas Procesamiento de lenguaje natural, Análisis y diseño de algoritmos y estructuras de datos
Estado Disponible
Descripción

Únete a un proyecto que busca reducir el tamaño y acelerar la carga de modelos de lenguaje masivos (LLMs) mediante técnicas avanzadas de compresión de datos. Trabajarás con modelos reales, explorando cómo se almacenan sus pesos y experimentando con métodos para optimizar su rendimiento sin sacrificar calidad.

Nos inspiramos en enfoques recientes como ZipNN (Zhou et al., 2025), que logran reducciones significativas mediante compresión sin pérdida enfocada en la estructura de los valores en punto flotante, alcanzando mejoras en velocidad y tamaño frente a compresores tradicionales arXiv:2411.05239v2.

Lo que harás:

  • Analizar cómo se almacenan los pesos de un LLM

  • Probar algoritmos de compresión y optimización

  • Medir el impacto en tamaño, velocidad y precisión