Los grandes modelos de lenguaje (LLMs) han demostrado su eficacia en tareas generales, pero enfrentan desafíos al abordar trabajos que requieren comprensión profunda de datos internos y terminología específica. Para adaptar estos modelos a contextos organizacionales, se emplea el fine-tuning supervisado (SFT), que puede realizarse mediante el ajuste de parámetros eficientes (PEFT) o el SFT de rango completo. Sin embargo, el SFT de rango completo presenta un problema conocido como «olvido catastrófico», donde los modelos podrían perder habilidades generales mientras se especializan en un dominio.
Amazon ha introducido Nova Forge, una solución que permite a los usuarios construir modelos personalizados sin sacrificar inteligencia general. Nova Forge permite combinar datos propios con los proporcionados por Amazon Nova, y los modelos se pueden alojar de forma segura en AWS. Un estudio realizado por un equipo de AWS China evaluó Nova Forge con una tarea compleja de clasificación de comentarios de clientes, destacando un aumento del 17% en el puntaje F1 y la preservación de capacidades generales.
La clasificación de comentarios es crucial en grandes empresas de comercio electrónico, donde el equipo de experiencia del cliente procesa miles de comentarios diarios. Aquí, la necesidad de un LLM que ofrezca precisión en la categorización de comentarios y mantenga la inteligencia general es evidente.
La evaluación de Nova Forge mostró que es posible mejorar el rendimiento en tareas específicas sin comprometer otras habilidades del modelo. Nova Forge demuestra que se pueden crear modelos especializados manteniendo alto rendimiento en tareas generales, lo que representa un avance significativo para las organizaciones que buscan implementar soluciones de IA generativa de manera más efectiva.