La inteligencia artificial avanza a pasos agigantados con la introducción de la técnica Low Rank Adaptation (LoRA) para optimizar modelos de manera más eficiente. Microsoft ha implementado este enfoque en su modelo Phi Silica, mejorando significativamente su capacidad para adaptarse a usos específicos y ofreciendo resultados más precisos y personalizados.
LoRA se basa en entrenar un adaptador que se aplica durante la inferencia, aumentando la precisión del modelo. Para utilizar esta tecnología, los usuarios deben tener bien definido su caso de uso y haber probado previamente las APIs de Phi Silica sin éxito. El entrenamiento del adaptador comienza con la creación de un conjunto de datos dividido en archivos JSON, donde cada línea representa una interacción entre un usuario y un asistente. Se recomienda una recolección de miles de ejemplos para asegurar la diversidad y calidad de los datos.
El proceso se facilita mediante el uso del AI Toolkit para Visual Studio Code. Los usuarios pueden seleccionar el modelo Phi Silica y crear un proyecto que permite llevar a cabo el fine-tuning. Este entrenamiento puede durar entre 45 y 60 minutos, tras lo cual se podrá descargar el adaptador mejorado.
La fase de inferencia, crucial para aplicar el adaptador, se realiza utilizando la aplicación AI Dev Gallery, permitiendo a los usuarios observar los cambios en las respuestas generadas por el modelo. Sin embargo, es fundamental considerar los riesgos asociados al fine-tuning, como la calidad de los datos, la robustez del modelo y la transparencia de los resultados.
A pesar del potencial de LoRA para optimizar los modelos, su implementación requiere una cuidadosa revisión de los resultados para garantizar relevancia y exactitud. Cabe destacar que las funciones del modelo Phi Silica no están disponibles en China, lo que restringe su uso en esa región.