- Publié le
Optimiser l'utilisation de la machine pour plusieurs LLM affinés
- Auteurs
- Nom
- AbnAsia.org
- @steven_n_t
"Comment pouvons-nous optimiser l'utilisation des machines pour plusieurs LLM affinés ? Considérons OpenAI comme exemple et son API pour affiner les modèles. Dans le cas d'OpenAI, le « réglage fin » signifie que le modèle est spécialisé en utilisant certaines données propriétaires, puis déployé sur le matériel GPU pour l'accès à l'API. Naïvement, on pourrait penser que pour chaque nouveau client souhaitant affiner son modèle, il faudrait déployer un nouveau modèle sur un nouveau cluster GPU. Cependant, il est peu probable qu'OpenAI procède de cette façon !
Le matériel GPU est très cher et il faudrait allouer un cluster GPU à chaque nouveau client. Le modèle de tarification d'OpenAI est basé sur l'utilisation du modèle, ce qui signifie que les clients ne paient que lorsqu'ils utilisent le modèle, mais pour OpenAI, le coût de service du modèle ne s'arrête jamais ! Il est très probable que des milliers de clients souhaitaient simplement tester les capacités de réglage fin d'OpenAI, et que les modèles affinés qui en ont résulté n'ont jamais été réellement utilisés. OpenAI gérerait-il simplement le coût de service pour chacun de ces modèles ?
Une stratégie pour affiner les LLM consiste à utiliser des adaptateurs qui peuvent être « branchés » sur le modèle de base. L'idée est d'éviter de mettre à jour les poids du modèle de base et de laisser les adaptateurs capturer les informations sur les tâches de réglage fin. Nous pouvons brancher et débrancher différents adaptateurs qui spécialisent le modèle sur différentes tâches. Le type d'adaptateur le plus courant et le plus efficace est l'adaptateur LoRA (Low-Rank Adapter). L'idée est de remplacer certaines des grandes matrices du modèle par des plus petites pour le calcul du gradient.
En raison de la petite taille de ces adaptateurs et de leur logique additive simple, il est facile d'ajouter plusieurs adaptateurs à la fois pour différentes tâches de réglage fin. Ces adaptateurs peuvent être formés séparément et branchés ensemble au moment du service. Nous avons juste besoin d'une logique pour acheminer les entrées vers leur tâche respective.
Ceci est extrêmement avantageux lorsque nous avons un faible volume de demandes pour certaines tâches. Dans le cas d'OpenAI, avec plusieurs adaptateurs LoRA, il leur devient facile de déployer plusieurs modèles affinés sur le même cluster GPU. Une fois que les poids LoRA ont été entraînés au cours d'un processus de réglage fin, nous les stockons simplement dans un registre de modèles. Le coût de stockage de ces poids au lieu d'un modèle entièrement réglé sera bien inférieur ! Au moment du service, nous pouvons brancher plusieurs adaptateurs sur le même modèle de base et acheminer la demande du client vers son propre adaptateur.
OpenAI peut facilement mesurer l'utilisation de l'adaptateur et le volume de demandes des clients pour les différents modèles affinés. Si le volume est faible, il peut être déployé avec d'autres adaptateurs à faible utilisation sur le même modèle de base, et s'il est élevé, l'adaptateur peut se voir attribuer son propre modèle de base afin que les utilisateurs n'attendent pas trop longtemps leur demandes à compléter"
Veuillez noter que la version française est assistée par Ai, des erreurs mineures peuvent donc exister.
Auteur
AiUTOMATING PEOPLE, ABN ASIA a été fondée par des personnes ayant des racines profondes dans le milieu académique, avec une expérience professionnelle aux États-Unis, aux Pays-Bas, en Hongrie, au Japon, en Corée du Sud, à Singapour et au Vietnam. ABN ASIA est l'endroit où l'académie et la technologie rencontrent l'opportunité. Avec nos solutions de pointe et nos services de développement logiciel compétents, nous aidons les entreprises à se développer et à s'imposer sur la scène mondiale. Notre engagement : Plus vite. Mieux. Plus fiable. Dans la plupart des cas : moins cher également.
N'hésitez pas à nous contacter chaque fois que vous avez besoin de services informatiques, de conseils en matière de numérique, de solutions logicielles prêtes à l'emploi, ou si vous souhaitez nous envoyer des demandes de propositions (RFP). Vous pouvez nous contacter à l'adresse [email protected]. Nous sommes prêts à vous aider avec tous vos besoins technologiques.
© ABN ASIA