19 juin 2023

PEFT (Parameter-Efficient Fine-Tuning)

Les contributeurs
Jan Van Looy
Chef de projet et spécialiste de l'IA générative
S'abonner à la newsletter
Partager cet article

Naviguer dans le paysage du Parameter-Efficient Fine-tuning (PEFT) peut sembler être une tâche intimidante. À mesure que l'IA et l'apprentissage automatique continuent d'évoluer, il devient de plus en plus important de comprendre les différentes méthodes disponibles pour affiner les grands modèles de langage (LLM) et de savoir quand les utiliser : Prompt Tuning, LoRA (Low-Rank Adaptation), Adapters et Prefix Tuning. Chaque diapositive explique en quoi consiste la méthode et dans quelles circonstances il est préférable de l'utiliser. Que vous souhaitiez obtenir des résultats diversifiés, des modèles d'attention spécifiques à une tâche, des tâches multiples sur le même modèle ou modifier les représentations apprises, il existe une méthode PEFT pour vous. Faites défiler la page pour approfondir vos connaissances sur les méthodes PEFT et prendre une décision éclairée la prochaine fois que vous aurez besoin de peaufiner un programme d'apprentissage tout au long de la vie !

Blogues

État des lieux du LLM : libérer le potentiel commercial des grands modèles linguistiques : https://bit.ly/3Wqa3QL‍

Low Rank Adaption : Un approfondissement technique : https://lnkd.in/ek478dSs

‍Papers

Adaptateurs : https://lnkd.in/epXRCzRN

‍LoRA : https://lnkd.in/eFGq3yZW

‍Préfixation : https://lnkd.in/eJ9ixFpk

‍PromptTuning : https://lnkd.in/ezB5zM8Q

Dépôts

LoRA : https://lnkd.in/exAMvMfG

Postes connexes

Voir tout le contenu
Aucun résultat n'a été trouvé.
Il n'y a pas de résultats correspondant à ces critères. Essayez de modifier votre recherche.
Grand modèle linguistique
Modèles de fondation
Entreprise
Personnes
Données Structurées
Chat GPT
Durabilité
Voix et son
Développement frontal
Protection des données et sécurité
IA responsable/éthique
Infrastructure
Hardware et capteurs
MLOps
IA générative
Natural Language Processing
Vision par ordinateur