J'ai un projet tech !
IA & LLM

Modele de fondation

Un modele de fondation est un grand modele d'IA entraine sur des donnees massives non etiquetees par apprentissage auto-supervise, adaptable a de nombreuses taches sans re-entrainement complet. Ce terme a ete popularise par le Stanford HAI en 2021. Il represente un changement de paradigme : une base polyvalente au lieu d'un modele par tache.

Les modeles de fondation marquent un tournant dans l'histoire de l'intelligence artificielle. Avant leur apparition, chaque application necessitait un modele specifique entraine sur des donnees dediees. Desormais, un seul modele de base — GPT-4, Claude, Mistral, Llama — peut etre adapte a des dizaines de taches differentes : generation de texte, analyse de sentiment, classification, traduction, resume automatique. Le terme a ete formalise en 2021 par le Stanford HAI (Human-Centered Artificial Intelligence) pour decrire ces modeles entraines par apprentissage auto-supervise sur des corpus massifs et non etiquetes. Le principe est simple : le modele apprend a predire la suite d'un texte a partir de milliards de documents, ce qui lui confere une comprehension generale du langage applicable a de multiples domaines. Dans le secteur juridique francais, les solutions legaltech comme Doctrine, Predictice, Jimini, GenIA-L et Lexis+AI adaptent ces modeles de fondation au droit francais. Cette adaptation passe par du fine-tuning sur des corpus juridiques et/ou des architectures RAG qui ancrent les reponses dans des sources verifiees. L'enjeu est de transformer une competence linguistique generale en une expertise juridique fiable.