LLM : comment configurer chaque type de modèle ?
Une fois une ou plusieurs collections créées dans le menu Contenus externes, il est possible de configurer un modèle LLM.
Dernière mise à jour
Cet article vous a-t-il été utile ?
Une fois une ou plusieurs collections créées dans le menu Contenus externes, il est possible de configurer un modèle LLM.
Dernière mise à jour
Cet article vous a-t-il été utile ?
La modale Résumé des paramètres de mon LLM permet de configurer les paramètres nécessaires au fonctionnement du LLM qui va être utilisé.
Dans la modale ci-dessus, il est possible de renseigner les paramètres suivants selon le type de LLM choisi en cliquant sur le bouton Modifier :
Type de modèle LLM : il en existe plusieurs -> Azure OpenAI Dydu, OpenAI, Azure OpenAI, MistralAI, GoogleAI Gemini, VertexAI Gemini, Scaleway.
Clé d'authentification API : Entrez la clé d’authentification API associée au modèle LLM que vous allez utiliser.
Modèle LLM et d'indexation (embedding) :
Modèle LLM : Un LLM est un modèle d’intelligence artificielle entraîné sur beaucoup de textes pour comprendre et générer du langage naturel. Il peut traduire, résumer, répondre à des questions, etc, en s’appuyant sur le contexte et le sens des mots.
Modèle d'embedding : Un modèle d'embedding transforme des mots ou phrases en vecteurs numériques pour que l’intelligence artificielle puisse comparer leur sens. Des textes similaires auront des vecteurs proches, ce qui aide à traiter et retrouver l’information plus intelligemment.
Options supplémentaires : Selon le modèle du LLM que vous allez utiliser, il peut y avoir des options supplémentaires à renseigner.
Une fois les paramètres renseignés , il suffit de cliquer sur appliquer et le modèle est prét à être utilisé.
Depuis la liste déroulante dans Résumé des paramètres de mon LLM, vous pouvez choisir celui que vous souhaitez utiliser :
Le modèle Azure OpenAI Dydu est utilisé par défaut, sans nécessité d'ajuster les paramètres.
Version de l'API : v1 est la version utilisée par défaut chez OpenAI pour les endpoints, donc c'est possible laisser v1 ou d'utiliser une autre version.
Exemple de Modèle LLM et d'indexation (embedding) :
Modèle LLM : gpt-4o-mini
Modèle d'embedding : text-embedding-3-large
Dans votre ressource Azure OpenAI, vous trouverez :
Clé d’authentification API :
Allez dans : Clés et points de terminaison .
Vous y verrez deux clés Key1
et Key2
, copiez l’une d’elles.
Point de terminaison AzureOpenAI
Dans la même section, vous verrez aussi l’URL de point de terminaison, du style : https://nom-de-ta-ressource.openai.azure.com/
Nom du déploiement
C’est le nom que vous avez donné au déploiement du modèle, par exemple : gpt-4
, chat
, embedding-model
, etc.
Allez dans l’onglet "Déploiements" pour le retrouver.
Version de l’API
Exemple de Modèle LLM et d'indexation (embedding) :
Modèle de LLM : ministral-8b-latest
Modèle d'embedding : mistral-embed
Exemple de Modèle LLM et d'indexation (embedding) :
Modèle LLM : gemini-1.5-flash-latest
Modèle d'embedding : models/text-embedding-004
Voici le que vous pouvez utiliser.
L’exemple mentionné ci-dessus sert uniquement à des fins d’illustration. Toutefois, les modèles de LLM ainsi que les méthodes d’indexation sont en constante évolution. Voici le
Il faut se connecter sur votre portail Azure : afin de remplir les champs recquis :
Vous pouvez le voir dans la ou dans le portail.
L’exemple mentionné ci-dessus sert uniquement à des fins d’illustration. Toutefois, les modèles de LLM ainsi que les méthodes d’indexation sont en constante évolution. Voici et
L’exemple mentionné ci-dessus sert uniquement à des fins d’illustration. Toutefois, les modèles de LLM ainsi que les méthodes d’indexation sont en constante évolution. Voici
Pour configurer les paramètres de VertexAI Gemini, veuillez consulter la page suivante :
Voici