# LLM : comment configurer chaque type de modèle ?

## Résumé des paramètres de mon LLM&#x20;

La modale **Résumé des paramètres de mon LLM** permet de configurer les paramètres nécessaires au fonctionnement du LLM qui va être utilisé.

<figure><img src="https://1101559743-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FgMQl4578l4DzuAEhrEii%2Fuploads%2FnCl2TdZH8z1WVNDH6bI9%2Fimage.png?alt=media&#x26;token=6f4f3fbb-902c-4399-8199-f89b0ffa4c64" alt=""><figcaption></figcaption></figure>

* Dans la modale ci-dessus, il est possible de renseigner les paramètres suivants selon le type de LLM choisi en cliquant sur le bouton **Modifier** :&#x20;

1. **Type de modèle LLM :** il en existe plusieurs -> **Azure OpenAI Dydu, OpenAI, Azure OpenAI, MistralAI, GoogleAI Gemini, VertexAI Gemini, Scaleway**.&#x20;
2. **Clé d'authentification API :** Entrez la clé d’authentification API associée au modèle LLM que vous allez utiliser.
3. **Modèle LLM et d'indexation (embedding) :**&#x20;
   1. Modèle LLM : Un LLM est un modèle d’intelligence artificielle entraîné sur beaucoup de textes pour comprendre et générer du langage naturel.\
      Il peut traduire, résumer, répondre à des questions, etc, en s’appuyant sur le contexte et le sens des mots.
   2. Modèle d'embedding : Un modèle d'embedding transforme des mots ou phrases en vecteurs numériques pour que l’intelligence artificielle puisse comparer leur sens.\
      Des textes similaires auront des vecteurs proches, ce qui aide à traiter et retrouver l’information plus intelligemment.
4. **Options supplémentaires :** Selon le modèle du LLM que vous allez utiliser, il peut y avoir des options supplémentaires à renseigner.

* Une fois les paramètres renseignés , il suffit de cliquer sur appliquer et le modèle est prét à être utilisé.

## Types de modèles LLM

Depuis la liste déroulante dans **Résumé des paramètres de mon LLM**, vous pouvez choisir celui que vous souhaitez utiliser :&#x20;

### Azure OpenAI Dydu :&#x20;

<figure><img src="https://1101559743-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FgMQl4578l4DzuAEhrEii%2Fuploads%2FccP5km0x1sXwSe2JeAHw%2Fimage.png?alt=media&#x26;token=7fd595eb-0b4c-47ec-8321-2e0701d4d39f" alt=""><figcaption></figcaption></figure>

* Le modèle Azure OpenAI Dydu est utilisé par défaut, sans nécessité d'ajuster les paramètres.

### **OpenAI :**&#x20;

<figure><img src="https://1101559743-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FgMQl4578l4DzuAEhrEii%2Fuploads%2FZA2EoVzlpSrIecMNqM2V%2Fimage.png?alt=media&#x26;token=b5460c54-c113-4a51-b6a0-6507bfdd90d7" alt=""><figcaption></figcaption></figure>

* Voici le [lien vers les modèles de LLM et d'embedding](https://platform.openai.com/docs/models) que vous pouvez utiliser.
* Version de l'API : v1 est la version utilisée par défaut chez OpenAI pour les endpoints, donc c'est possible laisser v1 ou d'utiliser une autre version.

### **Azure OpenAI :**&#x20;

<figure><img src="https://1101559743-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FgMQl4578l4DzuAEhrEii%2Fuploads%2FnI5jFjzWEZO3JXMF526P%2Fimage.png?alt=media&#x26;token=84fd306b-6ff1-4d12-9f6d-b7b177a2cefb" alt=""><figcaption></figcaption></figure>

* Si vous souhaitez partir sur une configuration Azure, vous aurez besoin de créer deux déploiements :&#x20;
  * Le premier pour le modèle de LLM à utiliser, par exemple : **gpt-4o-mini**
  * Le second, pour l'indexation (embedding), par exemple : **text-embedding-3-large**
* L’exemple mentionné ci-dessus sert uniquement à des fins d’illustration. Toutefois, les différents modèles LLM ainsi que les méthodes d’indexation sont en constante évolution. Voici le [lien vers les modèles de LLM et d'embedding](https://platform.openai.com/docs/models)&#x20;
* Il faut se connecter sur votre portail Azure : <https://portal.azure.com> afin de remplir les champs requis :&#x20;

  Dans votre ressource Azure OpenAI, vous trouverez  :

  * **Clé d’authentification API :**&#x20;

  Allez dans : Clés et points de terminaison .

  Vous y verrez deux clés `Key1` et `Key2` , copiez l’une d’elles.

  * **Point de terminaison AzureOpenAI**

  Dans la même section, vous verrez aussi l’URL de point de terminaison, du style : `https://nom-de-ta-ressource.openai.azure.com/`

  * **Nom des déploiements**

  C’est le nom que vous avez donné au déploiement du modèle, par exemple : `gpt-4`, `chat`, `embedding-model`, etc.

  Allez  dans l’onglet "Déploiements" pour le retrouver.

  * **Version de l’API**

  Vous pouvez le voir dans la [documentation officielle Azure OpenAI](https://learn.microsoft.com/en-us/azure/ai-services/openai/api-version-deprecation#latest-ga-api-release) ou dans le portail.

### MistralAI :&#x20;

<figure><img src="https://1101559743-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FgMQl4578l4DzuAEhrEii%2Fuploads%2FwQNrgL1boTMXTS8BMfVm%2Fimage.png?alt=media&#x26;token=fb03c60d-fa86-4b4d-b337-a6e1f489bd90" alt=""><figcaption></figcaption></figure>

* Exemple de Modèle LLM et d'indexation (embedding) :&#x20;
  * Modèle de LLM : **ministral-8b-latest**
  * Modèle d'embedding : **mistral-embed**
* L’exemple mentionné ci-dessus sert uniquement à des fins d’illustration. Toutefois, les modèles de LLM ainsi que les méthodes d’indexation sont en constante évolution. Voici[ le lien vers les modèles de LLM](https://docs.mistral.ai/getting-started/models/models_overview/) et [le lien vers les modèles d'embedding](https://docs.mistral.ai/capabilities/embeddings/)

### GoogleAI Gemini :&#x20;

<figure><img src="https://1101559743-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FgMQl4578l4DzuAEhrEii%2Fuploads%2FFQdClFH7I7B6YK9O4pqa%2Fimage.png?alt=media&#x26;token=5edca653-77a4-4cd7-bbaf-a387b93efb90" alt=""><figcaption></figcaption></figure>

* Exemple de Modèle LLM et d'indexation (embedding) :&#x20;
  * Modèle LLM : **gemini-1.5-flash-latest**
  * Modèle d'embedding : **models/text-embedding-004**
* L’exemple mentionné ci-dessus sert uniquement à des fins d’illustration. Toutefois, les modèles de LLM ainsi que les méthodes d’indexation sont en constante évolution. Voici [le lien vers les modèles de LLM et d'embedding](https://cloud.google.com/vertex-ai/generative-ai/docs/models)&#x20;

### VertexAI Gemini :&#x20;

<figure><img src="https://1101559743-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FgMQl4578l4DzuAEhrEii%2Fuploads%2Fn7T1nT8IG74fuU2n2dXU%2Fimage.png?alt=media&#x26;token=9b348840-0a43-4561-a0a9-b4c0ba1794a4" alt=""><figcaption></figcaption></figure>

* Pour configurer les paramètres de VertexAI Gemini, veuillez consulter la page suivante :[ VertexAI Gemini ](https://docs.dydu.ai/contenus/contenus-externes/vertexai-gemini)

### Scaleway :&#x20;

<figure><img src="https://1101559743-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FgMQl4578l4DzuAEhrEii%2Fuploads%2F2oq4CN2elsYHoFZCUnyO%2Fimage.png?alt=media&#x26;token=44e3ab00-c86c-4609-bd55-db9d4253a7dd" alt=""><figcaption></figcaption></figure>

* Voici [le lien vers les modèles de LLM et d'embedding](https://www.scaleway.com/en/docs/generative-apis/reference-content/supported-models/)

### Custom LLM

Si vous souhaitez utiliser votre propre LLM personnalisé, qui ne correspond à aucun des types mentionnés précédemment, vous avez la possibilité de configurer manuellement votre instance.

Cette configuration nécessite quelques pré-requis :&#x20;

* Disposer d’une URL exposant les routes spécifiées dans le tableau ci-dessous (ex. : <https://mon-api.test.fr/openai>, permettant d’accéder aux endpoints /openai/chat/completion ou /openai/embeddings)
* Fournir une clé API via le header Authorization (format : Bearer)
* Indiquer les modèles de LLM et d’embedding que vous souhaitez utiliser (information nécessaire de notre côté)

| API                  | Method + URL relative                             | Documentation                                                      |
| -------------------- | ------------------------------------------------- | ------------------------------------------------------------------ |
| Création d'embedding | POST <https://api.openai.com/v1/embeddings>       | <https://platform.openai.com/docs/api-reference/embeddings/create> |
| Question/Réponse     | POST <https://api.openai.com/v1/chat/completions> | <https://platform.openai.com/docs/api-reference/chat/create>       |
