Documentation dydu
EnglishFrench
  • Un même logiciel, de multiples applications
  • Guide de première utilisation
    • Prise en main
    • Créer votre bot
    • Créer votre première connaissance
    • Créer et publier votre chatbot
    • Cas d'utilisation fréquents
    • Bonnes pratiques
    • Glossaire
  • Contenus
    • Connaissances
      • Gestion des connaissances
      • Gestion des thématiques
      • Types de connaissances
        • Réponse à une question
        • Réponse complémentaire
        • Réponse prédéfinie
        • Ciblage comportemental
        • Slot filling
      • Eléments de réponse
      • Accessibilité des réponses des bots
      • Arbre de décision
      • Commentaires
      • Tester le bot
      • Alertes qualité
    • Carte des connaissances
    • Groupes de formulations
    • Phrases générales
    • Langues / espaces
    • Conditions de contexte
    • Contenus externes
      • LLM : comment configurer chaque type de modèle ?
      • VertexAI Gemini
    • Galerie
    • Services Web
      • Exemples de configuration (REST)
      • Configurer l’OIDC sur keycloack pour un Service Web
      • Questions Fréquentes
    • Avancé
      • Scripts serveurs
      • Modèles de réponse prédéfinis
      • Variables
      • Déclencheurs de web services
      • Top connaissances
    • Outils
    • Import/Export de connaissances
  • Apprentissage
    • Conversations
    • Suggestions
    • Phrases incomprises
  • Statistiques
    • Exploitation
      • Important
      • Conversations
      • Visiteurs
      • Thématiques
      • Connaissances
      • Qualification
      • Avis des utilisateurs
      • Liens cliqués
      • Reformulations
      • Performance
      • Autres
    • Livechat
      • Conversations
      • Connaissances
      • Opérateurs
      • Satisfaction
      • Files d'attente
    • Base de connaissances
      • Formulations
      • Utilisateurs
      • Matches
    • Export
    • Configuration
  • Statistiques personnalisées
    • Rapports
    • Alertes
    • Configuration
      • Rapports
      • Exports
      • Sources prédéfinies
      • Alertes
      • Préférences
      • Annexe : liste des indicateurs
  • Livechat
    • Activer le livechat
    • Configuration de la base de connaissances
    • Livechat DYDU
      • Aperçu des interfaces
        • Interface opérateur
        • Interface manager
      • Configuration livechat DYDU
        • Configuration générale
        • Compétences
        • Files d'attente
          • Général
            • Mise en place de la file d'attente
          • Compétence
            • Mise en place de la file d'attente par compétence
            • Mise en place d'une connaissance avec la file d'attente par compétence
        • Capacité de l'opérateur
        • Paramètres de compte
    • Connecteur Livechat Genesys
  • Intégrations
    • FAQ
      • FAQ statique
      • FAQ dynamique
    • MetaBot
    • Actions javascript
    • Règles personnalisées du ciblage comportemental
    • Canaux
      • Chatbox
        • Intégration d'une chatbox dans une webview
      • Customisation avancée
        • Éditeur Css
          • Teaser
            • Modification CSS teaser
          • Header
            • Modification CSS header
          • Body
            • Modification CSS body
        • Éditeur JS Custom
        • Gestion des libellés
        • Intégrations possibles
      • Connecteurs
        • Teams
        • Meta
          • Messenger
          • Instagram
          • WhatsApp
          • Fonctionnalités et compatibilité META
          • Contrôle d'application Meta
    • LLM - IA générative
  • Préférences
    • SAML 2
    • OpenID Connect (OIDC)
    • Droits et utilisateurs
    • Bot
      • Général
      • Conversations
      • Questionnaires
      • URLs
      • Champ de recherche
  • Autres
    • Comment fonctionne votre bot?
    • Protection des données
      • Politique de gestion des cookies
    • Console des logs
    • Mots-clés spéciaux
    • Aspects techniques
      • Hébergement
      • Infrastructure
    • Sécurité
      • Informations générales
      • Usage des serveurs
      • Outils open source
      • Expiration session utilisateur
  • Développeurs
    • Référence API
      • Authentification
      • Boîte de dialogue API
      • Export des Conversations
      • Champ de recherche
      • Import/Export du bot
      • Import/Export Base de connaissances
      • API de statut du serveur
      • Accès aux APIS
      • Gestion des utilisateurs du BMS
    • Chatbox V5
      • Mise en place et intégration
  • Release Note
Propulsé par GitBook

Tous droits réservés @ 2023 dydu.

Sur cette page
  • Résumé des paramètres de mon LLM
  • Types de modèles LLM
  • Azure OpenAI Dydu :
  • OpenAI :
  • Azure OpenAI :
  • MistralAI :
  • GoogleAI Gemini :
  • VertexAI Gemini :
  • Scaleway :
  • Custom LLM

Cet article vous a-t-il été utile ?

  1. Contenus
  2. Contenus externes

LLM : comment configurer chaque type de modèle ?

Une fois une ou plusieurs collections créées dans le menu Contenus externes, il est possible de configurer un modèle LLM.

PrécédentContenus externesSuivantVertexAI Gemini

Dernière mise à jour il y a 23 jours

Cet article vous a-t-il été utile ?

Résumé des paramètres de mon LLM

La modale Résumé des paramètres de mon LLM permet de configurer les paramètres nécessaires au fonctionnement du LLM qui va être utilisé.

  • Dans la modale ci-dessus, il est possible de renseigner les paramètres suivants selon le type de LLM choisi en cliquant sur le bouton Modifier :

  1. Type de modèle LLM : il en existe plusieurs -> Azure OpenAI Dydu, OpenAI, Azure OpenAI, MistralAI, GoogleAI Gemini, VertexAI Gemini, Scaleway.

  2. Clé d'authentification API : Entrez la clé d’authentification API associée au modèle LLM que vous allez utiliser.

  3. Modèle LLM et d'indexation (embedding) :

    1. Modèle LLM : Un LLM est un modèle d’intelligence artificielle entraîné sur beaucoup de textes pour comprendre et générer du langage naturel. Il peut traduire, résumer, répondre à des questions, etc, en s’appuyant sur le contexte et le sens des mots.

    2. Modèle d'embedding : Un modèle d'embedding transforme des mots ou phrases en vecteurs numériques pour que l’intelligence artificielle puisse comparer leur sens. Des textes similaires auront des vecteurs proches, ce qui aide à traiter et retrouver l’information plus intelligemment.

  4. Options supplémentaires : Selon le modèle du LLM que vous allez utiliser, il peut y avoir des options supplémentaires à renseigner.

  • Une fois les paramètres renseignés , il suffit de cliquer sur appliquer et le modèle est prét à être utilisé.

Types de modèles LLM

Depuis la liste déroulante dans Résumé des paramètres de mon LLM, vous pouvez choisir celui que vous souhaitez utiliser :

Azure OpenAI Dydu :

  • Le modèle Azure OpenAI Dydu est utilisé par défaut, sans nécessité d'ajuster les paramètres.

OpenAI :

  • Version de l'API : v1 est la version utilisée par défaut chez OpenAI pour les endpoints, donc c'est possible laisser v1 ou d'utiliser une autre version.

Azure OpenAI :

  • Si vous souhaitez partir sur une configuration Azure, vous aurez besoin de créer deux déploiements :

    • Le premier pour le modèle de LLM à utiliser, par exemple : gpt-4o-mini

    • Le second, pour l'indexation (embedding), par exemple : text-embedding-3-large

  • Dans votre ressource Azure OpenAI, vous trouverez :

    • Clé d’authentification API :

    Allez dans : Clés et points de terminaison .

    Vous y verrez deux clés Key1 et Key2 , copiez l’une d’elles.

    • Point de terminaison AzureOpenAI

    Dans la même section, vous verrez aussi l’URL de point de terminaison, du style : https://nom-de-ta-ressource.openai.azure.com/

    • Nom des déploiements

    C’est le nom que vous avez donné au déploiement du modèle, par exemple : gpt-4, chat, embedding-model, etc.

    Allez dans l’onglet "Déploiements" pour le retrouver.

    • Version de l’API

MistralAI :

  • Exemple de Modèle LLM et d'indexation (embedding) :

    • Modèle de LLM : ministral-8b-latest

    • Modèle d'embedding : mistral-embed

GoogleAI Gemini :

  • Exemple de Modèle LLM et d'indexation (embedding) :

    • Modèle LLM : gemini-1.5-flash-latest

    • Modèle d'embedding : models/text-embedding-004

VertexAI Gemini :

Scaleway :

Custom LLM

Si vous souhaitez utiliser votre propre LLM personnalisé, qui ne correspond à aucun des types mentionnés précédemment, vous avez la possibilité de configurer manuellement votre instance.

Cette configuration nécessite quelques pré-requis :

  • Fournir une clé API via le header Authorization (format : Bearer)

  • Indiquer les modèles de LLM et d’embedding que vous souhaitez utiliser (information nécessaire de notre côté)

API
Method + URL relative
Documentation

Création d'embedding

Question/Réponse

Voici le que vous pouvez utiliser.

L’exemple mentionné ci-dessus sert uniquement à des fins d’illustration. Toutefois, les différents modèles LLM ainsi que les méthodes d’indexation sont en constante évolution. Voici le

Il faut se connecter sur votre portail Azure : afin de remplir les champs requis :

Vous pouvez le voir dans la ou dans le portail.

L’exemple mentionné ci-dessus sert uniquement à des fins d’illustration. Toutefois, les modèles de LLM ainsi que les méthodes d’indexation sont en constante évolution. Voici et

L’exemple mentionné ci-dessus sert uniquement à des fins d’illustration. Toutefois, les modèles de LLM ainsi que les méthodes d’indexation sont en constante évolution. Voici

Pour configurer les paramètres de VertexAI Gemini, veuillez consulter la page suivante :

Voici

Disposer d’une URL exposant les routes spécifiées dans le tableau ci-dessous (ex. : , permettant d’accéder aux endpoints /openai/chat/completion ou /openai/embeddings)

POST

POST

lien vers les modèles de LLM et d'embedding
lien vers les modèles de LLM et d'embedding
https://portal.azure.com
documentation officielle Azure OpenAI
le lien vers les modèles de LLM
le lien vers les modèles d'embedding
le lien vers les modèles de LLM et d'embedding
VertexAI Gemini
le lien vers les modèles de LLM et d'embedding
https://mon-api.test.fr/openai
https://api.openai.com/v1/embeddings
https://platform.openai.com/docs/api-reference/embeddings/create
https://api.openai.com/v1/chat/completions
https://platform.openai.com/docs/api-reference/chat/create