Comprendre ChatGPT et les modèles de langue pour bien les utiliser au cabinet

  • Par
  • Publié le . Paru dans L'Information Dentaire n°12 - 26 mars 2025 (page 27-30)
Information dentaire
L’intelligence artificielle, à travers ses modèles de langage comme ChatGPT, est encore relativement peu exploitée en cabinet dentaire. Pourtant, ses atouts transforment notre pratique quotidienne, par exemple en simplifiant les tâches administratives et en renforçant la relation praticien-patient. Pour autant, un outil comme ChatGPT n’est pas une solution autonome : son efficacité repose sur la capacité des praticiens à formuler des instructions précises, ou « prompts », qui orientent les réponses de l’outil vers nos besoins. Pour exploiter pleinement ce potentiel, il apparaît nécessaire de comprendre comment ces modèles fonctionnent, ce qu’ils peuvent et ne pas faire, ainsi que les précautions d’utilisation nécessaires à la protection des données confidentielles. Au travers de cet article, nous abordons l’ensemble de ces points pour permettre aux praticiens d’utiliser ces outils qui seront présents dans tous les cabinets.

Plongée au cœur des modèles de langue : les LLM

Les modèles de langage de grande taille, ou Large Language Models (LLM), sont une branche de l’intelligence artificielle (IA) spécialisée dans le traitement et la génération de texte. Ils reposent sur des algorithmes d’apprentissage profond capables de «comprendre» et produire du langage naturel, comme si nous discutions avec un être humain.

Ainsi, ces LLM traduisent les mots en chiffres grâce à une technique appelée le word embedding. Mikolov et al. [1], à l’origine de Word2Vec, expliquent que « les mots apparaissant dans un contexte similaire ont des représentations vectorielles proches ». Ainsi, chaque mot est transformé en un vecteur numérique dans un espace à plusieurs dimensions. Cette représentation permet aux LLM de capturer les relations entre les mots. Par exemple, dans cet espace, les mots « dentiste » et « patient » seront plus proches l’un de l’autre que « dentiste » et les mots « football » ou « barbecue ». Imaginez un graphique où chaque mot est un point positionné selon sa signification. Les mots appartenant à une même catégorie, comme « extraction » ou « traitement endodontique », seront regroupés. Cette approche permet au modèle de comprendre que des mots proches dans cet espace partagent souvent un sens ou un contexte similaire (fig. 1).

Une fois les mots représentés par des vecteurs, les LLM appliquent un autre concept clé : le mécanisme d’attention. Comme le soulignent Vaswani et al. [2] dans leur article fondateur sur les Transformers, « Attention is all you need », ces modèles exploitent des mécanismes d’auto-attention pour traiter efficacement les relations entre les mots dans une séquence.

Ce mécanisme permet au modèle de se concentrer sur les mots les plus pertinents dans une phrase ou un paragraphe. Par exemple, dans la phrase « Le dentiste effectue un bilan pour évaluer la…

Cet article est réservé aux abonnés.
Pour lire la suite :

Vous êtes abonné.e ? Connectez-vous
Mot de passe
oublié ?

Vous pouvez également :

Acheter l'article En version numérique
Acheter le numéro À l'unité

Thèmes abordés