{"id":202,"date":"2025-11-10T21:50:33","date_gmt":"2025-11-10T21:50:33","guid":{"rendered":"http:\/\/ia-dirigeant.com\/?page_id=202"},"modified":"2025-11-10T21:50:33","modified_gmt":"2025-11-10T21:50:33","slug":"token","status":"publish","type":"page","link":"https:\/\/ia-dirigeant.com\/index.php\/token\/","title":{"rendered":"Token"},"content":{"rendered":"\n<h2 class=\"wp-block-heading\">Points cl\u00e9s \u00e0 retenir<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Un token est l&#8217;unit\u00e9 de base du traitement du langage par l&#8217;IA<\/strong>, grossi\u00e8rement \u00e9quivalent \u00e0 \u00be d&#8217;un mot en fran\u00e7ais (un mot = environ 1,3 tokens en moyenne).<\/li>\n\n\n\n<li><strong>Impact financier direct<\/strong> : votre facture d&#8217;utilisation d&#8217;IA est calcul\u00e9e en tokens consomm\u00e9s. 1 million de tokens co\u00fbte entre 0,50 $ et 60 $ selon le mod\u00e8le utilis\u00e9.<\/li>\n\n\n\n<li><strong>Limite de contexte<\/strong> : chaque mod\u00e8le IA a une limite de tokens qu&#8217;il peut traiter simultan\u00e9ment (de 4 000 \u00e0 200 000 selon les mod\u00e8les), d\u00e9terminant la longueur des documents que vous pouvez lui soumettre.<\/li>\n\n\n\n<li><strong>Optimisation essentielle<\/strong> : r\u00e9duire le nombre de tokens de 30-50% via des prompts efficaces peut diviser vos co\u00fbts d&#8217;IA par deux sans perte de qualit\u00e9.<\/li>\n\n\n\n<li><strong>Planification budg\u00e9taire<\/strong> : comprendre la consommation de tokens permet d&#8217;estimer pr\u00e9cis\u00e9ment les co\u00fbts op\u00e9rationnels d&#8217;une application IA avant d\u00e9ploiement.<\/li>\n<\/ul>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<h2 class=\"wp-block-heading\">Qu&#8217;est-ce qu&#8217;un token ?<\/h2>\n\n\n\n<p>Un token est la plus petite unit\u00e9 de texte qu&#8217;un mod\u00e8le d&#8217;intelligence artificielle traite. Contrairement \u00e0 ce que l&#8217;intuition sugg\u00e8re, un token n&#8217;est ni un caract\u00e8re, ni toujours un mot complet. C&#8217;est un <strong>fragment de texte<\/strong> qui peut \u00eatre un mot entier, une partie de mot, un signe de ponctuation, ou m\u00eame un espace.<\/p>\n\n\n\n<p>Pour les dirigeants, comprendre les tokens est crucial pour une raison simple : <strong>c&#8217;est l&#8217;unit\u00e9 de facturation et de performance de vos outils IA<\/strong>. Ne pas comprendre les tokens en 2025, c&#8217;est comme ne pas comprendre les m\u00e9ga-octets dans les ann\u00e9es 2000 : vous risquez de mal budg\u00e9ter, de mal optimiser, et de payer plus que n\u00e9cessaire.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Exemple concret de tokenisation<\/h3>\n\n\n\n<p>Prenons la phrase : &#8220;L&#8217;intelligence artificielle transforme les entreprises.&#8221;<\/p>\n\n\n\n<p><strong>Tokenisation typique<\/strong> :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>&#8220;L'&#8221; \u2192 1 token<\/li>\n\n\n\n<li>&#8220;intelligence&#8221; \u2192 1 token<\/li>\n\n\n\n<li>&#8221; artificielle&#8221; \u2192 1 token<\/li>\n\n\n\n<li>&#8221; transforme&#8221; \u2192 1 token<\/li>\n\n\n\n<li>&#8221; les&#8221; \u2192 1 token<\/li>\n\n\n\n<li>&#8221; entreprises&#8221; \u2192 1 token<\/li>\n\n\n\n<li>&#8220;.&#8221; \u2192 1 token<\/li>\n<\/ul>\n\n\n\n<p><strong>Total : 7 tokens<\/strong> pour une phrase de 6 mots. Le ratio est d&#8217;environ 1,2 tokens par mot en fran\u00e7ais.<\/p>\n\n\n\n<p>Comparons avec l&#8217;anglais : &#8220;Artificial intelligence transforms businesses.&#8221;<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>&#8220;Art&#8221; \u2192 1 token<\/li>\n\n\n\n<li>&#8220;ificial&#8221; \u2192 1 token<\/li>\n\n\n\n<li>&#8221; intelligence&#8221; \u2192 1 token<\/li>\n\n\n\n<li>&#8221; transforms&#8221; \u2192 1 token<\/li>\n\n\n\n<li>&#8221; businesses&#8221; \u2192 1 token<\/li>\n\n\n\n<li>&#8220;.&#8221; \u2192 1 token<\/li>\n<\/ul>\n\n\n\n<p><strong>Total : 6 tokens<\/strong> pour 4 mots. Le ratio est d&#8217;environ 1,5 tokens par mot, car l&#8217;anglais a souvent des mots d\u00e9coup\u00e9s (les mod\u00e8les sont g\u00e9n\u00e9ralement optimis\u00e9s pour l&#8217;anglais).<\/p>\n\n\n\n<p><strong>Cons\u00e9quence business<\/strong> : traiter du contenu en fran\u00e7ais co\u00fbte environ 10-20% moins cher en tokens qu&#8217;en anglais, \u00e0 contenu \u00e9quivalent. Mais attention, cette r\u00e8gle varie selon les mod\u00e8les.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Pourquoi les mod\u00e8les IA utilisent-ils des tokens ?<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">L&#8217;alternative na\u00efve : traiter caract\u00e8re par caract\u00e8re<\/h3>\n\n\n\n<p>Pourquoi ne pas simplement traiter le texte lettre par lettre ? Probl\u00e8me : cela serait <strong>extr\u00eamement inefficace<\/strong>.<\/p>\n\n\n\n<p>La phrase &#8220;intelligence&#8221; contient 12 caract\u00e8res. Si le mod\u00e8le traitait chaque caract\u00e8re ind\u00e9pendamment, il devrait faire 12 pr\u00e9dictions s\u00e9quentielles juste pour un mot. Multipliez par des milliers de mots dans un document : le calcul devient prohibitif.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">L&#8217;avantage des tokens : compression s\u00e9mantique<\/h3>\n\n\n\n<p>Les tokens permettent de <strong>compresser l&#8217;information<\/strong> tout en pr\u00e9servant le sens. Un mot fr\u00e9quent comme &#8220;entreprise&#8221; est un seul token, capturant son sens complet. Le mod\u00e8le peut le traiter en une seule op\u00e9ration.<\/p>\n\n\n\n<p>Cette compression a plusieurs avantages :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Vitesse<\/strong> : moins d&#8217;\u00e9tapes de calcul<\/li>\n\n\n\n<li><strong>M\u00e9moire<\/strong> : moins d&#8217;\u00e9l\u00e9ments \u00e0 garder en contexte<\/li>\n\n\n\n<li><strong>Co\u00fbt<\/strong> : moins de ressources computationnelles<\/li>\n<\/ul>\n\n\n\n<p><strong>Analogie<\/strong> : imaginez lire un livre. Vous ne lisez pas lettre par lettre (l-i-v-r-e), vous reconnaissez des mots entiers d&#8217;un coup d&#8217;\u0153il. Les tokens fonctionnent pareillement pour l&#8217;IA.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Les diff\u00e9rents types de tokens<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Tokens de mots complets<\/h3>\n\n\n\n<p>Mots courants, fr\u00e9quents dans le langage : &#8220;le&#8221;, &#8220;la&#8221;, &#8220;de&#8221;, &#8220;et&#8221;, &#8220;entreprise&#8221;, &#8220;client&#8221;, &#8220;march\u00e9&#8221;.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Tokens de sous-mots<\/h3>\n\n\n\n<p>Mots rares ou complexes d\u00e9coup\u00e9s en morceaux :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>&#8220;d\u00e9sinterm\u00e9diation&#8221; \u2192 &#8220;d\u00e9s&#8221; + &#8220;inter&#8221; + &#8220;m\u00e9diation&#8221; (3 tokens)<\/li>\n\n\n\n<li>&#8220;blockchain&#8221; \u2192 &#8220;block&#8221; + &#8220;chain&#8221; (2 tokens)<\/li>\n\n\n\n<li>&#8220;r\u00e9entra\u00eenement&#8221; \u2192 &#8220;r\u00e9&#8221; + &#8220;en&#8221; + &#8220;tra\u00eenement&#8221; (3 tokens)<\/li>\n<\/ul>\n\n\n\n<p>Cette approche permet au mod\u00e8le de comprendre des mots qu&#8217;il n&#8217;a jamais vus en les d\u00e9composant en parties connues.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Tokens de ponctuation et espaces<\/h3>\n\n\n\n<p>Chaque signe de ponctuation est g\u00e9n\u00e9ralement un token :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>&#8220;.&#8221; \u2192 1 token<\/li>\n\n\n\n<li>&#8220;,&#8221; \u2192 1 token<\/li>\n\n\n\n<li>&#8220;?&#8221; \u2192 1 token<\/li>\n\n\n\n<li>&#8221; &#8221; (espace) \u2192 souvent inclus avec le mot qui suit<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading\">Tokens sp\u00e9ciaux<\/h3>\n\n\n\n<p>Les mod\u00e8les utilisent des tokens sp\u00e9ciaux invisibles pour l&#8217;utilisateur :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><code>&lt;|begin|><\/code> : d\u00e9but d&#8217;une conversation<\/li>\n\n\n\n<li><code>&lt;|end|><\/code> : fin d&#8217;une g\u00e9n\u00e9ration<\/li>\n\n\n\n<li><code>&lt;|sep|><\/code> : s\u00e9parateur entre \u00e9l\u00e9ments<\/li>\n<\/ul>\n\n\n\n<p>Ces tokens contr\u00f4lent le comportement du mod\u00e8le et ne sont pas factur\u00e9s.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Tokens et co\u00fbts : l&#8217;\u00e9quation financi\u00e8re<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Structure de tarification par tokens<\/h3>\n\n\n\n<p>Les API d&#8217;IA facturent selon deux types de tokens :<\/p>\n\n\n\n<p><strong>1. Tokens d&#8217;entr\u00e9e (input tokens)<\/strong> : le texte que vous envoyez au mod\u00e8le (votre prompt, vos documents, le contexte).<\/p>\n\n\n\n<p><strong>2. Tokens de sortie (output tokens)<\/strong> : le texte g\u00e9n\u00e9r\u00e9 par le mod\u00e8le en r\u00e9ponse.<\/p>\n\n\n\n<p><strong>R\u00e8gle g\u00e9n\u00e9rale<\/strong> : les tokens de sortie co\u00fbtent 2 \u00e0 3 fois plus cher que les tokens d&#8217;entr\u00e9e (car g\u00e9n\u00e9rer est plus co\u00fbteux en calcul que lire).<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Tarifs 2025 des principaux mod\u00e8les (ordres de grandeur)<\/h3>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><thead><tr><th>Mod\u00e8le<\/th><th>Input ($\/1M tokens)<\/th><th>Output ($\/1M tokens)<\/th><\/tr><\/thead><tbody><tr><td>GPT-4 Turbo<\/td><td>10 $<\/td><td>30 $<\/td><\/tr><tr><td>GPT-4o<\/td><td>2,50 $<\/td><td>10 $<\/td><\/tr><tr><td>GPT-3.5 Turbo<\/td><td>0,50 $<\/td><td>1,50 $<\/td><\/tr><tr><td>Claude Sonnet 4<\/td><td>3 $<\/td><td>15 $<\/td><\/tr><tr><td>Claude Haiku<\/td><td>0,25 $<\/td><td>1,25 $<\/td><\/tr><tr><td>Gemini Pro<\/td><td>1,25 $<\/td><td>5 $<\/td><\/tr><tr><td>Llama 3 (via API)<\/td><td>0,20 $<\/td><td>0,30 $<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<p><strong>Note<\/strong> : ces tarifs \u00e9voluent rapidement (tendance \u00e0 la baisse). V\u00e9rifiez toujours les tarifs actuels des fournisseurs.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Calcul de co\u00fbts : exemples pratiques<\/h3>\n\n\n\n<p><strong>Cas 1 : Chatbot service client<\/strong><\/p>\n\n\n\n<p>Hypoth\u00e8ses :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>10 000 conversations\/mois<\/li>\n\n\n\n<li>Moyenne de 200 tokens de prompt par conversation (question client + contexte)<\/li>\n\n\n\n<li>Moyenne de 150 tokens de r\u00e9ponse<\/li>\n\n\n\n<li>Mod\u00e8le : GPT-3.5 Turbo<\/li>\n<\/ul>\n\n\n\n<p>Calcul :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Tokens input mensuels : 10 000 \u00d7 200 = 2 millions<\/li>\n\n\n\n<li>Tokens output mensuels : 10 000 \u00d7 150 = 1,5 millions<\/li>\n\n\n\n<li>Co\u00fbt input : 2M \u00d7 0,50 $\/M = 1 $<\/li>\n\n\n\n<li>Co\u00fbt output : 1,5M \u00d7 1,50 $\/M = 2,25 $<\/li>\n\n\n\n<li><strong>Co\u00fbt total mensuel : 3,25 $<\/strong><\/li>\n<\/ul>\n\n\n\n<p><strong>Cas 2 : Analyse de documents contractuels<\/strong><\/p>\n\n\n\n<p>Hypoth\u00e8ses :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>500 contrats analys\u00e9s\/mois<\/li>\n\n\n\n<li>Moyenne de 5 000 tokens par contrat (environ 10 pages)<\/li>\n\n\n\n<li>Moyenne de 500 tokens de r\u00e9sum\u00e9 g\u00e9n\u00e9r\u00e9<\/li>\n\n\n\n<li>Mod\u00e8le : GPT-4 Turbo<\/li>\n<\/ul>\n\n\n\n<p>Calcul :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Tokens input : 500 \u00d7 5 000 = 2,5 millions<\/li>\n\n\n\n<li>Tokens output : 500 \u00d7 500 = 250 000<\/li>\n\n\n\n<li>Co\u00fbt input : 2,5M \u00d7 10 $\/M = 25 $<\/li>\n\n\n\n<li>Co\u00fbt output : 0,25M \u00d7 30 $\/M = 7,50 $<\/li>\n\n\n\n<li><strong>Co\u00fbt total mensuel : 32,50 $<\/strong><\/li>\n<\/ul>\n\n\n\n<p><strong>Cas 3 : G\u00e9n\u00e9ration de contenu marketing<\/strong><\/p>\n\n\n\n<p>Hypoth\u00e8ses :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>200 articles de blog\/mois<\/li>\n\n\n\n<li>Moyenne de 500 tokens de prompt (brief + style)<\/li>\n\n\n\n<li>Moyenne de 2 000 tokens g\u00e9n\u00e9r\u00e9s par article (environ 1 500 mots)<\/li>\n\n\n\n<li>Mod\u00e8le : Claude Sonnet 4<\/li>\n<\/ul>\n\n\n\n<p>Calcul :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Tokens input : 200 \u00d7 500 = 100 000<\/li>\n\n\n\n<li>Tokens output : 200 \u00d7 2 000 = 400 000<\/li>\n\n\n\n<li>Co\u00fbt input : 0,1M \u00d7 3 $\/M = 0,30 $<\/li>\n\n\n\n<li>Co\u00fbt output : 0,4M \u00d7 15 $\/M = 6 $<\/li>\n\n\n\n<li><strong>Co\u00fbt total mensuel : 6,30 $<\/strong><\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading\">Scaling : quand les co\u00fbts explosent<\/h3>\n\n\n\n<p>\u00c0 petite \u00e9chelle, les co\u00fbts de tokens semblent n\u00e9gligeables. Mais \u00e0 l&#8217;\u00e9chelle d&#8217;une grande organisation :<\/p>\n\n\n\n<p><strong>Exemple : Entreprise avec 10 000 employ\u00e9s utilisant un assistant IA<\/strong><\/p>\n\n\n\n<p>Hypoth\u00e8ses :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Chaque employ\u00e9 fait 20 requ\u00eates\/jour<\/li>\n\n\n\n<li>Moyenne de 300 tokens par requ\u00eate (input + output)<\/li>\n\n\n\n<li>20 jours ouvr\u00e9s\/mois<\/li>\n\n\n\n<li>Mod\u00e8le : GPT-4o (3,75 $\/M tokens en moyenne pond\u00e9r\u00e9e input\/output)<\/li>\n<\/ul>\n\n\n\n<p>Calcul :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Requ\u00eates mensuelles : 10 000 \u00d7 20 \u00d7 20 = 4 millions<\/li>\n\n\n\n<li>Tokens mensuels : 4M \u00d7 300 = 1,2 milliards<\/li>\n\n\n\n<li><strong>Co\u00fbt mensuel : 1 200M \u00d7 3,75 $\/M = 4 500 $<\/strong><\/li>\n\n\n\n<li><strong>Co\u00fbt annuel : 54 000 $<\/strong><\/li>\n<\/ul>\n\n\n\n<p>Maintenant, imaginez une application grand public avec 1 million d&#8217;utilisateurs actifs quotidiens. Les co\u00fbts peuvent rapidement atteindre des centaines de milliers ou millions de dollars mensuels.<\/p>\n\n\n\n<p><strong>C&#8217;est pourquoi l&#8217;optimisation des tokens est critique.<\/strong><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Fen\u00eatre de contexte : la limite invisible<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Qu&#8217;est-ce que la fen\u00eatre de contexte ?<\/h3>\n\n\n\n<p>Chaque mod\u00e8le IA a une limite au nombre de tokens qu&#8217;il peut traiter simultan\u00e9ment. C&#8217;est la &#8220;fen\u00eatre de contexte&#8221; ou &#8220;context window&#8221;.<\/p>\n\n\n\n<p><strong>Limites actuelles des principaux mod\u00e8les<\/strong> :<\/p>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><thead><tr><th>Mod\u00e8le<\/th><th>Fen\u00eatre de contexte<\/th><\/tr><\/thead><tbody><tr><td>GPT-4 Turbo<\/td><td>128 000 tokens (~250 pages)<\/td><\/tr><tr><td>GPT-4o<\/td><td>128 000 tokens<\/td><\/tr><tr><td>GPT-3.5 Turbo<\/td><td>16 000 tokens (~32 pages)<\/td><\/tr><tr><td>Claude Sonnet 4<\/td><td>200 000 tokens (~400 pages)<\/td><\/tr><tr><td>Claude Opus<\/td><td>200 000 tokens<\/td><\/tr><tr><td>Gemini 1.5 Pro<\/td><td>1 000 000 tokens (~2 000 pages)<\/td><\/tr><tr><td>Llama 3<\/td><td>8 000 tokens<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\">Implications business<\/h3>\n\n\n\n<p><strong>1. Limite des documents analysables<\/strong><\/p>\n\n\n\n<p>Si vous voulez analyser un contrat de 50 pages (~25 000 tokens) avec GPT-3.5 Turbo (limite : 16 000 tokens), c&#8217;est <strong>impossible<\/strong> en une seule requ\u00eate. Solutions :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>D\u00e9couper le document en morceaux<\/li>\n\n\n\n<li>Utiliser un mod\u00e8le avec une fen\u00eatre plus large (GPT-4 Turbo, Claude)<\/li>\n\n\n\n<li>Utiliser une approche de r\u00e9sum\u00e9 progressif<\/li>\n<\/ul>\n\n\n\n<p><strong>2. Gestion de l&#8217;historique conversationnel<\/strong><\/p>\n\n\n\n<p>Un chatbot accumule l&#8217;historique de la conversation dans la fen\u00eatre de contexte. \u00c0 un moment, il atteint la limite et doit &#8220;oublier&#8221; les messages les plus anciens.<\/p>\n\n\n\n<p><strong>Exemple<\/strong> : un chatbot avec GPT-3.5 (16K tokens) :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Si chaque \u00e9change = 200 tokens (question + r\u00e9ponse)<\/li>\n\n\n\n<li>Apr\u00e8s 80 \u00e9changes, la fen\u00eatre est pleine<\/li>\n\n\n\n<li>Le mod\u00e8le perd le contexte des premiers messages<\/li>\n<\/ul>\n\n\n\n<p>Solution : strat\u00e9gies de gestion de m\u00e9moire (r\u00e9sum\u00e9s, s\u00e9lection des messages pertinents, bases de donn\u00e9es vectorielles).<\/p>\n\n\n\n<p><strong>3. Co\u00fbts cach\u00e9s des fen\u00eatres larges<\/strong><\/p>\n\n\n\n<p>Une fen\u00eatre de contexte large (1M tokens) semble attrayante, mais attention : <strong>vous payez pour chaque token dans la fen\u00eatre \u00e0 chaque requ\u00eate<\/strong>.<\/p>\n\n\n\n<p>Si vous incluez syst\u00e9matiquement 100 000 tokens de contexte dans chaque requ\u00eate, vos co\u00fbts explosent m\u00eame si vous ne g\u00e9n\u00e9rez que quelques lignes en r\u00e9ponse.<\/p>\n\n\n\n<p><strong>Best practice<\/strong> : n&#8217;incluez que le contexte strictement n\u00e9cessaire.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Optimisation des tokens : strat\u00e9gies concr\u00e8tes<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">1. R\u00e9duire la verbosit\u00e9 des prompts<\/h3>\n\n\n\n<p><strong>Mauvais exemple (prompt non optimis\u00e9)<\/strong> :<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>Bonjour cher assistant IA, j'esp\u00e8re que vous allez bien. J'aurais besoin de votre aide pour analyser le document suivant. Pourriez-vous s'il vous pla\u00eet prendre le temps de le lire attentivement et de me fournir un r\u00e9sum\u00e9 d\u00e9taill\u00e9 et complet des points principaux qui y sont abord\u00e9s, ainsi qu'une liste des recommandations importantes ? Merci d'avance pour votre pr\u00e9cieuse aide.<\/code><\/pre>\n\n\n<p>[document]<\/p>\n\n\n\n<p>Je vous remercie vraiment beaucoup pour votre travail.<\/p>\n\n\n\n<p><strong>Tokens<\/strong> : ~80 tokens de politesse inutile<\/p>\n\n\n\n<p><strong>Bon exemple (prompt optimis\u00e9)<\/strong> :<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>Analyse ce document et fournis :\n1. R\u00e9sum\u00e9 des points cl\u00e9s\n2. Recommandations principales<\/code><\/pre>\n\n\n<p>[document]<\/p>\n\n\n\n<p><strong>Tokens<\/strong> : ~15 tokens<\/p>\n\n\n\n<p><strong>\u00c9conomie<\/strong> : 65 tokens par requ\u00eate, soit 81% de r\u00e9duction sur le prompt.<\/p>\n\n\n\n<p>Sur 100 000 requ\u00eates\/mois, cela repr\u00e9sente 6,5 millions de tokens \u00e9conomis\u00e9s, soit ~32 $ \u00e0 200 $ selon le mod\u00e8le.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">2. Utiliser des formats concis pour les donn\u00e9es<\/h3>\n\n\n\n<p><strong>Format verbeux<\/strong> :<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>Le client num\u00e9ro un s'appelle Jean Dupont et il habite \u00e0 Paris. Son email est jean.dupont@email.fr et son t\u00e9l\u00e9phone est 0123456789.\n<\/code><\/pre>\n\n\n\n<p><strong>Tokens<\/strong> : ~35<\/p>\n\n\n\n<p><strong>Format structur\u00e9<\/strong> :<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>Client #1\nNom: Jean Dupont\nVille: Paris\nEmail: jean.dupont@email.fr\nTel: 0123456789\n<\/code><\/pre>\n\n\n\n<p><strong>Tokens<\/strong> : ~25<\/p>\n\n\n\n<p><strong>\u00c9conomie<\/strong> : 29% de r\u00e9duction.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">3. \u00c9viter les r\u00e9p\u00e9titions<\/h3>\n\n\n\n<p><strong>Mauvais<\/strong> :<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>Analyse le document pour identifier les risques. Ensuite, apr\u00e8s avoir identifi\u00e9 les risques, g\u00e9n\u00e8re un rapport sur ces risques identifi\u00e9s.\n<\/code><\/pre>\n\n\n\n<p><strong>Bon<\/strong> :<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>Analyse le document, identifie les risques et g\u00e9n\u00e8re un rapport.\n<\/code><\/pre>\n\n\n\n<h3 class=\"wp-block-heading\">4. Choisir le bon mod\u00e8le selon la t\u00e2che<\/h3>\n\n\n\n<p>Ne prenez pas un marteau-pilon pour enfoncer une punaise. Utilisez :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Mod\u00e8les l\u00e9gers<\/strong> (GPT-3.5, Claude Haiku) pour des t\u00e2ches simples (FAQ, classification, extraction basique)<\/li>\n\n\n\n<li><strong>Mod\u00e8les puissants<\/strong> (GPT-4, Claude Sonnet) pour des t\u00e2ches complexes (analyse nuanc\u00e9e, raisonnement, cr\u00e9ativit\u00e9)<\/li>\n<\/ul>\n\n\n\n<p><strong>Exemple<\/strong> : un chatbot FAQ n&#8217;a pas besoin de GPT-4 Turbo \u00e0 10 $\/M tokens input. GPT-3.5 \u00e0 0,50 $\/M suffit, soit 20\u00d7 moins cher.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">5. Mise en cache de contextes r\u00e9currents<\/h3>\n\n\n\n<p>Certains fournisseurs (Anthropic avec Claude) offrent la mise en cache : si vous utilisez le m\u00eame contexte (par ex: un manuel d&#8217;entreprise de 50 000 tokens) dans plusieurs requ\u00eates, il est mis en cache et factur\u00e9 10\u00d7 moins cher les fois suivantes.<\/p>\n\n\n\n<p><strong>\u00c9conomie potentielle<\/strong> : 75-90% sur les tokens de contexte r\u00e9currents.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">6. R\u00e9sum\u00e9 progressif pour longs documents<\/h3>\n\n\n\n<p>Pour analyser un document de 500 pages (250 000 tokens) :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Option A<\/strong> : mod\u00e8le 1M tokens (cher) \u2192 co\u00fbt \u00e9lev\u00e9<\/li>\n\n\n\n<li><strong>Option B<\/strong> : d\u00e9couper en 10 sections, r\u00e9sumer chaque section (10 \u00d7 25 000 tokens), puis r\u00e9sumer les r\u00e9sum\u00e9s \u2192 co\u00fbt r\u00e9duit de 60-80%<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">Tokens et langues : les disparit\u00e9s<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Efficacit\u00e9 variable selon les langues<\/h3>\n\n\n\n<p>Les mod\u00e8les d&#8217;IA sont g\u00e9n\u00e9ralement entra\u00een\u00e9s majoritairement sur de l&#8217;anglais. R\u00e9sultat : la tokenisation est optimis\u00e9e pour l&#8217;anglais.<\/p>\n\n\n\n<p><strong>Ratio tokens\/mots moyens<\/strong> :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Anglais<\/strong> : 1 mot \u2248 1,3 tokens<\/li>\n\n\n\n<li><strong>Fran\u00e7ais<\/strong> : 1 mot \u2248 1,2 tokens<\/li>\n\n\n\n<li><strong>Espagnol<\/strong> : 1 mot \u2248 1,3 tokens<\/li>\n\n\n\n<li><strong>Allemand<\/strong> : 1 mot \u2248 1,5-1,8 tokens (mots compos\u00e9s longs)<\/li>\n\n\n\n<li><strong>Langues asiatiques<\/strong> (chinois, japonais) : beaucoup plus efficaces en tokens<\/li>\n\n\n\n<li><strong>Langues rares<\/strong> : tr\u00e8s inefficaces (1 mot peut = 5-10 tokens)<\/li>\n<\/ul>\n\n\n\n<p><strong>Cons\u00e9quence<\/strong> : traiter du contenu en allemand co\u00fbte ~30-40% plus cher qu&#8217;en fran\u00e7ais \u00e0 volume \u00e9quivalent.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Implications pour les entreprises multinationales<\/h3>\n\n\n\n<p>Si vous d\u00e9ployez un outil IA dans 10 pays, vos co\u00fbts varieront significativement selon les langues. Budg\u00e9tez en cons\u00e9quence.<\/p>\n\n\n\n<p><strong>Exemple<\/strong> : chatbot multilingue, 100 000 conversations\/mois r\u00e9parties :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>40% anglais : 40K \u00d7 350 tokens = 14M tokens<\/li>\n\n\n\n<li>30% fran\u00e7ais : 30K \u00d7 320 tokens = 9,6M tokens<\/li>\n\n\n\n<li>20% allemand : 20K \u00d7 420 tokens = 8,4M tokens<\/li>\n\n\n\n<li>10% autres : 10K \u00d7 500 tokens = 5M tokens<\/li>\n\n\n\n<li><strong>Total<\/strong> : 37M tokens\/mois<\/li>\n<\/ul>\n\n\n\n<p>Si vous aviez simplement extrapol\u00e9 \u00e0 partir de l&#8217;anglais, vous auriez estim\u00e9 35M tokens (erreur de -6%).<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Tokens et performance : vitesse de traitement<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Latence et nombre de tokens<\/h3>\n\n\n\n<p>Plus il y a de tokens \u00e0 traiter, plus la latence augmente. La g\u00e9n\u00e9ration de texte suit g\u00e9n\u00e9ralement un rythme de <strong>20-100 tokens\/seconde<\/strong> selon le mod\u00e8le et la charge serveur.<\/p>\n\n\n\n<p><strong>Exemple<\/strong> :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>G\u00e9n\u00e9rer 500 tokens : 5-25 secondes<\/li>\n\n\n\n<li>G\u00e9n\u00e9rer 2 000 tokens : 20-100 secondes<\/li>\n<\/ul>\n\n\n\n<p>Pour des applications temps r\u00e9el (chatbots conversationnels), limitez la longueur des r\u00e9ponses pour maintenir une exp\u00e9rience fluide.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Throughput et scaling<\/h3>\n\n\n\n<p>\u00c0 grande \u00e9chelle, le nombre de tokens trait\u00e9s par seconde d\u00e9termine votre capacit\u00e9 de traitement. Si votre application g\u00e9n\u00e8re 1 000 requ\u00eates\/seconde avec 500 tokens chacune, vous traitez 500 000 tokens\/seconde.<\/p>\n\n\n\n<p>Les API des fournisseurs ont des limites de throughput (tokens par minute). D\u00e9passez-les et vous \u00eates throttled (ralenti).<\/p>\n\n\n\n<p><strong>Exemple de limites (ordres de grandeur)<\/strong> :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Compte gratuit : 10 000 tokens\/min<\/li>\n\n\n\n<li>Compte standard : 100 000 tokens\/min<\/li>\n\n\n\n<li>Compte entreprise : 1M+ tokens\/min<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">Mesurer et monitorer votre consommation de tokens<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Outils de tracking<\/h3>\n\n\n\n<p>La plupart des fournisseurs offrent des dashboards de consommation. Utilisez-les pour :<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Identifier les cas d&#8217;usage co\u00fbteux<\/strong> : 20% de vos applications peuvent repr\u00e9senter 80% des co\u00fbts<\/li>\n\n\n\n<li><strong>D\u00e9tecter les anomalies<\/strong> : pic soudain de consommation = bug ou usage abusif<\/li>\n\n\n\n<li><strong>Comparer mod\u00e8les<\/strong> : le mod\u00e8le premium vaut-il vraiment son surco\u00fbt ?<\/li>\n<\/ol>\n\n\n\n<h3 class=\"wp-block-heading\">M\u00e9triques cl\u00e9s \u00e0 suivre<\/h3>\n\n\n\n<p><strong>1. Co\u00fbt par requ\u00eate<\/strong> : combien co\u00fbte en moyenne une interaction ? <strong>2. Tokens par requ\u00eate<\/strong> : quelle est la longueur moyenne ? <strong>3. Ratio input\/output<\/strong> : g\u00e9n\u00e9rez-vous beaucoup par rapport \u00e0 ce que vous envoyez ? <strong>4. Co\u00fbt par utilisateur actif mensuel<\/strong> : combien d\u00e9pensez-vous pour servir un utilisateur ? <strong>5. Taux d&#8217;utilisation de la fen\u00eatre de contexte<\/strong> : atteignez-vous les limites ?<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Alertes et budgets<\/h3>\n\n\n\n<p>Configurez des alertes automatiques :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>D\u00e9passement de budget mensuel<\/strong> : seuil \u00e0 80%, 90%, 100%<\/li>\n\n\n\n<li><strong>Co\u00fbt anormal par requ\u00eate<\/strong> : d\u00e9tection de prompts inefficaces ou boucles infinies<\/li>\n\n\n\n<li><strong>Volume inhabituel<\/strong> : possible attaque ou erreur de code<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">Questions fr\u00e9quentes des dirigeants<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">&#8220;Comment estimer les co\u00fbts d&#8217;un projet IA avant de le lancer ?&#8221;<\/h3>\n\n\n\n<p><strong>M\u00e9thode en 5 \u00e9tapes<\/strong> :<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>D\u00e9finir le cas d&#8217;usage<\/strong> : chatbot, analyse docs, g\u00e9n\u00e9ration contenu ?<\/li>\n\n\n\n<li><strong>Estimer le volume<\/strong> : combien de requ\u00eates\/jour ou \/mois ?<\/li>\n\n\n\n<li><strong>Prototyper et mesurer<\/strong> : faites 100 requ\u00eates r\u00e9elles, comptez les tokens moyens<\/li>\n\n\n\n<li><strong>Calculer<\/strong> : volume \u00d7 tokens moyens \u00d7 tarif du mod\u00e8le<\/li>\n\n\n\n<li><strong>Ajouter une marge<\/strong> : 30-50% pour impr\u00e9vus et scaling<\/li>\n<\/ol>\n\n\n\n<h3 class=\"wp-block-heading\">&#8220;Peut-on r\u00e9duire les co\u00fbts sans sacrifier la qualit\u00e9 ?&#8221;<\/h3>\n\n\n\n<p>Absolument. Les principales leviers :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Optimiser les prompts (r\u00e9duction de 30-50% des tokens)<\/li>\n\n\n\n<li>Choisir le bon mod\u00e8le pour chaque t\u00e2che (\u00e9conomie de 5-20\u00d7)<\/li>\n\n\n\n<li>Impl\u00e9menter du caching<\/li>\n\n\n\n<li>Utiliser des techniques de compression du contexte<\/li>\n<\/ul>\n\n\n\n<p>En pratique, des r\u00e9ductions de co\u00fbts de 40-70% sont courantes avec une optimisation s\u00e9rieuse, sans impact n\u00e9gatif sur la qualit\u00e9.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">&#8220;Faut-il d\u00e9velopper en interne un syst\u00e8me pour minimiser les co\u00fbts de tokens ?&#8221;<\/h3>\n\n\n\n<p>D\u00e9pend de votre \u00e9chelle :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>&lt; 100 000 $ de d\u00e9penses annuelles en IA<\/strong> : utilisez les API, ne r\u00e9inventez pas la roue<\/li>\n\n\n\n<li><strong>100 000 &#8211; 1 M$ annuels<\/strong> : envisagez une fine-tuning ou des optimisations avanc\u00e9es<\/li>\n\n\n\n<li><strong>> 1 M$ annuels<\/strong> : explorez les mod\u00e8les open source h\u00e9berg\u00e9s en interne (Llama, Mistral) pour r\u00e9duire les co\u00fbts variables<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading\">&#8220;Comment prot\u00e9ger mon budget face \u00e0 la volatilit\u00e9 des tarifs ?&#8221;<\/h3>\n\n\n\n<p>Strat\u00e9gies :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Contrats d&#8217;engagement<\/strong> : n\u00e9gociez des tarifs r\u00e9duits avec volumes garantis<\/li>\n\n\n\n<li><strong>Multi-fournisseurs<\/strong> : ne d\u00e9pendez pas d&#8217;un seul provider<\/li>\n\n\n\n<li><strong>Abstraction<\/strong> : architecture permettant de switcher de mod\u00e8le sans refonte<\/li>\n\n\n\n<li><strong>R\u00e9serves budg\u00e9taires<\/strong> : provisionnez 20% de plus que l&#8217;estimation<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">Perspectives futures : \u00e9volution des tokens<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Tokenisation adaptative<\/h3>\n\n\n\n<p>Recherches en cours sur des syst\u00e8mes qui ajustent dynamiquement la granularit\u00e9 des tokens selon le contexte. Un mot technique rare pourrait \u00eatre trait\u00e9 comme un seul token s&#8217;il est fr\u00e9quent dans votre domaine.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Tokenisation multimodale<\/h3>\n\n\n\n<p>Actuellement, les tokens concernent le texte. Les mod\u00e8les multimodaux (texte + image + audio + vid\u00e9o) d\u00e9veloppent des concepts de &#8220;tokens visuels&#8221; et &#8220;tokens audio&#8221;.<\/p>\n\n\n\n<p>Un jour, vous paierez pour des &#8220;tokens multimodaux&#8221; repr\u00e9sentant n&#8217;importe quel type de contenu.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Compression radicale<\/h3>\n\n\n\n<p>Des techniques \u00e9mergent pour compresser 10\u00d7 le nombre de tokens n\u00e9cessaires pour repr\u00e9senter la m\u00eame information, sans perte de qualit\u00e9. Attendez-vous \u00e0 des baisses continues des co\u00fbts (50-80% de r\u00e9duction d&#8217;ici 2028 selon certaines projections).<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Tarification diff\u00e9renci\u00e9e<\/h3>\n\n\n\n<p>Les fournisseurs pourraient introduire des tarifs variables :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Tokens en heures creuses : moins chers<\/li>\n\n\n\n<li>Tokens premium (temps de r\u00e9ponse garanti) : plus chers<\/li>\n\n\n\n<li>Tokens \u00e9co (latence accept\u00e9e) : tr\u00e8s peu chers<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">Recommandations strat\u00e9giques<\/h2>\n\n\n\n<p><strong>Pour les CFOs<\/strong> :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Int\u00e9grez la consommation de tokens dans vos outils de FinOps au m\u00eame titre que le cloud computing<\/li>\n\n\n\n<li>N\u00e9gociez des engagements de volume avec les fournisseurs pour obtenir des r\u00e9ductions (10-30%)<\/li>\n\n\n\n<li>Effectuez des audits trimestriels de consommation<\/li>\n<\/ul>\n\n\n\n<p><strong>Pour les CTOs<\/strong> :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Impl\u00e9mentez du monitoring en temps r\u00e9el de la consommation de tokens<\/li>\n\n\n\n<li>Cr\u00e9ez des dashboards par \u00e9quipe\/projet pour responsabiliser<\/li>\n\n\n\n<li>Investissez dans l&#8217;optimisation des prompts (ROI imm\u00e9diat)<\/li>\n<\/ul>\n\n\n\n<p><strong>Pour les Product Managers<\/strong> :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Concevez vos features en tenant compte des co\u00fbts de tokens<\/li>\n\n\n\n<li>Une feature &#8220;analyse de document illimit\u00e9&#8221; peut co\u00fbter 100\u00d7 plus cher qu&#8217;une &#8220;analyse limit\u00e9e \u00e0 10 pages&#8221;<\/li>\n\n\n\n<li>\u00c9duquez vos utilisateurs sur l&#8217;impact de leurs usages (ex: &#8220;cette action consommera beaucoup de ressources&#8221;)<\/li>\n<\/ul>\n\n\n\n<p><strong>Pour les CEOs<\/strong> :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Comprenez que les tokens sont le &#8220;cloud computing&#8221; de l&#8217;IA : c&#8217;est votre variable cost principale<\/li>\n\n\n\n<li>Allouez 5-10% du budget IA \u00e0 l&#8217;optimisation et au monitoring (cela se paie rapidement)<\/li>\n\n\n\n<li>Anticipez que les co\u00fbts de tokens diminueront de 30-50% par an, donc ne sur-optimisez pas pr\u00e9matur\u00e9ment (\u00e9quilibre \u00e0 trouver)<\/li>\n<\/ul>\n\n\n\n<p>Les tokens ne sont pas qu&#8217;un d\u00e9tail technique. Dans l&#8217;\u00e9conomie de l&#8217;IA, ils repr\u00e9sentent votre unit\u00e9 de compte, votre limite op\u00e9rationnelle, et votre principal levier d&#8217;optimisation financi\u00e8re. Ma\u00eetriser les tokens, c&#8217;est ma\u00eetriser les co\u00fbts, la performance, et la viabilit\u00e9 \u00e9conomique de vos projets IA. C&#8217;est une comp\u00e9tence de dirigeant du XXIe si\u00e8cle.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<p><a href=\"http:\/\/ia-dirigeant.com\/index.php\/glossaire-de-lia-pour-le-dirigeant-dentreprise\/\">Retour \u00e0 la page d&#8217;accueil du glossaire<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Points cl\u00e9s \u00e0 retenir Qu&#8217;est-ce qu&#8217;un token ? Un token est la plus petite unit\u00e9 de texte qu&#8217;un mod\u00e8le d&#8217;intelligence artificielle traite. Contrairement \u00e0 ce que l&#8217;intuition sugg\u00e8re, un token n&#8217;est ni un caract\u00e8re, ni toujours un mot complet. C&#8217;est &hellip; <a href=\"https:\/\/ia-dirigeant.com\/index.php\/token\/\">Continue reading <span class=\"meta-nav\">&rarr;<\/span><\/a><\/p>\n","protected":false},"author":1,"featured_media":0,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"footnotes":""},"class_list":["post-202","page","type-page","status-publish","hentry"],"_links":{"self":[{"href":"https:\/\/ia-dirigeant.com\/index.php\/wp-json\/wp\/v2\/pages\/202","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ia-dirigeant.com\/index.php\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/ia-dirigeant.com\/index.php\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/ia-dirigeant.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/ia-dirigeant.com\/index.php\/wp-json\/wp\/v2\/comments?post=202"}],"version-history":[{"count":1,"href":"https:\/\/ia-dirigeant.com\/index.php\/wp-json\/wp\/v2\/pages\/202\/revisions"}],"predecessor-version":[{"id":203,"href":"https:\/\/ia-dirigeant.com\/index.php\/wp-json\/wp\/v2\/pages\/202\/revisions\/203"}],"wp:attachment":[{"href":"https:\/\/ia-dirigeant.com\/index.php\/wp-json\/wp\/v2\/media?parent=202"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}