Comment l'utilisation des tokens est-elle calculée ?
Les tokens mesurent la quantité de données traitées par les modèles IA. Considérez-les comme des « unités de travail de l’IA » : plus la demande est complexe ou longue, plus elle nécessite de tokens.
SiteGround AI Studio utilise également les tokens comme une monnaie interne de l’IA. Chaque message que vous envoyez à l’IA est converti en « tokens d’entrée » et chaque réponse qu’elle vous donne est comptée en « tokens de sortie », les deux étant déduits de votre allocation mensuelle.
Comment fonctionne l’utilisation des tokens
Chaque demande d’IA implique des tokens d’entrée (vos instructions ou données téléchargées) et des tokens de sortie (la réponse générée par l’IA). Le total des tokens dépensés est la somme des deux.
Par exemple, si vous écrivez un prompt détaillé de 100 mots et que l’IA vous renvoie une réponse de 500 mots, le système compte les deux dans votre utilisation.
Chaque type de demande (texte, image ou basé sur un agent) a un coût de traitement différent.
1. Génération de texte
Lorsque vous discutez avec l’IA ou utilisez un agent pour des tâches textuelles (rédaction, édition ou résumé), l’utilisation de tokens dépend de :
- La longueur de votre prompt
- La longueur et la complexité de la réponse générée par l’IA
- Le type de modèle utilisé
Les exemples ci-dessous sont fournis pour vous aider à comprendre comment différents modèles IA utilisent les tokens.
L’utilisation réelle et le coût peuvent varier selon votre demande, les mises à jour des modèles et les calculs internes de SiteGround.
| Modèles à usage général | Réponse courte (≈ 100 mots) | Introduction de blog / Email (≈ 300 mots) | Article long / Réponse approfondie (≈ 800–1000 mots) |
| Gemini 2.5 Flash | ~6 tokens | ~20 tokens | ~60 tokens |
| Gemini 3 Flash | ~8 tokens | ~24 tokens | ~70 tokens |
| GPT-5.2 | ~36 tokens | ~110 tokens | ~320 tokens |
| Claude Sonnet 4.6 | ~40 tokens | ~120 tokens | ~350 tokens |
| Modèles de raisonnement / haute capacité | Réponse courte (≈ 100 mots) | Introduction de blog / Email (≈ 300 mots) | Article long / Réponse approfondie (≈ 800–1000 mots) |
| Claude Opus 4.6 | ~65 tokens | ~200 tokens | ~600 tokens |
| Gemini 3 Pro | ~30 tokens | ~90 tokens | ~280 tokens |
| GPT-5.2 | ~36 tokens | ~110 tokens | ~320 tokens |
2. Génération et édition d’images
Les actions liées aux images, telles que la génération de visuels, l’amélioration des images ou la création de variations, consomment des tokens en fonction de la taille de l’image et de sa complexité.
| Modèle | Paysage | Portrait | Remarques |
| Nano Banana | ~800 tokens | ~800 tokens | Génération ou édition d’image standard. Coût et qualité équilibrés. |
| Nano Banana 2 | ~1344 tokens | ~1344 tokens | Version améliorée de Nano Banana avec une qualité supérieure à un coût de tokens modéré. |
| Nano Banana Pro | ~2200–2700 tokens | ~2500-3000 tokens | Détail supérieur et génération/édition plus avancée. |
| GPT Image1 | ~800–3000+ tokens | ~1000-3000 tokens | Dépend fortement de la complexité. Les prompts avancés (par exemple, logos détaillés) peuvent dépasser 3000 tokens et atteindre une utilisation nettement plus élevée. |
Si vous générez ou éditez plusieurs images en une seule session, chacune est comptée séparément dans votre allocation de tokens.
3. Recherche web et analyse de fichiers
Lorsque vous demandez une recherche web ou téléchargez des fichiers pour analyse, l’IA traite des données supplémentaires pour générer des résultats contextuels.
Ces actions utilisent généralement plus de tokens que la génération de texte standard. Cela dépend également fortement de la taille des données d’entrée et de la quantité d’informations récupérées.
Voici quelques exemples avec des coûts approximatifs :
| Type d’action | Tâche exemple | Tokens utilisés approx. | Remarques |
| Recherche Web, Recherche simple | Résumé d’une seule page Web ou source | ~150–220 | Navigation légère et résumé |
| Recherche Web, Multi-source | Collecte de données ou d’informations à partir de plusieurs sites | ~1200–1600 | Augmente avec le nombre de pages lues |
| Analyse de fichier, Document texte court | Revue ou résumé d’un PDF ou DOCX jusqu’à 5 pages | ~600–1000 | Lecture et résumé de base |
| Analyse de fichier, Fichier long ou complexe | Analyse d’un rapport de 20 pages ou d’un ensemble de données | ~2000–3000 | Inclut une extraction sémantique plus approfondie |
| Traitement de tableau de données ou CSV | Extraction d’informations, de résumés ou de tendances à partir de données tabulaires | ~1500–2500 | Dépend du nombre de lignes et de la complexité |
| Comparaison de fichiers multiples | Comparaison de plusieurs fichiers ou recoupement de données | ~3000–4500 | Opération composée à travers les entrées |
4. Utilisation d’agents
Chaque agent IA effectue des tâches spécifiques et en plusieurs étapes, telles que la gestion de contenu sur les réseaux sociaux, la publication d’articles WordPress ou la génération de campagnes emailing.
Parce que les agents combinent souvent plusieurs actions et peuvent impliquer un accès à des API externes, leur utilisation de tokens inclut le coût de toutes les étapes sous-jacentes.
| Agent | Action exemple | Tokens utilisés approx. | Remarques |
| Agents de réseaux sociaux | Générer et publier un post (texte + image) | ~1500–2000 | Inclut légende + image + métadonnées |
| Agent Email Marketing | Rédiger une campagne et une ligne d’objet | ~1000–1800 | Dépend de la longueur et du ton de l’e-mail |
| Agent WordPress | Créer un article de blog avec une mise en forme appropriée, une catégorisation, des tags et une image à la une générée par le LLM | ~2000–3000 | Inclut contenu + mise en forme + génération d’image |
Comment suivre votre utilisation des tokens
Vous pouvez surveiller vos tokens restants directement dans le tableau de bord AI Studio.
Lorsque vous atteignez l’allocation mensuelle de votre plan, les actions d’IA supplémentaires seront suspendues jusqu’au prochain cycle ou jusqu’à ce que vous mettiez à niveau votre plan.
Conseils pour utiliser les tokens efficacement
- Soyez précis dans vos demandes. Des prompts clairs réduisent les échanges de messages.
- Commencez de nouvelles discussions pour de nouveaux sujets. Les conversations longues et multi-sujets utilisent plus de tokens que celles ciblées.
- Réutilisez les prompts de votre bibliothèque. Des instructions cohérentes minimisent les ajustements inutiles.
- Téléchargez des fichiers si nécessaire. Donner un contexte direct à l’IA évite de longues explications écrites multiples.
- Évitez les images surdimensionnées. Les plus grandes résolutions utilisent plus de tokens.