En juillet 2025, Mistral a réalisé une analyse du cycle de vie de son modèle de langage Le Chat. L’entreprise française communique sur certains résultats .
Il s’agit d’une étude réalisée par Carbone 4 et l’ADEME sous le regard critique de Résilio et Hubblo. On peut donc être confiant dans la méthodologie employée et dans le sérieux de données proposées.
Ce qu’il faut retenir
On peut se réjouir de la démarche proposée par Mistral. Cet intérêt pour les impacts environnementaux montre que l’entreprise française doit faire partie des bons élèves. En l’absence de données, je considérerai que les autres acteurs sont moins vertueux.
Toutefois, on ne peut rester que sur notre faim par rapport aux chiffres communiqués. Mistral a voulu communiquer sur l’origine des impacts environnementaux, mais en regroupant l’entraînement et l’inférence dans la même catégorie, il ne reste pas grand chose pour le reste…
De même, Mistral explique que les modèles plus petits limitent les impacts environnementaux mais sans préciser à quel point.
Les seules données intéressantes sont les impacts environnementaux par requête pour le modèle Mistral Large 2.
Comparaison avec la littérature
On peut toutefois comparer cette étude avec les données qui avaient été estimées par différents outils :
Si Ecologits propose des indicateurs environnementaux, les autres outils s’arrêtent à la consommation énergétique. De plus, les outils ne mesurent pas les mêmes requêtes :
- Ecologits propose plusieurs tailles de requêtes
- AI Energy score propose un exemple avec une énorme génération de texte (20 fois plus importante que l’option la plus importante d’Ecologits)
- ML.Energy propose une moyenne de beaucoup de petites requêtes
Il est donc difficile de trouver une comparaison. La plus saine que j’ai pu trouver est de comparer Ecologits (50 tokens) avec ML.ENERGY. On constate qu’Ecologits a une estimation 4 fois supérieure à ML.ENERGY.
Par contre, il se trouve qu’Ecologits possède 2 de facteurs d’impact de l’ACV de Mistral sur un même type de requête. Nous allons donc pouvoir comparer les résultats.
Impacts environnementaux de Mistral Large pour une requête de 400 tokens.
Impact | ACV Mistral | Ecologits (mix électrique monde) | Ecologits (mix électrique France) |
---|---|---|---|
Empreinte carbone (en g CO2.eq) | 1.14 | 4.86 | 0.806 |
Utilisation de métaux (en mg Sb.eq) | 0.16 | 0.0114 | 0.0112 |
- ACV Mistral
- Ecologits (mix électrique monde)
- Ecologits (mix électrique France)
On constate donc que l’estimation d’Ecologits est relativement fiable pour l’empreinte carbone mais plus grossière pour l’utilisation des métaux.
Cela s’explique car Ecologits ne semble pas prendre en compte la consommation en métaux de la fabrication des serveurs (ou alors le sous-estime largement). Alors que cette partie est explicitement intégrée dans l’ACV.
Et les autres acteurs ?
OpenAI
Dans un article de blog , Sam Altman, le PDG d’OpenAI (Chat GPT), affirme qu’un requête sur Chat GPT consomme 0.34 Wh d’électricité et 0.3 ml d’eau.
Des chiffres intéressants qui ont été beaucoup relayés. Malheureusement, le Sam Altman ne précise aucun détail sur l’origine de ces données :
- pas d’indication de méthodologie
- aucune référence au modèle étudié
- aucune indication de la taille du prompt
- on ne sait pas ce qui est pris en compte ou non
Bref, il est difficile de donner un sens aux chiffres proposés par Sam Altman tant on ne sait rien de ce qui se cache derrière. A titre de comparaison, Ecologits estime que le modèle 4o consomme 4.4 Wh pour les plus petits prompts.
Je mets à jour cet article, car quelques jours après sa parution, Google a communiqué un rapport sur les impacts environnementaux de leur intelligence artificielle Gemini .
Les chercheurs de Google arrivent à la conclusion qu’une requête Gemini utilise en moyenne 0.24 Wh d’électricité (comparaison : Ecologits estime 4.4 Wh). On ne va pas s’intéresser au coût carbone des requêtes puisque Google s’appuie sur les impacts “Market based” de l’électricité. J’estime que cette approche est bancale car elle permet de se dédouaner des impacts environnementaux en payant des contrats d’électricité verts.
Dans son rapport, Google précise qu’en un an, l’entreprise a réussi à diviser par 23 la consommation de ses modèles. Il semble que la principale optimisation réside dans l’“inférence par lot” (batch inference). L’idée est de proposer des requêtes asynchrones. Les prompts n’obtiennent pas de réponse en temps réel, on cumule les demandes et lorsqu’il y en a suffisamment, on les exécute ensemble dans un même lot.
Cela semble permettre une diminution notable de la consommation d’énergie par requête, mais cela impose aux utilisateurs d’attendre pour recevoir leurs résultats.
L’étude de Google est intéressante mais elle possède de nombreux défauts qui nuisent à la compréhension des résultats :
- l’étude a été réalisée en interne sans revue critique
- elle ne précise pas la taille des modèles testés
- elle parle de requêtes médianes sans préciser leur taille
- elle ne précise pas la taille des lots ou de manière générale, des optimisations réalisées (sont-elles effectives dans les usages typiques ?)
De manière générale, il est très difficile de savoir si l’étude de Google s’appuie sur des usages qui sont représentatifs des usages réels de Gemini. L’absence de transparence sur ce qui est mesuré empêche toute comparaison avec la littérature.
Conclusion
Mistral vient prouver par leur démarche qu’ils considèrent les impacts environnementaux dans leur démarche, ce qui est une excellente nouvelle. J’aurais toutefois apprécié une plus grande transparence dans les résultats enfin de mieux comprendre les rouages de ce domaine afin de proposer des modélisations plus justes.