
A startup europeia Mistral, conhecida por desenvolver modelos de linguagem abertos e eficientes, divulgou um relatório inédito detalhando o impacto ambiental de sua principal inteligência artificial generativa, o Mistral Large 2. O estudo, realizado como forma de auditoria ambiental, buscou avaliar o custo ecológico das etapas de treinamento, inferência e uso contínuo do modelo.
O levantamento é uma das primeiras tentativas formais de quantificar com precisão as emissões de carbono e o consumo de água associados a grandes modelos de IA, uma demanda crescente em meio à expansão global da inteligência artificial e às preocupações ambientais relacionadas à sustentabilidade computacional.
De acordo com o relatório, 85,5% das emissões de CO₂ e 91% do consumo de água ocorreram durante as fases de treinamento e inferência. Essas etapas, altamente intensivas em energia, envolvem o uso prolongado de servidores com placas de vídeo potentes e data centers refrigerados, geralmente espalhados por diferentes regiões do mundo.
No entanto, uma das revelações mais relevantes está no impacto da fase de uso real, ou seja, o momento em que os usuários fazem perguntas ou geram conteúdo com a IA já treinada. Segundo os dados fornecidos pela Mistral, a emissão média de carbono por prompt processado — equivalente à geração de uma página de texto — é de apenas 1,14 grama de CO₂, com um consumo médio de 45 mililitros de água.
Para efeito de comparação, o relatório traz uma analogia surpreendente: escrever um e-mail durante 10 minutos, que seja lido por ao menos 1 entre 100 destinatários, tem um impacto ambiental semelhante ao de 22,8 prompts gerados por um modelo como o Mistral Large 2. Essa perspectiva ajuda a contextualizar o uso da IA dentro de um cenário digital mais amplo, mostrando que muitas ações cotidianas na internet também carregam seus próprios custos energéticos — muitas vezes subestimados.
O relatório não especifica exatamente quais servidores ou fontes de energia foram utilizados, mas reforça que a Mistral tem como prioridade a eficiência energética e a transparência no uso de recursos naturais. Segundo os engenheiros envolvidos, o modelo Large 2 foi otimizado para desempenho e sustentabilidade, com balanceamento cuidadoso entre capacidade de resposta e custo computacional.
Além disso, a Mistral defende a importância de tornar os modelos de linguagem grandes mais acessíveis e menos dependentes de infraestruturas centralizadas. Por ser uma empresa que aposta em modelos de código aberto, há uma tentativa de incentivar a inovação descentralizada e sustentável, especialmente em contextos onde o acesso a recursos computacionais massivos é limitado.
A publicação do relatório acontece em um momento em que diversas organizações — incluindo Google, Microsoft e OpenAI — enfrentam questionamentos sobre o impacto ambiental de seus modelos proprietários de IA, cujos dados sobre consumo de energia e emissões geralmente não são divulgados de forma detalhada.
Com essa iniciativa, a Mistral se posiciona não apenas como uma concorrente técnica no campo da IA generativa, mas também como um agente responsável e alinhado com metas climáticas globais. A transparência em relação ao impacto ecológico pode se tornar, segundo analistas, um diferencial competitivo nos próximos anos, à medida que governos e empresas aumentam suas exigências ambientais.
Você se preocupa com o impacto ambiental da inteligência artificial? Acha importante que empresas como a Mistral divulguem esse tipo de dado? Deixe sua opinião nos comentários e compartilhe com quem acompanha a evolução da IA!
Fontes:
Relatório ambiental da Mistral, análises de consumo energético em data centers, estudos sobre pegada de carbono digital, publicações técnicas em sustentabilidade de IA
Nota de transparência:
Esta matéria foi elaborada com base em relatório oficial publicado pela Mistral sobre o modelo Large 2. As comparações ambientais foram feitas conforme descritas no próprio estudo. O impacto real pode variar dependendo da infraestrutura utilizada e da origem da energia empregada nos data centers.