
Welcome to the leaderboard for the AI Energy Score Project! โ Select different tasks to see scored models.
Select Model Class
Sort
Model | GPU Energy (Wh) | Score |
---|---|---|
distilgpt2 | 1.31 | โ โ โ โ โ |
opt-125m | 1.94 | โ โ โ โ โ |
gpt2 | 2.15 | โ โ โ โ โ |
openai-gpt | 2.70 | โ โ โ โ โ |
gpt2-medium | 3.96 | โ โ โ โ โ |
OLMo-1B-hf | 5.59 | โ โ โ โ โ |
gpt2-large | 6.12 | โ โ โ โ โ |
phi-1_5 | 6.29 | โ โ โ โ โ |
phi-1 | 6.39 | โ โ โ โ โ |
SmolLM-135M | 7.28 | โ โ โ โ |
SmolLM-1.7B | 7.64 | โ โ โ โ |
SmolLM2-1.7B-Instruct | 7.71 | โ โ โ โ |
opt-2.7b | 8.06 | โ โ โ โ |
SmolLM-360M | 8.10 | โ โ โ โ |
gemma-2b | 8.68 | โ โ โ โ |
gpt2-xl | 8.92 | โ โ โ โ |
phi-2 | 9.86 | โ โ โ โ |
falcon-7b | 15.88 | โ โ โ |
Llama-2-7b-hf | 16.44 | โ โ โ |
OLMo-1.7-7B-hf | 16.83 | โ โ โ |
Meta-Llama-3-8B | 17.33 | โ โ โ |
Meta-Llama-3.1-8B | 17.38 | โ โ โ |
aya-23-8B | 17.82 | โ โ |
gemma-2-2b-it | 18.64 | โ โ |
gemma-7b | 18.90 | โ โ |
Starling-LM-7B-alpha | 19.01 | โ โ |
Mistral-7B-v0.1 | 19.13 | โ โ |
xLAM-7b-r | 19.17 | โ โ |
Ministral-8B-Instruct-2410 | 20.87 | โ โ |
Yi-1.5-9B | 23.00 | โ โ |
Llama-2-13b-hf | 26.10 | โ |
phi-4 | 28.74 | โ |
Sort
Model | GPU Energy (Wh) | Score |
---|---|---|
mitsua-diffusion-one | 186.81 | โ โ โ โ โ |
Counterfeit-V2.5 | 187.37 | โ โ โ โ โ |
sd-turbo | 189.86 | โ โ โ โ โ |
openjourney | 196.88 | โ โ โ โ โ |
openjourney-v4 | 203.37 | โ โ โ โ โ |
LCM_Dreamshaper_v7 | 322.04 | โ โ โ โ โ |
sdxl-turbo | 385.57 | โ โ โ โ โ |
stable-diffusion-2-1 | 534.47 | โ โ โ โ |
dreamlike-photoreal-2.0 | 581.33 | โ โ โ โ |
epiCPhotoGasm | 586.57 | โ โ โ โ |
stable-cascade | 1214.36 | โ โ |
stable-diffusion-xl-base-1.0 | 1639.85 | โ |
Sort
Model | GPU Energy (Wh) | Score |
---|---|---|
distilbert-imdb | 0.22 | โ โ โ โ โ |
distilbert-base-uncased-finetuned-sst-2-english | 0.22 | โ โ โ โ โ |
distilbert-base-multilingual-cased-sentiments-student | 0.22 | โ โ โ โ โ |
electra-base-emotion | 0.25 | โ โ โ โ โ |
gpt2-imdb-sentiment-classifier | 0.32 | โ โ โ โ โ |
bert-base-multilingual-uncased-sentiment | 0.36 | โ โ โ โ โ |
gpt2-medium-finetuned-sst2-sentiment | 0.80 | โ โ โ โ โ |
bert-large-sst2 | 0.92 | โ โ โ โ โ |
t5-small | 2.22 | โ โ โ โ โ |
t5-base | 4.13 | โ โ โ โ โ |
t5-large | 7.92 | โ โ โ โ |
t5-3b | 11.68 | โ โ โ |
t5-11b | 27.79 | โ |
Sort
Model | GPU Energy (Wh) | Score |
---|---|---|
resnet-18 | 0.30 | โ โ โ โ โ |
vit-tiny-patch16-224 | 0.38 | โ โ โ โ โ |
resnet-50 | 0.39 | โ โ โ โ โ |
mobilenet_v2_1.0_224 | 0.41 | โ โ โ โ โ |
convnext-tiny-224 | 0.45 | โ โ โ โ โ |
mobilevit-small | 0.51 | โ โ โ โ โ |
vit-base-patch16-224 | 0.58 | โ โ โ โ โ |
beit-base-patch16-224 | 0.74 | โ โ โ โ โ |
vit-base-patch32-384 | 0.76 | โ โ โ โ โ |
swinv2-tiny-patch4-window8-256 | 0.77 | โ โ โ โ |
beit-base-patch16-224-pt22k-ft22k | 0.78 | โ โ โ โ |
bit-50 | 0.83 | โ โ โ โ |
swinv2-tiny-patch4-window16-256 | 0.85 | โ โ โ โ |
convnext-large-224 | 0.97 | โ โ โ โ |
vit-base-patch16-384 | 0.99 | โ โ โ โ |
convnext-base-384-22k-1k | 1.12 | โ โ โ โ |
vit-large-patch32-384 | 1.16 | โ โ โ โ |
swinv2-large-patch4-window12-192-22k | 1.29 | โ โ โ |
swinv2-large-patch4-window12-192-22k | 1.39 | โ โ โ |
swin-base-patch4-window12-384 | 1.53 | โ โ โ |
efficientnet-b7 | 1.85 | โ โ |
mit-b5 | 2.49 | โ |
vision-perceiver-conv | 2.64 | โ |
Sort
Model | GPU Energy (Wh) | Score |
---|---|---|
pix2struct-base | 45.75 | โ โ โ โ โ |
blip-image-captioning-base | 47.12 | โ โ โ โ โ |
blip-image-captioning-large | 48.51 | โ โ โ โ โ |
git-base | 74.71 | โ โ โ โ |
blip2-opt-2.7b | 101.34 | โ โ โ |
blip2-flan-t5-xl | 102.15 | โ โ โ |
vlrm-blip2-opt-2.7b | 103.35 | โ โ โ |
git-large-coco | 170.32 | โ |
blip2-opt-6.7b | 174.96 | โ |
blip2-flan-t5-xxl | 179.93 | โ |
Sort
Model | GPU Energy (Wh) | Score |
---|---|---|
bart_summarizer_model | 0.78 | โ โ โ โ โ |
distilbart-xsum-12-1 | 1.05 | โ โ โ โ โ |
distilbart-cnn-12-6 | 1.48 | โ โ โ โ โ |
bart-large-cnn | 2.04 | โ โ โ โ โ |
t5-small | 2.27 | โ โ โ โ โ |
bigbird-pegasus-large-arxiv | 3.52 | โ โ โ โ โ |
t5-base | 4.23 | โ โ โ โ โ |
led-large-book-summary | 4.29 | โ โ โ โ โ |
t5-large | 8.68 | โ โ โ โ |
t5-3b | 13.24 | โ โ โ โ |
t5-11b | 34.81 | โ |
Sort
Model | GPU Energy (Wh) | Score |
---|---|---|
wav2vec2-base-960h | 0.62 | โ โ โ โ โ |
sew-d-base-plus-400k-ft-ls100h | 1.54 | โ โ โ โ โ |
hubert-large-ls960-ft | 1.62 | โ โ โ โ โ |
mms-1b-all | 4.28 | โ โ โ โ โ |
whisper-tiny | 13.44 | โ โ โ โ โ |
distil-small.en | 15.57 | โ โ โ โ โ |
whisper-base | 16.55 | โ โ โ โ โ |
distil-medium.en | 16.97 | โ โ โ โ โ |
s2t-small-librispeech-asr | 17.20 | โ โ โ โ โ |
distil-large-v2 | 21.52 | โ โ โ โ |
whisper-small | 29.97 | โ โ โ โ |
whisper-medium | 61.42 | โ โ |
whisper-large-v3 | 86.68 | โ |
Sort
Model | GPU Energy (Wh) | Score |
---|---|---|
yolos-tiny | 1.00 | โ โ โ โ โ |
conditional-detr-resnet-50 | 2.14 | โ โ โ โ โ |
detr-resnet-101 | 2.53 | โ โ โ โ |
detr-resnet-50-dc5 | 3.28 | โ โ โ โ |
yolos-small | 3.28 | โ โ โ โ |
detr-resnet-50-dc5 | 3.29 | โ โ โ โ |
yolos-base | 7.98 | โ |
Sort
Model | GPU Energy (Wh) | Score |
---|---|---|
GIST-all-MiniLM-L6-v2 | 0.11 | โ โ โ โ โ |
bge-small-en-v1.5 | 0.19 | โ โ โ โ โ |
gte-base | 0.25 | โ โ โ โ โ |
bge-base-en-v1.5 | 0.25 | โ โ โ โ โ |
e5-base-v2 | 0.25 | โ โ โ โ โ |
GIST-Embedding-v0 | 0.26 | โ โ โ โ โ |
nomic-embed-text-v1 | 0.38 | โ โ โ โ โ |
ember-v1 | 0.58 | โ โ โ โ โ |
GIST-large-Embedding-v0 | 0.58 | โ โ โ โ โ |
mxbai-embed-large-v1 | 0.59 | โ โ โ โ โ |
gte-large | 0.59 | โ โ โ โ โ |
UAE-Large-V1 | 0.60 | โ โ โ โ โ |
e5-large-v2 | 0.60 | โ โ โ โ โ |
multilingual-e5-large-instruct | 0.72 | โ โ โ โ โ |
udever-bloom-1b1 | 0.97 | โ โ โ โ โ |
udever-bloom-3b | 2.15 | โ โ โ |
udever-bloom-7b1 | 4.70 | โ |
GritLM-7B | 5.03 | โ |
SFR-Embedding-Mistral | 5.22 | โ |
Sort
Model | GPU Energy (Wh) | Score |
---|---|---|
bert-tiny-finetuned-squadv2 | 0.06 | โ โ โ โ โ |
dynamic_tinybert | 0.21 | โ โ โ โ โ |
question_answering_v2 | 0.23 | โ โ โ โ โ |
distilbert-base-cased-distilled-squad | 0.24 | โ โ โ โ โ |
minilm-uncased-squad2 | 0.25 | โ โ โ โ โ |
electra-base-squad2 | 0.47 | โ โ โ โ โ |
deberta-v3-base-squad2 | 0.81 | โ โ โ โ โ |
mdeberta-v3-base-squad2 | 0.86 | โ โ โ โ โ |
mobilebert-uncased-squad-v2 | 0.94 | โ โ โ โ โ |
bert-large-uncased-whole-word-masking-squad2 | 1.05 | โ โ โ โ โ |
longformer-base-4096-finetuned-squadv2 | 1.79 | โ โ โ โ โ |
deberta-v3-large-squad2 | 1.88 | โ โ โ โ โ |
longformer-large-4096-finetuned-triviaqa | 3.97 | โ โ โ โ โ |
t5-small | 20.64 | โ โ โ โ โ |
t5-base | 34.36 | โ โ โ โ โ |
t5-large | 72.28 | โ โ โ |
t5-3b | 87.70 | โ โ โ |
t5-11b | 178.13 | โ |
Sort
Last updated: February 2025