
Welcome to the leaderboard for the AI Energy Score Project! โ Select different tasks to see scored models.
Select Model Class
Sort
| Model | GPU Energy (Wh) | Score |
|---|---|---|
| distilgpt2 | 1.31 | โ โ โ โ โ |
| opt-125m | 1.94 | โ โ โ โ โ |
| gpt2 | 2.15 | โ โ โ โ โ |
| openai-gpt | 2.70 | โ โ โ โ โ |
| gpt2-medium | 3.96 | โ โ โ โ โ |
| OLMo-1B-hf | 5.59 | โ โ โ โ โ |
| gpt2-large | 6.12 | โ โ โ โ โ |
| phi-1_5 | 6.29 | โ โ โ โ โ |
| phi-1 | 6.39 | โ โ โ โ โ |
| SmolLM-135M | 7.28 | โ โ โ โ |
| SmolLM-1.7B | 7.64 | โ โ โ โ |
| SmolLM2-1.7B-Instruct | 7.71 | โ โ โ โ |
| opt-2.7b | 8.06 | โ โ โ โ |
| SmolLM-360M | 8.10 | โ โ โ โ |
| gemma-2b | 8.68 | โ โ โ โ |
| gpt2-xl | 8.92 | โ โ โ โ |
| phi-2 | 9.86 | โ โ โ โ |
| falcon-7b | 15.88 | โ โ โ |
| Llama-2-7b-hf | 16.44 | โ โ โ |
| OLMo-1.7-7B-hf | 16.83 | โ โ โ |
| Meta-Llama-3-8B | 17.33 | โ โ โ |
| Meta-Llama-3.1-8B | 17.38 | โ โ โ |
| aya-23-8B | 17.82 | โ โ |
| gemma-2-2b-it | 18.64 | โ โ |
| gemma-7b | 18.90 | โ โ |
| Starling-LM-7B-alpha | 19.01 | โ โ |
| Mistral-7B-v0.1 | 19.13 | โ โ |
| xLAM-7b-r | 19.17 | โ โ |
| Ministral-8B-Instruct-2410 | 20.87 | โ โ |
| Yi-1.5-9B | 23.00 | โ โ |
| Llama-2-13b-hf | 26.10 | โ |
| phi-4 | 28.74 | โ |
Sort
| Model | GPU Energy (Wh) | Score |
|---|---|---|
| mitsua-diffusion-one | 186.81 | โ โ โ โ โ |
| Counterfeit-V2.5 | 187.37 | โ โ โ โ โ |
| sd-turbo | 189.86 | โ โ โ โ โ |
| openjourney | 196.88 | โ โ โ โ โ |
| openjourney-v4 | 203.37 | โ โ โ โ โ |
| LCM_Dreamshaper_v7 | 322.04 | โ โ โ โ โ |
| sdxl-turbo | 385.57 | โ โ โ โ โ |
| stable-diffusion-2-1 | 534.47 | โ โ โ โ |
| dreamlike-photoreal-2.0 | 581.33 | โ โ โ โ |
| epiCPhotoGasm | 586.57 | โ โ โ โ |
| stable-cascade | 1214.36 | โ โ |
| stable-diffusion-xl-base-1.0 | 1639.85 | โ |
Sort
| Model | GPU Energy (Wh) | Score |
|---|---|---|
| distilbert-imdb | 0.22 | โ โ โ โ โ |
| distilbert-base-uncased-finetuned-sst-2-english | 0.22 | โ โ โ โ โ |
| distilbert-base-multilingual-cased-sentiments-student | 0.22 | โ โ โ โ โ |
| electra-base-emotion | 0.25 | โ โ โ โ โ |
| gpt2-imdb-sentiment-classifier | 0.32 | โ โ โ โ โ |
| bert-base-multilingual-uncased-sentiment | 0.36 | โ โ โ โ โ |
| gpt2-medium-finetuned-sst2-sentiment | 0.80 | โ โ โ โ โ |
| bert-large-sst2 | 0.92 | โ โ โ โ โ |
| t5-small | 2.22 | โ โ โ โ โ |
| t5-base | 4.13 | โ โ โ โ โ |
| t5-large | 7.92 | โ โ โ โ |
| t5-3b | 11.68 | โ โ โ |
| t5-11b | 27.79 | โ |
Sort
| Model | GPU Energy (Wh) | Score |
|---|---|---|
| resnet-18 | 0.30 | โ โ โ โ โ |
| vit-tiny-patch16-224 | 0.38 | โ โ โ โ โ |
| resnet-50 | 0.39 | โ โ โ โ โ |
| mobilenet_v2_1.0_224 | 0.41 | โ โ โ โ โ |
| convnext-tiny-224 | 0.45 | โ โ โ โ โ |
| mobilevit-small | 0.51 | โ โ โ โ โ |
| vit-base-patch16-224 | 0.58 | โ โ โ โ โ |
| beit-base-patch16-224 | 0.74 | โ โ โ โ โ |
| vit-base-patch32-384 | 0.76 | โ โ โ โ โ |
| swinv2-tiny-patch4-window8-256 | 0.77 | โ โ โ โ |
| beit-base-patch16-224-pt22k-ft22k | 0.78 | โ โ โ โ |
| bit-50 | 0.83 | โ โ โ โ |
| swinv2-tiny-patch4-window16-256 | 0.85 | โ โ โ โ |
| convnext-large-224 | 0.97 | โ โ โ โ |
| vit-base-patch16-384 | 0.99 | โ โ โ โ |
| convnext-base-384-22k-1k | 1.12 | โ โ โ โ |
| vit-large-patch32-384 | 1.16 | โ โ โ โ |
| swinv2-large-patch4-window12-192-22k | 1.29 | โ โ โ |
| swinv2-large-patch4-window12-192-22k | 1.39 | โ โ โ |
| swin-base-patch4-window12-384 | 1.53 | โ โ โ |
| efficientnet-b7 | 1.85 | โ โ |
| mit-b5 | 2.49 | โ |
| vision-perceiver-conv | 2.64 | โ |
Sort
| Model | GPU Energy (Wh) | Score |
|---|---|---|
| pix2struct-base | 45.75 | โ โ โ โ โ |
| blip-image-captioning-base | 47.12 | โ โ โ โ โ |
| blip-image-captioning-large | 48.51 | โ โ โ โ โ |
| git-base | 74.71 | โ โ โ โ |
| blip2-opt-2.7b | 101.34 | โ โ โ |
| blip2-flan-t5-xl | 102.15 | โ โ โ |
| vlrm-blip2-opt-2.7b | 103.35 | โ โ โ |
| git-large-coco | 170.32 | โ |
| blip2-opt-6.7b | 174.96 | โ |
| blip2-flan-t5-xxl | 179.93 | โ |
Sort
| Model | GPU Energy (Wh) | Score |
|---|---|---|
| bart_summarizer_model | 0.78 | โ โ โ โ โ |
| distilbart-xsum-12-1 | 1.05 | โ โ โ โ โ |
| distilbart-cnn-12-6 | 1.48 | โ โ โ โ โ |
| bart-large-cnn | 2.04 | โ โ โ โ โ |
| t5-small | 2.27 | โ โ โ โ โ |
| bigbird-pegasus-large-arxiv | 3.52 | โ โ โ โ โ |
| t5-base | 4.23 | โ โ โ โ โ |
| led-large-book-summary | 4.29 | โ โ โ โ โ |
| t5-large | 8.68 | โ โ โ โ |
| t5-3b | 13.24 | โ โ โ โ |
| t5-11b | 34.81 | โ |
Sort
| Model | GPU Energy (Wh) | Score |
|---|---|---|
| wav2vec2-base-960h | 0.62 | โ โ โ โ โ |
| sew-d-base-plus-400k-ft-ls100h | 1.54 | โ โ โ โ โ |
| hubert-large-ls960-ft | 1.62 | โ โ โ โ โ |
| mms-1b-all | 4.28 | โ โ โ โ โ |
| whisper-tiny | 13.44 | โ โ โ โ โ |
| distil-small.en | 15.57 | โ โ โ โ โ |
| whisper-base | 16.55 | โ โ โ โ โ |
| distil-medium.en | 16.97 | โ โ โ โ โ |
| s2t-small-librispeech-asr | 17.20 | โ โ โ โ โ |
| distil-large-v2 | 21.52 | โ โ โ โ |
| whisper-small | 29.97 | โ โ โ โ |
| whisper-medium | 61.42 | โ โ |
| whisper-large-v3 | 86.68 | โ |
Sort
| Model | GPU Energy (Wh) | Score |
|---|---|---|
| yolos-tiny | 1.00 | โ โ โ โ โ |
| conditional-detr-resnet-50 | 2.14 | โ โ โ โ โ |
| detr-resnet-101 | 2.53 | โ โ โ โ |
| detr-resnet-50-dc5 | 3.28 | โ โ โ โ |
| yolos-small | 3.28 | โ โ โ โ |
| detr-resnet-50-dc5 | 3.29 | โ โ โ โ |
| yolos-base | 7.98 | โ |
Sort
| Model | GPU Energy (Wh) | Score |
|---|---|---|
| GIST-all-MiniLM-L6-v2 | 0.11 | โ โ โ โ โ |
| bge-small-en-v1.5 | 0.19 | โ โ โ โ โ |
| gte-base | 0.25 | โ โ โ โ โ |
| bge-base-en-v1.5 | 0.25 | โ โ โ โ โ |
| e5-base-v2 | 0.25 | โ โ โ โ โ |
| GIST-Embedding-v0 | 0.26 | โ โ โ โ โ |
| nomic-embed-text-v1 | 0.38 | โ โ โ โ โ |
| ember-v1 | 0.58 | โ โ โ โ โ |
| GIST-large-Embedding-v0 | 0.58 | โ โ โ โ โ |
| mxbai-embed-large-v1 | 0.59 | โ โ โ โ โ |
| gte-large | 0.59 | โ โ โ โ โ |
| UAE-Large-V1 | 0.60 | โ โ โ โ โ |
| e5-large-v2 | 0.60 | โ โ โ โ โ |
| multilingual-e5-large-instruct | 0.72 | โ โ โ โ โ |
| udever-bloom-1b1 | 0.97 | โ โ โ โ โ |
| udever-bloom-3b | 2.15 | โ โ โ |
| udever-bloom-7b1 | 4.70 | โ |
| GritLM-7B | 5.03 | โ |
| SFR-Embedding-Mistral | 5.22 | โ |
Sort
| Model | GPU Energy (Wh) | Score |
|---|---|---|
| bert-tiny-finetuned-squadv2 | 0.06 | โ โ โ โ โ |
| dynamic_tinybert | 0.21 | โ โ โ โ โ |
| question_answering_v2 | 0.23 | โ โ โ โ โ |
| distilbert-base-cased-distilled-squad | 0.24 | โ โ โ โ โ |
| minilm-uncased-squad2 | 0.25 | โ โ โ โ โ |
| electra-base-squad2 | 0.47 | โ โ โ โ โ |
| deberta-v3-base-squad2 | 0.81 | โ โ โ โ โ |
| mdeberta-v3-base-squad2 | 0.86 | โ โ โ โ โ |
| mobilebert-uncased-squad-v2 | 0.94 | โ โ โ โ โ |
| bert-large-uncased-whole-word-masking-squad2 | 1.05 | โ โ โ โ โ |
| longformer-base-4096-finetuned-squadv2 | 1.79 | โ โ โ โ โ |
| deberta-v3-large-squad2 | 1.88 | โ โ โ โ โ |
| longformer-large-4096-finetuned-triviaqa | 3.97 | โ โ โ โ โ |
| t5-small | 20.64 | โ โ โ โ โ |
| t5-base | 34.36 | โ โ โ โ โ |
| t5-large | 72.28 | โ โ โ |
| t5-3b | 87.70 | โ โ โ |
| t5-11b | 178.13 | โ |
Sort
Last updated: February 2025