All Benchmarked Models
179 models tested across real hardware. Click any model to see detailed benchmark results.
qwen3.5:9b
qwen35 · 9.7B · Q4_K_M
qwen3.5:4b
qwen35 · 4.7B · Q4_K_M
qwen3.5:27b
qwen35 · 27.8B · Q4_K_M
gpt-oss:20b
gptoss · 20.9B · MXFP4
openai/gpt-oss-20b
gpt_oss · 20B · MXFP4
qwen3:14b
qwen3 · 14.8B · Q4_K_M
qwen3-vl-4b-instruct
qwen3vl · 4B · Q4_K_M
qwen3:8b
qwen3 · 8.2B · Q4_K_M
qwen3.5-9b
qwen35 · 9B · Q4_K_S
gemma4:26b
gemma4 · 25.8B · Q4_K_M
glm-4.7-flash:latest
glm4moelite · 29.9B · Q4_K_M
qwen3.5-9b-mlx
qwen3_5 · 9B · 4bit
qwen3.5:0.8b
qwen35 · 873.44M · Q8_0
qwen3.5-0.8b-mlx
qwen3_5 · 0.8B · 8bit
qwen3-coder:30b
qwen3moe · 30.5B · Q4_K_M
unsloth/gemma-4-26b-a4b-it
gemma4 · 26B · Q3_K_M
nemotron-3-nano:latest
nemotron_h_moe · 31.6B · Q4_K_M
lfm2:24b
lfm2moe · 23.8B · Q4_K_M
qwen3.5:35b-a3b
qwen35moe · 36.0B · Q4_K_M
qwen2.5-7b-instruct
qwen2 · 7B · 4bit
gemma4:e2b
gemma4 · 5.1B · Q4_K_M
qwen3-vl:4b-instruct
qwen3vl · 4.4B · Q4_K_M
qwen3.6-35b-a3b
qwen35moe · 35B · Q4_K_S
qwen2.5-coder:7b
qwen2 · 7.6B · Q4_K_M
lfm2-24b-a2b
gemma4:31b
gemma4 · 31.3B · Q4_K_M
deepseek-r1:7b
qwen2 · 7.6B · Q4_K_M
qwen3.5-27b
qwen3_5 · 27B · 4bit
liquid/lfm2-24b-a2b
lfm2_moe · 24B · 4bit
qwen3:0.6b
qwen3 · 751.63M · Q4_K_M
mistral:latest
llama · 7.2B · Q4_K_M
mistral:7b
llama · 7.2B · Q4_K_M
qwen3.5-35b-a3b-uncensored-hauhaucs-aggressive
qwen35moe · 35B · Q4_K_M
qwen3.5-4b-mlx
qwen3_5 · 4B · 4bit
qwen2.5:1.5b
qwen2 · 1.5B · Q4_K_M
qwen3.5-2b-mlx
qwen3_5 · 2B · 8bit
qwen2.5-1.5b-instruct
qwen2 · 1.5B · 8bit
gemma3:1b
gemma3 · 999.89M · Q4_K_M
smollm2-1.7b-instruct
llama · 1.7B · bf16
starling-lm:7b
llama · 7B · Q4_0
microsoft/phi-4-mini-reasoning
phi3 · 3.8B · 4bit
smollm2-360m-instruct
llama · 360M · bf16
qwen3-30b-a3b-thinking-2507-claude-4.5-sonnet-high-reasoning-distill-mlx
qwen3_moe · 30B · MXFP4
gpt-oss-20b
qwen/qwen3-30b-a3b-2507
qwen3_moe · 30B · 4bit
nemotron-3-nano
qwen/qwen3-8b
qwen3 · 8B · 4bit
qwen3.6:35b-a3b
qwen35moe · 36.0B · Q4_K_M
gpt-oss-orchestrator:latest
gptoss · 20.9B · MXFP4
gpt-oss-safeguard-20b-mlx
gpt_oss · 20B · MXFP4
qwen3:30b
qwen3moe · 30.5B · Q4_K_M
qwen2.5:7b
qwen2 · 7.6B · Q4_K_M
gemma4:e4b
gemma4 · 8.0B · Q4_K_M
nvidia/nemotron-3-nano
nemotron_h · 30B · 4bit
qwen2.5:14b
qwen2 · 14.8B · Q4_K_M
qwen3-coder-next:latest
qwen3next · 79.7B · Q4_K_M
unsloth-phi-4
llama · 4bit
gemma3n:latest
gemma3n · 6.9B · Q4_K_M
glm-4.7-flash:q4_K_M
glm4moelite · 29.9B · Q4_K_M
qwen3-vl:30b
qwen3vlmoe · 31.1B · Q4_K_M
gemma3:12b
gemma3 · 12.2B · Q4_K_M
qwen3.5:122b-a10b
qwen35moe · 125.1B · Q4_K_M
mlx-community/gemma-3-4b-it-qat-4bit
gemma3:4b
gemma3 · 4.3B · Q4_K_M
qwen2.5-coder-7b-instruct-mlx
qwen2 · 7B · 4bit
lmstudio-community/meta-llama-3.1-8b-instruct
llama · 8B · Q4_K_M
yi:6b
llama · 6B · Q4_0
qwen2.5:3b
qwen2 · 3.1B · Q4_K_M
gemma2:2b
gemma2 · 2.6B · Q4_0
internlm2:7b
internlm2 · 7.7B · Q4_0
mlx-community/meta-llama-3.1-8b-instruct
llama · 8B · 4bit
qwen3.5:35b
qwen35moe · 36.0B · Q4_K_M
cogito:8b
llama · 8.0B · Q4_K_M
gemma2:9b
gemma2 · 9.2B · Q4_0
ministral-3:8b
mistral3 · 8.9B · Q4_K_M
glm4:9b
chatglm · 9.4B · Q4_0
google/gemma-3-4b
gemma3 · 4B · 4bit
gemma-3-27b-it-qat
gemma3 · 27B · 4bit
exaone-3.5-2.4b-instruct-mlx
exaone · 2.4B · 8bit
phi4:14b
phi3 · 14.7B · Q4_K_M
llama3.1:8b
llama · 8.0B · Q4_K_M
granite3.1-dense:8b
granite · 8.2B · Q4_K_M
minimax-m2.7:cloud
minimax
mlx-community/Llama-3.2-3B-Instruct-4bit
llama3.2:3b
llama · 3.2B · Q4_K_M
hermes3:8b
llama · 8.0B · Q4_0
dolphin3:8b
llama · 8.0B · Q4_K_M
mistralai/magistral-small-2509
mistral3 · 24B · 4bit
qwen3.5:2b
qwen35 · 2.3B · Q8_0
qwen2.5-coder-3b-instruct-mlx
qwen2 · 3B · 4bit
mlx-community/Yi-1.5-6B-Chat-4bit
llama3.2:latest
llama · 3.2B · Q4_K_M
qwen3:1.7b
qwen3 · 2.0B · Q4_K_M
mlx-community/gemma-3-1b-it-8bit
aya-expanse:8b
command-r · 8.0B · Q4_K_M
codegemma:7b
gemma · 9B · Q4_0
mistral-nemo:12b
llama · 12.2B · Q4_0
ministral-3:3b
mistral3 · 3.8B · Q4_K_M
llama3:latest
llama · 8.0B · Q4_0
google/gemma-3-27b
gemma3 · 27B · 4bit
phi4-mini:latest
phi3 · 3.8B · Q4_K_M
qwen2.5-coder-1.5b-instruct-mlx
qwen2 · 1.5B · 8bit
yi-coder:9b
llama · 8.8B · Q4_0
deepseek-v2:16b
deepseek2 · 15.7B · Q4_0
mistralai/devstral-small-2-2512
mistral3 · 24B · 4bit
lfm2.5-1.2b-instruct-mlx
lfm2 · 1.2B · 8bit
granite3.1-dense:2b
granite · 2.5B · Q4_K_M
nous-hermes2:latest
llama · 11B · Q4_0
cogito:3b
llama · 3.6B · Q4_K_M
neural-chat:7b
llama · 7B · Q4_0
aya:8b
command-r · 8.0B · F16
granite-3.3-2b-instruct
granite · 2B · bf16
deepseek-r1:1.5b
qwen2 · 1.8B · Q4_K_M
smollm2:1.7b
llama · 1.7B · Q8_0
phi3:3.8b
phi3 · 3.8B · Q4_0
falcon-h1-1.5b-instruct
falcon-h1 · 1.5B · Q4_K_M
solar:10.7b
llama · 11B · Q4_0
phi3:14b
phi3 · 14.0B · Q4_0
codellama:7b
llama · 7B · Q4_0
llama3.2:1b
llama · 1.2B · Q8_0
qwen3-vl:2b
qwen3vl · 2.1B · Q4_K_M
dolphin-phi:2.7b
phi2 · 3B · Q4_0
qwen2.5-coder-1.5b-instruct
qwen2 · 1.5B · Q4_K_M
text-embedding-nomic-embed-text-v1.5
nomic-bert · Q4_K_M
vicuna:7b
llama · 7B · Q4_0
vicuna:13b
llama · 13B · Q4_0
wizardlm2:7b
llama · 7B · Q4_0
gemma-3-1b-it
gemma3 · 1B · Q4_K_M
phi:2.7b
phi2 · 3B · Q4_0
gemma-2-2b-it
gemma2 · 2B · Q4_K_M
falcon-h1-0.5b-instruct
falcon-h1 · 0.5B · Q4_K_M
qwen2.5:0.5b
qwen2 · 494.03M · Q4_K_M
mlx-community/Llama-3.2-1B-Instruct-4bit
deepseek-coder:6.7b
llama · 7B · Q4_0
llama2:13b
llama · 13B · Q4_0
orca-mini:7b
llama · 7B · Q4_0
phi-3.5-mini-instruct
phi3 · 4bit
qwen2.5-coder-0.5b-instruct
qwen2 · 0.5B · Q4_K_M
llama2:7b
llama · 7B · Q4_0
internlm2_5-1_8b-chat
internlm2 · Q4_K_M
falcon3-1b-instruct
llama · 1B · 3bit
mlx-community/Nanbeige4.1-3B-8bit
qwen2.5-0.5b-instruct
qwen2 · 0.5B · Q4_K_M
qwen2.5-0.5b-instruct-mlx
qwen2 · 0.5B · 4bit
smollm2:360m
llama · 361.82M · F16
gemma3:270m
gemma3 · 268.10M · Q8_0
granite-3.1-1b-a400m-instruct
granitemoe · 1B · Q4_K_M
llama-3.2-1b-instruct
llama · 1B · Q4_K_M
mlx-community/stablelm-2-zephyr-1_6b-4bit
qwen3.5-0.8b
qwen35 · 0.8B · Q4_K_M
orca-mini:3b
llama · 3B · Q4_0
qwen3:4b
qwen3 · 4.0B · Q4_K_M
stablelm2:1.6b
stablelm · 2B · Q4_0
qwen2.5-math-1.5b-instruct
qwen2 · 1.5B · 4bit
mlx-community/quantized-gemma-2b-it
yi-coder-1.5b-chat
llama · 1.5B · Q4_K_M
opencoder-1.5b-instruct
llama · 1.5B · Q4_K_M
amd-olmo-1b-sft
olmo · 1B · Q4_K_M
tinyllama:1.1b
llama · 1B · Q4_0
falcon-h1-tiny-90m-instruct
falcon-h1 · 90M · Q4_K_M
tinyllama
gemma-3-270m-it-qat-mlx
gemma3_text · 270M · 4bit
smollm2:135m
llama · 134.52M · F16
qwen3-0.6b
qwen3 · 0.6B · Q4_K_M
starcoder2:3b
starcoder2 · 3B · Q4_0
phi-3-mini-128k-instruct
phi3 · 4bit
smollm2-135m-instruct
llama · 135M · Q4_K_M
deepseek-r1-distill-qwen-14b-mlx
qwen2 · 14B · 5bit
stablelm-2-zephyr-1.6b
stablelm · 1.6B · Q4_K_M
starcoder2:7b
starcoder2 · 7B · Q4_0
qwen3.5-27b-claude-4.6-opus-distilled-mlx
qwen3_5 · 27B · 4bit
qwen3.5:latest
qwen35 · 9.7B · Q4_K_M
tinyllama-1.1b-chat-v1.0
llama · 1.1B · Q3_K_M
lmstudio-community/Phi-4-reasoning-plus-MLX-4bit
bloomz-560m
bloom · 560M · Q4_K_M
deepseek-coder-1.3b-instruct
llama · 1.3B · Q8_0
phi-1_5
phi2 · Q8_0
deepseek-r1:14b
qwen2 · 14.8B · Q4_K_M
qwen3-1.7b
qwen3 · 1.7B · Q4_K_M