Inference Providers
Active filters: minimax
saricles/MiniMax-M2.5-REAP-172B-A10B-NVFP4-GB10
Text Generation
• 98B • Updated • 1.97k
• 15
Ex0bit/MiniMax-M2.5-PRISM-PRO
Text Generation
• 229B • Updated • 875
• 17
BennyDaBall/MiniMax-M2.5-REAP-139B-A10B-MXFP4
Text Generation
• 139B • Updated • 115
• 3
cyankiwi/MiniMax-M2.5-REAP-139B-A10B-AWQ-4bit
Text Generation
• 23B • Updated • 1.44k
• 11
saricles/MiniMax-M2.5-REAP-139B-A10B-NVFP4-GB10
Text Generation
• 79B • Updated • 936
• 6
Goekdeniz-Guelmez/MiniMax01Text-Dev
Updated • 3
• 1
MiniMaxAI/MiniMax-Text-01-hf
Text Generation
• Updated • 14.8k
• 11
MiniMaxAI/MiniMax-M1-80k-hf
Text Generation
• Updated • 66
• 8
MiniMaxAI/MiniMax-M1-40k-hf
Text Generation
• Updated • 54
• 12
Reinforcement Learning
• Updated badaoui/tiny-random-minimax
Feature Extraction
• 0.2B • Updated ModelCloud/MiniMax-M2-BF16
Text Generation
• 229B • Updated • 74
• 3
mlx-community/MiniMax-M2-4bit
Text Generation
• Updated • 1.39k
• 10
mlx-community/MiniMax-M2-3bit
Text Generation
• 229B • Updated • 204
• 3
mlx-community/MiniMax-M2-6bit
Text Generation
• Updated • 99
• 2
Text Generation
• 229B • Updated • 10
• 17
ModelCloud/MiniMax-M2-GPTQMODEL-W4A16
Text Generation
• 229B • Updated • 12
• 3
mlx-community/MiniMax-M2-8bit
Text Generation
• Updated • 321
• 8
Text Generation
• 229B • Updated • 4
mlx-community/MiniMax-M2-5bit
Text Generation
• Updated • 119
• 2
inferencerlabs/MiniMax-M2-MLX-6.5bit
Text Generation
• 229B • Updated • 256
• 2
mlx-community/MiniMax-M2-mlx-8bit-gs32
Text Generation
• Updated • 114
• 2
lmstudio-community/MiniMax-M2-MLX-4bit
Text Generation
• 229B • Updated • 10.5k
lmstudio-community/MiniMax-M2-MLX-6bit
Text Generation
• 229B • Updated • 10.3k
lmstudio-community/MiniMax-M2-MLX-8bit
Text Generation
• 229B • Updated • 10.9k
catalystsec/MiniMax-M2-3bit-DWQ
Text Generation
• 229B • Updated • 102
• 2
Text Generation
• 229B • Updated • 1
Text Generation
• 229B • Updated • 1.57k
• 87
catalystsec/MiniMax-M2-4bit-DWQ
Text Generation
• 229B • Updated • 60
• 1