轻量级通用语言模型统计纯数据,欢迎使用:
机构 | 模型 | 参数规模 | 上下文长度 |
---|---|---|---|
Ai2 | OLMo | 1B, 7B | 2048 |
MiniCPM | MiniCPM | 1.2B, 2.4B | 4096, 128k |
面壁智能 | MiniCPM-S | 1.2B | 未披露 |
Qwen1.5 | Qwen1.5 | 0.5B, 1.8B, 4B, 7B | 32k |
阿里巴巴 | Qwen2 | 0.5B, 1.5B, 7B | 32k, 128k |
Gemma 1 | Gemma 1 | 2B, 7B | 8192 |
Gemini 1.5 Flash | 未披露 | 1M | |
Gemma 2 | Gemma 2 | 2.6B | 8192 |
ANTHROPIC | Claude 3 Haiku | 未披露 | 200k |
InternLM2 | InternLM2 | 1.8B, 7B | 200k |
商汤 | InternLM2.5 | 7B | 200k, 1M |
MoMeta | Llama 3 | 8B | 8k |
OpenELM | OpenELM | 270M, 450M, 1.1B, 3B | 2048 |
DCLM | DCLM | 7B | 2048, 8192 |
Microsoft | Phi-3 | 3.8B, 7B | 4k, 8k, 128k |
MAP-Neo | MAP-Neo | 7B | 8192 |
Hugging Face | SmolLM | 135M, 360M, 1.7B | 2048 |
openAl | GPT-4o mini | 未披露 | 128k |
请注意,有些参数规模和上下文长度未披露,因此在表格中标注为“未披露”。