Llama 3B: 460.98ms per token
Llama 8B: 828.86ms per token
gemma 3 1B: 306.46ms per token
gemma 3n E4B: 1843.37ms per token
Qwen2 0.5B: 177.05ms per token
'코딩(Python) > Rumi_AI' 카테고리의 다른 글
모델 테스트 2 (0) | 2025.10.10 |
---|---|
모델 테스트 1 (0) | 2025.10.10 |
계란말이에 집착하는 AI (0) | 2025.10.07 |
Llama와 친구되기 (0) | 2025.08.31 |
Llama와 친구되기 1 (0) | 2025.08.31 |