본문 바로가기

코딩(Python)/Rumi_AI

모델 속도 비교

Llama 3B: 460.98ms per token

Llama 8B: 828.86ms per token

gemma 3 1B: 306.46ms per token

gemma 3n E4B: 1843.37ms per token

Qwen2 0.5B: 177.05ms per token

'코딩(Python) > Rumi_AI' 카테고리의 다른 글

모델 테스트 2  (0) 2025.10.10
모델 테스트 1  (0) 2025.10.10
계란말이에 집착하는 AI  (0) 2025.10.07
Llama와 친구되기  (0) 2025.08.31
Llama와 친구되기 1  (0) 2025.08.31