RE: [개발이야기#045] 인공지능 이야기 윈도우에서 Ollama 사용해보기

You are viewing a single comment's thread from:

[개발이야기#045] 인공지능 이야기 윈도우에서 Ollama 사용해보기

in kr •  19 days ago 

참고로, 맥북에서는 꽤 빠른 속도로 결과가 출력됩니다. 제 맥북은 M2 Pro 32GB 모델입니다.
최근에 출시된 M4 Max 모델에서는 Llama 450B와 같은 대형 모델도 실행할 수 있다고 하네요.

Authors get paid when people like you upvote their post.
If you enjoyed what you read here, create your account today and start earning FREE STEEM!
Sort Order:  

M4 맥미니를 고려해보고 있는데 ^^
M4 Pro 모델에 32GB 매기고 디스크는 그대로 512주고 ^^
또 뭐였더라 CPU/GPU 업그레이드하면 약 400만원이 나오네요 ^^
T.T

그리고, 그래픽카드는 지금 4080이나 4090은 엄두도 못내고 4070이 80만원 정도 하는 것 같습니다.

제PC가 파워가 약한데 ^^ 파워도 바꿔야하나 T.T 아니면 AMD 카드는 빼고 사용해야하나 고민해보고 있습니다.