[태그:] ollama
-
MacbookPro 13 2012MID Sequoia
좋네요. Catalina만큼이나 안정적입니다. 물론 설치할때 거의 하루를 보내야 하는 정도였지만, 그냥 설치 걸어놓고, 일하고 돌아오니 깔끔하게 설치되어 있네요. 기존에 쓰던 프로세들까지 그대로 유지되고, 사실 내부적으로 별로 변화가 없던가, 그냥 최적화 하고, 호환성 조금 더 다시 신경 써준 것 같기도 하고, OCLP빌드하시는 분이 대단한것 같기도 하고 그렇네요… 뭐. 많이들 쓰고 있으니, 안전성은 그냥 그려려니 하고 넘어갑니다.…
-
쓸만한 Qwen과 Ollama의 최저 지원한도는 어디일까?
일단 보유하고 있던 모든 Legacy 시스템에 전부 설치해보고, 최저한도를 알아보려 합니다. 이유는… 폐기하고 싶어서 –;;; 정말 박물관에 들어가야할 수준의 장비는 이참에 이쁘게 래핑해서. 그냥 다락에 보관하려합니다. 꾸역꾸역 고문시키는 것도 못할짓인것 같고요 처음. Macbook pro mid 2012 13인치 i7 2.9Ghz 16G RAM 256 SSD 로 바꾼건, OS안바꾸고, Ollama를 설치했더니… 14 이상으로 컴파일된 걸 가져와서, 링크에러 뜨는군요.…
-
오늘은 누구나 발가락을 담궈보는 LLM 그리고는 OpenClaw에 물려보겠습니다.
시작은 간단히 Gemini에게 방법을 알려달라고 하면 잘 알려줍니다. 인터넷 검색은 이제 Gemini아니면 불편해서 못 쓸정도네요. 그러지 않기 위해서 OpenClaw, Ollama등등 오늘 좀 맛보려합니다. GPU자원이 썩 좋지 않은 관계로 CPU만으로 할 수 있는 모델등을 추천해달라고 하지 Gemini추천은 Qwen2.5:1.5b 7b 등이 나오고 잠시 찾아보니 3.5 72b정도인가는 RAM이 참 빵빵해야한다고 나오네요.. 그냥 DRAM이라면 128GB짜리 Desktop이나 32GB짜리 서버도 있으니,…