[태그:] llm

  • 쓸만한 Qwen과 Ollama의 최저 지원한도는 어디일까?

    일단 보유하고 있던 모든 Legacy 시스템에 전부 설치해보고, 최저한도를 알아보려 합니다. 이유는… 폐기하고 싶어서 –;;; 정말 박물관에 들어가야할 수준의 장비는 이참에 이쁘게 래핑해서. 그냥 다락에 보관하려합니다. 꾸역꾸역 고문시키는 것도 못할짓인것 같고요 처음. Macbook pro mid 2012 13인치 i7 2.9Ghz 16G RAM 256 SSD 로 바꾼건, OS안바꾸고, Ollama를 설치했더니… 14 이상으로 컴파일된 걸 가져와서, 링크에러 뜨는군요.…

  • 오늘은 누구나 발가락을 담궈보는 LLM 그리고는 OpenClaw에 물려보겠습니다.

    시작은 간단히 Gemini에게 방법을 알려달라고 하면 잘 알려줍니다. 인터넷 검색은 이제 Gemini아니면 불편해서 못 쓸정도네요. 그러지 않기 위해서 OpenClaw, Ollama등등 오늘 좀 맛보려합니다. GPU자원이 썩 좋지 않은 관계로 CPU만으로 할 수 있는 모델등을 추천해달라고 하지 Gemini추천은 Qwen2.5:1.5b 7b 등이 나오고 잠시 찾아보니 3.5 72b정도인가는 RAM이 참 빵빵해야한다고 나오네요.. 그냥 DRAM이라면 128GB짜리 Desktop이나 32GB짜리 서버도 있으니,…