CLIEN

본문 바로가기 메뉴 바로가기 보기설정 테마설정
톺아보기 공감글
커뮤니티 커뮤니티전체 C 모두의광장 F 모두의공원 I 사진게시판 Q 아무거나질문 D 정보와자료 N 새로운소식 T 유용한사이트 P 자료실 E 강좌/사용기 L 팁과강좌 U 사용기 · 체험단사용기 W 사고팔고 J 알뜰구매 S 회원중고장터 B 직접홍보 · 보험상담실 H 클리앙홈
소모임 소모임전체 ·굴러간당 ·아이포니앙 ·주식한당 ·MaClien ·일본산당 ·방탄소년당 ·개발한당 ·자전거당 ·AI당 ·이륜차당 ·안드로메당 ·콘솔한당 ·소시당 ·키보드당 ·PC튜닝한당 ·테니스친당 ·갖고다닌당 ·육아당 ·소셜게임한당 ·노젓는당 ·골프당 ·걸그룹당 ·퐁당퐁당 ·위스키당 ·나스당 ·바다건너당 ·클다방 ·IoT당 ·여행을떠난당 ·디아블로당 ·어학당 ·라즈베리파이당 ·달린당 ·3D메이킹 ·X세대당 ·ADHD당 ·AI그림당 ·날아간당 ·사과시계당 ·배드민턴당 ·야구당 ·농구당 ·블랙베리당 ·곰돌이당 ·비어있당 ·FM당구당 ·블록체인당 ·보드게임당 ·활자중독당 ·볼링친당 ·캠핑간당 ·냐옹이당 ·문명하셨당 ·클래시앙 ·요리한당 ·쿠키런당 ·대구당 ·DANGER당 ·뚝딱뚝당 ·개판이당 ·동숲한당 ·날아올랑 ·전기자전거당 ·e북본당 ·이브한당 ·패셔니앙 ·물고기당 ·도시어부당 ·FM한당 ·맛있겠당 ·포뮬러당 ·젬워한당 ·안경쓴당 ·차턴당 ·총쏜당 ·땀흘린당 ·하스스톤한당 ·히어로즈한당 ·인스타한당 ·KARA당 ·꼬들한당 ·덕질한당 ·가죽당 ·레고당 ·리눅서당 ·LOLien ·Mabinogien ·임시소모임 ·미드당 ·밀리터리당 ·땅판당 ·헌팅한당 ·오른당 ·영화본당 ·MTG한당 ·소리당 ·노키앙 ·적는당 ·방송한당 ·찰칵찍당 ·그림그린당 ·소풍간당 ·심는당 ·패스오브엑자일당 ·품앱이당 ·리듬탄당 ·Sea마당 ·SimSim하당 ·심야식당 ·윈태블릿당 ·미끄러진당 ·축구당 ·나혼자산당 ·스타한당 ·스팀한당 ·파도탄당 ·테스트당 ·빨콩이당 ·공대시계당 ·터치패드당 ·트윗당 ·가상화폐당 ·창업한당 ·VR당 ·시계찬당 ·WebOs당 ·와인마신당 ·WOW당 ·윈폰이당
임시소모임
고객지원
  • 게시물 삭제 요청
  • 불법촬영물등 신고
  • 쪽지 신고
  • 닉네임 신고
  • 제보 및 기타 제안
© CLIEN.NET
공지[점검] 잠시후 서비스 점검을 위해 약 30분간 접속이 차단됩니다. (금일 18:15 ~ 18:45)

AI당

후기
ollama 로컬 LLM vs Google antigravity(Gemini Pro) 개발 능력 비교 8

_내맘대로_
2,225
2026-04-02 08:43:39 수정일 : 2026-04-06 08:53:56 121.♡.78.29

상용 LLM은 비용이 비싸 저처럼 취미 + 업무활용 수준으로 개발을 하기엔 부담이 큽니다.

그래서 구글 제미나이 프로 요금제로 Antigravity(https://antigravity.google/)를 사용하고있습니다.

개발자들의 리뷰를 보면 클로드가 베스트로 보이지만, 개발 이외에 검색, 번역, 문서작성 등 다양한 목적으로 사용하기엔 부족한 점이 많습니다. 개발만 100점인 후임과, 개발은 80점 검색은 100점 번역은 90점.... 이런 후임 중 하나를 골라야 하는 문제이기 때문에 개발자가 아니라면 제미나이나 GPT가 더 적합해 보입니다.


$20달러짜리 요금제는 토큰 제한이 있습니다. 뭔가 만들려고 하다 보면 토큰 제한에 걸려 며칠을 기다려야 합니다. 이 문제를 해결하려면 더 비싼 요금제를 사용해야 하지만 부담이 큽니다. 그래서 로컬 LLM을 사용해 보기로 했습니다. 그런데 로컬 LLM의 개발 실력이 형편 없다면 쓸 이유가 없지요. 궁금했습니다. 로컬 LLM의 개발 실력이 얼마나 좋은지.


저같은 초보에게는 Ollama가 편하고 좋습니다. 그런데 인터넷을 뒤져보니 Ollama와 llama.cpp의 속도 차이가 30%까지 난다고 하네요. 복잡한 요청 하나 하면 1시간 이상 걸리는데 30%면 아주 큰 차이입니다. 그래서 llama.cpp로 갈아타려니 여러가지 문제가 있습니다. 가장 큰 문제는 서버 하나에 모델 하나씩 밖에 올리지 못한다는 것입니다. 2개 이상 모델을 사용하려면 모델을 2개 올려야 하는데 메모리가 하나도 겨우 받아들이니... 이 문제를 해결해 보기로 했습니다. 

1. api로 요청을 하면 모델을 메모리에 올리고 요청을 실행한다.

2. api로 모델을 변경하면 기존 모델을 내리고 새로 요청한 모델을 올린다.

이게 핵심 요구사항입니다. 물론, 이것 보다 더 복잡한 요구사항이 있습니다. 모델 폴더를 지정하면 알아서 불러오고, 메모리 관리도 해야하고...


Antigravity와 Ollama를 연결한 Opencode로 Qewn3-coder-next:q8 모델에게 똑같은 요구사항을 제시하고 앱을 만들도록 시켰습니다. 그 결과는 이렇습니다.


main_a는 Antigravity가 만든 코드입니다. main_o는 Qwen3입니다. Antigravity가 gemini 기반이라 코드의 평가는 ChatGPT에게 요청을 했습니다. GPT의 평가는 Antigravity : 9/10, Qwen3 : 6:10입니다. 무료 모델은 10점 중 6점입니다. 그래도 코드는 제대로 작동을 합니다. 혼자 쓸 코드인데 돈 안내고 토큰 걱정 없이 10점 중 6점이라면... "못 쓸 정도는 아니다" 입니다.

화면 캡처 2026-04-02 075736.jpg


하지만 이정도로 만족이 되지 않아 개선 할 방법을 찾아봤습니다.

Opencode에 Oh-My-Opencode라는 게 있는데 뭔 소리인지 몰라 설치를 안했어요. 그런데 Oh-My-God 수준으로 극찬을 하기에 설치를 해 봤습니다. 오케스트레이션이니 시지프스니 하는게 뭔 소리인지는 모르겠지만, 좋은거 같아 보였어요.


설치를 하고, 로컬 모델을 연결(gemma-3-27b, Qwen-3-coder, Qwen-3.5, gpt-oss, glm4.7)했습니다.

물론 저 모델을 동시에 다 올리지 못합니다. 필요 할 때 올리고, 쓰면 내립니다. 올리고 내리는 시간이 오래 걸리지만, 일 하나 시키고 창을 내려 놓으면 알아서 일을 하는 구조라 느리지만 일을 제대로 합니다.


이번엔 main_o.py "코드의 문제점을 분석하여 개선" 하라고 시켰습니다.

알아서 모델을 바꾼다고 하더니, 그냥 Qwen-3-coder 모델 하나만 쓰네요. 왜 그런지는 모르겠습니다. 코딩 모델은 Qwen3 coder를 사용하고, 코딩을 위한 사전 분석은 다른 모델을 사용합니다. 코딩 결과만 보고 Qwen3만 쓴다고 생각했는데, 지시한 내용을 분석하고, 분석 내용을 바탕으로 계획을 세우고, 코딩을 할 때 각각 다른 모델을 씁니다. 어째든, 코드 개선 하라는 지시를 2번 내렸습니다. 그리고 다시 main_a.py 코드와 비교해 봤습니다.


화면 캡처 2026-04-02 075817.jpg

Oh-My-Opencode는 AI가 자기 일을 제대로 할 때 까지 반복해서 일을 한다네요. 작업 내역을 보면 분석하고 수정하기를 수십번 반복을 했습니다. 그 결과 이런 반전이 생겼습니다. GPT가 가끔 헛소리를 해서 Gemini에게도 물어봤습니다. Gemini도 Opencode 손을 들어 줬습니다.

화면 캡처 2026-04-02 083417.jpg

이정도면 비싼 돈 내지 않고 로컬 모델을 돌릴만해 보입니다.

물론 컴퓨터는 MSI Edgexpert를 쓰고, 큰 모델은 gpt-oss-120b, qwen3.5-122b까지 돌아갑니다. 저 컴퓨터 가격이면 $200짜리 모델을 2년은 쓸 수 있다는....



_내맘대로_ 님의 게시글 댓글
SIGNATURE
내맘대로의 EPUBGUIDE.NET
무료전자도서관 http://jikji.duckdns.org/
서명 더 보기 서명 가리기
  • 주소복사
  • Facebook
  • X(Twitter)
댓글 • [8] 을 클릭하면 간단한 회원메모를 할 수 있습니다.
천문공
IP 122.♡.56.205
04-02 2026-04-02 08:54:05
·
이런 세팅을 연습하다 보면...
점점 더 쓸만해지겠네요.
요즘 공개 모델의 성능이 급격히 올라 오는 중이니...
_내맘대로_
IP 121.♡.78.29
04-03 2026-04-03 08:51:44
·
@천문공님 상용 모델은 모든 일을 잘 하지만 코딩, 이미지 생성 처럼 특정 목적이 있다면 공개 모델도 충분히 성능이 나오는 것 같아요. 다만, 메모리 문제로 큰 모델은 쓰기 어렵다는 단점이 있네요. 상용 모델 최상위 요금제 2~3년치 비용을 hw에 쓸거냐, 아니면 그 돈으로 상용 모델을 편하게 사용 할 거냐의 선택을 해야합니다.
하루세끼
IP 121.♡.186.216
04-02 2026-04-02 23:50:32
·
저와 비슷한 고민을 하고 계십니다. 저는 asus gx10로 비슷한 실험 계획하고 있습니다. 120b도 쓸만한 속도가 나오나요? 70b 넘어가는 모델은 올려 볼 생각도 안 하고 있었는데요.
_내맘대로_
IP 121.♡.78.29
04-03 2026-04-03 08:44:18
·
@하루세끼님 gpt-oss-120b, qwen3.5-122b 모델 잘 돌아갑니다. 속도는 느려도 결과는 확실해 보여줘요.
wipi
IP 222.♡.107.57
04-09 2026-04-09 17:19:29
·
@하루세끼님 ASUS GX10과 MSI EdgeXpert는 동일한 장비로, 둘 다 DGX Spark 기반입니다. 단지 ASUS에서 만들었느냐, MSI에서 만들었느냐의 차이라고 보시면 됩니다.

쿨링 성능에 따라 약간의 성능 차이는 있을 수 있습니다.

저는 MSI 제품을 사용 중인데, 메모리가 128GB라서 120B 모델은 기본적으로 무리 없이 구동 가능합니다.
씨엔
IP 73.♡.107.191
04-03 2026-04-03 23:32:18
·
MSI Edgexperth가 4천불이 넘는군요. ㄷㄷㄷ
_내맘대로_
IP 121.♡.78.29
04-06 2026-04-06 08:55:00
·
@씨엔님 25년 12월 말일 기준 460만원이었어요. 램 가격 상승하며 가격이 급상승 했지요.
Min's
IP 210.♡.174.72
04-04 2026-04-04 21:38:50 / 수정일: 2026-04-04 21:39:57
·
여러 공개 모델들 설치해 코드 에이전트 돌릴 수 있는 클라우드 기반 서비스가 나오면 좋겠네요.
새로운 댓글이 없습니다.
이미지 최대 업로드 용량 15 MB
업로드 가능 확장자 jpg,gif,png,jpeg,webp
지나치게 큰 이미지의 크기는 조정될 수 있습니다.
목록으로
글쓰기
목록으로 댓글보기 이전글 다음글
아이디  ·  비밀번호 찾기 회원가입
이용규칙 운영알림판 운영소통 재검토요청 도움말 버그신고
개인정보처리방침 이용약관 책임의 한계와 법적고지 청소년 보호정책
©   •  CLIEN.NET
보안 강화를 위한 이메일 인증
안전한 서비스 이용을 위해 이메일 인증을 완료해 주세요. 현재 회원님은 이메일 인증이 완료되지 않은 상태입니다.
최근 급증하는 해킹 및 도용 시도로부터 계정을 보호하기 위해 인증 절차가 강화되었습니다.

  • 이메일 미인증 시 글쓰기, 댓글 작성 등 게시판 활동이 제한됩니다.
  • 이후 새로운 기기에서 로그인할 때마다 반드시 이메일 인증을 거쳐야 합니다.
  • 2단계 인증 사용 회원도 최초 1회는 반드시 인증하여야 합니다.
  • 개인정보에서도 이메일 인증을 할 수 있습니다.
지금 이메일 인증하기
등록된 이메일 주소를 확인하고 인증번호를 입력하여
인증을 완료해 주세요.