매 context새로 열때면 기존껄 다 까먹다 보니..
거기다가 새로 프로젝트를 시작하더라도 그 프로젝트에서 제 말을 찰떡같이 알아들을수 있도록 어딘가 중앙에 따로 저장해야 할거 같은데.
그걸 다 참고하다보면 멍청해질거 같고. 어떻게 접근해야 자동으로 제가 덜 신경쓰고 lessons learned를 파악해서 똑똑해질까요.
여전히 감이 잘 안옵니다(제가 수동으로 내가 말하는거에서 lessons learned만 보관해줘 같은 프롬프트 매번 보내는거 말구요)
AGENT.md 에 양식을 잘 맞춰 작성해 두면 항상 잘 지킵니다.
모델마다 규칙을 지키는 면에서 차이는 좀 있습니다.
엔트로픽과 GPT가 잘 지키는 편이고,
제미나이는 약간 부족합니다.
이런 것도 가능합니다.
아니 스킬에는 대개 이런 트리거가 있습니다.
특정 명령을 지정해서 그 지정한 작업에 맞게 .md 문서를 나누어 읽어 오게 할 수 있습니다.
예를 들어
/검증
이런 명령어를 세팅하고,
이 명령어가 들어가면 특정 지침문서를 읽어 와서 적용하는 식입니다.
이런 것들을 모아 두고
스크립트 및 참고 문서,
그리고 에이전트 기능을 묶어 놓은 것을 SKILLs 라고 하며,
깃허브나 클리앙 팁 자료실 등에 있습니다.
대개 흔히 말하는 하네스라고 하는 것이 이런 것들입니다.
예를 들어 에이전트 기능 중에 이런 부분에선 특정 MCP를 불러다 쓰게 하고,
저런 부분은 반복 작업을 가능하게 하고... 이런 식입니다.
AGENT.md는 그냥 읽어 오라고 하지 않아도, 자동입니다.
이것은 나중에 생긴 것으로,
모든 AI가 공통적으로 불러 와 읽는 지침 파일입니다.
제미나이는 GEMINI.md가 루트에 있을 때 읽어 옵니다.
이게 모델 전용이고요.
스킬을 만들 때 모델에 종속 되지 않고 범용적으로 쓰게 하려고,
AGENT.md가 만들어진 것으로 보면 되겠습니다.
그런데 전반적으로 뭔가 쓰는 건 gpt는 영 애매하고, claude가 정말 잘 하더라고요. 무료 플랜이어도 .md파일 정도는 써줄 수 있으니, sonnet으로 써 보세요.
LLM은 이런 종류의 작업에서 약합니다.
- 컨텍스트 경계를 넘나드는 판단이 약해요.
- 암묵적 제약을 읽지 못합니다.
- "아직 존재하지 않는 것"을 설계하는 능력이 약합니다.
- 본인의 불확실성을 과소평가합니다.
모르는 걸 모른다고 하기보다 그럴듯한 답을 내놓는 경향이 있어서, 아키텍처 결정에서는 오히려 위험합니다.
그러면 어떻게 쓰면 더 잘 쓰나:
1) 사고의 파트너로 쓰기 (결정자가 아니라)
A안과 B안의 장단점, 리스크 비교해줘
2) 결정을 문서로 고정하면서 진행하기
계속 문서로 기록하면서 진행하고, 작업을 시킬 때 어떤 문서 참고해야 하는지 사람이 알려주기
3) "할 일이 정의되면"의 단위를 인위적으로 분해하기
한번에 리뷰할 수 있는 규모로 작업을 나눠줘
4) "내가 모르는 것"을 먼저 식별하기
문서에 기록되지 않은 것이 무엇인지 찾아줘
사람들이 에이전트, 스킬 얘기 많이 하던데, 저는 도통 모르겠더라구요.
Claude 기준 기본적인 에이전틱 기능은 충분합니다.
LLM의 제약 상 머리가 (기억력과 넓은 사고가) 딸리는게 문제죠.
현재 기술로 알잘딱깔센은 과도한 욕심이라는 생각입니다.