아무래도 LLM이 단어를 예측하는 모델이다보니 감정이나 지능, 자기주도적인 성향을 가질 수 없을 것 같습니다.
그렇다면 인간과 비슷하게 행동하고, 생각하고(외부 명령없이), 감정이라는걸 느끼진 못해도 이해하게 만들고 프로그램을
조작하게 만들려면 어떤 기술들이 합쳐져야 할까요?
LLM을 바닥에 깔고 그위에 더 많은 것들을 학습 시켜야 할텐데, 어떤것들을 위에 쌓아 올리는게 필요할까요?
빨리 인공지능이 사람의 노동을 모두 대체하는 날이 왔으면 좋겠습니다.
2. (일종의 외부 API) 팔다리를 사용하게 하려면 EOS와 같은 스페셜 토큰을 사용하게 하면 됩니다. 지금 chatGPT도 쓰고 있긴 한데, 제한적이긴 합니다. AutoGPT, babyAGI 같은 거 참고하셔도 될듯하고요.
아마 현재로서 가능한 방법은 '선량한 사이코패스들'의 사례를 연구해서, 그런식의 학습을 흉내내게끔 하는 정도가 있지 않을까 싶습니다. (사이코패스가 워낙 따뜻한 가정에 태어나서 사회적 학습이 잘 되어서 자신이 사이코패스인지조차 모르다가 관련 연구를 하면서 자신이 사이코패스임을 알게 된 ... 실화)
책 내용 설명없이 답만 쓰자니 그런데 센서마다 뉴런의 집합을 연결하고 예측동작을 하도록 만들고 & 인공지능을 적어도 2개 이상의 레이어로 만들어서 예측동작을 하는 뉴런의 집합은 직접적인 제어동작을 할 수 없게 하면 자의식이 생기는 듯 합니다.
지금의 인공지능의 근본적인 설계변경이 필요한거죠.