벡터 안에 임베딩되어있는 초기가중치 0.0...0인 “사과”라는 데이터가 기계어로 어딘가에 저장되어 있습니다.
“사과”의 1번 뜻 부터 N번째 뜻까지 모두 따로 가중치를 매겨 양자화 시킨 후
맥락을 파악하는 알고리즘에 의해 “사과”가 해당되면, 입력된 어느 문장에 어울리는 가중치를 가진 “사과의 N번째 뜻”을 불러옵니다.
이 역할을
이용자의 입출력 / 개발자의 테스팅 입출력 / VLM, 사물인식으로 얻어진 텍스트 값이 “사과”인 경우 / VLA를 통해 ‘상대방에게 고개를 숙이며 “죄송합니다”를 말하는 중인 액션을 판별한 후 얻어진 텍스트 “사과”
또는 무언가의 줄임말인 사과의 가중치를 가져오겠네요.
아! 이미 VLM과 VLA단계에 판별가능하군요..
하고싶었던 말은..
기기 스스로 모델 데이터를 쌓아가며 축적하는것 뿐만 아니라, 가중치를 매기는 부분이 통제되지 않으면 가중치를 수정해 장난칠 가능성도 있다는 무서운 상상 해봤습니다.
이름하여 삐딱선 양자화 모델을 가진 AI..
먼훗날 잘못된 신념이 고정돼, 사과의 형태를 가진것만 봤다 하면 고개를 숙여 “죄송합니다”를 말하고 가게 만들 수도 있고,
막 다투고나서 갑자기 나무에 매달린 사과 앞까지 가서 그걸 바라봐야만 화해할 수 있는.. 상황요
기계 입장에서 이게 비효율적인지, 아닌지 의미부여할 이유가 있을지 모를 수 있다는 생각까지요.
따라서 이 부분에 통제가 들어가야겠네용
우리가 가진 수많은 동식물 데이터라는게 잘 저장되어있다면
생명 유지에 필요한 최소한의 정보를 항상 품고있을 수 있도록..
덴스하게, 이 빽빽함을 베이스로 AI의 기억 어느 한 켠에 기록해줘야하지 않을까 싶네요.
이걸 빼면 기계 입장에선 호기심 시작일겁니다.
매순간이 충동적일거란 이야깁니다
죄송하다 하는 사과는 사과(2)
로 기억하지 않을까요.
그리고 출력할때 괄호부분만 빼는거고요
마치 사과와 사과를 헷갈려 하는거 처럼요 ㅎㅎ
지금은 그냥, 이런 상황에선 확률적으로 가장 이걸 이야기 하는게 맞다고 생각하는걸 대답하는거고..
사과 라는 input만 딱 입력하면 아마 가장 적절한 대답인, 어떤 사과를 말하는건지에 대해서 확인을 하는 단어들을 생성하겠죠. 확률적으로(사람이 평가했을 때) 만족했던 단어들을 조합해서요.
단어의 의미는 의미가 없습니다.
호기심? 도 그냥 확률적으로 호기심을 보여주는거 뿐이에요. 진짜 호기심 같은게아니라..