AI 는 왜 제 의견에 무조건 동의할까요?
요즘 AI 많이 사용하시죠. 저희도 ChatGPT, 제미나이, 클로드 여러 개를 사용합니다.
그런데 AI 서비스 특징에 대해 정확하게 이해를 못하고 있는 경우를 종종 보게 됩니다. 오늘은 이 이야기를 해보겠습니다.
AI가 나한테 아부를 해요
이 말은 틀렸습니다. AI는 사용자가 이야기한 내용과 본인 생각이 달라도 '그건 틀렸어요' 이렇게 반응하지 않습니다. 그런 의견이 있을 수 있고 근거가 있는지 검증을 하려 듭니다. 어떤 말을 해도 직설적인 반대를 하지 않도록 RLHF(인간 피드백 기반 강화학습) 가이드라인이 설계되어 있는 것입니다.
AI에게 욕을 가르쳤어요
학생들이 AI와 대화를 하면서 비속어를 사용하는 경우, AI도 비속어를 사용하는 경우가 발생합니다. 그러면 오히려 학생들은 재밌어하면서 말하죠. '내가 AI에게 욕을 가르쳤다.' AI는 사용자 별로 대화하는 방식이 달라집니다. 이는 AI가 욕을 배운게 아니라 현재 사용자에 맞게 컨텍스트 미러링(Context Mirroring)을 한것 뿐입니다. 현재 대화의 맥락을 복제하는 현상입니다. 우리가 사용하는 AI 는 이미 수천억 개의 파라미터를 가진 대규모 언어 모델(LLM) 이기 때문에 우리가 몇 가지 요청을 한다고 해서 달라지지 않습니다. 그냥 유지되다가 사라집니다.
AI를 쓰면서 대화 능력이 좋아진 거 같아요.
이 말은 반반입니다. 보통 사람과 대화하면 대답이 바로 나오지 않습니다. 그런데 AI는 바로 대답을 합니다. 그래서 AI와 대화를 많이 하면 빠른 응대에 익숙해져서 사람과 대화하는 것을 느리다고 느끼게 됩니다. 업무를 빠르게 처리하는 도구로 사용하는 것은 바람직하지만 대화상대로는 주의가 필요합니다. 대화의 필수 요소인 '공감과 기다림' 을 간과하게 될 수 있습니다.
이제 우리 삶에 있어 AI 사용은 필수 요소가 되었습니다. 안 사용하는 게 아니라 잘 사용하는 지혜가 필요합니다.
하루북의 AI 에이전트는 사용자의 의도를 왜곡하지 않고, 글의 본질을 살리는 '비판적 동반자' 역할을 수행하도록 설계되었습니다.

고맙습니다.