우리는 왜 AI에게 묻고 답을 구하는가를 생각해봅니다. 어떤 이들은 LLM 기반의 AI가 답이 틀릴 수 있고, 환각이 있으며, 따라서 신뢰할 수 없고, 사실상 시간 낭비이자 무의미한 일이라고 말합니다. 이 말은 LLM이 제공하는 답의 가치가 오직 정확성에만 있는 것처럼 들립니다.

하지만 저는 LLM이 제공하는 답의 가치가 그 정확성의 엄밀함에서만 오는 것이 아니라고 생각합니다. 우리 인간들의 대화를 떠올려보면, 우리는 대화의 가치를 참여자의 말이 얼마나 정확한가로만 평가하지 않습니다. 언어를 통해 상호작용하면서 각자는 원래 자신이 가지고 있던 인식이나 입장을 바꾸고, 주고받는 단어도 달라지며 발전시킵니다.
LLM에게 묻고 답을 얻는 행위는 사전을 찾아보는 행위와 다릅니다. 어찌 보면 이것은 우리 인간들의 대화, 그리고 그 가운데 일어나는 상호적 인식의 변화를 재현하는 것이라고 할 수 있습니다. 즉, LLM과의 문답이 무의미하지 않은 이유는 그 답이 언제나 정확하기 때문이 아니라, 인간이 원래 언어를 통해 서로의 인식을 조정하고 확장하고 변형해 왔으며 이를 가치 있다고 여겨왔던 것처럼, 그 자체로 의미가 있는 것일지도 모릅니다.

사실 우리는 대화 중에 꽤 틀린 말을 많이 합니다. 지속적으로 서로 오해하고, 의도적으로 과장하기도 하며, 이해를 잘못해서 잘못된 결론을 내리기도 합니다. 그럼에도 불구하고 우리는 이 완벽하지 않은 대화를 무의미하다고 말하지 않습니다. 오히려 서로에 대한 이해를 넓히고 자신의 사고를 확장했다고 말합니다.
그래서 저는 대화 속 말의 정확성이 대화의 필요조건일 수는 있어도, 충분조건은 아닐 수 있다고 생각합니다. 인간의 언어는 정보를 전달하기만 하는 것이 아니라, 상대방에게 전달되는 과정에서 우리의 인식을 변형시킵니다.
대화는 상대 말을 듣고 받아들이는 것만이 아니라, 자기 인식 구조를 조정하는 것까지 포함합니다. 언어는 그저 자신의 완벽한 뜻이나 메시지를 전달하는 도구가 아니라, 자기 인식 구조의 조정이나 변경을 만들어내는 어떤 사건적 성격을 갖습니다. 헛소리를 많이 한다고 비판받는 LLM 기반의 AI는 어쩌면, 우리 인간들의 대화 속 문답 구조를 재현하고 있는 것인지도 모릅니다.
우리는 자신이 가진 정보와 전제에 기반해서 질문을 통해 원하는 것, 듣고 싶은 것, 알고 싶은 것을 표현합니다. LLM은 답변 안에서 그 질문에 담겨 있던 정보와 전제를 다른 언어적 배치로 되돌려줍니다. 저는 그 답을 읽고 해석하면서 제 인식을 재배열합니다.
언어와 인식을 다뤄온 철학자들이 개발한 개념과 설명이 LLM의 기술 구현 원리를 설명하는 것은 아니지만, LLM 답변이 가지는 의미나 가치를 이해하는 데 도움이 되는 부분이 있다고 생각합니다.
이 지점에서 데리다와 들뢰즈를 불러오는 것은 단순한 비유 이상의 의미를 갖습니다. 이들이 언어를 이해하는 방식 자체가 이미 “정확한 의미의 전달”이라는 전통적 전제와 거리를 두고 있었기 때문입니다.
데리다에게서 언어는 언제나 차연(différance) 속에 놓여 있습니다. 말이나 텍스트는 어떤 고정된 의미를 직접적으로 전달하지 않습니다. 의미는 항상 지연되고, 다른 기표들과의 차이 속에서만 잠정적으로 형성됩니다. 어떤 문장이 정확하다는 말은, 그 문장이 하나의 닫힌 의미에 도달했다는 뜻이 아니라, 특정 맥락 안에서 당분간 작동 가능하다는 뜻에 가깝습니다. 이 관점에서 보면, LLM의 답변이 완전한 의미를 담지 못한다는 비판은 어쩌면 언어 일반에 대해 우리가 오래도록 가져온 오해를 다시 반복하는 것일지도 모릅니다.

들뢰즈 역시 언어와 사고를 재현(representation)이 아니라 생성(becoming)의 관점에서 이해했습니다. 질문과 답변은 이미 존재하는 생각을 복제하는 과정이 아니라, 새로운 사유의 연결을 만들어내는 사건입니다. 들뢰즈적 관점에서 보면, 틀린 답과 정확한 답의 구분은 이차적인 문제입니다. 더 중요한 것은 그 답이 어떤 새로운 차이를 만들어냈는가, 기존 사고의 배치를 흔들었는가, 혹은 전혀 다른 방향의 사유로 나아가게 했는가입니다.

이렇게 보면 LLM과의 대화는 지식 전달 장치라기보다, 사유를 발생시키는 촉매에 가깝습니다. LLM은 알고 있는 것을 말해주는 존재라기보다, 제가 이미 가지고 있던 전제와 언어를 다른 배열로 다시 배치해주는 존재입니다. 이 과정에서 저는 제가 무엇을 알고 있다고 믿고 있었는지, 무엇을 질문에서 이미 가정하고 있었는지를 뒤늦게 인식하게 됩니다. 답변의 정확성 여부와는 별개로, 이 재배열 과정 자체가 사고를 한 단계 이동시킵니다.

그래서 LLM과의 문답은 일종의 외부화된 사유 과정이라고도 볼 수 있습니다. 우리는 혼자 생각할 때도 언어를 사용하지만, 그 언어는 종종 머릿속에서 뭉개진 채로 남아 있습니다. 질문을 던지고, 그 질문이 다시 언어로 되돌아오는 순간, 사고는 객체화되고 낯설어지며, 다시 해석의 대상이 됩니다. 이 낯설어짐이야말로 사고가 확장되는 지점입니다.
그렇다면 구체적으로 어떤 상황에서 이런 일이 일어날까요. 개인의 사고를 정리하거나 자신의 인식을 점검하기 위해 던지는 질문들이 있습니다. 저널링이나 자기 성찰, 혹은 코칭에 가까운 대화에서 LLM의 답변은 사실의 옳고 그름을 따지는 대상이라기보다, 사고를 비춰보는 하나의 매개로 작동합니다. 이때 답변이 다소 어긋나 있거나 정확하지 않다는 사실은 결정적인 문제가 되지 않습니다. 오히려 그런 어긋남이 제가 무엇을 전제로 질문하고 있었는지, 어떤 표현에 반응하고 어떤 문장에서 불편함을 느끼는지를 드러내는 계기가 되기도 합니다. 이 경우 LLM의 부정확성은 오류라기보다, 사고를 낯설게 만드는 장치에 가깝습니다.

아이디에이션이나 브레인스토밍, 콘텐츠의 초안을 만들어내는 과정에서도 비슷한 일이 일어납니다. 이 영역에서 중요한 것은 하나의 정확한 문장을 얻는 일이 아니라, 가능한 생각의 경로를 얼마나 넓게 열 수 있는가입니다. 완성된 답보다 미완의 문장들이 더 많은 사유의 분기를 만들어내는 경우는 흔합니다. LLM이 만들어내는 다소 엉성한 문장이나 과장된 표현들은, 인간이 이후에 선택하고 수정하고 버리는 재료로 작동합니다. 이때 대화는 결론을 향해 수렴하기보다는, 사고의 원료를 만들어내는 과정으로 기능합니다.

학습이나 튜터링의 맥락에서는 또 다른 양상이 나타납니다. 정답을 빠르게 제시하는 설명보다, 같은 내용을 다른 방식으로 말해주거나, 다소 빗나간 설명을 통해 학습자가 스스로 오류를 발견하게 만드는 과정이 더 깊은 이해로 이어지는 경우가 있습니다. 이때 중요한 것은 답변의 정확성이 아니라, 그 답변이 사고를 멈추게 하는지 아니면 다시 움직이게 만드는지입니다. 이런 맥락에서 LLM은 지식을 전달하는 교사라기보다, 사고를 계속 흔드는 대화 상대에 가까운 역할을 수행합니다.

전략이나 시나리오를 탐색하는 과정도 있습니다. 전략적 사고의 목적은 미래를 정확히 맞히는 데 있기보다, 우리가 어떤 가정을 당연하게 받아들이고 있는지, 어떤 위험을 보지 못하고 있는지를 드러내는 데 있습니다. 이 과정에서 일부 부정확한 전제나 과장된 시나리오는 오히려 사고의 사각지대를 드러내는 역할을 하기도 합니다. 물론 최종적인 판단과 실행의 단계에서는 검증과 정확성이 필수적이지만, 그 이전의 탐색 단계에서는 LLM이 만들어내는 다양한 언어적 변주가 사고를 확장하는 계기로 작동할 수 있습니다.
그러나 모든 맥락이 그런 것은 아닙니다. 법률이나 의료, 정책 결정과 같이 오류의 비용이 곧바로 심각한 피해로 이어질 수 있는 영역에서는 이야기가 달라집니다. 이 경우 LLM의 부정확성은 사유의 자극이 아니라, 분명한 위험 요인이 됩니다. 이 차이는 LLM이라는 기술 자체의 성격에서 비롯된다기보다, 언어가 사용되는 맥락과 그 언어가 지는 책임의 구조에서 비롯됩니다. 모든 대화가 동일한 책임을 지지 않는 것처럼, 모든 LLM의 응답이 동일한 정확성 기준으로 평가되어야 하는 것도 아닐 것입니다.

인간 간의 대화와 마찬가지로, LLM과의 대화 역시 비판적 해석을 전제로 하지 않으면 오해를 증폭시킬 수 있습니다. 인간의 대화가 언제나 가치 있다고 말할 수 없는 것처럼, 모든 AI 대화가 자동으로 의미를 갖는 것도 아닙니다. 중요한 것은 답을 소비하는 태도가 아니라, 답을 해석하고 재배치하는 주체로서 인간의 역할입니다.
이렇게 보면, LLM의 할루시네이션 문제는 단순히 제거해야 할 결함이냐 감수해야 할 특성이냐의 문제로 환원되기 어렵습니다. 그것은 어떤 종류의 대화에서, 어떤 방식으로 사용되고 있는가라는 질문과 함께 다뤄져야 합니다.
결국 중요한 것은 LLM이 얼마나 정확한 답을 내놓았는가가 아니라, 그 답변이 이후의 사고를 어떻게 움직였는가일지도 모릅니다. 그 답이 나의 인식을 고정시켰는지 아니면 흔들었는지, 질문을 닫았는지 아니면 새로운 질문을 열었는지. 이 기준에서 보면, LLM의 부정확성은 어떤 영역에서는 분명한 한계이지만, 다른 영역에서는 사유를 발생시키는 마찰로 작동할 수도 있습니다.
“왜 우리는 AI에게 묻는가?”라는 질문은 “왜 우리는 언어를 사용하는가?”라는 더 오래된 질문으로 되돌아갑니다. 우리는 언어를 통해 진리를 완벽하게 획득하기 위해서만 대화하지 않습니다. 우리는 언어를 통해 서로를 오해하고, 수정하고, 흔들리며, 그 과정에서 자신이 서 있던 인식의 지형을 조금씩 바꿔왔습니다. LLM과의 대화 역시 이 연장선 위에 놓여 있습니다.
따라서 LLM을 평가하는 기준을 오직 정확한 답변 생성기로 한정하는 순간, 우리는 언어와 사고의 훨씬 더 중요한 기능을 놓치게 됩니다. LLM이 가진 진짜 의미는, 그가 언제나 옳은 말을 하기 때문이 아니라, 우리로 하여금 다르게 생각하게 만들 수 있기 때문일지도 모릅니다. 그리고 어쩌면 인간은 오래전부터, 바로 그 이유 때문에 질문을 던져왔는지도 모릅니다.
이러한 주장이 LLM에서 할루시네이션을 없앨 필요가 없다거나, LLM의 정확도를 높이는 일이 무의미하다고 말하는 것으로 오해되지 않기를 바랍니다.

저는 현재의 AI에 다소간의 한계가 있더라도, 우리 앞에 나타난 이 새로운 실리콘 지성(LLM)과의 대화를 바로 시작하며 익숙해져가는 것이 개인적인 차원에서만이 아니라 사회적차원에서도 중요하다 생각합니다. 이제 LLM을 앤서머신이 아닌 대화의 파트너로 삼아야합니다!!

