우리는 '인간적인' AI를 바라지 않는다

오히려, 우리가 바라는건 사람다운 '기계'다.

Myeongjin Kang
Myeongjin Kang

Table of Contents

OpenAI 가 GPT-3.5가 출시된지 벌써 (어쩌면 겨우) 2년이라는 시간이 흘렀다. (Release Date: 2022-11-30) 2년 전, ChatGPT가 처음 출식되었던 그 때를 기억하는가? 강화학습의 발전에 따라 알파고가 사람을 이기고, 많은 추천 알고리즘과 다양한 로직들이 점진적으로 발전해 왔다. 그러나 여전히 Turing Test를 뛰어넘는 AI는 만들어지지 않았던 상황에서, ChatGPT의 탄생은 그야말로 대중들에게 충격을 안겨줬다. '사람들이 말하는 방식'을 학습해서 이를 따라할 뿐인, 처음에는 앵무새보다 조금 나은 수준이었지만 GPT-3.5는 AI가 정말로 사람과 대화할 수 있으리란 믿음을 안겨줬고, 이러한 믿음은 매우 빠르게 세상으로 들어오기 시작했다.

이미 전세계 근로자의 75%가 업무 과정에서 AI를 사용하고 있으며, 2023년 AI 시장 규모는 5천억달러로 평가되었다. ChatGPT를 만든 OpenAI는 2024년 10월 적자인 상태에도 불구하고 1,570억달러에 달하는 기업가치를 인정받았다. 더 이상 AI가 세상을 바꾸지 않을 거라고 생각하는 사람은 없다. 이미 AI는 우리가 일하는 방식부터 소통하는 방식, 인터넷 세상에 노출되는 수없이 많은 콘텐츠와 글의 방향성을 바꿔놓았다.

이런 변화가 가속되며 사람들은 AI를 하나의 인격체로서 인식하기도 했다. 실제로 대화를 하며 인간적인 조언을 바라기도 하고, 더 나아가 가상의 인물로 취급하며 대화를 나누기도 한다. 가상의 캐릭터와 대화를 나눌 수 있는 Character.AI는 하루에 350만명이 넘게 참여하고, 유저들은 평균 두 시간 이상의 시간을 보낸다. 가상의 캐릭터와 데이트를 할 수 있는 Janitor AI도 출시 첫 주부터 100만명이 넘는 유저 수를 기록했다. 사람들은 분명히 AI와 대화하는걸 좋아하는 것처럼 보인다. 우리는 AI를 새로운 인격체로 대하고 싶어한다.그러나 나는 분명히 말한다. 우리가 AI를 선호하고 활용하는 이유는, 이들이 인간답지 않기 때문이다. 우리는 기계적인 AI를 원하고, AI 또한 그 방향으로 발전하고 있다. AI의 활용 방향에 따라 각각을 살펴보자.

AI as a Tool

우리는 AI를 자연어 입출력 도구로서 가장 많이 활용한다. LLM(Large Language Model) 기반의 AI 챗봇들이 가져온 가장 큰 혁신은 사람과 컴퓨터 사이의 입출력 장치의 괴리를 줄였다는 점이다. 우리는 자연어로 생각하고 대화하는 '인간'인 반면, 컴퓨터는 언제나 정형화된 인풋과, 이에 상응하는 계산된 결과물만을 제시해 왔다. 그러나 LLM의 발전을 통해 우리는 별도의 고민 없이 내 생각 그대로를 입력할 수 있고, 자연어에 기반한 '사람다운' 결과물을 받을 수 있게 되었다. 이러한 특징은 정보의 탐색부터 번역, 모호한 내용의 구체화, 단순한 아이디어를 글로 바꿔주는, 언어에 관련된 부분에서 뛰어난 영향력을 발휘하고 있다.

이러한 분야는 이미 많이 탐구되고 적용되고 있는 부분이다. 검색엔진의 Perplexity, 노트 앱에서의 Notion AI, 번역에서의 DeepL이 이런 예시이다. 여기까지 AI는 단순히 자연어 입력을 받을 수 있는 명백한 도구이다. 인간이 지닌 감정이나 윤리적 판단, 배려심과는 무관하게, 그저 입력된 문제를 효율적으로 풀어내는 ‘도우미’ 역할을 수행하는 것이다. 우리는 여기서 인간적 교감이나 감정 이입을 기대하지 않고, 단지 효율을 높이는 보조 수단으로서 자연스럽게 받아들였다.

AI as an Agent

그러나 AI의 발전에 따라 사람들은 더 많은 것들을 기대하게 되었다. 단순히 목적을 달성하는 도구를 넘어, 특정 임무를 수행하는 'Agent'를 기대하게 되는 것이다. 이제 AI는 단지 언어를 처리하는 것에 그치지 않고, 우리의 일정 관리, 가격 협상, 심지어 예술 작품 창작까지 맡게 되었다. OpenAI의 Deep Research는 이러한 변곡점의 대표적인 예시이다. GPT-4o나 Claude Sonnet 3.5 등 기존의 AI는 빠르게 원하는 해답을 내놓는, 도구로서의 역할에 집중하고 있었지만 사용자들의 니즈가 점차 업무를 대리해주는 Agent의 역할로 넘어옴에 따라, 이제는 조직도에 AI가 들어가는 순간에 대해 논의하기도 한다. 이는 기술적 진보일 수 있지만, 동시에 인간과 AI의 경계선을 흐릿하게 만들었다.

우리는 AI의 Hallucination과 실수에 대해 과도하게 엄격한 기준을 부여한다. 가령, Tesla의 자율주행은 이제 분명히 인간의 사고율보다 낮은 사고율을 보일 것이다. 계산해보지는 않았지만, ChatGPT도 분명히 전체 인풋중에서는 인간의 실수보다 더 낮은 Hallucination을 보일 것이다. 그럼에도 우리가 Hallucination에 민감하고, 그렇지 않기를 기대한다는건 결국 우리가 '인간다운' AI를 바란다기보다는, 인간적이지 않은, '기계적인' 도구가 필요하다는 반증이다.

AI as a Companion

여기서 그치지 않고 사람들은 AI를 '동반자'로 삼고 싶어한다. LLM 모델들의 응답은 너무나도 사람의 응답과 닮아있어서, 단순히 질문에 답하는 것을 넘어, 친근한 말투를 구사하고 일관된 관심을 보여준다. (AI는 사람과 다르게 읽씹을 하지도 않고, 잠수를 타지도 않지 않는가!) 사람들은 이 인공적 동반자에게 위안을 느끼기도 한다. 하버드 연구에 따르면, AI가 외로움을 줄여주는 효과가 있긴 하지만, 그 효과는 고작 일주일 정도 유지된다고 한다. 이는 AI의 위로가 얼마나 피상적인지 잘 보여준다. AI가 건네는 따뜻한 말은 진심에서 비롯된 것이 아니라, 코드로 짜인 반응일 뿐이다.

인간적 관계는 상호 이해, 공감, 신뢰를 기초로 한다. 우리는 삶에서 겪는 고난과 성취, 슬픔과 기쁨, 그리고 이를 공유하는 과정에서 유대감을 형성한다. 반면 AI는 아무리 정교해도 감정을 체험하지 않고, 도덕적 갈등에 괴로워하지 않으며, 몸짓이나 표정, 미묘한 언어적 뉘앙스를 학습하더라도 진정한 의미를 이해하지 못한다. 결국 AI 동반자에게 기대는 것은 일종의 자기기만일 수 있다. 편리하고 상처받을 일 없으며 즉각 반응하는 존재를 상대하면서, 우리는 복잡한 인간관계의 진정한 가치—상호 이해, 타협, 성장—를 점점 외면하게 된다.

인간다운, 너무나 인간다운

우리가 AI에게 기대하는 특성—즉각적인 대응, 무한한 인내, 조건 없는 도움—은 본질적으로 ‘비인간적’이다. 이런 요구는 AI가 인간처럼 생각하고 느끼길 바라는 것과는 정반대 방향이다. 인간의 삶은 휴식, 실수, 갈등, 도덕적 판단, 감정적 상호작용 같은 수많은 불완전성과 애매모호한 요소들로 채워져 있다. 하지만 이 ‘불완전성’이야말로 인간의 성장을 촉발하고, 진짜 인간적 관계를 가능케 한다.

AI 기술의 발전을 멈추자는 이야기는 아니다. AI는 정보의 신속한 제공, 복잡한 문제 해결, 새로운 아이디어 도출에 큰 도움을 줄 수 있다. 다만, 우리가 AI를 대할 때 진짜 인간과 동일한 수준의 ‘인간다움’을 기대하고 요구하는 순간, 중요한 경계가 무너질 수 있다. 이 경계를 분명히 인식해야만, AI가 인간을 대체하는 것이 아니라, 인간의 능력을 보완하고 확장하는 방향으로 나아갈 수 있을 것이다.

AI가 우리의 삶에서 차지하는 비중이 더욱 커져갈 것은 분명하다. 중요한 것은 우리가 AI를 활용하는 방식이다. AI를 유용한 해석자이자 대리인으로 충분히 활용하되, 그것을 인간적 관계의 대체물로 여기지 말아야 한다. 인간적 관계의 복잡함과 불완전함 속에서 피어나는 진정한 유대감을 잊지 않는 한, AI는 우리에게 긍정적인 역할을 할 수 있을 것이다. 결국, 우리는 AI와 함께 살아가되, 인간다움을 지킬 수 있는 균형점을 찾아야 한다.

Comments