🤟🏾

3 원칙. AI를 사람처럼 대하고, 어떤 유형의 사람인지 AI에게 알려준다. (1)

나는 지금부터 의도적으로 잘못된 표현을 쓰려고 한다. 그것도 한 번이 아니라 여러 번에 걸쳐서. 지금부터 이
책에서 AI를 의인화할 것이다. 그 말은 "AI가 '생각한다"라고 쓰는 대신 "AI가 생각한다"라고 쓰겠다는 말이다.
작은 따옴표의 유무가 별것 아닌 것으로 느껴질지 모르지만, 이는 중요한 차이다. 전문가 중에 AI를 의인화는
것에 불안해 하는 사람이 많다. 여기에도 그럴만한 이유가 있다.
 
의인화는 인간이 아닌 것에 인간의 특성을 부여하는 행위이다. 사람은 주위의 모든 것을 의인화하는 경향이 있
다. 구름에서 사람의 얼굴을 찾아내고, 날씨에 의도를 부여하고, 반려동물과 대화를 나눈다. 이렇게 보면 AI를
의인화하고 싶은 것은 놀라운 일이 아니다. 특히 LLM과 나누는 대화는 사람과의 대화처럼 느껴지기에 더더욱
그렇다. 이런 시스템을 설계하는 개발자와 연구원조차 자신이 개발한 제품을 인간과 비슷한 용어로 설명하는
함정에 빠질 수 있다. 우리는 AI라는 복잡한 알고리즘과 계산이 이해하고, 학습하며, 더 나아가 느낀다고 표현
함으로써 친숙함과 공감대를 조성하지만, 동시에 혼란과 오해를 불러일으킬 수도 있다.
 
이런 걱정을 한다는 사실 자체가 무의미해 보일 수 있다. 따지고 보면 의인화는 인간심리의 무해한 특성일 뿐
이며, 우리가 타인과 공감하고 관계 맺는 능력을 갖고 있음을 보여주는 증거이기 때문이다. 하지만 AI를 인간
처럼 대하는 것의 윤리적, 인식론적 함의에 대해 깊이 우려하는 연구원이 많다. 실제로 연구원인 게리 마커스
(Gary Marcus)와 사샤루치 오니(Sasha Luccioni)는 사람들이 AI를 의인화하는 경향이 짙어질 수록 AI를 악용
할 가능성도 그만큼 커진다 라고 경고했다.
 
클로드(Claude)나 시리처럼 인간과 비슷한 AI인터페이스나 애초에 공감 능력이 있는 것처럼 착각하게 설계된
사교용 로봇과 심리치료용 AI를 생각해 보자. 의인화가 단기적으로는 유용할지 몰라도 장기적으로는 기만과
감정조작에 관한 윤리적 문제가 제기된다. 우리는 기계인 AI가 인간의 감정을 공유한다고 속고 있는 것일까?
그리고 이런 착각으로 인해 AI기업이나 AI를 운영하는 사람과 소통하고 있다는 사실을 깨닫지 못한 채, 우리
의 개인 정보를 노출하고 있는 것은 아닐까?
 
AI를 사람처럼 대하면 대중, 정책 입안자, 심지어 연구원에게도 비현실적인 기대, 잘못된 신뢰, 부당한 공포를
유발할 수 있다. 또한 소프트웨어라는 AI의 본질을 흐려서, 그 기능과 목적에 대한 오해를 불러일으킬 수 있다.
더 나아가 우리가 AI 시스템과 상호작용하는 방식에도 영향을 미쳐서 우리의 행복, 사회적 관계를 어지럽힐 수
도 있다.
 
그러므로 앞으로 이 책에서 AI에 대해 '생각한다, 학습한다. 이해한다. 결정한다. 느낀다'와 같은 표현을 사용할
때는 은유적인 표현임을 기억해 주길 바란다. AI 시스템에는 의식, 감정, 자아감, 신체적 감각이 없다. 그렇지만
두 가지 이유 (단순한 이유와 복잡한 이유)로, 그런 것들이 있는 것처럼 다룰 것이다. 단순한 이유는 바로 서술
의 편의성 때문이다. 사물에 관해 이야기하는 것은 어렵지만, 인간에 관해 이야기하는 것은 훨 씬 쉽다. 복잡한
이유는, 조금 불완전한 비유이지만, AI를 인간이 만든 기계가 아니라 외계인처럼 생각하는 것이 AI와 협력하기
에 가장 수월하기 때문이다.
 
그럼 지금부터 기계를 의인화하는 오류를 저지르기 시작해 보자. 우리와 협력하는 AI를, 우리에게 만족을 선사
하고 싶어 하지만, 진실을 왜곡하는 경향이 있으며, 무척 행동이 빠른 인턴이라고 상상하자. 지금껏 우리는 AI
를 감정이 없는 논리적인 로봇이라고 생각해 왔지만, LLM이 작동하는 방식은 인간과 비슷하다. 이들은 창의적
이고, 재치 있으며, 설득력이 뛰어나다. 하지만 답변을 강요하면 애매하거나 그럴듯하게 들리는 거짓 정보를
만들어 내기도 한다. LLM은 그 어떤 분야의 전문가도 아니지만, 전문가의 표현방식을 흉내내서 우리에게 도움
을 준다. 또는 반대로 판단을 그르치게 할 수도 있다. 실제 세계에 대해 알지 못하면서도 상식과 패턴에 기초해
서 그럴듯한 시나리오와 이야기를 만들 수도 있다. (현재로서는) 친구로 볼 수 없지만, 우리가 제시한 피드백과
상호작용을 통해 학습함으로써 각자의 취향과 성격에 맞게 조정될 수 있다. 심지어 감정적 조작에도 반응하는
것으로 보인다. 연구원들의 보고에 따르면 "이건 내 경력에 중요한 문제야."라고 말하면서 질문을 던질 때 LLM
이 더 나은 답변을 내놓는다고 한다. 요컨대 LLM은 상대방의 말을 쉽게 믿고, 심지어 잘 속아 넘어간다.
 
이러한 관계를 최대한 활용하려면 명확하고 구체적인 인격을 설정해서, AI가 누구이며 어떤 문제를 해결해야
하는지 규정해야 한다. LLM은 사용자가 프롬프트에 입력한 내용의 다음 단어 또는 단어의 일부를 예측하고,
그 뒤로도 계속 그 다음 단어를 예측해 나간다는 점을 기억하자. LLM은 학습에 사용된 문서의 일반적인 패턴
을 따르는 경향이 있기 때문에, 처음에 내놓는 기본적인 답변은 대단히 포괄적이고 일반적인 내용처럼 들릴 것
이다. 이러한 패턴을 깨면 훨씬 더 유용하고 흫미로운 답변을 들을 수 있다. 패턴을 깨는 가장 쉬운 방법은 맥락
과 제약을 정해 주는 것이다. 즉 자신이 누구인지 말해 주는 것인데 이렇게 하면 시스템에 일정한 관점을 제시
할 수 있다. LLM에게 경영대학원 교수의 입장이 되어 달라고 하면, 서커스 광대의 입장에서 답해 달라고 했을
때와 다른 답변을 제시할 것이다. 이는 마법 같은 일이 아니다. 빌 게이츠(Bill Gates) 처럼 답변해 달라고 요청
한다고 해서, LLM이 더 훌륭한 사업 조언을 해 주는 것은 아니다. 그렇지만 원하는 목적에 맞는 어조와 방향을
잡는 데는 도움이 될 수 있다.
 
AI의 페르소나(다른이에게 보이고 싶은 외적인격)를 정해둠으로써 더 나은 답변을 얻을 수 있는 몇 가지 예를
소개해 보겠다. 당신이 마케팅 책임자라고 가정해 보자. 건강 상태를 추적하는 스마트 워치 신제품을 홍보하기
위해 시선을 사로잡는 마케팅 슬로건을 만들고자 한다. 이때 아무런 맥락이나 제약 조건 없이 LLM에게 스마트
워치를 홍보할 마케팅 슬로건을 만들어 줘. 라고 요청하면 다음과 같은 결과를 얻게 된다.
 
당신을 스마트하게 지켜 주는 스마트 워치
당신의 건강 파트너
현대인의 라이프 스타일에 맞는 최적의 디바이스
스마트 워치로 연결과 건강을 유지하라
모든 기능을 갖춘 스마트 워치
 
이런 문구는 그다지 독창적이지도, 기억에 남지도 않는다. 모든 스마트 워치나 웨어러블 디바이스에 적용할 수
있는 일반적인 마케팅 슬로건처럼 들리며, 제품의 고유한 특징이나 매력을 하나도 담아내지 못했다. 그렇다면
이제 LLM에게 어떤 역할을 맡았고 무엇을 해야 하는지 알려 주자. 약간의 맥락과 제약조건을 설정한다고 생각
하면 된다. 예를 들어 '재치있는 코미디언이 되어 사람들에게 웃음을 선사하는 마케팅 슬로건을 만들어 보라’
고 지시하는 식이다. 그러면 다음과 같은 결과를 얻을 수 있다. (읽어 보면 알겠지만, 대부분의 AI는 소위 아재 개그 수준을 넘지 못한다..)
 
건강해 보이고 싶은 게으른 사람을 위한 최고의 디바이스
손목이 무료로 잔소리를 해줄 수 있는데, 왜 개인 트레이너를 고용하나요?
 
물론 코미디언이 되고 싶거나 특별히 유머를 좋아하는 것이 아니라면, 굳이 AI에게 코미디언 역할을 맡길 필요
는 없다. 전문가, 친구, 비평가, 이야기꾼 등 목적에 맞는 역할을 맡아달라고 요청하면 된다. 가장 중요한 것은
사용자의 기대와 필요에 맞는 결과물을 산출하도록 지침과 방향을 LLM에게 제시하고, 흥미롭고 독특한 답변
을 내놓을 수 있는 사고방식을 갖도록 하는 것이다. 연구에 따르면, AI에게 특정한 페르소나를 맡아서 답변해
달라고 요청하면, 그러지 않았을 때보다 훨씬 나은 답변을 내놓는다고 한다. 그렇지만 어떤 페르소나가 가장
효과적인지는 명확하지 않을 때가 많다. LLM은 사용자의 질문 기법에 따라 페르소나를 조금씩 조절하기 때문
에, 능숙하지 않은 사용자에게는 덜 정확한 답변을 제공할 수도 있다. 따라서 직접 실험하는 것이 중요하다.
 
일단 AI에게 특정한 페르소나를 부여하면, 다른 사람이나 인턴과 일하듯 , AI와 함께 작업할 수 있다. 나는 예전
에 학생들에게 수업에서 다룬 주제를 논하는 다섯 단락짜리 에세이를 과제로 주면서, AI를 활용할 수록 허락한
적이 있다. 이때 페르소나로 접근하는 방식의 가치를 실제로 목격했다. 처음에는 학생들이 단순하고 애매모호
한 지시를 내렸고, 결과물도 그저 그런 수준이었다. 그러나 학생들이 다양한 전략을 시도하면서 AI 결과물의
품질이 크게 향상됐다. 이 수업에서 나온 대단히 효과적인 전략 한 가지는 AI를 공동 편집자로 설정해서 AI와
대화를 주고받는 방법이었다. 학생들은 AI를 활용하는 방식을 끊임없이 개선하고 전환해서, 처음 시도했던 것
보다 훨씬 인상적인 에세이를 만들어 냈다.
 
AI 인턴은 엄청나게 빠르고 박식하지만, 완벽하지 않다는 점을 잊지 말자. AI를 비판적인 시각으로 바라보고,
자신에게 적합한 도구로 대하는 것이 중요하다. AI 에게 페르소나를 부여하고, 작업과정에 함께 참여하며 지속
적으로 지침을 제공한다면 우리는 AI를 협력적인 공동지능으로 활용할 수 있을 것이다.