🧞‍♂️

사람으로서의 AI (1)

AI를 이해하는 데 방해가 되는 잘못된 믿음이 한 가지 있다. AI가 소프트웨어로 만들어졌으니, 기존의 소프트
웨어처럼 작동할 것이라는 생각이다. 이는 인간이 생체 내 화학작용에 따라 작동하니, 다른 화학반응처럼 행동
해야 한다고 말하는 것과 마찬가지다. 물론 LLM이 소프트웨어 공학의 놀라운 결과물 이기는 하지만 사실 기존
의 소프트웨어처럼 작동하는 데 있어서는 형편없다고 할 수 있다.
 
기존의 소프트웨어는 예측이 가능하고, 신뢰할 수 있으 며, 엄격한 규칙을 따른다. 그리고 적절한 개발과 수정
과정을 거치면 매번 같은 결과를 산출한다. 반면 AI는 결코 예측하거나 신뢰할 수 없다. 이전에 본 적 없는 새로
운 해결책을 제시해 우리를 놀라게도 하고, 자신의 능력을 잊어버리기도 하며, 그럴듯하게 틀린 답을 내놓기
도 한다. 이처럼 예측하고 신뢰하기 힘든 AI의 특성 덕분에 아주 흥미로운 상호작용이 오가기도 한다. 내 경우
를 예로 들면, 골치 아픈 어떤 문제에 대해 AI가 내놓은 창의적인 해결책을 듣고 깜짝 놀란 적이 있다. 그런데
내가 같은 문제를 다시 물어보자, AI가 그 문제를 다루지 않겠다고 거부해서 난처했던 경험이 있다.
 
기존의 소프트웨어는 어떤 작업을 수행하는지, 그 일을 어떻게 처리하는지, 왜 그렇게 작동하는지 대체로 잘
알려져 있다. 그런데 AI는 그런 정보를 전혀 알 수가 없다. AI에게 특정한 결정을 내린 이유를 물어보면, AI는
문제를 처리한 과정을 돌아보는 것이 아니라 답할 말을 꾸며 낸다. AI가 이런 식으로 행동하는 이유는 인간과
같은 방식으로 자신의 행동을 돌아보는 처리과정이 없기 때문이다. 마지막으로 기존의 소프트웨어에는 사용
설명서나 지침서가 있지만, AI에는 그런 설명서가 없다. 그러다 보니 사람들은 마법 주문이라도 되듯이 복잡
한 프롬프트를 작성해 공유하기도 한다. 그렇게 모두 각자 실제로써 보면서 AI 활용법을 배우고 있다.
 
AI는 소프트웨어처럼 행동하기보다 인간처럼 행동한다. 그렇다고 시스템에 인간과 같은 지각이 있거나 향후
그렇게 될 것이라고 말하는 것은 아니다. 그저 실용적인 접근법이 필요하다는 점을 말하는 것이다. 나는 AI가
여러 측면에서 인간처럼 행동하니, 인간처럼 대하는 것이 좋다고 본다. 이러한 사고방식은 앞 장에서 설명한
‘AI를 사람처럼 대한다.' 라는 원칙과도 일맥상통한다. 기술적인 측면에서는 맞지 않는 말이지만, 실용적 측면
에서는 AI를 언제 어떻게 사용해야 하는 지 파악하는 데 큰 도움이 될 수 있다.
 
AI는 지극히 인간적인 작업에 뛰어나다. 글을 쓰고, 분석 하고, 코딩하고, 대화할 수 있다. 마케팅 담당자나 컨설
턴트를 대신해서 반복적이고 일상적인 업무를 맡김으로써 생산성을 높일수도 있다. 하지만 AI는 일반적으로
기계가 뛰어난 작업, 예를 들어 일련의 과정을 반복하거나 도움 없이 복잡한 계산을 수행하는 일은 잘 해내지
못한다. AI도 인간처럼 실수를 저지르고, 거짓말을 하고, 그럴듯하게 틀린 답을 내놓는다. 그리고 사람에 따라
강점과 약점이 있듯이, AI도 각기 고유의 강점과 약점이 있다. 이를 파악하려면 해당 AI 모델을 일정 시간 사용
해 봐야 한다. AI의 능력은 작업에 따라 중학생 수준부터 박사수준까지 광범위하게 분포되어 있다.
 
사회과학자들은 심리학에서 경제학에 이르는 다양한 분야에서 인간을 대상으로 하는 것과 똑같은 실험을 AI
에게 실시해서, 인간과 AI의 유사점을 확인하는 작업에 이미 돌입했다. 예를 들어 소비자의 구매 행동을 생각
해 보자. 사람들은 무엇을 구입할지, 얼마나 지불할 의향이 있는지를 소득과 취향을 바탕으로 조정한다. 기업
은 소비자의 이러한 행동을 이해하고, 여기에 영향을 미치기 위해 많은 돈을 지출하고 있다. 지금까지 이 분야
는 인간고유의 영역이었다. 그런데 최근 연구에 따르면 AI도 이러한 역학을 이해할 수 있을 뿐 아니라 인간과
마찬가지로 가치에 대한 복잡한 결정을 내리고 다양한 시나리오를 평가할 수 있다는 것이 밝혀졌다.
 
치약 구매에 관한 가상의 설문조사를 했을 때, 비교적 원시적인 수준인 GPT-3 모델은 불소나 구취 제거 성분
이 포함 됐는지를 고려해서 제품의 현실적인 가격대를 파악했다. 기본적으로 AI도 인간 소비자와 마찬가지로
제품의 다양한 특징을 평가하고 대립되는 요소들 사이에서 절충점을 찾았다. 이 조사를 수행한 연구진은 GPT-
3가 기존 연구처럼 다양한 제품 속성에 대한 지불의향(WTP, willingness to pay)을 추정할 수 있다는 사실도
발견했다. AI는 이러한 추정치를 얻기 위해 컨조인트분석(conjoint analysis)을 이용했는데, 이는 소비자들이
상품의 다양한 특성에 어떤 가치를 부여하는지 분석하는 시장조사 기법이다. 컨조인트 분석 양식의 설문조사
에서, GPT-3가 불소치약과 구취 제거 치약에 대해 산출한 지불의향 추정치는 이 전의 연구에서 보고됐던 수치
와 유사했다. AI는 실제 소비자의 선택 데이터에서 예견되는 패턴을 제시하고, 제품의 가격과 속성을 바탕으로
자신의 선택을 바로잡았다.
 
심지어 AI는 정해진 페르소나에 맞춰 다양한 소득 수준과 과거의 구매 행동을 반영해 답변을 조정하는 능력을
선보였다. 특정 사람처럼 행동하라고 지시하면 AI는 실제로 그렇게 한다. 나는 수업을 듣는 학생들에게 실제로
고객과 만나서 논의하기 전에 AI와 인터뷰 연습을 진행하라고 했다. AI와의 인터뷰가 기존의 시장 조사를 대체
할 정도는 안 되지만, 좋은 연습이 될 수는 있다. 고객과 대화할 때 알아야 할 중요한 사항이 무엇인지를 미리
파악할 수 있기 때문이다.
 
그런데 AI는 단순히 소비자의 역할만 하는 것이 아니다. 사람처럼 선입견을 품고, 사람과 비슷한 도덕적 결론
을 내리기도 한다. 예를 들어 MIT의 존 호튼(John Horton) 교수는 AI에게 널리 알려진 경제실험, 독재자 게임
을 진행해서, AI가 인간과 비슷하게 행동하도록 만들 수 있다는 사실을 확인했다. 독재자 게임은 참가자 두 명
사이에서 진행된다. 그중 한 사람이 독재자가 되어 전달받은 돈을 상대방 참가자인 수령자에게 얼마나 나눠 줄
지 결정해야 한다. 사람끼리 이 게임을 진행할 때, 공평성이나 이타심 같은 인간의 규범을 탐구할 수 있다. 호튼
교수가 진행한 게임에서는 AI에게 공평성, 효율성, 이기심, 사리사욕 등의 가치를 우선하라는 구체적인 지시가
전달 됐다. 공평성을 우선하라는 지시를 받은 AI는 돈을 똑같이 나누기로 결정했다. 사리사욕을 우선했을 때는
돈의 대부분을 자신에게 분배했다. AI에게 자체적인 도덕성은 없지만, AI는 도덕성에 관한 인간의 지시를 해석
할 수 있다. 특별한 지시가 없을 때 AI는 기본적으로 효율적인 결과를 선택했다. 이는 AI 에게 본질적으로 내장
된 합리성 때문이거나 학습의 결과가 반영된 것으로 해석할 수 있다.
 
고등학교 2학년인 가브리엘 에이브럼스(Gabriel Abrams)라는 학생은 AI에게 역사적으로 유명한 문학 작품
의 등장인물로 가장해서 독재자 게임을 하게 했다. 이 실험 결과, 최소한 AI의 견해에 따르면 시대가 흐를수록
문학작품 속의 주인공들이 관대해졌음을 확인할 수 있었다. 에이브럼스는 "17세기 ‘셰익스피어’ 작품 속 인물
은 19세기의 ‘디킨스와 도스토옙스키’, 20세기의 헤밍웨이와 조이스, 21세기의 이시구로와 페란데의 작품 속
인물보다 훨씬 이기적인 결정을 내린다."라고 보고했다. 물론 이 프로젝트는 그저 흥미로운 연습 활동이었을
뿐이며, 실험의 가치를 너무 과장해서 받아들여서는 안 된다. 다만 여기서 중요한 것은 AI가 다양한 페르소나
를 쉽게 취할 수 있다는 점이며, 이는 AI에서 개발자와 사용자의 역할이 모두 중요하다는 사실을 보여 준다.
 
이러한 경제 실험은 다른 연구들, 예를 들면 시장반응, 도덕적 판단, 게임 이론에 관한 연구와 함께 AI가 얼마나
놀랍도록 인간과 비슷한 행동을 하는지 잘 보여 준다. AI는 데이터를 처리하고 분석할 뿐만 아니라 세심하게
판단하고, 복잡한 개념을 해석하며, 주어진 정보에 따라 답변을 조정하는 것으로 보인다. 숫자를 계산만 하는
기계에서 인간과 섬뜩할 정도로 닮은 행동을 하는 AI 모델로의 도약은 매력적이면서, 도전적이며 컴퓨터 과학
분야의 오랜 목표를 달성한 결과이기도 하다.