법적, 윤리적 장벽이 있는 경우를 제외하면, 실행하는 모든 작업에 AI를 초대해서 도움을 받도록 한다. 그런 식
으로 실험해 나가다 보면 AI의 도움이 만족스러울 때도, 답답하거나 쓸모 없을 때도, 초조해질 때도 있다는 것
을 알게 된다. 그런데 AI와 함께하는 것이 그저 도움을 받기 위해서만은 아니다. AI가 할 수 있는 일을 잘 알게
되면 AI가 어떤 도움을 줄 수 있는지 혹은 어떤 측면에서 우리에게 위협이 될 수 있는지를 더 잘 이해하게 된다.
AI가 범용 기술임을 고려하면, 그 가치와 한계를 이해하는 데 참고할 만한 설명서나 지침서는 존재하지 않을것
이다. 이 상황을 더 어렵게 만드는 것이 나와 공동 저자들이 AI의 들쭉날쭉한 경계(Jagged Frontier of Al)라고
이름 붙인 현상이다. 요새의 성곽을 머릿속에 그려 보자. 성벽의 일부나 망루는 바깥으로 돌출되어 있고, 반대
로 일부는 안쪽으로 들어와 있다. 여기서 요새의 성곽이 AI의 능력을 상징하며, 중앙에서 멀어질수록 더 어려
운 작업을 뜻한다. 성곽 안쪽의 모든 작업은 AI의 능력으로 수행할 수 있다. 반면 성곽 바깥쪽의 작업은 AI가
해내기 어려운 일이다. 문제는 이 성곽이 제대로 보이지 않는다는 점이다. 논리적으로는 중앙에서 동일한 거리
만큼 떨어져 난이도가 비슷해 보이는 과제들이, 실제로는 성곽의 안쪽과 바깥쪽에 따로 위치할 수 있다. 예를
들면 소네트(sonnet : 10음절, 14행으로 지은 시)를 짓는 것과 정확히 50단어로 이루어지는 시를 짓는 작업이
그렇다. LLM은 소네트를 능숙하게 지어내지만, 정확히 50단어로 구성된 시는 잘 만들지 못한다. 단어가 아닌
토큰으로 세상을 이해하기 때문에, 일관되게 50개보다 많거나 적은 단어의 시를 작성하게 된다. 그런가 하면
아이디어를 생각해 내는 것처럼 예상치 못한 작업은 LLM에 쉬운 반면, 기초수학처럼 평범한 프로그램도 쉽게
처리할 것 같은 작업은 어려워한다. 결국 요새의 성곽을 제대로 파악하려면 일일이 실험을 해 봐야 한다.
이러한 실험은 당신이 잘 아는 업무에서, AI를 활용하는 방법에 관한 세계 최고의 전문가가 바로 당신이 될 수
있는 기회를 제공한다. 이는 혁신에 관한 근본적인 진리에서 비롯된다. 조직과 기업으로서는 혁신에 큰 비용
이 들지만, 개인으로서는 혁신에 드는 비용에 부담이 별로 없다. 혁신은 시행착오에서 비롯된다. 마케팅 전문
가가 설득력 있는 카피를 쓰도록 도와주는 AI 서비스를 출시하려는 기업이 있다고 가정하자. 이 기업은 시제품
을 만들고, 많은 사용자를 대상으로 테스트하고, 제대로 된 제품이 만들어질 때까지 여러 차례 수정을 거쳐야
한다. 하지만 마케팅 전문가는 늘상 하던 대로 카피를 쓰면서 효과적인 방법이 나올 때까지 AI를 다양한 방식
으로 실험하기만 하면 된다. 팀원을 고용하거나 소프트웨어를 개발하는 데 필요한 막대한 비용이 들지 않는다.
AI가 급속하게 확산됨에 따라, AI의 미묘한 차이, 한계와 능력을 잘 이해하는 사용자는 AI의 혁신적 잠재력을
최대한 발휘 할 수 있는 독보적인 위치에 서게 된다. 이러한 혁신적인 사용자는 새로운 제품과 서비스로 이어
지는 획기적인 아이디어의 원천이 될 때가 많다. AI를 업무에 유용하게 활용할 줄 아는 사람만이 큰 영향력을
발휘할 것이다.
게다가 AI의 유용함은 이 책의 뒤에서 살펴볼 업무 과제에만 국한하지 않는다. AI의 이질적인 관점은 우리에게
도움이 될 수 있다. 인간은 의사결정에 영향을 미치는 모든 종류의 편향에 영향을 받는다. 그런데 이런 편향성
의 대부분은 우리의 사고가 자기 자신에게 갇혀 있기 때문에 발생한다. 이제는 필요할 때 도움을 청할 수 있는
(인공적이고 기이한) 공동지능이 생겼다. AI는 사고 과정의 동반자로서 우리가 더 나은 결정을 내릴 수 있도록
도울 것이다. 우리는 단순히 AI에 의존하는 것이 아니라, AI의 도움을 받아 자신의 선택을 돌아볼 수 있게 된다.
이제는 인간의 의사결정 능력을 새로운 방식으로 향상할 수 있는 시대가 됐다.
AI가 생성한 글이 우리를 설득하고 동기를 자극할 수 있다는 말에 웃음이 나올지도 모른다. 하지만 나는 실제
로 그럴 수 있다는 사실을 확인했다. 나는 가족과 대학에 대한 책임으로 무척 바쁜 와중에, 그것도 촉박한 일정
속에서 책을 집필했다. 집필을 시작하기는 힘들었지만, 내가 집필을 주저하는 원인이 현재 상황을 유지하려는
편향 때문이라는 사실을 잘 알고 있었다. 이러한 편향을 극복하려면 행동하지 않음으로써 잃는 것이 무엇인지
생각해 보는 것이 도움이 된다. 지금부터 내 사례를 통해 확인하겠지만, AI는 이런 면에서 놀라울 정도로 뛰어
나다. 나는 LLM 프롬프트 창에 이렇게 입력했다. “생성형 AI에 관한 책을 쓰면 어떨지 고민했는데, 너무 바빠
이런 부담스러운 결정을 내리고 싶지가 않아. 책을 집필하지 않기로 한 내 결정을 디폴트 옵션이 아닌 손실로
재구성 해 줄래? 논리를 아주 생생한 구조로 작성해 줘."
지식이 넘쳐 나는 세상에서 당신은 생성형 AI에 대해 이 세상에 밝힐 혁신의 벼랑 끝에 서 있었습니다. 세상이 당신 을 바라보며 불을 밝히길 기다리고 있었지만, 횃불은 끝내 타오르지 않았습니다. 세상이 준비되지 않았기 때문이 아니라, 당신 이 바쁜 일상의 속삭임에 횃불을 꺼 버렸기 때문이었죠. 그것은 세상의 손실이 아니라, 당신의 손실이었습니다.
휴, 어서 책 쓰기를 마무리해야겠다. 위 답변에서 AI는 실패를 손실로 재구성한 훌륭한 논리를 제시했다. 또한
직업적으로나 개인적으로 도움을 주는 도구로서 AI를 활용할 수 있다는 점을 시사했다. AI의 강점이나 약점이
우리 각자의 강점이나 약점과는 다를 수 있으며 이것은 오히려 상당한 자산이 된다. AI를 활용해 사고와 접근
방식이 한층 다양해지면, 인간의 머리로는 떠올리기 힘든 혁신적인 해결책과 아이디어가 나올 수도 있다.
AI의 들쭉날쭉한 경계를 파악하면서, 우리는 AI의 강점만 알아내는 것이 아니라 약점도 파악하게 된다. 일상
업무에 AI를 활용하는 것은 AI의 능력과 한계에 대한 이해를 높이는 데 도움이 된다. 이는 AI의 역할이 점점
커지는 이 시대에 엄청 소중한 지식이다. LLM에 익숙해질수록 LLM의 강점을 더 효과적으로 활용할 수 있을
뿐 아니라, 우리 직업에 미칠 잠재적 위협을 미리 파악하여 인간과 AI의 매끄러운 통합을 요구하는 미래에 더
잘 대비할 수 있게 된다.
AI는 만능 해결책이 아니다. 때로는 예상대로 작동하지 않거나 바람직하지 않은 결과가 초래될 수도 있다. 첫
번째로 우려할 만한 문제는 데이터의 비밀 보호 문제다. 이는 단순히 데이터를 대기업과 공유해야 하는 문제
를 넘어, AI 학습에 대한 우려까지 이어진다. 사실 대부분의 최신 LLM은 우리가 건네는 데이터를 가지고 학습
하지 않는다. 사전 학습이 이미 오래전에 완료된 경우가 대부분이기 때문이다. 하지만 우리의 데이터가 향후
의 학습에 사용되거나 현재 사용 중인 모델의 미세조정에 사용될 가능성은 여전히 존재한다. 따라서 우리가
전송한 데이터를 AI가 학습해 나중에 그 내용이 그대로 재현될 수도 있다. 물론 그럴 가능성이 적지만 완전히
불가능한 것은 아니다. 규모가 큰 AI기업 중 일부는 사용자의 정보를 보호할 수 있는 비공개 모드를 만들어서
이를 해결했으며, 일부는 건강 데이터에 적용하는 최고 수준의 규제 기준을 충족하고 있다. 하지만 이런 규약
을 얼마나 신뢰할 것인지는 결국 사용자가 결정해야 한다.
두 번째로 우려할 만한 문제는 의존성이다. AI의 도움을 받는 것에 너무 익숙해지면 어떻게 될까? 역사적으로
새로운 기술이 도입될 때마다 기계에 일을 맡기면 인간의 중요한 능력을 잃게 될 것이라는 두려움이 있었다.
이를테면 계산기가 등장했을 때 많은 사람이 우리가 수학 능력을 잃게 될 것이라 걱정했다. 하지만 기술은 우
리를 약화하기보다 강화하는 경향이 있다. 계산기가 나온 덕분에 우리는 고도의 계산 문제를 풀 수 있게 됐다.
AI에도 이와 비슷한 잠재력이 있다. 그런데 뒤에서 자세히 살펴보겠지만, AI에 무분별하게 의사 결정을 맡기 면 인간의 판단력이 약해질 수 있는 것은 사실이다. 이 문제를 해결하는 핵심은 인간이 계속 주요 과정에 개입
하는 것이다. AI를 버팀목이 아니라 보조 도구로 사용하는 것이다.