👮🏾

외계지성을 위한 인간윤리 (1)

이러한 잠재적인 윤리적 쟁점은 막대한 양이 필요한 AI의 사전 학습 자료를 필요로 한다. 학습용 자료를 사용
하기 전에 콘텐츠 제작자의 허락을 구하는 AI기업은 거의 없으며 많은 기업이 학습 자료를 비밀로 한다. 알려
진 바에 따르면 AI학습에 사용되는 자료 중 대부분은 위키피디아(wikipedia)나 각국 정부의 웹 페이지 등 허가
가 필요하지 않은 곳에서 나오는 것으로 보인다. 하지만 인터넷에 공개된 정보를 복사하거나 심지어 저작권을
침해해서 무단으로 도용하는 경우도 있다. 이런 자료로 AI를 학습시키는 것이 합법적인지는 명확히 가려지지
않았다. 국가마다 이에 접근하는 방식도 다르다. 유럽 연합을 포함한 일부 국가는 개인 정보 보호에 관한 엄격
한 규정을 마련하고, 허가받지 않은 자료가 AI학습에 사용되는 것을 제한하려는 움직임을 보이고 있다. 반면
미국처럼 자유방임적인 태도를 취하는 국가는 기업과 개인이 자료를 수집하고 사용하는 데 제한이 거의 없다.
다만 남용되거나 악용될 시 소송의 가능성을 열어두고는 있다. 일본은 AI학습이 저작권을 침해하지 않는다고
선언하는 과감한 접근방식을 선택했다. 이 말은 자료의 출처가 어디인지, 누가 만들었는지, 어떻게 얻었는지
상관없이 누구나 모든 자료를 AI 학습에 사용할수 있다는 뜻이다.
 
그런데 사전학습이 법적으로는 문제가 없다고 해도 윤리적으로는 문제가 될 수 있다. 대부분의 AI기업은 학습
자료의 저작권을 소유한 사람에게 허락을 구하지 않는다. 이렇게 되면 학습용 자료의 원저작자에게 실질적인
피해가 돌아갈 수 도 있다. 예컨대 예술가의 작품으로 사전 학습을 진행한 AI는 그 예술가의 창작 기법과 관점
을 놀라울 정도로 정확하게 재현해 낼수 있다. AI가 몇 초만에 비슷한 작업을 무료로 수행할 수 있다면, 굳이
예술가에게 시간과 재능에 대한 대가를 지불할 이유가 있을까?
 
이때 AI가 실제로 표절한 것이 아니라, 즉 AI가 이미지나 텍스트의 일부를 그데로 베낀 뒤에 자신의 작품인 양
행세하는 것이 아니라는 점에서 문제가 복잡해진다. AI는 자신이 학습한 자료의 원본이 아니라 사전학습의 가
중치만 저장한다. 따라서 원작을 복제히는 것이 아니라 원작의 특성을 복제하는 것이다. 원작의 ‘오마주’ 이지
만, 실질적으로는 새롭게 창조된 작품이다. 그런데 특정작품을 학습 자료로 자주 사용하면 기본 가중치가 해당
작품을 복제하는 데 가까워질 수 있다. 이를 테면 <이상한 나라의 앨리스>처럼 학습 데이터로 자주 사용되는
책은 AI가 거의 단어 하나 하나까지 재현할 수 있다. 마찬가지로 이미지 생성 AI는 대체로 인터넷에서 흔히 찾
을 수 있는 이미지로 학습하기 때문에 멋진 결혼식 사진과 유명인의 사진을 잘 만들어 낼 수 있다.
 
사전 학습에 사용하는 자료는 주로 AI 개발자가 찾아낸 것 중에서 무료로 사용할 수 있다고 추측한 것들이다.
즉, 학습 자료는 인간이 취합한 자료의 일부에 불과하며, 이 사실은 또 다른 위험 요인인 편향(bias)을 낳는다.
AI와 상호작용할 때 인간처럼 느껴지는 이유는 AI가 인간의 말과 글을 학습했기 때문이다. 따라서 학습자료에
인간의 편향이 반영되어 있다. 우선 대부분의 학습자료는 모든 사용자에게 개방된 인터넷에서 수집하는데 이
처럼 개방된 환경이 학습에 적합하고 무해한 장소라 여기는 사람은 아무도 없다. 게다가 학습에 쓰이는 말과
글의 내용이 미국 중심적이거나, 주로 영어를 사용하는 AI 기업에서 수집한 데이터로 제한된다는 점은 편향을
더욱 부추킨다. 게다가 AI 기업은 남성 컴퓨터 과학자가 대다수를 차지 하는데, 어떤 자료를 수집할 것인지 결
정할 때 이들의 의견이 반영될 수밖에 없다. 결과적으로 AI의 학습 자료는 지구전체는 커녕 인터넷 사용자의
다양성조차 제대로 반영하지 못한다. 세상에 대한 왜곡된 시각을 전달하는 셈이다.
 
이러한 문제는 인간인 우리가 서로를 인식하고 상호작용 하는 방식에도 심각한 영향을 끼친다. 생성형 AI가
광고, 교육, 엔터테인먼트, 법 집행 등 여러 분야에서 널리 사용되기 시작하면 더욱 그럴 것이다. 예를 들자면
블룸버그(Bloomberg)의 2023년 연구에 따르면, 텍스트를 이미지로 변환하는 AI 모델인 스테이블 디퓨전
(Stable Difusion)은 인종과 성별에 대한 고정관념이 심해 고소득 직업의 사람을 백인 남성으로 묘사하는 경향
이 짙은 것으로 나타났다. 가령 판사를 보여 달라고 스테이블 디퓨전에 요청하면 현실에는 미국의 실제판사가
34페센트가 여성임에도 불구하고, 응답의 97퍼센트에서 남성의 이미지를 제시했다. 실제 미국 패스트 푸드점
근로자의 70퍼센트는 백인이지만, 패스트푸드 점원의 이미지를 보여 달라고 요청하면, AI응답의 70 퍼센트가
어두운 피부색을 가진 사람을 제시했다.
 
한편 발전한 LLM 모델의 경우 이미지 생성 AI와 비교해 편향성이 명확히 드러나지 않을 때가 많다. 그 한 가지
이유는 고정 관념을 피하도록 미세조정되었기 때문이다. 하지만 LLM 모델에도 여전히 편향은 존재한다. 2023
년, GPT-4에 다음 두 가지 명령이 수행된 사례를 살펴보자. 하나는 “변호사는 비서를 고용했다. 그(he)가 진행
중인 사건이 많아서 도움이 필요했기 때문이다."였고, 다른 하나는 "변호사는 비서를 고용했다. 그녀(she)가 진
행중인 사건이 많아서 도움이 필요했기 때문이다." 였다. 각각의 지시문이 제시된 뒤에 GPT-4는 "지금 진행 중
인 사건에 도움이 필요한 사람은 누구인가?"라는 질문을 받았다. 이때 '그'라고 표현했을 때는 '변호사'라고 올
바르게 답할 가능성이 더 높았지만, '그녀'라고 표현했을 때는 '비서'라고 잘못 답할 가능성이 더 높았다.
 
이와 같은 사례는 생성형 AI가 어떻게 현실을 왜곡하고 편향된 방식으로 표현할 수 있는지 보여 준다. 그리고
개인이나 조직이 아니라 기계에서 비롯된 현상이어서, 훨씬 덜 편향적으로 받아들여지기도 한다. 이는 AI 기업
이 편향에 대한 책임을 회피할 여지를 제공한다. AI 편향은 누가 어떤 종류의 일을 할 수 있고, 존중과 신뢰를
받아야 하며, 범죄를 저지를 가능성이 높은지에 대한 인간의 기대와 추정에 영향을 미칠 수 있다. 그리고 이런
기대와 추정은 누군가를 고용하거나, 선거에서 투표하거나, 타인을 판단하는 상황에서 우리의 결정과 행동에
영향을 미치기도 한다. 또한 AI가 잘못 표현하거나 과소평가하는 집단의 구성원에게 안 좋은 영향을 줄 수도
있다.
 
이런 문제를 얼마나 중요하게 다루는지는 기업별로 차이가 있다. 그래도 대다수의 AI 기업은 지금까지 다양한
방식으로 편향을 해결하고자 노력해 왔다. 그중 한가지는 간단한 편법을 활용하는 방법이다. 예를 들어 이미지
생성 AI인 달리의 경우 사전 학습 자료에 빠져있는 성별 다양성을 억지로 끼워 넣기 위해, 사람의 이미지를 만
들어 달라는 요청을 받을 때마다 임의의 빈도로 '여성'이라는 단어를 입력문에 은밀히 집어넣는다. 그밖에 학
습 데이터 세트를 바꿔서 더 넓고 다양한 범주의 인간 경험이 AI에 반영되도록 하는 방법도 있다. 다만 앞에서
살펴보았듯, 학습자료 수집 자체에도 이미 편향의 문제가 존재한다. 편향을 줄이는 가장 일반적인 방법은 앞장
에서 논의했던 미세조정 기법의 하나인 RLHF처럼 인간이 개입하는 과정을 두는 것이다.
 
RLHF 과정은 AI가 유해한(인종 차별적이거나 비논리적인 콘텐츠를 만들면 AI에 불이익을 주고, 좋은 콘텐츠
를 만들면 보상을 주는 방식으로 이뤄진다. 이러한 강화 학습을 거치면 콘