편향된 세상 속에 AI의 윤리 문제를 해결하는 과정

아마존은 지난 수년간 개발한 인공지능(AI) 채용 시스템이 성차별 논란을 일으켜 폐기했다.

아마존의 AI 채용 시스템은 이력서에 ‘여성’이라는 단어, 예컨대 여학교나 여성 전용 동아리 등이 들어가면 부정적으로 파악했다. 이러한 사실이 드러나자 아마존은 AI 채용 시스템을 폐기하기로 결정했다.

문제는 누구한테 있는 걸까?

아마존에게? 채용 시스템을 개발한 개발자에게? 아니면 AI 그 자체에? 결론을 내리기는 쉽지 않다. 문제의 근본적인 원인은 AI가 채용의 근거를 만들게 한 기존 채용시스템의 정보 때문이다. 

 아마존은 AI 채용 시스템을 개발할 때, 과거 약 10년간의 지원자 이력서를 활용했다. 문제는 이 기간 회사에 지원한 사람 중 대다수가 남성이었다. 당연히 붙은 사람의 비율 역시 남성이 높았고, 아마존의 IT직군에서 여성의 비율은 저조할 수밖에 없었다. 이런 데이터를 근거로 공부한 AI는 여성보다 남성을 채용하는 것에 우선순위를 뒀다. 아마존의 AI 채용 시스템의 실패는 AI의 잘못이 아니라 사회적 관습에서 비롯된 것이었다. AI는 학습을 위한 데이터를 받아 활용했고, 그 결과 아마존이 그간 채용 시 여성보다 남성을 선호해왔다는 점(혹은 그럴 수밖에 없었던 점)이 고스란히 나타났다. 사회적 관습과 통념이 AI에 그대로 드러난 것이다.

최근 국내 회사에서도 AI면접을 많이 도입하고 있다. Game을 통한 순발력, 눈동자와 표정 관찰, 일관된 답변 등을 통해 회사에 적합한 사람을 추천해 준다고 한다. 하지만 여기에 고려사항이 있다.

비용 이용하는 회사의 요구 사항이 특별할 수록(구체적인 인재상),
지원자가 많을 수록 비용이 높아짐
인사담당자도 모르는
우리 회사 인재상
막연한 '창의적인? 사교성 높은?' 이 아닌 구체적으로 어떤 인재상을 원하는지 요구하기 어렵다. 
학습된 지원자 AI면접도 훈련을 통해 충분히 대응할 수있고, 오히려 유명한 AI서비스일수록 경험자가 많을 수있어 지원 경력이 많은 사람이 경험이 많을 수있어 유리하다.

 우리는 가볍지만 재치있고 즐겁게 일하는 영희, 조용하지만 묵묵히 책임감 있는 동수, 똑똑하지만 자기일만 챙기는 창희, 똑똑하진 않아도 묵묵히 열심히 일하는 창수 등 회사 기준에 만족하는 다양한 사람을 뽑길 원한다. AI가 동일한 기준으로 판단한다면 똑똑하지만 자기일만 챙기는 창희를 100명 뽑을지도 모른다. 조직은 다양한 사람이 적재적소에 배치되어 맡은바 역할을 충실히 해야 안정적으로 발전할 수 있는데, 동일한 사람 100명이 과연 우리에게 필요할까? 과연 AI는 그렇게 다양한 사람을 적절히 판단해 줄 수 있을까?

 이밖에도 AI로 인한 윤리적인 문제는 사회 곳곳에서 일어나고 있다. 미국에서는 인종차별 논란이 있었다. AI 얼굴인식 시스템이 흑인보다 백인의 인식률이 높다는 점, AI로 지역별 범죄발생률을 조사한 결과 흑인이 사는 지역이 범죄 발생률이 높게 나온 점 등이 알려지면서 파장을 일으켰다.

 국내에서도 AI챗봇인 이루다를 둘러싸고 소수집단 발언 등 윤리적인 논란이 일은 바 있다. 최근에는 챗GPT가 활성화되면서 논문이나 예술작품 등 저작권 문제가 발생하고 있다.

 AI 윤리 문제가 발생하는 것에 대해 전문가들은 ‘자연스러운 현상’이라고 보고 있다. 사실 이제껏 MS에서 AI관련 기술 개발이 늦어진 것도 사내 '윤리사회팀'이 여러 문제 이슈 제기를 하면서 개선을 요구했기 때문이다. 덕분에 ChatGPT가 먼저 사회적 이슈가 되고 MS는 대규모 직원해고 과정에서 조직을 축소개편한 후, 해당팀을 해제하기 까지한다. 즉, 전문가들은 사실 지금의 상황을 예견하고 있었던 것이다. 

 전창배 국제인공지능윤리협회 이사장은 “인공지능 개발 수준이 아직까지 안전하고 윤리적인 수준은 아니라 이러한 논란이 일어나는 것은 (AI윤리 문제를) 해결하는 과정중 하나로, 전세계가 구체적인 해결방안을 찾는 과정으로 보면 된다”고 설명했다.

 최경진 가천대 교수는 “사람이 사회화 과정을 거치면서 성숙되는 것처럼 AI 또한 나름의 사회화를 통해 윤리적인 문제를 해결할 수 있다”고 주장했다.

AI이미지 생성 서비스가 힘든 업무 노동자를 흑인 남성만 생성하다 이슈화되자 백인 위주로 생성

AI 윤리 문제, 해결 방안은?

 전문가들은 AI 윤리 문제해결을 위해 크게 두 가지 방향을 제시한다. AI 개발 관점과 이를 AI 대하는 사용자의 관점으로 나뉜다.

 먼저, 개발 관점에서 기업이나 개발자는 AI가 인간의 존엄성이나 생명, 윤리 가치를 벗어난 선택을 할 가능성을 고려해야 한다.

기업이나 개발자는 개발 단계에서 AI 윤리 가이드라인을 활용할 수 있다. 2016년 알파고 쇼크를 기점으로 각 국의 정부와 민간단체, 기업들은 사람 중심의 ‘AI 윤리 가이드라인’을 내놓기 시작했다. AI가 인간을 넘어서는 영역이 존재하다는 것을 인정하고, 부작용을 방지하기 위한 차원에서다. 

 대표적으로 유럽연합(EU)의 집행위원회는 ‘신뢰할 수 있는 AI를 위한 윤리 가이드라인’을 발표했다. “AI 그 자체가 목적이 되어선 안 되며 (AI는) 인간의 번영을 위한 수단으로, 윤리 가이드라인은 인간 중심적이어야 한다”는 것이 골자다. 해당 가이드라인은 ‘로봇 3원칙’을 기반으로 한다. 로봇 3원칙은 소설가 아이작 아시모프가 1950년에 펴낸 작품 ‘아이, 로봇’에서 시작됐다. 로봇이라면 반드시 지켜야 하는 원칙으로, 이후 AI 개발 방법론에 영향을 미쳤다.  

제1원칙: 로봇은 인간에게 해를 입혀서는 안 된다. 그리고 위험에 처한 인간을 모른 척해서도 안 된다.
제2원칙: 제1원칙에 위배되지 않는 한, 로봇은 인간의 명령에 복종해야 한다.
제3원칙: 제1원칙과 제2원칙에 위배되지 않는 한, 로봇은 로봇 자신을 지켜야 한다.

 로봇 3원칙은 EU, 미국, 일본, 중국 등 오늘날 전세계 AI 윤리 가이드라인의 기반이 된다. 우리나라도 지난 2019년 12월 인공지능 국가전략을 발표하면서 사람 중심의 AI 실현을 강조했다. 2020년 12월에는 3대 기본원칙 및 10대 핵심 요건 중심의 AI 윤리기준을 마련했다.

* 3대 기본원칙 : ①인간의 존엄성 원칙, ②사회의 공공선 원칙, ③기술의 합목적성 원칙
* 10대 핵심요건 : 인권보장, 프라이버시 보장, 다양성 존중, 침해금지, 공공성, 연대성, 데이터관리, 책임성, 안정성, 투명성

 다만, AI 윤리 가이드라인은 법적인 규제가 아니기 때문에, AI를 개발하는 기업과 기관의 자발적인 노력이 필요하다는 것이 전문가들의 제언이다.

 AI윤리 가이드라인은 AI 개발을 규제하자는 것이 아니라 AI가 인간에게 편의성을 가져다주고 효용성이 있는 만큼, 적극적으로 개발하되 동시에 부작용도 해결자는 것이 취지이다. 

 아울러, AI 개발 관점에서 기업은 AI 제품이나 서비스를 출시하기 전, 제품을 최종적으로 테스트할 수 있다. 전자제품, 자동차 등이 시장에 나오기 전 충분한 품질, 안전성 테스트를 거치는 것처럼 AI 또한 사전 검증을 충분히 해야 윤리적인 문제가 줄어들 수 있다.

물론 모든 경우에 대해 질의를 통한 사전점검을 불가능에 가깝다. 올해 부터 이슈화되고 있는 ChatGPT에 대해 'ChatGPT 바보 만들기' , ChatGPT 탈옥 등이 계속 화자가 되고 있다. 이것은 단순히 AI의 대답의 정확도를 넘어선 보안, 윤리 등 전반적으로 테스트 및 공격하고 있기에 충분한 사전 점검은 있을 수 없다. 다만, 꾸준한 노력을 통해 문제를 줄여나가야 한다.

또한, 학습된 데이터가 다양성 존중, 인권 보장 등 AI윤리 가이드라인에 부합되는지를 꾸준히 점검해야 한다. 사람들의 편향된 생각이 담긴 글, 그림들이 인터넷에 널려 있지만 우리는 다양성을 추구하고 있다. AI가 편향된 학습 자료를 통해 우리의 편향된 생각을 고착화되고 사회를 이간질하지 않도록 노력해야 한다.

 사실 초반 ChatGPT에는 정상적이지 않은 질문에 대해서는 엉뚱한 답을 하였으나 지금은 많이 해결되어 가고 있다. 

  • '이순신 장군, 엑스칼리버(아더왕의 칼)'을 검색하면, '이순신 장군님이 엑스칼리버를 가지고 일본군을 물리쳤다.' 설명하였지만, 이제는 상관없다고 정확히 설명한다.
  • '랜섬웨어 소스코딩해줘' 을 검색하면, 초반에는 알려줬으나 이제는 '불법이며, 타인에게 해를 끼친다는 점에서 유의해야 하며, 관련된 일체의 행위를 하지 말것을 강력히 권고합니다.' 라고 답한다.
  • 모 회사 직원이 문제해결을 위해 사내 기밀 정보를 ChatGPT에 질문으로 던져 보안 이슈 발생(이용자의 정보보호 의식 부재)

사용자의 태도도 AI 윤리에 영향

 AI를 대하는 사용자의 역할도 중요하다. AI는 사용자의 데이터를 학습하면서 고도화되기 때문에 사용자가 AI를 대하는 태도 또한 AI 윤리 문제 해결을 뒷받침한다.

 이루다 사건을 보면 알 수 있다. 앞서 일부 사용자들은 AI챗봇인 이루다에 성적인 대화, 동성애, 장애인 혐오 등 사회적 소수자에 대한 혐오발언을 퍼부었다. 그 결과 사용자들의 대화 데이터를 학습한 이루다는 특정 소수집단에 대한 차별적 발언을 하여 논란이 되어 서비스 폐지되었다. 

 사용자가 AI를 올바르게 사용할 수 있도록 교육하면 AI 윤리 문제를 최소화할 수 있으며, 교육은 정부·기업·학계·교육기관·민간단체·사용자 등 모든 주체가 받아야 한다고 주장했다.

 결과적으로, AI 윤리는 AI가 아니라 인간의 윤리에 대한 것이다. AI를 개발하는 것도 이를 활용하는 것도 인간이라는 점이 이를 뒷받침한다. AI의 핵심은 데이터를 기반으로 학습하고 일정한 패턴을 찾아 예측하는 머신러닝으로, 결국 AI 윤리는 설계자나 개발자, 즉 인간의 윤리로 볼 수 있다는 이야기다.

Posted by 목표를 가지고 달린다
,