Home AI- 과거는 '서막'이다
Post
Cancel

AI- 과거는 '서막'이다

윤리, 도덕이라는 말은 굉장히 지루하고, 졸리다. 특히 요즘처럼 기술 발전에 신경쓰기도 바쁜 때에 윤리, 법, 이런 것을 챙기는 것은 과거의 유산에 매달리는 것 같고, 기술의 발전을 저해하는 것처럼 느껴지고, 흔히 표현하는 말 대로라면 ‘섹시하지 않다’. 굉장히 고루한, 꼰대가 사회의 변화에 적응하지 못하고 꼬장꼬장하게 버티고 있는 듯한 느낌을 준다.

그래서 AI 윤리, 데이터 윤리 라는 말은 더욱 어색하고, 불편하다. 그래서 이런 걸 챙겨야 한다고 쌍지팡이 들고 나서는 사람이 그다지 반갑지 않고, 어차피 지루할 이야기들이기 때문에 듣기 싫어지고, 불편해진다. 기술과 윤리는 우리가 말하는 이과와 문과 만큼이나 거리가 멀고 떨어져 있고, 가치 중립적인 것에 왜 가치를 가져다 대려는 지 어색해 보일 수도 있고, 혹은 가치 중립적인 것을 상업적으로 이용하는 것 같은 불쾌함이 들기도 할 것이다.

하지만 오늘날 우리의 삶의 많은 부분은 기술과 맞닿아 있다. 우리는 핸드폰과 컴퓨터, 인터넷이 없는 세상을 상상하기 어려워진 지 오래다. 신문과 뉴스에서는 수많은 그래프가 등장하고, 통계 결과가 나오며, 개인화 추천이 제공되는 인터넷 사이트와 앱을 흔히 만난다. 심지어 최근에는 AI 서비스라고 하면서 통해서 일방적으로 명령을 입력하고 결과를 출력하던 기기에서 보다 인간과 상호작용을 하는 형태의 기술이 일상에 등장하는 등, 많은 서비스들이 더욱 더 인간에게 가까이 다가온 형태로 만들어지고 있고, 보다 사회에 널리 확산되고 있다. 이 기술들은 분명 가치 중립적이겠지만 인간과 상호작용을 하는 서비스에서 결국 사회의 가치를 답습할 수밖에 없다. 결국 사람들이 사용하는 것을 보다 편리하게 만들어주고자 생겨나는 것이 서비스고, 그 서비스에 사용되는 것이 데이터고, 그런 서비스와 점점 발전되는 기술이 극대화된 형태 중 하나가 AI다.  그리고 여기저기서 많이 떠들지만, 아직 AI는 이제 사회에 적응하기 시작한 기술이다.

그럼에도 불구하고, 여기저기서 이에 관련된 크고 작은 문제들이 발생하고 다양한 우려를 보이고 있다. 이 중 대부분의 문제는 어떤 윤리적 문제다. 이 문제에는 다양한 면이 있고, 이제부터 잡아나가야 하는 면도 있지만, 사회의 문제를 그대로 답습하는 면도 분명 있다. 그리고 AI가 보다 널리 확산될 수록, 이런 문제들 역시 확산될 것이다.  이 것이 극단적으로까지 나타나는 사례가 우리가 매체에서 보고, 그래서 일부에서는 다소 과하게 걱정하기도 하는, 기계가 사람에게 해를 입히는 경우다. 그리고 이를 이렇게 방치한,혹은 그렇게 만든 것은 우리고, 이 사회다.

빅데이터 시대라면서 우려되는 개인 정보 유출 등 현재 손에 잡히는 일은 너무나도 뻔히 보이는 일이니 일단 여기서는 따로 설명하지 않도록 하자. 기본적인 근미래에 많이들 걱정하고 있는 AI에 대해서 간단히 살펴보자. AI 기능을 구성하는 요소는 크게 로직과 알고리즘과 데이터가 있고, 그 기능을 소리, 그림 , 혹은 로봇 등의 형태로 감싼 후 사람들에게 제공된다. 여기서 로직은 사회에서 정해진 규칙을 정교하게 풀어낸 형태가 된다. 알고리즘은 가치중립적이지만, 그 알고리즘의 적합도를 따지는 데 사용되고, 실제 적용할 때 사용되는 것 역시 데이터다. 데이터는 규칙과 형태가 확실한 경우(예: 바둑 등의 게임)에는 일부 자체 생성이 가능하지만, 대부분의 경우 기존에 세상에서 만들어졌던 데이터를 사용한다. 점차 기존의 규칙이나 기존의 데이터를 합성하여 자체적으로 데이터를 만들 수도 있다고 하지만, 그런 경우에도 어쨌든 사용되는 것은 기존의 데이터다. 혹은 새롭게 합성되어서 만들어지는 것에 대해 점수를 부여한다든가, 혹은 사용 여부를 결정하는 것 역시 기존의 규칙이고, 이 규칙을 선택하는 것은 결국 그 사회다. 물론 순수하게 확률과 계산 만으로 결정을 할 수도 있지만, 결국 그렇게 만들어진 시스템이 그 사회의 규칙과 어울릴 수 없으면 결국 그 시스템은 도태되기 마련이다. 데이터의 윤리는 기본적으로 데이터가 널리 활용되고 있는 현재에도 여러 가지 면에서 다뤄져야 하겠지만, 기본적으로 ‘제대로 된 윤리 규범이 잡힌 사회에서’ 만들어진 데이터를 사용해야 하는 것 역시 이런 이유에서다.

그러다보니 이후 과학 기술이 발전되고, AI가 널리 사용된다고 하더라도 그 사회의 윤리규범이 제대로 잡혀있지 않게 된다면, 로직과 알고리즘, 데이터에서부터 엇나가버린 AI는 그 사회의 방향성을 그대로 유지한 채 속력만 빠르게 나아가게 되어, 결국 제대로 된 모습과 더욱 더 거리가 먼 사회를 만드는 데에만 이바지할 뿐이다. 그 모습은 그 자체로는 ‘섹시할’ 지 모르나, 결국 그 안은 썩어들어가게 될 뿐이다.

최근 어떤 게임 회사에서 페미니즘에 관심을 가지고 지지 의사를 개인적으로 표명한 외주 창작자들에게 창작물을 지우거나 회사에서 불이익을 주는 등의 사태가 있었다. 최근 인재 선발용 AI가 나오니, 이후 언젠가는 외주자 검색 AI가 만들어질 수도 있다. 그리고 그 때 이런 사례는 하나의 데이터가 될 것이고, 이로 인해서 부적절한 필터링이 자동생성되는 것도 충분히 가능할 수 있다. 혹은 잘못된 윤리 사상을 가지고 있는 사람이 이런 로직을 만들어두거나 하면 더욱 그렇다. 몇 달 전의 위안부 피해자 분들을 구글에서 성매매 여성이라고 노출했던 것 역시 단순한(?) 데이터의 문제임을 생각해 보면, 그런 내용이 많지 않으니까, 혹은 과한 상상이라고 단순히 비웃기 어려울 것이다. 기존의 인맥 등 부정확한 방식으로 이어오던 업무의 경우 이런 식으로 명시된(해당 내용은 공지와 텍스트로도 인터넷 상에서 다양하게 돌아다닌다) 내용은 확실히 바로잡는 내용까지 기록되지 않는다면 잘못 사용될 가능성 역시 충분히 있다.

‘과거’는 서막에 지나지 않을 뿐이지만 과거가 현재를 만들고 현재가 미래를 만든다.  단순히 급부상하는 화려한 기술에만 경도되어 기본적인 윤리를 고려하지 않는다면 이런 곳에서 기술을 만든다는 것이 70년대 초기 SF에서나 등장하던 매드 사이언티스트의 방식과 어떤 차이가 있을까. 그리고 그런 사회의 배경에서 만들어진 데이터와 로직을 사용한 기술이 우리에게 장기적으로 어떤 문제를 만들어낼 것인가. 이는 여러 작품과 전망에서 보아왔던 것처럼 너무나도 명약관화한 일이다.  

그러면 이런 기본적으로 윤리적으로 살아가는 것 외에, 기존에 이미 잘못된 것의 영향력을 최소로 하려면, 혹은 우리네 삶을 편하게 하기 위해 만들었던 AI나 데이터라는 것이 삶을 오히려 공격하게 하지 않기 위해서는, 일단 현재의 불안함과 미래의 두려움을 조금이나마 잠재우고자 한다면, 어떤 윤리적인 면을 고려해야 하고 어떤 규범이 필요하고 어떤 장치를 만들 수 있을까.

이 내용은 다음에 각각 자세히 정리해 보도록 하겠다.

    This post is licensed under CC BY 4.0 by the author.

    201801-201803 책 로그

    업계를 떠나는 데이터 과학자의 마음에 대한 소고