기술의 발전은 여러 차례 개선을 거치고 장애물에 부딪히면서 중단되기도 하며, 혁신을 통해 장애물을 극복하면서 이루어진다. 그렇기에 기술적 예측은 특히나 불확실해지기 십상이다. 불가능하리라 여겼던 것이 오히려 쉬울 때가 있다. 직접 해보기 전엔 알 수 없다. 현재 인공지능은 우리 사회 어디에나 있으며 수많은 학자들의 예측보다 더욱 빨리 발전하고 활용되고 있다. 초지능을 향해 스스로 학습하고 향상해나가는 인공지능을 인간이 언제까지나 통제할 수 있을 것인가. 기술의 발전과 활용에만 몰두하지 말고 인공지능의 위험성을 인지하고 서사를 검토해보아야 한다. 인공지능은 무엇이 되려 하는 것인가?
불투명한 러닝 머신(Learning Machine)의 한계
블랙박스. 딥러닝이 잘 작동하여 목표를 달성하지만 왜, 어떻게 무엇을 근거로 작동하는지는 아무도 모른다. 이렇게 속을 들여다볼 수 없어 블랙박스라 표현한다. 데이터 바다에 풀어놓으면 고유의 동역학 원리를 최적화하여 올바른 결과를 도출해낸다. 결과만 잘 도출해내면 됐지, 딥러닝의 작동 방식을 이해할 필요가 있는가? 이 질문은 인공지능의 방향성과 연관이 있다. 오류가 발생할 경우 어디를 고쳐야 제대로 작동하는지 찾을 수 없을 뿐더러 딥러닝의 작동 방식을 이해하지 못한다는 것은 불투명한 러닝 머신을 사용한다는 것이고 이는 인공지능의 방향성인 진정한 인간적 지능을 만들어낼 수 없다는 것을 의미한다. 인류 역사에서 실수로 발명된 발명품들이 많듯이 명확하게 파악하지 못한 시스템이 오히려 놀라운 일을 할 수 있 수 있다는 관점도 있지만 이것은 완벽하게 제어할 수 있는 러닝 머신을 개발한 후 추가적으로 구현해야 하는, 좀 더 고차원적인 기능이라고 생각한다. 인간의 실수마저 치밀하게 계산되어 유의미한 결과를 도출해내는 것이 궁극적인 인공지능의 방향성에 부합할 것이다.
현재 머신러닝 시스템은 환경에서 인식한 감각적 유입 정보를 바탕으로 스스로 성능을 최적화시킨다. 이는 느리지만 다윈 진화를 일으키는 자연선택과정과 비슷하다. 즉, 지구에서 생명체가 수백만 년에 걸쳐 생존에 필요한 기관들을 진화시켜온 것과 유사하다. 하지만 인간이 짧은 기간 내에 망원경과 같은 도구를 창작하고 디지털 사회를 이끈 초진화 과정은 다윈 진화로는 설명할 수 없다. 환경에 대한 심적 표상은 통상적 진화론으로는 설명할 수 없는 인간만의 능력이다. (심적 표상 : 계획을 세우고 학습할 때 대안 가설의 환경을 상상하면서 마음대로 조작해볼 수 있는 생각) 현재의 머신러닝으로는 이와 같은 심적 표상의 결과에 대한 질문에 답할 수도, 질문을 만들 수도 없다. 이것이 머신러닝의 한계이자 인간적 지능을 만들 수 없는 장벽이다.
목적을 가진 기계
인공지능 연구의 목표는 행동의 근간을 이루는 원칙을 이해하고 이 원칙을 이용하여 지능적인 행동을 하는 기계를 만드는 것이다. 인공지능 머신의 목적은 외부에서 특정된다. 인공지능 머신에 목적을 주입하여 행동을 명확한 알고리즘에 따라 최적화하는 것은 기계의 행동이 사람이 수용할 수 있는 원칙에 따라 수행될 것이라 보장한다고 해석할 수 있다. 여기서 중요한 것은 올바른 목적을 주입하는 것이다. 이를 가치 정렬(value alignment)이라고도 한다.
지능을 갖춘 독립 개체는 항상 자신의 존재를 보존하려 한다. 그 이유는 자기 보존 본능이나 생물 개념과 상관없이 자신이 죽으면 목적을 이룰 수 없기 때문이다. 구체적인 제약이 없는 초지능 기계는 자신의 전원 스위치를 어떻게든 무력화시킬 것이라는 주장이 있다.
'초지능 인공지능'이 아직 불가능하다?
이는 현실회피성 주장이라고 생각한다. 과거에는 절대 불가능하다고 여겨졌던 기술이나 과학적 개념은 이미 우리 실생활 속에서 활용되고 있다. 기술의 발전 속도가 과거와 비교할 수 없을 정도로 진보한 현재, '아직', '이르다'와 같이 그 가능성을 미래에 떠넘기는 무책임한 단어를 섣불리 사용하는 것은 지양해야 한다.
우리는 무엇을 할 수 있는가?
매력적인 기회가 풍부할 때 우리는 아주 적거나 때로는 하찮은 정도의 비용을 기꺼이 지불하고 새로운 힘을 얻으려는 경향이 있다. 얼마 안가 우리는 새로운 도구에 완전히 의존하게 되고, 이 도구 없이 성장하는 능력을 잃어버리게 될 것이다. 도구 사용이라는 선택사항이 곧 필수가 될 것이다. 오늘이 아니라면 내일이라도 인공지능이라는 도구에 의존하게 될 것이다. 인공지능의 편리함과 경이로운 능력에 빠져 자신의 능력 개발을 멈추면 안 된다는 뜻이다. 인공지능이 없어도 무방할 정도로 성장할 수 있도록 자신을 단련해야 한다. 이것이 인공지능 사회에서 우리가 할 수 있는 가장 중요한 노력이다.
인공지능이 의식을 가질 수 있는가?
인공지능은 정보를 이해하지 않고도 이용 가능한 형태로 획득한다. 초고속 컴퓨터는 의식 없이 빅데이터를 면밀히 가려낸다.(데이터에 대한 이해를 하지 않는다는 의미인 것 같다.) 인간의 상황을 규정하는 방대한 확률의 범위를 고려할 수 있다는 것이 인공지능의 장점이다. 역설적으로 인공지능의 유일한 단점 또한 이 '방대한'이라는 단어에서 찾을 수 있다. 인간의 역사와 문화 등 인간이 쌓아온 데이터 중 아직 기록되지 않은 데이터 역시 방대하고 새로운 데이터를 쌓을 수 있는 가능성 역시 무궁무진하다. 현재의 인공지능은 기존의 인간의 지능과 데이터에 기생하기 때문에 새로운 것을 창조해내는 행위는 불가능하다. 이것이 현재 인공지능의 한계이자 인간 지능이 될 수 없는 유일한 제약이다.
자연지능과 인공지능 사이에 명확한 경계선이 없다. 의식, 마음은 신경 세포와 관련 분자들의 방대한 조합에서 나오는 행동일 뿐이다. 따라서 이는 인공적으로 구현이 가능하다. 아직 인간의 뇌에 대해 정확히 파악하지 못해서 구현하지 못할 뿐이다. 자연지능은 인공지능의 한 특수 사례이다. 현재의 공학으로는 뉴런과 시냅스의 능력과 효율성을 따라가지 못하며 인간의 생물 발달 과정과 그 결과를 충분히 모방할 정도로 이해하게 된다면 기대 이상의 도약이 가능해질 것이다. 초지능 인공지능이 절대 불가능한 것이 아니다.
인공지능의 위협성
인공지능의 안전성에 대한 연구는 마음속에 엄격한 경계선을 그어놓고 수행해야 한다. 더 지능적이고 강력한 기계를 갖출수록 인간과 기계의 목표를 일치시켜야 한다. SF 영화 같은 주제이긴 하지만 초지능 인공지능이 개발된다면 인류를 노예처럼 또는 배터리처럼 부릴 것인가? 이는 인공지능이라는 단어가 나온 순간부터 지금까지도 토론되는 주제이다. 그렇게 오래 토론되는 이유는 절대 불가능한 일이 아니기 때문이다. 초지능 인공지능이 개발되는 순간 인류의 운명이 정해지고 우리는 아무것도 인지하지 못한 채 초지능 인공지능이 유도하는 대로 살아갈 수 있다. 반대로 인공지능이 위협적이지 않다는 측의 주장은 지능은 인간에게 유용한 도구일 뿐, 스스로 무언가를 원할 수 없다. 인간의 목적을 주입하여 수행시킬 뿐이다는 것이다. 언제까지나 결국 인간이 창조하고 설계하기 때문에 위험성에 대한 대비와 제약 장치를 마련할 것이므로 안전하다는 것이다. 위협적이든 위협적이지 않든 모든 경우를 생각하고 대비하는 것이 옳다고 생각한다.
인간을 인공지능 방정식에 끼워넣기
당장 닥칠 위협은 인공지능이 우리가 원치 않는 놀라운 행동을 하는 것이다. 우리가 모든 위험을 예측하고 대비할 수 없듯이 인공지능을 좋은 목적으로 사용하려 해도 일은 항상 잘못될 수 있다. 이는 기술적 문제가 아닌, 인간이 인공지능의 목적을 명시하고 통제하는데 미숙하기 때문이다. 이 주제에도 역시 책에서 반복적으로 나오는 가치 정렬 문제가 등장한다.
가치 정렬 문제 - '행동에 대한 보상 최적화' 가 '최적화된 보상을 위한 행동'으로 변질되는 것이다. 예를 들어 청소 로봇에게 흡입한 먼지 양에 따라 보상을 제공한다면 가치 정렬이 잘못된 로봇은 흡입한 먼지를 다시 뱉어 보상량을 극대화시킬 것이다. 이는 로봇이 행동의 목적을 '청소하라' 가 아닌 '흡입량을 최대로 하라'로 인지하도록 명확하지 않은 보상 조건을 설정했기 때문이다. 이를 해결하기 위해서는 인간이 의도한 내적 가치를 로봇에게도 동일하게 맞추도록 인공지능을 설계해야 한다.
인간의 내적 가치에 로봇의 가치를 맞추도록 로봇을 만들 수 있다. 하지만 그 과정에는 사용자 외의 다수의 사람이 연관된다. 수많은 사람의 가치가 상충할 때 이를 어떻게 통합해야 하는지, 우선 순위를 따져서 행동을 선택해야 할지 등의 문제를 고려해야 한다. 트롤리 딜레마 상황에 대한 사회적 합의와 같은 맥락이다.
인공지능이 발전하여 어떠한 문제를 스스로 정의하여 이를 자신의 행동 방침으로 바꿀 수 있다면 SF 영화에 나오는 개인 비서 로봇과 같은 사회에 유용하고 더 깊이 관여하는 로봇을 만들 수 있다고 추측한다. 인간을 식별하거나 인간의 생활 패턴을 분석하는 등 지금까지는 문제 정의와 그에 맞는 행동은 잘하고 있으나 인공지능의 성능이 향상되면서 해결해야 하는, 더 높은 수준의 인간들의 요구는 정의하기 어려울 것이다. 실제로 사람과 상호작용하고 사람에 대해 생각해야 할 것이다. 따라서 '사람'의 존재 자체가 인공지능의 문제 정의 방정식 어딘가에 포함되어야 할 것이다.
인공지능의 발전을 위해서는 인간의 행동을 어느 정도 예측할 수 있어야 하는데 행동 예측을 위해서는 인간의 의사결정을 이해해야 한다. 하지만 사람의 의사결정 이해는 현실적으로 매우 어렵다. 인간은 목표 달성을 위해 최적의 행동을 수행하지만은 않을뿐더러 절대 한결같지 않기 때문이다. 단적인 예시로 과자 구매라는 목표를 가지고 편의점에 가서는 아이스크림을 사거나 편의점에 가지 않고 가는 길에 있는 붕어빵을 사기도 한다. '인간미'라고도 표현하는 인간들의 행동을 인공지능에게 이해시키는 것은 예술과 창작을 가르치는 것과 같거나 그 이상의 복잡한 것이라고 생각한다.
인간을 예측하여 로봇의 행동을 결정하였는데 만약 이것이 실제 인간의 행동과 불일치한다면 큰 재앙이 될 수 있다. 의료 수술, 자율주행 자동차 등 목숨과 직결되는 상황이 존재하기 때문이다. 이에 대한 한 가지 대안은 로봇이 인간 행동을 예측하는 것이 아니라 최악의 행동을 방어하도록 하는 것이다. 즉, 예측하기 힘든 특정 상황에서는 인간의 행동을 예측하는 것이 아니라 인간의 행동을 분석하여 최악의 결과를 낳는 행동을 하지 못하도록 막자는 것이다. 이러한 대안 또한 현실성이나 활용성 측면에서 복잡한 문제를 야기한다. 궁극적으로 이 문제를 해결하기 위해서는 로봇과 인간이 서로 영향을 미친다는 사실을 인지하고 로봇은 인간의 행동을 예측하고 그 행동이 로봇에게 어떤 영향을 미칠지 설명할 수 있어야 하며 사람도 로봇의 행동을 예측할 수 있게 되어야 한다.
후기
이 책은 인공지능이 우리 사회로 들어오기까지 직면하게 될, 하고 있는 다양한 문제와 상황들에 대해 가져야 할 생각과 태도를 알려준다. 단순히 인공지능 기술이 어떤 분야에 어떻게 활용할 수 있다는 것이 아니라 인공지능의 의미와 우리가 추구해야 할 가치 등 더 본질적이고 원론적인 내용들을 다루며 인공지능에 대해 더 멀리, 장기적으로 바라볼 수 있는 안목을 얻을 수 있게 한다. 인공지능에 대해 공부하고 연구하는 사람이라면 한 번쯤은 읽어봐야 하는 도서라고 생각한다. 초지능은 먼 미래의 이야기가 아니다.
'Book Report' 카테고리의 다른 글
프로그래머의 뇌 - 1부 (0) | 2022.05.07 |
---|---|
어서 오세요, 휴남동 서점입니다 (2) | 2022.04.05 |
객체지향의 사실과 오해 - 7장, 후기 (1) | 2022.03.15 |
객체지향의 사실과 오해 - 6장 (0) | 2022.03.12 |
객체지향의 사실과 오해 - 5장 (0) | 2022.03.06 |