[정신의학신문 : 온안 정신건강의학과의원 김총기 정신건강의학과 전문의]
* [테슬라의 AI 로봇은 의식을 가질 수 있을까 (1편)]에서 계속됩니다.
줄리오 토노니의 주장은 사실 잘 이해하기 어렵다.
그가 이야기한 두 가지는 의식의 탄생을 위한 조건이지 과정이 아니다. 그 두 조건이 충족되면 의식이 나타난다는 것뿐, 어떻게 의식이 만들어지는지에 대해서는 설명하지 않는다. 때문에 그의 이론을 받아들이기 어려워하는 사람들도 많다.
텍사스 대학교의 스콧 에런슨(Scott Aaronson)은 단순한 논리 스위치 여러 개를 잘 연결하기만 해도, 사람보다 더 큰 파이 값을 갖는 네트워크를 만들 수 있음을 보이기도 했다. 그는 논리 스위치 여러 개가 모인다고 사람 같은 의식을 가질 수는 없기 때문에 통합정보이론은 틀렸다고 논증했다. 하지만 토노니는 단순한 스위치라도 충분히 잘 연결된 네트워크라면 의식을 가질 수 있다며 주장을 굽히지 않았다. 어떻게인지는 몰라도, 왜 인지는 몰라도, 의식이 탄생할 수 있다는 것이다.
주장 같지만 실제로 통합정보이론은 인간 뇌의 구조를 상당히 잘 반영하고 있다. 사실 인간의 뇌는 복잡하게 연결된 신경세포들로 이루어져 있고, 신경세포는 이곳에서 저곳으로 전기신호를 전달하는 스위치의 역할을 하기 때문이다. 애초에 뇌 자체가 논리 스위치 뭉치라고도 비약할 수 있다.
뇌의 구조와 역할에 대해서는 오랜 시간 많은 연구가 이루어져 왔다. 과거에는 뇌의 특정 부위에 절제 수술을 받거나, 손상을 입은 환자의 상태를 보며 해당 부위의 기능을 유추했었다. 하지만 지금은 다양한 영상검사를 통해 실시간으로 뇌의 활성도를 살펴볼 수도 있고, 뇌의 신경다발 구조를 통째로 관찰할 수도 있다. 우리는 이제 뇌의 어느 부위가 무슨 역할을 하며, 언제 주로 활성화되는지를 꽤나 잘 알고 있다.
만약 당신이 지금 이 글을 읽으며 인공지능에 대한 사색을 하고 있을 때 fMRI를 찍어본다면, 당신의 이마와 뒤통수 쪽 뇌 주름이 주로 활성화되는 것을 볼 수 있을 것이다. 그렇다면 그 부분의 뇌에 분포한 신경세포들은 직접 생각을 하고 시각을 느끼는 것일까? 막상 그 뇌 주름 속에 담긴 신경세포 하나하나를 뜯어보면, 생각이나 시각 같은 것들은 없다. 의식과 인공지능에 대한 당신의 지금 그 생각을 담고 있는 신경세포 같은 건 없다. 신경세포 하나하나들은 그저 전기 신호를 한쪽 끝에서 다른 쪽으로 보내고 있을 뿐이다.
전기신호들의 연결이 결과적으로 어떻게 생각을 만드는지 우리는 알지 못한다. 우리가 알고 있는 것은 뇌가 무척 많고 다양한 신경세포들로 이루어졌다는 것, 리고 그 신경세포들이 매우 복잡하게 연결되어 상호작용한다는 것뿐이다. 수많은 연결들이 어떻게 생각하고 연산하는지 우리는 알지 못한다. 네트워크에서 어떻게 퀄리아가 떠오르는지는 더더욱 알지 못한다.
테슬라를 비롯한 대부분의 오늘날 인공지능은 인간 뇌의 이러한 네트워크 구조를 모방하고 있다. 이런 인공신경망의 개념은 딥마인드의 알파고 덕분에 유명해졌다. 사실은 1980년대부터 제안된 꽤 오래된 개념이지만, 유의미한 학습을 하기 위해서는 충분히 큰 연산 능력이 필요했기 때문에 반도체 성능이 비약적으로 발전한 최근에서야 그 성과를 내기 시작했다.
정확히 똑같지는 않지만 인공신경망은 인간의 뇌신경세포 네트워크를 본 따 만들어졌다. 어떤 점이 뇌와 비슷하다는 것일까?
간단한 덧셈 뺄셈부터 난해한 수학계산에 이르기까지 모든 프로그램(알고리즘)은 On/Off 스위치 여러 개를 배열하고 연결해서 만들어진다. 쉽게 말해 프로그래밍은 스위치들의 연결 구조와 순서를 설계하는 작업이다. 설계된 프로그램에 입력값(반응)을 넣으면 일련의 스위치 연쇄반응을 거쳐서 정해진 출력 값(반응)이 나온다.
인공신경망도 이처럼 기본적인 논리 스위치들의 배열로 이루어져 있다. 정확히는 출력 값을 on/off 두 가지 값만 갖는 게 아니라, 특정 범위의 수치로 나타낼 수 있는 노드(node)가 일종의 스위치 역할을 한다. 여하간 노드들의 배열과 연결을 통해 정해진 계산 결과가 나온다는 것은 마찬가지이다. 하지만 독특한 점은 그 노드들의 네트워크를 사람이 직접 설계하지 않는다는 것이다.
인공신경망의 노드들은 모두 층층이 연결되어 있지만, 어떤 연결을 켜고 어떤 연결을 끌지 미리 정해져 있지 않다. 그저 연결선만 이어놓으면, 프로그램이 스스로 어떤 연결은 강화하고 어떤 연결은 약화시키며 전체 연결 구조를 직접 설계한다. 우리는 입력값에 대한 결과물이 원하는 정답과 얼마나 일치하는지 점수를 매겨 주기만 하면 된다. 그러면 프로그램은 정답과의 오차를 최소화하기 위해 스스로 노드의 배열을 수정한다.
이른바 기계학습(machine learning)의 과정이다. 스스로 수정한다고 하면 이미 의식을 지닌 프로그램이 직접 공부를 하는 것 같지만 그 과정은 사실 간단한 수치 조정에 불과하다. 위의 그림을 예시로 대강만 살펴보자. 위 그림은 처음 3개의 노드로 입력값이 들어가면, 중간층의 두 개 노드를 거쳐, 마지막 노드에서 출력 값이 나오는 간단한 프로그램을 도식화한 것이다. 이 프로그램이 어떤 결과값을 내놓았는데 정답보다는 조금 작은 숫자가 나왔다고 가정해보자. 최종 결과값을 좀 더 늘려야 하는 것이다. 이때 프로그램의 최종 결과값은 곧 마지막 노드의 출력 값이다. 그리고 그 값은 마지막 노드와 연결된 그 직전 노드들(중간층의 노드 둘)의 연결 신호를 합산하여 나온 수치이다. 따라서 이 연결 신호 중, 양(+)의 값을 갖는 연결을 강화하고, 음(-)의 값을 갖는 연결은 약화시키면 된다.
하지만 그러기 위해서는 중간 노드들의 출력 값들을 변화시켜야 할 수 있다. 그럴 경우 이번에도 동일한 조정을 반복하면 된다. 중간 노드로 연결된 첫 번째 노드들과의 연결 가중치를 하나씩 조정하는 것이다. 노드들의 층이 더 많아져도 계속 그 뒷층으로 거꾸로 따라가며 이 과정을 반복하기만 하면 된다. 결국 전체 네트워크 배열을 프로그램이 스스로 수정할 수 있다.
이러한 과정을 오차역전파(backpropagation)라고 하는데, 이 과정은 단순한 기계적 숫자 조정에 불과하지만 결과적으로 네트워크 전체를 학습시킬 수 있다. 프로그램이 출력하는 최종 결과물의 오차값을 점점 줄여 나갈 수 있다.
이러한 기계학습은 여러 번 반복할수록 점점 성능이 좋아진다. 사진을 보고 고양이와 개를 구분하는 프로그램이 있다고 하자. 이 프로그램의 첫 번째 층 노드들에 주어지는 입력값은 사진 속 각 픽셀들의 색깔 정보 값이다. 그 값들이 그다음 노드, 그다음 노드로 계속해서 연결되며 수치를 전파한다. 수많은 노드로 이루어진 여러 개의 층을 거쳐 최종적으로는 개를 출력하는 노드와 고양이를 출력하는 노드, 단 두 개의 노드로 연결된다. 중간에 충분히 많은 노드와 연결점을 설정해주고, 충분히 많은 사진을 제공해주면 프로그램은 학습 결과 아주 훌륭하게 고양이와 개를 구분한다. 위의 사진을 보면 틀림없이 마지막 층에서 ‘이것은 고양이입니다’라는 노드가 활성화될 것이다.
그렇다면 그 분석을 해내는 중간층들의 수많은 노드들은 과연 ‘무엇을’ 분석하고 있는 것일까. 중간에서 수없이 깜박이는 노드들 중 분명 어떤 것은 강하게, 어떤 것은 약하게 활성화된다. 그 각각 노드들의 의미는 무엇일까? 중간층들에 무수히 퍼진 노드들이 각각 고양이의 특징들을 조금씩 나눠 가지고 분석하고 있는 것일까? 우리가 고양이를 알아보듯 고양이의 털 색깔과 눈매, 형태, 수염 등을 인식하는 노드가 각자 있을까?
그렇지 않다. 사실 중간층의 노드들 하나하나의 활성이 정확히 분석에 있어 무슨 역할을 하는지는 결코 알 수 없다. 노드들 각각은 그냥 이전 노드에서 전달받은 값을 정해진 연결 강도에 따라 그다음 노드로 전달하고 있기만 할 뿐이다. 그 연결 가중치는 수많은 반복을 통해 네트워크 전체의 차원에서 조정된 결과이다. 어떤 노드들의 연결 가중치가 왜 그렇게 높게 설정되었는지, 또 다른 노드들은 왜 그렇게 낮은 것인지를 학습된 프로그램의 최종 모습만 보고는 절대 알 수 없다. 심지어 어떤 학자들은 이 과정이 그냥 블랙박스(알 수 없는 것) 일뿐이라고 이야기하기도 한다.
인공지능이 갖는 이러한 블랙박스의 문제는 어쩌면 필연적인 결과일 수 있다. 애초에 인간의 신경세포들이 연산하는 방식이 이러하기 때문이다. 앞서 말했듯 우리의 뇌가 떠올리는 복잡한 생각과 계산, 감정들 모두 마찬가지이다. 신경세포들은 그저 서로 복잡하게 연결되어 전기 신호를 옮기고 있을 뿐이다. 그 세포 하나하나, 시냅스 하나하나가 지금 떠올리는 생각에 있어 무슨 역할을 하는지는 알 수 없다. 어떻게 보면 신경세포의 연결구조 역시 블랙박스나 마찬가지이다. 기저에는 복잡한 블랙박스가 있고, 그 블랙박스의 결과물로 탄생하는 뜬구름 같은 의식이 감정과 생각을 내놓고 있는 셈이다.
그러면 다시 토노니가 품었던 처음의 의문으로 되돌아갈 수밖에 없다. 왜 인간은 의식이 있고, 인공신경망은 의식이 없을까? 내가 의식을 가지고 있는 것은 분명하다. 그리고 자동차를 운전하는 테슬라의 인공지능, 하이 빅스비하고 부르면 튀어나오는 삼성의 인공지능에게 의식이 없는 것도 꽤나 분명해 보인다. 하지만 나의 뇌와 그 둘의 인공신경망 구조는 본질적으로 비슷하다.
어쩌면 그 둘의 차이는 정말로 복잡성의 차이에 불과한 것이 아닐까? 단지 그뿐인 것이 아닐까?
인간 뇌에는 대략 1000억여 개의 신경세포가 들어있다. 신경세포들은 서로 시냅스를 통해 연결되는데, 시냅스는 대략 100조 개가량으로 추정된다. 뇌가 학습을 거듭하며 이 시냅스들의 수와 연결 강도는 끊임없이 업데이트된다. 아직 현존하는 인공지능이 따라오기에는 인간 뇌의 구조가 훨씬 더 복잡하다. 하지만 차이는 그뿐인 것일지도 모른다. 단지 인공지능보다 더 노드가 많고, 더 많은 연결을 가지고 있으며 더 활발하게 네트워크가 변화하고 있다는 것, 그리고 더 많은 데이터를 쉴 새 없이 학습하고 있다는 것 말이다. 오직 우리들만 의식을 가질 수 있는 비결이 그것들 말고는 없는 것 아닐까. 그러면 만약 테슬라의 AI가 점점 더 파이 값을 높여간다면....?
* 3편에서 이어집니다.
한양대학교병원 외래교수
저서 <나도 내가 왜 이러는지 모르겠어>
- 애독자 응원 한 마디
-
"선생님처럼 많은 사람을 도와주고 용기를 줄 수 있는 직업을 꿈꾸게 되었습니다."
"선생님 덕분에 힘을 많이 얻습니다. 정성스런 상담 너무 감사드립니다."
"저 자신에게 궁금했던 질문에 답변해주셔서 감사합니다."

