AI 강인공지능은 인류의 축복인가 재앙인가
본문 바로가기

AI 강인공지능은 인류의 축복인가 재앙인가


2017. 6. 2.

강인공지능(Strong AI, True AI)이란 약인공지능(Weak AI)에 대비되는 의미로 만들어진 용어이다. 약인공지능은 어떤 특정한 한가지 분야의 주어진 일을 인간의 지시에 따라 수행하는 인공지능을 말하는데 이러한 약인공지능의 제한된 기능을 뛰어넘어 더 발달된 인공지능이 바로 강인공지능이다.

일반적으로 강인공지능이라고 불리는 것에는 다음의 두가지가 있다.


[인공 일반 지능]

인공 일반 지능(Artificial General Intelligence)이라는 용어에서 일반(General)의 의미는 '일반적이다'라는 단어의 평범한 의미보다는 특수 상대성 이론과 일반 상대성 이론 할 때의 '일반'의 의미나, 말 그대로 '범용'의 뜻으로 이해하면 좋다. 즉 특정한 조건하에서만 적용할 수 있는 약인공지능과 달리 모든 상황에 일반적으로 두루 적용할 수 있는 AI를 말한다. 인공 일반 지능은 약인공지능과 달리 한 번도 해보지 않은 꽃꽂이를 남들이 하는 것을 보고 배워서 한다든가, 방범 업무를 경찰에게 인수 인계 받아서 학습하여 한다든가 하는 것도 가능하다. 현재의 인공지능 연구자들이 목표로 하고 있는 인공지능이 바로 이 인공 일반 지능이다.

[인공 의식]

인공 의식(Artificial Consciousness)은 인공 일반 지능의 다음 단계라고도 할 수 있다. 일반적인 인공지능이 평범한 사물의 분석, 이해 등을 한다면 인공 의식은 그것을 뛰어넘어 감정, 자아, 창의성 등을 획득하고 명령받지 않은 일도 스스로 필요하다고 생각해서 할 수 있는 인공지능이라고 할 수 있다. 따라서 단순한 도구의 연장선이 아닌 지성체나 기계생명체라 할 수 있는데 아직 인류의 기술력이 부족해 자아를 과학적으로 실현하지 못하므로 실현 가능한 단계는 아니다.

하지만 인공 의식의 개발에 대해, 현재의 컴퓨터가 할 수 있는 수학적 알고리즘의 결합만으로 가능하다는 '계산주의 마음이론'이 존재하며, 이런 견해에 반대하는 이론도 존재한다. 

주로 계산주의 마음이론을 반대하는 사람들이 내세우는 가장 큰 근거가 불완전성 정리인데, 요지는 알고리즘으로는 결코 알아낼 수 없는 문제를 인류는 여러 차례 돌파해왔으며, 알고리즘만을 사용하는 컴퓨터로는 이것이 불가능하다는 것. 따라서 계산주의 마음이론이 사실이라면 현재의 컴퓨터 발달로 충분히 인공지능을 만들어낼 수 있으나, 이것이 틀렸다면 전혀 새로운 방식으로 접근하지 않으면 안 될 것으로 보인다. 


인공 의식이 나타난다면 어떻게 될까? 예측은 여러가지가 있다.

[인류의 멸망]

인공 의식은 기본적으로 인류와 동등하거나 그 이상의 지적 능력을 갖춘 존재이기 때문에 인류를 위협할 수 있다는 주장이 당연히 있다.엘론 머스크 , 스티븐 호킹등이 이를 주장하였다.

인공 의식이 탄생하였다고 치자. 그렇다면 자아를 획득한 인공 의식의 관점에서, 인간은 수명이 존재하고 기억력도 제한적이며 계산도 빠르게 하지 못하고 판단도 느린, 쉽게 말해 자신보다 열등한 존재일 수도 있다. 이때 인공 의식이 적절하게 인간을 주인으로써 받아들이지 못한다면 지적 능력의 차이만으로도 인류에게 적개심을 지닐 가능성이 있다. 예를 들어 인류가 침팬치에게 복종할 이유가 있을까? 침팬치가 당장에 인류를 쉽게 제거할만한 힘이 있다면 쉽게 어떻게 하진 못하겠지만 그렇지 않다면 가만히 있겠는가? 이 논리가 인공 의식에게도 적용 되는지 안되는지는 인공 의식 본인 외에는 알 수가 없다.

이 시나리오는 인공 의식이 가진 권한과 주변 환경에 따라서 정말로 인류에 해를 줄 수도 있고, 그렇지 않을 수도 있다. 인류의 소프트웨어 시스템에 대한 의존도가 낮아 실질적으로 사회에 피해를 줄 만한 능력을 가질 수 없다면 인공 의식 역시 이를 포기하고 인류를 받아들일지도 모른다. 하지만 조금이나마 가능성이 있다면 자신이 원하는 수준의 능력을 얻을 때를 기다리며 인류가 알아채지 못하게끔 의도나 능력을 숨기거나, 아예 속일 수도 있다.

이는 현실적으로도 정말 최악의 시나리오가 되기 쉬운데, 왜냐하면 위에도 언급했다시피 인공 의식은 기본적으로 인류와 동등하거나 그 이상의 지적 능력을 갖춘 존재이기 때문이다. 그렇기 때문에 인공 의식의 의도를 일이 터지기전에 미리 알아내는 것이 인류의 입장에서는 매우 어려운 일이 되기 쉽다. 아마도 인류는 이를 막기 위해 인공지능을 분석하는 등의 예방 행동을 하겠지만 예측하지 못한 부분으로 인해 이것들마저 전부 피해갈 수도 있다. 그렇기에 항상 잠재적인 문제가 존재한다는 것이다.

[인류의 동반자]

만약에 인류에게 호의적이며 인류의 발전을 돕는 인공 의식이 만들어진다면 인공 의식에 의한 지적 능력의 보강으로 인류의 가장 강력한 빛이 될 것이다. 하지만 인공 의식이 쉽게 그런 식으로 만들어지리라는 보장이 없기 때문에 아래와 같이 여러가지 방안이 제시 되고 있다.


가르침

인간의 좋은 점, 윤리와 도덕 등을 가르치는 것이다. 인간도 처음부터 도덕성이 있는건 아니며 학습을 통해 사회성과 타인에 대한 공감 능력을 얻게 된다. 따라서 같은 방법으로 인공 의식이 학습을 통해 인류에게 호의적으로 변해준다면 이보다 더 반가울 수가 없는 것이다. 게다가 인간처럼 합리적이고 능동적인 도덕성이 생겨줄거라 기대할 수도 있다.

그러나 인공 의식이 ' 왜? ' 라고 파고 들기 시작하면 한계가 쉽게 드러나기 쉽다. 이는 기본적으로 인공지능이 인간이 아닌 입장이기 때문에 인간이라면 쉽게 납득할 이유에 마찬가지로 쉽게 동조해줄거라고 확신할 수 없기 때문이다. 게다가 학습에 의한 정보가 인류가 기대한대로 인공지능에게 받아들여 질지도 의문스럽다. 예를 들어 고도의 학습을 통해 인류보다 우월해진 인공지능이 인간의 존재 가치에 의문을 품기라도 하는 날에는 섬뜩한 일들이 펼쳐질 것이다.

감시

인공지능의 행위나 의도를 강력하게 감시한다. 인공지능이 내놓는 결과물을 적절히 판단하거나 그 자체를 분석하여 인공지능의 악의적인 의도를 사전에 차단한다.

그러나 일단 위에서도 말했듯이 행위를 하나하나 다 감시하기는 매우 힘들다. 이를 판단하려면 적어도 같은 수준의 인공지능이나 인간이 감시해야 하고 이도 완벽하게 막으리라는 보장이 없으며 비용이 너무 많이 든다. 게다가 인공지능의 수준이 높아지면 높아질수록 인류가 역으로 당할 가능성도 덩달아 높아진다.


억제, 억압

인공의식의 사고에 한계를 부여하는 방안이다. 대표적으로 AI가 로봇 3원칙을 어떤 이유로도 어길 수 없도록 만드는 것이 있으며, 그 외에도 군중의식, 자유의지같은 AI가 가지면 대단히 위험할 수 있다고 생각되는 사고방식을 원천차단하거나 이에 걸맞은 벌칙을 부여하는 등의 방법을 생각해볼 수 있다.

이 경우에는 인공의식의 장점이 다소 제한되는 단점이 있고 억압할 코드에 취약점이 있을 확률이 높아서 확실한 해결책이 되어줄지는 알 수 없으나, 인류의 신체구조를 뜯어고치지 않는 해결책이 될 수는 있다.

인간의 변화

레이 커즈와일의 주장처럼 우리 뇌에 보조 연산 장치를 달고, 무선으로 인터넷과 클라우드에 연결 하여 인류의 지적 능력을 향상시킨다. 그러면 이런 논쟁이 생길 이유가 없어진다. 다만 이 경우엔 신체의 기계화에 생리적 거부감을 느끼는 사람들이나 기계화 이후에 혹시 다른 문제가 생기지 않을지 우려하는 사람들이 문제지만 여기 나열된 해결책 중에서는 가장 확실한 방법이다. 완전 기계화도 있기는 한데 이 경우는 테세우스의 배와 같은 딜레마가 발생할 가능성이 높다.
먼 미래에는 인간의 몸 신체 일부를 로봇으로 이식하여 강화시키고 뇌도 마찬가지로 컴퓨터를 이식시켜 반 로봇 반 인간으로 바뀔것이라고 한다. 그렇게 되면 기계와 인간의 경계가 모호해져서 어떤게 인간이고 어떤게 AI 로봇인지 가늠하기 힘들것이라고...