[AI 윤리] 리오타르와 인공지능의 윤리적 규범 (feat. HAL 9000)

리오타르의 언어학적 도덕과 인공지능의 윤리적 규범

-Heuristic 모델을 대안으로

 


 

I. 서론

 

영화 <2001: 스페이스 오디세이>에 등장하는 인공지능 HAL 9000은 탐사작전을 성공적으로 완수하기 위해, 우주선 내의 불안정하고 불완전한 인간들을 모두 제거해야한다는 결론을 내린다. 1968년 이 영화가 개봉한지 50년이 지난 지금까지도 인공지능에게 윤리적 규범이 존재하는지, 혹은 주입하거나 학습시킬 수 있는지에 대한 논의가 계속 되고 있다. 이 글에서는 후자가 가능하다는 전제 하에서, 윤리적 규범의 어떤 모델을 선택하고 그것을 인공지능에게 적용할 때 발생가능한 문제점을 어떻게 해결할 지 살펴보겠다.

우선 이 문제를 명확하게 파악하기 위해서 인간의 윤리적 규범과 인공지능에서의 윤리적 규범을 구분하여 전개할 필요가 있다. 첫째로 인간의 윤리적 규범 중 인공지능에 적용할 하나의 모델을 선택할 수 있는지에 대해 탐구하고, 둘째로 그것을 인공지능의 윤리적 규범에 적용하는데 있어 문제점과 그 해결책을 살펴보겠다. 인간의 윤리적 규범 중에 절대보편적인 하나의 모델이 존재한다면 그 모델을 찾고 두 번째 문제로 넘어가면 된다. 하지만 수많은 다양성이 공존하는 세계에서 절대보편적인 윤리학적 규범을 찾는 것은 불가능하다고 보이기 때문에, 리오타르의 언어학적 도덕을 통해 다양성을 배제하지 않는 윤리학적 규범을 도출해 보려한다. 그리고 두 번째로 나아가 인공지능의 윤리적 규범에 적용할 때 예상되는, 변형된 모라벡의 역설의 문제를 살펴보고 heuristic, NP문제에 대한 하나의 접근을 해결책으로 삼아 전개해보겠다.

 

 

II. 본론

1. 인간의 윤리적 규범

 


리오타르의 분쟁에서 설명하는 것은 담론 종류(genres de discours)들이 실제로 이질적이며 서로 대체불가능하기 때문에, 모든 말하기는 한 가지 담론을 선택하고 다른 담론을 배제하게 되며 그 과정에서 부당함을 범할 수밖에 없다는 것이다. 이는 언어학적 도덕(Moralia linguistica)”으로 지칭되는 그의 핵심 사상을 통해 사회적 윤리에까지 확장된다. 윤리적 규범에 있어 한 가지 모델을 선택한다는 것은, 리오타르의 담론 종류의 문제처럼 다른 모델들을 배제하는 것이며 다양성을 무시하는 부당함을 생산하는 일이 된다. 리오타르는 불의에서 간단히 벗어날 수 없으며 단지 가능한 한 적은 불의를 저지르는 것을 정치의 목표로 규정한다. 즉 우리는 모든 것에 한계와 특수성이 있음을 인지해야 하고, 경계를 의식하며 다원적 상황을 인지하려는 태도를 가져야 한다는 것이다.

따라서 인간의 윤리적 규범의 모델을 정하는 과정은 다양한 다른 모델들을 배제하지 않는 열린 모델로서, 상황에 따라 가능한 한 적은 불의를 저지르는 모델을 선택하는 메타적 모델을 생각해볼 수 있다. 또한 상황에 따라 모델을 선정하는 과정은 반드시 다양성과 이질성을 수용하는 사회적 합의에 따라야 할 것이다. 다시 말해 a) 모든 상황에 각각 최적의 모델을 선택하며, b) 그 과정에서 다양한 의견을 통한 사회적 합의를 거치는 메타적 모델을 상정할 수 있다.

 

 

2. 인공지능에서의 윤리적 규범

 


모라벡의 역설(Moravec's Paradox)은 인간에게는 쉽고 명백한 문제가 로봇(인공지능)에게는 만족스럽게 해결할 수 없는 상황을 말한다. 하나의 예시로, 로봇이 방 안에 있는 수레를 끌고 나와야 하는데 들어가 보니 수레에 폭탄이 연결되어 있는 상황이 있다. 인간에게는 간단한 선택의 문제지만, 로봇에게는 한정된 시간 안에 고려할 사항이 너무 많아 만족스럽게 해결할 수 없다는 것이다. 이와 유사하게 윤리적 규범에 대한 문제 또한 본론1에서 살펴보았듯 나름의 인간의 윤리적 규범에 대한 어느 정도 구체적인 모델을 정했지만, 그것이 인공지능에 적용될 때는 예상치 못한 새로운 문제가 생겨날 수 있음을 알 수 있다.

모라벡의 역설의 해결에 대한 하나의 접근으로, 이와 유사한 구조를 가지고 있는 NP (non-deterministic polynomial) 문제와 그 해결에 관련해 생각해 볼 수 있다. NP 문제를 현실적인 비용으로 풀기 위해 문제 해결의 요구조건을 모든 입력정확한 답에서 흔한 입력적당한 답으로 조금 느슨하게 하는 방법이 있다. “Heuristic”이라고 불리는 문제 해결 방식은, 주어진 정보로 탐색 알고리즘에서 대안들의 순위를 매기고 (만족스런 시간 안에) 선택을 내리는 방식으로 근접한 답을 구한다. 이는 정확한 답을 보장할 수 없지만 충분히 근접한 답을 만족스러운 시간 안에 해결할 수 있게 한다. Heuristic에 기대는 방법이 NP문제 대부분에 잘 작동하기 때문에, 이를 구조적으로 유사한 모라벡의 역설에 적용해 모든 입력(혹은 상황)’정확한 답을 조금 느슨하게 하면 인간에게만 쉬운 문제를 인공지능도 쉽게 해결할 수 있게 된다. 여기서 해결이란 대부분의 상황에 대한 근접한 답을 의미하는데, 현실적인 시간 내에 정확한 답을 구하는 것은 불가능하기 때문에 가장 설득력 있는 차선으로서 해결이라는 용어가 사용될 수 있다고 보인다.

이러한 적용모델은 인간의 윤리적 규범을 인공지능에 적용할 때 발생할 유사한 상황의 문제에도 마찬가지로 대안이 될 수 있다. 윤리학적 규범과 관련지어 볼 때, ‘모든 사례에 대한 완벽하게 정의로운 결론을 불가능의 영역에 남겨두고, ‘대부분의 사례에 대한 대다수가 수용 가능한 결론을 요구하는 모델이라면 인공지능의 윤리적 규범으로 사용할 수 있다는 입장인 것이다. 즉 인공지능에게 적용할 때의 발생가능한 문제점 해결을 위해, 본론1의 인간의 윤리적 규범 모델에 heuristic의 방법을 접목시켜본다면 다음과 같이 변형시킬 수 있다.

a a') 모든 상황에 각각 최적의 모델 선택 대부분의 다양한 사례들에 대해각각 (최적의 모델 선택)

b b') 다양한 의견을 통한 사회적 합의를 거치는 대다수가 수용 가능할 수 있는사회적 합의를 통한


다시 말해
a‘) 대부분의 다양한 사례들에 대해 각각, b’) 대다수가 수용 가능할 수 있는 사회적 합의를 통한 최적의 모델을 가지는 메타적 모델을 상정하면, 선택된 인간의 윤리적 규범 모델을 인공지능에게 적용할 때 모라벡의 역설과 같은 문제점이 발생되지 않을 것이다.

 

 

III. 결론

 

인공지능에게 윤리적 규범을 적용시키는 문제에 있어, 먼저 인간의 윤리적 규범 중 어떤 모델을 선택할 지를 살펴보았다. 수많은 다양성이 공존하는 세계에서 단 하나의 절대보편적 규범을 정하는 것은 부당하기 때문에, 리오타르의 언어학적 도덕으로부터 추론한 다양성과 이질성을 옹호하는 메타적 모델을 선택하는 것이 최소한의 불의 원칙에 가장 부합한다고 보았다. 하지만 모라벡의 역설을 감안할 때 인공지능에게 적용할 때에는 또 다른 문제가 발생할 수 있다는 점에서, 유사한 NP 문제에 대한 하나의 접근인 heuristic을 해결책으로 제시하며 윤리적 규범의 모델에 적용시켰다. 이를 통해 우리는 다른 윤리적 규범을 배제하지도 않고 그것을 인공지능에게 적용할 때 발생가능한 문제도 일정 수준 해결한, 대부분의 다양한 사례들에 대해 각각 대다수가 수용 가능할 수 있는 사회적 합의를 통한 최적의 모델을 가지는 메타적 모델을 생각해볼 수 있다.

 



참고 문헌

볼프강 벨쉬, 『우리의 포스트모던적 모던』, 박민수 역, 2001
이광근, 『컴퓨터과학이 여는 세계』, 2015



* "인공지능을 위한 철학"이라는 대학 강의에 제출했던 리포트를 재구성한 글입니다.

댓글 쓰기

4 댓글

  1. 인공지능이 스스로 윤리적인 판단을 하는 것은 불가능하니
    인공지능으로 발생한 문제는 윤리적인 문제든 법적인 문제든
    개발자에게 책임이 있다고 봅니다.
    따라서 개발자 스스로 뚜렷한 윤리의식과 법적 책임감을
    가지고 인공지능을 만들어야 한다고 생각합니다.
    제가 Philgineer님의 글을 잘 이해했는지 모르겠네요? ~ ^^


    답글삭제
    답글
    1. 책임 소재도 분명 인공지능과 관련해 쟁점이 되는 부분이죠.
      21세기 우리 인류가 어떤 과정을 거쳐서 어떤 사회적 합의에 도달할 수 있는지는 지켜봐야 할 것 같습니다.

      삭제
  2. 윤리적 문제는 사회적 합의가 전제되면 최소화 되겠네요~~~~~~

    답글삭제
    답글
    1. 맞습니다 :) 피상적인 이야기가 될 수도 있지만, 윤리적 문제도 어느 정도는 수치적 최적화가 가능할 수 있다고 보며 적어보았습니다.

      삭제