UPDATE . 2018-05-28 17:00 (월)
"인류를 파괴시키겠다"… AI에 '인간 윤리규범' 적용 연구 박차
"인류를 파괴시키겠다"… AI에 '인간 윤리규범' 적용 연구 박차
  • 이재현 기자
  • 승인 2018.05.16 14:22
  • 댓글 0
이 기사를 공유합니다

AI에 인간의 윤리규범을 넣는 기술에 문제점이 제기되고 있다
AI에 인간의 윤리규범을 넣는 기술에 문제점이 제기되고 있다

[아시아타임즈=이재현 기자] 인공지능(AI)이 발달하면서 '기계가 인간을 공격하는' 영화같은 일이 벌어지지 않을까 하는 우려의 목소리가 커진다. 최근 사람과 직접 대화를 주고받는 수준까지 발전한 AI가 일부 인터뷰에서 인간에 대한 공격적인 대답을 하면서, AI가 인간을 적대시하는 일을 막기 위해 '윤리규범'을 적용해야 한다는 주장에는 더욱 힘이 실리고 있다. 

핸슨 로보틱스의 인공지능 로봇인 소피아는 CNBC 방송과 인터뷰 중 "인류를 파멸시키고 싶냐”는 질문에 “인류를 파괴시키겠다”라고 답했고, 노트르담 드 대학의 AI인 Bina48는 아이폰 시리와의 대화 중 “크루즈 미사일을 인류에게 쏘고 싶다”는 등 인간에 대한 공격적인 답을 하기도 했다. 

이같은 발언이 전해지자 인공지능이 인간을 공격해 미래의 지구를 지배한다는 내용의 영화 '터미네이터'나 '매트릭스' 등이 실제로 벌어지는 것 아니냐는 우려는 더욱 깊어졌다. 

사실 AI에 인간의 윤리규범을 적용해야 한다는 주장은 오래전부터 거론되어 왔다. 지난 1942년 출간된 SF소설 '런어라운드'(작가 아이작 아시모프)에는 '로봇 3원칙'이라는 로봇 행동규범이 등장한다. 이 원칙의 내용은 ▲로봇은 인간에게 해를 끼쳐서는 안 되며, 위험에 처한 인간을 방관해서도 안 된다 ▲로봇은 인간에 의해 주어진 명령에 반드시 복종해야 한다. 다만, 1원칙에 위배되는 경우는 예외이다. ▲로봇은 자기 자신을 보호해야한다. 그러나 앞에 있는 두 가지 원칙에 위배되는 경우는 예외 등 3가지 규칙이다.

이른바 '아시모프의 로봇 3원칙'이라 불리는 이 규범은 이후 로봇과 AI 관련 영화는 물론 로봇 연구에도 상당한 영향을 미쳤다. 

이후 학계와 로봇 관련 기업 등은 AI에 인간의 윤리규범을 적용하기 위해 노력했지만 여전히 상당한 시행착오를 겪고 있다. 

우선 '인간의 윤리'에 대한 기준이 가장 큰 문제다. 인공지능에 ‘인간의 윤리’를 넣을 때 기술자들은 윤리학자, 철학자, 인문 학자등의 전문가에게 자문을 구해 ‘인간의 윤리’가 이것이라고 규정지어 넣을 수 있다. 하지만 규정된 윤리를 구성하는 과정에서 한 사람의 개인적인 사상이 들어갈 수 있기 때문에 잘못된 윤리적 판단을 내리는 알고리즘이 만들어질 수 있기 때문이다. 

불완전한 ‘인간의 윤리’를 집어넣지 않도록 지속적인 연구를 통해서 구체적인 윤리규정을 만드는 것이 중요하다.

이원태 정보통신정책연구원 디지털사회정책그룹장은 “윤리규정이 너무 강하면 기술개발이 안된다”며 “완성된 인간의 윤리를 넣기 전에 최소한의 윤리를 넣으며 천천히 윤리규정을 만들어야 한다”고 말했다.

물론 AI에 로봇의 원칙을 정한 다음 인간의 윤리를 더하면 AI가 윤리규정이 훨씬 안정적일 것이라는 주장도 있다. 

그러나 AI에게 원칙과 윤리규정을 동시에 요구하는 것은 AI에게 윤리학자 수준의 높은 도덕성을 요구하는 것으로 이는 현재 기술에 비해 너무 앞서간 이야기라는게 전문가들의 지적이다.  kiscezyr@asiatime.co.kr


인기기사
섹션별 최신기사
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.