기후위기시계
실시간 뉴스
  • 로봇에게도 도덕적 판단이 가능한가…‘왜 로봇의 도덕인가’
〔헤럴드경제=이형석 기자〕‘터미네이터’와 ‘로보캅’ 등 많은 SF 영화가 스스로 도덕적 판단을 내리는 로봇을 등장시킨다. 어떤로봇은 “인간을 절대로 공격해서는 안된다”고 입력된 명령을 철저히 따르고, 어떤 로봇은 인간에 의해 내려진 지시를 스스로 거부하고 인류를 공격한다. 로봇이 등장하는 수많은 소설과 영화에 가장 큰 영감을 준 것이 바로 1940년대 아이작 아시모프가 일련의 로봇 시리즈 소설을 통해 보여준 ‘로봇 공학 3원칙’이다. 이는 ▲로봇은 인간에게 해를 히거나 혹은 행동을 하지 않음으로써 인간이 해를 입도록 해서는 안된다 ▲로봇은 인간이 내리는 명령에 복종해야 하며 단 이러한 명령들이 첫번째 법칙에 위배될 때에는 예외로 한다 ▲로봇은 자신의 존재를 보호해야 하며 단 그러한 보호가 첫번째와 두번째 법칙에 위배될 때는 예외로 한다 등으로 구성돼 있다. 

과연 이러한 로봇 스스로의 도덕적 판단이 가능할까? 최근 출간된 ‘왜 로봇의 도덕인가’(웬델 월러치, 콜린 알렌 지음, 노태복 옮김, 메디치미디어)는 수많은 공상과학 소설과 영화에서 다뤄진 로봇의 윤리 문제를 실제 과학이론으로 검증하고 예측하며 분석하한 저서다. 로봇 윤리라는 신흥 분야에 관한 최초의 입문서이자 로봇의 도덕에 대한 포괄적인 안내서라고 출판사는 소개한다.

영화 ‘2001 스페이스 오디세이’나 ‘터미네이터’의 종말 시나리오는 과연 실현 가능한가 라는 이야기부터 만약 컴퓨터가 도덕적 결정을 내리는 것이 필요하다면 공학자와 철학자는 이를 어떻게 설계해야 하는가 라는 실제 공학적 과제까지 논의를 전개해간다.

과연 로봇에게 도덕을 가르치는 일이 가능할까, 사람들은 컴퓨터가 도덕적 의사결정을 내리기를 원할까 라는 질문을 다루지만, 결국 이 책이 향하고 있는 것은 인간 자신에 대한 이해다. 로봇에게 도덕을 가르치는 문제, 윤리적 판단 과정을 설계하는 문제는 곧 인간 스스로가 도덕적 결정을 내리는 원리와 과정에 대한 이해를 바탕으로 하기 때문이다. 저자들은 로봇공학, 철학, 인지과학, 도덕심리학, 신경윤리학, 인공두뇌학, 진화생물학, 게임이론 등 다양한 분야의 최신 연구성과를 통해 로봇과 인간에 대한 이해에 접근해간다. 로봇 윤리에 관한 입문서일 뿐 아니라 뇌과학과 인공지능이론의 최근 흐름에 관한 개론서이다.

저자 웬델 월러치는 예일대 생명윤리를 위한 학제간 센터에 소속된 컨설턴트이자 윤리학자이며 콜린 알렌은 인디애나 대학교의 과학철학사 및 인지과학 교수다.

suk@heraldcorp.com















이형석기자suk@heraldcorp.com
맞춤 정보
    당신을 위한 추천 정보
      많이 본 정보
      오늘의 인기정보
        이슈 & 토픽
          비즈 링크