[이종호의 포스트 펜데믹 로드맵-63] 인공지능 무기에 윤리 도입
[이종호의 포스트 펜데믹 로드맵-63] 인공지능 무기에 윤리 도입
  • 이종호 한국과학기술인협회장
  • 승인 2022.12.03 07:48
  • 댓글 0
이 기사를 공유합니다

인공지능이 전쟁을 비롯한 각종 인간 주위에 사용된다할 때 어느 점이 인간과 인공지능의 관계에서 바람직하냐는 사실 간단한 일이 아니지만 궁극적으로 전투로봇을 개발하고 전쟁에서 실제로 사용하는 것 자체가 윤리적으로 어긋난다는 시각이 상존하는 것은 사실이다.

국제인도법(Internatioal Humanitarian Law)은 무력충돌 시 인간의 고통을 예방하고 최소화하기 위한 목적으로 제정되었다.

국제인도법이 강조하는 것은 적대행위에 가담하지 않거나 할 수 없는 자, 투항한 자, 부상자와 병자 등의 육체적·신적 보전에 대한 권리를 옹호하며 신체적·정신적 고문이나 학대 행위를 금지하며 특히 민간인과 전투원의 구분을 강조한다. 한마디로 공격은 전적으로 군사목표물에 국한되어야 하는데 여기에서 생화학무기, 대인지뢰 등의 무기 사용을 금지한다.

이 기준은 전투요원과 그렇지 않은 자를 구별하지 못하거나 불필요한 살상과 고통을 초래하거나 환경에 심각하고 장기적인 손해를 일으키는 무기는 금지된다는 것이다. 큰 틀에서 이 법은 정부와 군대뿐만 아니라 무장단체 등 무력충돌 당사자 모두가 준수해야 하는 국제법으로 적용 대상에 있어 보편성을 지닌다.

이에 더불어 전쟁의 윤리를 포괄적으로 다루는 이론은 정당한 전쟁이론(Just War Theory)이다. 이 이론에 의하면 전쟁의 정당성은 3가지에 달려있다. 전쟁 개시의 정당성을 다루는 개전법(jus ad bellum), 전쟁 수행의 정당성을 다루는 교전법(jus in bello), 그리고 평화조약 및 전쟁 종식에 관한 전후법(jus post bellum)이다. 여기에서 군사로봇의 정당한 전쟁 수행을 다루는 범주는 교전법이다. 교전법의 기본은 식별 원칙과 비례성 원칙이다.

전쟁에서 공격의 목표물이 명확히 결정돼야 하며 적절한 공격 대상에 한정하여 수행된 공격 행위만 정당하다. 그러므로 식별원칙은 민간인과 전투원을 구별할 것을 요구한다. 여기에 전투 의지가 없거나 전투 능력을 상실한 부상자, 투항자, 정신이상자에 관해서도 전투원과 구별할 것을 요구한다.

비례성 원칙은 아무리 적군의 전투원을 대상으로 하더라도 무의미하고 무차별적인 살상은 용인되지 않는다는 것이다. 공격에 따라 예상되는 살상과 재산의 손실은 구체적이고 직접적인 군사적 이득에 비추어 과도해서 안 된다는 내용이 기반에 깔려있다. 이는 군사적 중요성이 무고한 시민의 희생보다 큰 경우에 비례할 경우 공격이 허용될 수 있다는 것이다.

군사로봇의 기본은 우선 아군과 적군, 전투원과 민간인을 식별할 수 있어야 한다. 문제는 이것이 알고리즘으로 가능하냐이다. 일부 로봇학자들은 로봇의 행동이 컴퓨터 프로그래밍에 의해 좌우되므로 교전 규칙에 따라 만들 수 있다면 필요한 식별 능력을 갖출 수 있다는 것이다. 반면에 많은 학자들은 이런 추정에 회의적이다. 규칙 따르기를 윤리적 행동의 수행과 동일시할 수 없다는 것이다.

사실 규칙이란 여러 해석이 가능한데 로봇이 주어진 규칙을 구체적인 상황에서 올바르게 해석한다고 볼 수 없다는 것이다. 이는 역으로 로봇에게 인간 병사가 가진 방대한 배경 지식이 부족하기 마련이라는 뜻이다. 특히 기만적 의도나 속임수에 적절히 대처할 수 있느냐는 더욱 큰 문제점을 암시한다.

결국 로봇의 실전배치는 매우 높은 기준점을 통과해야 하는데 이것이 가능하냐는 또 다른 논쟁 대상이다. 문제는 얼마나 높은 기준점을 통과해야 하느냐인데 군사로봇의 식별 능력이 100% 정확할 수 없다는 데 문제점이 도사린다. 물론 로봇이므로 무의미한 공격이 아니라 정확하고 효율적인 공격이 가능하다는 주장도 있지만 이런 주장이 보편성을 갖는 것은 아니라는 설명이다.

전쟁에서 누가 나쁜 결과에 책임질 수 있는지는 군사로봇의 윤리문제에서 근본이다.

사실 대부분의 기술적 인공물은 어느 정도 예측 불가능한 점을 갖고 있다. 다시 말해 기술 대부분이 위험성(risk)을 갖고 있다는 점이다. 아주 튼튼하게 건설했다는 건물도 예측 불가능한 상황에서 붕괴하는 것을 종종 본다.

책임질 수 있는 능력 혹은 구조는 규범적인 개념이다. 약품이나 건물의 설계자, 제조자, 관리자, 감독자 등에게 책임을 묻기도 하고 면제하기도 하는데 이는 각 관련 당사자의 잘못이 있느냐에 따라서이다. 과실이 인정되면 책임을 묻고 과실이 아닌 경우 책임을 면할 수 있다.

그런데 무엇이 과실인지는 어디까지를 지켜야 하는 의무로 규정하는지에 달려있고 그 의무를 다하지 못하는 경우 책임을 져야 한다. 여기에서 전투로봇에 대한 책임론도 대두된다.

여기에서 중요한 것은 그 의무의 범위가 선험적으로 주어지지 않았다는 점이다. 문제는 전투로봇 스스로 책임 능력이 없으므로 누군가가 책임져야 한다고 주장된다. 그런데 정작 킬러 로봇의 책임은 누가 지느냐이다. 설계자, 제조사, 각 단계의 군사지휘관, 함께 업무를 수행한 병사 그리고 규체 당국은 군사로봇이 일으킬 수 있는 나쁜 결과에 대한 책임을 져야한다는 주장이지만 이보다 심각한 것은 자율성 군사무기이다.

자율성의 사전적 의미는 자기 스스로 원칙에 따라 어떤 일을 하거나 자기 스스로 자신을 통제하여 절제하는 성질이나 특성을 뜻한다. 생물학적으로는 생물체의 조직이나 기관이 중추 신경과 연락이 끊어져도 독립해 활동할 수 있는 성질을 말한다.

말하자면 ‘자기 알아서 판단하고 행동한다’는 뜻인데 로봇이 인간의 통제를 벗어나 자율성을 갖도록 프로그램화 되거나 또는 스스로 진화되어 자율성을 갖게 된다면 어떻게 될까이다. 학자들은 이를 ‘킬러용 로봇’이라 부른다.

사실 각국에서 치열한 무기경쟁을 벌이는 분야는 자율성 킬러 로봇이다. 킬러 로봇에는 여러 종류가 있지만 가장 알기 쉬운 것은 사람의 지시 없이 발포할 수 있는 로봇이라는 뜻이다. 소위 군사로봇 설계자가 킬러 로봇에 자율성을 부과해 로봇이 판단할 수 있도록 알고리즘을 제시한다는 것이다. 일부 학자들은 자율성을 가진 킬러로봇이 수십 년 뒤가 아니라 근간 현실화할 가능성이 크다고 주장한다.

군사강국의 경우 킬러 로봇의 장점은 감정이 없으므로 과감하고 위험한 임무에 투입할 수 있다는 점이다. 당연히 투입 장병의 숫자를 줄여 아군의 인명 피해를 최소화할 수 있는 것은 물론 국방비 부담을 줄이는 경제적 이점도 있다.

그러나 스티븐 호킹 박사를 비롯해 세계 많은 석학들은 자율성을 가진 킬러 로봇이 인류의 대재앙을 초래할 수 있다고 경고했다. 심지어 테슬라 모터스의 일론 머스크 회장은 킬러 로봇 개발은 악마를 불러들이는 것과 마찬 가지라고 비난했다. 살상 권한을 로봇에 넘겨주면 화약이나 핵무기의 출현보다 더 큰 영향을 미칠 수 있다.

그러므로 적어도 자율성 무기인 경우 국제법에서 어떻게 다루어야 할지에 대해 늦기 전에 결정해야 한다는 것이다. 한마디로 치명적인 자율무기가 법적, 윤리적, 안전 문제를 제기하므로 각국이 완전 자율무기를 금지하는 국제 조약을 채택해야 한다는 주장도 거세다. 전쟁에서든 법 집행에서든 무기를 사용한 생사 결정에서 인간이 통제력을 가져야 도덕적 한계선을 넘지 않게 된다는 것이다.

사실 적군에 대한 공격을 인간이 아닌 드론 즉 로봇이 스스로 판단하여 결정한다는 것은 책임 문제를 어렵게 만든다는 것이다. 이런 규정은 완전 자율 무기의 사용이 초래할 수 있는 책임감 공백을 피하게 된다. 그리고 책임자가 행동을 취하기 전에 한 번 더 생각할 가능성이 커진다.

완전 자율무기 문제만을 다룬 국제법은 아직 없지만 이에 관한 새로운 금지규정은 채택할 수 있다는 견해다. 역사적으로 군축법에선 사람의 통제를 받지 않는 무기는 인정할 수 없다고 판단해 금지했다.

지뢰금지협약에선 통제되지 않는 대인지뢰를 금지한 이유는 간단하다. 사람이 작동하지 않고 피해자가 뇌관을 터뜨리기 때문이다. 생물학과 화학무기협약을 채택한 이유는 일정 부분 통제되지 않는 무기가 유발하는 공포가 만만치 않다고 예상하기 때문이다.

천현득 박사는 이를 위한 당사자들 간의 협상이 필요하다고 주장했다. 즉 협상의 결과가 군사로봇을 전쟁에 사용하기 위한 필요조건이라는 뜻이다. 이는 전투로봇이 전투에 투입되었다면 나쁜 결과에 대해 책임이 로봇 자신, 지휘관, 설계자 등 어느 누구도 이에 대한 온전한 책임을 질 수 없다는데 근거한다. 즉 분산된 책임의 가능성을 긍정함을 누가 어떤 방식으로 책임을 나누어 분담할지에 많은 의견수렴이 필요하다는 뜻이다.

인간에게 이롭고 아니고를 떠나 인간의 통제를 벗어나 확산되는 발명품은 인간에게 끊임없는 공포의 대상이 돼왔다. 핵무기를 거론하지 않아도 100년 동안 자동차가 우리의 생활을 얼마나 변화시켰는지 생각해 보면 대부분 자동차가 사람을 더욱 윤택하게 만들었다는데는 이론의 여지가 없다. 그럼에도 불구하고 교통사고로 수많은 사람들이 사망했고 앞으로도 사망할 것임은 자명한 일이다.

그러므로 어느 때보다 군사용 무기 등 첨단 기술의 안전성이 부각함으로 보안 안전성을 높이며 활성화할 공생의 지점을 찾아야 한다는 지적이 있는 것은 사실이다. 공자님의 말씀 같지만, 문제를 만든 것은 인간이므로 해결책도 인간이 만들어야 한다는 뜻과 다름없다.

일부 학자들은 세계를 강타한 ‘KAIST 보이콧’ 사태가 인공지능로봇 개발에 좋은 선례가 되었다고 주장하기도 한다.

필자소개
고려대학교·대학원 졸업, 프랑스 페르피냥대학에서 공학박사 학위 및 과학국가박사 학위
한국과학기술연구원(KIST), 한국에너지기술연구원에서 연구 활동
저서: 「침대에서 읽는 과학」, 「4차 산업혁명과 미래 직업」, 「로봇은 인간을 지배할 수 있을까?」, 「유네스코 선정 한국의 세계문화유산」, 「유적으로 보는 우리 역사」 등 100여권



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • 서울특별시 송파구 올림픽로35가길 11(한신잠실코아오피스텔) 1214호
  • 대표전화 : 070-7803-5353 / 02-6160-5353
  • 팩스 : 070-4009-2903
  • 명칭 : 월드코리안신문(주)
  • 제호 : 월드코리안뉴스
  • 등록번호 : 서울특별시 다 10036
  • 등록일 : 2010-06-30
  • 발행일 : 2010-06-30
  • 발행·편집인 : 이종환
  • 청소년보호책임자 : 이석호
  • 파인데일리 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 월드코리안뉴스. All rights reserved. mail to wk@worldkorean.net
ND소프트