[이종호의 포스트 펜데믹 로드맵-61] 고삐 없는 군사 무기
[이종호의 포스트 펜데믹 로드맵-61] 고삐 없는 군사 무기
  • 이종호 한국과학기술인협회장
  • 승인 2022.11.19 06:48
  • 댓글 0
이 기사를 공유합니다

전쟁터에서 발생할 수 있는 예를 보자. 전쟁터에서 가장 자주 일어나는 일 중 하나는 아군이 아군을 공격하거나 상처 입은 적군을 공격하는 일이다. 더구나 공격을 받은 아군이 적군과 민간인들을 구별하지 못하여 무차별로 공격하면서 수많은 민간인들을 살상하는 경우도 생긴다. 이는 인간의 자위본능이 발동되어 상황을 정확하게 판단하기 전에 우선 쏘고 보자는 생각이 앞서기 때문이다.

학자들은 이럴 경우 혼란스러운 전투 속에서도 감정에 좌우되어 즉흥으로 행동하지 않도록 로봇을 설계하면 된다고 주장한다. 매우 급한 상황에서 공격을 당하더라도 민간인을 공격하는 따위의 실수를 저지를 가능성을 없앤다는 것이다. 다시 말해 적절하게 설계한다면 도덕적인 결정이 필요할 때 로봇이 인간보다 낫다는 이야기로 로봇에 내장된 ‘도덕성 총괄 제어 장치’가 전장에 투입된 후 어떨 때 발포해야 하는지를 지시한다는 것이다. 가령 적군의 탱크가 넓은 들판에 있다면 발포한다. 그러나 적군이 공동묘지에서 벌어지는 장례식에 참석하고 있다면 교전 수칙에 어긋나므로 발포를 금지한다는 것이다.

무기를 선택하는데도 도덕성이 개입한다. 무기가 너무 강력해서 의도하지 않은 피해가 발생할 수 있는 경우 가령 미사일이 탱크는 물론 사람들이 많이 있는 건물까지 파괴할 수 있을 경우 시스템 조정에 따라 무기를 낮춰 선택한다.

나름대로 보완조치가 기다린다. 로봇에게 모든 것을 맡기면 생길 수 있는 오류를 방지하기 위해 인간이 로봇에 조언하는 측면에서 최종 결정을 내릴 수 있는 권한을 갖는다는 설명이다. 즉 로봇에 예상하지 못한 상황에 빠졌을 때 인간이 이를 조정하여 문제점을 제거한다는 것이다.

엄밀하게 말해 이렇게 똑똑한 인공지능 로봇이 개발된다면 일부 로봇을 반대하는 사람들이 제기하고 있는 로봇의 무차별 확산에 큰 제동이 걸 필요가 없다고 설명하기도 한다. 그런데 현실적으로 볼 때 이처럼 100% 완벽한 상태에서 운용되는 것이 거의 불가능하다는 데 문제의 심각성이 있다.

그런데 인공지능 로봇으로 공격형 군사무기를 만드는 목표가 큰 틀에서 기계가 사람을 가리지 않고 살상한다는 것을 기본으로 한다는 점이다. 특히 전쟁터라는 특수 상황을 고려하면 조그마한 틈새도 인명 피해를 갖고 온다.

전 세계 수많은 사람들이 한마디로 킬러로봇을 반대하는 이유다. 그런데 이들의 주장이 상당한 직관적인 설득력을 갖고 있다는 것은 의문의 여지가 없다.

실제로 군사로봇의 실패사례는 자주 발생한다. 2008년 4월 이라크에서 탈론(TALON), 스워드(SWARD)가 오작동을 일으켰으며 2007년 10월 준자율 로봇 포의 오작동으로 9명이 사망하고 14명이 부상당했다.

문제는 단지 킬러로봇의 개발을 멈추고 사용을 금지하라는 구호로만 군사로봇 개발이 중지되지 않는다는 점이다. 더불어 이 문제를 윤리적인 잣대로 해결할 수 있는 것도 아니라는 점이다. 이는 전쟁용으로 개발된 인공지능 로봇 즉 군사무기 자체를 킬러로봇으로 간주하는 것도 바른 생각은 아니다라는 지적 때문이다.

다소 어려운 설명이기는 하지만 일부 학자들은 인공지능을 활용하는 로봇이 투입됐다 하더라도 무엇이 살인이고 누가 살인자인지를 결정하는 일조차 간단한 일이 아니라고 지적한다. 살인은 사람의 사망이라는 물리적인 차원뿐만 아니라 윤리적·법적 차원을 가지는 규범적 개념이기 때문이다.

통상으로 정당하지 않은 이유 또한 정당하지 않은 수단과 방법으로 사람의 목숨을 빼앗으면 그 행위를 수행한 사람을 살인자로 부른다. 그런데 사람의 목숨을 해쳤더라도 정당한 이유가 있다면 그 행위는 살인이 아니라고 판정 나기도 한다. 할리우드 서부극에서 수많은 사람을 살해한 총잡이가 살인자로 무조건 지탄받지 않는 이유이다.

여하튼 살인과 살인자에 관한 이러한 통상적인 관념에 의한다면 전쟁에서 사용되는 모든 무기를 살인자라 부를 수 없고 참전한 모든 군인을 살인자로 부르는 것도 적절하지 않다. 특히 전쟁에서 살상무기가 대량으로 사용되는데 여기에서 살상무기란 인명을 살상하는데 사람에 의해 사용될 수 있다는 것을 의미하지만 그 자체로 살인자라는 뜻은 아니다.

학자들은 바로 이 대목이 킬러로봇을 개발하는 사람들에게 빌미를 준다고 지적한다. 사실 인공지능이 가미된 수많은 군사용 무기들 모두를 ‘킬러무기’로 단정할 수 없는 것은 군사로봇의 임무가 성격에 따라 달라지기 때문이다.

일반적으로 인공지능 군사용 로봇은 전투로봇과 비전투 로봇으로 나뉜다.

비전투로봇은 전쟁 중에 운송, 탐사, 사상자 후송 등에 사용됨으로써 전장에 투입되는 인간 병사의 숫자를 줄여주며 폭발물 해체와 같은 위험한 작업을 대신한다. 인공지능 로봇이 지뢰 발견 및 해체에 동원되고 정찰 및 감시 임무에 투입되어 혁혁한 성과를 거두고 있음은 잘 알려진 사실이다.

더불어 모든 군사용 무기는 공격 무기와 방어 무기로 나뉘는데 인공지능 로봇도 이와 같은 분류 즉 공격 로봇과 방어 로봇으로 구분할 수 있다. 상대방의 미사일에 자동으로 대응하는 자율무기와 상대방을 인간의 제어 없이 자동으로 공격하는 무기는 다른 지위를 갖는다는 뜻이다.

더불어 군사로봇의 효용성을 거론하는 사람들은 결과주의적 논리를 제시한다. 군사로봇을 전투에 참가시켜 장병의 손실을 줄일 수 있다면 군사로봇의 사용은 윤리적으로 정당화될 수 있다는 것이다. 전쟁이 벌어지면 인간 간의 살상이 무자비하게 벌어지며 수많은 사람들이 살상되는데 로봇의 참가로 오히려 희생자를 줄일 수 있다는 주장이다.

그럼에도 불구하고 군사용 무기에 대한 가장 큰 지적은 로봇이 인간을 해치는 것이 허용될 수 있느냐이다. 한마디로 고삐가 풀려 군사용무기 개발이 촉발된다면 그 피해는 어떤 연유로든 인간에 귀착된다는 것이다. 문제는 지구에서 전쟁이라는 돌발 변수를 영원히 사라지게 할 수 있느냐이다.

필자소개
고려대학교·대학원 졸업, 프랑스 페르피냥대학에서 공학박사 학위 및 과학국가박사 학위
한국과학기술연구원(KIST), 한국에너지기술연구원에서 연구 활동
저서: 「침대에서 읽는 과학」, 「4차 산업혁명과 미래 직업」, 「로봇은 인간을 지배할 수 있을까?」, 「유네스코 선정 한국의 세계문화유산」, 「유적으로 보는 우리 역사」 등 100여권 


관련기사

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • 서울특별시 송파구 올림픽로35가길 11(한신잠실코아오피스텔) 1214호
  • 대표전화 : 070-7803-5353 / 02-6160-5353
  • 팩스 : 070-4009-2903
  • 명칭 : 월드코리안신문(주)
  • 제호 : 월드코리안뉴스
  • 등록번호 : 서울특별시 다 10036
  • 등록일 : 2010-06-30
  • 발행일 : 2010-06-30
  • 발행·편집인 : 이종환
  • 청소년보호책임자 : 이석호
  • 파인데일리 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 월드코리안뉴스. All rights reserved. mail to wk@worldkorean.net
ND소프트