AI 기술의 군사적 활용 – 킬러 로봇과 국제사회 논쟁의 현황
AI 기술의 군사적 활용 – 킬러 로봇과 국제사회 논쟁의 현황
“인간의 판단 없이 인간을 죽이는 기계가 현실이 될 수 있을까?” 이 문장은 더 이상 영화 속 대사가 아니다. 2025년 현재, AI 기술이 무기 체계에 적용되는 수준은 단순히 감시·탐지 수준을 넘어 **자율 공격, 목표 선정, 실시간 위협 제거** 기능까지 확장되고 있다. 이른바 '킬러 로봇(Killer Robots)' 또는 공식적으로는 **자율살상무기(LAWS: Lethal Autonomous Weapon Systems)**라 불리는 이 무기들은, 이미 일부 국가의 실전 실험 단계에 도달했고, 국제사회는 이를 둘러싸고 치열한 윤리·법적 논쟁에 휘말려 있다. 이 글에서는 AI의 군사적 활용이 어디까지 왔는지, 국제사회는 어떤 입장을 취하고 있는지, 그리고 내가 바라보는 킬러 로봇 기술의 실질적 위험과 도전 과제에 대해 깊이 있게 이야기해보고자 한다.
킬러 로봇, 그 기술은 어디까지 왔나?
킬러 로봇이란 인간의 직접적 개입 없이 **목표를 인식하고, 공격 여부를 판단하며, 실제로 살상 행위를 수행하는 무기 체계**를 뜻한다. 이 개념은 영화 <터미네이터>나 <로보캅>에서 먼저 등장했지만, 이제는 더 이상 허구가 아니다. 미군의 **로열 윙맨 프로젝트**나 이스라엘의 **하푼 드론**, 러시아의 **우란-9 전투 로봇** 등은 이미 AI를 탑재한 반자율 무기로 운영되고 있다. 물론 현재 대부분은 '인간의 승인 하에 작동'하는 방식이지만, 그 판단 시간은 점점 짧아지고, 인간의 개입 여지는 점점 줄어드는 방향으로 진화하고 있다. 내가 특히 충격을 받았던 건 2020년에 있었던 **리비아 내전 중 터키제 자율 드론이 인간의 명령 없이 목표를 식별하고 공격했다는 보고서**였다. 이 드론은 ‘군사적 위협’으로 분류된 대상을 식별하고, 사전 프로그래밍된 기준에 따라 직접 공격을 감행했다. 당시 유엔 보고서에 따르면 “명시적 인간 개입 없이 작동했을 가능성이 있다”고 기록되어 있다. 나는 이 문장을 읽으며, ‘이미 현실이 되었구나’라는 두려움을 느꼈다. 킬러 로봇의 무서운 점은 단순히 무기가 정교해진 것이 아니다. 인간이 빠진 결정구조다. **생명을 죽이는 결정이 기계에게 넘어갔을 때, 우리는 그 결과에 대해 누가 책임을 질 수 있는가?** 군사적 효율성은 높아질지 모르겠지만, 전쟁의 윤리적 책임 구조는 완전히 무너진다. 인간은 자신의 손을 더럽히지 않으면서도, 누군가를 죽일 수 있는 시대에 들어선 셈이다.
나는 이 흐름을 막을 수 있다고 보지 않는다. 기술은 늘 진보해왔고, 군사 분야는 그 진보에 가장 먼저 예산을 투자하는 영역이다. 하지만 그 기술의 사용을 어떤 원칙과 제도로 제어하느냐는 전혀 다른 이야기다. 지금 우리는 그 제어 장치를 만들 틈도 없이, ‘실전 테스트’를 하고 있는 시대에 살고 있다. 그 점이 가장 두렵다.
국제사회의 반응 – 금지인가, 통제인가?
킬러 로봇을 둘러싼 국제사회의 논의는 크게 두 축으로 나뉜다. 첫째는 **완전한 사전 금지**, 둘째는 **조건부 허용과 통제**다. 유엔을 중심으로 한 ‘킬러 로봇 금지 캠페인(Campaign to Stop Killer Robots)’은 전 세계 30여 개국과 160여 개 단체가 참여하고 있으며, 킬러 로봇의 개발 자체를 중단할 것을 요구하고 있다. 대표적으로 오스트리아, 뉴질랜드, 파키스탄, 브라질 등이 이 입장을 지지하고 있다. 하지만 미국, 러시아, 중국, 이스라엘 등 군사 AI 기술 선진국은 ‘사전 금지는 과도하다’는 입장을 고수한다. 이들은 “국제인도법(LOAC) 하에서 충분히 통제할 수 있으며, 인간의 판단을 병행하는 한 기술 개발은 문제가 없다”고 주장한다. 쉽게 말해, **금지가 아닌 통제 가능한 사용을 지향**한다는 것이다. 특히 미국은 “AI 무기가 오히려 민간 피해를 줄이는 데 도움이 된다”는 논리까지 내세우고 있다. 나는 이 부분에서 약간의 냉소를 느낀다. 과연 민간 피해를 줄이는 무기가 존재할까? 인간이 만든 어떤 무기든, 전쟁 상황에서 예외 없이 위험한 결과를 낳는다. 특히 ‘인공지능 무기’는 상황 판단의 오류, 알고리즘의 편향, 예측 불가능한 환경 반응 등 다양한 변수에 취약하다. **오류 한 번으로도 수많은 인명이 희생될 수 있는 무기를 ‘효율’이라는 이름으로 밀어붙이는 것**, 나는 여기에 강한 거부감이 있다. 그리고 또 하나 간과할 수 없는 문제는 책임 소재다. 만약 AI 무기가 민간인을 오폭하거나, 자율 판단으로 오작동을 일으켰다면, 누가 책임지는가? 무기를 만든 회사인가? 운영한 군인인가? 개발을 승인한 국방부인가? 이 책임 구조가 명확히 규정되지 않는 한, ‘통제 가능하다’는 말은 실체 없는 위안일 뿐이다. 지금까지 공개된 대부분의 킬러 로봇 시스템은 **책임 회피의 구조**로 설계돼 있다는 게 더 우려스럽다.
기술보다 윤리, 이 논쟁은 어디로 가야 하는가?
킬러 로봇의 문제는 단지 기술의 발전 방향에 대한 논쟁이 아니다. 이것은 **‘전쟁의 윤리’와 ‘인간의 역할’이라는 근본적 질문**과 맞닿아 있다. 우리가 인간 없이 전쟁을 수행할 수 있다면, 전쟁은 점점 ‘게임처럼’ 될 수 있다. 희생이 가벼워지고, 무력 사용의 문턱은 낮아진다. 나는 이것이야말로 킬러 로봇이 가진 가장 근본적인 위험이라고 본다. 이 기술의 핵심은 ‘책임 없는 폭력’이다. 누가 명령했는지도 불분명하고, 누가 당했는지도 정확히 확인되지 않으며, 결과에 대한 책임도 흐려진다. 전쟁의 고통이 가시화되지 않으니, 오히려 더 많은 전쟁이 쉽게 시작될 수 있다. 그리고 이 모든 과정을 인간이 아닌 기계가 수행한다면, **우리는 전쟁의 정의 자체를 다시 써야 할지도 모른다.** 나는 기술의 발전을 반대하지 않는다. 감시 드론, 정찰 위성, 통신 차단 장비 등 많은 군사 기술은 전투가 아닌 억제와 방어를 위한 용도로도 쓰인다. 하지만 킬러 로봇은 본질적으로 다르다. 이것은 인간의 손에서 ‘생명 판단 권한’을 아예 떼어내는 기술이기 때문이다. 나는 이 방향이 **윤리적으로도, 정치적으로도, 인류 공동체로서도 매우 위험한 전환점**이라고 생각한다. 그렇다면 우리는 어떻게 대응해야 할까? 나는 전 세계적으로 ‘킬러 로봇 윤리 위원회’와 같은 독립적 국제기구가 필요하다고 본다. 유엔 중심의 협약 체결을 넘어서, 실제로 **무기 사용의 투명성을 감시하고, 민간 피해를 실시간 기록하며, 책임자를 추적할 수 있는 시스템**이 구축되어야 한다. 기술보다 빠르게 윤리를 만드는 건 어렵지만, 지금 시작하지 않으면, 너무 늦게 후회하게 될 수 있다.
우리가 통제하지 못하는 전쟁 기술, 그것은 누구를 위한 진보인가?
킬러 로봇은 지금도 개발되고 있고, 이미 일부는 실전에 투입되고 있다. 기술은 인간의 통제 바깥에서 움직이기 시작했고, 우리는 이제 그 기술이 만들어낸 윤리적 공백을 어떻게 채울지 고민해야 한다. 나는 ‘전쟁의 자동화’라는 말이 불쾌하다. 거기에는 인간의 감정도, 망설임도, 책임도 존재하지 않기 때문이다. 결국, 이 문제는 기술의 문제가 아니다. **어떤 세상을 우리가 받아들일 수 있는가에 대한 선택의 문제**다. 나는 인간의 판단이 사라진 전쟁, 그 전장을 움직이는 건 AI라는 이름의 알고리즘이 되는 시대를 경계한다. 전쟁은 너무나 인간적인 비극이기에, 그 책임도 인간이 져야 한다고 믿는다. 킬러 로봇의 미래를 막는 건 기술이 아니라, 우리가 내리는 윤리적 결단이다.