알고리즘이 죽음을 결정할 때: 드론과 AI가 바꿔놓은 전쟁의 얼굴
떨리지 않는 손가락
영상을 본 적이 있으실 겁니다. 흑백 열상 화면 위로 한 사람의 윤곽이 잡힙니다. 텅 빈 거리를 걷다가 멈추고, 모퉁이를 돕니다. 조준선이 따라갑니다. 화면이 하얗게 번쩍이고, 그것으로 끝입니다. 비명도 없고 망설임도 없습니다. 수천 킬로미터 떨어진 곳에 앉아 있던 조종사는 다음 표적으로 넘어갑니다. 식별에서 소멸까지, 90초. 우리를 불안하게 만드는 것은 폭력 자체가 아닙니다. 전쟁은 언제나 폭력적이었으니까요. 진짜 섬뜩한 것은 그 절차의 이상할 정도로 고요한 일상성입니다. 전투라기보다 행정 처리에 가깝고, 죽음의 스프레드시트에서 한 칸을 체크하는 행위에 더 닮아 있습니다.
이것이 21세기 전쟁의 질감입니다. 러시아-우크라이나 전쟁에서 드론은 전장 사상자의 70~80퍼센트를 발생시키고 있습니다. 가자지구에서는 ‘라벤더(Lavender)’라는 AI 시스템이 최대 3만 7천 명의 잠재적 타격 대상을 자동으로 식별했다는 보도가 나왔습니다. 몇 주가 걸리던 인간 정보 분석 작업이 알고리즘의 수 초짜리 연산으로 압축된 것입니다. 이 기계들이 효과적이냐고 묻는 것은 무의미합니다. 소름끼칠 만큼 효과적입니다. 진짜 물어야 할 질문은 따로 있습니다. 방아쇠를 당기는 손가락이 한 번도 떨리지 않을 때, 죽임의 도덕적 건축은 어떻게 되는 것입니까.
자동화된 죽음의 설계도
공포의 실체를 파악하려면 먼저 기계의 작동 방식을 이해해야 합니다. ‘킬 체인(kill chain)’이란 표적을 탐지하는 순간부터 파괴하는 순간까지의 연쇄를 가리키는 군사 용어입니다. 과거에 이 사슬은 수 시간, 때로는 수 일에 걸쳐 늘어져 있었습니다. 정보 장교가 위성사진을 들여다보고, 분석관이 첩보 보고서를 대조하고, 지휘관이 비례성 원칙을 놓고 토론했습니다. 사슬의 매 고리마다 인간이 잠시 멈추고, 의심하고, 거부할 수 있는 순간이 끼어 있었습니다. AI는 이 사슬을 반사 신경에 가까운 것으로 압축해버렸습니다.
우크라이나에서 AI 통합은 FPV 드론의 명중률을 30~50퍼센트에서 약 80퍼센트로 끌어올렸습니다. 2026년 초 기준으로 우크라이나는 연간 300만 대 이상의 드론을 생산하고 있으며, 전선을 따라 15킬로미터의 무인 킬 존을 구축하는 ‘드론 라인’ 프로젝트를 추진 중입니다. 움직이는 것이면 무엇이든 탐지하고 파괴하도록 프로그래밍된 반자율 기계로 가득 찬 무인지대. 전장은 실험실이 되었고, 실험은 살아 있는 몸 위에서 진행되고 있습니다.
그러나 기술적 외피 아래 더 근본적인 변환이 벌어지고 있습니다. 이스라엘이 가자에서 라벤더를 배치했을 때, 이 시스템은 타격 속도를 높이는 데 그치지 않았습니다. 그것은 죽임의 인식론 자체를 재편했습니다. 머신러닝 모델이 각 개인에게 숫자로 된 ‘혐의 점수’를 매기고, 그 점수가 삶과 죽음을 갈랐습니다. 인간의 감독은 건당 20초 남짓의 형식적 승인으로 축소되었다는 증언이 보도되었습니다. 알고리즘이 사형선고의 저자가 되었고, 인간은 그저 그 공증인이 된 셈입니다.
알고리즘의 평범한 악
한나 아렌트(Hannah Arendt, 1906–1975)는 예루살렘에서 아돌프 아이히만의 재판을 참관한 뒤 하나의 표현을 남겼습니다. 악의 평범성. 아이히만은 이데올로기적 광기에 사로잡힌 괴물이 아니었습니다. 열차 시간표를 편성하듯 학살의 물류를 관리한 관료였습니다. 악에는 악마적 의지가 필요하지 않습니다. 사유의 포기, 즉 자신이 수행하는 절차의 의미를 묻지 않겠다는 묵인만으로 충분합니다.
슬픈 진실은, 대부분의 악은 선해지겠다거나 악해지겠다는 결심을 한 번도 내리지 않은 사람들에 의해 저질러진다는 것이다.
— 한나 아렌트, «정신의 삶»(1978)
아렌트가 오늘날의 알고리즘 킬 체인을 목격했다면, 그 구조를 단번에 알아보았을 것입니다. 기계의 권고에 따라 타격을 승인하는 드론 조종사는 의미 있는 도덕적 차원에서 ‘죽이기로 선택’한 것이 아닙니다. 시스템에 데이터를 입력하는 분석관은 누가 죽어야 할지 ‘결정’한 것이 아닙니다. 타격 알고리즘을 최적화하는 엔지니어는 자기 코드가 지울 얼굴들을 ‘상상’한 것이 아닙니다. 각 참여자는 거대한 기술 장치 안에서 협소한 기능적 역할만을 점유합니다. 바로 이 파편화가 도덕적 책임을 절차적 순응 속으로 녹여버립니다. 악은 격정적이지 않습니다. 건축적입니다.
그런데 아이히만의 관료주의와 오늘의 알고리즘 전쟁 사이에는 결정적인 차이가 있습니다. 아이히만은 적어도 인간이었습니다. 달리 선택할 수 있었던 존재, 심판받을 수 있었던 존재. 알고리즘은 심판할 수 없습니다. 심문할 양심도, 비난할 의도도 없습니다. 기계가 민간인을 전투원으로 오인했을 때—가자의 증거들은 이것이 참담한 빈도로 일어나고 있음을 시사합니다—누가 죄를 집니까. 시스템을 신뢰한 조종사입니까. 배치를 승인한 지휘관입니까. 설계한 기업입니까. 구매한 국가입니까. 책임은 파편처럼 흩어져, 모두를 상처입히면서도 아무도 상처입히지 않습니다.
파괴의 민주화라는 역설
오스트리아 외무장관 알렉산더 샬렌베르크는 이 순간을 ‘우리 세대의 오펜하이머 모먼트’라고 불렀습니다. 적절한 비유이지만 충분하지는 않습니다. 핵무기는 종말적 파괴력을 소수의 국가 행위자 손에 집중시켰습니다. AI 드론은 정반대의 일을 하고 있습니다. 정밀 살상 능력을 민주화하고 있는 것입니다. 우크라이나에서는 상용 드론에 AI 표적 지정 기능을 추가하는 데 약 25달러면 됩니다. 자원봉사 그룹, 취미 엔지니어, 비국가 행위자—자율 살상 전쟁의 진입 장벽이 무너지고 있습니다.
이 확산은 우리를 불안하게 만들어야 할 역설을 품고 있습니다. AI 전쟁을 국가에 매력적으로 만드는 바로 그 효율성이 테러 조직과 권위주의 정권에도 동일하게 매력적입니다. 기술은 누가 쥐고 있는지 개의치 않습니다. 우크라이나 주권을 보호하기 위해 설계된 드론 군집은 민간인을 표적으로 삼는 군집과 같은 원리로 작동합니다. 도구는 도덕적으로 무관심합니다. 그것을 배치하는 체계는 그렇지 않습니다.
떨림을 되찾아야 합니다
이 기계 앞에서 우리는 유토피아적 부인이나 허무주의적 항복 중 하나를 선택하고 싶은 유혹을 느낍니다. 둘 다 거부해야 합니다. 앞으로 나아가는 길은 알고리즘이 제공할 수 없는 것을 고집하는 데 있습니다. 손의 떨림, 행위 전의 망설임, 한 인간이 다른 인간의 죽음을 결정할 때 짊어져야 하는 환원 불가능한 무게.
감상적인 호소가 아닙니다. 구조적 요구입니다. 2026년 현재 수십 개 국가가 자율 무기를 규제하는 구속력 있는 국제 프레임워크를 촉구하고 있습니다. 유엔 군축사무소는 ‘의미 있는 인간 통제(meaningful human control)’ 원칙—치명적 결정이 그 결과를 이해하고 책임지는 인간 없이 실행되어서는 안 된다는 원칙—의 제도화를 강력히 추진 중입니다. 이것만으로 충분하지 않다는 것을 우리는 압니다. 그러나 자동화된 살상의 시대에 도덕적 행위자성을 보존하기 위한 최소한의 조건입니다.
규제 너머에서 더 깊은 시민적 각성이 필요합니다. 민주주의 사회의 시민들은 알고리즘 전쟁을 엔지니어들이 해결할 기술적 문제로 취급하기를 거부해야 합니다. 이것은 공적 숙의를 요구하는 정치적이고 철학적인 위기입니다. 알고리즘이 승인한 모든 드론 타격, 머신러닝이 생성한 모든 표적 목록, ‘통계적 이상치’로 처리된 모든 민간인의 죽음은 우리 이름으로 내려진 결정입니다. 이 결정들을 심문하지 않는다면, 우리는 양심을 우회하도록 설계된 폭력의 공범이 됩니다.
기계는 더 빨라지고, 더 똑똑해지고, 더 정밀해질 것입니다. 그 궤적은 되돌릴 수 없습니다. 하지만 우리 세기를 정의할 물음은 AI가 더 효율적으로 죽일 수 있느냐가 아닙니다. 효율성만으로는 충분하지 않다고 말할 수 있는 도덕적 어휘를 우리가 아직 갖고 있느냐는 것입니다—생명의 무게는 데이터 포인트로 환원될 수 없으며, 그것을 끝내는 결정은 결코 마찰 없이 이루어져서는 안 된다고. 그 영상을 볼 때, 당신의 손에는 아직 떨림이 남아 있습니까.


댓글 쓰기