국방 기술결정론
by 🍊산디
사막 언덕에서 보초를 서던 당신은 한 목동이 양을 몰고 반대편 언덕 위에 올라온 것을 발견합니다. 당신은 테러 조직이 종종 민간인 특히 어린 목동들을 정보원으로 이용한다는 사실을 알고 있습니다. 목동은 몸을 돌리더니 당신이 알지 못하는 언어로 무어라 읊조립니다. 소년은 테러 조직에게 당신의 위치를 알리는 것일까요, 혹은 그저 노래를 부르고 있는 것일까요? 당신의 총구는 목동을 겨누고 있습니다.
이 일화는 신미국안보센터(CNAS) 연구소장인 폴 샤레가 쓴 <새로운 전쟁>에 등장합니다. 이라크 전쟁 중 그가 직접 겪은 일이자, 그가 여전히 꾸고 있는 악몽의 내용이기도 합니다. 그는 결국 총을 쏘지 않았고, 목동은 테러 조직의 정보원이 아니었습니다. 폴 샤레는 무고한 민간인의 삶이 자신의 총구 안에 들어왔던 그 순간 자신이 내릴 수 있었던 오판 가능성에 두려워하면서 전쟁터에서 AI의 자율적인 판단은 결코 완전할 수 없음을 역설합니다. 현장의 복잡성과 미묘한 맥락을 AI가 완전히 읽어낼 수는 없다는 것입니다.
백악관은 지난 17일, 바이든과 시진핑이 핵무기 이용은 인간에 의해서 통제(control)되어야 한다는 점에 동의했다고 전했습니다. 미국이 정권 교체를 앞두고 있는 만큼 이번 합의는 바이든과 시진핑의 마지막 대면 만남이 될 가능성이 높습니다. 이번 합의가 추가 회담이나 조약으로 이어질지는 알 수 없습니다. 하지만 정권 교체 전 세계 정세를 안정화하려는 듯한 바이든의 마지막 행보 속에서 그의 움직임은 의미심장합니다.
미래전은 어느덧 현대전이 되었고, 세계는 정보전을 넘어선 지능전을 목도하고 있습니다. AI는 이미 전쟁에 적극 활용되고 있습니다. 우크라이나 전쟁에서는 인간과의 통신이 불가능하게 된 AI 드론이 ‘적’을 판단하여 살상했고, 팔레스타인 전쟁은 감시와 학살의 기술에 힘입어 더 큰 비극으로 치닫고 있습니다. 이제 AI는 전쟁에서 인간의 의사결정을 보조할뿐 아니라 자율적 의사결정을 통해 공격 실행까지 수행할 수 있는 명실상부한 전쟁 행위자가 되었습니다.
군사적 긴장 상태에서 의사결정 오류는 전쟁과 같은 치명적인 결과로 치달을 수 있습니다. 군사적 의사결정이 ‘기계의 속도’로 이루어진다면 어떻게 될까요. 바둑의 수를 계산하는 AI처럼, AI의 자율적인 결정에 근거해 전쟁이 치러지는 상황을 상상해봅시다. 주식시장과 달리 전쟁에는 급격한 변화에 대응하기 위한 서킷 브레이커도 사이드카도 없습니다. 인류는 영문도 모른 채 세계 대전을 치르게 될지 모릅니다. 세계는 전쟁을 규율할 새로운 규칙을 찾기 위해 골몰하고 있습니다. 이런 맥락에서 AI의 ‘결정’에 대한 인간의 ‘통제’는 특히나 중요한 기제입니다.
이번 합의에서 바이든과 시진핑은 핵무기 사용 여부에 대한 결정을 인간이 ‘통제’할 수 있어야 한다고 했습니다(The two leaders affirmed the need to maintain human control over the decision to use nuclear weapons). 이는 핵무기 사용을 인간이 ‘결정’하도록 하는 것과 다릅니다. AI가 핵무기 사용을 ‘결정’했을 때, 인간이 그 결정을 중단하는 등의 ‘통제’를 할 수 있어야 한다는 것입니다. 이제 전쟁에서 인간의 역할은 AI의 결정을 ‘통제’하는 데 있습니다.
AI에 대한 인간의 통제는 여러 방식으로 설계될 수 있습니다. 예를 들어, 이지스함은 예상되는 위협의 유형에 따라 함장이 원하는 제어 방식을 선택하고 이를 구현합니다. 거대한 이지스함 전체가 함장의 군사 철학에 따라 구현되는 것이지요. 이지스함에서의 의사결정은 함장과 선원에 의해서 통제되며, 이지스함의 작동은 언제든지 하드웨어 장치에 의해 중단될 수 있습니다. 이지스함의 사례는 함선의 구성원이 기계의 특성을 어떤 철학에 근거하여 어떻게 활용할 것인지가 중요하다는 사실을 보여줍니다. 폴 샤레는 이를 ‘이지스 공동체’라고 지칭합니다.
AI가 미래 경제, 군사력 경쟁의 게임체인저가 될 것이라는 전망 속에서 미중 양국의 군사력 경쟁은 가속화되고 있습니다. 세계 질서의 균형추가 빠르게 흔들리는 지금, AI 군사 안보는 단순히 ‘효율적’인 살상 기술을 개발만을 의미하지 않습니다. 우리는 군사 공동체가 어떤 철학을 갖고 AI와 어떻게 상호작용하도록 할 것인지 논의하고, 점검할 수 있어야 합니다. 이러한 논의가 뒷받침 되지 않는 AI 국방 담론은 기술결정론에 지나지 않습니다.
🦜더 읽어보기
- 민-군 모두의 이중 용도 기술(2024-10-23)
- 전쟁과 죽음의 기술(2023-10-30)
- 자동화된 아파르트헤이트(2023-05-15)
#feedback
오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
코멘트
1AI가 전쟁에서 큰 역할을 하게 되면서, 핵무기 사용에 대한 인간의 통제가 더 중요해졌네요. 기술이 발전할수록 윤리적 고민도 커져야 할 때인 것 같습니다.