토론

민-군 모두의 이중 용도 기술 AI

2024.10.24

93
1
인공지능 윤리를 고민하는 직장인, 프리랜서, 대학원생이 꾸려가는 뉴스레터입니다.

민-군 모두의 이중 용도 기술 AI

by 🎶소소


“군사 목적으로 AI를 활용하는 게 왜 문제인가요? 국방 기술력이 곧 국력이고 방위 산업은 수출 효자 산업인데 더 많이 투자해야죠.”

최근에 이런 질문을 받았습니다. 이 질문을 듣는 순간, 깊은 불편함이 몰려왔습니다. 얼버무리듯 답을 했지만, 그 후로 마음 한구석이 계속 찜찜해 이렇게 레터를 빌려 다시 답해보려고 합니다. 지금 이 순간에도 전쟁은 수많은 사람을 죽음으로 몰고 가고 있습니다. 그리고 전쟁에서 AI와 같은 첨단 기술은 군사력을 높이는 데 중요한 역할을 합니다. 더 정확하고, 빠르게 사람들의 목숨을 앗아갑니다. 우크라이나에서는 조종 신호가 끊겨도 자율 폭격이 가능한 AI 드론이, 가자지구에서는 이스라엘이 개발한 AI 폭격기가 초고속으로 표적을 찾아내며 효율적으로 살상을 가속화하고 있습니다.

흔히 AI 기술이 그 자체로 특정 용도에 국한되지 않는 '범용 기술'이라고 말합니다. 그렇다면 군사 안보 분야는 다양한 AI의 활용 분야 중 하나일 뿐일까요?

AI 기술은 범용 기술이지만 동시에 이중 용도 기술(Dual-Use Technology)임을 지적하고 싶습니다. 역사적으로 볼 때 많은 기술이 군사용으로 개발되어 민간으로 확산되거나, 그 반대의 경로를 거쳤습니다. 대표적인 예로 군사 통신용으로 개발된 ARPANET이 오늘날의 인터넷으로 발전했죠. 거의 모든 기술이 이중 사용의 잠재력을 가지고 있지만, 의도하지 않은 해로운 결과를 초래하는 일반적인 영역과 "의도적인 오용"은 다릅니다.


Photo by Gertrūda Valasevičiūtė on Unsplash

미국 국방부는 이중 용도 기술을 상업적 용도와 군사적 용도로 모두 사용될 수 있는 기술이라 정의합니다. 미국 국립보건원에서는 생물학 분야의 연구 중 공중 보건, 개인 안전 또는 국가 안보에 대한 위협이 될 수 있는 연구를 우려할 만한 이중 용도 연구(Dual-Use Research of Concern, DURC)로 분류하고 위험을 최소화하기 위해 별도 관리합니다. 예를 들면, 병원체나 물질의 해로운 독소를 증가시키거나, 병원체에 대한 면역이나 예방 접종 효과를 방해하는 등 통제할 수 없는 위험을 야기할 수 있는 연구는 사전에 분류하여 관리합니다.

유럽연합은 이중용도 품목을 지정하여 수출, 운송, 중개, 기술 지원을 통제하고 추가적인 안전장치를 요구합니다. 대량살상무기 혹은 인권 침해와 관련된 품목도 통제 대상입니다. 핵확산금지조약, 화학 및 생물무기금지조약 등에 따른 조치이며, 국제 평화와 안보에 기여하고 대량살상무기의 확산을 방지하기 위함입니다.

미국 바이든 정부 AI 행정명령에서는 “이중 용도 파운데이션 모델(Dual-use foundation model)”을 별도로 정의했습니다. 정의에 따르면 이 모델은 광범위한 대량의 데이터로 학습되고, 일반적으로 자체 감독을 사용하며, 최소 수백억 개의 파라미터를 포함하고, 광범위한 맥락에서 적용 가능하며, 안보, 국가 경제, 공중 보건, 안전 등에 심각한 위험을 초래하는 작업에 높은 수준의 성능을 발휘하거나 발휘할 수 있습니다. 모델의 위험성을 고려해 개발자는 상무부에 AI 안전 테스트 결과를 포함한 핵심 정보를 보고해야 합니다.

그러나 대단한 규모의 AI가 아니더라도, AI 기술은 기존의 그 어떤 기술보다 자유롭게 민간과 군사 분야를 넘나들며 전쟁에 활용되고 있습니다. 최근의 이스라엘, 팔레스타인, 우크라이나, 러시아 전쟁은 AI가 현대 전쟁에서 어떻게 활용되고 있는지를 보여주는 생생한 사례입니다. AI는 드론 작전, 사이버 전쟁, 정보 분석 등 다양한 군사 영역에서 활용되고 있습니다. 이스라엘은 팔레스타인을 실험실로 활용해 개발한 감시 기술을 세계 각국에 수출하고 있습니다.

AI의 군사적 활용이 가져올 수 있는 위험은 분명합니다. 그럼에도 불구하고 국가안보라는 미명 아래 AI를 전쟁에 투입하는 상황은 피할 수 없는 현실일지도 모릅니다. 우리에게 필요한 것은 이미 AI는 언제든 무기로 사용될 수 있음을 인정하고, 적절한 관리 체계를 구축하는 것입니다.


🦜 더 읽어보기
전쟁 기술 만들기를 거부하는 이들(2024-04-15)
죽음의 기술과 효율성(2024-04-08)
전쟁과 죽음의 기술(2023-10-30)
자동화된 아파르트헤이트(2023-05-15)




#feedback

오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.

공유하기

AI의 이중 용도 기술이 군사적으로 사용되는 건 정말 복잡한 문제야. 군사력을 높이기 위해 AI를 쓰는 게 위험할 수 있다는 점은 절대 간과할 수 없어. 요즘 전쟁에서 AI가 초래하는 안타까운 일들을 보면 더욱 그렇지. 기술이 범용성을 가지긴 하지만, 그걸 잘 관리하고 책임을 다하는 게 중요해. 국가안보를 이유로 AI가 전쟁에 동원되는 현실을 인정하고, 이를 어떻게 잘 통제할 수 있을지 함께 고민해야 해!

연관 토픽 : #AI