[경제일보] 아이작 아시모프가 제시한 '로봇 공학 3원칙' 중 제1원칙으로서 '인간에게 해를 끼치지 말 것'이 가장 우선순위로 꼽히고 있다. 인공지능이 인간 사회에 본격적으로 도입되기 전 제시된 이 원칙은 기술이 지켜야 할 최소한의 윤리 기준으로 여겨져 왔다. 다만 실제 전장과 안보 영역에서 활용되는 인공지능의 역할이 빠르게 확대되면서 이러한 원칙이 현실에서 제대로 작동하고 있는지에 대한 의문도 커지고 있다.
지난 9일(현지시간) 앤트로픽은 미 행정부를 상대로 자사 AI를 국방에 지나치게 사용한 것에 '공급망 위험' 기업으로 지정한 조치를 취소해 달라고 소송을 제기했다. 군사 기술 활용 범위를 둘러싸고 정부와 AI 기업이 정면 충돌한 것이다.
미국 인공지능 기업 앤트로픽의 AI 모델 '클로드'는 미군의 기밀 시스템에서 사용됐지만 앤트로픽은 자사 AI 모델이 대규모 국내 감시 체계나 자율 살상 무기에 사용되는 것을 허용할 수 없다는 입장을 고수해 미 국방부와 갈등을 빚어 왔다.
미 국방부는 인공지능 기술이 '합법적인 모든 용도'에서 제한 없이 사용될 수 있어야 한다는 입장을 고수했고 지난달 27일 앤트로픽은 '공급망 위험' 기업으로 지정됐다.
AI가 실제 전장에서 활용되는 사례도 빠르게 늘고 있다. 최근 중동 지역 군사 작전에서도 인공지능은 핵심 정보 분석 도구로 사용된 것으로 알려졌다. 외신에 따르면 미국과 이스라엘이 전쟁 초기 수행한 공습 작전에서 인공지능이 이란의 군 지휘부의 이동 경로 및 동선을 분석하는 데 활용됐다.
AI는 위성 영상과 통신 정보, 공개 데이터를 빠르게 분석해 목표를 식별하고 공격 우선순위를 정하는 데 사용됐다. 기존에는 사람이 수행하던 정보 분석 과정을 알고리즘이 대체하거나 보조하면서 군사 작전의 속도와 정확도를 크게 높인 것으로 평가된다.
문제는 이러한 기술이 어디까지 허용돼야 하느냐다. 정보 분석이나 작전 지원을 넘어 무기 체계가 스스로 공격 대상을 선택하고 실행하는 '자율 살상 무기' 단계로 발전할 경우 윤리적 논쟁은 훨씬 복잡해질 수 있다.
국내에서도 국방에 AI 적용을 위한 노력이 진행되고 있다. 국가 AI 전략위원회가 공개한 '2026년 AI 재정사업 현황'에 따르면 올해 국방 분야에 배정된 예산은 감시정찰, 정보분석, 군수지원 등 국방에 필요한 AI 기술 개발 목표의 'AI응용제품 신속 상용화 지원사업'에 350억원 등 약 1000억원에 달한다.
이에 국내에서도 막대한 예산이 들어간 만큼 AI 윤리적 문제를 사전에 방지하고자 목소리를 내고 있다. 기술 경쟁력 확보와 산업 생태계 조성뿐 아니라 책임 있는 AI 활용을 위한 제도적 장치가 함께 논의돼야 한다는 지적이다.
지난 1월 27일 여·야 국회의원 33인은 국내의 경우 기존 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법'에 국방 분야가 그 적용 대상에서 제외되어 있어 국방 인공지능 기술의 개발·운용·안전관리 등을 체계적으로 규율할 수 있는 별도의 법적 기반이 부재하다는 이유로 '국방 인공지능 법안'을 발의했다. 국방 인공지능의 책임 있는 활용과 지속 가능한 발전을 뒷받침할 제도적 장치를 마련하자는 취지다.
유용원 국민의당 의원은 법안을 제안하며 "이 법은 국방 AI를 국가 안보의 핵심 역량으로 체계화하기 위한 기본 틀로서 인공지능이 국방 현장에서 안정적으로 활용되고 지속 가능하게 발전하도록 할 것"이라고 말했다.
인간에게 해를 끼치지 말라는 로봇 공학의 오래된 원칙이 현실의 군사 기술 속에서 어디까지 규제해야 할지 정해야 할 시기가 다가오고 있다. AI가 전장의 '두뇌' 역할을 맡기 시작한 지금, 기술의 발전 속도에 맞춰 윤리와 규범도 함께 진화해야 할 필요성이 점점 커질 전망이다.
Copyright © 경제일보, 무단전재·재배포 금지










