editoy

앤스로픽, 미 국방부의 '공급망 리스크' 지정 및 블랙리스트 조치에 대해 연방 소송 제기

3/9/2026

토킹 포인트

앤스로픽, 미 국방부의 '공급망 리스크' 지정 및 블랙리스트 조치에 대해 연방 소송 제기

  • 앤스로픽의 AI 기술 활용 가이드라인 준수를 이유로 미 국방부가 단행한 '공급망 리스크' 지정 및 정부 차원의 사용 금지 조치에 대한 법적 대응.
  • 자율형 살상 무기 개발 및 미국 시민에 대한 대규모 감시 활동에 기술이 활용되는 것을 방지하려는 기업의 안전 원칙과 국방부의 '제한 없는 활용' 요구 간의 대립.
  • 정부의 이번 조치가 수정헌법 제1조에 따른 언론의 자유와 적법 절차를 위반한 보복성 행정이라는 앤스로픽 측의 법적 주장.
  • 연방 정부 계약 취소 및 민간 파트너십 위축으로 인한 수억 달러 규모의 잠재적 매출 손실과 기업 가치 훼손에 대한 사법부의 긴급 구제 요청.

시황 포커스

  • Anthropic이 미국 국방부로부터 ‘Supply Chain Risk’ 지정을 받음에 따라, Trump 행정부를 상대로 소송을 제기함.
  • Anthropic은 이번 지정이 보호되는 표현의 자유에 대한 처벌이며, 관련 법적 근거가 없다고 주장함.
  • 국방부는 Claude AI에 대한 무제한적인 군사적 사용을 거부한 Anthropic에게 “덜 침해적인 조치가 합리적으로 적용 불가능하다”는 논리로 해당 지정을 정당화하려 시도함.
  • Wilmer Hale 법무법인이 Anthropic을 대리하여 행정부 전반을 상대로 소송을 진행 중임.
  • Anthropic은 “정부가 자율 살상 로봇 제작을 지원하도록 강요해서는 안 된다”는 입장을 견지함.
  • 이번 소송은 AI 기술 기업이 정부의 압력에 공개적으로 맞서는 첫 번째 사례로 평가됨.
  • 일각에서는 국방부의 ‘supply-chain risk’ 표기 방식이 OpenAI의 모델링 방식을 모방한 것으로 해석함.

트렌드 키워드

  • 공급망 리스크 (Supply Chain Risk, Supply-Chain Risk):

    국가 안보에 필수적인 물자나 서비스의 공급 과정에서 적대적인 세력이 개입하거나 시스템을 무력화할 가능성이 있는 위협 요인. 통상적으로 해외 적대 국가와 연계된 기업을 배제할 때 사용하는 강력한 제재 수단이나, 이번처럼 미국 본토의 첨단 기술 기업을 대상으로 지정한 사례는 극히 이례적임

    1 / 2
    미 국방부는 앤스로픽의 인공지능 모델 클로드가 미국의 공급망에 위험을 초래한다고 공식적으로 통보하며 블랙리스트에 올렸습니다.공급망 리스크
  • 자율형 살상 무기 (Autonomous Lethal Weapons):

    인간의 직접적인 개입이나 최종 승인 없이 인공지능이 스스로 목표를 식별하고 공격 여부를 결정하여 살상을 수행하는 무기 체계. 기술적 오류로 인한 오작동이나 윤리적 책임 소재의 불분명함 때문에 국제 사회에서 강력한 규제와 안전장치 마련을 요구하는 분야임

    앤스로픽은 자사의 인공지능이 인간의 감독 없는 자율형 살상 무기나 대규모 국내 감시에 사용되는 것을 금지하는 보호 지침을 고수해 왔습니다.
  • 수정헌법 제1조 (First Amendment):

    표현의 자유, 언론의 자유, 집회의 자유 등을 보장하는 미국 헌법의 핵심 조항으로, 국가 권력이 개인이나 기업의 특정한 견해를 억압하는 것을 방지함. 인공지능 모델의 안전성 한계에 대한 기업의 기술적 입장 표명 역시 헌법적 보호 대상이라는 점이 이번 소송의 쟁점임

    정부가 기업의 보호받는 표현을 처벌하기 위해 그 거대한 권력을 휘두르는 것은 헌법상 허용되지 않는 행위입니다.수정헌법 제1조
  • 적법 절차 (Due Process):

    국가가 시민이나 법인의 생명, 자유, 재산을 제한할 때 반드시 지켜야 하는 공정하고 정당한 법적 절차. 이번 사례에서는 국방부가 구체적인 사실 관계 확인이나 소명 기회 제공 없이 일방적으로 제재를 가했다는 점이 문제로 지적됨

    정부는 앤스로픽에 어떠한 사실적 조사 결과도 제공하지 않은 채 가혹한 처벌을 내림으로써 적법 절차를 위반했습니다.
  • 클로드 (Claude):

    앤스로픽이 개발한 대형 언어 모델로, 개발 초기부터 '헌법적 AI'라는 개념을 도입하여 기술의 안전성과 인류 가치와의 정렬을 최우선으로 설계된 인공지능 서비스. 미 국방부 내부의 기밀 네트워크에서 활용될 수 있는 유일한 모델로 승인받았을 만큼 기술력을 인정받았으나 현재 정치적 갈등의 중심에 서게 됨

    1 / 5
    대통령은 모든 연방 기관에 앤스로픽의 기술인 클로드의 사용을 즉각 중단하라는 행정 지시를 내렸습니다.