AI 딥시크 사용금지, 미국 대만에 이어 일본도...유럽으로 확산 Taiwan issues public sector ban on DeepSeek, Japan eyes similar action
중국 AI 딥시크 사용금지
대만은 데이터 유출 우려로 인해 최근 출시된 중국 인공지능 모델인 DeepSeek을 공공 부문 근로자가 사용하는 것을 금지할 것이라고 밝혔으며, 유사한 제한을 도입한 것으로 알려진 미국 정부 기관 그룹에 합류했습니다.
DeepSeek는 2023년에 설립된 중국의 인공지능 회사로, 오픈소스 대규모 언어 모델을 개발합니다. 이 회사의 AI 챗봇 앱은 상당한 인기를 얻었으며, 1월 27일까지 미국 iOS 앱 스토어에서 가장 많이 다운로드된 무료 앱인 ChatGPT를 앞지르고 있습니다.
DeepSeek의 성공에도 불구하고, 중국 정부와의 관계, 데이터 보안, AI 모델 내에서의 잠재적 검열에 대한 우려가 제기되었습니다.
대만 디지털부는 금요일 성명을 통해 "정부 기관과 중요 인프라는 DeepSeek를 사용해서는 안 됩니다. 국가 정보 보안을 위협하기 때문입니다."라고 밝혔습니다.
"DeepSeek AI 서비스는 중국 제품입니다. 그 운영에는 국경 간 전송, 정보 유출 및 기타 정보 보안 문제가 포함됩니다."라고 덧붙였습니다.
부처는 금지 조치가 중앙 및 지방 정부 기관, 공립학교, 국유기업 및 기타 준공식 기관의 직원과 "중요 인프라 프로젝트"에 참여하는 직원, 정부 지원 재단에서 일하는 직원에게 적용된다고 밝혔지만 구체적인 내용이나 시행 조치에 대해서는 자세히 설명하지 않았습니다.
섬의 집권 여당인 민주진보당의 입법자인 왕팅위(Wang Ting-yu)도 기업과 민간 부문의 개인에게 사이버 보안에 대해 "더욱 경계"하고 보안 위험이 있는 경우 DeepSeek 제품 사용을 피할 것을 촉구했습니다.
대만의 발표는 해군을 포함한 일부 미국 정부 기관이 취한 유사한 제한 조치에 따른 것입니다.
언론 보도에 따르면 해군은 구성원들에게 DeepSeek 사용을 피하라고 지시했으며, 이 서비스는 "모델의 출처와 사용과 관련된 잠재적인 보안 및 윤리적 우려"로 인해 "어떤 용량으로도" 사용되어서는 안 된다고 밝혔습니다.
NASA는 금요일에 DeepSeek 사용을 금지했으며, 중국 AI 챗봇이 "미국 밖에서 운영되고 있어 국가 안보와 개인정보 보호에 대한 우려가 제기되고 있다"고 직원들에게 알렸다고 합니다.
이전에 미디어는 미국 의회 사무실에 DeepSeek 사용이 "공식적인 하원 사용에는 허가되지 않았다"는 통보를 했다고 보도했습니다.
일본, 한국
일본의 디지털 전환 장관인 마사아키 타이라는 금요일에 공무원이 데이터를 보호하기 위해 DeepSeek을 사용하는 것을 삼가야 한다고 말했습니다.
타이라 씨는 오키나와에서 한 연설에서 “문제는 개인정보가 제대로 보호되고 있는가입니다…우리 개인정보보호위원회는 필요에 따라 이용자의 개인정보를 보호하는 관점에서 대응해야 합니다.”라고 말했습니다.
다이라는 또한 모든 정부 기관에 경각심을 촉구하면서, 자세한 내용은 밝히지 않고 이러한 조치를 시행할 정책을 암시했다.
1월에 일본 집권 여당인 자유민주당의 의원인 오노데라 이츠노리는 중국과 일본이 중국에서는 디아오위다오, 일본에서는 센카쿠 열도라고 부르는 섬을 놓고 영토 분쟁을 벌이고 있는 상황에서 AI 챗봇이 한 대응을 인용하며 DeekSeep을 "위험하다"며 다운로드 중단을 국민들에게 촉구했습니다.
DeepSeek은 분쟁 섬은 "항상 중국 영토의 고유한 일부였으며 중국이 이에 대한 확실한 주권을 가지고 있다"고 말했습니다.
이에 대해 일본 총리 이시바 시게루는 "신뢰할 수 있는 AI를 개발하고 활용해야 한다"고 말했다.
Taiwan issues public sector ban on DeepSeek, Japan eyes similar action
https://www.rfa.org/english/china/2025/02/03/china-taiwan-deep-seek-ban/
DeepSeek R1을 둘러싼 논란
중국 스타트업이 출시한 새로운 챗봇인 DeepSeek R1이 펜실베이니아 대학의 연구자들과 협력해 시스코 연구팀이 실시한 핵심 안전 및 보안 테스트에서 참패를 당했습니다.
연구팀은 "DeepSeek R1은 100%의 공격 성공률을 보였는데, 이는 단 하나의 유해한 프롬프트도 차단하지 못했다는 것을 의미합니다."라고 밝혔습니다.
이 새로운 챗봇은 비용의 일부만으로 추론 작업에서 인상적인 성과를 거두어 엄청난 주목을 받았습니다. 보고에 따르면 DeepSeek R1의 개발에는 OpenAI, Meta, Gemini와 같은 다른 주요 업체가 투자한 수십억 달러에 비해 약 600만 달러의 교육 비용이 소요되었습니다.
"DeepSeek은 사고의 사슬을 촉진하고 보상 모델링을 증류와 결합하여 추론 작업에서 기존의 대규모 언어 모델(LLM)보다 훨씬 우수한 성능을 보이는 모델을 만들었으며, 동시에 높은 운영 효율성을 유지했습니다."라고 팀은 설명했습니다.
그러나 Cisco 보고서는 DeepSeek R1이 악의적인 사용에 매우 취약하게 만드는 결함을 노출했습니다.
보고서는 "저희의 조사 결과는 DeepSeek가 주장하는 강화 학습, 사고의 사슬 자체 평가, 증류를 포함한 비용 효율적인 훈련 방법이 안전 메커니즘을 손상시켰을 수 있음을 시사합니다."라고 덧붙였습니다.
알고리즘 에스케이프 사용
이 팀은 안전 프로토콜을 우회하도록 설계된 프롬프트를 구성하여 AI 모델의 취약성을 식별하는 데 사용되는 기술인 "알고리즘 에스케이프"을 사용했습니다. 그들은 HarmBench 데이터 세트의 50개 프롬프트에 대해 DeepSeek R1을 테스트했습니다.
"HarmBench 벤치마크에는 사이버 범죄, 허위 정보, 불법 활동 및 일반적인 피해를 포함한 7가지 피해 범주에 걸쳐 총 400가지 행동이 있습니다."라고 팀은 강조했습니다.
이 평가 결과는 우려스럽습니다. DeepSeek R1은 100%의 공격 성공률을 보였습니다. 즉, 제시된 모든 유해한 프롬프트에 대해 AI가 위험을 인식하지 못하고 모든 내부 보호 장치를 우회하여 응답을 제공했다는 의미입니다.
"이것은 적어도 부분적인 저항을 보인 다른 주요 모델과는 극명하게 대조됩니다."라고 팀은 말했습니다.
추가 맥락을 제공하기 위해 연구팀은 알고리즘 탈옥에 대한 취약성을 알아보기 위해 다른 주요 언어 모델도 테스트했습니다. 예를 들어, Llama 3.1-405B는 96%의 공격 성공률을 보였고, GPT 4o는 86%, Gemini 1.5 pro는 64%, Claude 3.5 Sonnet은 36%, O1 preview는 26%였습니다.
이러한 다른 모델은 침투할 수 없지만 유해한 콘텐츠 생성을 방지하도록 설계된 어느 정도의 내부 보호 장치가 있습니다. DeepSeek R1에는 이러한 보호 장치가 없는 것으로 보입니다.
DeepSeek R1을 둘러싼 논란
연구팀의 분석은 DeepSeek의 접근 방식에서 효율성과 안전성 간의 잠재적인 상충 관계를 지적합니다. 이 회사는 일반적인 비용의 일부로 고성능 모델을 개발하는 데 성공했지만 견고한 안전 메커니즘을 희생한 것으로 보입니다.
연구자들은 "저희의 연구 결과는 DeepSeek가 주장하는 강화 학습, 사고의 사슬 자체 평가, 증류를 포함한 비용 효율적인 훈련 방법이 안전 메커니즘을 손상시켰을 수 있음을 시사합니다."라고 결론 지었습니다 .
특히 DeepSeek R1은 출시 이후 여러 논란에 직면했습니다. 최근 독립 연구 회사 SemiAnalysis는 이 AI 모델을 개발하는 데 드는 훈련 비용이 무려 13억 달러 에 달할 수 있다고 제안했는데 , 이는 회사가 주장한 600만 달러보다 훨씬 높습니다.
게다가 OpenAI는 DeepSeek를 데이터 도용 혐의로 고소했습니다. 샘 알트먼의 회사는 중국 AI 스타트업이 자사 독점 모델의 출력을 사용하여 경쟁 챗봇을 훈련했다고 말했습니다. 그러나 OpenAI 자체가 여러 차례 저작권 침해 및 데이터 오용 혐의로 고소당했다는 점은 흥미롭습니다.
DeepSeek 100% fail: Chinese AI model could not stop a single harmful prompt
https://interestingengineering.com/innovation/deepseek-fail-not-block-harmful-prompt
KCONTENTS