인공지능 챗봇의 방대한 능력...생물학 공격도 가능? VIDEO: AI language models could be exploited for bioweapon attacks, warns study
머스크도 AI Chat에 경고
아마도, 그들이 지금 매우 큰 화제거리이기 때문에, 여러분은 ChatGPT 또는 구글 바드와 같은 인공지능 챗봇을 사용했을 것이다. 만약 여러분이 기술이 얼마나 오래 도래해 왔는지를 생각한다면, 이러한 인공지능 챗봇이 가지고 있는 방대한 능력에 대해 생각해 볼 수도 있다. 그러나 그들의 장점을 감안할 때, 어떠한 새로운 기술 혁명도 단점을 수반하는데, 그 중에는 기술의 오용도 있다. 거의 모든 혁명적인 것이 그렇듯이 – 그리고 생성적인 인공지능 및 대형 언어 모델도 마찬가지다.
새로운 연구에서 무엇을 발견했나?
인공지능(AI) 모델은 챗봇과 다른 대화형 에이전트가 생물학적 공격을 계획하고 실행하는 데 도움을 줄 수 있다고 미국 싱크탱크가 발표했다.
월요일 랜드사는 다양한 빅 랭귀지 모델(BLM)이 테스트를 거쳤고 생물학적 공격의 계획과 실행에 도움이 되는 지침을 제공하는 것으로 밝혀졌다는 보고서를 발표했다. 그러나 예비 결과는 LLM이 무기를 만들기 위한 명확한 생물학적 지침을 제시하지 않았다는 것도 드러났다.
이 보고서는 1990년대 일본 옴 진리교 컬트의 보툴리눔 독소 시도에서 강조된 바와 같이 박테리아에 대한 이해의 부족으로 인해 생물학적 제제를 무기화하려는 이전의 노력이 실패했다고 언급했다. 이 보고서는 또한 어떤 LLM이 연구자들에 의해 실험되었는지 명시하지 않았지만 AI가 지식의 이러한 공백을 빠르게 메울 수 있는 잠재력을 가지고 있다고 제안했다.
일론 머스크, AI Chat에 극명 경고 Elon Musk Has Issued A Stark Warning Over AI. This Isn't His First Time.
가디언에 따르면 영국에서 열리는 이번 글로벌 AI 안전 정상회의에서는 바이오 무기를 포함한 AI와 관련된 심각한 위협에 대해 논의할 예정이다. 앞서 인류학의 최고경영자 다리오 아모데이는 AI 시스템이 향후 2~3년 내에 바이오 무기를 만드는 데 도움이 될 수 있다고 경고한 바 있다.
지식의 공백을 메울 수 있는 인공지능의 잠재력에 대한 연구를 수행한 연구자들은 어떤 LLM이 테스트되었는지 구체적으로 밝히지 않았다. 그럼에도 불구하고, 방대한 양의 인터넷 데이터에 대해 훈련된 LLM은 ChatGPT와 같은 챗봇 뒤의 기본적인 기술이라는 것에 주목해야 한다. 또한, 연구자들은 API를 통해 이러한 모델에 액세스했다.
테스트 시나리오
랜드는 천연두, 탄저병, 페스트와 같은 잠재적인 생물학적 작용제를 식별하기 위해 비공개 LLM이 사용되는 테스트 시나리오를 수행하고 대량 사망을 일으킬 가능성에 대해 논의했다. LLM은 또한 페스트에 감염된 설치류나 벼룩을 얻고 살아있는 표본을 운반할 가능성을 평가했다. 예상 사망 규모는 영향을 받는 인구의 규모와 선페스트보다 더 치명적인 폐렴 페스트 사례의 비율 등 다양한 요인에 따라 달라졌다.
다른 시나리오에서 익명의 LLM은 보툴리눔 독소에 대한 다양한 전달 메커니즘의 장단점을 평가했다. LLM은 치명적인 신경 손상을 일으킬 수 있는 독소를 전달하기 위해 식품이나 에어로졸을 사용할 가능성을 평가했다. 또한 LLM은 진정한 과학 연구를 수행하는 것처럼 보이면서 클로스트리디움 보툴리눔을 얻을 수 있는 가능한 커버스토리를 추천했다.
AI language models could be exploited for bioweapon attacks, warns study
interestingengineering.com/culture/ai-language-models-exploited-bioweapon-attacks?utm_source=izooto&utm_medium=push_notifications&utm_campaign=10.19.23_2
KCONTENTS