어쨌든 OpenAI의 GPT-4는 어떻게 해야 할까요? The AI Apocalypse: A Scorecard

 

   대규모 언어 모델은 유연한 인간 수준의 지능을 가진 AI 시스템을 뜻하는 내부자의 용어인 인공 일반 지능(AGI)으로 가는 길의 주요 단계입니까? 그리고 만약 우리가 AGI를 만든다면, 인간의 지능과 너무 달라서 호모 사피엔스를 곁에 두는 것이 무슨 의미가 있는지 알 수 없을까요?

 

이런 기본적인 질문에 대해 세계 최고의 지성들에게 질문을 한다면, 여러분은 공감대 같은 것을 얻을 수 없을 것입니다. GPT-4가 AGI를 만드는 데 미치는 영향에 대한 질문을 생각해 보십시오. AI 전문가들 사이에서는 GPT-4가 AGI의 임박한 명백한 징후라는 엘리저 유드코프스키의 견해에서부터 30년 전보다 AGI에 절대적으로 가깝지 않다는 로드니 브룩스의 주장에 이르기까지 다양한 확신이 있습니다.

 

어쨌든 OpenAI의 GPT-4는 어떻게 해야 할까요? The AI Apocalypse: A Scorecard

 

GPT-4와 그 후계자들이 문명의 대혼란을 일으킬 가능성에 대한 주제에 대해서도 비슷한 분열이 있습니다. 가장 초기의 종말론자 중 한 명은 Nick Bostrom이었습니다; GPT-4 훨씬 이전에, 그는 AGI가 우리의 능력을 훨씬 초과하면, 그것은 디지털 세계를 탈출하고 인간 문명을 체계적으로 파괴할 수 있는 방법을 찾을 것이라고 주장했습니다.

 

 

반면에 얀 르쿤과 같은 사람들은 공상과학 소설과 같은 시나리오를 거부합니다.

 

그 사이에는 GPT-4의 능력과 미래의 생성 AI 사례가 고용에 큰 혼란을 일으키고, 오늘날 사회의 편견을 악화시키며, 대규모로 선전, 오보, 깊은 가짜를 만들어낼 것을 우려하는 연구자들이 있습니다. 걱정되십니까? 네, 아주 그렇습니다. 종말론? 아니요.

 

어쨌든 OpenAI의 GPT-4는 어떻게 해야 할까요? The AI Apocalypse: A Scorecard

 

걱정하는 많은 AI 전문가들은 3월에 모든 AI 연구소에 6개월 동안 "거대한 AI 실험"을 즉시 중단할 것을 요청하는 공개 편지에 서명했습니다. 이 편지는 아무 것도 멈추는 데 성공하지 못했지만, 일반 대중의 관심을 끌었고, 갑자기 AI 안전을 수냉식 대화로 만들었습니다. 그런 다음, 5월 말에 학계와 임원들로 구성된 전문가 집단이 세계가 "AI로부터의 멸종"의 위험을 심각하게 받아들일 것을 촉구하는 한 문장의 성명에 서명했습니다

 

어쨌든 OpenAI의 GPT-4는 어떻게 해야 할까요? The AI Apocalypse: A Scorecard
OpenAI의 GPT-4: AI 대화의 새로운 시대 TS2 Space

 

 

아래에는 일종의 스코어카드를 작성했습니다. IEEE 스펙트럼은 대형 언어 모델, AGI의 가능성 및 문명 대혼란의 위험에 대한 22명의 AI 조명자의 발표된 생각과 선언을 증류했습니다. 우리는 뉴스 기사, 소셜 미디어 피드 및 책을 검색하여 이러한 전문가들의 공개 진술을 찾은 다음, 최선의 판단을 사용하여 그들의 신념을 요약하고 아래에 예/아니오/아마도 위치를 지정했습니다. 만약 당신이 조명자 중 한 명이고 우리가 당신의 관점에 대해 잘못된 것이 있어서 짜증이 난다면, 우리에게 알려주세요. 우리가 고칠게요.

 

황기철 콘페이퍼 에디터 국토부 인플루언서

Ki Chul Hwang Conpaper editor influencer

 

The AI Apocalypse: A Scorecard

How worried are top AI experts about the threat posed by large language models like GPT-4?

(Source: spectrum.ieee.org/artificial-general-intelligence)

kcontents

댓글()