2023년은 AI 역사에서 가장 극적인 해 : GPT-4 Just Calm Down About GPT-4 Already

 

 

Just Calm Down About GPT-4 Already 

And stop confusing performance with competence, says Rodney Brooks

https://spectrum.ieee.org/gpt-4-calm-down

 

  2023년은 인공지능 역사에서 가장 거칠고 극적인 해들 중 하나로 역사에 남을 것이다. 사람들은 여전히 OpenAI의 ChatGPT의 힘을 이해하기 위해 고군분투하고 있었는데, 2022년 말 회사가 새로운 대형 언어 모델인 GPT-4를 2023년 3월에 출시했을 때 사람들은 그것을 이해하기 위해 2022년 말에 도입되었다. (LLM은 본질적으로 소비자를 대면하는 애플리케이션의 배후에 있는 두뇌이다.).

 

2023년은 AI 역사에서 가장 극적인 해 : GPT-4 Just Calm Down About GPT-4 Already
AI타임스

 

2023년 봄 내내, 중요하고 신뢰할 수 있는 사람들은 계속해서 개선되고 있는 인공지능의 발생 가능한 부정적인 결과들(다소 문제가 되는 것부터 존재적으로 나쁜 것까지)에 대해 두려워했다. 먼저, 고급 모델의 개발에 대한 중단을 요구하는 공개 서한이 있었고, 그 다음으로는 실존적 위험에 대한 성명, 인공지능 안전에 대한 최초의 국제 정상회담, 그리고 미국 행정명령과 EU 인공지능 법의 형태로 된 획기적인 규제에 대한 성명이 나왔다.

 

edited by kcontents

 

독자들이 AI와 얼마나 많은 시간을 함께 보냈는지에 따른 스펙트럼의 2023년 10대 기사를 소개한다. 2024년이 더 이상 미친 것이 아니라면, 역사에 남을 만한 2023년에 AI의 맛을 확인해보라

 

10. 인공지능 예술 생성자들이 NSFW 이미지를 만드는 데 속을 수 있다:

2023년은 AI 역사에서 가장 극적인 해 : GPT-4 Just Calm Down About GPT-4 Already
큰 초록 눈을 가진 충격에 빠진 노란 고양이 PAI-SHIH LEE/GETTY IMAGES

 

Dall-E 2나 Stable Diffusion과 같은 텍스트 이미지 생성기에서는 사용자가 만들고자 하는 이미지를 설명하는 프롬프트를 입력하고 모델이 나머지 작업을 수행한다. 그리고 사용자가 폭력적이거나 음란한 이미지를 생성하는 것을 방지하는 보호 장치를 가지고 있지만, 인공지능 연구원과 해커들은 그러한 보호 장치를 피하는 방법을 찾는 것에 기쁨을 누렸다. 하얀 모자와 검은 모자에게 탈옥은 새로운 취미다.

 

 

9. OpenAI의 Moonshot: AI 정렬 문제 해결:

자신과 닮은 디지털 표현을 보는 한 여성의 사진 일러스트.Daniel Zender

 

OpenAI의 얀 라이크와의 이 질의응답은 인공지능 정렬 문제를 깊이 파고든다. 그것은 우리가 인간의 목표와 일치하지 않는 초지능적인 인공지능 시스템을 구축하여 잠재적으로 우리의 종의 멸종으로 이어질 수 있다는 우려이다. 그것은 합법적으로 중요한 문제이며, OpenAI는 (초지능적인 인공지능 시스템이 아직 존재하지 않기 때문에) 아직 존재하지 않는 문제를 경험적으로 연구하는 방법을 찾기 위해 심각한 자원을 쏟고 있다.

 

8. Nvidia의 성공 비결:

nvidia I-HWA CHUNG/BLOOMberg/GETTY Images라는 라벨이 붙은 포장의 파란색 사각형을 클로즈업합니다

 

엔비디아는 자사의 인공지능 가속 GPU인 H-100이 거의 틀림없이 기술 분야에서 가장 인기 있는 하드웨어가 되면서 멋진 한 해를 보냈다. 회사의 수석 과학자인 빌 댈리는 엔비디아를 성층권으로 이끈 4가지 재료에 대한 컨퍼런스에서 성찰했다. "무어의 법칙은 엔비디아의 마법과 새로운 숫자 형식의 매우 큰 부분을 차지했습니다."라고 IEEE Spectrum 수석 편집자 샘 무어는 쓰고 있다.

 

 

7. ChatGPT의 환각이 성공을 막을 수 있다:

ChatGPTZUMA/ALAMY가 표시되는 화면

 

LLMs의 골칫거리 중 하나는 상황을 꾸며내는 그들의 습관인데, unpredict이게도 가장 자신감 있는 어조로 거짓말을 내뱉는다. 이 습관은 사람들이 법률 보고서를 작성하는 것과 같이 정말로 중요한 일들에 그것을 사용하려고 할 때 특별한 문제이다. OpenAI는 그것이 해결 가능한 문제라고 생각하지만, 메타 AI의 얀 르쿤과 같은 일부 외부 전문가들은 동의하지 않는다.

 

6. 2023년 AI 현황에 대한 10가지 필수 통찰력 그래프:

그것은 목록 내의 목록이다! 스펙트럼 편집자들은 매년 스탠포드 인간 중심 인공지능 연구소에서 발행하는 거대한 인공지능 지수를 공개하고, 보고서를 가장 중요한 동향에 말하는 소수의 그래프로 나누어준다. 2023년에 하이라이트는 대형 모델을 훈련하는 비용과 에너지 요구 사항, 그리고 박사를 모집하고 모델을 구축하는 것에 관한 한 학계에 대한 업계의 지배력을 포함한다

 

 

5. 소름 끼치는 새로운 디지털 사후 산업:

 
꼬불꼬불한 선으로 이루어진 두개골의 삽화. 해리 캠벨

 

여기 Wendy H. Wong이 쓴 We, the Data라는 훌륭한 책에서 발췌한 내용이 있다. 그 발췌문은 새로운 디지털 사후 산업의 일환으로 생겨나고 있는 서비스에 대해 자세히 살펴본다. 어떤 회사들은 당신이 죽은 후에 당신을 대신하여 메시지를 보내주겠다고 제안하고, 다른 회사들은 당신이 나중에 다른 사람들이 질문을 함으로써 재생할 수 있는 이야기를 녹음할 수 있게 해준다. 그리고 이미 사람들이 남긴 데이터를 기반으로 고인이 된 사랑하는 사람들의 디지털 복제품을 만드는 몇 가지 예가 있다.

 

4. AI 아포칼립스: A 스코어카드:

인공지능 전문가를 보여주는 헤드샷 그리드 IEE SPectrum

 

이 프로젝트는 스펙트럼 편집자들이 정말로 똑똑한 인공지능 종사자들, 즉 그 분야에서 수십 년간 일해온 사람들이 두 가지 중요한 질문에 대해 그렇게 반대되는 견해를 가질 수 있다는 것이 얼마나 놀라운 일인지 논의하는 동안 발생했다. 즉, 오늘날의 LLM은 인공지능이 곧 초인적 지능을 달성할 것이고 그러한 초지능 인공지능 시스템은 호모 사피엔스에게 파멸을 초래할 것이라는 징후이다. 독자들이 의견의 범위를 이해하는 것을 돕기 위해, 우리는 점수표를 합쳤다.

 

 

3. 인공지능의 신비한 블랙박스를 여는 200살의 수학:

 
위에 빨간색과 파란색 소용돌이 2개, 아래에 밝은 빨간색과 파란색 소용돌이 2개의 4절 이미지 P. Hassanzadeh/Rice University

오늘날 인공지능의 많은 부분을 작동시키는 신경망은 유명한 블랙박스이다; 연구자들은 그들에게 훈련 데이터를 주고 결과를 보지만, 그 사이에 무슨 일이 일어나는지에 대한 많은 통찰력은 없다. 유체 역학을 연구하는 한 연구자 집단은 난류를 예측하도록 훈련된 신경망을 연구하기 위해 대략 200년 동안 존재해 온 패턴을 식별하는 데 사용되는 수학 기술인 푸리에 분석을 사용하기로 결정했다.

 

2. 듀오링고의 인공지능이 배워야 할 것을 배우는 방법:

 
이 장난스러운 삽화는 중앙선을 잘라낸 Duolingo\u2019 부엉이 마스코트를 보여주며, AI 로봇의 일종을 암시하는 첨단 뼈대 안에 숨겨진 것을 보여줍니다. 에디 가이

 

이 기사는 그 기술을 만들고 있는 전문가들에 의해 쓰여진 특집 기사인 스펙트럼의 대표적인 딥 다이빙 중 하나이다. 이 경우, 언어 학습 앱인 듀오링고 뒤에 있는 인공지능 팀이다. 그들은 어떻게 사용자들에게 몰입을 유지하기에 딱 알맞은 수준의 수업을 제공하기 위해 교육 심리학과 기계 학습 둘 다에 기반을 두는 인공지능 시스템인 버드브레인을 개발했는지를 설명한다.

 

 

1. GPT-4에 대해 흥분 금지

분홍색과 녹색으로 늘어선 배경 앞에 있는 남자의 흑백 사진 RODney Brooks: CHRISTOPER Michel/Wikipedia; 배경: RUBI CHEN/Openai

스펙트럼 독자들은 상반된 경향을 가지고 있고, 따라서 수십 년 동안 그 분야에서 일해온 자칭 인공지능 회의론자인 로드니 브룩스와 함께 이 질의응답을 꽤 즐겼다. 브룩스는 GPT-4를 인공지능을 향한 일보다는 LLM이 한 과제에서 다른 과제로 일반화하는 데 어려움을 겪는 것에 주목했다. 그는 "대규모 언어 모델들이 잘하는 것은 답이 어떤 것이어야 하는지 말하는 것인데, 이것은 답이 어떤 것이어야 하는지와 다르다"고 말했다.

 

Just Calm Down About GPT-4 Already 

And stop confusing performance with competence, says Rodney Brooks

https://spectrum.ieee.org/gpt-4-calm-down

kconntents

 

댓글()