"구글 챗봇, 양심 느끼는 수준 도달 주장에 걱정할 필요 없어" 스탠포드 대 VIDEO:This Stanford researcher isn’t worried about Google’s ‘sentient’ chatbot
구글 내부고발자,
AI 챗봇 LaMDA 양심 수준 도달 공개 주장
정직시켜
스탠포드 대학의 이 연구원은 구글의 '지각적인' 챗봇에 대해 걱정하지 않는다. 진정으로 지각 있는 인공지능은 '50년' 후에나 나올 수 있다.
구글은 지난 주, 검색 대기업의 AI 챗봇 LaMDA가 양심에 도달했다는 확신을 공개적으로 밝힌 후, 회사의 기밀 정책을 위반했다는 이유로 한 엔지니어를 정직시켰다. 그것은 "2001: 스페이스 오디세이"부터 "터미네이터"까지 수십 년 동안 대중 문화의 일부였던 치명적인 지각 있는 컴퓨터에 대한 많은 농담과 긴장된 웃음의 문을 열었다.
하지만 걱정할 필요는 없다: 대부분의 AI 전문가들은 실제 지각 있는 컴퓨터 프로그램이 아직 수십 년이나 남아 있을 것이라는 데 동의한다.
스탠퍼드대 인간중심 AI연구소의 수석 연구원이자 이 학교 디지털경제연구소 소장인 에릭 브린졸프슨은 CNBC Make It에서 "많은 돌파구가 일어나야 한다"고 말했다. "향후 50년 안에 언젠가... 인공지능이 지각 있는 척하는 것은 인공지능이 실제로 지각하기 훨씬 전에 일어날 것이다."
Meta CEO Mark Zuckerberg를 포함한 일부 주목할 만한 기술 이름들은 AI의 발전이 특히 의료 및 교통과 같은 분야에서 인류에게 매우 긍정적인 발전이 될 수 있다고 주장한다. 다른 이들은 동의하지 않는다. 예를 들어, 테슬라와 스페이스X의 CEO 일론 머스크는 AI를 "인류 문명의 존재에 대한 근본적인 위험"이라고 불렀다.
여러분이 어느 진영에 빠지든 간에, 실제 지각 있는 인공지능이 매혹적인 가능성이라는 것에 동의하는 것은 안심할 수 있다. 하지만, 어떤 모습일까요?
우리의 뇌는 비록 그것이 아직 존재하지 않더라도, 지각 있는 인공지능을 보기 위해 단단하게 연결되어 있다.
6월 12일 트윗에서 브린졸프손은 LaMDA의 감각에 대한 구글 엔지니어의 믿음은 "축음기에서 목소리를 듣고 주인이 안에 있다고 생각한 개와 동등한 현대적"이라고 썼다.
Brynjolfsson은 "축음기와 마찬가지로 이 모델들은 실제 지능을 활용한다: 통계적으로 타당한 단어 시퀀스로 모델을 훈련시키는 데 사용되는 텍스트의 큰 말뭉치"라고 썼다. "그런 다음 모델은 실제로 무엇을 말하는지 '이해'하지 않고 텍스트를 다시 정렬된 형태로 뱉는다."
구글의 기술자들은 이 회사의 챗봇은 지각력이 없어졌고, 소프트웨어는 단지 실제처럼 느껴질 수 있는 방식으로 인간의 언어 패턴을 모방하고 예측할 수 있을 정도로 충분히 발전했다고 단호하게 말한다.
Brynjolfsson은 놀랍지 않다고 말한다. 우리의 뇌는 사회적 연결을 형성하는 수단으로서 인간이 아닌 물체나 동물들에게 인간의 의식을 불어넣도록 연결되어 있다.
"인간은 사물을 의인화하는 것에 매우 민감하다"라고 그는 말한다. "만약 여러분이 바위에 웃는 얼굴을 그린다면, 많은 사람들은 가슴 속에 그 바위가 일종의 행복하다는 느낌을 가질 것이다."
황기철 콘페이퍼 에디터 인플루언서
Ki Chul Hwang Conpaper editor influencer
(Source:
https://www.cnbc.com/2022/06/15/ai-wont-be-sentient-for-decades-says-stanford-researcher.html)
https://www.androidauthority.com/google-lamda-3176080
Google suspends engineer who claimed AI was sentient
- 한화건설, 1조 8천억원 투입 영종도 '인⋯
- 한국의 동유럽 원전 프로젝트 수주 가능⋯
- 수척한 모습의 톰 행크스...중병 걸렸나⋯
- 어젯밤 떠오른 딸기 수퍼문의 장관...그⋯
- 미, 중국 신장위구르산 제품 수입 전면⋯
kcontents