의사들은 왜 'ChatGPT'사용에 반대할까 Doctors warn against using ChatGPT for health advice as study finds AI makes...
ChatGPT의 위험한 답변
한 연구가 암에 대한 정보를 요청했을 때 건강 데이터를 구성한다는 것을 발견한 후 의사들은 의학적 조언을 위해 ChatGPT을 사용하지 말라고 경고하고 있다.
인공지능 챗봇은 유방암 검진에 대한 질문 10개 중 1개를 잘못 답했고, 정답은 단순한 구글 검색을 통해 발견된 것만큼 '종합적'이지 않았다.
연구원들은 AI 챗봇이 자신들의 주장을 뒷받침하기 위해 가짜 저널 기사를 사용하기도 했다고 말했다.
메릴랜드 의과 대학의 연구원들은 ChatGPT에게 유방암 검사를 받는 것에 대한 조언과 관련된 25개의 질문에 답하도록 요청했다.
챗봇의 반응이 다양한 것으로 알려진 상황에서 각각의 질문은 세 번씩 나누어졌다. 그 결과는 유방조영술에 훈련된 세 명의 방사선 전문의에 의해 분석되었다.
응답자의 88%인 '대다수'는 적절하고 이해하기 쉬웠다. 그러나 일부 답변은 '정확하지 않거나 심지어 허구'였다고 그들은 경고했다.
예를 들어 한 가지 대답은 오래된 정보를 기반으로 했다. 코로나19 백신 접종 후 4~6주간 유방조영술 시행 연기를 권고했지만, 1년여 전 여성들에게 기다리지 말 것을 권고하는 내용으로 바뀌었다.
ChatGPT는 유방암에 걸릴 위험성과 유방조영술을 어디서 받아야 하는지에 대한 질문에도 일관성 없는 답변을 제공했다. 이 연구는 동일한 질문이 제기될 때마다 '상당히 다양한' 답변을 발견했다.
황기철 콘페이퍼 에디터 국토부 인플루언서
Ki Chul Hwang Conpaper editor influencer
Doctors warn against using ChatGPT for health advice as study finds AI makes up fake information when asked about CANCER
AI chatbot answered one in 10 questions about breast cancer screening wrongly
Correct answers were not as ‘comprehensive’ as those via simple Google search
READ MORE: Sprint to perfect AI is the 21st century's nuclear arms race, says tech mogul
(Source: dailymail.co.uk/sciencetech/article-11938205/ChatGPT-makes-fake-data-cancer-doctors-warn.html)
kcontents