AI 추론과 인간사고는 얼마나 일치할까 VIDEO: New Test Compares AI Reasoning With Human Thinking

 
"이를 아는 것은 안전성에 매우 중요"

 

    인공지능이 통찰에 도달하고 결정을 내리는 방식은 종종 신비롭기 때문에 머신러닝이 얼마나 신뢰할 수 있는지에 대한 우려가 제기된다. 이제, 새로운 연구에서, 연구원들은 AI 소프트웨어의 행동이 인간의 행동과 얼마나 잘 일치하는지 비교하기 위한 새로운 방법을 밝혀냈다.

 

AI 추론과 인간사고는 얼마나 일치할까 VIDEO: New Test Compares AI Reasoning With Human Thinking
 
머신 러닝이 실제 응용 프로그램을 점점 더 많이 발견함에 따라, 어떻게 결론에 도달하고 올바르게 하는지 이해하는 것이 중요해진다. 예를 들어, AI 프로그램은 피부 병변이 암이라고 정확하게 예측한 것처럼 보일 수 있지만, 임상 이미지 배경에서 관련이 없는 얼룩에 초점을 맞춤으로써 그렇게 했을 수 있다.
 
"기계 학습 모델은 이해하기 너무 어렵다"라고 MIT의 컴퓨터 과학 연구원이자 AI의 신뢰성에 관한 새로운 연구의 주 저자인 Angie Boggust는 말한다. "모델의 결정을 아는 것은 쉽지만, 모델이 왜 그런 결정을 내렸는지 아는 것은 어렵다."

 

 

 
AI 추론을 이해하기 위한 일반적인 전략은 프로그램이 결정을 내리기 위해 초점을 맞춘 데이터(예: 이미지 또는 문장)의 특징을 조사한다. 그러나 소위 말하는 돌출 방법은 종종 한 번에 한 가지 결정에만 대한 통찰력을 제공하며, 각각의 결정을 수동으로 검사해야 한다. AI 소프트웨어는 종종 수백만 개의 데이터 인스턴스를 사용하여 훈련되기 때문에 사람이 올바르거나 잘못된 행동의 패턴을 식별하기 위해 충분한 결정을 분석하는 것은 거의 불가능하다.
 
"인간 사용자에게 머신러닝 모델을 질문하고 이해할 수 있는 도구를 제공하는 것은 머신러닝 모델이 실제 세계에 안전하게 배치될 수 있도록 하는 데 매우 중요하다."
—Angie Boggust, MIT
 
이제 MIT와 IBM 리서치의 과학자들은 AI가 그 결정에 대해 제공하는 설명을 수집하고 검사하는 방법을 만들어냈고, 따라서 그것의 행동에 대한 빠른 분석을 가능하게 했다. Shared Interest라는 이름의 이 새로운 기술은 AI의 결정에 대한 민감도 분석을 사람이 주석을 단 데이터베이스와 비교한다.
 
예를 들어, 이미지 인식 프로그램은 사진을 개의 사진으로 분류할 수 있으며, 돌출 방법은 프로그램이 결정을 내리기 위해 개의 머리와 몸의 픽셀을 강조 표시한다는 것을 보여줄 수 있다. 이와는 대조적으로, 공유 관심 접근법은 이러한 돌출 방법의 결과를 사람들이 어떤 사진의 부분이 개의 것인지 주석을 달았던 이미지의 데이터베이스와 비교할 수 있다.
 
황기철 콘페이퍼 에디터 인플루언서
Ki Chul Hwang Conpaper editor influencer
 
 
(Source: 
 
AI-thinking vs Human-thinking. Everybody talks about the different way Medium 
 
 
 
Does AI make better decisions than humans? Thinking Ethics of AI

 

댓글()