인공뇌가 ‘의식’을 갖는다면?..."SF가 현실로..." Does artificial intelligence deserve the same ethical protections we give to animals?

Does artificial intelligence deserve the same ethical protections we give to animals?

by Molly Callahan, Northeastern University


Credit: CC0 Public Domain

In the HBO show Westworld, robots designed to display emotion, feel pain, and die like humans populate a sprawling western-style theme park for wealthy guests who pay to act out their fantasies. As the show progresses, and the robots learn more about the world in which they live, they begin to realize that they are the playthings of the person who programmed them.



Credit: CC0 Public Domain


 

인공뇌가 ‘의식’을 갖는다면?..."영화 SF가 현실로?"


   “줄기세포를 이용해 뇌세포 수백만 개로 구성된 미니 뇌를 만들었다. 이 뇌가 빛 등 자극에 반응하거나, ‘의식’을 갖게 된다면 어떨까. 치료 목적으로 환자로부터 뇌 전체나 일부 조직을 몸 밖으로 떼어낸다면 이 뇌 조직의 소유권은 누구에게 있을까. 뇌를 다른 동물에게 이식해 자라게 하면 이 존재는 사람일까 동물일까.”


지난해 4월 국제학술지 ‘네이처’에 미국의 생명과학자와 법학자 17명이 발표한 입장문 내용의 일부다. 당시 학자들은 “인간의 뇌 복제가 점점 현실로 다가오고 있는 상황에서 답하기 어려운 문제가 나올 것으로 예상된다”며 앞으로 마주할 상황을 제시했다. 이 가운데는 “만약 손상된 뇌 기능을 회복시킬 수 있다면 1960년대 이후 사실상 죽음의 기준이 된 ‘뇌의 죽음’이 과연 의미가 있을까”란 질문도 있다. 죽음의 정의 자체가 변할 수 있다는 물음이다.




당시만 해도 가정이지만 이 질문은 현실이 됐다. 이달 18일 미국 예일대 의대 연구팀은 죽은 지 4시간이 된 돼지 32마리에서 뇌를 분리한 뒤 특수 용액을 순환시켜 6시간 동안 뇌 조직을 살아있게 하는 데 성공했다고 소개했다.


뇌는 정상 형체를 유지했고 뇌 면역세포가 기능을 했으며, 뇌세포와 뇌세포를 잇는 접합부인 시냅스에서 신경신호도 발생했다. 하지만 연구팀은 “뇌세포 일부가 활성화됐을 뿐 뇌 자체의 기능이 되살아난 것은 아니고 의식 같은 고차원적인 뇌 활동은 없었다”며 과도한 의미 부여를 경계했다. 


뇌의 연구가 늘어나면서 윤리적 판단이 필요한 사례도 점차 늘고 있다. 이달 25일 미국 연구팀이 뇌 안에 측정 장비를 심어 발성과 관련된 신경신호를 읽은 뒤 말(음성)을 합성하는 실험에 성공했다. 언어장애 환자에게 도움이 될 수 있다는 기대도 있지만 타인의 마음을 몰래 읽어내는 ‘독심술’ 기술로 악용될 소지도 있다는 게 일부 과학자들의 우려다. 


당장 이번 돼지 실험도 윤리적 쟁점을 남겼다. 뇌 세포의 ‘부활’이 뇌의 부활로 이어져 죽음의 경계가 흐려질 가능성, 이로 인한 죽음 판정 기준의 변경으로 장기 기증과 이식이 위축될 우려 등 이전에는 상상하지 못한 주제를 제기했다. 네이처는 18일 연구 결과와 동시에 뇌 윤리학자들의 논평을 게재하고, 22일에도 질의응답 형식으로 논란을 조명하며 이 분야 논의를 이끌고 있다. 




이런 문제를 해결하고자 미국은 2002년부터, 한국은 2017년부터 뇌신경윤리연구회가 꾸려져 주요 문제를 하나하나 논의하고 있다. 류영준 강원대 의대 교수는 “기존의 윤리 프레임으로 설명할 수 없는 사례가 늘고 있다”며 “뇌 오가노이드(미니 인공장기), 뇌 영상을 통한 마음읽기, 사지마비 환자를 걷게 하는 기술, 머리 이식 등의 중요한 윤리적 쟁점을 다루고 있다”고 말했다.


실험실에서 줄기세포를 배양하면 지름 수mm의 미니 뇌인 ‘뇌 오가노이드’를 만들 수 있다. 미니 뇌가 의식을 가질 경우에 대비하려면 사전에 윤리적 논의가 이뤄져 있어야 한다. 사진제공 싱가포르게놈연구소


신경윤리학자들은 뇌 분야 쟁점들이 서로 긴밀히 연관된 만큼 긴 안목에서 폭넓게 다뤄야 한다고 주장한다. 류 교수는 “몸을 원하게 된 인공지능(AI)의 등장이나 인공 자궁을 통한 출산, 인간 복제, 기억 저장, 신체 대체 등은 모두 복잡하게 서로 얽혀 있다”며 “이를 고려해 기술 발달에 따른 윤리적 논의가 함께 진행돼야 한다”고 말했다. 

윤신영 기자 ashilla@donga.com 동아사이언스


edited by kcontents


Viewers might conclude that humans need to afford robots with such sophisticated artificial intelligence—such as those in Westworld—the same ethical protections we afford each other. But Westworld is a fictional TV show. And robots with the cognitive sophistication of humans don't exist.


Yet advances in artificial intelligence by universities and technology companies mean that we're closer than ever to creating machines that are "approximately as cognitively sophisticated as mice or dogs," says John Basl, who is an assistant professor of philosophy at Northeastern University. He argues these machines deserve the same ethical protections we give to animals involved in research.


"The nightmare scenario is that we create a machine mind, and without knowing, do something to it that's painful," Basl says. "We create a conscious being and then cause it to suffer."


Animal care and use committees carefully scrutinize scientific research to ensure that animals are not made to suffer unduly, and the standards are even higher for research that involves human stem cells, Basl says.


As scientists and engineers get closer to creating artificially intelligent machines that are conscious, the scientific community needs to build a similar framework by which to protect these intelligent machines from suffering and pain, too, Basl says.


"Usually we wait until we have an ethical catastrophe, and then create rules afterward to prevent it from happening again," Basl says. "We're saying we need to start thinking about this now, before we have a catastrophe."


Basl and his colleague at the University of California, Riverside, propose the creation of oversight committees—composed of cognitive scientists, artificial intelligence designers, philosophers, and ethicists—to carefully evaluate research involving artificial intelligence. And they say it's likely that such committees will judge all current artificial intelligence research permissible.


But a philosophical question lies at the heart of all this: How will we know when we've created a machine capable of experiencing joy and suffering, especially if that machine can't communicate those feelings to us?


There's no easy answer to this question, Basl says, in part because scientists don't agree on what consciousness actually is.


e-Reality - WordPress.com

edited by kcontents


Some people have a "liberal" view of consciousness, Basl says. They believe all that's required for consciousness to exist is "well-organized information processing," and a means by which to pay attention and plan for the long-term. People who have more "conservative" views, he says, require robots to have specific biological features such as a brain similar to that of a mammal.




At this point, Basl says, it's not clear which view might prove to be correct, or whether there's another way to define consciousness that we haven't considered yet. But, if we use the more liberal definition of consciousness, scientists might soon be able to create intelligent machines that can feel pain and suffering, and that deserve ethical protections, Basl says.


"We could be very far away from creating a conscious AI, or we could be could be close," Basl says. "We should be prepared in case we're close."

https://phys.org/news/2019-05-artificial-intelligence-ethical-animals.html


 kcontents

댓글()