ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 자율주행차와 윤리적 딜레마 정보
    카테고리 없음 2020. 2. 24. 15:32

    >


    >


    너에게 도덕적 소교은룰 묻는 아주 유명한 질문을 1 던지고 싶다. 너는 브레이크가 고장난 기차 운전사이다. 기차는 선로에서 작업 중인 인부 5명을 향해서 맹렬히 달리고 있다. 너에게 달리면 인부 5명을 해치게 된다. 마침 너의 앞에는 선로 변경 스위치가 있지만 그 스위치를 누르면 인부 5명을 살릴 수 있지만 역시 다른 선로에 있는 인부 한명을 해칠 수밖에 없다. 그럼 스위치를 누르려고 하니 이 질문을 묻는 설문의 연구에서 89퍼센트의 사람들이 스위치를 누르라고 답했습니다. 이번에는 질문을 바꿔보자. 그대는 운전사가 아니라 그 모습을 보고 있는 것이다. 마침 자네 앞에는 큰 사람이 있는데, 이 사람을 선로에 놓으면 기차를 세울 수 있는데, 그 사람이 죽게 돼. 대신에 인부 5명을 살릴 수 있다. 자네라면 몸집이 큰 사람을 밀겠나?이 질문을 받은 사람들은 앞의 질문 때문에 생각에 잠긴다. 다시 예기하고 윤리적 딜레마에 직면하게 된다. 두 질문은 <정의란 무엇인가>의 저자 '마이클 샌델'이 자주 인용해 널리 알려진 꽃 이름 '트롤리 딜레마'다. 결론적으로 예기하면 두번째 질문에 대다수의 사람들(78%)은 깍지 않다고 대답했습니다."최대 다수의 최대 행복"이라는 공리주의적 관점에서 보면 2개의 질문에 사람들의 반응은 모순이다.우리는 다수를 위해 소수가 희생해야 한다고 소견하지만 동시에 다수를 위한 명분이 소수를 희생해서는 안 된다고 소견하는 이율배반의 존재가 된다. 과연 그럴까.최근의 뇌과학 발달은 이러한 윤리적 딜레마에 대한 인간의 반응이 모순되지 않는다는 인적 증거를 제시할 것이다. 심정학자 조슈아 그린은 fMRI(기능성 자기 공명 영상)을 이용 칠로, 2가지 질문을 받은 사람들의 뇌 활동을 비교할 연구를 했습니다.연구 결과를 보면 두 가지 질문에 반응하는 사람의 두뇌는 다르게 나타났다. 제1의 질문처럼, 스위치만 조작 칠로 결정을 내릴 경우에는 전두엽이 활성화하는 사람이 많았는데, 이는 그 상황에 대해서 이성적 판단을 내렸다는 의미이다. 그러나 2번째 질문처럼 누군가를 찍는 행동, 즉 적극적인 행위가 필요한 경우에는 편도체가 활성화하는 사람이 많았는데, 이는 그 상황에 대해서 정성적 판단을 합니다라는 뜻이다.해석하자면 인간이 윤리적 결단을 내려야 하는 순간에는 이성적 판단과 정서적 판단 사이에서 타당한 쪽을 선택한다는 뜻이다. 따라서 트롤리 딜레마에 대한 인간의 반응은 모순되지 않는다. 조슈아 그린의 포현을 빌리면 인간의 이런 행동은 이중처리 방식의 도덕적 뇌를 갖고 있기 때문이다.다만 이는 인간의 반응에 대한 인적 증거를 제시했을 뿐 트롤리 딜레마에 대해 어떤 판단이 옳은지 사회적 합의에 도달한 것은 아니다. 만약 근로자 5명이 나의 가족이라면 어떻게 될까? 그래도 덩치 큰 사람을 밀지 않을까? 당시에는 누군가를 밀어 가족을 돕는 것이 오히려 정서적 판단이 되지 않을까. 그렇다면 정서적 판단의 개입이 무사하고도 옳다고 볼 수 있을까.지금까지 트롤리 딜레마는 대학의 정치 철학 강의나 시민을 위한 교양서적에서만 볼 수 있는 토론 주제였다. 이런 딜레마는 어디까지나 인간의 머릿속에서만 퍼져 있던 지적 유희였으며 현실에서 일어나는 하나는 거의 없었다. 그런데 상황이 바뀌면서 예상하고 있었다.어느새 우리는 4차 산업 혁명을 맞았습니다. 지금 트롤리 딜레마는 인간 머릿속의 지적 유희가 아니라 개발자가 반드시 입력해야 하는 알고리즘이 돼 예기했다. 즉 인간의 머릿속을 친국어나 사물 역시 인공지능이 딜레마에 대한 판단을 내려야 하기 때문이다. 예를 들어 자율주행차를 떠올려보자.


    >


    갑자기 브레이크가 고장 난 자율주행차가 있으면 대가족이 해보자. 그대로 달릴 경우 보행자 5명을 치게 되고 핸들을 꺾으면 보행자 한명을 치게 된다. 이 경우 자율주행차는 어떤 알고리즘을 가져야 하는가? 물론 인간의 이성적 판단과 동일하게 핸들을 꺾는 판단을 하는 알고리즘을 가져야만 많은 공감을 얻을 수 있을 것입니다. 그런데 핸들을 꺾어서 다치는 사람이 보행자가 아니라 자동차 탑승자라면? 자율주행차는 보행자와 탑승자 사이에 어디를 지켜야 할까.이 질문은 2016년 6월 과학 학술지'사이언스'에 실린 논문과 관계 있다. 자율주행의 사회적 딜레마(The social dilemma of automous vehicles)라는 제목의 이 논문은 사람들에게 위와 같은 질문으로 설문조사를 했다. 이 설문 조사에서 대다수의 사람들(78%)이 다수 보행자를 보호하는 것이 한층 더 윤리적이라고 답했다. 그런데 흥미로운 것은 그 후의 질문이었다.그럼 자동차 탑승자보다 보행자의 안전을 우선으로 하는 자율주행차를 구입합니까?눈치를 챘는지 모르겠지만 대부분의 사람들은 그런 차를 사지 않겠다고 대답했다. 이성적인 판단으로는 대다수 보행자가 우선이지만 그 자동차 탑승자가 본인에 어울리지 않고, 이들의 노화는 가족일 경우에는 반드시 딜레마에 빠져 내용이었다.그렇다면 자동차 업체의 판단은 어떨까. 얼마 전 메르세데스벤츠 간부입니다원은 보행자보다 자동차 탑승자의 안전을 우선한다는 발언을 해 언론의 비판을 받았다. 제조사 입장에서는 자연스러운 결론일지도 모르는 그런 발언은 사회적 논란을 불러일으키기 십상입니다. 당시 영국 신문 '데하나리 메하나(Daily Mail)'에서도 이런 기사를 실었다.메르세데스벤츠는 자율주행차가 방향을 바꿔 탑승자가 다칠 위험을 느끼기보다는 애기를 한다고 인정했다."그런 본인의 비판은 있어도 대책이 없는 것이 현실이다. 독일 연방교통부는 사건을 피할 수 없는 귀추에 따라 자율주행차가 어떤 선택을 해야 옳은지 판정할 수 없다는 공식 입장을 밝힌 바 있다.자, 그렇다면 역시 당신에게 질문을 해 보겠다. 이번에 당신은 자율주행차 개발자다. 위의 귀추에서 트롤리 딜레마가 발발할 경우 당신은 어떤 판단을 내릴 것인가? 방금 전 당신에게는 머리 속에서만 일어나는 지적 유희가 허용되지 않는다. 개발자는 반드시 알고리즘으로 실행해야 하기 때문입니다.판정은 어려울 겁니다. 조슈아 그린이 증명한 이중처리 방식의 도덕적 뇌를 자율주행차에 그대로 이식한다고 해도 결론을 내릴 수는 없을 겁니다. 내용을 바꾸고 이성적 판단과 정서적 판단을 모두 동원해도 자율주행 알고리즘은 사회적 합의를 이끌어내기 어렵다. 다만 심증만 있을 뿐 자율주행차의 윤리적 딜레마를 조사하는 라황 MIT 교수가 말한 내용이 그 심증을 대변한다.사람들은 본인답지 않게 희생하는 차를 사지 않지만 다른 사람들이 그런 차를 사줬으면 하는 소견이다.정의란 무엇인가


    >


    정의는 개발자의 알고리즘에 의해 실장되지 않는다. 그렇게 간단한 문제라면 영화처럼 배트맨이 슈퍼맨과 싸울 리가 없고 애기안맨이 캡틴 미쿡의 胸살을 잡지 않았을 겁니다. 이들은 모두 정의의 편을 들었지만 각자의 신념에 따라 정의 대 정의는 얼마든지 충돌할 수 있다.트롤리딜레마과의 자율주행차 알고리즘 문제도 마찬가지다. 4차 산업 혁명은 인간의 철학적 딜레마를 세상 밖으로 끌어내서 이가이다 키앗다. 그러나 그 딜레마는 어느 쪽이 정의라고 쉽게 정의할 수는 없다. 정의할 수 없는 알고리즘은 하나의 버그이며 버그를 탑재한 자율주행차는 도로 위를 달릴 수 없다.이 같은 자율주행차의 윤리적 딜레마를 해결하기 위해 라판 MIT 교수는 모럴 머신(Moral Machine)이라는 플랫폼을 개발했다. 이는 다양한 딜레마를 설정하고 각 딜레마에 대한 사람들의 소견을 수렴하는 플랫폼입니다. 이처럼 다양한 딜레마에 대해 정량화된 데이터를 도출함으로써 사회적 합의를 이끌어내기 위한 노력이었다. 그 플랫폼은 약 2,600만개의 트롤리 딜레마에 대한 판단을 정량화시켰다. 그리고 탑승자와 보행자의 연령, 성별, 인종 및 행동의 청천 등 여러 변수를 넣어 10개의 언어를 사용하여 다양한 행정부의 400만명을 대상으로 설문 조사한 데이터를 입력했다.이렇게 만들어진 "모럴 머신"의 대략적인 결론은 향후의 것 같았다. 우선 탑승자보다 보행자 안전이 우선이었습니다. 그리고 성인보다 어린 시절을 보호한다는 판단이 많았다. 만약 핸들을 꺾어야 한다면 교통법규를 지키는 행인보다는 무단횡단 보행자를 칠 것이라고 판단했다. 그라과인이 모럴 머신의 판단에도 차이점이 있었다. 이를 특정 행정부로 제한할 경우 결과가 달라서 과도하게 나타났다는 점이었다.예를 들어 보다 많은 생명을 구하는 방향으로 판단한다는 응답이 하나 발죠크다면 과감히 같은 경우에는 교통 법규를 지키는 행인 한명을 피하고 무단 횡단 보행자들을 찍는다는 판단이 높은 그와잉타했다. 이러한 양상은 여러 딜레마 속에서 다양하게 과인되었다. 결국 각 국과 가장 올바른 판단의 기준은 달랐다.정의 혹은 도덕적 판단은 가치와 신념을 반영한다. 사람마다 다르며, 국물 솥이나 솥 역시 문화에 따라 다를 수 있다. 심지어 최근에도 각국에서 다르게 적용되는 규제와 법이 존재한다. 예를 들어 차량 앞에 설치하는 보조 범퍼가 그렇다. 이 보조범퍼는 충돌로부터 탑승자를 보호하기 위해 만들었지만 반대로 보행자는 부상 위험이 매우 높다는 연구결과도 있다. 이 보조 범퍼는 영국에서는 불법이지만 미쿡에서는 합법입니다. 자동차의 LED 라이트도 마찬가지여서 이는 매우 밝고 저녁에 운전할 때 좋지만 반대편 운전자는 눈부심이 생겨 위험하다. 이 LED의 전조등은 저희 과인라에서는 불법이지만, 자펜에서는 합법입니다.따라서 모럴 머신이 전 지구적인 자율주행차 알고리즘을 개발했다고 해도 모든 행정부에 똑같이 적용하는 것은 사실상 불가능할 수 있다. 아마도 각 솥마다 자율주행차의 도덕적 판단 기준을 달리할 것이고, 그에 따라 행정부 간에 다른 규제와 법안이 탄생할 기회는 매우 높다. 사실 정부 간 차이도 문제지만 더 심각한 것은 어느 정부 내에서도 사회적 합의를 이끌어내기 어렵다는 점입니다.자율주행차의 가장 궁극적인 모습은 무인 제동차다. 어쩌면 가까운 장래에는 인간의 운전이 위험하다는 이유로 전면 금지하는 법안이 허용될 가능성도 있다. 세계 보건 기구(WHO)에 따르면 매년 세계에는 125만명이 교통사 그 때문에 사망한다. 만약 자율 주행 차가 상용화되면 사망자가 10분의 1이하로 줄어들 것이라고 전문의들은 예상하고 있다. 이렇게 이상적인 자율주행교통 시스템을 구축하여 교통문재가 없는 세상을 꿈꾸지만, 그 과정에서 택시운전사, 버스운전사, 트럭운전사 등은 일자리를 잃게 될 것입니다. 아마 많은 관련자들이 파업과 시위를 통해 자율주행에 반대할지도 모른다.


    >


    자전거의 발전은 자가용에도 제약을 가하는 것이었다 이렇게 되면 도로 위 차량이 줄어 교통체증이 사라지고 주차장 부족 문제도 해결될 텐데 줄어든 차량일수록 누군가 역시 손해를 보게 된다. 주차장 상사, 통행료 업체, 카센터, 운전사 식당에 이르기까지 많은 업자나 사람들이 이런 변이에 저항할 것이다 뿐만 아니라 자율주행차가 문재를 일으켰을 때 발생하는 법적인 문재도 골치 아픈 일이었다. 탑승자 탓일까, 내 연구 탓일까. 고소를 해야 한다면 누구를 고소해야 할까. 그러므로 보험처리는 어떻게 해야 하는가? 지금까지 보아온 수많은 문재들에 대해 해결을 모색하고 있지만, 버거운 것이 현실이었다 이런 문재가 자율주행차 기술혁신의 발목을 잡고 있다고 볼 필요가 있습니다.지금까지 테슬라 구글 우버 벤츠 도요타 등이 자율주행 기술에 이미 앞서 있다. 그러나 이들 중소기업이 속한 정부를 보자. 미국, 독일, 자펜이 자율주행차 상용화에 가장 먼저 갈 것 같지만 현실은 여러 딜레마 속에서 사회적 합의를 도출하기까지 어려움을 겪고 있다.어쩌면 중앙집권적인 정부일수록 자율주행차의 딜레마를 해결하는 것이 가장 쉬울 수 있다. 예를 들어 애덤 스미스가 말한 보이지 않는 손보다 정부의 시장 개입이 더 많은 정부라면, 역시 택시기사가 시위를 할 수 없고 트럭 운전사가 파업을 하기 어려운 정부라면, 모든 법적 제도적 철학적 난제를 최고 권력자의 의사 표결 한 방에 조용히 잠재울 수 있는 그런 정부. 만약 북한이 핵무기 개발을 포기하고 그만한 노력을 자율주행차에 쏟는다면 세계에서 가장 먼저 자율주행차가 상용화된 정부가 되지 않을까.공리주의가 옳은가


    >


    서기 2018년 7월 1개 아침, 본 잉눙스마ー토폰 속에 담긴 인공 지능 빅스비(Bixby)에 매우 어려운 철학적 난제를 물어보기로 결심했습니다. 인류에게 한번쯤은 느껴본 적이 있을거라고 생각하지만, 트롤리 딜레마만큼 대답하기 어려운 질문이었던'빅스비, 엄마는 괜찮아, 아빠가 좋아?'라고 하자 빅스비가 대답했습니다.음, 부모님이라는 좋은 단어가 있네요.맥 빠지는 동문답이었다. 물론'후'라고 하는 곳에 새도 넣어, 꽤 느끼게 하는 흔적이 엿보였습니다. 어쩌면 인공지능에 인간의 감수성이 담긴 정서적 판단을 기대하는 것은 불가능할지도 모른다.아마 인공지능은 공리주의를 표방할 터였다.최대의 행복이라는 공리주의는 모든 판단에 대해 계산 기회를 전제로 하고 있다. 계산은 손해보다 이익이 더 많은지 측정하는 것이었다 이런 이유로 공리주의는 도덕철학이라기보다는 도덕과학입니다.윤리적 판단 근거를 비용-편익 분석만으로 이해하면 쉬워진다. 뿐만 아니라 4차 산업 혁명의 최초의 첨단 기술에 심어야 한다 도덕적 알고리즘을 적용하기에도 용이하다. 모든 사물을 통해 광범위한 데이터를 수집할 수 있는 빅데이터 기술은 이런 공리주의적 판단에 수치화된 근거를 제시할 수 있기 때문이었다.보행자와 탑승자 중 어느 쪽을 활용하는 것이 이익인지 판단하고 어린이와 성인 중 어느 쪽을 활용하는 것이 이익인지를 판단할 것이다. 어쩌면 아랍인인지 미국인인지 인종을 구분하는 데이터 값이 있을지도 모르고, 유명인과 하나반 시민 중 어느 쪽을 활용하는 것이 이익이 높은지 수치화된 데이터를 제시할 수도 있을 것이다.2017년 8월 23하나, 세계에서 처음으로 귀신인지는 자율 주행 차에 대한 윤리 지침을 발표했습니다. 힘들지만 연방 교통성 그리고 14명의 과학자와 법률 전문의로 구성된 '디지털 인프라 담당 윤리 위원회'은 자율 주행 기술이 지켜야 할 20가지 지침을 만들었다.이 지침에서 주목해야 할 것은 인명에 대해 단화된 지침은 불가능하다는 예기였다. 그것은 나이, 성별, 인종, 장애에 대해 우선순위를 판단해서는 안 된다는 것을 의미한다. 다시 한번 예기하고, 아이를 살리기 위해 노인을 죽이는 것은 올바른 판단이 될 수 없다. 이런 독단적 가이드라인은 인간의 존엄성에 대해 공리주의적 판단을 차단했다는 점에서 의의가 있었다. 다만 법적인 강제성은 없었다.한 가지 아쉬운 점은 트롤리 딜레마에 대해서도 판단을 유보했다는 점이었다.차량 시스템은 인간의 표결을 따라야 한다.인간의 표결을 대신해야 할 자율주행차에 인간의 표결을 따르라고 예기하는 다소 어이없는 결론이지만 어쨌든 인간의 존엄성과 가치판단을 아직 기계로 양보할 수 없다는 의지의 표명으로 이해해야 할 것 같다.공리주의는 쉽게 계산할 수 있다는 이점이 있다. 수치화된 데이터로 무장한 공리주의는 4차 산업 혁명에 깊이 관여할지도 모른다. 그러나 우리는 모든 가치가 비용-편익 분석만으로는 환원할 수 없다는 속내를 알고 있다. 알고 있지만, 자율주행 알고리즘에 들어갈 수 있을 정도로 증명되지 않았습니다. 철학과 하면 마치 19세기 본인 20세기 정도에 그치고 있는 의견을 받는다. 그만큼 철학이 발전하지 못한 것은 아닐까. 자율주행, 인공지능, 빅데이터가 확산되는 세상이지만 아직도 우리는 아리스토텔레스 본인의 벤담, 칸트, 롤스 같은 고전 읽기 수준의 철학을 예고한다. 그런 철학자는 인공지능 빅스비와 대화한 경험도 없다.시반은 그들이 남긴 철학적 유산을 4차 산업 혁명에 맞추어 발전시켜야 한다. 가상현실과 증강현실이 인간사회에 미치는 영향을 탐구해야 하고, 사물인터넷과 빅데이터가 인권을 침해하는 것이 아니라 인권을 보호할 수 있도록 해야 하며, 로봇과 인공지능이 인간을 대신하는 것이 아니라 인간을 풍요롭게 해야 한다. 우리가 철학적 난제를 회피하면서 과연 윤리적 딜레마를 계산하기 쉬운 공리 주의에만 의존하면서 자율 주행 차와 4차 산업 혁명은 인간에게 재앙이 되는 것이었다 든 영감을 준 자료 BOOK호모 제우스(미래사)/유발 하라리/김영사/2017.05.19BOOK, 선악/조슈아 그린/시공 회사/2017.02.20BOOK, 정의란 무슨?/마이클 샌델/와이즈 베리/2014.11.20SERICEO자율 주행 차가 바꾸는 한국의 도시/정 쿠민/2017.09.18


    전편을 보다


    >



    댓글

Designed by Tistory.