언론보도

테슬라 자율주행기능 '오토파일럿' 연이어 사고‥완전한 자율주행 아직 멀었나

  • 운영자
  • 날짜 2021.03.18
  • 조회수 1,847

미시건주 디트로이트서 일주일 사이 두 번
경찰 당국‥“운전자 과실 가능성 있다”
합동 조사 당국 NHTSA “아직 조사 더 해 봐야”
자율주행차 사고 책임·과실 논쟁 다시 불붙나
학계 “기술(AI)에 법적 책임 물을 법 제정 필요”
구글 등 차량제조업체 “상대 차량 등 사람 과실이 더 많다”

지난 11일(현지시간) 미 미시건주 디트로이트시에서 발생한 테슬라 차량 교통사고. 당시 운전자는 모델 Y를 운전 중이였고, 자율주행기능인 오토파일럿을 가동한 것으로 알려졌다. (사진=Fox News). 
지난 11일(현지시간) 미 미시건주 디트로이트시에서 발생한 테슬라 차량 교통사고. 당시 운전자는 모델 Y를 운전 중이였고, 자율주행기능인 오토파일럿을 가동한 것으로 알려졌다. (사진=Fox News). 

미국 미시건주 디트로이트시에서 테슬라 자율주행차로 인한 교통사고가 일주일 사이 두 번 발생했다. 업체 자율주행 시스템 오토파일럿(Autopilot) 오작동이 주요 원인으로 꼽힌다. 이에 국립고속도로교통안전국(NHTSA)이 사고와 관련한 정밀조사는 물론 오토파일럿 기능도 심층적으로 검토하겠다고 밝혔다. 과거 자율주행차 사고와 어디에 책임을 물을 것인지 등 과실치사 논쟁에 다시 불이 붙을 것으로 보인다.

첫 번째 사고는 지난 11일(이하 현지시간)에 일어났다. 흰색 테슬라 Y와 화물차가 서로 충돌하면서 Y에 타고 있던 운전자와 동승자가 큰 부상을 입은 것. 동승자 21세 여성은 곧바로 중태에 빠져 현재까지도 인근 병원 중환자실에서 치료 중이다. 당시 Y는 충돌 직후 상대 화물차량 밑에 깔리면서 더 큰 부상을 당했다.

Y는 테슬라의 전기차이지만 오토파일럿이 탑재돼 있다. 조사 결과 운전자는 직접 운전하지 않고, 오토파일럿을 설정해 자율주행 중이었던 것으로 드러났다.

이를 놓고 디트로이트 경찰과 NHTSA 사이 다른 의견이 주목된다. 디트로이트 경찰은 “중간 조사 결과 당시 운전자가 오토파일럿 기능을 쓰면서 핸들에서 손을 놓았을 가능성이 있다”며 운전자 과실에 무게를 뒀다. 그러나 NHTSA 측은 좀더 신중을 기해 발표하겠다고 말하는 상황.

이후 17일 오후에는 테슬라 자율주행차가 시내 한 도로에서 주차 중이던 경찰차를 들이받았다. 테슬라 차량 내에는 모니터링을 담당한 22세 남성이 타고 있었다. 미시건 경찰 당국에 따르면 자율주행차 운전자도, 경찰도 부상을 입지 않았다. 그러나 경찰은 22세 남성에게 교통법규를 위반했다며 면허를 정지시켰다.

앞서 테슬라는 1월 2일 업체만의 전문매체 테슬라리티를 통해 모델3가 운전자 개입 없이 오토파일럿 기능만으로 샌프란시스코부터 로스앤젤레스까지 주행에 성공했다고 알렸다. 차내 각종 센서와 내비게이션만으로 셀프 드라이빙(Self-Driving)에 성공한 것이다.

[관련기사] 테슬라 FSD가 앞서간다...美 SF에서 LA까지 '라이다 없이' 자율주행 완주

이렇듯 올해부터 자율주행 시스템 업그레이드에 주력하고 있는 테슬라는 현재까지 이번 사고에 대한 공식발언을 내놓지 않고 있다. ‘소통왕’ 일론 머스크 최고경영자도 트위터에 사고와 관련한 어떠한 언급도 없다.

전기차 개발, 자율주행차 시스템 개발 등으로 자동차제조업에 큰 혁신을 불러일으키는 테슬라지만 한 번씩 발생하는 오토파일럿 사고는 기술적 결함에 대해 생각하게 한다. (사진=셔터스톡). 
전기차 개발, 자율주행차 시스템 개발 등으로 자동차제조업에 큰 혁신을 불러일으키는 테슬라지만 한 번씩 발생하는 오토파일럿 사고는 기술적 결함에 대해 생각하게 한다. (사진=셔터스톡). 

오토파일럿으로 인한 테슬라 사고는 지속적으로 발생해 왔다. 2016년에는 플로리다주에서 테슬라 S가 오토파일럿으로 두고 달리던 도중 트레일러와 충돌해 운전자가 즉사했다. 또 2018년 캘리포니아주에서도 또다른 모델 X가 오토파일럿의 오작동으로 인해 트레일러와 부딪히면서 운전자가 사망했다.

2019년 12월 7일에는 코네티컷주에서 모델3 자동차가 고속도로 위 고장난 차량을 확인 중이던 경찰차와 추돌한 후 그 차량까지 들이받았다. 역시나 오토파일럿으로 운전모드를 변경하면서 벌어진 사고였다.

자율주행차가 사고를 냈을 경우, 현재까지는 그 과실치사 책임을 인간에게 물을 수밖에 없다. 가장 사람들에게 크게 각인된 사건은 2018년 애리조나주 템피시에서 벌어진 ‘우버 자율주행차 사고’다. 우버는 야간 테스트 도중 보행자를 치여 숨지게 했고, 1년 간 조사 끝에 그 책임은 인간 보조 운전자인 라파엘라 바스케즈의 부주의라고 판단해 그를 구속했다.

학계에서는 AI가 발전할수록 사람의 개입이 줄어드는 만큼 미리 기술에게 책임을 묻는 ‘AI 과실법’을 주장하는 이들도 적지 않다. UCLA의 앤드류 셀브스트 교수도 그 중 하나. 셀브스트 교수는 이같은 내용을 담아 지난해 10월 ‘과실치사와 AI 사용자’라는 논문을 증보·발표하기도 했다.

[관련기사] "AI가 저지른 과실은 AI에게 책임을 물어야 한다"...'AI 과실법' 만들어야

그러나 업체 주장은 다르다. 테슬라를 비롯해 우버·구글·GM·아우디 등 글로벌 자동차제조 기업은 캘리포니아주에서 시범운행을 지속적으로 실시하고 있다. 일반도로, 고속도로를 가리지 않고 자사 자율주행차를 테스트 하는데, 자동차국(DMV)이 2014년 주행을 허가한 이후 발생한 38건의 주행사고 중 단 1건만이 자율주행차 과실로 결론이 났다. 나머지는 상대 일반 차량이나 보행자, 자전거 라이더 등의 과실로 판명났다.

캘리포니아주 마운튼뷰를 활보하는 구글 자율주행차  웨이모. (사진=셔터스톡).
캘리포니아주 마운튼뷰를 활보하는 구글 자율주행차  웨이모. (사진=셔터스톡).

구글은 3월 자사 웨이모가 충돌상황에서 사람 운전자보다 대처 능력이 우수하다는 보고서를 발표해 이목을 끌었다. 보고서에 따르면 웨이모는 지금까지 600만 마일(약 960만 킬로미터)을 주행하면서 사람이 일으키는 사고보다 경미한 추돌사고만 냈다는 것.

이처럼 자율주행 시스템을 두고 처리방법에 대한 논의가 극명한 가운데 국가별 그 책임을 물을 방법이 불분명한 것이 현실이다. 이는 국내도 마찬가지. 한국교통연구원이 2018년 일반시민 1000명을 대상으로 설문을 실시한 결과 ‘자율주행차 운전 시 우려사항’ 1위는 ‘시스템 고장으로 인한 교통사고(47.6%)’였으며, 2위는 ‘사고 발생 시 책임 소재 모호(21.2%)’가 뽑혔다.

인공지능에 의해 피해를 입었음에도 그를 법적으로 책임지게 할 법과 제도 마련은 아직도 멀게 느껴진다는 목소리가 커지고 있다. 이는 단지 자율주행만 해당되는 문제는 아니다. 무인 드론, 에어택시 등 첨단기술과 결합해 진화하는 교통 시스템에 맞춰 윤리에 기반한 판단 기준을 정립하자는 주장은 더욱 거세지고 있다.

AI타임스 박혜섭 기자 phs@aitimes.com

뉴스링크
https://www.aitimes.com/news/articleView.html?idxno=137418


Error Message : Query was empty