미국 샌프란시스코 인근 샌브루노에서 운전자 없는 자율주행 로봇 택시가 불법 유턴을 하다 경찰에 적발되는 일이 있었습니다.
문제는 이 차량에 실제 사람이 탑승하지 않았다는 점이었습니다. 경찰은 즉시 단속에 나섰으나 법적 근거가 부족해 과태료를 부과하지 못했습니다. 단속 경찰관은 “운전자가 없으니 딱지를 발급할 수 없었다”며 현재 교통법규 위반 항목에 ‘로봇’이라는 개념이 아예 존재하지 않는 현실을 지적했습니다.
해당 차량은 구글의 모회사 알파벳이 운영하는 자율주행 서비스 웨이모 소속이었습니다. 웨이모 측은 시스템이 도로 규칙을 준수하도록 설계되어 있으며 실제 주행을 통해 지속적으로 학습하고 있다고 강조했습니다. 이번 사건은 기술이 법의 발전 속도를 앞질러 발생한 대표적 사례로 평가되고 있습니다.
현재 캘리포니아주는 자율주행차 단속과 관련한 법안 시행을 준비하고 있습니다. 주지사 개빈 뉴섬은 자율주행차가 교통법을 위반할 경우 경찰이 ‘자율주행차 비준수 통보서’를 발부할 수 있도록 허용하는 법안에 서명했고, 내년 7월부터 적용될 예정입니다. 다만 이 통보서가 실제 어떤 처벌로 이어질지는 아직 규정되지 않았습니다.
반대로 애리조나주는 자율주행차를 일반 차량과 동일하게 취급해 교통법규 위반 딱지를 부과할 수 있도록 하고 있으나 실제 발부 사례는 보고되지 않았습니다.

자율주행차가 사회에 본격적으로 도입되면서 교통 안전과 법적 책임 문제가 새로운 논의의 중심에 서고 있습니다.
미국 도로교통안전국(NHTSA)과 같은 연방 기관은 자율주행 시스템의 안전성과 사고 책임 소재를 지속적으로 검토하고 있으며, 주별로 다른 정책은 제도적 혼란을 야기할 수 있다는 지적이 나옵니다. 실제로 2023년 미국 여러 도시에서 자율주행 택시의 급정지, 도로 정체 유발, 긴급차량 방해 사례가 보고되었고, 일부 지역 주민들은 안전 우려로 서비스 확대에 반대하기도 했습니다.
법적 공백의 핵심은 ‘운전자’의 정의입니다.
지금까지의 교통법규는 사람을 전제로 만들어졌습니다. 자동차가 신호를 위반하거나 사고를 낼 경우 운전자가 직접 책임을 지도록 되어 있습니다. 자율주행차는 소프트웨어와 인공지능이 운전을 대신하기 때문에 기존 법 체계로는 처벌 주체를 명확히 특정하기 어렵습니다. 벌금을 차량 소유주, 서비스 제공 기업, 혹은 제조사에게 부과해야 하는지 논란이 있습니다.
보험 문제도 복잡합니다. 일반 자동차 사고는 운전자 과실 여부를 따져 보험 처리를 하지만, 자율주행차의 경우 알고리즘 오류나 센서 문제로 사고가 발생하면 제조사의 책임이 더 크게 작용할 수 있습니다. 일부 보험사는 자율주행 전용 상품을 준비하고 있으며, 장기적으로는 사고 발생 빈도가 줄어 보험료 체계가 근본적으로 바뀔 것이라는 전망도 있습니다.
이번 사건은 단순한 불법 유턴 사례가 아니라 미래 교통 질서를 어떻게 구축할 것인가에 대한 질문을 던집니다.
교통법규는 운전자 중심에서 시스템 중심으로 재편될 필요가 있습니다. 자율주행차가 늘어나면 신호체계, 도로 설계, 단속 시스템까지 모두 변화해야 합니다. 법률가와 기술 개발자, 교통 전문가가 긴밀히 협력하지 않으면 사회적 혼란이 커질 수 있습니다.
자율주행은 고령층이나 장애인에게 이동의 자유를 넓혀줄 수 있는 혁신적 기술이기도 합니다. 동시에 예기치 못한 사고와 법적 공백이 공존하는 전환기의 위험도 존재합니다. 샌브루노에서 발생한 로봇 택시 불법 유턴 사건은 단순한 해프닝이 아니라 자율주행 시대에 우리가 어떤 규범과 제도를 마련해야 하는지 보여주는 신호라 할 수 있습니다. 미래 교통의 안전과 질서를 위해 법과 기술이 균형 있게 발전해야 한다는 점이 분명해지고 있습니다.
출처:ChatGPT,조선일보