KR102376526B1 - 자율주행차량 데이터 및 cctv 카메라 영상을 활용한 사고상황 재현 방법 및 시스템 - Google Patents

자율주행차량 데이터 및 cctv 카메라 영상을 활용한 사고상황 재현 방법 및 시스템 Download PDF

Info

Publication number
KR102376526B1
KR102376526B1 KR1020200098526A KR20200098526A KR102376526B1 KR 102376526 B1 KR102376526 B1 KR 102376526B1 KR 1020200098526 A KR1020200098526 A KR 1020200098526A KR 20200098526 A KR20200098526 A KR 20200098526A KR 102376526 B1 KR102376526 B1 KR 102376526B1
Authority
KR
South Korea
Prior art keywords
data
vehicle
accident
image
situation
Prior art date
Application number
KR1020200098526A
Other languages
English (en)
Other versions
KR20220018250A (ko
Inventor
원종훈
강민수
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Priority to KR1020200098526A priority Critical patent/KR102376526B1/ko
Publication of KR20220018250A publication Critical patent/KR20220018250A/ko
Application granted granted Critical
Publication of KR102376526B1 publication Critical patent/KR102376526B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/18Details relating to CAD techniques using virtual or augmented reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Abstract

자율주행차량 데이터 및 카메라 영상을 활용한 사고상황 재현 방법 및 시스템이 제시된다. 일 실시예에 따른 컴퓨터 시스템에서 수행되는 사고상황 재현 방법은, 교통사고 전후의 주행하는 차량 내부의 상태 데이터와 적어도 어느 하나 이상의 차량의 블랙박스 또는 외부의 CCTV로부터 획득된 영상 데이터를 수신하는 단계; 및 수신된 상태 데이터 및 영상 데이터를 기반으로 3차원 영상을 재구성하여 교통사고 현장의 상황을 재구성하는 단계를 포함하여 이루어질 수 있다.

Description

자율주행차량 데이터 및 CCTV 카메라 영상을 활용한 사고상황 재현 방법 및 시스템{METHOD AND SYSTEM FOR TRAFFIC ACCIDENT REPLAY SYSTEM BY UTILIZING DATA FROM SELF-DRIVING CAR SENSOR AND INFRA-CAMERA}
아래의 실시예들은 자율주행차량 데이터 및 카메라 영상을 활용한 사고상황 재현 방법 및 시스템에 관한 것이다.
최근 들어, 무인 자율 주행시스템과 관련하여, 특히 로봇이나 자동차 분야에서의 자율 주행과 관련한 많은 연구가 이루어지고 있다. 일반적으로 자율 주행시스템은 도로맵 정보를 바탕으로 GPS 위치정보 및 각종 센서에서 취득한 신호를 이용하여 도로상의 시작점부터 종료점까지 자동차의 주행을 자동으로 제어하면서 이동시킬 수 있다. 특히, 자율 주행시스템은 고속으로 움직이는 이동체(자동차 또는 로봇)의 주행환경을 실시간으로 인식 및 판단하기 위해, 스캐닝 장치, 카메라, 레이더, 항법장치(GPS 및 관성항법장치), 초음파 등과 같은 센서 장비들을 포함할 수 있다.
기존 자율주행을 위한 시스템이 보급되면서, 그에 따른 보조 시스템으로 첨단 운전자 지원 시스템(Advanced Driver Assistance System, ADAS) 및 자율주행(Automatic Driving, AD)이 있으며, 이와 더불어 차량과 사물 통신(Vehicle to Everything communication, V2X)을 기반으로 한 정밀한 보조 시스템이 개발되고 있다.
그러나 차량 내부의 문제가 발생하거나 외부에서의 불가피한 상황이 발생하였을 경우, 이에 대한 원인을 정밀하게 분석하기에 다소 어려운 점이 있다. 또한, 교통사고 발생 시 현재의 블랙박스 영상으로는 2차원의 평면적 정보를 제공하기 때문에 다각도의 분석을 통해 사고의 원인을 파악하기가 어렵다.
한국공개특허 10-2020-0062867호는 이러한 ADR 데이터와 EDR 데이터의 동기화 및 검증을 위한 방법과 그 장치에 관한 기술을 기재하고 있다.
한국공개특허 10-2020-0062867호
실시예들은 상기한 바와 같은 문제점을 해결하기 위하여 안출된 것으로, 다각도로 녹화된 사고 영상과 주변 데이터를 기반으로 3차원의 증강현실을 구축하여 교통사고 현장을 재현함으로써, 사고의 원인을 정밀하게 파악할 수 있는 환경을 제공하는 자율주행차량 데이터 및 카메라 영상을 활용한 사고상황 재현 방법 및 시스템을 제공하고자 한다.
실시예들은 자율주행차량이 가고자 하는 목표 지점까지의 거리 사이에 급작스러운 사고가 발생하게 될 경우, 이를 감지하여 사고 전후의 차량 상태 정보와 영상 데이터를 중앙 서버에 전송하고, 수신 받은 데이터를 기반으로 3차원 영상으로 재구성하여 교통사고 현장의 상황을 제공하는 자율주행차량 데이터 및 카메라 영상을 활용한 사고상황 재현 방법 및 시스템을 제공하고자 한다.
일 실시예에 따른 컴퓨터 시스템에서 수행되는 자율주행차량 데이터 및 카메라 영상을 활용한 사고상황 재현 방법은, 교통사고 전후의 주행하는 차량 내부의 상태 데이터와 적어도 어느 하나 이상의 차량의 블랙박스 또는 외부의 CCTV로부터 획득된 영상 데이터를 수신하는 단계; 및 수신된 상기 상태 데이터 및 상기 영상 데이터를 기반으로 3차원 영상을 재구성하여 교통사고 현장의 상황을 재구성하는 단계를 포함하여 이루어질 수 있다.
상기 주행하는 차량 내부의 상태 데이터와 적어도 어느 하나 이상의 차량의 블랙박스 또는 CCTV로부터 획득된 영상 데이터를 수신하는 단계는, 중앙 서버에서 교통사고 전후의 자율주행차량의 센서 데이터 중 적어도 어느 하나 이상의 데이터를 제공하는 ADR(Accident Data Recorder) 모듈과, 속도, 브레이크 작동 여부, 엔진 회전수 및 시트벨트 착용 여부 중 적어도 어느 하나 이상의 데이터를 포함하는 EDR(Event Data Recorder) 모듈을 통하여 사고 전후의 차량 내부의 상기 상태 데이터를 전달 받는 단계; 상기 중앙 서버에서 교통사고 전후의 외부의 CCTV 영상 데이터, 사고 차량 주변 복수개의 차량의 블랙박스 영상 데이터 및 전후방 영상, AVM(Automatic Vehicle Monitoring) 영상, 레이더(Radar), 라이다(Lidar), GNSS(Global Navigation Satellite System), INS(Inertial Navigation System) 및 GPS 데이터를 전달 받는 단계; 및 상기 중앙 서버에서 상기 자율주행차량으로부터 전달 받은 상기 상태 데이터와 복수개의 차량 또는 외부의 CCTV로부터 전달 받은 상기 영상 데이터를 정합하는 단계를 포함하여 이루어질 수 있다.
상기 상태 데이터 및 상기 영상 데이터를 기반으로 3차원 영상을 재구성하여 교통사고 현장의 상황을 재구성하는 단계는, 상기 상태 데이터 및 상기 영상 데이터를 상태 정보 통합 모듈을 통해 3차원 영상 기반 모델링 및 영상 기반 렌더링(rendering)을 거쳐 통해 도로 내 교통사고 상황을 3차원 증강현실로 구현할 수 있다.
전달 받은 상기 영상 데이터를 보정 또는 화질을 개선하는 단계를 더 포함하고, 상기 상태 데이터 및 상기 영상 데이터를 기반으로 3차원 영상을 재구성하여 교통사고 현장의 상황을 재구성하는 단계는, 개선된 상기 영상 데이터에서 사고가 발생한 자율주행차량의 속도 및 위치와 상기 상태 데이터를 이용하여 차량을 3D 시뮬레이션을 통해 도로 내 교통사고 현장의 상황을 재구성할 수 있다.
다른 실시예에 따른 자율주행차량 데이터 및 카메라 영상을 활용한 사고상황 재현 시스템은, 교통사고 전후의 주행하는 차량 내부의 상태 데이터와 적어도 어느 하나 이상의 차량의 블랙박스 또는 외부의 CCTV로부터 획득된 영상 데이터를 수신하는 상태 정보 수신부; 및 수신된 상기 상태 데이터 및 상기 영상 데이터를 기반으로 3차원 영상을 재구성하여 교통사고 현장의 상황을 재구성하는 3D 시뮬레이션 재구성부를 포함하여 이루어질 수 있다.
실시예들에 따르면 사고 전후의 상태 정보를 특정한 형식으로 통합하여 증강현실을 제공함으로써, 정보의 누락 없이 일관된 형식을 통해 사고의 원인을 정밀하게 파악할 수 있는 자율주행차량 데이터 및 카메라 영상을 활용한 사고상황 재현 방법 및 시스템을 제공할 수 있다.
도 1은 일 실시예에 따른 자율주행차량 데이터 및 카메라 영상을 활용한 사고상황 재현 시스템을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 자율주행차량 데이터 및 카메라 영상을 활용한 사고상황 재현 시스템의 상태 정보 획득 및 통합을 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 자율주행차량 데이터 및 카메라 영상을 활용한 사고상황 재현 시스템의 구성 및 동작을 설명하기 위한 블록도이다.
도 4는 일 실시예에 따른 자율주행차량 데이터 및 카메라 영상을 활용한 사고상황 재현 방법을 나타내는 흐름도이다.
도 5는 일 실시예에 따른 데이터들을 취합하여 중앙 서버에 데이터를 전송하는 구조도를 나타내는 도면이다.
도 6은 일 실시에에 따른 데이터들을 취합하여 클라우드 서버인 중앙 서버에 데이터를 전송하는 구조도를 나타내는 도면이다.
이하, 첨부된 도면을 참조하여 실시예들을 설명한다. 그러나, 기술되는 실시예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명되는 실시예들에 의하여 한정되는 것은 아니다. 또한, 여러 실시예들은 당해 기술분야에서 평균적인 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해서 제공되는 것이다. 도면에서 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.
아래의 실시예들은 자율주행차량 데이터 및 카메라 영상을 활용한 사고상황 재현 방법 및 시스템에 관한 것으로, 보다 상세하게는 자율주행자동차 데이터 및 다각도로 녹화된 사고 영상과 주변 데이터를 기반으로 3차원의 증강현실을 구축하여 교통사고 현장을 재현할 수 있는 시스템으로, 사고의 원인을 정밀하게 파악할 수 있는 환경을 제공할 수 있다.
보다 구체적으로, 실시예들은 자율주행차량이 가고자 하는 목표 지점까지의 거리 사이에 급작스러운 사고가 발생하게 될 경우, 사고 전후의 차량 상태 정보와 영상 데이터를 포착하고, 모든 자율주행 센서 데이터를 중앙 서버에 전송하고, 수신 받은 데이터를 기반으로 3차원의 영상으로 재구성하여 교통사고 현장의 상황을 제공할 수 있다.
실시예에서, 용어 EDR(Event Data Recorder)은 이벤트 데이터 기록장치로서, EDR은 약 5초간 데이터를 지속적으로 순환하면서 기록하는 장치이며, 사고 전 5초 가량의 운행 정보(Pre-Crash data)와 충돌정보(crash data)를 기록하는 장비를 의미한다. EDR(사고기록장치)은 자동차의 에어백이나 엔진 ECU(electronic control unit)에 내장된 일종의 데이터 기록용 블랙박스(black box)로서 영상과 음성기록을 제외한 자동차의 속도(speed), 브레이크(brake) 작동 여부, 엔진 회전수(rpm), 시트벨트(seat belt) 착용 여부, 충격의 심각도(crash severity, delta_v), 가속페달 위치(accelerator pedal position), 조향 각도(steering wheel angle), 타이어 공기압(tire pressure), 변속기어 위치(transmission gear position), 에어백의 전개정보(airbag deployment data) 등과 같은 각종 사고 및 충돌 정보를 기록하는 장치이다.
실시예에서, 용어 ADR(Accident Data Recorder)은 사고 데이터 기록장치로서, 현재의 차량용 블랙박스를 포함하고, 다수의 영상 데이터, 예를 들면 전후방영상, AVM 영상 등과, 다수의 센서 데이터, 예를 들면, 차량 센서 데이터로서 전술한 EDR에서 기록하는 차량 데이터를 포함하여, 레이더 센서, 라이다 센서로부터 측정된 센서 데이터를 저장 및 기록할 수 있다.
실시예에서, 용어 충격량 센서는 충돌을 감지해서 에어백의 기동, 작동을 담당하고, 정확한 센싱과 신뢰성이 요구되는 중요한 부품이다. 센싱 시스템에는 전자식과 기계식이 있는데, 기본적으로는 G센서(가속도 센서)다. 센서는 차체 전면의 좌우와 중앙의 복수 곳에 설치되었으나, 설정 조정을 포함한 용이성 때문에 싱글포인트 센서가 주류가 되고 있다. 에어백의 전개 속도는 G센서에 발생한 가속도와 작용한 시간으로 설정 속도를 결정하고 있다. 국내 제조사는 내수 판매 모델에 자체적으로 세운 기준으로 에어백 정면센서 기준 충돌속도 30km/h, 오차각도 30% 이내에서 작동이 시작된다. 국내 자동차관리법에 에어백 성능에 대한 기준과 규정은 마련되어 있지 않다. 일본 자동차에서는 약20~30km/h가 전개의 개시 속도다. 실시 예에서, 충격량 센서는 EDR의 기록 트리거를 위한 신호로서 사용될 뿐만 아니라, ADR의 데이터 동기화 및 검증을 위해서도 사용된다.
실시예에서, 용어 블랙박스는 차량의 외부를 촬영하는 것으로, 차량의 운전자는 영상 처리 장치에서 촬영된 차량 외부 영상을 통해 차량의 전방에서 주행중인 다른 차량에 관한 정보를 획득할 수 있다. 차량용 블랙박스는 차량의 외부를 촬영하면서, 차량의 상태 및 차량의 주변 환경의 상태에 관한 센싱 정보를 획득할 수 있다. 여기에서, 차량의 상태에 관한 센싱 정보는 차량에 충격이 가해졌는지 여부 등의 정보가 포함될 수 있다. 또한, 차량의 주변 환경의 상태에 관한 센싱 정보는 차량 주변의 소음, 기압 등의 정보가 포함될 수 있다. 블랙박스는 센싱 정보를 기초로 획득된 차량 외부 영상 내에서 기설정된 이벤트가 발생된 구간을 선택할 수 있다. 여기에서, 기설정된 이벤트는 차량 주변에서 일정 dB 이상의 소음이 발생하는 이벤트, 차량에 일정 크기 이상의 충격이 가해지는 이벤트 등이 포함될 수 있으나, 이는 일 예일 뿐 본 발명이 이에 한정되는 것은 아니다. 또한, 블랙박스는 기설정된 이벤트가 발생된 경우, 이벤트가 발생된 시점부터 임계 시간 동안 촬영 해상도를 고해상도로 설정하여 차량 전방의 영상을 촬영할 수 있다.
도 1은 일 실시예에 따른 자율주행차량 데이터 및 카메라 영상을 활용한 사고상황 재현 시스템을 설명하기 위한 도면이다.
도 1을 참조하면, 일 실시예에 따른 자율주행차량 데이터 및 카메라 영상을 활용한 사고상황 재현 시스템(100)은 상태 정보 통합부(120)를 포함할 수 있고, 실시예에 따라 상태 정보 제공부(110)를 더 포함할 수 있다.
일 실시예에 따른 자율주행차량 데이터 및 카메라 영상을 활용한 사고상황 재현 시스템(100)은, ADR(Accident Data Recorder)에서 얻을 수 있는 블랙박스 영상 데이터와 자율주행차량에서 얻을 수 있는 센서 데이터(111), EDR(Event Data Recorder)에서 얻을 수 있는 충격량 센서 데이터(112), 차량의 상태 정보와 외부의 CCTV(Closed Circuit Television) 영상 데이터(113) 및 다수의 블랙박스 영상, 그리고 GPS(Global Positioning System) 데이터(114)를 사고 전후의 기설정된 시간 동안의 데이터를 중앙 서버에 제공하는 상태 정보 제공부(110)와, 상태 정보 제공부(110)로부터 제공받은 데이터를 기반으로 3차원 영상 기반 모델링 및 영상 기반 렌더링(rendering)을 거쳐 사고 상황을 3차원 증강현실로 구현하는 상태 정보 통합부(120)로 이루어질 수 있다.
상태 정보 제공부(110)는 교통사고를 기점으로 저장되는 자율주행차량의 ADR(111) 및 EDR(112)을 통해 취득한 차량의 상태 정보와 영상 데이터를 상태 정보 통합부(120)로 송신할 수 있다. 여기서 상태 정보 통합부(120)는 중앙 서버에 구성될 수 있다. 예를 들어 상태 정보 제공부(110)는 ADR(111), EDR(112)에서 얻을 수 있는 차량 내부의 전반적인 상태 데이터와, CCTV(113), 다수 차량의 블랙박스(114)에서 얻을 수 있는 외부 데이터를 사고 전 5초부터 사고 후 0.2~0.3초 동안의 데이터로 취합하여 중앙 서버의 상태 정보 통합부(120)에 전송할 수 있다.
여기서, 상태 정보 제공부(110)는 전후방 영상, AVM(Automatic Vehicle Monitoring) 영상, 레이더(Radar), 라이다(Lidar), GNSS(Global Navigation Satellite System) 센서 데이터 등을 제공해 주는 ADR 모듈(111)과, 속도, 브레이크 작동 여부, 엔진 회전수, 시트벨트 착용 여부 등을 포함하는 EDR 모듈(112)을 통하여 사고 전후의 데이터를 동기화하고 기록할 수 있다(특허문헌 1).
상태 정보 제공부(110)는 ADR(111) 및 EDR(112)을 통해 취득한 차량 내부의 상태 데이터를 취합하여 중앙 서버의 상태 정보 통합부(120)에 전송함과 동시에, 차량 외부의 CCTV 영상 데이터(113)와 주변 차량의 블랙박스에서 추출할 수 있는 영상 데이터 및 위치 데이터(114)를 사고 전후의 기준으로 중앙 서버에 전송할 수 있다.
상태 정보 통합부(120)는 상태 정보 제공부(110)로부터 전송 받은 데이터를 기반으로 3차원 영상 기반 모델링 및 영상 기반 렌더링을 거쳐 사고 상황을 3차원 증강현실로 구현할 수 있다. 상태 정보 통합부(120)는 중앙 서버에 구성될 수 있고, 중앙 서버에는 사고 상황을 재구성하는 상태 정보 통합 모듈(121)을 포함할 수 있다. 중앙 서버는 자율주행차량과 복수의 차량에서 받은 데이터들을 정합한 후, 상태 정보 통합 모듈(121)에서 차량의 속도 및 위치, 영상 데이터 정보 등을 통해 3차원 영상 기반 모델링 및 영상 기반 렌더링 과정을 통해 3차원의 환경을 구성하여 교통사고의 상황을 파악하게 할 수 있다.
상태 정보 통합부(120)는 상태 정보 제공부(110)에서 취득한 상태 정보 값을 수신할 수 있다. 상태 정보 통합부(120)의 상태 정보 통합 모듈(121)은 상태 정보를 특정 형식으로 통합할 수 있다.
도 2는 일 실시예에 따른 자율주행차량 데이터 및 카메라 영상을 활용한 사고상황 재현 시스템의 상태 정보 획득 및 통합을 설명하기 위한 도면이다.
도 2를 참조하면, 상태 정보 제공부(110)는 ADR(111), EDR(112)에서 얻을 수 있는 차량 내부의 전반적인 상태 데이터와, CCTV(113), 다수 차량의 블랙박스 및 GPS(114)에서 얻을 수 있는 외부 데이터를 사고 전후 기설정된 시간 동안의 데이터로 취합하여 중앙 서버의 상태 정보 통합부에 전송할 수 있다.
상태 정보 통합부는 전송 받은 데이터를 기반으로 3차원 영상 기반 모델링 및 영상 기반 렌더링을 거쳐 사고 상황을 3차원 증강현실로 구현할 수 있다.
보다 구체적으로, 상태 정보 통합부는 ADR 모듈(111)로부터 획득한 블랙박스 영상 및 센서 정보(210)를 수신할 수 있다. 여기서, 센서 정보는 라이다(Lidar), 레이더(Radar) 및 GNSS(Global Navigation Satellite System) 센서 데이터를 포함할 수 있고, 종 방향 제어 동작 여부, 횡 방향 제어 동작 여부, 차선 변경 명령 여부 등의 정보(250)를 더 포함할 수 있다.
또한, 상태 정보 통합부는 EDR 모듈(112)로부터 시간, 엔진 RPM, 속도, 조향 각도(steering wheel angle), 브레이크 작동 여부, 횡가속도(lateral acceleration) 등의 정보(220)를 수신할 수 있다.
그리고, 상태 정보 통합부는 외부의 CCTV(113) 및 다른 차량의 블랙박스와 GPS(114)로부터 사고 영상(230) 및 주변 차량 정보(240)를 획득할 수 있다.
이와 같이 상태 정보 통합부는 상태 정보 제공부(110)에서 취득한 상태 정보 값을 수신할 수 있다. 상태 정보 통합부의 상태 정보 통합 모듈은 상태 정보를 특정 형식으로 통합할 수 있다.
한편, 자율주행차량 데이터 및 카메라 영상을 활용한 사고상황 재현 시스템은 중앙 서버에 구성되는 컴퓨터 시스템일 수 있다. 아래에서는 중앙 서버에 구성되는 컴퓨터 시스템을 중심으로 보다 구체적으로 설명한다.
도 3은 일 실시예에 따른 자율주행차량 데이터 및 카메라 영상을 활용한 사고상황 재현 시스템의 구성 및 동작을 설명하기 위한 블록도이다.
도 3을 참조하면, 일 실시예에 따른 사고상황 재현 시스템은 중앙 서버(310)에 구성되는 컴퓨터 시스템일 수 있으며, 상태 정보 수신부(311) 및 3D 시뮬레이션 재구성부(313)를 포함할 수 있다. 실시예에 따라 영상 보정부(312)를 더 포함하여 이루어질 수 있다.
상태 정보 수신부(311)는 교통사고 전후의 주행하는 차량 내부의 상태 데이터와 적어도 어느 하나 이상의 차량의 블랙박스 또는 외부의 CCTV로부터 획득된 영상 데이터를 수신할 수 있다.
상태 정보 수신부(311)는 전후방 영상, AVM(Automatic Vehicle Monitoring) 영상, 레이더(Radar), 라이다(Lidar), GNSS(Global Navigation Satellite System) 센서 데이터 등을 제공해 주는 ADR 모듈(111)과, 속도, 브레이크 작동 여부, 엔진 회전수, 시트벨트 착용 여부 등을 포함하는 EDR 모듈(112)을 통하여 사고 전후의 데이터를 동기화하고 기록한 정보를 전달 받을 수 있다. 또한, 상태 정보 수신부(311)는 교통사고 전후의 외부의 CCTV 영상 데이터(113), 복수개의 차량의 블랙박스 영상 및 GPS 데이터(114)를 전달 받을 수 있다.
영상 보정부(312)는 상태 정보 수신부(311)로부터 전달 받은 영상 데이터를 보정하거나 화질을 개선할 수 있다.
3D 시뮬레이션 재구성부(313)는 수신된 상태 데이터 및 영상 데이터를 기반으로 3차원 영상(320)을 재구성하여 교통사고 현장의 상황을 재구성할 수 있다.
보다 구체적으로, 3D 시뮬레이션 재구성부(313)는 영상 보정부(312)를 통해 개선된 영상에서 사고가 발생한 자율주행차량의 속도 및 위치, 상태 데이터를 이용하여 자신의 차량을 3D 시뮬레이션을 통해 재구성하는 작업을 실시할 수 있다. 다른 차량과 주변 환경도 마찬가지로 영상 데이터와 다수의 차량의 위치와 블랙박스 영상을 기반으로 사고 전후의 상황을 재구성할 수 있다.
예를 들어, 차량의 블랙박스를 이용하여 다채널 영상을 실시간으로 획득하고, DGPS 송수신을 통해 차량의 위치를 실시간으로 파악할 수 있다. 도로 정체 또는 차량 사고 등이 발생한 것인지 브로커 서버 및 위치 확인부 등을 통해 확인하고, 도로 정체 여부는 수동으로 확인하여 브로커 서버 및 3D 재구성 모듈 상에 입력이 가능하다. 브로커 서버에서 블랙박스의 영상 수신 및 GPS 정보를 수신할 수 있고, 수신된 영상에서 보정 및 화질 개선을 실시할 수 있다. 개선된 영상에서 브로커 서버의 GPS 및 차량 속도 정보 등을 이용하여 교통정보 확인요구 구역 교통량 측정을 실시할 수 있다. 도로 상에서 차량의 움직임을 차량 속도, 위치, 차량의 영상을 통한 번호판 인식 등을 포함한 3D 시뮬레이션을 통해 재구성하는 작업을 실시할 수 있다. 즉, 교통정보 확인요구 구역에 해당하는 지선 도로의 시간대별 차량 위치를 통한 교통정보를 구축하고 도로 상의 차량 움직임을 3D 시뮬레이션으로 재구성할 수 있다.
따라서 단일 차량 또는 공간적으로 인접한 다수의 차량에서 블랙박스를 통해 촬영된 주변 영상들을 브로커 서버를 통해 수집한 후에 정합하고, 브로커 서버 상의 GPS 정보 및 차량의 속도 정보 등을 이용하여 3차원 영상 기반 모델링 및 영상 기반 렌더링을 거쳐 확인을 요하는 지선 도로의 교통정보 상황을 제공할 수 있다.
도 4는 일 실시예에 따른 자율주행차량 데이터 및 카메라 영상을 활용한 사고상황 재현 방법을 나타내는 흐름도이다.
도 4를 참조하면, 일 실시예에 따른 컴퓨터 시스템에서 수행되는 사고상황 재현 방법은, 교통사고 전후의 주행하는 차량 내부의 상태 데이터와 적어도 어느 하나 이상의 차량의 블랙박스 또는 외부의 CCTV로부터 획득된 영상 데이터를 수신하는 단계(S110), 및 수신된 상태 데이터 및 영상 데이터를 기반으로 3차원 영상을 재구성하여 교통사고 현장의 상황을 재구성하는 단계(S130)를 포함하여 이루어질 수 있다.
여기서, 전달 받은 영상 데이터를 보정 또는 화질을 개선하는 단계(S120)를 더 포함할 수 있다.
실시예들에 따르면 사고 전후의 상태 정보를 특정한 형식으로 통합하여 증강현실을 개발함으로써, 정보의 누락 없이 일관된 형식을 통해 사고의 원인을 정밀하게 파악할 수 있다.
아래에서 일 실시예에 따른 자율주행차량 데이터 및 카메라 영상을 활용한 사고상황 재현 방법의 각 단계를 설명한다.
일 실시예에 따른 컴퓨터 시스템에서 수행되는 사고상황 재현 방법은 도 3에서 설명한 일 실시예에 따른 컴퓨터 시스템에서 수행되는 사고상황 재현 시스템을 예를 들어 보다 구체적으로 설명할 수 있다. 앞에서 설명한 바와 같이, 일 실시예에 따른 사고상황 재현 시스템은 중앙 서버에 구성되는 컴퓨터 시스템일 수 있으며, 상태 정보 수신부 및 3D 시뮬레이션 재구성부를 포함할 수 있다. 또한 영상 보정부를 더 포함하여 이루어질 수 있다.
단계(S110)에서, 상태 정보 수신부는 교통사고 전후의 주행하는 차량 내부의 상태 데이터와 적어도 어느 하나 이상의 차량의 블랙박스 또는 외부의 CCTV로부터 획득된 영상 데이터를 수신할 수 있다.
상태 정보 수신부는 교통사고 전후의 자율주행차량의 전후방 영상, AVM(Automatic Vehicle Monitoring) 영상, 레이더(Radar), 라이다(Lidar) 및 GNSS(Global Navigation Satellite System) 센서 데이터 중 적어도 어느 하나 이상의 데이터를 제공하는 ADR(Accident Data Recorder) 모듈과, 속도, 브레이크 작동 여부, 엔진 회전수 및 시트벨트 착용 여부 중 적어도 어느 하나 이상의 데이터를 포함하는 EDR(Event Data Recorder) 모듈을 통하여 사고 전후의 차량 내부의 상태 데이터를 전달 받을 수 있다. 또한, 상태 정보 수신부는 교통사고 전후의 외부의 CCTV 영상 데이터, 사고 차량 주변 복수개의 차량의 블랙박스 영상 데이터, 전후방 영상, AVM(Automatic Vehicle Monitoring) 영상, 레이더(Radar), 라이다(Lidar), GNSS(Global Navigation Satellite System), INS(Inertial Navigation System) 및 GPS 데이터 중 적어도 어느 하나 이상을 전달 받을 수 있다. 이후, 상태 정보 수신부는 자율주행차량으로부터 전달 받은 상태 데이터와 복수개의 차량 또는 외부의 CCTV로부터 전달 받은 영상 데이터를 정합할 수 있다.
단계(S120)에서, 영상 보정부는 전달 받은 영상 데이터를 보정 또는 화질을 개선할 수 있다.
단계(S130)에서, 상태 정보 통합부는 수신된 상태 데이터 및 영상 데이터를 기반으로 3차원 영상을 재구성하여 도로 내 교통사고 현장의 상황을 재구성할 수 있다. 여기서, 상태 정보 통합부는 상태 데이터 및 영상 데이터를 상태 정보 통합 모듈을 통해 3차원 영상 기반 모델링 및 영상 기반 렌더링(rendering)을 거쳐 통해 도로 내 교통사고 상황을 3차원 증강현실로 구현할 수 있다. 특히, 상태 정보 통합부는 영상 보정부를 통해 개선된 영상 데이터에서 사고가 발생한 자율주행차량의 속도 및 위치와 상태 데이터를 이용하여 차량을 3D 시뮬레이션을 통해 교통사고 현장의 상황을 재구성할 수 있다.
도 5는 일 실시예에 따른 데이터들을 취합하여 중앙 서버에 데이터를 전송하는 구조도를 나타내는 도면이다. 또한, 도 6은 일 실시에에 따른 데이터들을 취합하여 클라우드 서버인 중앙 서버에 데이터를 전송하는 구조도를 나타내는 도면이다.
도 5 및 도 6에 도시된 바와 같이, 실시예들은 사고를 기점으로 저장되는 자율주행차량의 ADR(Accident Data Recorder) 데이터와 EDR(Event Data Recorder)을 통해 취득한 차량의 상태 정보와 영상 데이터를 송신하고, CCTV(Closed Circuit Television)의 주변 영상과 타 차량의 블랙박스 영상 및 위치 데이터를 중앙 서버에 송신할 수 있다.
중앙 서버는 사고 상황을 재구성하는 상태 정보 통합 모듈을 포함할 수 있다. 중앙 서버는 자율주행차량과 복수의 차량에서 받은 데이터들을 정합한 후, 상태 정보 통합 모듈에서 차량의 속도 및 위치, 영상 데이터 정보 등을 통해 3차원 영상 기반 모델링 및 영상 기반 렌더링(rendering) 과정을 통해 3차원의 환경을 구성하여 교통사고의 상황을 파악하게 할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (5)

  1. 컴퓨터 시스템에서 수행되는 자율주행차량 데이터 및 카메라 영상을 활용한 사고상황 재현 방법에 있어서,
    중앙 서버에서 교통사고 전후의 주행하는 차량 내부의 상태 데이터와 적어도 어느 하나 이상의 차량의 블랙박스 또는 외부의 CCTV로부터 획득된 영상 데이터를 수신하는 단계; 및
    수신된 상기 상태 데이터 및 상기 영상 데이터를 기반으로 3차원 영상을 재구성하여 교통사고 현장의 상황을 재구성하는 단계
    를 포함하고,
    전달 받은 상기 영상 데이터를 보정 또는 화질을 개선하는 단계
    를 더 포함하며,
    상기 상태 데이터 및 상기 영상 데이터를 기반으로 3차원 영상을 재구성하여 교통사고 현장의 상황을 재구성하는 단계는,
    상기 상태 데이터 및 상기 영상 데이터를 상태 정보 통합 모듈을 통해 3차원 영상 기반 모델링 및 영상 기반 렌더링(rendering)을 거쳐 통해 도로 내 교통사고 상황을 3차원 증강현실로 구현하되, 개선된 상기 영상 데이터에서 사고가 발생한 자율주행차량의 속도 및 위치와 상기 상태 데이터를 이용하여 요청된 차량을 3D 시뮬레이션을 통해 도로 내 교통사고 현장의 상황을 재구성하고,
    각 차량에서 도로 정체 또는 차량 사고 발생 여부를 상기 중앙 서버를 통해 확인하며, 도로 정체 여부를 수동으로 확인하여 상기 중앙 서버에 입력 가능하고, 상기 중앙 서버에서 수집된 정보를 이용하여 상기 3차원 영상 기반 모델링 및 영상 기반 렌더링을 거쳐 상기 각 차량에서 확인을 요하는 지선 도로의 교통정보 상황을 제공하는 것
    을 특징으로 하는, 사고상황 재현 방법.
  2. 제1항에 있어서,
    주행하는 차량 내부의 상태 데이터와 적어도 어느 하나 이상의 차량의 블랙박스 또는 CCTV로부터 획득된 영상 데이터를 수신하는 단계는,
    중앙 서버에서 교통사고 전후의 자율주행차량의 센서 데이터를 제공하는 ADR(Accident Data Recorder) 모듈과, 속도, 브레이크 작동 여부, 엔진 회전수 및 시트벨트 착용 여부 중 적어도 어느 하나 이상의 데이터를 포함하는 EDR(Event Data Recorder) 모듈을 통하여 사고 전후의 차량 내부의 상태 데이터를 전달 받는 단계;
    중앙 서버에서 교통사고 전후의 외부의 CCTV 영상 데이터, 사고 차량 주변 복수개의 차량의 블랙박스 영상 데이터, 전후방 영상, AVM(Automatic Vehicle Monitoring) 영상, 레이더(Radar), 라이다(Lidar) 및 GNSS(Global Navigation Satellite System) 및 GPS 데이터 중 적어도 어느 하나 이상을 전달 받는 단계; 및
    중앙 서버에서 자율주행차량으로부터 전달 받은 상태 데이터와 복수개의 차량 또는 외부의 CCTV로부터 전달 받은 영상 데이터를 정합하는 단계
    를 포함하는, 사고상황 재현 방법.
  3. 삭제
  4. 삭제
  5. 자율주행차량 데이터 및 카메라 영상을 활용한 사고상황 재현 시스템에 있어서,
    중앙 서버의 교통사고 전후의 주행하는 차량 내부의 상태 데이터와 적어도 어느 하나 이상의 차량의 블랙박스 또는 외부의 CCTV로부터 획득된 영상 데이터를 수신하는 상태 정보 수신부; 및
    수신된 상기 상태 데이터 및 상기 영상 데이터를 기반으로 3차원 영상을 재구성하여 교통사고 현장의 상황을 재구성하는 3D 시뮬레이션 재구성부
    를 포함하고,
    전달 받은 상기 영상 데이터를 보정 또는 화질을 개선하는 영상 보정부
    를 더 포함하며,
    상기 3D 시뮬레이션 재구성부는,
    상기 상태 데이터 및 상기 영상 데이터를 상태 정보 통합 모듈을 통해 3차원 영상 기반 모델링 및 영상 기반 렌더링(rendering)을 거쳐 통해 도로 내 교통사고 상황을 3차원 증강현실로 구현하되, 개선된 상기 영상 데이터에서 사고가 발생한 자율주행차량의 속도 및 위치와 상기 상태 데이터를 이용하여 요청된 차량을 3D 시뮬레이션을 통해 도로 내 교통사고 현장의 상황을 재구성하고,
    각 차량에서 도로 정체 또는 차량 사고 발생 여부를 상기 중앙 서버를 통해 확인하며, 도로 정체 여부를 수동으로 확인하여 상기 중앙 서버에 입력 가능하고, 상기 중앙 서버에서 수집된 정보를 이용하여 상기 3차원 영상 기반 모델링 및 영상 기반 렌더링을 거쳐 상기 각 차량에서 확인을 요하는 지선 도로의 교통정보 상황을 제공하는 것
    을 특징으로 하는, 사고상황 재현 시스템.
KR1020200098526A 2020-08-06 2020-08-06 자율주행차량 데이터 및 cctv 카메라 영상을 활용한 사고상황 재현 방법 및 시스템 KR102376526B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200098526A KR102376526B1 (ko) 2020-08-06 2020-08-06 자율주행차량 데이터 및 cctv 카메라 영상을 활용한 사고상황 재현 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200098526A KR102376526B1 (ko) 2020-08-06 2020-08-06 자율주행차량 데이터 및 cctv 카메라 영상을 활용한 사고상황 재현 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20220018250A KR20220018250A (ko) 2022-02-15
KR102376526B1 true KR102376526B1 (ko) 2022-03-18

Family

ID=80325501

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200098526A KR102376526B1 (ko) 2020-08-06 2020-08-06 자율주행차량 데이터 및 cctv 카메라 영상을 활용한 사고상황 재현 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR102376526B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171884A1 (ko) * 2022-03-08 2023-09-14 주식회사 씨피식스 차량 사고 분석 시스템 및 방법과 사용자 단말

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102095454B1 (ko) 2019-10-04 2020-03-31 주식회사 에이에스디코리아 커넥티드 카를 위한 클라우드 서버 및 상황 재현 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101665553B1 (ko) * 2015-03-20 2016-10-24 현대자동차주식회사 사고 정보 분석 장치, 이를 포함하는 서버 및 사고 정보 분석 방법
KR102178598B1 (ko) * 2016-08-31 2020-11-13 아진산업(주) 다시점 블랙박스 카메라 영상을 이용한 도로교통정보 제공시스템
KR102124198B1 (ko) 2018-11-27 2020-06-17 주식회사 대성엘텍 Adr 데이터와 edr 데이터의 동기화 및 검증을 위한 방법과 그 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102095454B1 (ko) 2019-10-04 2020-03-31 주식회사 에이에스디코리아 커넥티드 카를 위한 클라우드 서버 및 상황 재현 방법

Also Published As

Publication number Publication date
KR20220018250A (ko) 2022-02-15

Similar Documents

Publication Publication Date Title
US11657604B2 (en) Systems and methods for estimating future paths
JP6104482B1 (ja) 事故情報収集システムおよび事故情報収集方法
JP2022185089A (ja) 整合画像及びlidar情報に基づいた車両ナビゲーション
DE102018213694A1 (de) System und Verfahren zur synchronisierten Fahrzeugsensor-Datenaufnahme-Verarbeitung unter Verwendung von Fahrzeug-Kommunikation
CN107004360A (zh) 车辆雷达方法和系统
CN108574811B (zh) 图像记录系统、图像记录方法和图像记录程序
US10349004B2 (en) Method for saving image data of a camera in an accident data recorder of a vehicle
CN111262903A (zh) 服务器装置及车辆
US20210174127A1 (en) Image processing device, image processing method, and program
KR102376526B1 (ko) 자율주행차량 데이터 및 cctv 카메라 영상을 활용한 사고상황 재현 방법 및 시스템
KR101894052B1 (ko) 차량용 사고영상 기록장치의 차량 속도 측정 장치 및 방법
CN110741631A (zh) 车辆的图像提供系统、服务器系统及车辆的图像提供方法
JP7123530B2 (ja) 通信装置、通信システム、及び通信方法
JP2023063433A (ja) 端末装置、送信方法、収集装置および収集システム
WO2022075133A1 (ja) 撮像装置、情報処理装置、撮像システム及び撮像方法
WO2014136378A1 (ja) 車外画像保存システム、車外画像保存装置、及び車車間通信装置
US20220319013A1 (en) Image processing device, image processing method, and program
WO2020036043A1 (ja) 情報処理装置と情報処理方法とプログラム
US20240103540A1 (en) Remote control device
US11798287B2 (en) Driver assistance apparatus and method of controlling the same
KR101976390B1 (ko) 차량용 사고 기록 장치 및 방법
KR20180012065A (ko) 차선이탈경고기능을 갖는 블랙박스
WO2020090320A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
KR20200119417A (ko) 차량용 사고 영상 기록 장치 및 방법
JP2019149076A (ja) ドライブレコーダ、及び画像記録方法

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant