KR20190004239A - 블랙박스 데이터를 생성하기 위한 방법, 전자장치 및 시스템 - Google Patents

블랙박스 데이터를 생성하기 위한 방법, 전자장치 및 시스템 Download PDF

Info

Publication number
KR20190004239A
KR20190004239A KR1020180077109A KR20180077109A KR20190004239A KR 20190004239 A KR20190004239 A KR 20190004239A KR 1020180077109 A KR1020180077109 A KR 1020180077109A KR 20180077109 A KR20180077109 A KR 20180077109A KR 20190004239 A KR20190004239 A KR 20190004239A
Authority
KR
South Korea
Prior art keywords
data
vehicle
black box
electronic device
running
Prior art date
Application number
KR1020180077109A
Other languages
English (en)
Other versions
KR102211563B1 (ko
Inventor
차대현
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Publication of KR20190004239A publication Critical patent/KR20190004239A/ko
Application granted granted Critical
Publication of KR102211563B1 publication Critical patent/KR102211563B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 블랙박스 데이터를 생성하기 위한 방법, 전자장치 및 시스템에 관한 것으로, 전자장치가 주행 중인 차량에 구비된 차량단말에서 획득되어 게이트웨이에서 타임스탬프가 삽입된 영상데이터, 제1 센싱데이터 및 제2 센싱데이터를 포함하는 주행데이터를 수신하는 단계, 전자장치가 주행데이터 각각에 삽입된 타임스탬프를 확인하여 주행데이터의 동기화를 수행하는 단계, 전자장치가 동기화된 주행데이터를 기반으로 주행상황을 재구성하는 단계 및 전자장치가 주행상황을 이용하여 블랙박스 데이터를 생성하는 단계를 포함하며, 다른 실시 예로도 적용이 가능하다.

Description

블랙박스 데이터를 생성하기 위한 방법, 전자장치 및 시스템{Method, Electronic Apparatus and System for Creating of Black Box Data}
본 발명은 블랙박스 데이터를 생성하기 위한 방법, 전자장치 및 시스템에 관한 것으로, 차량에서 획득된 복수의 주행데이터를 동기화하고, 동기화된 주행데이터를 이용하여 블랙박스 데이터를 생성하는 블랙박스 데이터를 생성하기 위한 방법, 전자장치 및 시스템에 관한 것이다.
일반적으로 차량용 블랙박스는 차량 내에 장착되어 주행 또는 정차 시 카메라를 통해 주변을 촬영할 수 있으며, 교통 사고가 발생한 경우, 사고 전 후의 영상을 저장함으로써, 추후 사고 처리 시에 유용하게 사용할 수 있다.
그러나, 블랙박스에 내장된 메모리의 불량으로 인해 영상데이터가 녹화되지 않는 경우 또는 메모리의 용량 한계로 저장된 영상데이터가 자동으로 삭제되는 경우가 있어 사용자가 필요할 때 영상데이터의 활용이 불가능한 문제점이 있다. 또한, 블랙박스에서 획득된 영상데이터에는 영상데이터에 포함되지 않는 사각지대가 존재하는 문제점이 있다. 아울러, 터널 및 야간에 획득된 영상데이터는 화질의 저하로 인해 영상데이터의 식별이 어렵고, 반대편 주행차량의 빛에 의해 카메라 화면이 블랙아웃되어 영상데이터의 확인이 어려운 문제점이 있다.
이러한 종래의 문제점을 해결하기 위한 본 발명의 다양한 실시 예들은 차량단말로부터 수신된 카메라에서 획득된 영상데이터, 라이더 센서에서 획득된 센싱데이터 및 OBD(on board diagnostic) 센서에서 획득된 주행과 관련된 센싱데이터를 포함하는 주행데이터를 시각정보를 기준으로 동기화하여 네트워크 장치에 저장할 수 있는 블랙박스 데이터를 생성하기 위한 방법, 전자장치 및 시스템을 제공하는 것이다.
또한, 본 발명의 다양한 실시 예들은 복수의 주행데이터를 이용하여 자차량의 진입각도, 속도, 자차량의 측면과 후면에 위치한 타차량의 유무, 타차량의 정보, 타차량의 위치 및 자차량과 타차량과의 이격 거리를 확인하고, 라이더 센서에서 획득된 센싱데이터를 분석하여 자차량의 외부 상황을 재구성할 수 있는 블랙박스 데이터를 생성하기 위한 방법, 전자장치 및 시스템을 제공하는 것이다.
본 발명의 실시 예에 따른 블랙박스 데이터의 생성방법은, 전자장치가 주행 중인 차량에 구비된 차량단말에서 획득되어 게이트웨이에서 타임스탬프가 삽입된 영상데이터, 제1 센싱데이터 및 제2 센싱데이터를 포함하는 주행데이터를 수신하는 단계, 상기 전자장치가 상기 주행데이터 각각에 삽입된 상기 타임스탬프를 확인하여 상기 주행데이터의 동기화를 수행하는 단계, 상기 전자장치가 상기 동기화된 주행데이터를 기반으로 주행상황을 재구성하는 단계 및 상기 전자장치가 상기 주행상황을 이용하여 블랙박스 데이터를 생성하는 단계를 포함하는 것을 특징으로 한다.
또한, 주행데이터는, 상기 차량단말에 포함된 카메라에서 획득된 상기 영상데이터, 상기 차량단말에 포함된 라이더(LiDAR)센서에서 획득된 상기 제1 센싱데이터 및 상기 차량단말에 포함된 OBD(on board diagnostic)센서에서 획득된 상기 제2 센싱데이터를 포함하는 것을 특징으로 한다.
또한, 게이트웨이는, 상기 영상데이터, 상기 제1 센싱데이터 및 상기 제2 센싱데이터가 수신된 시점의 절대 시각으로 상기 각각의 데이터의 아이피 헤더에 상기 타임스탬프를 삽입하는 것을 특징으로 한다.
또한, 주행상황을 재구성하는 단계는, 상기 전자장치가 상기 제1 센싱데이터를 기반으로 상기 차량의 외부환경정보를 확인하는 단계 및 상기 전자장치가 상기 제2 센싱데이터를 기반으로 상기 차량의 주행정보를 확인하는 단계를 포함하는 것을 특징으로 한다.
또한, 블랙박스 데이터를 생성하는 단계는, 상기 전자장치가 상기 영상데이터에 상기 외부환경정보 중 적어도 하나의 정보를 텍스트 형태로 오버레이하여 상기 블랙박스 데이터로 생성하는 단계인 것을 특징으로 한다.
또한, 블랙박스 데이터를 생성하는 단계는, 상기 전자장치가 상기 주행상황을 기반으로 상기 타임스탬프와 관련된 시점에 대한 시뮬레이션 데이터를 상기 블랙박스 데이터로 생성하는 것을 특징으로 한다.
또한, 시뮬레이션 데이터는, 상기 차량을 중심으로 상기 차량의 사방에 존재하는 타차량의 위치, 상기 타차량과의 이격 거리 및 상기 타차량의 차량번호를 포함하는 타차량에 대한 정보 및 상기 주행정보를 포함하는 3차원 이미지인 것을 특징으로 한다.
또한, 생성된 블랙박스 데이터를 저장하는 단계, 상기 전자장치가 외부장치로부터 상기 블랙박스 데이터로의 접근이 요청되면, 상기 외부장치의 접근권한을 확인하는 단계 및 상기 전자장치가 상기 접근권한의 확인결과에 따라 상기 외부장치로 상기 블랙박스 데이터를 제공하는 단계를 더 포함하는 것을 특징으로 한다.
아울러, 본 발명의 실시 예에 따른 블랙박스 데이터를 생성하는 전자장치는, 주행 중인 차량에 구비된 차량단말로부터 영상데이터, 제1 센싱데이터 및 제2 센싱데이터를 포함하는 주행데이터를 수신하여 상기 주행데이터에 타임스탬프를 삽입하는 게이트웨이와 통신을 수행하는 통신부 및 상기 주행데이터 각각에 삽입된 상기 타임스탬프를 확인하여 상기 주행데이터의 동기화를 수행하고, 상기 동기화된 주행데이터를 기반으로 주행상황을 재구성하여 블랙박스 데이터를 생성하는 제어부를 포함하는 것을 특징으로 한다.
또한, 주행데이터는, 상기 차량단말에 포함된 카메라에서 획득된 상기 영상데이터, 상기 차량단말에 포함된 라이더(LiDAR)센서에서 획득된 상기 제1 센싱데이터 및 상기 차량단말에 포함된 OBD(on board diagnostic)센서에서 획득된 상기 제2 센싱데이터를 포함하는 것을 특징으로 한다.
또한, 게이트웨이는, 상기 영상데이터, 상기 제1 센싱데이터 및 상기 제2 센싱데이터가 수신된 시점의 절대 시각으로 상기 각각의 데이터의 아이피 헤더에 상기 타임스탬프를 삽입하는 것을 특징으로 한다.
또한, 제어부는, 상기 제1 센싱데이터를 기반으로 상기 차량의 외부환경정보를 확인하고, 상기 제2 센싱데이터를 기반으로 상기 차량의 주행정보를 확인하는 것을 특징으로 한다.
또한, 제어부는, 상기 영상데이터에 상기 외부환경정보 중 적어도 하나의 정보를 텍스트 형태로 오버레이하여 상기 블랙박스 데이터로 생성하는 것을 특징으로 한다.
또한, 제어부는, 상기 주행상황을 기반으로 상기 타임스탬프와 관련된 시점에 대한 시뮬레이션 데이터를 상기 블랙박스 데이터로 생성하는 것을 특징으로 한다.
또한, 시뮬레이션 데이터는, 상기 차량을 중심으로 상기 차량의 사방에 존재하는 타차량의 위치, 상기 타차량과의 이격 거리 및 상기 타차량의 차량번호를 포함하는 타차량에 대한 정보 및 상기 주행정보를 포함하는 3차원 이미지인 것을 특징으로 한다.
또한, 제어부는, 외부장치로부터 상기 블랙박스 데이터로의 접근이 요청되면, 상기 외부장치의 접근권한을 확인하여 상기 외부장치로 상기 블랙박스 데이터를 제공하는 것을 특징으로 한다.
아울러, 본 발명의 실시 예에 따른 블랙박스 데이터를 생성하는 시스템은, 주행 중인 차량에 구비되어 카메라, 라이더(LiDAR)센서 및 OBD(on board diagnostic)센서로부터 영상데이터, 제1 센싱데이터 및 제2 센싱데이터를 포함하는 주행데이터를 획득하는 차량단말, 상기 차량단말로부터 상기 주행데이터를 수신하고 상기 주행데이터가 수신된 시점의 절대 시각으로 상기 주행데이터의 아이피 헤더에 타임스탬프를 삽입하는 게이트웨이 및 상기 게이트웨이로부터 수신된 주행데이터에 삽입된 상기 타임스탬프를 확인하여 상기 주행데이터의 동기화를 수행하고, 상기 동기화된 주행데이터를 기반으로 주행상황을 재구성하여 블랙박스 데이터를 생성하는 전자장치를 포함하는 것을 특징으로 한다.
상술한 바와 같이 본 발명의 블랙박스 데이터를 생성하기 위한 방법, 전자장치 및 시스템은, 차량단말로부터 수신된 카메라에서 획득된 영상데이터, 라이더 센서에서 획득된 센싱데이터 및 OBD(on board diagnostic) 센서에서 획득된 주행과 관련된 센싱데이터를 포함하는 주행데이터를 시각정보를 기준으로 동기화함으로써, 서로 다른 센서에서 획득된 데이터의 동기화를 통해 주행데이터가 획득된 시각 및 획득된 상황에 대한 신뢰도를 향상할 수 있는 효과가 있다.
또한, 본 발명의 블랙박스 데이터를 생성하기 위한 방법, 전자장치 및 시스템은, 주행데이터를 네트워크 장치에 저장함으로써, 차량 내부에 설치된 블랙박스의 메모리 불량 또는 메모리 용량 한계로 인해 영상데이터의 활용이 불가능한 문제점을 해소할 수 있는 효과가 있다.
또한, 본 발명의 블랙박스 데이터를 생성하기 위한 방법, 전자장치 및 시스템은, 복수의 주행데이터를 이용하여 자차량의 진입각도, 속도, 자차량의 측면과 후면에 위치한 타차량의 유무, 타차량의 정보, 타차량의 위치 및 자차량과 타차량과의 거리를 확인하고, 라이더 센서에서 획득된 센싱데이터를 분석하여 자차량의 외부 상황을 재구성함으로써, 카메라에서 획득된 영상데이터에 포함되지 않는 사각지대, 화질이 저하되는 터널 및 야간에 발생된 상황 및 블랙아웃이 발생된 상황을 재현할 수 있는 효과가 있다.
도 1은 본 발명의 실시 예에 따른 블랙박스 데이터를 생성하기 위한 시스템을 나타낸 도면이다.
도 2는 본 발명의 실시 예에 따른 차량단말의 주요 구성을 나타낸 도면이다.
도 3은 본 발명의 실시 예에 따른 전자장치의 주요 구성을 나타낸 도면이다.
도 4는 본 발명의 실시 예에 따른 블랙박스 데이터를 생성하는 방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 실시 예에 따른 전자장치에서 블랙박스 데이터를 생성하는 방법을 설명하기 위한 순서도이다.
도 6은 본 발명의 실시 예에 따른 전자장치에서 재구성된 영상데이터를 나타낸 화면예시도이다.
도 7은 본 발명의 실시 예에 따른 전자장치에서 생성된 시뮬레이션 데이터를 표시한 화면예시도이다.
도 8은 본 발명의 실시 예에 따른 전자장치에 저장된 블랙박스 데이터를 확인하기 위한 방법을 설명하기 위한 순서도이다.
이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략할 수 있고, 명세서 전체를 통하여 동일 또는 유사한 구성 요소에 대해서는 동일한 참조 부호를 사용할 수 있다.
본 발명의 일 실시 예에서, “또는”, “적어도 하나” 등의 표현은 함께 나열된 단어들 중 하나를 나타내거나, 또는 둘 이상의 조합을 나타낼 수 있다. 예를 들어, “A 또는 B”, “A 및 B 중 적어도 하나”는 A 또는 B 중 하나만을 포함할 수 있고, A와 B를 모두 포함할 수도 있다.
도 1은 본 발명의 실시 예에 따른 블랙박스 데이터를 생성하기 위한 시스템을 나타낸 도면이다. 도 2는 본 발명의 실시 예에 따른 차량단말의 주요 구성을 나타낸 도면이다. 도 3은 본 발명의 실시 예에 따른 전자장치의 주요 구성을 나타낸 도면이다.
도 1 내지 도 3을 참조하면, 본 발명에 따른 블랙박스 데이터를 생성하기 위한 시스템(10)은 차량단말(100), 게이트웨이(200), 전자장치(300) 및 외부장치(400)를 포함한다.
차량단말(100)은 자차량에 장착된 장치로, 블랙박스 등의 장치를 포함할 수 있다. 차량단말(100)은 자차량의 외부 및 내부에 대한 주행데이터를 획득하고 이를 게이트웨이(200)를 통해 전자장치(300)로 전송할 수 있다. 이를 위해, 차량단말(100)은 도 2와 같이 단말통신부(110), 카메라(120), 센서부(130), 표시부(140), 단말메모리(150) 및 단말제어부(160)를 포함한다.
단말통신부(110)는 5G(5th generation) 통신을 수행한다. 단말통신부(110)는 단말제어부(160)의 제어에 의해 카메라(120) 및 센서부(130)에서 획득된 주행데이터를 기지국(미도시)ㄴ을 통해 게이트웨이(200)로 전송한다.
카메라(120)는 자차량의 내부 또는 외부를 촬영할 수 있도록 자차량에 적어도 하나가 구비될 수 있다. 카메라(120)는 복수개의 프레임으로 구성된 영상데이터(예컨대, 동영상데이터)를 실시간으로 획득한다.
센서부(130)는 라이더(LiDAR)센서 및 OBD(on board diagnostic)센서를 포함할 수 있다. 라이더 센서는 레이더 신호를 송출하고, 자차량 외부에 존재하는 적어도 하나의 오브젝트에서 레이더 신호가 반사되어 발생되는 반사파를 획득한다. 또한, OBD센서는 차량 주행에 따른 RPM, 차량 속도, 연료 게이지, 브레이크 동작 여부, 기어 위치, 자차량의 이동 각도 등의 센싱데이터를 획득한다. 아울러, 라이더 센서에서 획득되는 반사파에서 의해 차량에서 ADAS(advanced driver assistance system)의 지원이 가능하다.
표시부(140)는 차량단말(100)의 동작에 따른 출력 데이터를 출력한다. 이를 위해, 표시부(140)는 액정 디스플레이(LCD; liquid crystal display), 발광 다이오드(LED; light emitting diode) 디스플레이, 유기 발광 다이오드(OLED; organic LED) 디스플레이, 마이크로 전자기계 시스템(MEMS; micro electro mechanical systems) 디스플레이 및 전자 종이(electronic paper) 디스플레이를 포함한다. 특히, 표시부(140)는 터치스크린(touch screen)으로 구현되어 입력부의 역할을 수행할 수 있다. 표시부(140)는 네비게이션으로 동작하여 운전자에게 목적지까지의 이동경로를 표시할 수 있고, 카메라(120)에서 획득되는 차량 전방에 대한 영상데이터를 실시간으로 표시할 수 있다. 아울러, 표시부(140)는 전자장치(300)로부터 블랙박스 데이터를 수신하여 실시간으로 표시할 수 있다.
단말메모리(150)는 차량단말(100)의 동작 프로그램들을 저장한다. 단말메모리(150)는 카메라(120)와 센서부(130)에서 획득된 영상데이터, 제1 센싱데이터 및 제2 센싱데이터를 포함하는 주행데이터를 제공하기 위한 전자장치(300)로의 접속주소를 저장한다.
단말제어부(160)는 라이더 센서에서 획득된 반사파인 제1 센싱데이터를 확인하고, OBD센서에서 획득된 센싱데이터를 기반으로 제2 센싱데이터를 확인한다. 보다 구체적으로, 단말제어부(160)는 라이더 센서에서 레이더 신호가 송출된 시각과 레이더 신호가 반사되어 발생되는 반사파가 획득된 시각을 제1 센싱데이터로 확인할 수 있다. 단말제어부(160)는 영상데이터, 제1 센싱데이터 및 제2 센싱데이터를 포함하는 주행데이터를 게이트웨이(200)로 전송한다.
이때, 차량단말(100)에 GPS모듈(미도시)이 포함된 경우, 단말제어부(160)는 GPS모듈에 설정된 절대시각을 기준으로 주행데이터가 획득된 시각을 동기화하고, 주행데이터를 게이트웨이(200)로 전송한다.
게이트웨이(200)는 5G(5th generation) 통신을 위한 기지국(미도시)을 통해 차량단말(100)로부터 수신된 주행데이터를 전자장치(300)로 전송한다. 이때, 게이트웨이(200)는 주행데이터에 포함된 영상데이터, 제1 센싱데이터 및 제2 센싱데이터가 수신된 시점의 절대시각을 확인한다.
게이트웨이(200)는 주행데이터에 시각이 설정된 상태이면, 주행데이터 각각에 설정된 시각을 확인한다. 확인결과, 주행데이터 각각에 모두 동일한 시각이 설정되어 있으면 게이트웨이(200)는 차량단말(100)에 포함된 GPS모듈에 설정된 절대시각으로 주행데이터가 동기화된 것으로 확인할 수 있다. 게이트웨이(200)는 GPS모듈에 설정된 절대시각으로 주행데이터가 동기화된 상태이면, 게이트웨이(200)는 절대시각에 대한 검증을 완료한다. 즉, 5G 통신에서는 전송되는 데이터에 대한 시간 지연이 1msec정도이므로, 게이트웨이(200)는 주행데이터에 설정된 절대시각과 주행데이터가 수신된 시점의 절대시각의 차이를 확인하는 것으로 절대시각에 대한 검증을 수행할 수 있다. 게이트웨이(200)는 검증이 수행된 이후에 영상데이터, 제1 센싱데이터 및 제2 센싱데이터가 수신된 시점의 절대시각으로 각 데이터의 IP헤더에 타임스탬프를 삽입할 수 있다. 게이트웨이(200)는 주행데이터를 암호화하여 전송할 수 있다.
전자장치(300)는 게이트웨이(200)로부터 수신된 암호화된 주행데이터를 복호화하여 주행데이터를 확인한다. 전자장치(300)는 확인된 주행데이터를 이용하여 블랙박스 데이터를 생성한다. 이를 위해, 전자장치(300)는 도 3과 같이 장치통신부(310), 장치메모리(320), 장치제어부(330)를 포함하고, 장치제어부(330)는 특징추출부(331) 및 시뮬레이션부(332)를 포함한다. 아울러, 본 발명의 전자장치(300)는 클라우드 네트워크 서버이며, 설명의 편의를 위해 전자장치(300)로 통칭한다.
장치통신부(310)는 게이트웨이(200)를 통해 차량단말(100)과 통신을 수행하고, 전자장치(300)와의 통신을 수행한다. 이를 위해, 장치통신부(310)는 5G(5th generation), LTE(long term evolution), LTE-A(long term evolution-advanced), WiFi(wireless fidelity) 등의 무선 통신을 수행한다. 특히, 장치통신부(310)는 게이트웨이(200)와의 통신을 통해 차량단말(100)에서 획득된 주행데이터를 수신한다.
장치메모리(320)는 전자장치(300)의 동작 프로그램들을 저장한다. 장치메모리(320)는 장치제어부(330)에서 생성된 블랙박스 데이터를 저장한다. 장치메모리(320)는 블랙박스 데이터로의 접근권한이 있는 외부장치(400)에 대한 로그인 정보를 저장한다. 아울러, 장치메모리(320)는 차량단말(100)이 설치된 차량에 대한 정보, 차량 소유주에 대한 정보를 저장할 수 있다.
장치제어부(330)는 게이트웨이(200)로부터 수신된 주행데이터에 포함된 각각의 데이터의 IP헤더를 확인한다. 장치제어부(330)는 IP헤더를 확인하여 각각의 데이터에 삽입된 타임스탬프를 확인하고, 타임스탬프를 이용하여 각각의 데이터의 동기화를 수행한다. 장치제어부(330)는 동기화된 데이터를 이용하여 자차량의 주행상황을 재구성하고 블랙박스 데이터를 생성한다. 이를 위해, 장치제어부(330)는 특징추출부(331) 및 시뮬레이션부(332)를 포함한다.
특징추출부(331)는 주행데이터에 포함된 영상데이터, 제1 센싱데이터 및 제2 센싱데이터의 IP헤더를 확인하여 게이트웨이(200)가 차량단말(100)로부터 각 데이터를 수신한 시각을 확인한다. 특징추출부(331)는 확인된 타임스탬프를 기준으로 영상데이터, 제1 센싱데이터 및 제2 센싱데이터의 동기화를 수행한다. 특징추출부(331)는 자차량의 주행정보 및 자차량의 외부환경정보(이하, 주행상황이라 통칭함)를 재구성한다.
보다 구체적으로, 특징추출부(331)는 특정 시점에 대응되는 타임스탬프를 가진 제1 센싱데이터를 분석한다. 특징추출부(331)는 제1 센싱데이터의 분석을 통해 자차량의 사방면에 위치한 타차량의 존재유무, 타차량의 위치, 타차량의 이동속도, 진입각도, 자차량과 타차량과의 이격 거리를 포함하는 외부환경정보를 확인할 수 있다. 즉, 특징추출부(331)는 라이더 센서에서 송출되는 레이더 신호가 송출된 시각과 레이더 신호가 오브젝트에 반사되어 발생된 반사파가 수신된 시각에 대한 차이를 하여 외부환경정보를 확인할 수 있다.
또한, 특징추출부(331)는 특정 시점에 대응되는 타임스탬프를 가진 제2 센싱데이터를 분석한다. 특징추출부(331)는 제2 센싱데이터의 분석을 통해 자차량의 차량 주행에 따른 RPM, 차량 속도, 연료 게이지, 브레이크 동작 여부, 기어 위치, 자차량의 이동 각도 및 자차량의 위치 등을 포함하는 주행정보를 확인할 수 있다.
특징추출부(331)는 주행상황을 재구성하여 블랙박스 데이터를 생성하도록 주행상황을 시뮬레이션부(332)로 제공한다. 시뮬레이션부(332)는 주행상황을 재구성하여 특정 시점에 자차량이 위치한 도로의 구조, 자차량을 기준으로 자차량의 사방면에 위치한 타차량, 타차량의 차량번호, 타차량과의 이격 거리 및 자차량의 차량 주행에 따른 RPM, 차량 속도, 연료 게이지, 브레이크 동작 여부, 기어 위치, 자차량의 이동 각도 등을 포함하는 시뮬레이션 데이터를 생성할 수 있다. 시뮬레이션부(332)는 생성된 시뮬레이션 데이터를 블랙박스 데이터로써 장치메모리(320)에 저장할 수 있다.
아울러, 특징추출부(331)는 제2 센싱데이터에서 확인된 자차량의 위치를 기반으로, 자차량의 위치와 근접한 위치에서 주행 중인 타차량의 차량단말로부터 수신된 정보를 확인할 수 있다. 특징추출부(331)는 제2 센싱데이터와 타차량의 차량단말로부터 수신된 제2 센싱데이터를 비교하여 자차량의 위치를 기준으로 타차량의 위치를 개략적으로 확인할 수 있고, 이를 통해 타차량의 차량번호를 확인할 수 있다.
특징추출부(331)는 특정 시점에 대응되는 타임스탬프를 가진 영상데이터의 확인이 가능하면 영상 엣지 디텍션 기술을 이용하여 영상데이터에 포함된 특징점을 추출하고, 추출된 특징점을 기준으로 영상데이터에 포함되어 있는 타차량을 포함하는 오브젝트를 확인할 수 있다. 특징추출부(331)는 영상데이터 분석을 통해 타차량의 차량번호판으로부터 차량번호를 인식할 수 있다.
시뮬레이션부(332)는 특징추출부(331)에서 영상데이터의 분석을 통해 확인된 자차량이 주행 중인 도로의 신호정보, 영상데이터에 포함된 타차량에 대한 이미지 및 타차량의 차량번호 등에 제1 센싱데이터로부터 확인된 자차량과 타차량과의 이격 거리를 나타내는 텍스트를 영상데이터에 오버레이하여 영상데이터를 재구성할 수 있다. 시뮬레이션부(332)는 재구성된 영상데이터를 블랙박스 데이터로써 장치메모리(320)에 저장할 수 있다.
장치제어부(330)는 블랙박스 데이터를 기반으로 자차량이 교통사고의 위험에 노출된 것으로 확인되면, 블랙박스 데이터를 차량단말(100) 및 ITS(intelligent transport system)로 전송할 수 있다. 운전자는 재구성된 영상데이터를 통해 주행 중인 도로의 신호정보, 자차량의 전방에 위치한 타차량과의 이격 거리 등을 텍스트로 확인할 수 있으므로, 위험한 상황을 충분히 인지할 수 있어 교통사고를 미연에 방지할 수 있다. 또한, 운전자는 시뮬레이션 데이터를 통해 시각적으로 위험한 상황의 인지가 불가능한 상황에서 자차량을 기준으로 타차량의 위치, 타차량의 이동 속도, 타차량의 진입각도, 타차량과의 이격 거리 등을 확인할 수 있으므로, 위험한 상황을 충분히 인지할 수 있어 교통사고를 미연에 방지할 수 있다. 아울러, 공공기관에서는 교통사고의 위험이 노출된 위치로 경찰차 및 소방차 및 응급차를 대기시켜 사고 발생 시 빠른 대응을 할 수 있도록 한다. 또한, 차량단말(100)은 시뮬레이션 데이터를 기반으로 차량에서 ADAS(advanced driver assistance system)를 사용할 수 있고, 교통사고가 발생된 시점에 획득된 영상데이터의 확인이 불가능하더라도 교통사고 발생 시점의 주행상황을 확인할 수 있다.
장치제어부(330)는 외부장치(400)로부터 장치메모리(320)에 저장된 블랙박스 데이터에 대한 요청신호가 수신되면, 외부장치(400)에 설정된 블랙박스 데이터로의 접근권한을 확인한다. 장치제어부(330)는 외부장치(400)의 로그인 정보 등을 확인하여 외부장치(400)가 블랙박스 데이터로의 접근권한이 있으면 외부장치(400)로 블랙박스 데이터를 전송한다. 반대로, 외부장치(400)가 블랙박스 데이터로의 접근권한이 없으면 장치제어부(330)는 외부장치(400)로 블랙박스 데이터로의 접근이 불가함을 알리는 메시지를 전송한다.
외부장치(400)는 차량단말(100)이 부착된 차량의 소유주가 사용하는 스마트 폰, 노트북, 태블릿 PC 등의 장치일 수 있다. 또한, 외부장치(400)는 교통사고 발생 시에 블랙박스 데이터를 확인하고자 하는 경찰 등 공공기관에서 사용하는 장치일 수 있다. 외부장치(400)는 인터넷 통신망을 통해 전자장치(300)에 접속을 수행할 수 있다. 이를 위해, 외부장치(400)는 5G(5th generation), LTE(long term evolution), LTE-A(long term evolution-advanced), WiFi(wireless fidelity) 등의 무선 통신을 이용하고, 케이블을 이용한 유선 통신을 수행할 수 있다.
외부장치(400)는 전자장치(300)와의 통신을 통해 전자장치(300)로 블랙박스 데이터의 전송을 요청하고, 전자장치(300)에서 블랙박스 데이터로의 접근권한이 확인되면 전자장치(300)로부터 블랙박스 데이터를 수신하여 확인할 수 있다.
도 4는 본 발명의 실시 예에 따른 블랙박스 데이터를 생성하는 방법을 설명하기 위한 흐름도이다.
도 4를 참조하면, 401단계에서 차량단말(100)은 카메라(120) 및 센서부(130)로부터 주행데이터를 획득한다. 이때, 주행데이터는 카메라(120)에서 획득된 영상데이터, 센서부(130)에 포함된 라이더 센서에서 획득된 제1 센싱데이터 및 OBD센서에서 획득된 제2 센싱데이터를 포함할 수 있다. 403단계에서 차량단말(100)은 획득된 주행데이터의 획득시각을 확인하고 405단계를 수행한다. 이때, 차량단말(100)은 차량단말(100)에 포함된 GPS모듈(미도시)에 설정된 절대시각을 기준으로 주행데이터의 획득시각을 동기화한 후, 405단계를 수행한다. 405단계에서 차량단말(100)은 주행데이터를 게이트웨이(200)로 전송한다.
407단계에서 게이트웨이(200)는 수신된 주행데이터의 IP헤더에 타임스탬프를 삽입한다. 보다 구체적으로, 게이트웨이(200)는 영상데이터, 제1 센싱데이터 및 제2 센싱데이터가 수신된 절대시각을 확인하고, 확인된 절대시각을 각각의 IP헤더에 타임스탬프로 삽입한다. 이때, 게이트웨이(200)는 차량단말(100)로부터 수신된 주행데이터가 GPS모듈에 설정된 절대시각으로 동기화된 상태이면, 게이트웨이(200)는 절대시각에 대한 검증을 완료하여 영상데이터, 제1 센싱데이터 및 제2 센싱데이터가 수신된 시점의 절대시각으로 각 데이터의 IP헤더에 타임스탬프를 삽입할 수 있다.
409단계에서 게이트웨이(200)는 타임스탬프가 삽입된 각각의 데이터를 전자장치(300)로 전송한다. 411단계에서 전자장치(300)는 게이트웨이(200)로부터 전송된 주행데이터를 저장하고 413단계를 수행한다. 413단계에서 전자장치(300)는 주행데이터에 포함된 영상데이터, 제1 센싱데이터 및 제2 센싱데이터의 IP헤더를 확인하여 게이트웨이(200)가 차량단말(100)로부터 각 데이터를 수신한 시각을 확인한다.
415단계에서 전자장치(300)는 확인된 타임스탬프를 기준으로 영상데이터, 제1 센싱데이터 및 제2 센싱데이터의 동기화를 수행하고, 417단계를 수행한다. 417단계에서 전자장치(300)는 자차량의 주행정보 및 자차량의 외부환경정보(이하, 주행상황이라 통칭함)를 재구성한다. 보다 구체적으로, 전자장치(300)는 특정 시점에 대응되는 타임스탬프를 가진 제1 센싱데이터를 분석한다. 전자장치(300)는 제1 센싱데이터의 분석을 통해 자차량의 사방면에 위치한 타차량의 존재유무, 타차량의 위치, 타차량의 이동속도, 진입각도, 자차량과 타차량과의 이격 거리를 포함하는 외부환경정보를 확인할 수 있다. 즉, 전자장치(300)는 라이더 센서에서 송출되는 레이더 신호가 송출된 시각과 레이더 신호가 오브젝트에 반사되어 발생된 반사파가 수신된 시각에 대한 차이를 이용하여 외부환경정보를 확인할 수 있다.
또한, 전자장치(300)는 특정 시점에 대응되는 타임스탬프를 가진 제2 센싱데이터를 분석한다. 전자장치(300)는 제2 센싱데이터의 분석을 통해 자차량의 차량 주행에 따른 RPM, 차량 속도, 연료 게이지, 브레이크 동작 여부, 기어 위치, 자차량의 이동 각도 및 자차량의 위치 등을 포함하는 주행정보를 확인할 수 있다.
419단계에서 전자장치(300)는 주행상황을 재구성하여 블랙박스 데이터를 생성하고 이를 저장한다. 보다 구체적으로, 전자장치(300)는 주행상황을 재구성하여 자차량을 기준으로 자차량의 사방면에 위치한 타차량, 타차량의 차량번호, 타차량과의 이격 거리 및 자차량의 차량 주행에 따른 RPM, 차량 속도, 연료 게이지, 브레이크 동작 여부, 기어 위치, 자차량의 이동 각도 등을 포함하는 시뮬레이션 데이터를 생성할 수 있고, 시뮬레이션 데이터는, 3차원 이미지일 수 있다. 아울러, 전자장치(300)는 제2 센싱데이터에서 확인된 자차량의 위치를 기반으로, 자차량의 위치와 근접한 위치에서 주행 중인 타차량의 차량단말로부터 수신된 정보를 확인할 수 있다. 전자장치(300)는 제2 센싱데이터와 타차량의 차량단말로부터 수신된 제2 센싱데이터를 비교하여 자차량의 위치를 기준으로 타차량의 위치를 개략적으로 확인할 수 있고, 이를 통해 타차량의 차량번호를 확인할 수 있다.
또한, 전자장치(300)는 특정 시점에 대응되는 타임스탬프를 가진 영상데이터의 확인이 가능하면 영상 엣지 디텍션 기술을 이용하여 영상데이터에 포함된 특징점을 추출하고, 추출된 특징점을 기준으로 영상데이터에 포함되어 있는 타차량을 포함하는 오브젝트를 확인할 수 있다. 특히, 전자장치(300)는 영상데이터의 분석을 통해 주행 중인 도로의 신호정보, 영상데이터에 포함된 타차량에 대한 이미지 및 타차량의 차량번호 등을 확인할 수 있고, 제1 센싱데이터로부터 자차량과 타차량과의 이격 거리 등을 확인할 수 있다. 전자장치(300)는 영상데이터에 신호정보, 차량정보 및 이격 거리를 텍스트로 오버레이하여 영상데이터를 재구성할 수 있다.
421단계에서 외부장치(400)는 전자장치(300)로 블랙박스 데이터를 요청한다. 423단계에서 전자장치(300)는 블랙박스 데이터 요청에 따라 외부장치(400)에 설정된 블랙박스 데이터로의 접근권한을 확인한다. 423단계의 확인결과, 외부장치(400)가 블랙박스 데이터로의 접근권한이 있으면 425단계를 수행한다. 425단계에서 전자장치(300)는 블랙박스 데이터를 요청한 외부장치(400)로 블랙박스 데이터를 전송하고, 427단계에서 외부장치(400)는 수신된 블랙박스 데이터를 확인한다.
도 5는 본 발명의 실시 예에 따른 전자장치에서 블랙박스 데이터를 생성하는 방법을 설명하기 위한 순서도이다.
도 5를 참조하면, 501단계에서 장치제어부(330)는 장치통신부(310)를 통해 게이트웨이(200)로부터 주행데이터가 수신되면 503단계를 수행하고, 주행데이터가 수신되지 않으면 주행데이터의 수신을 대기한다. 503단계에서 장치제어부(330)는 수신된 주행데이터를 장치메모리(320)에 저장하고 505단계를 수행한다. 505단계에서 장치제어부(330)의 특징추출부(331)는 주행데이터에 포함된 영상데이터, 제1 센싱데이터 및 제2 센싱데이터의 IP헤더를 확인한다. 즉, 특징추출부(331)는 각 데이터의 IP헤더를 확인하여 IP헤더에 삽입된 타임스탬프를 확인할 수 있다.
507단계에서 특징추출부(331)는 확인된 타임스탬프를 기준으로 영상데이터, 제1 센싱데이터 및 제2 센싱데이터의 동기화를 수행하고, 509단계에서 특징추출부(331)는 주행데이터를 분석한다.
보다 구체적으로, 특징추출부(331)는 동기화된 제1 센싱데이터 및 제2 센싱데이터를 분석하여 특정 시점에 자차량의 주행정보 및 자차량의 외부환경정보(이하, 주행상황이라 통칭함)를 확인할 수 있다. 특징추출부(331)는 특정 시점에 대응되는 타임스탬프를 가진 제1 센싱데이터를 분석한다. 특징추출부(331)는 제1 센싱데이터의 분석을 통해 자차량의 사방면에 위치한 타차량의 존재유무, 타차량의 위치, 타차량의 이동속도, 진입각도, 자차량과 타차량과의 이격 거리를 포함하는 외부환경정보를 확인할 수 있다. 즉, 특징추출부(331)는 라이더 센서에서 송출되는 레이더 신호가 송출된 시각과 레이더 신호가 오브젝트에 반사되어 발생된 반사파가 수신된 시각에 대한 차이를 이용하여 외부환경정보를 확인할 수 있다.
특징추출부(331)는 특정 시점에 대응되는 타임스탬프를 가진 제2 센싱데이터를 분석한다. 특징추출부(331)는 제2 센싱데이터의 분석을 통해 자차량의 차량 주행에 따른 RPM, 차량 속도, 연료 게이지, 브레이크 동작 여부, 기어 위치, 자차량의 이동 각도 등을 포함하는 주행정보를 확인할 수 있다.
511단계에서 특징추출부(331)는 509단계에서 수행된 주행데이터의 분석결과를 기반으로 자차량의 주행상황을 재구성한다. 즉, 특징추출부(331)는 특정 시점에 자차량의 주변에서 주행 중이던 타차량의 위치, 타차량의 이동속도, 진입각도, 자차량과 타차량과의 이격 거리, 자차량의 차량 주행에 따른 RPM, 차량 속도, 연료 게이지, 브레이크 동작 여부, 기어 위치, 자차량의 이동 각도 등을 포함하도록 자차량의 주행상황을 재구성할 수 있다.
513단계에서 특징추출부(331)는 특정 시점에 대응되는 타임스탬프를 가진 영상데이터의 확인이 가능하면 515단계를 수행하고, 영상데이터의 확인이 불가능하면 517단계를 수행한다. 이때, 영상데이터의 확인이 불가능한 경우는, 비가 많이 오는 날에 영상데이터가 획득된 경우, 야간에 영상데이터가 획득된 경우, 터널에서 영상데이터가 획득된 경우 및 반대편 차선에서 주행 중인 타차량의 빛으로 인해 획득된 영상데이터에 블랙아웃이 발생한 경우 등을 포함할 수 있다.
515단계에서 특징추출부(331)는 특정 시점에 획득된 영상데이터를 재구성할 할 수 있다. 이는 도 6과 같이 나타낼 수 있다. 도 6은 본 발명의 실시 예에 따른 전자장치에서 재구성된 영상데이터를 나타낸 화면예시도이다.
도 6을 참조하면, 특징추출부(331)는 특정 시점에 대응되는 타임스탬프를 가진 영상데이터를 분석한다. 특징추출부(331)는 영상 엣지 디텍션 기술을 이용하여 영상데이터에 포함된 특징점을 추출하고, 추출된 특징점을 기준으로 영상데이터에 포함되어 있는 타차량을 포함하는 오브젝트를 확인할 수 있다. 또한, 특징추출부(331)는 영상데이터의 분석을 통해 영상데이터에 포함된 타차량에 대한 이미지, 타차량의 차량번호, 주행 중인 도로의 신호정보 등을 확인하여 시뮬레이션부(332)로 제공할 수 있다. 특징추출부(331)는 특정 시점에 획득된 제1 센싱데이터를 분석하여 확인된 자차량과 타차량과의 이격 거리 등을 시뮬레이션부(332)로 제공할 수 있다.
시뮬레이션부(332)는 특정 시점에 획득된 영상데이터(610)에 포함된 타차량(611)의 차량번호, 자차량과 타차량(611)과의 이격 거리 및 자차량이 주행 중인 도로의 신호정보(613)를 나타내는 텍스트를 영상데이터(610)에 오버레이하여 영상데이터를 재구성할 수 있다. 아울러, 도 6에는 자차량의 전방에 대한 영상데이터만을 기준으로 설명하고 있으나, 반드시 이에 한정되는 것은 아니며, 차량단말(100)의 카메라(120)에서 획득된 모든 영상데이터를 재구성할 수 있다.
517단계에서 시뮬레이션부(332)는 511단계에서 재구성된 주행상황에 대한 정보를 특징추출부(331)로부터 제공받아 시뮬레이터 데이터를 생성할 수 있다. 이는 도 7과 같이 나타낼 수 있다. 도 7은 본 발명의 실시 예에 따른 전자장치에서 생성된 시뮬레이션 데이터를 표시한 화면예시도이다.
도 7을 참조하면, 시뮬레이션부(332)는 특징추출부(331)로부터 제공된 특정 시점에 자차량의 사방면에 위치한 타차량의 존재유무, 타차량의 위치, 타차량의 이동속도, 진입각도, 자차량과 타차량과의 이격 거리, 자차량의 차량 주행에 따른 RPM, 차량 속도, 연료 게이지, 브레이크 동작 여부, 기어 위치, 자차량의 이동 각도 등을 포함하는 3차원 이미지인 시뮬레이션 데이터(710)를 생성한다.
시뮬레이션부(332)는 자차량(711)을 기준으로 자차량(711)의 사방면에 위치한 타차량(713, 715), 타차량(713, 715)의 차량번호, 타차량(713, 715)과의 이격 거리 및 자차량의 차량 주행에 따른 RPM, 차량 속도, 연료 게이지, 브레이크 동작 여부, 기어 위치, 자차량의 이동 각도 등에 대한 주행정보(717)를 포함하는 시뮬레이션 데이터(710)를 생성할 수 있다. 이때, 특징추출부(331)는 제2 센싱데이터에서 확인된 자차량의 위치를 기반으로, 자차량의 위치와 근접한 위치에서 주행 중인 타차량(713, 715)의 차량단말로부터 수신된 정보를 확인할 수 있다. 특징추출부(331)는 제2 센싱데이터와 타차량(713, 715)의 차량단말로부터 수신된 제2 센싱데이터를 비교하여 자차량의 위치를 기준으로 타차량의 위치를 개략적으로 확인할 수 있고, 이를 통해 타차량의 차량번호를 확인할 수 있다.
519단계에서 장치제어부(330)는 재구현된 영상데이터 및 시뮬레이션 데이터를 블랙박스 데이터로써 장치메모리(320)에 저장할 수 있다. 아울러, 장치제어부(330)는 블랙박스 데이터를 기반으로 자차량이 교통사고의 위험에 노출된 것으로 확인되면, 블랙박스 데이터를 차량단말(100) 및 ITS(intelligent transport system)로 전송할 수 있다.
운전자는 재구성된 영상데이터를 통해 주행 중인 도로의 신호정보, 자차량의 전방에 위치한 타차량과의 이격 거리 등을 텍스트로 확인할 수 있으므로, 위험한 상황을 충분히 인지할 수 있어 교통사고를 미연에 방지할 수 있다. 또한, 운전자는 시뮬레이션 데이터(710)를 통해 자차량(711)을 기준으로 타차량(713, 715)의 위치, 타차량(713, 715)의 이동 속도, 타차량(713, 715)의 진입각도, 타차량(713, 715)과의 이격 거리 등을 확인할 수 있으므로, 위험한 상황을 충분히 인지할 수 있어 교통사고를 미연에 방지할 수 있는 효과가 있다. 또한, 블랙박스 데이터를 ITS로 전송함으로써, 공공기관은 교통사고의 위험이 노출된 위치로 경찰차 및 소방차 및 응급차를 대기시켜 사고 발생 시 빠른 대응을 할 수 있도록 한다. 또한, 차량단말(100)은 시뮬레이션 데이터(710)를 기반으로 차량에서 ADAS(advanced driver assistance system)를 사용할 수 있고, 교통사고가 발생된 시점에 획득된 영상데이터의 확인이 불가능하더라도 교통사고 발생 시점의 주행상황을 확인할 수 있다.
도 8은 본 발명의 실시 예에 따른 전자장치에 저장된 블랙박스 데이터를 확인하기 위한 방법을 설명하기 위한 순서도이다.
도 8을 참조하면, 801단계에서 장치제어부(330)는 외부장치(400)로부터 블랙박스 데이터에 대한 확인신호가 수신되면 803단계를 수행하고, 확인신호가 수신되지 않으면 확인신호의 수신을 대기한다. 803단계에서 장치제어부(330)는 외부장치(400)로부터 로그인 정보를 수신한다.
805단계에서 장치제어부(330)는 수신된 로그인 정보에 대응되는 외부장치(400)가 블랙박스 데이터로의 접근권한이 존재하는지 확인할 수 있다. 즉, 장치제어부(330)는 로그인 정보가 자차량의 소유자에 대한 정보, 경찰 등 공공기관에 대한 정보이면 블랙박스 데이터로의 접근권한이 존재하는 것으로 확인할 수 있다. 805단계의 확인결과, 외부장치(400)가 블랙박스 데이터로의 접근권한이 존재하면 장치제어부(330)는 807단계를 수행한다. 807단계에서 장치제어부(330)는 외부장치(400)에서 확인하고자 하는 시점에 대응되는 블랙박스 데이터를 확인하고 809단계를 수행한다. 장치제어부(330)는 확인된 블랙박스 데이터를 외부장치(400)로 제공한다.
반대로, 805단계의 확인결과 외부장치(400)가 블랙박스 데이터로의 접근권한이 존재하지 않으면 장치제어부(330)는 811단계를 수행한다. 811단계에서 장치제어부(330)는 외부장치(400)로 블랙박스 데이터로의 접근권한이 없음을 알리는 메시지를 제공한다.
본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (17)

  1. 전자장치가 주행 중인 차량에 구비된 차량단말에서 획득되어 게이트웨이에서 타임스탬프가 삽입된 영상데이터, 제1 센싱데이터 및 제2 센싱데이터를 포함하는 주행데이터를 수신하는 단계;
    상기 전자장치가 상기 주행데이터 각각에 삽입된 상기 타임스탬프를 확인하여 상기 주행데이터의 동기화를 수행하는 단계;
    상기 전자장치가 상기 동기화된 주행데이터를 기반으로 주행상황을 재구성하는 단계; 및
    상기 전자장치가 상기 주행상황을 이용하여 블랙박스 데이터를 생성하는 단계;
    를 포함하는 것을 특징으로 하는 블랙박스 데이터 생성방법.
  2. 제1항에 있어서,
    상기 주행데이터는,
    상기 차량단말에 포함된 카메라에서 획득된 상기 영상데이터, 상기 차량단말에 포함된 라이더(LiDAR)센서에서 획득된 상기 제1 센싱데이터 및 상기 차량단말에 포함된 OBD(on board diagnostic) 센서에서 획득된 상기 제2 센싱데이터를 포함하는 것을 특징으로 하는 블랙박스 데이터 생성방법.
  3. 제2항에 있어서,
    상기 게이트웨이는,
    상기 영상데이터, 상기 제1 센싱데이터 및 상기 제2 센싱데이터가 수신된 시점의 절대 시각으로 상기 각각의 데이터의 아이피 헤더에 상기 타임스탬프를 삽입하는 것을 특징으로 하는 블랙박스 데이터 생성방법.
  4. 제3항에 있어서,
    상기 주행상황을 재구성하는 단계는,
    상기 전자장치가 상기 제1 센싱데이터를 기반으로 상기 차량의 외부환경정보를 확인하는 단계; 및
    상기 전자장치가 상기 제2 센싱데이터를 기반으로 상기 차량의 주행정보를 확인하는 단계;
    를 포함하는 것을 특징으로 하는 블랙박스 데이터 생성방법.
  5. 제4항에 있어서,
    상기 블랙박스 데이터를 생성하는 단계는,
    상기 전자장치가 상기 영상데이터에 상기 외부환경정보 중 적어도 하나의 정보를 텍스트 형태로 오버레이하여 상기 블랙박스 데이터로 생성하는 단계인 것을 특징으로 하는 블랙박스 데이터 생성방법.
  6. 제5항에 있어서,
    상기 블랙박스 데이터를 생성하는 단계는,
    상기 전자장치가 상기 주행상황을 기반으로 상기 타임스탬프와 관련된 시점에 대한 시뮬레이션 데이터를 상기 블랙박스 데이터로 생성하는 단계인 것을 특징으로 하는 블랙박스 데이터 생성방법.
  7. 제6항에 있어서,
    상기 시뮬레이션 데이터는,
    상기 차량을 중심으로 상기 차량의 사방에 존재하는 타차량의 위치, 상기 타차량과의 이격 거리 및 상기 타차량의 차량번호를 포함하는 타차량에 대한 정보 및 상기 주행정보를 포함하는 3차원 이미지인 것을 특징으로 하는 블랙박스 데이터 생성방법.
  8. 제7항에 있어서,
    상기 생성된 블랙박스 데이터를 저장하는 단계;
    상기 전자장치가 외부장치로부터 상기 블랙박스 데이터로의 접근이 요청되면, 상기 외부장치의 접근권한을 확인하는 단계; 및
    상기 전자장치가 상기 접근권한의 확인결과에 따라 상기 외부장치로 상기 블랙박스 데이터를 제공하는 단계;
    를 더 포함하는 것을 특징으로 하는 블랙박스 데이터 생성방법.
  9. 주행 중인 차량에 구비된 차량단말로부터 영상데이터, 제1 센싱데이터 및 제2 센싱데이터를 포함하는 주행데이터를 수신하여 상기 주행데이터에 타임스탬프를 삽입하는 게이트웨이와 통신을 수행하는 통신부; 및
    상기 주행데이터 각각에 삽입된 상기 타임스탬프를 확인하여 상기 주행데이터의 동기화를 수행하고, 상기 동기화된 주행데이터를 기반으로 주행상황을 재구성하여 블랙박스 데이터를 생성하는 제어부;
    를 포함하는 것을 특징으로 하는 블랙박스 데이터를 생성하는 전자장치.
  10. 제9항에 있어서,
    상기 주행데이터는,
    상기 차량단말에 포함된 카메라에서 획득된 상기 영상데이터, 상기 차량단말에 포함된 라이더(LiDAR)센서에서 획득된 상기 제1 센싱데이터 및 상기 차량단말에 포함된 OBD(on board diagnostic)센서에서 획득된 상기 제2 센싱데이터를 포함하는 것을 특징으로 하는 블랙박스 데이터를 생성하는 전자장치.
  11. 제10항에 있어서,
    상기 게이트웨이는,
    상기 영상데이터, 상기 제1 센싱데이터 및 상기 제2 센싱데이터가 수신된 시점의 절대 시각으로 상기 각각의 데이터의 아이피 헤더에 상기 타임스탬프를 삽입하는 것을 특징으로 하는 블랙박스 데이터를 생성하는 전자장치.
  12. 제11항에 있어서,
    상기 제어부는,
    상기 제1 센싱데이터를 기반으로 상기 차량의 외부환경정보를 확인하고, 상기 제2 센싱데이터를 기반으로 상기 차량의 주행정보를 확인하는 것을 특징으로 하는 블랙박스 데이터를 생성하는 전자장치.
  13. 제12항에 있어서,
    상기 제어부는,
    상기 영상데이터에 상기 외부환경정보 중 적어도 하나의 정보를 텍스트 형태로 오버레이하여 상기 블랙박스 데이터로 생성하는 것을 특징으로 하는 블랙박스 데이터를 생성하는 전자장치.
  14. 제13항에 있어서,
    상기 제어부는,
    상기 주행상황을 기반으로 상기 타임스탬프와 관련된 시점에 대한 시뮬레이션 데이터를 상기 블랙박스 데이터로 생성하는 것을 특징으로 하는 블랙박스 데이터를 생성하는 전자장치.
  15. 제14항에 있어서,
    상기 시뮬레이션 데이터는,
    상기 차량을 중심으로 상기 차량의 사방에 존재하는 타차량의 위치, 상기 타차량과의 이격 거리 및 상기 타차량의 차량번호를 포함하는 타차량에 대한 정보 및 상기 주행정보를 포함하는 3차원 이미지인 것을 특징으로 하는 블랙박스 데이터를 생성하는 전자장치.
  16. 제15항에 있어서,
    상기 제어부는,
    외부장치로부터 상기 블랙박스 데이터로의 접근이 요청되면, 상기 외부장치의 접근권한을 확인하여 상기 외부장치로 상기 블랙박스 데이터를 제공하는 것을 특징으로 하는 블랙박스 데이터를 생성하는 전자장치.
  17. 주행 중인 차량에 구비되어 카메라, 라이더(LiDAR)센서 및 OBD(on board diagnostic)센서로부터 영상데이터, 제1 센싱데이터 및 제2 센싱데이터를 포함하는 주행데이터를 획득하는 차량단말;
    상기 차량단말로부터 상기 주행데이터를 수신하고 상기 주행데이터가 수신된 시점의 절대 시각으로 상기 주행데이터의 아이피 헤더에 타임스탬프를 삽입하는 게이트웨이; 및
    상기 게이트웨이로부터 수신된 주행데이터에 삽입된 상기 타임스탬프를 확인하여 상기 주행데이터의 동기화를 수행하고, 상기 동기화된 주행데이터를 기반으로 주행상황을 재구성하여 블랙박스 데이터를 생성하는 전자장치;
    를 포함하는 것을 특징으로 하는 블랙박스 데이터를 생성하는 시스템.
KR1020180077109A 2017-07-03 2018-07-03 블랙박스 데이터를 생성하기 위한 방법, 전자장치 및 시스템 KR102211563B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20170084260 2017-07-03
KR1020170084260 2017-07-03

Publications (2)

Publication Number Publication Date
KR20190004239A true KR20190004239A (ko) 2019-01-11
KR102211563B1 KR102211563B1 (ko) 2021-02-03

Family

ID=65027968

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180077109A KR102211563B1 (ko) 2017-07-03 2018-07-03 블랙박스 데이터를 생성하기 위한 방법, 전자장치 및 시스템

Country Status (1)

Country Link
KR (1) KR102211563B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220028940A (ko) * 2020-08-31 2022-03-08 주식회사대성엘텍 차량의 복수의 카메라로부터 획득된 영상처리방법 및 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020030461A (ko) * 2000-10-17 2002-04-25 허권인 레이더 블랙박스 및 그 기록방법
KR20100002766U (ko) * 2008-08-31 2010-03-10 박근석 블랙박스를 포함하는 네비게이션 및 그의 시뮬레이션 구현방법
KR20140128839A (ko) * 2013-04-29 2014-11-06 팅크웨어(주) 차량용 영상 처리 장치 및 이를 이용한 데이터 처리 방법
US20150112545A1 (en) * 2013-10-18 2015-04-23 State Farm Mutual Automobile Insurance Company Synchronization of vehicle sensor information

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020030461A (ko) * 2000-10-17 2002-04-25 허권인 레이더 블랙박스 및 그 기록방법
KR20100002766U (ko) * 2008-08-31 2010-03-10 박근석 블랙박스를 포함하는 네비게이션 및 그의 시뮬레이션 구현방법
KR20140128839A (ko) * 2013-04-29 2014-11-06 팅크웨어(주) 차량용 영상 처리 장치 및 이를 이용한 데이터 처리 방법
US20150112545A1 (en) * 2013-10-18 2015-04-23 State Farm Mutual Automobile Insurance Company Synchronization of vehicle sensor information

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220028940A (ko) * 2020-08-31 2022-03-08 주식회사대성엘텍 차량의 복수의 카메라로부터 획득된 영상처리방법 및 장치

Also Published As

Publication number Publication date
KR102211563B1 (ko) 2021-02-03

Similar Documents

Publication Publication Date Title
US20210327299A1 (en) System and method for detecting a vehicle event and generating review criteria
US10565458B2 (en) Simulation system, simulation program and simulation method
US20200349839A1 (en) Image data integrator for addressing congestion
KR102464898B1 (ko) 차량과 관련된 영상 정보를 공유하는 방법 및 장치
CN109212542A (zh) 用于自主车辆操作的校准方法
US20230057394A1 (en) Cooperative vehicle-infrastructure processing method and apparatus, electronic device, and storage medium
CN104054033A (zh) 用于监视车辆环境的方法
US11961310B2 (en) System and cryptographic hardening method for traffic signal verification
CN114093186B (zh) 车辆预警信息提示系统、方法及存储介质
CN110880235A (zh) 路况信息处理系统中的路侧设备、处理方法及装置
US20230090975A1 (en) Driving assistance processing method and apparatus, computer-readable medium, and electronic device
CN115943440A (zh) 用于检测对物体识别系统的投影攻击的系统和方法
KR102122515B1 (ko) 실시간 업데이트된 모니터링 정보를 통한 긴급상황 처리 방법 및 시스템
KR102144778B1 (ko) 실시간 업데이트된 도로정보 제공방법 및 시스템
KR20190004239A (ko) 블랙박스 데이터를 생성하기 위한 방법, 전자장치 및 시스템
KR102103450B1 (ko) 분산 시뮬레이션 기반 첨단 운전자 지원 시스템
KR101391909B1 (ko) 차량용 블랙박스의 영상데이터와 gis 연동 서비스 방법
US20240013476A1 (en) Traffic event reproduction system, server, traffic event reproduction method, and non-transitory computer readable medium
WO2022004448A1 (ja) 情報処理装置、および情報処理方法、情報処理システム、並びにプログラム
KR101788663B1 (ko) 초음파 센서와 영상 센서의 데이터 통합처리 시스템
WO2021186853A1 (ja) 画像生成装置、画像生成方法、およびプログラム
KR102067547B1 (ko) 이동통신단말 및 건물 cctv카메라 간의 통신연결 및 영상분석 기반의 주변차량 위험상황 감지 및 방법
KR20160075051A (ko) 차량 위치 추적 시스템 및 방법
CN110979319A (zh) 驾驶辅助方法、装置和系统
WO2021186854A1 (ja) データ処理装置、送信装置、データ処理方法、およびプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant