KR101612836B1 - 차량내의 사고 영상 취득 방법 및 장치, 그리고 이를 실행하는 컴퓨터 판독 가능한 기록 매체 - Google Patents

차량내의 사고 영상 취득 방법 및 장치, 그리고 이를 실행하는 컴퓨터 판독 가능한 기록 매체 Download PDF

Info

Publication number
KR101612836B1
KR101612836B1 KR1020150023597A KR20150023597A KR101612836B1 KR 101612836 B1 KR101612836 B1 KR 101612836B1 KR 1020150023597 A KR1020150023597 A KR 1020150023597A KR 20150023597 A KR20150023597 A KR 20150023597A KR 101612836 B1 KR101612836 B1 KR 101612836B1
Authority
KR
South Korea
Prior art keywords
vehicle
image
information
accident
unit
Prior art date
Application number
KR1020150023597A
Other languages
English (en)
Inventor
홍영우
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020150023597A priority Critical patent/KR101612836B1/ko
Application granted granted Critical
Publication of KR101612836B1 publication Critical patent/KR101612836B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D41/00Fittings for identifying vehicles in case of collision; Fittings for marking or recording collision areas
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D9/00Recording measured values
    • B60R2021/013
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means

Abstract

차량 사고를 정확히 알 수 있는 차량내의 사고 영상 취득 방법 및 장치, 그리고 이를 실행하는 컴퓨터 판독 가능한 기록 매체가 개시된다.
본 발명에 따르면, 차량에 설치된 센서들을 이용하여 차량 충돌 위치를 감지하는 충돌 감지부, 상기 차량 충돌 위치의 감지에 따라, 적어도 하나 이상의 주변 차량으로부터 획득한 차량 위치와 주행 정보를 이용하여 사고 영상을 획득하기 위한 정보 유효성을 검증하는 정보 검증부, 및 상기 정보 유효성의 검증 결과, 기설정된 수치보다 정보 유효성이 높은 해당 하는 주변 차량으로부터 상기 사고 영상을 획득하는 사고 영상 획득부를 포함하여, 주변에서 촬영된 화상 정보로 3자 관점에서 사고 사실을 명확히 분석 가능하다.

Description

차량내의 사고 영상 취득 방법 및 장치, 그리고 이를 실행하는 컴퓨터 판독 가능한 기록 매체{METHOD AND DEVICE FOR ACQUISITING ACCIDENT IMAGE IN VEHICLE, AND COMPUTER READABLE MEDIUM FOR PERFORMING THE METHOD}
본 발명은 차량내의 사고 영상 취득 장치 및 방법에 관한 것으로서, 더욱 상세하게는 차량 사고를 정확히 알 수 있는 차량내의 사고 영상 취득 방법 및 장치, 그리고 이를 실행하는 컴퓨터 판독 가능한 기록 매체에 관한 것이다.
사고 현장을 기록하는 블랙 박스는 전방(1ch), 전/후방(2ch), 전/후/측방(4ch)등의 화상 신호를 저장한다. 그러나, 차량의 전/후방(2ch), 전/후/측방(4ch)에 블랙 박스가 설치되면, 그 만큼의 비용과 관리가 더욱 늘어날 수 밖에 없다.
더욱이, 위와 같이 전/후방(2ch), 전/후/측방(4ch)에 블랙 박스가 설치되더라도 장착 위치상 차량 범퍼 전/후에 사각 지대가 발생하고, 측방의 경우 장착 방향에 따른 시야각의 한계가 있어 명확한 사고 정황을 촬영하기에는 한계가 따랐다.
이러한 한계를 극복하고자, 블랙 박스와 유사한 AVM(All-around View Monitoring)을 차량에 설치하는 경우가 증가하였다. 이러한 AVM은 사각을 보완하여 영상을 볼 수 있으나, 영상의 거리 한계가 있었고, 저장되지 않고 실시간 모니터링만 수행하므로, 정확한 사고 정황을 확인하기에는 부족하였다.
이러한 블랙 박스와 AVM의 영상은 1인자 관점에서의 기록이기에 종종 과실 비율이 뒤바뀌는 사례도 발생되었다.
한국공개특허 : 제2001-0026183호, 공개일자 : 2001년 04월 06일, 발명의 명칭 : 차량사고예방과 도난방지를 위한 자동경고 및 차량주변상황 영상/음향 기록장치.
본 발명은 사고가 발생한 차량의 주변에 위치한 주변 차량으로부터 영상을 획득하여 사고 경위를 바로 확인할 수 있는 차량내의 사고 영상 취득 방법 및 장치, 그리고 이를 실행하는 컴퓨터 판독 가능한 기록 매체을 제공하고자 한다.
본 발명의 일 실시예에 따르면, 차량에 설치된 센서들을 이용하여 차량 충돌 위치를 감지하는 충돌 감지부; 상기 차량 충돌 위치의 감지에 따라, 적어도 하나 이상의 주변 차량으로부터 획득한 차량 위치와 주행 정보를 이용하여 사고 영상을 획득하기 위한 정보 유효성을 검증하는 정보 검증부; 및 상기 정보 유효성의 검증 결과, 기설정된 수치보다 상기 정보 유효성이 높은 주변 차량으로부터 상기 사고 영상을 획득하는 사고 영상 획득부를 포함하는 차량내의 사고 영상 취득 장치가 제공된다.
여기서, 상기 정보 검증부는 상기 감지에 대응한 정보 요청 신호를 생성하여 무선 네트워크를 통해 상기 주변 차량으로 전송하는 정보 요청 송신부; 상기 정보 요청 신호에 대응하여 해당하는 상기 주변 차량으로부터 정보 제공 허락 신호를 수신하는 응답 신호 수신부; 및 상기 정보 제공 허락 신호를 보낸 주변 차량으로부터 상기 주변 차량 위치와 주행 정보를 획득하는 유효 정보 획득부를 포함하여 이루어질 수 있다.
또한, 상기 정보 검증부는 상기 적어도 하나 이상의 주변 차량 위치와 상기 차량의 위치를 지도맵에 맵핑하여 상기 차량 충돌 위치로부터 근접도가 높은 순위를 갖는 주변 차량들을 상기 정보 유효성이 높은 차량인 것으로 간주하는 근접도 검증부를 포함하여 이루어질 수 있다.
또한, 상기 정보 검증부는 상기 근접도를 반영함과 동시에, 상기 차량 충돌 위치를 중심으로 기설정된 화각(영상 각도)을 상기 지도맵에 더 맵핑하여 상기 화각의 범위안에 선택된 상기 주변 차량을 더 반영하여 상기 정보 유효성이 높은 차량인 것으로 간주하는 화각 검증부를 더 포함하여 이루어질 수 있다.
또한, 상기 정보 검증부는 상기 근접도 또는 상기 화각의 범위를 반영함과 동시에, 상기 주행 정보로부터 추출된 진행 방향을 상기 지도맵에 더 맵핑하여 추출된 상기 차량 충돌 위치로 향하는 정방향인 주행 차량들을 더 반영하여 상기 정보 유효성이 높은 차량인 것으로 간주하는 제1 진행 방향 검증부를 더 포함하여 이루어질 수 있다.
또한, 상기 사고 영상 획득부는 상기 정보 유효성의 확인 후, 화상 요청 신호를 생성하여 상기 정보 유효성이 높은 주변 차량으로 전송하는 화상 요청부; 상기 전송에 대응하여 상기 사고 영상을 해당하는 상기 주변 차량으로부터 수신하는 사고 영상 수신부; 및 수신된 상기 사고 영상을 디스플레이하는 사고 영상 표시부를 포함하여 이루어질 수 있다.
또한, 상기 사고 영상 획득부는 화상 요청 신호를 생성하여 사고 수집 서버로 전송하고, 상기 전송에 대응하여 상기 사고 수집 서버로부터 CC TV 영상 또는 상기 차량과 주변 차량의 위치에 기반하여 획득한 상기 사고 영상을 수신하는 서버 영상 수집부를 포함하여 이루어질 수 있다.
또한, 상기 정보 검증부는 상기 적어도 하나 이상의 주변 차량으로부터 소정의 화각 정보들을 더 획득하고, 획득된 상기 화각 정보들을 지도맵에 맵핑하여 상기 화각 정보 중 상기 차량 충돌 위치를 담고 있는 제1 화각 정보를 상기 근접도에 더 반영하여 상기 정보 유효성이 높은 것으로 간주하는 주변차량 화각 검증부를 더 포함하여 이루어질 수 있다.
또한, 상기 정보 검증부는 상기 근접도 또는 상기 제1 화각 정보를 반영함과 동시에, 상기 주행 정보로부터 추출된 진행 방향을 상기 지도맵에 더 맵핑하여 추출된 상기 차량 충돌 위치로 향하는 정방향인 주행 차량들을 더 반영하여 상기 정보 유효성이 높은 차량인 것으로 간주하는 제2 진행 방향 검증부를 더 포함하여 이루어질 수 있다.
또한, 상기 사고 영상 획득부는 상기 정보 유효성의 확인 후, 화상 요청 신호를 생성하여 상기 정보 유효성이 높은 주변 차량으로 전송하는 화상 요청부; 상기 전송에 대응하여 상기 사고 영상을 해당하는 상기 주변 차량으로부터 수신하는 사고 영상 수신부; 및 수신된 상기 사고 영상을 디스플레이하는 사고 영상 표시부를 포함하여 이루어질 수 있다.
또한, 본 발명의 다른 일 실시예에 따르면, (a) 차량에 설치된 센서들을 이용하여 차량 충돌 위치를 충돌 감지부에서 감지하는 단계; (b) 상기 차량 충돌 위치의 감지에 따라, 적어도 하나 이상의 주변 차량으로부터 획득한 차량 위치와 주행 정보를 이용하여 사고 영상을 획득하기 위한 정보 유효성을 정보 검증부에서 검증하는 단계; 및 (c) 상기 정보 유효성의 검증 결과, 기설정된 수치보다 상기 정보 유효성이 높은 주변 차량으로부터 상기 사고 영상을 사고 영상 획득부에서 획득하는 단계를 포함하는 사고 영상 취득 방법이 제공된다.
여기서, 상기 (b) 단계는 (b-1) 상기 감지에 대응한 정보 요청 신호를 정보 요청 송신부에서 생성하여 무선 네트워크를 통해 상기 주변 차량으로 전송하는 단계; (b-2) 상기 정보 요청 신호에 대응하여 해당하는 상기 주변 차량으로부터 정보 제공 허락 신호를 응답 신호 수신부에서 수신하는 단계; 및 (b-3) 상기 정보 제공 허락 신호를 보낸 주변 차량으로부터 상기 주변 차량 위치와 주행 정보를 유효 정보 획득부에서 획득하는 단계를 포함하여 이루어질 수 있다.
또한, 상기 (b) 단계는 (b-4) 상기 적어도 하나 이상의 주변 차량 위치와 상기 차량의 위치를 지도맵에 맵핑하여 상기 차량 충돌 위치로부터 근접도가 높은 순위, 상기 차량 충돌 위치를 중심으로 기설정된 화각(영상 각도)의 범위 및 상기 주변 차량의 진행 방향 중 적어도 하나 이상을 고려하여 상기 정보 유효성을 검증하는 단계를 더 포함하여 이루어질 수 있다.
또한, 상기 (c) 단계는 (c-1) 상기 정보 유효성의 확인 후, 화상 요청 신호를 화상 요청부에서 생성하여 상기 정보 유효성이 높은 주변 차량으로 전송하는 단계; (c-2) 상기 전송에 대응하여 사고 영상 표시부에 의해 상기 사고 영상을 해당하는 상기 주변 차량으로부터 수신하는 단계; 및 (c-3) 수신된 상기 사고 영상을 디스플레이 화면에 표시하는 단계를 포함하여 이루어질 수 있다.
또한, 상기 (c) 단계는 (c-4) 화상 요청 신호를 사고 영상 획득부에서 생성하여 사고 수집 서버로 전송하고, 상기 전송에 대응하여 상기 사고 수집 서버로부터 CC TV 영상 또는 상기 차량과 주변 차량의 위치에 기반하여 획득한 상기 사고 영상을 서버 영상 수집부에서수신하는 단계를 더 포함하여 이루어질 수 있다.
또한, 상기 (b) 단계는 (b-5) 상기 적어도 하나 이상의 주변 차량으로부터 화각 정보들을 더 획득하고, 획득된 상기 화각 정보들을 지도맵에 맵핑하여 상기 화각 정보 중 상기 차량 충돌 위치를 담고 있는 제1 화각 정보를 추출하고, 추출된 상기 제1 화각 정보, 상기 근접도가 높은 순위 및 상기 주변 차량의 진행 방향 중 적어도 하나 이상을 고려하여 상기 정보 유효성을 검증하는 단계를 더 포함하여 이루어질 수 있다.
또한, 상기 (c) 단계는 (c-5) 화상 요청 신호를 서버 영상 수집부에서 생성하여 사고 수집 서버로 전송하고, 상기 전송에 대응하여 상기 사고 수집 서버로부터 CC TV 영상 또는 상기 차량과 주변 차량의 위치에 기반하여 획득한 상기 사고 영상을 서버 영상 수집부에서 수신하는 단계를 더 포함하여 이루어질 수 있다.
이상과 같이, 본 실시예들은 기존 기술 대비 다음과 같은 장점들이 있다.
(i) 첫 번째, 주변에서 촬영된 화상 정보로 3자 관점에서 사고 사실을 명확히 분석할 수 있다.
즉, 사고는 움직이는 물체간 발생되기 때문에 기존의 경우 자기 차량이 움직이므로 사고 정황을 아는데 도움이 되지만 사고 시점을 명확히 알 수 없는 관계로 주변에 촬영된 영상을 활용하면 사고 시점을 명확히 구분 가능하다.
(ii) 두 번째, 3자 관점의 화상 정보를 수집 및 보관하여, 증인이 잘못 판단한 오판 사례를 해소할 수 있다.
(iii) 세 번째, 주변 차량의 영상을 활용함에 따라 각 차량별로 증가되는 부가 장치(두개 이상의 블랙 박스 장착 등)를 감소시켜 차량 사고로 인한 비용을 줄일 수 있다.
도 1은 일 실시예에 따른 차량내의 사고 영상을 취득하기 위한 시스템을 개략적으로 나타낸 블럭도이다.
도 2는 도 1의 사고 영상 취득 장치의 일 실시예에 따른 정보 검증부의 구성을 나타낸 블럭도이다.
도 3은 도 2에서 취득한 차량과 주변 차량의 위치 정보를 지도 맵에 맵핑한 결과를 나타낸 도면이다.
도 4는 도 2에서 취득한 화각의 상태를 지도 맵에 맵핑한 결과를 나타낸 도면이다.
도 5는 도 1의 사고 영상 취득 장치의 다른 일 실시예에 따른 정보 검증부 의 구성을 나타낸 블럭도이다.
도 6은 일 실시예에 따른 사고 영상 취득 방법을 예시적으로 나타낸 순서도이다.
도 7은 도 6에 도시된 사고 영상 취득 방법의 S120 단계를 보다 상세하게 나타낸 순서도이다.
도 8은 사고 영상 취득 방법의 S130 단계를 보다 구체적으로 나타낸 순서도이다.
도 9는 도 7의 S124 단계의 정보 유효성 검증에 대한 일례를 나타낸 순서도이다.
이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
<시스템의 예>
도 1은 일 실시예에 따른 차량내의 사고 영상을 취득하기 위한 시스템을 개략적으로 나타낸 블럭도이다.
도 1를 참조하면, 일 실시예에 따른 시스템(1000)은 사고 발생한 차량(101) 내에 설치되는 사고 영상 취득 장치(100), 상기 차량(101)의 주변에 위치한 적어도 하나 이상의 주변 차량(201) 내에 설치되는 주변 차량 장치(200) 및 앞서 설명한 사고 영상 취득 장치(100)와 주변 차량 장치(200)간 무선 네트워크로 연결된 사고 수집 서버(300)를 포함할 수 있다.
먼저, 사고 영상 취득 장치(100)는 차량(101)내에 설치내에 설치되어 주변 차량(201)으로부터 정확한 사고 영상을 취득하는 역할을 한다. 이를 위해, 사고 영상 취득 장치(100)는 충돌 감지부(110), 정보 검증부(120) 및 사고 영상 획득부(130)를 포함할 수 있다.
여기서, 충돌 감지부(110)는 차량(101)에 설치된 센서, 예컨대 감지 센서(110a)들을 이용하여 차량 충돌 위치를 감지할 수 있다. 통상, 차량 사고는 다른 차와 충돌하여 발생되며, 이런 경우 충돌이 발생한 차량 위치를 감지 센서(110a)가 감지하게 된다.
이때, 차량 충돌을 감지하는 감지 센서(110a)는 차량(101)의 여러 위치에 설치될 수 있는데 예를 들면, 양 측면에 설치되어 해당 좌 측면이 다른 차와 충돌할 경우 그 울림 크기와 지점을 감지함으로써, 차량 충돌 위치를 감지하게 된다.
그러나, 위와 같은 감지 센서(110a)의 위치에 한정되지 않고, 차량(101)의 전후면 모서리와 같은 차량(101)의 위치에서도 설치될 수 있음은 물론이다. 또한, 충돌한 위치에 가까운 감지 센서(110a)만이 충돌 위치를 감지하지 않고 다른 위치에 놓인 감지 센서(110a)에서도 충돌 위치를 감지할 수도 있다.
이와 같이, 차량 충돌을 감지하면, 차량(101)에 설치된 블랙 박스를 통해 사고 위치 영상을 확인하는 것이 통상적이나, 차량 충돌을 확인하지 못할 수도 있다. 이를 위하여, 주변에 있는 주변 차량(201)의 도움을 받아 사고 영상을 확보할 수 있다. 이러한 사고 영상을 확보하기 전에, 어떤 주변 차량(201)의 영상이 정확한지를 검증할 필요가 있다.
즉, 일 실시예에서, 정보 검증부(120)는 충돌 감지부(110)의 감지에 대응하여 적어도 하나 이상의 주변 차량 장치(200)로부터 차량 위치와 주행 정보를 무선 네트워크를 통해 획득할 수 있다.
이때, 무선 네트워크는 예컨대, 근거리 통신망으로 연결된 네트워크로서, WiFi 네트워크, 블루투스 네트워크와 같은 근거리 통신일 수 있다. 이러한 무선 네트워크를 통해 정보 검증부(120)는 주변 차량 장치(200)로부터 차량 위치와 주행 정보를 획득하게 된다.
이에 따라, 정보 검증부(120)는 주변 차량 장치(200)로부터 획득한 차량 위치와 주행 정보를 이용하여 사고 영상을 획득하기 위한 정보 유효성을 검증한다. 이때, 정보 유효성을 검증하는 이유는 사고가 발생한 차량 주변에 많은 주변 차량(201)이 운행되고 있는 관계로, 어떤 주변 차량(201)이 정확한 사고 영상을 가지고 있는지를 알 수 없기 때문이다.
이때, 정보 유효성은 차량 위치와 주행 정보를 지도맵에 맵핑하여 도출되는 근접도, 화각의 크기(화상의 각도 크기) 및 주변 차량(201)의 진행 방향 중 적어도 하나 이상을 고려하여 검증하게 되는데 이에 대해서는 차후에 설명하기로 한다.
이로써, 일 실시예에서, 사고 영상 획득부(130)는 정보 검증부(120)의 정보 유효성 검증 결과, 기설정된 수치보다 정보 유효성이 높을 경우, 정보 유효성이 높은 주변 차량(201)을 추출해낼 수 있다.
따라서, 사고 영상 획득부(130)는 정보 유효성이 높은 주변 차량 장치(200)로 사고 영상 요청을 전송하고, 이에 대응하여 해당된 주변 차량 장치(200)로부터 영상 정보, 예컨대 사고 영상을 비로소 획득하게 된다.
다음으로, 일 실시예에서, 주변 차량 장치(200)는 앞서 설명한 사고 영상 취득 장치(110)의 정보 요청에 대응하여 주변 차량(201)의 위치와 주행 정보를 사고 영상 취득 장치(110)로 전송할 수 있다.
정보 요청 이후, 주변 차량 장치(200)는 사고 영상 요청을 사고 영상 취득 장치(100)로부터 접수하면, 사고 영상 요청에 대응하여 자신의 차량(201)에서 촬영한 영상을 사고 영상 취득 장치(100)로 전송할 수 있게 된다. 이런 경우는 사고가 발생한 차량(101)의 사고 지점을 정확하게 촬영된 영상을 가진 경우에 자신의 영상을 전송하게 될 것이다.
이때, 사고 영상 요청에 대응하여 자신의 영상을 전송한다는 것은 정보 유효성 검증에서 매우 높은 평가를 받아 충돌 지점을 담을 영상일 확률이 매우 높음을 의미한다.
마지막으로, 일 실시예에서, 사고 수집 서버(300)는 화상 요청 신호를 사고 영상 취득 장치(100)로부터 전송받을 수 있다. 이러한 화상 요청 신호는 모든 주변 차량 장치(200)로부터 정확한 사고 영상을 취득하지 못할 경우에 발생되는 신호일 수 있다.
이러한 화상 요청 신호는 사고가 발생한 차량(101)의 위치 정보를 포함한 운전자 정보 등을 포함할 수 있다.
이에 따라, 사고 수집 서버(300)는 사고 영상 취득 장치(100)로부터 획득한 사고 차량(101)의 위치 정보에 기초하여 주변 차량 장치(100)로부터 사고 영상이 있는지를 물어 사고 영상을 획득하거나 사고 차량(101)의 주변에 설치된 CC TV(400)를 통해 촬영된 사고 영상이 있는지를 확인하게 된다.
확인 결과, 사고 영상이 존재하면, 사고 수집 서버(300)는 주변 차량 장치(200) 또는 CC TV(400)를 통해 촬영된 사고 영상을 앞서 설명한 화상 요청 신호에 대응하여 사고 영상 취득 장치(110)로 전송할 수 있게 된다.
이로써, 사고 영상 취득 장치(100)는 주변 차량 장치(200)로부터 사고 영상을 취득하지 못하거나 보다 정확한 사고 영상을 확보하기 위하여 사고 수집 서버(300)로부터 사고 영상을 획득할 수 있게 된다.
이와 같이, 본 실시예에서는 주변 차량(201)으로부터 획득한 주변 차량(201)의 위치와 주행 정보를 활용해 자신의 차량(101)에서 미확보된 사고 영상을 주변 차량 또는 사고 수집 서버(130)를 통해 확보함으로써, 정확한 사고 원인을 규명하는데 매우 도움을 줄 수 있을 것이다.
<사고 영상 취득 장치의 예>
도 2는 도 1의 사고 영상 취득 장치의 일 실시예에 따른 정보 검증부의 구성을 나타낸 블럭도이다.
도 2를 참조하면, 일 실시예에서, 사고 영상 취득 장치(100)의 정보 검증부(120a)는 정보 요청 송신부(121), 응답 신호 수신부(122), 유효 정보 획득부(123), 근접도 검증부(124), 화각 검증부(125) 및 제1 진행 방향 검증부(126)를 포함할 수 있다.
그리고, 사고 영상 취득 장치(100)의 사고 영상 획득부(130)는 화상 요청부(131), 사고 영상 수신부(132), 사고 영상 표시부(133) 및 서버 영상 수집부(134)를 포함할 수 있다.
먼저, 정보 요청 송신부(121)는 충돌 감지부(110)의 감지에 대응하여 정보 요청 신호를 생성할 수 있다. 생성된 정보 요청 신호는 무선 네트워크를 통해 주변 차량(201)의 주변 차량 장치(200)로 전송될 수 있다.
다음으로, 응답 신호 수신부(122)는 정보 요청 송신부(121)의 정보 요청 신호에 대응하여 해당하는 주변 차량(201)의 주변 차량 장치(200)로부터 정보 제공 허락 신호를 수신할 수 있다.
따라서, 유효 정보 획득부(123)는 정보 제공 허락 신호를 보낸 적어도 하나 이상의 주변 차량(201)의 주변 차량 장치(200)로부터 주변 차량 위치와 주행 정보를 도 1에서 설명한 바와 같이 획득할 수 있게 된다.
이때, 획득된 주행 정보는 주변 차량(201)의 출발지, 목적지 뿐만 아니라 운전자의 운전 정보 등을 포함할 수 있다.
이와 같이, 주변 차량 위치와 주행 정보를 수집하면, 근접도 검증부(124)는 도 3에 도시된 바와 같이 유효 정보 획득부(123)에 의해 획득한 적어도 하나 이상의 주변 차량(201) 위치와 주행 정보를 지도 맵에 맵핑하고, 차량(101)의 위치를 함께 맵핑할 수 있다.
지도 맵에 각 위치들이 맵핑되면, 자신의 차량(101)을 중심으로 주변 차량(201)의 위치를 정확히 확인 가능하며, 더욱이, 자신의 차량(101)으로부터 떨어진 각 주변 차량(201)의 근접도(102, 거리 정도)를 알 수 있게 된다.
이로써, 근접도 검증부(124)는 자신의 차량(101)과 각 주변 차량(201)간의 거리, 예컨대 근접도(102)에 기반하여 충돌 감지부(110)에서 확인된 차량 충돌 위치로부터 근접도(102)가 높은 순위를 갖는 주변 차량(201)들을 추출해냄으로써, 추출된 주변 차량(201)들이 정보 유효성이 높은 차량인 것으로 간주할 수 있다.
다시 말해, 이때의 정보 유효성은 사고 차량(101)과 주변 차량(201)간 짧은 거리안에 있는 주변 차량(201)들이 사고 영상을 가지고 있을 확률이 높음을 시사한다고 할 수 있을 것이다.
그러나, 비록 사고 차량(101)과의 근접 정도가 비교적 짧은 주변 차량(201)이라 할지라도 사고 영상을 가지고 있다고 장담할 수 없다.
예를 들면, 차량(101)의 좌측 측면에서 충돌 사고가 발생할 경우, 그 반대편의 우측 측면에 근접하여 위치한 주변 차량(201)보다 좌측 측면에서 조금 더 떨어진 주변 차량(201)이 보다 정확한 사고 영상을 가질 수도 있기 때문에 위와 같은 근접도와 더불어 다른 정보 유효성을 더 참고할 수 있다.
예를 들면, 사고 차량(101)의 화각, 주변 차량(201)의 화각 또는 주변 차량(201)의 진행 방향을 참고할 수 있다.
이를 위해, 일 실시예에서, 화각 검증부(125)는 근접도를 반영함과 동시에, 도 4에 도시된 바와 같이 차량 충돌 위치를 중심으로 기설정된 화각(103, 영상 각도)을 지도맵에 더 맵핑하여 화각의 범위안에 선택된(들어온) 주변 차량(201)을 찾아낼 수 있다.
이와 같이, 화각 검증부(125)는 차량(101)의 차량 충돌 위치로부터 만들어진 화각(103)의 범위 안에 들어온 주변 차량(201)을 찾아냄과 동시에 찾아진 주변 차량(201)이 근접도(102)가 높으면 정보 유효성이 높은 것으로 간주할 수 있다. 이때, 근접도(102)를 제외한 화각만을 반영하여 정보 유효성을 검증할 수도 있음은 물론이다.
다음으로, 제1 진행 방향 검증부(126)는 앞서 설명한 근접도(102) 또는 화각의 범위를 반영함과 동시에, 주변 차량(201)의 진행 방향을 더 반영하여 정보 유효성을 검증할 수 있다.
즉, 제1 진행 방향 검증부(126)는 미리 획득한 주행 정보로부터 진행 방향을 추출한다. 이때, 추출된 주행 정보는 목적지, 도착지 및 현재 위치의 도로 위치 등을 종합하면 충분히 해당하는 주변 차량(201)의 진행 방향을 알 수 있을 것이다.
따라서, 일 실시예에서, 제1 진행 방향 검증부(126)는 추출된 진행 방향을 지도맵에 더 맵핑하고, 맵핑된 주변 차량(201)의 진행 방향과 차량 충돌 위치간 방향성을 다시 확인하게 된다.
예를 들면, 차량 충돌 위치가 좌측 측면일 경우, 맵핑된 주변 차량(201)의 진행 방향이 사고 차량(101)의 좌측 측면으로 향할 경우 정방향인 것을 앞서 설명한 근접도(102) 또는 화각(103)의 범위와 함께 정보 유효성에 더 반영함으로써, 정보 유효성이 높은 것으로 간주할 수 있다.
이때, 주변 차량(201)이 정방향으로 간주되면 정보 유효성이 높은 이유는 통상 영상을 촬영하는 장치, 예컨대 블랙박스가 주변 차량(201)의 정면에 설치될 확률이 높기 때문이다.
이와 같이, 주변 차량(201)이 근접도(102)가 좋고, 화각(103) 범위 안에 있으며, 진행 방향성이 정방향일 경우에는 정보 유효성이 매우 높은 관계로 정확한 사고 영상을 가지고 있을 확률이 높다.
이에 따라, 일 실시예에서, 사고 영상 획득부(130)의 화상 요청부(131)는 앞서 설명한 정보 유효성을 검증한 근접도 검증부(124), 화각 검증부(125) 및 제1 진행 방향 검증부(126)에서 처리된 정보 유효성을 확인하고, 이 결과에 대응하여 화상 요청 신호를 생성할 수 있다.
이 처럼, 화상 요청 신호를 생성하면, 화상 요청부(131)는 생성된 화상 요청 신호를 무선 네트워크, 예컨대 근거리 통신을 통해 정보 유효성이 높은 주변 차량으(201)로 전송하게 된다.
다음으로, 사고 영상 수신부(132)는 화상 요청부(131)의 전송에 대응하여 촬영된 영상, 예컨대 사고 영상을 해당하는 주변 차량(201)으로부터 근거리 통신을 통해 수신할 수 있다. 수신된 사고 영상은 사고 영상 표시부(133)의 디스플레이 화면에 표시될 수 있다.
이로써, 사고 차량(101)의 운전자는 사고 영상 표시부(133)의 디스플레이 화면에 표시된 사고 영상을 확인함으로써, 자신의 차량(101)의 영상으로부터 알 수 없는 사고 상황을 정확히 알 수 있을 것이다.
이때, 취득한 사고 영상에서 사고 상황을 알 수 없는 경우에는 앞서 설명한 근접도, 화각 및 진행 방향 중 적어도 하나 이상으로부터 다음의 우선 순위에 해당된 주변 차량(201)으로부터 사고 영상을 수집할 수 있다. 이와 같이, 우선 순위에 따라 사고 영상이 수집되면, 찾고자 하는 사고 영상을 쉽게 획득할 수 있을 것이다.
이에 더하여, 사고 수집 서버(300)를 통해 사고 영상을 획득할 수도 있다. 즉, 일 실시예에서, 서버 영상 수집부(134)는 화상 요청 신호를 생성하여 사고 수집 서버(300)로 전송하고, CC TV 영상 또는 차량(101)과 주변 차량(201)의 위치에 기반하여 획득한 사고 영상을 사고 수집 서버(300)로부터 수신할 수 있다.
이때, 사고 영상 획득에 필요한 차량(101)의 위치는 화상 요청 신호에 실려져 전송될 수 있다. 반면, 주변 차량(201)의 위치는 주변 차량 장치(200)로부터 전송받거나 본 서비스에 가입된 차량을 조회하여 주변 차량 장치(200)를 확인 후에 주변 차량 장치(200)로부터 전송받을 수 있다.
이로써, 사고 수집 서버(300)는 차량(101)과 주변 차량(201)의 위치에 기반하여 정확한 사고 영상을 획득한 후, 이를 서버 영상 수집부(134)로 전송함으로써, 정확한 사고 상황을 파악하는데 도움을 줄 수 있을 것이다.
이상에서는 차량(101)의 화각 범위를 활용했지만, 주변 차량(201)의 화각을 활용하여 정보 유효성을 더 검증할 수도 있다. 이를 살펴보면 다음과 같다.
도 5는 도 1의 사고 영상 취득 장치의 다른 일 실시예에 따른 정보 검증부 의 구성을 나타낸 블럭도이다.
도 5를 참조하면, 일 실시예에서, 사고 영상 취득 장치(100)의 정보 검증부(120b)는 정보 요청 송신부(121), 응답 신호 수신부(122), 유효 정보 획득부(123), 근접도 검증부(124), 주변차량 화각 검증부(127) 및 제2 진행 방향 검증부(128)를 포함할 수 있다.
여기서, 정보 요청 송신부(121), 응답 신호 수신부(122), 유효 정보 획득부(123) 및 근접도 검증부(124)는 도 2에서 충분히 설명하였으므로 그 설명은 생략하지만 본 실시예에서도 동일하게 적용될 수 있음은 물론이다.
그리고, 일 실시예에서, 사고 영상 취득 장치(100)의 사고 영상 획득부(130)는 화상 요청부(131), 사고 영상 수신부(132), 사고 영상 표시부(133) 및 서버 영상 수집부(134)를 포함할 수 있다. 이러한 각 구성도 도 2에서 충분히 설명하였다.
이하에서는, 주변차량 화각 검증부(127) 및 제2 진행 방향 검증부(128)를 중심으로 살펴보기로 한다.
일 실시예에서, 주변차량 화각 검증부(127)는 도 2의 화각 검증부(125)의 차량(101) 화각 대신, 적어도 하나 이상의 주변 차량(201)으로부터 소정의 화각 정보들을 획득할 수 있다. 획득된 화각 정보는 주변 차량(201)에 설치된 카메라 또는 블랙박스의 촬영 각도를 의미한다.
이에 따라, 주변차량 화각 검증부(127)는 획득한 화각 정보들을 지맵에 맵핑하여 화각 정보 중 차량 충돌 위치를 담고 있는 제1 화각 정보를 근접도에 더 반영함으로써, 정보 유효성이 높은 것으로 간주할 수 있다.
다시 말해, 근접도와 제1 화각 정보안에 차량 충돌 위치가 존재할 경우에는 정보 유효성이 매우 높은 것으로 간주할 수 있다.
반면, 일 실시예에서, 제2 진행 방향 검증부(128)는 앞서 설명한 근접도 또는 제1 화각 정보를 반영함과 동시에, 주행 정보(201)로부터 추출된 진행 방향을 지도맵에 더 맵핑하고, 이를 통해 추출된 차량 충돌 위치로 향하는 정방향인 주행 차량들을 더 반영하여 정보 유효성이 높은 차량인 것으로 간주할 수 있다.
이러한 제2 진행 방향 검증부(128)는 앞서 제1 진행 방향 검증부(126)의 정보 유효성 검증과 비교하여 화각 정보의 반영 형태가 다를뿐 실질적으로 동일하므로 그 설명은 생략하기로 한다.
이와 같이, 정보 유효성의 검증으로 제1 화각 정보를 반영함으로써, 보다 정확한 사고 영상을 취득하는데 도움을 줄 수 있을 것이다.
<사고 영상 취득 방법의 예>
도 6은 일 실시예에 따른 사고 영상 취득 방법을 예시적으로 나타낸다. 도 6을 참조하면, 일 실시예에 따른 사고 영상 취득 방법(S100)은 주변 차량(201)의 도움을 받아 보다 정확한 사고 영상을 취득하기 위하여 S110 단계 내지 S130 단계를 포함하여 이루어진다.
먼저, S110 단계는 차량(101)에 설치된 센서, 예컨대 감지 센서(110a)들을 이용하여 차량 충돌 위치를 충돌 감지부(110)에서 감지하는 역할을 한다.
이때, 차량 충돌을 감지하는 감지 센서(110a)는 차량(101)의 여러 위치에 설치될 수 있는데 예를 들면, 양 측면에 설치되어 해당 좌 측면이 다른 차와 충돌할 경우 그 울림 크기와 지점을 감지함으로써, 차량 충돌 위치를 감지하게 된다. 그러나, 위와 같은 감지 센서(110a)의 위치에 한정되지 않는다.
이와 같이, 차량 충돌을 감지하면, 차량(101)에 설치된 블랙 박스를 통해 사고 위치 영상을 확인하는 것이 통상적이나, 차량 충돌을 확인하지 못할 수도 있다. 이를 위하여, 주변에 있는 주변 차량(201)의 도움을 받아 사고 영상을 확보할 수 있다. 이러한 사고 영상을 확보하기 전에, 어떤 주변 차량(201)의 영상이 정확한지를 검증할 필요가 있다.
즉, 일 실시예에서, S120 단계는 충돌 감지부(110)의 감지에 대응하여 적어도 하나 이상의 주변 차량 장치(200)로부터 차량 위치와 주행 정보를 무선 네트워크를 통해 정보 검증부(120)에서 획득하는 역할을 한다.
이때, 무선 네트워크는 예컨대, 근거리 통신망으로 연결된 네트워크로서, WiFi 네트워크, 블루투스 네트워크와 같은 근거리 통신일 수 있다. 이러한 무선 네트워크를 통해 정보 검증부(120)는 주변 차량 장치(200)로부터 차량 위치와 주행 정보를 획득하게 된다.
이에 따라, S120 단계는 주변 차량 장치(200)로부터 획득한 차량 위치와 주행 정보를 이용하여 사고 영상을 획득하기 위한 정보 유효성을 정보 검증부(120)에서 검증하게 된다.
이때, 정보 유효성을 검증하는 이유는 사고가 발생한 차량 주변에 많은 주변 차량(201)이 운행되고 있는 관계로, 어떤 주변 차량(201)이 정확한 사고 영상을 가지고 있는지를 알 수 없기 때문이다.
이때, 정보 유효성은 차량 위치와 주행 정보를 지도맵에 맵핑하여 도출되는 근접도(102), 화각(103)의 크기(화상의 각도 크기) 및 주변 차량(201)의 진행 방향 중 적어도 하나 이상을 고려하여 검증하게 되는데 이에 대해서는 차후에 설명하기로 한다.
이로써, 일 실시예에서, S130 단계는 정보 검증부(120)의 정보 유효성 검증 결과, 기설정된 수치보다 정보 유효성이 높을 경우, 정보 유효성이 높은 주변 차량(201)을 사고 영상 획득부(130)에서 추출해낼 수 있다.
따라서, S130 단계는 사고 영상 획득부(130)에서 정보 유효성이 높은 주변 차량 장치(200)로 사고 영상 요청을 전송하고, 이에 대응하여 해당된 주변 차량 장치(200)로부터 영상 정보, 예컨대 사고 영상을 사고 영상 획득부(130)에서 획득하게 된다.
이와 같이, 정보 유효성이 입증된 주변 차량 장치(200)로부터 영상을 취득하게 되면 보다 정확한 사고 영상을 취득하는데 도움을 줄 수 있다.
이하에서, S120 단계 및 S130 단계에 대하여 보다 상세히 설명하고자 한다.
도 7은 도 6에 도시된 사고 영상 취득 방법의 S120 단계를 보다 상세하게 나타낸 순서도이고, 도 8은 사고 영상 취득 방법의 S130 단계를 보다 구체적으로 나타낸 순서도이다.
도 7를 참조하면, 일 실시예에 따른 S120 단계는 정확한 정보 유효성 검증을 위하여 S121 단계 내지 S124 단계를 포함할 수 있다.
먼저, S121 단계는 충돌 감지부(110)의 감지에 대응하여 정보 요청 신호를 정보 요청 송신부(121)에서 생성할 수 있다. 생성된 정보 요청 신호는 무선 네트워크를 통해 주변 차량(201)의 주변 차량 장치(200)로 전송된다.
이후, S122 단계는 정보 요청 송신부(121)의 정보 요청 신호에 대응하여 해당하는 주변 차량(201)의 주변 차량 장치(200)로부터 정보 제공 허락 신호를 응답 신호 수신부(122)에서 수신할 수 있다. 이때, 정보 제공 허락 신호는 긍정의 응답을 의미한다.
따라서, S123 단계는 정보 제공 허락 신호를 보낸 적어도 하나 이상의 주변 차량(201)의 주변 차량 장치(200)로부터 주변 차량 위치와 주행 정보를 유효 정보 획득부(123)에서 획득하게 된다.
이때, 획득된 주행 정보는 주변 차량(201)의 출발지, 목적지 뿐만 아니라 운전자의 운전 정보 등을 포함할 수 있다.
마지막으로, S124 단계는 S123 단계의 주변 차량 위치와 주행 정보 수집 이후, 적어도 하나 이상의 주변 차량 위치와 차량(101)의 위치를 지도맵에 맵핑하여 차량 충돌 위치로부터 근접도(102)가 높은 순위, 차량 충돌 위치를 중심으로 기설정된 화각(103, 영상 각도)의 범위 및 주변 차량(201)의 진행 방향 중 적어도 하나 이상을 고려하여 정보 유효성을 검증할 수 있다.
예를 들면, 지도 맵에 각 위치들이 맵핑되면, 자신의 차량(101)을 중심으로 주변 차량(201)의 위치를 정확히 확인 가능하며, 더욱이, 자신의 차량(101)으로부터 떨어진 각 주변 차량(201)의 근접도(102, 거리 정도)를 자연스럽게 알 수 있게 된다.
다른 예로서, S124 단계는 자신의 차량(101)과 각 주변 차량(201)간의 거리, 예컨대 근접도(102)에 기반하여 충돌 감지부(110)에서 확인된 차량 충돌 위치로부터 근접도(102)가 높은 순위를 갖는 주변 차량(201)들을 추출해냄으로써, 추출된 주변 차량(201)들이 정보 유효성이 높은 차량인 것으로 간주할 수 있다.
다시 말해, 이때의 정보 유효성은 사고 차량(101)과 주변 차량(201)간 짧은 거리안에 있는 주변 차량(201)들이 사고 영상을 가지고 있을 확률이 높음을 시사한다고 할 수 있을 것이다.
또한, 다른 예로서, S124 단계는 근접도(102)를 반영함과 동시에, 차량 충돌 위치를 중심으로 기설정된 화각(103, 영상 각도)을 지도맵에 더 맵핑하여 화각의 범위안에 선택된(들어온) 주변 차량(201)을 화각 검증부(125)에서 찾아낼 수 있다.
이와 같이, S124 단계는 차량(101)의 차량 충돌 위치로부터 만들어진 화각의 범위 안에 들어온 주변 차량(201)을 화각 검증부(125)에서 찾아냄과 동시에 찾아진 주변 차량(201)이 근접도(102)가 높으면 정보 유효성이 높은 것으로 간주할 수 있다.
이때, 근접도(102)를 제외한 화각(103)만을 반영하여 정보 유효성을 검증할 수도 있음은 물론이다.
또한, 다른 예로서, S124 단계는 앞서 설명한 근접도(102) 또는 화각(103)의 범위를 반영함과 동시에, 주변 차량(201)의 진행 방향을 더 반영하여 정보 유효성을 검증할 수 있다.
즉, S124 단계는 미리 획득한 주행 정보로부터 진행 방향을 제1 진행 방향 검증부(126)에서 추출한다. 이때, 추출된 주행 정보는 목적지, 도착지 및 현재 위치의 도로 위치 등을 종합하면 충분히 해당하는 주변 차량(201)의 진행 방향을 알 수 있을 것이다.
따라서, 일 실시예에서, S124 단계는 추출된 진행 방향을 제1 진행 방향 검증부(126)를 통해 지도맵에 더 맵핑하고, 맵핑된 주변 차량(201)의 진행 방향과 차량 충돌 위치간 방향성을 다시 확인하게 된다.
예를 들면, 차량 충돌 위치가 좌측 측면일 경우, 맵핑된 주변 차량(201)의 진행 방향이 사고 차량(101)의 좌측 측면으로 향할 경우 정방향인 것을 앞서 설명한 근접도(102) 또는 화각(103)의 범위와 함께 정보 유효성에 더 반영함으로써, 정보 유효성이 높은 것으로 간주할 수 있다.
이때, 주변 차량(201)이 정방향으로 간주되면 정보 유효성이 높은 이유는 통상 영상을 촬영하는 장치, 예컨대 블랙박스가 주변 차량(201)의 정면에 설치될 확률이 높기 때문이다.
이와 같이, 주변 차량(201)이 근접도(102)가 좋고, 화각(103) 범위안에 있으며, 진행 방향성이 정방향일 경우에는 정보 유효성이 매우 높은 관계로 정확한 사고 영상을 가지고 있을 확률이 높음을 알 수 있을 것이다.
이후, 도 8을 참조하면, 일 실시예에 따른 S130 단계는 앞서 설명한 바와 같이 검증된 정보 유효성을 이용하여 보다 정확한 사고 영상을 취득하고자 S131 단계 내지 S134 단계를 포함할 수 있다.
먼저, 일 실시예에서, S131 단계는 검증된 정보 유효성을 화상 요청부(131)에서 확인하고, 이 결과에 대응하여 화상 요청 신호를 생성할 수 있다.
이 처럼, 화상 요청 신호를 생성하면, S131 단계는 생성된 화상 요청 신호를 무선 네트워크, 예컨대 근거리 통신을 통해 정보 유효성이 높은 주변 차량(201)으로 전송하게 된다.
이후, S132 단계는 화상 요청부(131)의 전송에 대응하여 촬영된 영상, 예컨대 사고 영상을 해당하는 주변 차량(201)으로부터 근거리 통신을 통해 사고 영상 수신부(132)에서 수신할 수 있다.
이후, S133 단계는 수신된 사고 영상을 사고 영상 표시부(133)의 디스플레이 화면에 표시하는 역할을 한다.
이로써, 사고 차량(101)의 운전자는 사고 영상 표시부(133)의 디스플레이 화면에 표시된 사고 영상을 확인함으로써, 자신의 차량(101)의 영상으로부터 알 수 없는 사고 상황을 정확히 알 수 있을 것이다.
이때, 취득한 사고 영상에서 사고 상황을 알 수 없는 경우에는 앞서 설명한 근접도(102), 화각(103) 및 진행 방향 중 적어도 하나 이상으로부터 다음의 우선 순위에 해당된 주변 차량(201)으로부터 사고 영상을 수집할 수도 있다. 이와 같이, 우선 순위에 따라 사고 영상이 수집되면, 찾고자 하는 사고 영상을 쉽게 획득할 수 있을 것이다.
이에 더하여, 사고 수집 서버(300)를 통해 사고 영상을 더 획득할 수도 있다.
이를 위해, 일 실시예에 따른 S134 단계는 화상 요청 신호를 서버 영상 수집부(134)에서 생성한 후, 이를 사고 수집 서버(300)로 전송한다. 따라서, S134 단계는 CC TV(400)의 영상 또는 차량(101)과 주변 차량(201)의 위치에 기반하여 획득한 사고 영상을 사고 수집 서버(300)를 이용하여 사고 수집 서버(300)로부터 수신하게 된다.
이때, 사고 영상 획득에 필요한 차량(101)의 위치는 화상 요청 신호에 실려져 전송될 수 있다. 반면, 주변 차량(201)의 위치는 주변 차량 장치(200)로부터 전송받거나 본 서비스에 가입된 차량을 조회하여 주변 차량 장치(200)를 확인 후에 주변 차량 장치(200)로부터 전송받을 수 있다.
이로써, 사고 수집 서버(300)는 차량(101)과 주변 차량(201)의 위치에 기반하여 정확한 사고 영상을 획득한 후, 이를 서버 영상 수집부(134)로 전송함으로써, 정확한 사고 상황을 파악하는데 도움을 줄 수 있을 것이다.
한편, 앞서 설명한 S124 단계에서, 적어도 하나 이상의 주변 차량(201)으로부터 화각 정보들을 더 획득하고, 획득된 화각 정보들을 지도맵에 맵핑함으로써, 화각 정보 중 차량 충돌 위치를 담고 있는 제1 화각 정보를 추출할 수 있다.
이에 따라, S124 단계는 추출된 제1 화각 정보, 근접도(102)가 높은 순위 및 상기 주변 차량의 진행 방향 중 적어도 하나 이상을 고려하여 정보 유효성을 더 검증할 수 있다.
이때, 제1 화각 정보를 제외한 근접도(102) 및/또는 진행 방향 뿐만 아니라, 위치가 다른 차량(101)의 화각과 관려한 정보 유효성 검증에 대하여 충분히 설명하였다. 이와 같이, 제1 화각 정보를 통한 정보 유효성 검증으로 인하여 보다 정확한 사고 영상을 취득하는데 도움을 줄 수 있을 것이다.
<정보 유효성 검증의 예>
도 9는 도 7의 S124 단계의 정보 유효성 검증 예를 나타낸 순서도이다.
도 9를 참조하면, 일 실시예에 따른 S124 단계는 정보 검증부(120)에 의해 획득한 주변 차량(201)의 위치와 주행 정보를 지도 맵에 맵핑한다(S124a).
이후, S24 단계는 주변 차량 장치(200)가 블랙 박스에서 촬영된 영상을 공유할 것인지를 설정하게 되면, 이를 확인한다(S124b).
확인 결과, 블랙 박스에서 촬영된 영상을 공유한 것으로 사고 영상 취득 장치(100)에서 확인하게 되면, 지도맵에 맵핑된 자신의 차량(101)으로부터 다른 주변 차량들(201)간 근접도(102)를 구한다(S124c). 이때, 근접도(102), 즉 거리가 짧은 순으로 정보 유효성이 높은 것으로 인식하게 된다.
이후, S124 단계는 지도 맵에 맵핑된 소정의 화각 범위내에 주변 차량들이 들어와 있는지를 확인한다(S124d). 이때, 화각 범위는 180도 이내인 것이 바람직하다. 따라서, 이 화각 범위안에 있는 주변 차량들(201)을 정보 유효성이 높은 것으로 간주할 수 있다.
이후, S124 단계는 지도 맵에 맵핑된 주변 차량들(201)의 진행 방향을 확인한다(S124e). 즉, 해당하는 주변 차량(201)이 사고 차량(101)으로 향하는 정방인으로 진행하고 있는지 아니면, 역방향으로 진행하고 있는지를 확인한다.
이러한 진행 방향은 주행 정보에 포함된 목적지, 도착지 및 도로 정보와 같은 종합적인 결과를 이용하여 도출될 수 있다.
이와 같이, 근접도(102), 차량의 화각(103) 및 진행 방향을 고려하여 정보 유효성이 높은 주변 차량(201)을 찾아내어 해당하는 주변 차량(201)로 영상을 요청함으로써, 보다 정확한 사고 영상을 취득할 수 있게 된다(S130).
이상에서는 근접도(102), 차량의 화각(103) 및 진행 방향의 순서로 정보 유효성을 검증하였지만, 이에 한정되지 않고, 근접도(103), 진행 방향, 차량의 화각 (103)순서로 정보 유효성을 검증할 수 있을 뿐만 아니라, 하나 이상의 다른 순서 조합 또는 각 단독적으로도 정보 유효성을 입증할 수 있다.
이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.
상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭 티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.
프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서와 같이, 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고 다른 구체적인 형태로 실시할 수 있다는 것을 이해할 수 있을 것이다. 따라서 이상에서 기술한 실시예는 모든 면에서 예시적인 것이며 한정적이 아닌 것이다.
100 : 사고 영상 취득 장치 101 : 사고 차량
102 : 근접도 103 : 화각
110 : 충돌 감지부 120 : 정보 검증부
121 : 정보 요청 송신부 122 : 응답 신호 수신부
123 : 유효 정보 획득부 124 : 근접도 검증부
125 : 화각 검증부 126 : 제1 진행 방향 검증부
130 : 사고 영상 획득부 131 : 화상 요청부
132 : 사고 영상 수신부 133 : 사고 영상 표시부
134 : 서버 영상 수집부 200 : 주변 차량 장치
300 : 사고 수집 서버 400 : CC TV
1000 : 시스템

Claims (18)

  1. 차량에 설치된 센서들을 이용하여 차량 충돌 위치를 감지하는 충돌 감지부;
    상기 차량 충돌 위치의 감지에 따라, 적어도 하나 이상의 주변 차량으로부터 획득한 차량 위치와 주행 정보를 이용하여 사고 영상을 획득하기 위한 정보 유효성을 검증하는 정보 검증부; 및
    상기 정보 유효성의 검증 결과, 기설정된 수치보다 상기 정보 유효성이 높은 주변 차량으로부터 상기 사고 영상을 획득하는 사고 영상 획득부를 포함하고,
    상기 정보 검증부는,
    상기 적어도 하나 이상의 주변 차량 위치와 상기 차량의 위치를 지도맵에 맵핑하여 상기 차량 충돌 위치로부터 근접도가 높은 순위를 갖는 주변 차량들을 상기 정보 유효성이 높은 차량인 것으로 간주하는 근접도 검증부; 및
    상기 차량 충돌 위치를 중심으로 기설정된 화각(영상 각도)을 상기 지도맵에 더 맵핑하여 상기 화각의 범위안에 선택된 상기 주변 차량을 더 반영하여 상기 정보 유효성이 높은 차량인 것으로 간주하는 화각 검증부
    를 포함하는 차량내의 사고 영상 취득 장치.
  2. 제1항에 있어서,
    상기 정보 검증부는,
    상기 감지에 대응한 정보 요청 신호를 생성하여 무선 네트워크를 통해 상기 주변 차량으로 전송하는 정보 요청 송신부;
    상기 정보 요청 신호에 대응하여 해당하는 상기 주변 차량으로부터 정보 제공 허락 신호를 수신하는 응답 신호 수신부; 및
    상기 정보 제공 허락 신호를 보낸 주변 차량으로부터 상기 주변 차량 위치와 주행 정보를 획득하는 유효 정보 획득부;
    를 포함하는 차량내의 사고 영상 취득 장치.
  3. 삭제
  4. 삭제
  5. 제1항에 있어서,
    상기 정보 검증부는,
    상기 근접도 또는 상기 화각의 범위를 반영함과 동시에, 상기 주행 정보로부터 추출된 진행 방향을 상기 지도맵에 더 맵핑하여 추출된 상기 차량 충돌 위치로 향하는 정방향인 주행 차량들을 더 반영하여 상기 정보 유효성이 높은 차량인 것으로 간주하는 제1 진행 방향 검증부;
    를 더 포함하는 차량내의 사고 영상 취득 장치.
  6. 제5항에 있어서,
    상기 사고 영상 획득부는,
    상기 정보 유효성의 확인 후, 화상 요청 신호를 생성하여 상기 정보 유효성이 높은 주변 차량으로 전송하는 화상 요청부;
    상기 전송에 대응하여 상기 사고 영상을 해당하는 상기 주변 차량으로부터 수신하는 사고 영상 수신부; 및
    수신된 상기 사고 영상을 디스플레이하는 사고 영상 표시부;
    를 포함하는 차량내의 사고 영상 취득 장치.
  7. 제1항에 있어서,
    상기 사고 영상 획득부는,
    화상 요청 신호를 생성하여 사고 수집 서버로 전송하고, 상기 전송에 대응하여 상기 사고 수집 서버로부터 CC TV 영상 또는 상기 차량과 주변 차량의 위치에 기반하여 획득한 상기 사고 영상을 수신하는 서버 영상 수집부;
    를 포함하는 차량내의 사고 영상 취득 장치.
  8. 제1항에 있어서,
    상기 정보 검증부는,
    상기 적어도 하나 이상의 주변 차량으로부터 소정의 화각 정보들을 더 획득하고, 획득된 상기 화각 정보들을 지도맵에 맵핑하여 상기 화각 정보 중 상기 차량 충돌 위치를 담고 있는 제1 화각 정보를 상기 근접도에 더 반영하여 상기 정보 유효성이 높은 것으로 간주하는 주변차량 화각 검증부;
    를 더 포함하는 차량내의 사고 영상 취득 장치.
  9. 제8항에 있어서,
    상기 정보 검증부는,
    상기 근접도 또는 상기 제1 화각 정보를 반영함과 동시에, 상기 주행 정보로부터 추출된 진행 방향을 상기 지도맵에 더 맵핑하여 추출된 상기 차량 충돌 위치로 향하는 정방향인 주행 차량들을 더 반영하여 상기 정보 유효성이 높은 차량인 것으로 간주하는 제2 진행 방향 검증부;
    를 더 포함하는 차량내의 사고 영상 취득 장치.
  10. 제9항에 있어서,
    상기 사고 영상 획득부는,
    상기 정보 유효성의 확인 후, 화상 요청 신호를 생성하여 상기 정보 유효성이 높은 주변 차량으로 전송하는 화상 요청부;
    상기 전송에 대응하여 상기 사고 영상을 해당하는 상기 주변 차량으로부터 수신하는 사고 영상 수신부; 및
    수신된 상기 사고 영상을 디스플레이하는 사고 영상 표시부;
    를 포함하는 차량내의 사고 영상 취득 장치.
  11. (a) 차량에 설치된 센서들을 이용하여 차량 충돌 위치를 충돌 감지부에서 감지하는 단계;
    (b) 상기 차량 충돌 위치의 감지에 따라, 적어도 하나 이상의 주변 차량으로부터 획득한 차량 위치와 주행 정보를 이용하여 사고 영상을 획득하기 위한 정보 유효성을 정보 검증부에서 검증하는 단계; 및
    (c) 상기 정보 유효성의 검증 결과, 기설정된 수치보다 상기 정보 유효성이 높은 주변 차량으로부터 상기 사고 영상을 사고 영상 획득부에서 획득하는 단계를 포함하고,
    상기 (b) 단계는,
    상기 적어도 하나 이상의 주변 차량 위치와 상기 차량의 위치를 지도맵에 맵핑하여 상기 차량 충돌 위치로부터 근접도가 높은 순위를 갖는 주변 차량들 및 상기 차량 충돌 위치를 중심으로 기설정된 화각(영상 각도)을 상기 지도맵에 더 맵핑하여 상기 차량 충돌 위치를 중심으로 기설정된 화각(영상 각도)의 범위안에 선택된 주변 차량들을 고려하여 상기 정보 유효성을 검증하는 단계
    를 포함하는, 사고 영상 취득 방법.
  12. 제11항에 있어서,
    상기 (b) 단계는,
    (b-1) 상기 감지에 대응한 정보 요청 신호를 정보 요청 송신부에서 생성하여 무선 네트워크를 통해 상기 주변 차량으로 전송하는 단계;
    (b-2) 상기 정보 요청 신호에 대응하여 해당하는 상기 주변 차량으로부터 정보 제공 허락 신호를 응답 신호 수신부에서 수신하는 단계; 및
    (b-3) 상기 정보 제공 허락 신호를 보낸 주변 차량으로부터 상기 주변 차량 위치와 주행 정보를 유효 정보 획득부에서 획득하는 단계;
    를 포함하는 사고 영상 취득 방법.
  13. 제11항에 있어서,
    상기 (b) 단계는,
    (b-4) 상기 근접도 또는 상기 화각의 범위를 반영함과 동시에, 상기 차량 충돌 위치로 향하는 정방향인 주행 차량들을 더 고려하여 상기 정보 유효성을 검증하는 단계
    를 더 포함하는, 사고 영상 취득 방법.
  14. 제11항에 있어서,
    상기 (c) 단계는,
    (c-1) 상기 정보 유효성의 확인 후, 화상 요청 신호를 화상 요청부에서 생성하여 상기 정보 유효성이 높은 주변 차량으로 전송하는 단계;
    (c-2) 상기 전송에 대응하여 사고 영상 표시부에 의해 상기 사고 영상을 해당하는 상기 주변 차량으로부터 수신하는 단계; 및
    (c-3) 수신된 상기 사고 영상을 디스플레이 화면에 표시하는 단계;
    를 포함하는 사고 영상 취득 방법.
  15. 제11항에 있어서,
    상기 (c) 단계는,
    (c-4) 화상 요청 신호를 사고 영상 획득부에서 생성하여 사고 수집 서버로 전송하고, 상기 전송에 대응하여 상기 사고 수집 서버로부터 CC TV 영상 또는 상기 차량과 주변 차량의 위치에 기반하여 획득한 상기 사고 영상을 서버 영상 수집부에서수신하는 단계;
    를 더 포함하는 사고 영상 취득 방법.
  16. 제15항에 있어서,
    상기 (b) 단계는,
    (b-5) 상기 적어도 하나 이상의 주변 차량으로부터 화각 정보들을 더 획득하고, 획득된 상기 화각 정보들을 지도맵에 맵핑하여 상기 화각 정보 중 상기 차량 충돌 위치를 담고 있는 제1 화각 정보를 추출하고, 추출된 상기 제1 화각 정보, 상기 근접도가 높은 순위 및 상기 주변 차량의 진행 방향 중 적어도 하나 이상을 고려하여 상기 정보 유효성을 검증하는 단계;
    를 더 포함하는 사고 영상 취득 방법.
  17. 제11항에 있어서,
    상기 (c) 단계는,
    (c-5) 화상 요청 신호를 서버 영상 수집부에서 생성하여 사고 수집 서버로 전송하고, 상기 전송에 대응하여 상기 사고 수집 서버로부터 CC TV 영상 또는 상기 차량과 주변 차량의 위치에 기반하여 획득한 상기 사고 영상을 서버 영상 수집부에서 수신하는 단계;
    를 더 포함하는 사고 영상 취득 방법.
  18. 제11항 내지 제17항 중 어느 한 항에 따른 사고 영상 취득 방법을 실행하기 위한 컴퓨터 판독 가능한 기록매체.
KR1020150023597A 2015-02-16 2015-02-16 차량내의 사고 영상 취득 방법 및 장치, 그리고 이를 실행하는 컴퓨터 판독 가능한 기록 매체 KR101612836B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150023597A KR101612836B1 (ko) 2015-02-16 2015-02-16 차량내의 사고 영상 취득 방법 및 장치, 그리고 이를 실행하는 컴퓨터 판독 가능한 기록 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150023597A KR101612836B1 (ko) 2015-02-16 2015-02-16 차량내의 사고 영상 취득 방법 및 장치, 그리고 이를 실행하는 컴퓨터 판독 가능한 기록 매체

Publications (1)

Publication Number Publication Date
KR101612836B1 true KR101612836B1 (ko) 2016-04-15

Family

ID=55801881

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150023597A KR101612836B1 (ko) 2015-02-16 2015-02-16 차량내의 사고 영상 취득 방법 및 장치, 그리고 이를 실행하는 컴퓨터 판독 가능한 기록 매체

Country Status (1)

Country Link
KR (1) KR101612836B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180060414A (ko) * 2016-11-29 2018-06-07 주식회사 성우모바일 샤크핀 안테나를 통해 수집되는 주변 차량 사고정보를 운전자에게 제공하는 장치
KR20190053624A (ko) * 2017-11-10 2019-05-20 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
CN109886820A (zh) * 2019-01-23 2019-06-14 平安科技(深圳)有限公司 事故车辆识别方法及终端设备
US10460534B1 (en) * 2015-10-26 2019-10-29 Allstate Insurance Company Vehicle-to-vehicle accident detection
EP3903447A4 (en) * 2018-12-29 2022-08-31 INTEL Corporation AUTOMATIC VEHICLE IDENTITY VERIFICATION AND VEHICLE PRESENCE VALIDATION

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10460534B1 (en) * 2015-10-26 2019-10-29 Allstate Insurance Company Vehicle-to-vehicle accident detection
US11120647B1 (en) 2015-10-26 2021-09-14 Allstate Insurance Company Vehicle-to-vehicle accident detection
US11694487B1 (en) 2015-10-26 2023-07-04 Allstate Insurance Company Vehicle-to-vehicle accident detection
KR20180060414A (ko) * 2016-11-29 2018-06-07 주식회사 성우모바일 샤크핀 안테나를 통해 수집되는 주변 차량 사고정보를 운전자에게 제공하는 장치
KR20190053624A (ko) * 2017-11-10 2019-05-20 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
KR102007228B1 (ko) * 2017-11-10 2019-08-05 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
US11034363B2 (en) 2017-11-10 2021-06-15 Lg Electronics Inc. Vehicle control device mounted on vehicle and method for controlling the vehicle
EP3903447A4 (en) * 2018-12-29 2022-08-31 INTEL Corporation AUTOMATIC VEHICLE IDENTITY VERIFICATION AND VEHICLE PRESENCE VALIDATION
CN109886820A (zh) * 2019-01-23 2019-06-14 平安科技(深圳)有限公司 事故车辆识别方法及终端设备

Similar Documents

Publication Publication Date Title
KR101612836B1 (ko) 차량내의 사고 영상 취득 방법 및 장치, 그리고 이를 실행하는 컴퓨터 판독 가능한 기록 매체
KR101731050B1 (ko) 음향센서, 레이더센서 및 영상센서를 결합한 복합센서를 이용한 돌발상황 자동 검지장치 및 그 방법
KR20170081920A (ko) 차량과 관련된 영상 정보를 공유하는 방법 및 장치
JP2007232690A (ja) 現在地検出装置、地図表示装置、および現在地検出方法
KR102008263B1 (ko) 융복합형 검지기 및 이를 이용한 교통 단속시스템
JP2020061079A (ja) 交通違反車両識別システム、サーバ、及び車両制御プログラム
US11208100B2 (en) Server device and vehicle
JP2007323117A (ja) 道路通信システム、移動体装置、および、移動体装置の情報処理方法
KR101626377B1 (ko) Cctv와 차량내 블랙박스를 활용한 빅데이터 기반의 불법 주정차 단속 시스템
KR102635265B1 (ko) 라이다를 이용한 어라운드 뷰 모니터링 장치 및 방법
JP3666332B2 (ja) 歩行者検知装置
JP4848644B2 (ja) 障害物認識システム
KR20150055278A (ko) 차량용 레이더를 이용한 실시간 교통정보 측정 시스템 및 방법
JP4762830B2 (ja) 周辺監視システム
KR20130102235A (ko) 차량용 블랙박스, 감시카메라장치 및 이들의 네트워크를 이용한 사고영상 처리방법
US11512969B2 (en) Method for ascertaining in a backend, and providing for a vehicle, a data record, describing a landmark, for the vehicle to determine its own position
US20190143926A1 (en) Vehicle management system, inspection information transmission system, information management system, vehicle management program, inspection information transmission program, and information management program
JP6656290B2 (ja) 事故情報記録装置および事故情報収集システム
JP2010146443A (ja) 車載カメラ制御システム
KR102067547B1 (ko) 이동통신단말 및 건물 cctv카메라 간의 통신연결 및 영상분석 기반의 주변차량 위험상황 감지 및 방법
KR102105250B1 (ko) 영상 감시 시스템 및 이를 이용한 관제 방법
WO2016132772A1 (ja) 情報管理装置、情報管理方法、および制御プログラム
KR20150031942A (ko) 차량 정보를 수집하기 위한 시스템 및 그 방법
KR20160097838A (ko) 녹화 영상 수집 방법 및 시스템
KR20140092175A (ko) 차량간 통신장치 및 그 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190327

Year of fee payment: 4