KR101665553B1 - 사고 정보 분석 장치, 이를 포함하는 서버 및 사고 정보 분석 방법 - Google Patents

사고 정보 분석 장치, 이를 포함하는 서버 및 사고 정보 분석 방법 Download PDF

Info

Publication number
KR101665553B1
KR101665553B1 KR1020150039158A KR20150039158A KR101665553B1 KR 101665553 B1 KR101665553 B1 KR 101665553B1 KR 1020150039158 A KR1020150039158 A KR 1020150039158A KR 20150039158 A KR20150039158 A KR 20150039158A KR 101665553 B1 KR101665553 B1 KR 101665553B1
Authority
KR
South Korea
Prior art keywords
vehicle
accident
information
image
related information
Prior art date
Application number
KR1020150039158A
Other languages
English (en)
Other versions
KR20160112817A (ko
Inventor
김성운
강경현
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020150039158A priority Critical patent/KR101665553B1/ko
Publication of KR20160112817A publication Critical patent/KR20160112817A/ko
Application granted granted Critical
Publication of KR101665553B1 publication Critical patent/KR101665553B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D41/00Fittings for identifying vehicles in case of collision; Fittings for marking or recording collision areas
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D9/00Recording measured values
    • G06K9/00798
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/08Insurance
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • H04N13/0007

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Multimedia (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Technology Law (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명의 일 측면은, 사고 발생 시에 차량 간 직접 통신을 통해 주변 차량으로부터 블랙박스 영상과 같은 사고 관련 정보를 획득할 수 있는 사고 정보 관리 장치, 이를 포함하는 차량 및 그 제어방법을 제공한다.
일 실시예에 따른 사고 분석 장치는, 차량에 발생한 사고와 관련된 사고 관련 정보 및 차량 상태 정보를 저장하는 저장부; 및 상기 저장된 사고 관련 정보 및 차량 상태 정보를 이용하여 사고 재현 영상을 생성하는 영상 처리부;를 포함한다.

Description

사고 정보 분석 장치, 이를 포함하는 서버 및 사고 정보 분석 방법{ACCIDENT INFORMATION ANALYSIS APPARATUS, SERVER HAVING THE SAME AND METHOD FOR ANALYZING ACCIDENT INFORMATION}
본 발명은 사고와 관련된 정보를 분석하는 사고 정보 분석 장치, 이를 포함하는 서버 및 사고 정보 분석 방법에 관한 것이다.
교통사고가 발생하면, 사고 처리 비용 부담 또는 재발 방지 대책 마련 등을 위해 사고를 정확히 분석해야 하고, 이를 위해서는 사고 관련 정보를 확보하는 것이 중요하다. 최근에는 차량에 블랙박스를 장착하여 차량 주변의 영상을 촬영할 수 있는바, 블랙박스 영상이나 차량에 장착된 센서 정보 등이 중요한 사고 관련 정보가 될 수 있다.
그러나, 자기 차량의 블랙박스 영상이나 센서 정보에 필요한 정보가 모두 포함되지 않는 경우가 있다. 사고 현장을 바라보는 위치에 따라 블랙박스 영상이나 센서 정보에 담긴 정보도 달라지는바, 자기 차량이 직접 획득한 정보뿐만 아니라 주변 차량이 획득한 정보를 확보하고 이를 효과적으로 분석해야 할 필요성이 있다.
본 발명의 일 측면은, 사고 발생 시에 차량 간 직접 통신을 통해 주변 차량으로부터 블랙박스 영상과 같은 사고 관련 정보를 수집하고, 수집된 정보를 분석할 수 있는 사고 정보 분석 장치, 이를 포함하는 차량 및 사고 정보 분석 방법을 제공한다.
일 실시예에 따른 사고 분석 장치는, 차량에 발생한 사고와 관련된 사고 관련 정보 및 차량 상태 정보를 저장하는 저장부; 및 상기 저장된 사고 관련 정보 및 차량 상태 정보를 이용하여 사고 재현 영상을 생성하는 영상 처리부;를 포함한다.
상기 저장부는, 상기 차량이 획득한 사고 관련 정보, 상기 차량의 주변 차량이 획득한 사고 관련 정보, 상기 차량의 차량 상태 정보 및 상기 주변 차량의 차량 상태 정보를 저장할 수 있다.
상기 사고 관련 정보는, 상기 차량 및 상기 차량의 주변 차량이 촬영한 사고 관련 영상을 포함하고, 상기 영상 처리부는, 상기 사고 관련 영상에 영상 처리를 수행하여 3차원 사고 재현 영상을 생성할 수 있다.
상기 영상 처리부는, 상기 저장된 사고 관련 정보를 이용하여 상기 사고 현장에 관한 3차원 볼륨을 복원하고, 상기 3차원 볼륨을 적어도 하나의 시점(view point)에서 렌더링하여 적어도 하나의 2차원 사고 재현 영상을 생성할 수 있다.
상기 영상 처리부는, 상기 3차원 볼륨을 복수의 특정 시점에서 렌더링하여 복수의 2차원 사고 재현 영상을 생성하고, 상기 복수의 2차원 사고 재현 영상을 합성하여 3차원 사고 재현 영상을 생성할 수 있다.
상기 영상 처리부는, 상기 저장된 사고 관련 정보에 기초하여 특정 객체를 검출할 수 있다.
상기 저장된 사고 관련 정보는, 상기 차량 및 상기 주변 차량이 사고 발생 전후 일정 시간 동안 촬영한 동영상을 포함할 수 있다.
상기 영상 처리부는, 상기 사고 재현 영상 또는 상기 3차원 볼륨을 이용하여 특정 객체를 검출할 수 있다.
상기 저장부는, 사고 발생 위치 및 사고 발생 시각을 포함하는 사고 발생 정보와 지도 데이터를 더 저장하고, 상기 영상 처리부는, 상기 사고 발생 정보 및 상기 지도 데이터에 기초하여 특정 객체를 검출할 수 있다.
상기 특정 객체는 차선을 포함할 수 있다.
상기 영상 처리부는, 상기 사고 재현 영상에 상기 검출된 특정 객체를 표시할 수 있다.
상기 사고 재현 영상은, 2차원 정지 영상, 3차원 정지 영상, 2차원 동영상 및 3차원 동영상 중 적어도 하나인 사고 정보 분석 장치.
상기 저장된 사고 관련 정보, 상기 저장된 차량 상태 정보 및 상기 사고 재현 영상 중 적어도 하나를 분석하여 사고 원인 및 과실 비율 중 적어도 하나를 판단하는 사고 분석부를 더 포함할 수 있다.
상기 영상 처리부는, 상기 사고 원인 및 상기 과실 비율 중 적어도 하나를 상기 사고 재현 영상에 표시할 수 있다.
일 실시예에 따른 서버는, 차량에 발생한 사고와 관련된 사고 관련 정보 및 차량 상태 정보를 저장하는 저장부; 상기 저장된 사고 관련 정보 및 차량 상태 정보를 이용하여 사고 재현 영상을 생성하는 영상 처리부; 및 상기 사고 재현 영상을 상기 차량, 미리 설정된 모바일 기기 및 미리 설정된 계정 중 적어도 하나를 전송하는 통신부;를 포함한다.
상기 통신부는, 5세대 이동통신 방식을 적용할 수 있다.
상기 통신부는, 상기 차량 또는 상기 차량의 주변 차량으로부터 상기 사고 관련 정보 및 상기 차량 상태 정보를 수신할 수 있다.
일 실시예에 따른 사고 정보 분석 방법은, 차량에 발생한 사고와 관련된 사고 관련 정보 및 차량 상태 정보를 저장하고; 상기 저장된 사고 관련 정보 및 차량 상태 정보를 이용하여 사고 재현 영상을 생성하는 것을 포함할 수 있다.
상기 사고 관련 정보 및 차량 상태 정보를 저장하는 것은, 상기 차량이 획득한 사고 관련 정보, 상기 차량의 주변 차량이 획득한 사고 관련 정보, 상기 차량의 차량 상태 정보 및 상기 주변 차량의 차량 상태 정보를 저장하는 것을 포함할 수 있다.
상기 사고 재현 영상을 생성하는 것은, 상기 저장된 사고 관련 정보를 이용하여 상기 사고 현장에 관한 3차원 볼륨을 복원하고, 상기 3차원 볼륨을 적어도 하나의 시점(view point)에서 렌더링하여 적어도 하나의 2차원 사고 재현 영상을 생성하는 것을 포함할 수 있다
상기 사고 재현 영상을 생성하는 것은, 상기 3차원 볼륨을 복수의 특정 시점에서 렌더링하여 복수의 2차원 사고 재현 영상을 생성하고; 상기 복수의 2차원 사고 재현 영상을 합성하여 3차원 사고 재현 영상을 생성하는 것을 포함할 수 있다.
상기 저장된 사고 관련 정보에 기초하여 특정 객체를 검출하는 것을 더 포함할 수 있다.
상기 저장된 사고 관련 정보는, 상기 차량 및 상기 주변 차량이 사고 발생 전후 일정 시간 동안 촬영한 동영상을 포함할 수 있다.
상기 사고 재현 영상 또는 상기 3차원 볼륨을 이용하여 특정 객체를 검출하는 것을 더 포함할 수 있다.
상기 사고 발생 위치 및 사고 발생 시각을 포함하는 사고 발생 정보와 지도 데이터를 저장하고; 상기 사고 발생 정보 및 상기 지도 데이터에 기초하여 특정 객체를 검출하는 것을 더 포함할 수 있다.
상기 검출된 특정 객체는, 상기 사고 재현 영상에는 표시될 수 있다.
상기 저장된 사고 관련 정보, 상기 저장된 차량 상태 정보 및 상기 사고 재현 영상 중 적어도 하나를 분석하여 사고 원인 및 과실 비율 중 적어도 하나를 판단하는 것을 더 포함할 수 있다.
상기 사고 원인 및 상기 과실 비율 중 적어도 하나는, 상기 사고 재현 영상에 표시될 수 있다.
도 1은 일 실시예에 따른 사고 정보 관리 장치의 제어 블록도이다.
도 2는 5G 통신방식에 따른 기지국의 대규모 안테나 시스템을 도시한 도면이다.
도 3 내지 도 5는 일 실시예에 따른 5G 통신방식에 따른 네트워크 망을 도시한 도면이다.
도 6은 일 실시예에 따른 차량의 외관도이다.
도 7 및 도 8은 서버, 차량 및 주변 차량 사이에 신호의 흐름에 관한 예시를 나타내는 도면이다.
도 9는 일 실시예에 따른 차량에 포함되는 통신부의 구성을 나타낸 제어 블록도이다.
도 10은 통신부에 포함된 무선 신호 변환 모듈의 구성을 나타낸 도면이다.
도 11은 빔 포밍 모듈과 어레이 안테나의 구성을 나타낸 도면이다.
도 12 및 도 13은 일 실시예에 따른 차량의 빔포밍 모듈로부터 출력되는 신호의 빔 패턴을 개략적으로 나타낸 도면이다.
도 14는 차량이 주변 차량의 위치를 판단하는 일 예시를 나타내는 도면이다.
도 15는 일 실시예에 따른 차량이 주변 차량과 주고받는 정보의 예시를 나타낸 도면이다.
도 16은 제어부의 구성이 구체화된 차량의 제어 블록도이다.
도 17은 감지부를 더 포함하는 차량의 제어 블록도이다.
도 18은 감지부에 포함될 수 있는 센서들의 예시가 도시된 제어 블록도이다.
도 19는 사용자 인터페이스를 포함하는 차량의 제어 블록도이다.
도 20은 사용자 인터페이스를 포함하는 차량의 내부 구성도이다.
도 21은 사용자로부터 사고 관련 정보 요청 여부에 대한 선택을 입력 받기 위한 화면의 예시이다.
도 22는 GPS 수신부를 더 포함하는 차량의 제어 블록도이다.
도 23 및 도 24는 차량의 사고와 관련하여 서버에 저장되는 정보를 나타내는 도면이다.
도 25는 서버의 사고 분석 결과와 관련된 신호의 흐름을 나타낸 도면이다.
도 26은 차량이 주변 차량에 사고 관련 정보를 전송하는 경우를 나타내는 도면이다.
도 27은 다른 실시예에 따른 사고 정보 관리 장치의 제어 블록도이다.
도 28 내지 도 31은 다른 실시예에 따른 차량이 일정 반경 내에 위치하는 주변 차량들에 신호를 송신하는 경우에 관한 도면이다.
도 32는 다른 실시예에 따른 차량에 있어서, 차량 상태 정보를 획득할 수 있는 구성을 더 포함하는 차량의 제어 블록도이다.
도 33은 제어부의 구성이 구체화된 제어 블록도이다.
도 34는 다른 실시예에 따른 차량이 주변 차량으로부터 수신한 영상에 기초하여 목격 차량을 선택하는 경우, 신호의 흐름을 나타내는 도면이다.
도 35는 멀티홉을 이용한 통신 방식을 설명하기 위한 도면이다.
도 36은 차량이 분석하는 주변 차량1의 사고 관련 영상의 예시를 나타낸 도면이다.
도 37은 주변 차량2의 사고 관련 영상의 예시를 나타낸 도면이다.
도 38은 주변 차량으로부터 제공받은 차량 상태 정보를 분석하여 목격 차량을 선택하는 예시를 나타낸 도면이다.
도 39는 주변 차량이 차량의 사고를 감지하여 사고 관련 정보의 전송 여부를 판단하는 예시에 관한 도면이다.
도 40은 차량이 주변 차량의 사고를 감지하여 사고 관련 정보의 전송 여부를 판단하는 예시에 관한 도면이다.
도 41은 일 실시예에 따른 사고 분석 장치에 관한 제어 블록도이다.
도 42는 영상 처리부의 구성이 구체화된 제어 블록도이다.
도 43은 영상 처리부에서 생성한 3차원 볼륨을 개략적으로 나타낸 도면이다.
도 44는 객체 검출부를 더 포함하는 사고 분석 장치의 제어 블록도이다.
도 45는 사고 재현 영상에 검출된 객체 정보를 표시하는 화면을 나타낸 도면이다.
도 46은 시간의 흐름에 따라 3차원 볼륨을 복원하는 예시에 관한 도면이다.
도 47은 사고 재현 영상을 동영상으로 표현하는 예시에 관한 도면이다.
도 48은 사고 분석부를 더 포함하는 사고 분석 장치의 제어 블록도이다.
도 49는 사고 분석 결과를 사고 재현 영상과 함께 표시하는 화면의 예시이다.
도 50은 사고 분석 장치를 포함하는 서버의 제어 블록도이다.
도 51은 사고 분석 장치를 포함하는 차량의 제어 블록도이다.
도 52는 사고 분석 장치를 포함하는 모바일 기기의 제어 블록도이다.
도 53 및 도 54는 사고 정보 분석 장치의 분석 결과를 디스플레이하는 방식의 예시를 나타낸 도면이다.
도 55는 일 실시예에 따른 사고 정보 관리 방법에 관한 순서도이다.
도 56은 일 실시예에 따른 사고 정보 관리 방법에 있어서, 차량 상태 정보를 먼저 공유하는 방법에 관한 순서도이다.
도 57은 일 실시예에 따른 사고 정보 관리 방법에 있어서, 사고 예측 시에 주변 차량과 통신을 연결하고 사고 발생 시에 주변 차량으로부터 사고 관련 정보를 수신하는 방법에 관한 순서도이다.
도 58은 다른 실시예에 따른 사고 정보 관리 방법에 관한 순서도이다.
도 59는 다른 실시예에 따른 사고 정보 관리 방법에 있어서, 주변 차량의 상태 정보에 기초하여 목격 차량을 선택하는 방법에 관한 순서도이다.
도 60은 다른 실시예에 따른 사고 정보 관리 방법에 있어서, 주변 차량의 사고 관련 정보에 기초하여 목격 차량을 선택하는 방법에 관한 순서도이다.
도 61은 다른 실시예에 따른 사고 정보 관리 방법에 있어서, 주변 차량이 전송한 차량 상태 정보에 기초하여 목격 차량을 선택하는 방법에 관한 순서도이다.
도 62는 차량이 주변 차량의 사고를 판단하고 사고 관련 정보를 제공하는 사고 정보 관리 방법에 관한 순서도이다.
도 63은 일 실시예에 따른 사고 정보 분석 방법에 관한 순서도이다.
도 64는 일 실시예에 따른 사고 정보 분석 방법에 있어서, 사고 재현 영상을 3차원 입체 영상으로 생성하는 방법에 관한 순서도이다.
도 65는 일 실시예에 따른 사고 정보 분석 방법에 있어서, 사고와 관련된 특정 객체를 검출하여 사고 재현 영상에 표시하는 방법에 관한 순서도이다.
이하 첨부된 도면을 참조하여 일 측면에 따른 사고 정보 관리 장치, 이를 포함하는 차량 및 그 제어방법의 실시예를 상세하게 설명하도록 한다.
도 1은 일 실시예에 따른 사고 정보 관리 장치의 제어 블록도이다.
도 1을 참조하면, 사고 정보 관리 장치(100)는 주변 차량(20)과 통신을 수행하는 통신부(120), 통신부(120)를 통해 주변 차량(20)에 사고 관련 정보를 요청하는 제어부(110) 및 외부로부터 수신한 정보를 저장하는 저장부(130)를 포함한다.
사고 정보 관리 장치(100)는 차량(1)에 장착되어, 자기 차량의 사고와 관련된 정보를 주변 차량(20)에 요청하고, 주변 차량(20)으로부터 수신한 정보를 서버에 전달하거나 직접 분석할 수 있다.
주변 차량(20)의 통신부(22)가 사고 정보 관리 장치(100)가 장착된 차량(1)으로부터 사고 관련 정보의 요청 신호를 수신하면, 제어부(21)가 해당 사고 관련 정보를 검색하여 통신부(22)를 통해 차량(1)으로 전송한다.
제어부(110)는 후술하는 동작을 실행하기 위한 프로그램 및 데이터를 일시적 또는 비일시적으로 저장하는 메모리 및 메모리에 저장된 프로그램에 따른 동작을 수행하고 데이터를 처리하는 마이크로 프로세서를 포함할 수 있다. 예를 들어, 제어부(110)는 차량에 탑재되는 ECU(Electronic Control Unit) 또는 MCU(Micro Control Unit)에 포함되거나, ECU 또는 MCU로 구현될 수 있다. 저장부(120)는 램(RAM: Read Access Memory), 롬(Rom: Read Only Memory), 하드 디스크(HDD: Hard Disk Drive), 자기 디스크(magnetic disk), 광 디스크(optical disk), 또는 반도체 디스크(solid state disk) 등의 저장 매체를 포함할 수 있다. 제어부(110)의 프로그램과 데이터를 저장하는 메모리는 저장부(130)에 포함될 수도 있고, 별개로 마련될 수도 있는바, 일 실시예에서는 이에 대한 제한을 두지 않는다.
통신부(120)는 시간 분할 다중 접속(Time Division Multiple Access: TDMA)과 부호 분할 다중 접속(Code Division Multiple Access: CDMA) 등의 제2 세대(2G) 통신 방식, 광대역 부호 분할 다중 접속(Wide Code Division Multiple Access: WCDMA)과 CDMA2000(Code Division Multiple Access 2000)과 와이브로(Wireless Broadband: Wibro)와 와이맥스(World Interoperability for Microwave Access: WiMAX) 등의 3세대(3G) 통신 방식, 엘티이(Long Term Evolution: LTE)와 와이브로 에볼루션(Wireless Broadband Evolution) 등 4세대(4G) 통신 방식을 채용할 수 있다. 또한, 통신부(120)는 5세대(5G) 통신 방식을 채용할 수도 있다. 통신부(120)는 전술한 통신 방식을 채용하여 기지국을 통하거나, 기지국을 통하지 않고 다른 기기와 무선 통신을 수행하여 신호를 주고 받을 수 있다.
이외에도 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스(Bluetooth), 지그비(Zigbee), WFD(Wi-Fi Direct), UWB(Ultra wideband), 적외선 통신(IrDA; Infrared Data Association), BLE (Bluetooth Low Energy), NFC(Near Field Communication) 등과 같은 통신방식을 통해 소정 거리 이내의 기기와 무선 신호를 주고 받을 수 있다.
4G 통신방식은 2GHz 이하의 주파수 대역을 사용하지만, 5G 통신방식은 약 28GHz 대의 주파수 대역을 사용하는 것이 가능하다. 다만, 5G 통신방식이 사용하는 주파수 대역이 이에 한정되는 것은 아니다.
5G 통신방식에는 대규모 안테나 시스템이 채용될 수 있다. 대규모 안테나 시스템은 안테나를 수십 개 이상 사용하여 초고대역 주파수까지 커버 가능하고, 다중 접속을 통해 많은 양의 데이터를 동시에 송수신 가능한 시스템을 의미한다. 구체적으로, 대규모 안테나 시스템은 안테나 엘리먼트의 배열을 조정하여 특정 방향으로 더 멀리 전파를 송수신할 수 있게 해줌으로써, 대용량 전송이 가능할 뿐만 아니라, 5G 통신 네트워크 망의 사용 가능한 영역을 확장시킬 수 있다.
이하 상술할 실시예에서는 통신부(120)가 5G 통신 방식을 채용하여 다른 기기들과 무선 통신을 수행하는 것으로 설명한다.
도 2는 5G 통신방식에 따른 기지국의 대규모 안테나 시스템을 도시한 도면이고, 도 3 내지 도 5는 일 실시예에 따른 5G 통신방식에 따른 네트워크 망을 도시한 도면이다. 도 2를 참조하면, 기지국(BS)은 대규모 안테나 시스템을 통해 많은 기기들과 데이터를 동시에 주고 받을 수 있다. 또한, 대규모 안테나 시스템은 전파를 송신하는 방향 외의 방향으로 유출되는 전파를 최소화하여 노이즈를 감소시킴으로써, 송신 품질 향상과 전력량의 감소를 함께 도모할 수 있다.
또한, 5G 통신방식은 직교주파수 분할(Orthogonal Frequency Division Multiplexing, OFDM) 방식을 통해 송신 신호를 변조하는 기존과 달리, 비직교 다중접속(Non-Orthogonal Multiplexing Access, NOMA) 방식을 통해 변조한 무선 신호를 전송함으로써, 더 많은 기기의 다중 접속이 가능하며, 대용량 송수신이 동시에 가능하다.
예를 들어, 5G 통신방식은 최고 1Gbps의 전송속도의 제공이 가능하다. 5G 통신방식은 대용량 전송을 통해 UHD(Ultra-HD), 3D, 홀로그램 등과 같이 대용량 전송이 요구되는 몰입형 통신의 지원이 가능하다. 이에 따라, 사용자는 5G 통신방식을 통해 보다 정교하고 몰입이 가능한 초 고용량 데이터를 보다 빠르게 주고 받을 수 있다.
또한, 5G 통신방식은 최대 응답 속도 1ms 이하의 실시간 처리가 가능하다. 이에 따라, 5G 통신방식에서는 사용자가 인지하기 전에 반응하는 실시간 서비스의 지원이 가능하다. 예를 들어, 차량은 주행 중에도 각종 기기로부터 센서정보를 전달 받아, 실시간 처리를 통해 자율주행 시스템을 제공할 수 있을 뿐만 아니라, 각종 원격제어를 제공할 수 있다. 또한, 차량은 5G 통신방식을 통해 차량 주변에 존재하는 다른 차량들과의 센서정보를 실시간으로 처리하여 충돌발생 가능성을 실시간으로 사용자에게 제공할 수 있을 뿐만 아니라, 주행경로 상에 발생될 교통상황 정보들을 실시간으로 제공할 수 있다.
또한, 5G 통신이 제공하는 초 실시간 처리 및 대용량 전송을 통해, 차량은 차량 내 탑승객들에게 빅데이터 서비스를 제공할 수 있다. 예를 들어, 차량은 각종 웹 정보, SNS 정보 등을 분석하여, 차량 내 탑승객들의 상황에 적합한 맞춤형 정보를 제공할 수 있다. 일 실시예로, 차량은 빅데이터 마이닝을 통해 주행 경로 주변에 존재하는 각종 맛집, 볼거리 정보들을 수집하여 실시간으로 이를 제공함으로써, 탑승객들이 주행 중인 지역 주변에 존재하는 각종 정보들을 바로 확인할 수 있게 한다.
한편, 5G 통신의 네트워크 망은 셀을 보다 세분화하여, 네트워크의 고밀도화 및 대용량 전송을 지원할 수 있다. 여기서, 셀은 이동 통신에서 주파수를 효율적으로 이용하기 위하여 넓은 지역을 작은 구역으로 세분한 구역을 의미한다. 이때. 각 셀 내에 소출력 기지국을 설치하여 단말 간의 통신을 지원한다. 예를 들어, 5G 통신의 네트워크 망은 셀의 크기를 줄여 더욱 세분화함으로써, 매크로셀 기지국-분산 소형 기지국-통신 단말의 2단계 구조로 형성될 수 있다.
또한, 5G 통신의 네트워크 망에서는 멀티홉(multihop) 방식을 통한 무선 신호의 릴레이 전송이 수행될 수 있다. 예를 들어, 도 3에 도시된 바와 같이, 제1 단말(M1)은 기지국(BS)의 네트워크 망 외부에 위치한 제3 단말(M3)이 전송하고자 하는 무선 신호를 기지국(BS)으로 릴레이 전송할 수 있다. 또한, 제1 단말(M1)은 기지국(BS)의 네트워크 망 내부에 위치한 제2 단말(M2)이 전송하고자 하는 무선 신호를 기지국(BS)으로 릴레이 전송할 수 있다. 전술한 바와 같이, 5G 통신의 네트워크 망을 사용 가능한 기기들 중 적어도 하나의 기기가 멀티홉 방식을 통한 릴레이 전송을 수행할 수도 있으나, 이에 한정되는 것은 아니다. 이에 따라, 5G 통신 네트워크 망이 지원되는 영역을 확대함과 동시에, 셀 내의 사용자가 많을 경우 생기는 버퍼링 문제를 해결할 수 있다.
한편, 5G 통신방식은 차량, 통신 기기 등에 적용되는 기기간 직접(Device-to-Device, D2D) 통신이 가능하다. 기기간 직접 통신은 기기들이 기지국을 통하지 않고 집적 무선 신호를 송수신하는 통신을 의미한다. 기기간 직접 통신방식에 의할 경우, 기지국을 거쳐 무선 신호를 주고 받을 필요가 없고, 기기 간에 직접 무선 신호 전송이 이루어지므로, 불필요한 에너지를 절감할 수 있다. 이때, 차량, 통신 기기 등이 5G 통신방식을 이용하기 위해서는 해당 기기 내에 안테나가 내장되어야 한다.
차량(1)은 기기간 통신을 통해 차량 주변에 존재하는 다른 차량들과 무선 신호를 송수신할 수 있다. 예를 들어, 차량(1)은 도 4에 도시된 바와 같이, 차량 주변에 존재하는 다른 차량들(V1, V2, V3) 등과 기기간 통신이 가능하다. 이외에도, 차량(1)은 교차로 등에 설치되어 있는 교통정보 장치(미도시)와 기기간 통신이 가능하다.
또 다른 예로, 차량(1)은 도 5에 도시된 바와 같이 기기간 직접 통신이 가능한 거리 내에 위치하는 주변 차량1(20-1) 및 주변 차량2(20-2)와 기지국을 통하지 않고 기기간 직접 통신을 수행할 수 있고, 차량(1)과 기기간 직접 통신이 가능한 거리 밖에 위치하는 주변 차량3(20-3)은 기기간 직접 통신이 가능한 거리 내에 위치하는 주변 차량2(20-1)와 기기간 직접 통신이 가능하다. 전술한 바와 같이, 멀티홉 방식을 통한 무선 신호의 릴레이 전송이 가능하므로, 주변 차량3(20-3)이 전송하는 신호는 주변 차량(2(20-2)를 통해 차량(1)으로 전달되는 것도 가능하다
한편, 5G 통신망은 기기간 직접 통신이 지원되는 영역을 확대함으로써, 보다 먼 곳에 위치한 기기와 기기간 직접 통신이 가능하다. 또한, 응답 속도 1ms 이하의 실시간 처리와 1Gbps 이상의 고용량 통신을 지원하므로, 주행 중인 차량 간에도 원하는 데이터가 포함된 신호를 주고 받을 수 있다.
예를 들어, 차량은 5G 통신방식을 통해 주행 중에도 차량 주변에 존재하는 다른 차량, 각종 서버, 시스템 등과 실시간으로 접속하여, 데이터를 주고 받을 수 있고, 이를 처리하여 증강 현실을 통해 경로안내 제공서비스 등과 같은 각종 서비스를 제공할 수 있다.
이외에도, 차량은 전술한 주파수 대역 외의 대역을 이용하여, 기지국을 거쳐 또는 기기간 직접 통신을 통해 데이터가 포함된 무선 신호를 송수신할 수 있으며, 전술한 주파수 대역을 이용한 통신방식에만 한정되는 것은 아니다.
차량(1)의 통신부(120)와 주변 차량(20)의 통신부(22) 사이의 통신은 기지국을 통하지 않는 기기간 직접 통신을 이용할 수 있고, 차량(1)의 통신부(120)와 서버 또는 주변 차량(20)의 통신부(22)와 서버는 기지국을 거쳐 통신을 수행할 수 있다. 두 통신부(120,22)는 모두 차량에 장착되어 차량들이 기지국을 통하지 않고 직접 통신할 수 있게 하는바, 통신의 주체를 차량으로 파악하면 두 통신부(120,22) 사이의 통신은 차량간 직접 통신(Vehicle to Vehicle: V2V)이라고 할 수도 있다. 또한, 통신부나 차량은 일종의 기계(Machine)에 해당하므로 이들 사이의 직접 통신을 기계간 직접(M2M) 통신이라 할 수도 있다. 당해 실시예에서는 두 통신부가 기지국을 통하지 않고 직접 통신을 수행하기만 하면 되고, 그 명칭에는 제한을 두지 않는다.
도 6은 일 실시예에 따른 차량의 외관도이다.
도 6을 참조하면, 일 실시예에 따른 차량(1)은 차량(1)을 이동시키는 차륜(101F, 101R), 차량(1)의 외관을 형성하는 본체(102), 차륜(101F, 101R)을 회전시키는 구동 장치(미도시), 차량 내부를 외부로부터 차폐시키는 도어(103), 차량 내부의 운전자에게 차량 전방의 시야를 제공하는 전면 유리(104), 운전자에게 차량 후방의 시야를 제공하는 사이드 미러(105L, 105R)를 포함한다.
차륜(101F, 101R)은 차량의 전방에 마련되는 전륜(101F), 차량의 후방에 마련되는 후륜(101R)을 포함하며, 구동 장치는 차량이 전방 또는 후방으로 이동하도록 전륜(101F) 또는 후륜(101R)에 회전력을 제공한다. 이와 같은 구동 장치는 화석 연료를 연소시켜 회전력을 생성하는 엔진(engine) 또는 축전기(미도시)로부터 전원을 공급받아 회전력을 생성하는 모터(motor)를 채용할 수 있다.
도어(103)는 본체(102)의 좌측 및 우측에 회동 가능하게 마련되어 개방 시에 운전자가 차량(1)의 내부에 탑승할 수 있도록 하며, 폐쇄 시에 차량(1)의 내부를 외부로부터 차폐시킨다.
전면 유리(104)는 본체(102)의 전방에 마련되어 내부의 운전자가 차량(1) 전방의 시각 정보를 획득할 수 있도록 하는 것으로서, 윈드쉴드 글래스(windshield glass)라고도 한다.
또한, 사이드 미러(105L, 105R)는 본체(102)의 좌측에 마련되는 좌측 사이드 미러(105L) 및 우측에 마련되는 우측 사이드 미러(105R)를 포함하며, 차량(1) 내부의 운전자가 본체(102) 측면 및 후방의 시각 정보를 획득할 수 있도록 한다.
전술한 도 6의 외관을 기초로 하여 일 실시예에 따른 차량의 구체적인 동작을 설명하도록 한다.
도 7 및 도 8은 서버, 차량 및 주변 차량 사이에 신호의 흐름에 관한 예시를 나타내는 도면이다.
도 7을 참조하면, 차량(1)과 주변 차량(20)은 D2D 통신을 통해 기지국을 통하지 않는 직접 통신을 할 수 있는바, 차량(1)은 D2D 통신을 통해 주변 차량(20)에 사고 관련 정보를 요청한다. 사고 관련 정보의 요청을 받은 주변 차량(20)은 해당 사고 관련 정보를 검색하여 다시 D2D 통신을 통해 차량(1)으로 검색된 정보를 전송할 수 있다.
주변 차량(20)으로부터 사고 관련 정보를 수신한 차량(1)은 서버(30)에 사고 관련 정보를 업로드 하는바, 이 때 차량(1)과 서버(30) 사이의 통신은 기지국(BS)을 통한 통신일 수 있다.
또는, 도 8에 도시된 바와 같이, 차량(1)으로부터 사고 관련 정보를 요청 받은 주변 차량(20)이 차량(1)이 아닌 서버(30)에 직접 사고 관련 정보를 전송하는 것도 가능하다. 이 때도 마찬가지로, 주변 차량(20)과 서버(30) 사이의 통신은 기지국(BS)을 통한 통신일 수 있다.
일 실시예에 있어서, 주변 차량(20)은 차량(1)의 주변에 위치하는 차량으로서, 차량(1)을 중심으로 미리 설정된 반경 내에 위치하는 임의의 차량일 수도 있고, 특정 기준에 따라 선택된 차량일 수도 있으며, 차량(1)과 가장 가까운 차량일 수도 있다. 주변 차량(20)의 위치에는 제한을 두지 않으나, 주변 차량(20)의 통신부(22)는 기기간 직접 통신을 할 수 있는 통신 모듈을 포함하는 것으로 한다.
또한, 후술하는 바와 같이, 하나의 차량(1)이 다른 차량(1)과의 관계에 있어서는 주변 차량(20)이 될 수 있으며, 주변 차량(20)이 차량(1)이 될 수도 있다. 즉, 주변 차량(20)에게 사고 관련 정보를 요청할 수 있는 차량(1)은 주변 차량(20)으로부터 사고 관련 정보를 요청 받아 해당 정보를 주변 차량(20)에 전달하는 것도 가능하며, 차량(1)으로부터 사고 관련 정보를 요청 받아 해당 정보를 차량(1)에 전달할 수 있는 주변 차량(20)은 자기 차량의 사고 발생시에는 차량(1)에 자기 차량의 사고 관련 정보를 요청하고 이를 수신할 수도 있는 것이다.
도 9는 일 실시예에 따른 차량에 포함되는 통신부의 구성의 예시를 나타낸 제어 블록도이고, 도 10은 통신부에 포함된 무선 신호 변환 모듈의 구성을 나타낸 도면이며, 도 11은 빔 포밍 모듈과 어레이 안테나의 구성을 나타낸 도면이다.
도 9를 참조하면, 차량(1)은 차량(1) 내부의 차량 통신 네트워크를 통하여 차량(1) 내부의 각종 전자 장치와 통신하는 내부 통신부(170)를 더 포함할 수 있다.
내부 통신부(170)는 차량 통신 네트워크와 연결되는 내부 통신 인터페이스(171), 신호를 변조/복조하는 내부 신호 변환 모듈(172), 차량 통신 네트워크(NT)을 통한 통신을 제어하는 내부 통신 제어 모듈(173)을 포함할 수 있다.
내부 통신 인터페이스(171)는 차량 통신 네트워크를 통하여 차량(1) 내부의 각종 전자 장치로부터 송신된 통신 신호를 수신하고, 차량 통신 네트워크를 통하여 차량(1) 내부의 각종 전자 장치로 통신 신호를 송신한다. 여기서, 통신 신호는 차량 통신 네트워크를 통하여 송수신되는 신호를 의미한다.
이와 같은 내부 통신 인터페이스(171)는 차량 통신 네트워크와 사고 관리장치(100)의 통신부(120)를 연결하는 통신 포트(communication port) 및 신호를 송/수신하는 송수신기(transceiver)를 포함할 수 있다.
한편, 제어부(110)가 차량(1)과 외부 기기 사이의 무선 통신을 수행하는 통신부(120)뿐만 아니라 내부 통신부(170)도 통합적으로 제어하는 것이 가능하다. 또는, 내부 통신부(170)를 제어하기 위한 별도의 제어부가 마련되는 것도 가능하다.
내부 신호 변환 모듈(172)은 아래에서 설명하는 내부 통신 제어 모듈(173)의 제어에 따라 내부 통신 인터페이스(171)를 통하여 수신된 통신 신호를 제어 신호로 복조하고, 제어부(110)로부터 출력된 제어 신호를 내부 통신 인터페이스(171)를 통하여 송신하기 위한 아날로그 통신 신호로 변조한다.
내부 신호 변환 모듈(172)은 제어부(110)가 출력한 제어 신호를 차량 네트워크의 통신 규약에 따른 통신 신호로 변조하고, 차량 네트워크의 통신 규약에 따른 통신 신호를 제어부(110)가 인식할 수 있는 제어 신호로 복조한다.
이와 같은 내부 신호 변환 모듈(172)는 통신 신호의 변조/복조를 수행하기 위한 프로그램과 데이터를 저장하는 메모리, 메모리에 저장된 프로그램과 데이터에 따라 통신 신호의 변조/복조를 수행하는 프로세서를 포함할 수 있다.
내부 통신 제어 모듈(173)은 내부 신호 변환 모듈(172)과 통신 인터페이스(171)의 동작을 제어한다. 예를 들어, 통신 신호를 송신하는 경우, 내부 통신 제어 모듈(173)은 통신 인터페이스(171)를 통하여 통신 네트워크가 다른 전자 장치에 의하여 점유되었는지를 판단하고, 통신 네트워크가 비어있으면 통신 신호를 송신하도록 내부 통신 인터페이스(171)와 내부 신호 변환 모듈(172)을 제어한다. 또한, 통신 신호를 수신하는 경우, 내부 통신 제어 모듈(173)은 통신 인터페이스(171)를 통하여 수신된 통신 신호를 복조하도록 내부 통신 인터페이스(171)와 신호 변화 모듈(172)을 제어한다.
이와 같은 내부 통신 제어 모듈(173)은 내부 신호 변환 모듈(172)과 통신 인터페이스(171)을 제어하기 위한 프로그램과 데이터를 저장하는 메모리, 메모리에 저장된 프로그램과 데이터에 따라 제어 신호를 생성하는 프로세서를 포함할 수 있다.
실시 형태에 따라 내부 신호 변환 모듈(172)과 내부 통신 제어 모듈(173)은 별개의 메모리와 프로세서로 구현되거나, 단일의 메모리와 프로세서로 구현될 수 있다.
또한, 실시 형태에 따라 내부 통신 제어 모듈(173)은 생략될 수 있다. 예를 들어, 내부 통신 제어 모듈(173)은 제어부(110) 또는 내부 통신부(170)를 제어하는 다른 제어부에 통합될 수 있다.
일 실시예에 따른 차량(1)은 전파 신호를 특정 방향을 집속시키는 빔포밍을 통해 특정 차량에 선택적으로 신호를 전송할 수 있다. 이를 위해, 통신부(120)는 신호를 변조/복조하는 무선 신호 변환 모듈(121) 및 무선 통신을 위한 빔 패턴(beam pattern)을 형성하고 빔 패턴의 전파를 통하여 무선 신호를 송/수신하는 빔 포밍 모듈(122)을 포함할 수 있다.
무선 신호 변환 모듈(121)은 제어부(110)의 제어에 따라, 빔 포밍 모듈(122)을 통하여 수신된 무선 통신 신호를 제어 신호로 복조하고, 제어부(110)로부터 출력된 제어 신호를 빔 포밍 모듈(122)을 통하여 송신하기 위한 무선 통신 신호로 변조한다.
무선 통신을 통하여 송수신되는 무선 통신 신호는 무선 통신의 신뢰성을 확보하기 위하여 제어 신호와 상이한 포맷을 가질 수 있다. 특히, 무선 통신 신호는 아날로그 신호이고, 제어 신호는 디지털 신호일 수 있다.
또한, 무선 통신 신호는 신호를 전송하기 위하여 고주파수(예를 들어, 5G 통신 방식의 경우 약 28GHz)의 반송파에 신호를 실어 보낸다. 이를 위하여 무선 신호 변환 모듈(121)은 제어부(110)로부터 출력된 제어 신호에 따라 반송파를 변조함으로써 통신 신호를 생성하고, 어레이 안테나(122d)를 통하여 수신된 통신 신호를 복조함으로써 제어 신호를 복원할 수 있다.
예를 들어, 도 10에 도시된 바와 같이 무선 신호 변환 모듈(121)은 부호화기(Encoder, ENC) (121a), 변조기(Modulator, MOD) (121b), 다중 입출력(Multiple Input Multiple Output, MIMO) 부호화기(121c), 프리코더(Pre-coder)(121d), 역 고속 푸리에 변환기(Inverse Fast Fourier Transformer, IFFT)(121e), 병렬-직렬 변환기(Parallel to Serial converter, P/S)(121f), 순환 프리픽스(Cyclic Prefix, CP) 삽입기(121g), 디지털-아날로그 변환기(Digital to Analog Converter, DAC)(121h), 주파수 변환기(121i)를 포함할 수 있다.
또한, L개의 제어 신호들은 부호화기(121a)와 변조기(121b)를 거쳐 다중 입출력 부호화기(121c)로 입력된다. 다중 입출력 부호화기(121c)로부터 출력된 M개의 스트림들은 프리코더(121d)에 의하여 프리코딩되어, N개의 프리코딩된 신호들로 변환된다. 프리코딩된 신호들은 역 고속 푸리에 변환기(121e), 병렬-직렬 변환기(121f), 순환 프리픽스 삽입기(121g), 디지털-아날로그 변환기(121h)를 거쳐 아날로그 신호로 출력된다. 디지털-아날로그 변환기(121h)로부터 출력된 아날로그 신호는 주파수 변환기(121i)를 통하여 라디오 주파수(Radio Frequency, RF) 대역으로 변환된다.
이와 같은 무선 신호 변환 모듈(121)은 통신 신호의 변조/복조를 수행하기 위한 프로그램과 데이터를 저장하는 메모리, 메모리에 저장된 프로그램과 데이터에 따라 통신 신호의 변조/복조를 수행하는 프로세서를 포함할 수 있다.
다만, 무선 신호 변환 모듈(121)은 도 10에 도시된 실시 형태에 한정되는 것은 아니며, 통신 방식에 따라 다양한 실시 형태를 가질 수 있다.
라디오 주파수 대역으로 변환된 아날로그 신호는 빔 포밍 모듈(122)로 입력된다. 빔 포밍 모듈(122)은 제어부(110)의 제어에 따라 무선 통신을 위한 빔 패턴을 형성하여 무선 신호를 송신하거나 수신할 수 있다.
5G 통신 방식은 방사형의 형태로 무선 신호를 송신할 수 있으나, 빔 포밍을 통해 특정 영역 또는 특정 디바이스에 무선 신호를 송신할 수도 있다. 이때, 5G 통신방식은 밀리미터파 대역을 사용하여, 빔 포밍을 통해 무선 신호를 송신할 수 있다. 여기서, 밀리미터파 대역은 약 30Ghz 이상 약 300Ghz 이하의 대역을 의미할 수 있으나, 당해 실시예가 이에 한정되는 것은 아니다.
이와 같은 빔포밍 모듈(122)은 어레이 안테나(122d)를 이용하여 빔 패턴을 형성할 수 있다. 여기서 빔 패턴은 무선 신호를 특정한 방향으로 집속하는 경우, 무선 신호의 세기에 의하여 나타나는 패턴이다. 다시 말해, 빔 패턴은 무선 신호의 전력이 집중되는 패턴을 의미한다. 따라서, 차량(1)은 빔 패턴의 내부에 위치하는 통신 대상(외부 차량, 외부 단말기 또는 기지국)에 충분한 세기의 무선 신호를 전송할 수 있고, 통신 대상로부터 충분 세기의 무선 신호를 수신할 수 있다.
또한, 통신 대상이 빔 패턴의 중심으로부터 벗어날수록 차량(1)이 통신 대상에 전송하는 무선 신호의 세기가 감소하고, 차량(1)이 통신 대상으로부터 수신하는 무선 신호의 세기 역시 감소한다.
또한, 어레이 안테나(122d)는 안테나 엘리먼트를 규칙적으로 배열하고, 각각의 안테나 엘리먼트로부터 출력되는 무선 신호의 위상 차이를 제어함으로써 전체 어레이 안테나의 빔 패턴을 제어할 수 있는 위상 배열 안테나로 구현될 수 있다. 안테나 엘리먼트는 1차원으로 배열될 수도 있고, 2차원으로 배열될 수도 있으며, 그 개수에는 제한을 두지 않는다.
예를 들어, 도 11에 도시된 바와 같이 빔 포밍 모듈(122)은 무선 신호 변환 모듈(121)로부터 출력된 아날로그 신호의 전력을 분배하는 전력 분배기(122a), 아날로그 신호의 위상을 변환하는 위상 변환기(122b), 아날로그 신호의 전력을 증폭하는 가변 이득 증폭기(122c) 및 아날로그 신호를 송수신하는 어레이 안테나(122d)를 포함할 수 있다.
빔포밍 모듈(122)은 전력 분배기(122a)를 통하여 아날로그 신호의 전력을 각각의 안테나 엘리먼트(122d-1,122d-2,...,122d-n)로 분배하고, 위상 변환기(122b)와 가변 이득 증폭기(122c)를 통하여 각각의 안테나 엘리먼트(122d-1,122d-2,...,122d-n)에 전달되는 전력을 제어함으로써 다양한 빔 패턴(BP)을 형성할 수 있다. 한편, 전력 분배기(122a), 위상 변환기(122b) 및 가변이득 증폭기(122c)를 통틀어 빔포머라고 할 수 있다.
이때, 배열 안테나(122d)로부터 출력하고자 하는 전파의 빔 패턴(BP)의 주 방향이 θ인 경우, 위상 변환기(122b)를 통한 위상 차이(△φ)는 [수학식 1]으로 나타낼 수 있다.
[수학식 1]
Figure 112015027744015-pat00001
(△φ는 위상 차이, d는 안테나 엘리먼트 사이의 간격, λ는 반송파의 파장, θ는 빔 패턴의 주 방향을 나타낸다.)
[수학식 1]에 의하면, 빔 패턴(BP)의 주 방향(θ)은 안테나 엘리먼트(122d-1,122d-2,...,122d-n) 사이의 위상 차이(△φ) 및 안테나 엘리먼트(122d-1,122d-2,...,122d-n) 사이의 간격(d)에 의하여 결정된다.
또한, 배열 안테나(122d)로부터 출력하고자 하나는 빔 패턴(BP)의 3dB 빔 폭(BW)은 [수학식 2]으로 나타낼 수 있다.
[수학식 2]
Figure 112015027744015-pat00002
(BW는 빔 패턴의 빔 폭, d는 안테나 엘리먼트 사이의 간격, λ는 반송파의 파장, N은 배열 안테나의 개수를 나타낸다.)
[수학식 2]에 의하면, 빔 패턴(BP)의 빔 폭(BW)은 안테나 엘리먼트(122d-1,122d-2,...,122d-n) 사이의 간격(d) 및 안테나 엘리먼트(122d-1,122d-2,...,122d-n)의 개수(N)에 의하여 결정된다.
제어부(110)는 무선 신호 변환 모듈(121)과 빔포밍 모듈(122)의 동작을 제어할 수 있다. 예를 들어, 차량(1)이 외부 차량, 외부 단말기 또는 외부 기지국과의 통신을 확립하는(establish) 경우, 제어부(110)는 최적의 무선 통신 채널을 평가하기 위하여 무선 신호 변환 모듈(121)과 빔포밍 모듈(122)을 제어할 수 있다. 구체적으로, 제어부(110)는 빔 패턴(BP)에 따라 무선 통신 채널을 평가하고, 평가 결과를 기초로 최적의 무선 통신 채널을 생성할 수 있다.
또한, 통신 신호를 송신하는 경우, 제어부(110)는 통신 신호를 송신하기 위한 빔 패턴(BP)을 형성하기 위하여 빔포밍 모듈(122)을 제어할 수 있다. 구체적으로, 제어부(110)는 빔포밍 모듈(122)에 의하여 형성되는 빔 패턴(BP)의 주 방향(θ)을 제어하기 위하여 안테나 엘리먼트(122d-1,122d-2,...,122d-n) 사이의 위상 차이(△φ)를 조절할 수 있다. 또한, 통신 신호를 수신하는 경우에도 제어부(110)는 통신 신호를 수신하기 위한 빔 패턴(BP)을 형성하기 위하여 빔포밍 모듈(122)을 제어할 수 있다.
차량(1)에 포함된 다른 전자 장치로부터 내부 통신부(170)를 통하여 데이터 전송 요청이 수신되면, 제어부(110)는 해당 데이터를 외부 차량, 외부 단말기 또는 외부 기지국으로 전송하도록 통신부(120)를 제어할 수 있다.
또한, 외부 차량, 외부 단말기 또는 외부 기지국으로부터 데이터가 수신되면, 제어부(110)는 수신된 데이터를 분석하여 데이터의 목표 장치를 판단하고, 수신된 데이터가 목적 장치로 송신하도록 내부 통신부(170)를 제어할 수 있다.
도 12 및 도 13은 일 실시예에 따른 차량의 빔포밍 모듈로부터 출력되는 신호의 빔 패턴을 개략적으로 나타낸 도면이다.
도 12를 참조하면, 통신부(120)는 전술한 빔포밍 모듈(122)의 구성 및 동작에 따라 신호를 전송하고자 하는 주변 차량(20-1)을 향하여 집속된 빔 패턴을 형성할 수 있다.
또한, 도 13에 도시된 바와 같이, 통신부(120)는 복수의 주변 차량(20-1,20-2,20-3)에 신호를 전송할 수 있다. 이 경우, 안테나 엘리먼트 간의 위상 차이를 조절하여 빔패턴의 방향을 바꾸어 첫 번째 주변 차량(20-1), 두 번째 주변 차량(20-2) 및 세 번째 주변 차량(20-3)을 향하여 순차적으로 신호를 송신할 수 있다. 즉, 유니캐스트(unicast) 방식의 통신을 짧은 시간 간격으로 순차적으로 수행할 수 있다. 또는, 복수의 주변 차량(20-1,20-2,20-3)에 동일한 내용의 신호를 전송하는 경우에는, 어레이 안테나(122d)를 구성하는 복수의 안테나 엘리먼트를 복수의 서브 어레이로 분할하여 그룹화하고, 그룹화된 각 서브 어레이마다 다른 방향을 할당하여 할당된 방향으로 지향성을 갖도록 빔 패턴을 형성하는 것도 가능하다. 또는, 빔패턴을 복수의 주변 차량(20-1,20-2,20-3)을 커버할 수 있도록 넓게 형성하여 하나의 빔패턴으로 복수의 주변 차량(20-1,20-2,20-3)에 신호를 전송하는 것도 가능하다.
어레이 안테나(122d)는 차량의 전면, 후면 및 측면 중 적어도 하나에 장착되거나, 차량의 상부, 즉 지붕에 장착되는 것도 가능하다. 또한, 어레이 안테나(122d)는 복수 개 장착될 수도 있으며, 신호를 보내고자 하는 방향이나 신호의 직진성을 고려하여 어레이 안테나(122d)의 장착 위치나 개수를 조절할 수 있다.
도 14는 차량이 주변 차량의 위치를 판단하는 일 예시를 나타내는 도면이다.
차량(1)은 주변 차량(20)에 집속된 빔 패턴을 형성하기 위해, 주변 차량(20)의 위치를 판단할 수 있다. 예를 들어, 도 13에 도시된 바와 같이, 전(全)방향 또는 여러 방향으로 빔을 방사한 후 응답(response)이 되돌아오는 방향에 주변 차량(20)이 위치하는 것으로 판단할 수 있다. 구체적으로, 차량(1)은 통신부(120)를 통해 전(全)방향으로 리퀘스트(request) 신호를 전송하고, 차량(1)의 주변에 위치하는 주변 차량(20)들로부터 애크(ack) 신호가 돌아오면, 애크 신호가 돌아온 방향에 주변 차량(20)이 위치하는 것으로 판단할 수 있다. 이 때, 주변 차량(20)의 위치를 더 정확히 판단하기 위해, 주변 차량(20)이 전송하는 애크 신호에 GPS 정보, 즉 위치 정보를 실어서 함께 보내는 것도 가능하다. 이 경우, 차량(1)을 기준으로 같은 방향에 중첩되어 위치하는 복수의 주변 차량들이 존재하더라도 이들을 구분할 수 있다.
다른 예로, 제어부(110)가 차량(1)에 마련된 각종 센서들의 출력 데이터에 기초하여 주변 차량(20)의 위치를 판단할 수 있다. 이에 관한 설명은 후술하도록 한다.
한편, 차량(1)은 위치가 판단된 주변 차량(20) 중에서 특정 위치의 주변 차량(20)을 목격 차량, 즉 사고 관련 정보를 요청할 차량으로 지정하는 것도 가능하다.
어떤 방식으로든지 통신 대상이 될 주변 차량(20)의 위치가 판단되면, 빔포밍 모듈(122)은 주변 차량(20)을 향하는 방향으로 집속된 빔 패턴을 형성한다. 어레이 안테나(122d)로부터 방사되는 신호는 지정된 주변 차량(20)으로만 지향성을 갖고 방사됨으로써, 신호간섭 효과를 최소화할 수 있다.
한편, 차량(1)과 주변 차량(20)은 기기간 직접 통신이 가능한 통신 커버리지(coverage) 내에만 위치하면, 미리 협의된 규약에 따라 운전자의 별도의 동의 없이 바로 연결될 수 있다. 예를 들어, 차량(1)이 주변 차량(20)에 리퀘스트 신호를 전송하고, 주변 차량(20)이 이에 대한 응답으로 애크 신호를 돌려보내면 바로 통신이 연결될 수 있다. 또는, 주변 차량(20)이 차량(1)의 통신 커버리지 내에 들어오면 차량(1)이 주변 차량(20)에 통신 연결의 동의를 구하는 신호를 추가적으로 전송하고, 주변 차량(20)이 통신 연결에 동의하는 때에 통신이 연결되는 것도 가능하다. 당해 실시예에서 통신이 연결된다는 것은, 기기 간에 바로 신호를 주고받을 수 있는 상태, 즉 통신 가능한 상태가 된 것을 의미하는 것으로 한다.
차량(1)과 주변 차량(20)의 통신이 연결되는 시점은 사고 발생 이전일 수도 있고, 사고 발생 직후일 수도 있다. 사고 발생 이전인 경우에는 사고 예측 이전일 수도 있고, 사고 예측 직후일 수도 있다. 또한, 통신이 연결되더라도 사고 관련 정보의 요청과 사고 관련 정보의 전송이 있기 전까지는 정보를 주고 받지 않고 대기 상태에 있을 수도 있고, 사고 관련 정보의 요청 이전에 차량(1)과 주변 차량(20)이 다른 정보를 주고받을 수도 있다.
도 15는 일 실시예에 따른 차량이 주변 차량과 주고받는 정보의 예시를 나타낸 도면이다.
도 15를 참조하면, 사고 발생 이전에 차량(1)이 주변 차량(20-1,20-2,20-3)과 통신을 수행하는 경우, 각 차량은 차량 관련 정보를 서로 공유할 수 있다. 차량 관련 정보는 차량 식별(ID) 정보와 차량 상태 정보를 포함할 수 있다.
차량 식별 정보는 차량 번호, 통신 매체로서 각 차량 또는 각 차량의 통신부에 부여된 IP 주소 또는 MAC 주소일 수 있고, 차량 상태 정보는 위치, 속도, 자세와 같은 정보를 포함할 수 있다.
차량(1)은 주변 차량(20)으로부터 필요한 정보를 수신하기만 하는 것도 가능하나, 자신의 차량 ID 정보와 차량 상태 정보를 주변 차량(20)에 전송하는 것도 가능하다.
주변 차량(20)에 사고가 발생한 경우에는 반대로 차량(1)이 주변 차량(20)에 사고 관련 정보를 전송하는 것도 가능하다. 즉, 사고 발생 또는 사고 예측 이전에는 차량(1)에 사고가 발생할지, 주변 차량(20)에 사고가 발생할지 여부를 판단할 수 없으므로 차량(1)과 주변 차량(20)이 서로의 정보를 공유할 수 있고, 사고가 발생하지 않은 차량이 사고가 발생한 차량에 사고 관련 정보를 전송할 수 있다.
도 16은 제어부의 구성이 구체화된 차량의 제어 블록도이고, 도 17은 감지부를 더 포함하는 차량의 제어 블록도이고, 도 18은 감지부에 포함될 수 있는 센서들의 예시가 도시된 제어 블록도이다.
도 16에 도시된 바와 같이, 제어부(110)는 통신을 수행할 주변 차량의 위치를 판단하는 통신대상 위치 판단부(111), 사고의 발생을 예측하거나 판단하는 사고 판단부(112) 및 주변 차량의 위치와 사고의 발생 또는 예측 여부에 따라 주변 차량에 적절한 신호를 전송하도록 통신부(120)를 제어하는 통신 제어부(113)를 포함할 수 있다.
통신대상 위치 판단부(111)는 전술한 바와 같이 전(全)방향 또는 여러 방향으로 빔을 방사한 후 응답(response)이 되돌아오는 방향에 주변 차량(20)이 위치하는 것으로 판단할 수도 있고, 후술하는 바와 같이 감지부(140)의 출력 데이터에 기초하여 주변 차량(20)의 위치를 판단할 수도 있다. 또한, 통신대상 위치 판단부(111)는 위치가 파악된 주변 차량(20) 중에서 사고 관련 정보를 요청할 대상을 선택하는 것도 가능하다.
도 17에 도시된 바와 같이, 차량(1)은 차량 상태 정보나 주변 환경을 감지하기 위한 감지부(140)를 더 포함할 수 있다.
감지부(140)의 감지 결과, 즉 출력 데이터는 통신대상 위치 판단부(111)로 전달될 수 있고, 통신대상 위치 판단부(111)는 감지부(140)의 출력 데이터에 기초하여 주변 차량(20)의 위치를 판단하고, 신호를 전송할 주변 차량(20)을 지정할 수 있다. 여기서, 신호를 전송할 주변 차량은 위치가 파악된 주변 차량 모두일 수도 있고, 위치가 파악된 주변 차량 중 일정 기준에 따라 선택된 주변 차량일 수도 있다.
통신 제어부(113)는 신호를 전송할 주변 차량의 위치 정보와 함께 해당 주변 차량에 어떤 신호를 전송하라는 명령이 담긴 제어 신호를 생성하여 통신부(120)에 전달할 수 있다. 즉, 통신부(120)가 지정된 주변 차량에 차량 상태 정보 또는 사고 관련 정보를 요청할 수 있도록 하는 제어 신호를 생성하여 전달할 수 있다. 또한, 동일한 명령이라도 통신부(120)의 구성에 따라 구체적인 제어 신호의 내용은 달라질 수 있다.
도 18을 참조하면, 감지부(140)는 차량(1) 주변의 영상을 촬영하는 영상 센서(141), 차량(1)의 가속도를 감지하는 가속도 센서(142), 차량(1)에 가해진 충격을 감지하는 충돌 센서(143), 차량(1)의 주변에 위치하는 물체의 존재 또는 물체와의 거리를 감지하는 근접 센서(144), 차량(1)의 자세를 감지하는 자이로 센서(145), 스티어링 휠의 조향각을 감지하는 조향각 센서(146) 및 차량의 속도를 감지하는 차속 센서(147)를 포함할 수 있다. 다만, 차량(1)의 실시예가 이에 한정되는 것은 아니며, 상기 센서들 외에 다른 센서를 더 포함할 수도 있고, 필요에 따라 상기 센서들 중 일부를 포함하지 않을 수도 있다.
영상 센서(141)는 차량(1)에 장착된 블랙박스에 포함될 수 있으며, 차량(1)의 전(前)방, 후방 및 측방 중 적어도 한 방향의 영상을 획득하거나, 어라운드 뷰(around-view) 영상을 획득할 수 있다.
가속도 센서(142), 충돌 센서(143) 및 차속 센서(147)는 별개로 마련될 수도 있으나, 가속도 센서(142)의 출력에 기초하여 차량(1)에 가해진 충격이나 차량의 속도를 계산하는 것도 가능하다.
자이로 센서(144)는 물체의 자세를 측정하는 센서로서, 서로 직교하는 피치(pitch) 축, 요(yaw) 축 및 롤(roll) 축에 대한 변동을 측정할 수 있다. 차량에 장착된 자이로 센서는 각 축에 대한 차량의 회전각 속도를 측정할 수 있고, 자이로 센서(144)의 출력 데이터에 기초하여 차량의 자세를 판단할 수 있다.
근접 센서(145)는 적외선 센서, 초음파 센서 및 레이더 중 적어도 하나를 이용하여 센서와 근접한 물체의 존재, 해당 물체와의 거리 또는 해당 물체의 속도를 감지할 수 있다. 여기서, 레이더는 전파를 이용하는 레이더일 수도 있고, 레이저 펄스를 이용하는 레이저 레이더(laser radar)일 수도 있다.
적외선 센서는 야간의 시야 확보 또는 보행자 감지를 위해 사용될 수 있고, 초음파 센서는 약 150cm 이하의 근거리에 존재하는 물체를 감지하는데 사용될 수 있다.
레이저 레이더는 레이저 빔을 조사하고 조사된 레이저 빔이 되돌아오는 시간을 측정하여 차량(1) 주변에 존재하는 물체와의 거리를 측정하는데 사용될 수 있다. 레이저 레이더는 라이다(Light Detection And Ranging: LIDAR)라고도 한다.
전파를 이용하는 레이더는 전파의 파장 대역에 따라 마이크로파 레이더 (microwave radar) 와 밀리파 레이더(millimeter wave radar) 등이 있다. 이들은 차량(1)과 물체 사이의 거리 및 물체에 대한 속도를 측정하는데 사용될 수 있다.
감지부(140)의 출력 데이터는 저장부(130)에 비일시적 또는 일시적으로 저장될 수 있고, 미리 설정된 시간 동안 저장된 후 자동 삭제되거나 미리 설정된 저장 용량을 초과하는 때에 먼저 저장된 데이터부터 자동 삭제될 수 있다.
감지부(140)의 출력 데이터가 저장부(130)에 저장될 때 감지 당시의 시각 정보 및 위치 정보 중 적어도 하나가 함께 저장되는 것도 가능하다. 따라서, 사고 관련 정보를 서버(30)에 업로드하거나, 사고 관련 정보를 주변 차량(20)에 요청하거나, 주변 차량(20)에 발생한 사고와 관련된 정보를 검색할 때 저장부(130) 저장된 정보 중 필요한 정보를 검색하여 사용할 수 있다. 주변 차량(20)이 차량(1)으로부터 사고 관련 정보를 요청 받으면, 사고 예측 시간 및 사고 예측 위치 또는 사고 발생 시간 및 사고 발생 위치를 참조하여, 저장부(23)에서 필요한 정보를 검색한다.
구체적으로, 통신대상 위치 판단부(111)는 영상 센서(141) 및 근접 센서(145) 중 적어도 하나의 감지 결과에 기초하여 통신 대상이 되는 주변 차량(20)을 지정할 수 있다. 예를 들어, 영상 센서(141) 또는 근접 센서(145)에 의해 감지된 주변 차량 중 일정 반경 이내에 위치하는 차량을 모두 통신 대상으로 지정할 수도 있고, 일정 반경 이내에 위치하는 차량 중 특정 방향에 위치하는 차량만 통신 대상으로 지정할 수도 있으며, 일정 반경 이내에 위치하는 차량 중 절대 속도 또는 상대 속도가 일정 기준 속도 이하인 차량만 통신 대상으로 지정할 수도 있다.
또한, 차량(1)과 주변 차량(20)이 주행함으로써, 차량(1)과 주변 차량(20)의 상대적인 위치가 달라질 수 있는바, 통신대상 위치 판단부(111)는 감지부(140)의 감지 결과에 기초하여 주변 차량(20)을 트래킹(tracking)하고, 주변 차량(20)의 위치 변화와 빔 패턴의 형성을 동기시킬 수 있다. 주변 차량(20)의 트래킹은 실시간으로 이루어질 수 있는바, 주변 차량(20)의 위치 변화와 빔 패턴의 형성은 실시간으로 동기될 수 있다. 이로써, 차량(1)은 지정된 주변 차량(20)의 상대적인 위치가 변하더라도 지속적으로 통신을 수행할 수 있다.
전술한 바와 같이, 사고 관련 정보의 요청은 사고 예측 시에 이루어질 수도 있고, 사고 발생 시에 이루어질 수도 있다. 사고 판단부(112)는 감지부(140)의 감지 결과에 기초하여 사고를 예측하거나, 사고 발생 여부를 판단할 수 있다.
구체적인 예로서, 사고 판단부(112)는 근접 센서(145) 또는 영상 센서(141)에 의해 감지된 물체의 위치, 차량과 물체의 거리가 감소하는 속도, 차속 센서(147)에 의해 감지된 차량의 속도, 가속도 센서(142)에 의해 감지된 차량의 가속도 및 조향각 센서(146)에 의해 감지된 차량의 조향각 중 적어도 하나의 정보를 분석하여 충돌 가능성을 판단하고, 사고를 예측할 수 있다.
또한, 근접 센서(145), 영상 센서(141), 가속도 센서(142), 충돌 센서(143) 및 자이로 센서(144) 중 적어도 하나의 출력 데이터를 분석하여 사고 발생 여부를 판단할 수 있다. 또한, 도면에 도시되지는 않았으나, 차량(1)이 음향을 감지하는 음향 센서를 더 포함하고, 음향 센서의 출력 데이터를 다른 센서들의 출력 데이터와 함께 또는 단독으로 분석하여 사고 발생 여부를 판단하는 것도 가능하다. 예를 들어, 근접 센서(145), 영상 센서(141), 가속도 센서(142), 충돌 센서(143) 및 자이로 센서(144) 중 적어도 하나의 출력 데이터를 분석한 결과, 차량(1)이 다른 차량 또는 외부의 물체와 급격하게 가까워지거나, 차량(1)의 속도가 급격하게 줄어들거나, 차량(1)의 자세가 급격하게 변하거나, 충돌 센서(143)가 차량(1)의 충돌을 감지한 경우에, 음향 센서가 미리 설정된 기준 레벨 이상의 음향을 감지하면, 사고가 발생한 것으로 판단할 수 있다.
다만, 전술한 설명은 차량(1) 및 사고 정보 관리 장치(100)에 적용될 수 있는 일 예시에 불과하며, 전술한 예시 외에 다른 방식으로 사고를 예측하거나 사고 발생 여부를 판단하는 것도 가능하다.
사고 판단부(112)가 사고를 예측하거나 사고 발생을 판단하면, 전술한 바와 같이 통신대상 위치 판단부(111)가 주변 차량의 위치를 판단하고, 통신 제어부(113)가 통신부(120)로 하여금 주변 차량에 사고 관련 정보 또는 차량 상태 정보를 요청할 수 있도록 하는 제어 신호를 생성하여 통신부(120)에 전송할 수 있다. 또는, 사고 예측 이전에 주변 차량과 사전 통신을 통해 차량 상태 정보를 주고 받는 경우에는, 사고 판단부(112)가 사고를 예측하거나 사고 발생을 판단하지 않더라도 통신대상 위치 판단부(111)가 주변 차량의 위치를 판단하고, 통신 제어부(113)가 제어 신호를 생성하여 통신부(120)에 전송할 수 있다.
통신대상 위치 판단부(111), 사고 판단부(112) 및 통신 제어부(113)는 별도의 프로세서 및 메모리로 구현될 수도 있고, 이들 중 일부 또는 전부가 프로세서나 메모리를 공유하는 것도 가능하다.
사고 관련 정보는 제어부(110)가 통신부(120)를 통해 자동으로 주변 차량(20)에 요청할 수도 있고 사용자로부터 요청 여부에 대한 확인을 받은 뒤에 요청할 수도 있다. 이하, 도 18 내지 도 20을 참조하여 사용자로부터 요청 여부에 대한 확인을 받은 뒤에 요청하는 예시를 설명하도록 한다.
도 19는 사용자 인터페이스를 포함하는 차량의 제어 블록도이고, 도 20은 사용자 인터페이스를 포함하는 차량의 내부 구성도이며, 도 21은 사용자로부터 사고 관련 정보 요청 여부에 대한 선택을 입력 받기 위한 화면의 예시이다.
차량(1)에는 사용자에게 컨텐츠 또는 정보를 제공하고 사용자의 명령 또는 선택을 입력 받는 사용자 인터페이스(150)가 마련될 수 있다. 도 18을 참조하면, 차량(1)은 사용자에게 시각적인 컨텐츠 또는 정보를 제공하는 디스플레이부(151) 및 사용자로부터 명령 또는 선택을 입력 받는 입력부(152)를 포함한다.
도 20의 예시를 참조하면, 디스플레이부(151)는 AVN(Audio Video Navigation) 디스플레이(151a), 클러스터 디스플레이(151b) 및 헤드업 디스플레이(미도시)를 포함할 수 있다. 입력부(152)는 AVN 입력부(152a), 스티어링휠 입력부(152b) 및 센터 입력부(152c)를 포함할 수 있다.
차량 앞쪽 대시보드(dashboard, 10)의 센터페시아(center fascia, 11)에는 AVN 디스플레이(151a)가 마련될 수 있고, 클러스터 디스플레이(151b)는 대시보드(2)의 영역 중 스티어링 휠(3)과 대면하는 영역에 마련된다. 헤드업 디스플레이는 사용자에게 직접적으로 시각 정보를 제공하는 것이 아니라, 시각 정보를 반사시켜 차량(1)의 전면 유리(104)에 표시되도록 하는 장치이다. 따라서, 헤드업 디스플레이에서 출력하는 영상은 전면 유리(104)의 디스플레이 영역(104c)을 통해 사용자에게 보여진다. 그러나, 사용자에게 보여지는 영상은 실제로는 전면 유리(104)의 외부에 형성된 허상이다.
AVN 디스플레이(151a), 클러스터 디스플레이(151b) 및 헤드업 디스플레이는 AVN 단말이 수행하는 기능, 즉 오디오, 비디오 및 내비게이션과 관련된 컨텐츠 또는 정보를 표시할 수도 있고, 차량의 속도, 잔여 연료량, 주행 거리 등 차량의 주행과 관련된 정보를 표시할 수도 있다. 뿐만 아니라, 차량(1) 전반의 제어와 관련된 컨텐츠 또는 정보도 표시할 수 있다.
AVN 디스플레이(151a)와 클러스터 디스플레이(151b)는 LCD(Liquid Crystal Display), LED(Light Emitting Diode), PDP(Plasma Display Panel), OLED(Organic Light Emitting Diode), CRT(Cathode Ray Tube) 등의 디스플레이 장치로 구현될 수 있다.
AVN 입력부(152a), 클러스터 입력부(152b) 및 센터 입력부(152c)는 그 위치에 따라 구분될 수 있는바, AVN 입력부(152a)는 AVN 디스플레이(151a)의 측면에 하드 키 형태로 마련될 수도 있고, 터치 패널로 구현될 수도 있다. AVN 디스플레이(151a)가 터치 패널로 구현되는 경우에는, AVN 디스플레이(151a)의 전면에 장착되어 터치 스크린을 형성할 수 있다.
클러스터 입력부(152b)는 스티어링 휠(3)에 하드 키 형태로 마련되어 운전자가 스티어링 휠(12)을 잡은 상태에서 조작할 수 있도록 하는 것이 가능하다.
센터 입력부(152c)는 조그셔틀(jogshuttle) 또는 조이스틱(joystick) 형태로 구현될 수도 있고, 터치 패드 형태로 구현될 수도 있다. 센터 입력부(152c)가 조그셔틀로 구현되는 경우, 사용자는 조그셔틀을 전방/후방 및 좌/우로 밀거나 위에서 아래로 가압하거나 돌리는 등의 조작을 통해 원하는 명령을 입력할 수 있다.
AVN 입력부(152a), 클러스터 입력부(152b) 및 센터 입력부(152c)는 AVN 기능과 관련된 명령 또는 선택을 입력 받을 수 있고, 뿐만 아니라 차량(1) 전반의 제어와 관련된 명령 또는 선택을 입력 받을 수도 있다.
일 예로, 도 21에 도시된 바와 같이, AVN 디스플레이(151a)가 사고 관련 정보를 요청할 것인지 여부를 확인하는 메시지(151M)와, 선택을 입력 받기 위한 버튼(151Y,151N)을 표시할 수 있다. 사용자는 메시지(151M)를 확인하고, 입력부(152)를 이용하여 사고 관련 정보의 요청을 위한 예 버튼(151Y) 또는 사고 관련 정보의 요청 거부를 위한 아니오 버튼(151N)을 선택할 수 있다. 이 경우, 제어부(110)는 사용자가 예 버튼(151Y)을 선택한 경우에만 주변 차량(20)에 사고 관련 정보를 요청할 수 있다.
또한, 디스플레이부(151)에는 사고 관련 정보의 분석 결과가 표시될 수도 있는바, 이에 관한 설명은 후술하도록 한다.
차량(1)은 주변 차량(20)으로 사고 관련 정보를 요청하기 위한 신호를 전송할 때 사고 발생 정보를 함께 전송할 수 있다. 사고 발생 정보는 사고 발생 시각 및 사고 발생 위치 중 적어도 하나의 정보를 포함할 수 있다. 또는, 사고 발생 정보 없이 사고 관련 정보를 요청하기 위한 신호만 송신하는 것도 가능하다.
도 22는 GPS 수신부를 더 포함하는 차량의 제어 블록도이다.
도 22를 참조하면, 차량(1)은 GPS(Global Positioning System) 위성으로부터 차량(1)의 위치 정보를 수신하는 GPS 수신부(160)를 더 포함할 수 있다.
GPS 수신부(160)가 수신한 차량(1)의 위치 정보는 내비게이션 기능을 수행하는데 사용될 수 있고, 뿐만 아니라 주변 차량(20)에 사고 관련 정보를 요청할 때 함께 전송되거나, 차량 상태 정보로서 전송되거나, 또는 서버(30)에 사고 발생 정보로서 전송될 수 있다.
차량의 위치 정보는 GPS 좌표일 수도 있다. 또한, 내비게이션 기능을 수행하기 위해 저장부(130)에 지도 데이터가 저장된 경우에는 GPS 좌표와 지도 데이터를 매칭시켜 획득한 주소 정보를 차량의 위치 정보로 할 수도 있다.
제어부(110)가 사고 예측 시에 사고 관련 정보를 요청하는 경우에는, 사고 예측 시간과 해당 시간에 차량의 위치 정보, 즉 사고 예측 위치를 함께 전송할 수 있고, 사고 발생 시에 사고 관련 정보를 요청하는 경우에는, 사고 발생 시간과 해당 시간에 차량의 위치 정보, 즉 사고 발생 위치를 함께 전송할 수 있다.
주변 차량(20)은 차량(1)과 마찬가지로 차량 상태 정보나 주변 환경을 감지하기 위한 감지부(24), GPS 위성으로부터 주변 차량(20)의 위치 정보를 수신하는 GPS 수신부(26), 감지부(24) 감지 결과 및 주변 차량(20)의 위치 정보를 저장하는 저장부(23)를 포함할 수 있다.
감지부(24)는 주변 차량(20) 주변의 영상을 촬영하는 영상 센서, 주변 차량(20)의 가속도를 감지하는 가속도 센서, 주변 차량(20)에 가해진 충격을 감지하는 충돌 센서, 주변 차량(20)의 주변에 위치하는 물체의 존재 또는 물체와의 거리를 감지하는 근접 센서, 주변 차량(20)의 자세를 감지하는 자이로 센서, 스티어링 휠의 조향각을 감지하는 조향각 센서 및 차량의 속도를 감지하는 차속 센서를 포함할 수 있다.
감지부(24)의 감지 결과 중 전부 또는 일부는 저장부(23)에 비일시적 또는 일시적으로 저장될 수 있고, 일시적으로 저장되는 경우에는 미리 설정된 시간 동안 저장된 후 자동 삭제되거나 미리 설정된 저장 용량을 초과하는 때에 먼저 저장된 데이터부터 자동 삭제될 수 있다.
감지부(24)의 감지 결과가 저장부(23)에 저장될 때 감지 당시의 시각 정보 및 위치 정보 중 적어도 하나가 함께 저장되는 것도 가능하다. 따라서, 주변 차량(20)이 차량(1)으로부터 사고 관련 정보를 요청 받으면, 사고 예측 시간 및 사고 예측 위치 또는 사고 발생 시간 및 사고 발생 위치를 참조하여, 저장부(23)에서 필요한 정보를 검색한다.
예를 들어, 사고 발생 시간 전후로 5분 동안에 감지된 정보를 검색하여 차량(1) 또는 서버(30)에 전송할 수도 있고, 사고 발생 시간 전후로 5분 동안에 감지된 정보 중 사고 발생 위치로부터 반경 100m 이내에서 감지된 정보를 차량(1) 또는 서버(30)에 전송할 수도 있다. 여기서, 5분과 100m는 일 예시에 불과하며, 차량(1)에 발생한 사고와 관련된 정보를 포함하는 감지 결과를 검색할 수 있도록 적절한 시간 및 거리가 선택될 수 있다. 이 때, 시간과 거리를 포함하는 검색 범위는 차량(1)과 주변 차량(20)의 운전자 사이에 미리 협의될 수도 있고, 차량(1)이 주변 차량(20)에 사고 관련 정보를 요청할 때 검색 범위를 지정하여 함께 전송할 수도 있으며, 주변 차량(20)에서 임의로 설정하는 것도 가능하다.
주변 차량(20)에서 차량(1) 또는 서버(30)로 전송하는 사고 관련 정보는 블랙박스 영상, 즉 영상 센서가 촬영한 영상을 포함할 수 있고, GPS 수신부가 수신한 주변 차량(20)의 위치 정보, 차속 센서가 감지한 주변 차량(20)의 차속, 자이로 센서가 감지한 주변 차량(20)의 자세 및 조향각 센서가 감지한 주변 차량(20)의 스티어링 휠의 조향각 중 적어도 하나를 포함하는 차량 상태 정보도 함께 전송될 수 있다.
도 23 및 도 24는 차량의 사고와 관련하여 서버에 저장되는 정보를 나타내는 도면이다.
앞서, 설명한 바와 같이, 차량(1)의 사고 관련 정보는 차량(1) 또는 주변 차량(20)이 서버(30)로 업로드할 수 있다. 사고 관련 정보의 업로드 시에는 차량(1)의 식별 정보와 사고 발생 정보도 함께 업로드할 수 있다.
도 23에 도시된 바와 같이, 서버(30)는 차량(1)의 식별 정보를 태그로 하여 사고 관련 정보와 사고 발생 정보를 저장할 수 있다. 또한, 차량(1)이 획득한 정보는 사고 차량 정보로서 함께 저장될 수 있고, 사고 차량 정보는 사고 발생 당시 차량(1)의 속도, 자세, 촬영된 영상 등을 포함할 수 있다.
교통 사고에는 둘 이상의 차량이 관련되는 경우가 많다. 따라서, 서버(30)는 복수의 차량(1)으로부터 업로드되는 사고 발생 정보를 비교하여 동일한 사고에 관련된 차량들을 검출할 수 있다. 그리고, 동일한 사고에 관련된 차량들로부터 업로드된 사고 관련 정보들은 도 24에 도시된 바와 같이 그룹화하여 저장 및 관리할 수 있다. 도 24에 도시된 바와 같이, 차량(1)의 식별 정보를 태그로 하는 것이 아니라 사고 발생 정보를 태그로 하여 사고 관련 정보 및 사고 차량 정보를 저장하는 것도 가능하다. 이 때, 사고 차량은 둘 이상의 차량, 예를 들어 사고 차량1과 사고 차량2일 수 있고, 사고 차량 별로 속도, 자세, 영상 등의 사고 차량 정보를 저장할 수 있다. 또한, 사고 관련 정보를 제공한 주변 차량(20)은 사고 차량1로부터 사고 관련 정보를 요청 받은 주변 차량1과 사고 차량2로부터 사고 관련 정보를 요청 받은 주변 차량2를 모두 포함할 수 있다.
한편, 차량(1)은 사고 발생 정보를 사고 관련 정보와 함께 서버(30)에 업로드할 수도 있고, 사고가 발생하면 사고 관련 정보와 무관하게 서버(30)에 사고 발생 정보를 업로드하고 사고 관련 정보는 획득 되는대로 차량(1) 또는 주변 차량(20)이 서버(30)에 업로드하는 것도 가능하다. 전자의 경우에도, 사고 관련 정보를 획득하지 못한 경우에는 사고 발생 정보만 서버(30)에 업로드할 수 있다.
두 경우 모두, 사고 관련 정보를 제공한 주변 차량(20)이 차량(1) 주변에 존재하지 않거나, 주변 차량(20)이 사고 관련 정보를 검색하지 못한 경우라도 사고 발생 사실은 서버(30)에 통지된다. 도 24의 예시와 같이, 서버(30)가 동일한 사고에 대한 사고 관련 정보들을 통합적으로 저장 및 관리하면, 사고 당사자 중 어느 한 쪽이 사고와 관련하여 필요한 정보를 제공 받지 못하는 등의 문제를 방지할 수 있고, 동일한 사고에 대해 다른 분석 결과가 나오는 것을 방지할 수 있다.
도 25는 서버의 사고 분석 결과와 관련된 신호의 흐름을 나타낸 도면이다.
도 25에 도시된 바와 같이, ①.차량(1)이 주변 차량(20)에 사고 관련 정보를 요청하고, ②.주변 차량(20)이 차량(1)에 사고 관련 정보를 전송하고, ③.차량(1)이 서버(30)에 사고 관련 정보를 업로드하면, 서버(30)가 사고 관련 정보 및 사고 차량 정보를 이용하여 사고 원인을 분석할 수 있다. 또한, 더 나아가 사고 차량들 간에 과실 비율을 분석하는 것도 가능하다. 당해 예시에서는 사고 관련 정보가 차량(1)으로부터 업로드되는 것으로 하였으나, 주변 차량(20)이 서버(30)에 바로 업로드하는 것도 가능함은 물론이다.
서버(30)의 분석 결과는 ④-1.차량(1)에 전송될 수도 있고, ④-2.보험사(I)에 전송될 수도 있으며, ④-3.휴대폰과 같은 모바일 기기(M)에 전송될 수도 있고, ④-4.이메일과 같은 개인 계정(E)으로 전송될 수도 있다. 차량(1), 보험사(I), 모바일 기기(M) 및 개인 계정(E) 중 하나에 전송될 수도 있고, 이들 중 일부에 전송될 수도 있으며, 전부에 전송될 수도 있다.
분석 결과를 수신하는 보험사(I), 모바일 기기(M) 및 개인 계정(E)에 관한 정보는 차량(1)이 서버(30)에 사고 발생 정보 또는 사고 관련 정보를 업로드할 때 함께 전송되거나, 사고 발생 이전에 서버(30)에 미리 저장될 수 있다. 서버(30)에 미리 저장되는 경우에는, 차량(1) 별로 사고 발생 시 분석 결과를 전송할 대상을 미리 지정할 수 있다.
도 26dms 차량이 주변 차량에 사고 관련 정보를 전송하는 경우를 나타내는 도면이다.
앞서도 언급한 바와 같이, 차량(1)은 주변 차량에 사고가 발생한 경우에 주변 차량의 사고와 관련된 정보를 전송할 수 있다. 사고가 발생한 주변 차량(20)은 자기 주변에 위치하는 차량(1)에 ①.사고 관련 정보를 요청할 수 있고, ②.차량(1)의 제어부(110)는 저장부(130)에 저장된 정보들 중에서 주변 차량(20)이 요청한 사고 관련 정보를 검색할 수 있다. ③-1.차량(1)은 검색한 사고 관련 정보를 주변 차량(20)에 전송할 수도 있고, ③-2.서버(30)에 바로 업로드하는 것도 가능하다. 전자의 경우, ④-1.주변 차량(20)은 수신한 사고 관련 정보를 서버(30)에 업로드할 수 있다. 이 때, 주변 차량(20)은 일 실시예에 따른 차량(1)일 수도 있고, 그렇지 않을 수도 있다. 즉, 차량(1)에 사고 관련 정보를 요청하고, 차량(1)이 요청 받은 사고 관련 정보를 전송하는 주변 차량(20)이 반드시 차량(1)과 동일한 구성을 가져야 하는 것은 아니다.
이하, 다른 실시예에 따른 사고 정보 관리 장치 및 이를 포함하는 차량에 관하여 설명한다.
도 27은 다른 실시예에 따른 사고 정보 관리 장치의 제어 블록도이다.
도 27을 참조하면, 다른 실시예에 따른 사고 정보 관리 장치(200)는 주변 차량(20)과 통신을 수행하는 통신부(220), 통신부(220)를 통해 주변 차량(20)에 사고 관련 정보를 요청하는 제어부(210) 및 외부로부터 수신한 정보를 저장하는 저장부(230)를 포함한다.
사고 정보 관리 장치(200)는 차량(2)에 장착되어, 자기 차량의 사고와 관련된 정보를 주변 차량(20)에 요청하고, 주변 차량(20)으로부터 수신한 정보를 서버에 전달하거나 직접 분석할 수 있다.
주변 차량(20)의 통신부(22)가 사고 정보 관리 장치(200)가 장착된 차량(2)으로부터 사고 관련 정보의 요청 신호를 수신하면, 제어부(21)가 저장부(23)에서 해당 사고 관련 정보를 검색하여 통신부(22)를 통해 차량(2)으로 전송한다.
이 때, 차량(2)의 통신부(220)와 주변 차량(20)의 통신부(22) 사이의 통신은 기지국을 통하지 않는 기기간 직접 통신(Device to Device communication: D2D 통신)을 이용할 수 있다. 또한, 통신의 주체를 차량으로 파악하면 두 통신부(120,22) 사이의 통신은 차량간 직접 통신(Vehicle to Vehicle: V2V)이라고 할 수도 있다.
통신부(220)는 전술한 실시예에 따른 통신부(120)와 같이, 시간 분할 다중 접속(Time Division Multiple Access: TDMA)과 부호 분할 다중 접속(Code Division Multiple Access: CDMA) 등의 제2 세대(2G) 통신 방식, 광대역 부호 분할 다중 접속(Wide Code Division Multiple Access: WCDMA)과 CDMA2000(Code Division Multiple Access 2000)과 와이브로(Wireless Broadband: Wibro)와 와이맥스(World Interoperability for Microwave Access: WiMAX) 등의 3세대(3G) 통신 방식, 엘티이(Long Term Evolution: LTE)와 와이브로 에볼루션(Wireless Broadband Evolution) 등 4세대(4G) 통신 방식을 채용할 수 있다. 또한, 통신부(120)는 5세대(5G) 통신 방식을 채용할 수도 있다. 통신부(120)는 전술한 통신 방식을 채용하여 기지국을 통하거나, 기지국을 통하지 않고 다른 기기와 직접 통신을 수행하여 신호를 주고 받을 수 있다.
이외에도 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스(Bluetooth), 지그비(Zigbee), WFD(Wi-Fi Direct), UWB(Ultra wideband), 적외선 통신(IrDA; Infrared Data Association), BLE (Bluetooth Low Energy), NFC(Near Field Communication) 등과 같은 통신방식을 통해 소정 거리 이내의 기기와 무선 신호를 주고 받을 수 있다.
이하 상술할 실시예에서는 통신부(220)가 5G 통신방식을 채용하는 것으로 하여 설명한다.
한편, 통신부(220)는 차량 간 직접 통신을 수행함에 있어서, 전술한 실시예에서 설명한 통신부(120)와 같이 어레이 안테나와 빔포머를 이용한 빔포밍을 통해 특정 주변 차량에 신호를 송신하는 것도 가능하나, 사고 정보 관리 장치(200) 및 이를 포함하는 차량(2)의 실시예가 이에 한정되는 것은 아닌바, 빔포밍을 하지 않고 주변 차량과 직접 통신을 수행하는 것도 가능하다.
제어부(210)는 후술하는 동작을 실행하기 위한 프로그램 및 데이터를 일시적 또는 비일시적으로 저장하는 메모리 및 메모리에 저장된 프로그램에 따른 동작을 수행하고 데이터를 처리하는 마이크로 프로세서를 포함할 수 있다. 예를 들어, 제어부(210)는 차량에 탑재되는 ECU(Electronic Control Unit) 또는 MCU(Micro Control Unit)에 포함되거나, ECU 또는 MCU로 구현될 수 있다. 저장부(220)는 램(RAM: Read Access Memory), 롬(Rom: Read Only Memory), 하드 디스크(HDD: Hard Disk Drive), 자기 디스크(magnetic disk), 광 디스크(optical disk), 또는 반도체 디스크(solid state disk) 등의 저장 매체를 포함할 수 있다. 제어부(210)의 프로그램과 데이터를 저장하는 메모리는 저장부(220)에 포함될 수도 있고, 별개로 마련될 수도 있는바, 당해 실시예에서는 이에 대한 제한을 두지 않는다.
제어부(210)는 사고의 예측 시 또는 사고의 발생 시에 주변 차량(20)에 사고 관련 정보를 요청할 수 있다. 이 때, 제어부(210)는 사고 관련 정보를 요청할 주변 차량(20)의 범위를 결정할 수 있다. 이하, 도 27 내지 도 29를 참조하여 설명한다.
도 28 내지 도 31은 다른 실시예에 따른 차량이 일정 반경 내에 위치하는 주변 차량들에 신호를 송신하는 경우에 관한 도면이다.
도 28의 예시와 같이, 제어부(210)는 자기 차량(2)을 중심으로 미리 설정된 반경(R) 내에 위치하는 모든 주변 차량(20-1,20-2,20-3,20-4,20-5,20-6)과 신호를 주고 받을 수 있다.
미리 설정된 반경(R)은 차량에 장착되는 블랙박스의 FOV(Field Of View)나 해상도 등의 정보를 고려하여 결정될 수도 있고, 통신부(220)의 통신 커버리지에 의해 결정될 수도 있다. 또한, 결정된 반경이 사용자에 의해 변경되는 것도 가능하다.
이 경우, 통신부(220)는 전술한 실시예에서와 같이, 신호를 특정 방향으로 집속시키기 위한 빔포밍 모듈을 포함하여 유니캐스트(unicast) 또는 멀티캐스트(multicast) 방식으로 각각의 주변 차량에 신호를 집속시켜 송신하는 것도 가능하나, 빔포밍 모듈을 포함하지 않고 브로드캐스트(broadcast) 방식으로 일정 반경 내에 신호를 뿌리거나, 주변 차량의 ID 정보를 이용하여 멀티 캐스트 방식으로 특정 주변 차량에 신호를 전송하는 것도 가능하다.
주변 차량들에 전송하는 정보는 차량(2)의 식별 정보 및 차량 상태 정보 중 적어도 하나를 포함할 수 있고, 주변 차량들로부터 수신하는 정보는 주변 차량의 식별 정보, 차량 상태 정보 및 사고 관련 정보 중 적어도 하나를 포함할 수 있다. 전술한 바와 같이, 차량 식별 정보는 차량 번호, 통신 매체로서 각 차량 또는 각 차량의 통신부에 부여된 IP 주소 또는 MAC 주소일 수 있고, 차량 상태 정보는 위치, 속도, 자세, 조향각과 같은 정보를 포함할 수 있다. 사고 관련 정보는 주변 차량에 장착된 블랙박스가 촬영한 영상을 포함할 수 있다.
차량(2)은 도 29에 도시된 바와 같이, ①.미리 설정된 반경(R) 내에 위치하는 모든 주변 차량들(20-1,20-2,20-3,20-4,20-5,20-6)에 사고 관련 정보를 요청하고, ②.모든 주변 차량들로부터 사고 관련 정보를 수신하여 ③서버(30)에 업로드할 수 있다.
또는, 도 30 및 도 31에 도시된 바와 같이, ①모든 주변 차량들에 차량 상태 정보를 요청하고, ②모든 주변 차량들로부터 차량 상태 정보를 수신한 후 ③수신된 차량 상태 정보를 분석하여 사고 관련 정보를 요청할 대상을 선택하는 것도 가능하다. 당해 실시예에서는 사고 관련 정보를 요청할 대상이 되는 차량을 목격 차량이라 하기로 한다. 차량(2)은 ④목격 차량으로 선택된 주변 차량(20-4)에만 사고 관련 정보를 요청하고, ⑤선택된 주변 차량(20-4)으로부터 사고 관련 정보를 수신하여, ⑥이를 서버(30)에 업로드하는 것도 가능하다. 도 30 및 도 31의 예시에서는 목격 차량이 한 대 선택되는 것으로 하였으나, 둘 이상의 목격 차량이 선택될 수도 있음은 물론이다.
차량(2)이 선택된 주변 차량(20-4)에만 신호를 전송함에 있어서, 빔포밍 모듈을 이용한 빔포밍 방식을 채용할 수도 있고, 선택된 주변 차량(20-4)의 식별 정보를 이용할 수도 있다.
또한, 도 29 및 도 31의 경우 모두, 모든 주변 차량 또는 목격 차량으로 선택된 주변 차량이 서버(30)에 직접 사고 관련 정보를 업로드하는 것도 가능하다.
또한, 전술한 실시예에서와 같이, 사고 발생 시 차량(2)이 서버(30)에 사고 발생 시각과 사고 발생 위치를 포함하는 사고 발생 정보를 업로드함으로써 사고 발생 사실을 통지한 이후에 사고 관련 정보를 수집하는 것도 가능하고, 사고 관련 정보를 업로드할 때에 사고 발생 정보를 함께 업로드하는 것도 가능하다.
또한, 차량(2)과 주변 차량(20)은 사고 발생 이전부터 통신을 수행하여 차량 식별 정보나 차량 상태 정보를 주고 받을 수 있다. 차량(2)과 주변 차량(20)이 통신을 수행하는 시점은 사고 예측 이후일 수도 있고, 사고 예측 이전일 수도 있다.
도 32는 다른 실시예에 따른 차량에 있어서, 차량 상태 정보를 획득할 수 있는 구성을 더 포함하는 차량의 제어 블록도이다.
도 32를 참조하면, 차량(2)은 차량 상태 정보나 주변 환경을 감지하기 위한 감지부(240) 및 GPS(Global Positioning System) 위성으로부터 차량(2)의 위치 정보를 수신하는 GPS 수신부(260)를 더 포함할 수 있다.
일 예로서, 감지부(240)는 차량(2) 주변의 영상을 촬영하는 영상 센서, 차량(2)의 가속도를 감지하는 가속도 센서, 차량(2)에 가해진 충격을 감지하는 충돌 센서, 차량(2)의 주변에 위치하는 물체의 존재 또는 물체와의 거리를 감지하는 근접 센서, 차량(2)의 자세를 감지하는 자이로 센서, 스티어링 휠의 조향각을 감지하는 조향각 센서 및 차량의 속도를 감지하는 차속 센서를 포함할 수 있다. 다만, 차량(2)의 실시예가 이에 한정되는 것은 아니며, 상기 센서들 외에 다른 센서를 더 포함할 수도 있고, 필요에 따라 상기 센서들 중 일부를 포함하지 않을 수도 있다. 각각의 센서에 관한 구체적인 설명은 전술한 차량(1)의 실시예에서와 동일하므로, 여기서는 생략하도록 한다.
GPS 수신부(260)가 수신한 차량(2)의 위치 정보는 내비게이션 기능을 수행하는데 사용될 수 있고, 뿐만 아니라 주변 차량(20)에 사고 관련 정보를 요청할 때 함께 전송되거나, 차량 상태 정보로서 전송되거나, 또는 서버(30)에 사고 발생 정보로서 전송될 수 있다.
차량의 위치 정보는 GPS 좌표일 수도 있다. 또한, 내비게이션 기능을 수행하기 위해 저장부(230)에 지도 데이터가 저장된 경우에는 GPS 좌표와 지도 데이터를 매칭시켜 획득한 주소 정보를 차량의 위치 정보로 할 수도 있다.
제어부(210)가 주변 차량(20)으로부터 수신한 차량 상태 정보를 분석하여 목격 차량을 선택함에 있어서, 감지부(240) 또는 GPS 수신부(260)로부터 획득된 자기 차량(2)의 차량 상태 정보도 함께 이용할 수 있다. 이하, 도 33을 참조하여 구체적으로 설명한다.
도 33은 제어부의 구성이 구체화된 제어 블록도이다.
도 33을 참조하면, 제어부(210)는 주변 차량(20)으로부터 수신한 차량 상태 정보에 기초하여 목격 차량을 선택하는 목격차량 선택부(211), 사고의 발생을 예측하거나 판단하는 사고 판단부(212) 및 사고의 발생 또는 예측 여부에 따라 주변 차량이나 목격 차량에 적절한 신호를 전송하도록 통신부(220)를 제어하는 통신 제어부(213)를 포함할 수 있다.
예를 들어, 사고 발생 당시 또는 사고 발생 전후 일정 시간 동안 주변 차량(20)의 위치, 자세 및 속도와 자기 차량(2)의 위치, 자세 및 속도에 기초하여, 사고 발생 당시 또는 사고 발생 전후 일정 시간 동안 차량(2)에 발생한 이벤트를 촬영했을 것으로 예상되는 주변 차량(20)을 목격 차량으로 선택할 수 있다. 이 때, 사고 발생 부위, 주변 차량(20)에 장착된 블랙 박스의 FOV나 위치 등을 고려할 수 있고, 주변 차량(20)이 차량 상태 정보를 차량(2)에 전송할 때, 블랙 박스의 FOV나 위치에 관한 정보도 함께 전송할 수 있다. 구체적인 예로, 차량(2)의 뒷부분이 다른 차량과 충돌한 경우에, 차량(2)의 후방에 위치하는 주변 차량 중 전방을 촬영할 수 있는 블랙 박스가 장착되고 차량(2)과의 상대적인 위치 및 자세가 차량(2)의 충돌 부위를 촬영할 수 있는 주변 차량을 목격 차량으로 선택할 수 있다.
한편, 통신부(220)가 빔포밍 방식을 통해 주변 차량과 직접 통신을 수행하는 경우에는, 목격차량 선택부(211)가 주변 차량의 위치도 판단할 수 있고, 주변 차량의 위치 판단에 관한 설명은 전술한 실시예에서와 같다.
사고 판단부(212)에 관한 설명은 전술한 실시예에 따른 사고 판단부(112)에 관한 설명과 같으므로 여기서는 구체적인 설명을 생략하도록 한다.
통신 제어부(213)는 통신부(220)로 하여금 주변 차량에 사고 관련 정보 또는 차량 상태 정보를 요청할 수 있도록 하는 제어 신호를 생성하여 통신부(220)에 전송할 수 있다. 또는, 사고 예측 이전에 주변 차량과 사전 통신을 통해 차량 상태 정보를 주고 받는 경우에는, 사고 판단부(112)가 사고를 예측하거나 사고 발생을 판단하지 않더라도 제어 신호를 생성하여 통신부(120)에 전송할 수 있다.
목격차량 선택부(211), 사고 판단부(212) 및 통신 제어부(213)는 별도의 프로세서 및 메모리로 구현될 수도 있고, 이들 중 일부 또는 전부가 프로세서나 메모리를 공유하는 것도 가능하다.
전술한 바와 같이, 목격 차량을 선별하여 사고 관련 정보를 요청 및 수신하면, 불필요한 신호의 송수신 및 이로 인한 통신 트래픽을 감소시킬 수 있고, 차량(2)과 서버(30)의 저장 용량을 불필요하게 소모하는 문제도 방지할 수 있다.
한편, 다른 실시예에 따른 차량(2)에 의하면, 주변 차량이 제공한 사고 관련 정보를 분석하여 새로운 목격 차량을 더 선택하는 것도 가능하다. 이 경우, 목격 차량이 차량(2)의 통신 커버리지 밖에 위치하는 경우에도 해당 목격 차량으로부터 사고 관련 정보를 제공받을 수 있다. 이하, 도 34 및 35를 참조하여 설명한다.
도 34는 다른 실시예에 따른 차량이 주변 차량으로부터 수신한 영상에 기초하여 목격 차량을 선택하는 경우, 신호의 흐름을 나타내는 도면이고, 도 35는 멀티홉을 이용한 통신 방식을 설명하기 위한 도면이다.
도 34를 참조하면, ①.주변 차량1(20-1)이 차량(2)에 사고 관련 정보를 전송하면, ②.차량(2)은 주변 차량1(20-1)으로부터 수신한 사고 관련 정보를 분석하여 다른 목격 차량이 있는지 여부를 판단할 수 있다. 차량(2)에 사고 관련 정보를 전송한 주변 차량1(20-1)은 앞서 설명한 예시에서 차량(2)의 통신 커버리지 내에 위치하는 주변 차량 중 임의의 차량일 수도 있고, 차량 상태 정보를 분석하여 선택된 목격 차량일 수도 있다.
주변 차량1(20-1)이 촬영한 영상을 분석하여 주변 차량2(20-2)가 목격 차량으로 판단되면, 차량(2)은 멀티홉(multi-hop) 방식에 따라 주변 차량2(20-2)에 사고 관련 정보를 요청할 수 있다. 구체적으로, ③.차량(2)은 주변 차량1(20-1)에 주변 차량2(20-2)의 사고 관련 정보를 요청할 수 있고, ④.주변 차량1(20-1)은 주변 차량2(20-2)에 사고 관련 정보의 요청을 전달할 수 있다.
사고 관련 정보를 수신할 때에도 마찬가지로, 주변 차량2(20-2)가 주변 차량1(20-1)에 사고 관련 정보를 전송하면, 주변 차량1(20-1)이 주변 차량2(20-2)의 사고 관련 정보를 차량(2)에 전달할 수 있다. 당해 예시에서는 한 대의 목격 차량을 선택한 것으로 하였으나, 주변 차량1(20-1)의 영상 정보를 분석하여 둘 이상의 목격 차량을 선택하는 것도 가능함은 물론이다.
주변 차량2(20-2)는 차량(2)의 통신 커버리지 내에 위치할 수도 있고, 통신 커버리지 밖에 위치할 수도 있다. 다만, 차량(2)의 통신 커버리지 내에 위치하는 경우에는 차량(2)과의 직접 통신을 통해 사고 관련 정보가 이미 전송됐을 가능성이 있다. 차량(2)의 통신 커버리지 밖에 위치하는 경우에는 사고 관련 정보의 수집 범위가 확장되어 통신 커버리지 내에 위치하는 주변 차량들로부터만 사고 관련 정보를 수집할 때보다 더 다양한 정보를 얻을 수 있다.
도 35에 도시된 바와 같이, 차량(2)의 통신 커버리지(C1)에는 주변 차량1(20-1)이 포함되고, 주변 차량2(20-2)는 차량(2)의 통신 커버리지(C1) 밖에 위치하지만 주변 차량1(20-1)의 통신 커버리지(C2) 내에 위치하는 경우를 가정한다. 통신의 관점에서 각각의 차량들은 노드(node)로 파악할 수 있고, 주변 차량1(20-1)은 차량(2)과 주변 차량2(20-2) 사이에서 라우터(router) 역할을 수행하여 차량(2)과 주변 차량2(20-2) 사이에서 신호를 전달할 수 있다.
또한, 주변 차량1(20-1)의 사고 관련 영상을 분석한 결과, 주변 차량2(20-2) 뿐만 아니라 주변 차량3(20-3)도 새로운 목격 차량으로 선택된 경우, 주변 차량3(20-3)은 주변 차량1(20-1)의 다른 통신 커버리지(C3) 내에 위치하므로, 주변 차량1(20-1)이 주변 차량3(20-3)과 차량(2) 사이에서도 신호를 전달할 수 있다. 일 예로, 주변 차량1(20-1)은 유니캐스트 방식을 채용하여 주변 차량2(20-2)와 주변 차량3(20-3)에 시간 간격을 두고 신호를 전달할 수도 있고, 멀티캐스트 방식을 채용하여 동시에 전달할 수도 있다.
또한, 차량(2)이 주변 차량1(20-1)의 통신 커버리지(C2,C3) 밖에 위치하는 주변 차량5(20-5)를 목격 차량으로 선택하거나, 차량(2)이 주변 차량2(20-2) 또는 주변 차량3(20-3)의 사고 관련 정보를 분석하여 주변 차량5(20-5)를 새로운 목격 차량으로 선택하는 것도 가능하다. 즉, 주변 차량2(20-2) 또는 주변 차량3(20-3)이 제1목격 차량이 되고, 주변 차량5(20-5)가 제2목격 차량이 될 수 있다. 이 경우, 주변 차량1(20-1)은 주변 차량4(20-4)에 주변 차량5(20-5)의 사고 관련 정보를 요청할 수 있다. 주변 차량4(20-4)는 주변 차량1(20-1)의 통신 커버리지(C2) 내에 위치하고, 주변 차량5(20-5)는 주변 차량4(20-4)의 통신 커버리지(C4) 내에 위치한다. 따라서, 주변 차량4(20-4)는 다시 주변 차량5(20-5)에 사고 관련 정보의 요청을 전달할 수 있고, 주변 차량5(20-5)가 사고 관련 정보를 전송하면, 주변 차량4(20-4)는 수신한 주변 차량5(20-5)의 사고 관련 정보를 주변 차량1(20-1)을 통해 차량(2)으로 전달할 수 있다. 즉, 차량(2)과 그 주변 차량들(20-1,20-2,20-3,20-4,20-5)은 멀티홉 릴레이 네트워크(multi-hop relay network)를 형성하여 신호를 주고 받음으로써, 수집 가능한 정보의 범위를 확장할 수 있다.
도 36은 차량이 분석하는 주변 차량1의 사고 관련 영상의 예시를 나타낸 도면이고, 도 37은 주변 차량2의 사고 관련 영상의 예시를 나타낸 도면이다.
전술한 바와 같이, 차량(2)의 목격차량 선택부(211)는 주변 차량1(20-1)로부터 수신한 사고 관련 정보 중 사고 관련 영상을 분석하여 새로운 목격 차량을 선택할 수 있다. 주변 차량1(20-1)의 후방에 장착된 영상 센서가 촬영한 영상이 도 36의 예시와 같은 경우, 목격차량 선택부(211)는 해당 영상을 분석하여 주변 차량2(20-2)를 목격 차량으로 선택할 수 있다. 구체적으로, 목격차량 선택부(211)는 촬영된 영상에서 사고 발생 부위와 주변 차량2(20-2)를 인식하고, 영상에 나타난 주변 차량2(20-2)의 위치, 자세 및 주변 차량2(20-2)에 장착된 영상 센서의 위치 중 적어도 하나에 기초하여 주변 차량(2(20-2)가 사고 발생 당시 또는 사고 발생 전후 일정 시간 동안의 상황을 촬영했을지 여부를 판단할 수 있다.
또한, 목격차량 선택부(211)는 주변 차량2(20-2)의 사고 관련 정보를 분석하여 다른 목격 차량을 더 선택하는 것도 가능하다. 예를 들어, 주변 차량2(20-2)의 후방에 장착된 영상 센서가 촬영한 영상이 도 37의 예시와 같은 경우, 목격차량 선택부(211)는 해당 영상을 분석하여 주변 차량5(20-5)가 사고 발생 당시 또는 사고 발생 전후 일정 시간 동안의 상황을 촬영했을 것으로 판단하고 주변 차량5(20-5)를 목격 차량으로 선택할 수 있다. 이 경우, 앞서 언급한 바와 같이, 멀티홉 릴레이 네트워크를 형성하여 차량 및 주변 차량들 간에 신호를 주고 받을 수 있다.
한편, 다른 실시예에 따른 차량(2)은 주변 차량으로부터 제공받은 차량 상태 정보를 분석하여 새로운 목격 차량을 선택하는 것도 가능하다. 이하 도 38을 참조하여 설명한다.
도 38은 주변 차량으로부터 제공받은 차량 상태 정보를 분석하여 목격 차량을 선택하는 예시를 나타낸 도면이다.
도 38을 참조하면, ①.주변 차량들(20-1,20-2,20-3,20-4)끼리 차량 상태 정보를 상호 공유할 수 있고, ②.차량(2)은 자신의 통신 커버리지(C) 내에 위치하는 주변 차량1(20-1)로부터 차량 상태 정보를 제공받을 수 있다. 주변 차량1(20-1)로부터 제공되는 차량 상태 정보는 주변 차량1(20-1)의 차량 상태 정보뿐만 아니라 다른 주변 차량들(20-2,20-3,20-4)의 차량 상태 정보도 포함될 수 있다. 다른 주변 차량들(20-2,20-3,20-4)이 차량(2)의 통신 커버리지(C) 내에 위치하지 않더라도, 차량(2)은 주변 차량1(20-1)을 통해 다른 주변 차량들(20-2,20-3,20-4)의 차량 상태 정보를 제공받을 수 있게 된다.
차량(2)의 목격차량 선택부(211)는 ③.제공받은 주변 차량들의 차량 상태 정보를 분석하여 목격 차량을 선택할 수 있다. 예를 들어, 차량(2)의 위치, 자세 및 속도와 주변 차량들(20-1,20-2,20-3,20-4)의 위치, 자세 및 속도에 기초하여 차량(2)에 발생한 사고 당시 또는 사고 전후 일정 시간 동안의 상황을 촬영했을 것으로 예상되는 주변 차량을 판단할 수 있다. 이 경우, 차량(2)의 주변에 위치하는 다양한 주변 차량들의 위치, 자세 및 속도를 함께 분석함으로써, 각 주변 차량에 장착된 블랙박스의 시야가 다른 주변 차량에 의해 가려지는 것도 고려할 수 있다.
목격 차량으로 선택된 주변 차량4(20-4)가 차량(2)의 통신 커버리지 밖에 위치하는 경우에는, 주변 차량1(20-1)을 중간 노드로 하여 멀티홉 방식으로 사고 관련 정보를 요청하고 수신할 수 있다. 구체적으로, ④.주변 차량1(20-1)에 주변 차량4(20-4)의 사고 관련 정보를 요청하면, ⑤.주변 차량1(20-1)기 주변 차량4(20-4)에 사고 관련 정보를 요청한다. ⑥.주변 차량4(20-4)가 주변 차량1(20-1)에 사고 관련 정보를 전송하면, ⑦.주변 차량1(20-1)은 주변 차량4(20-4)로부터 수신한 사고 관련 정보를 차량(2)에 전달한다. ⑧.차량(2)은 수신한 사고 관련 정보를 서버(30)에 업로드할 수 있다.
한편, 차량(2)의 사고 발생 또는 사고 예측을 주변 차량(20)에서 수행하고 사고 관련 정보를 능동적으로 전송하는 것도 가능하다. 이하, 도 39를 참조하여 설명한다.
도 39는 주변 차량이 차량의 사고를 감지하여 사고 관련 정보의 전송 여부를 판단하는 예시에 관한 도면이고, 도 40은 차량이 주변 차량의 사고를 감지하여 사고 관련 정보의 전송 여부를 판단하는 예시에 관한 도면이다.
도 39를 참조하면, ①.주변 차량(20)이 차량(2)에 발생한 사고를 감지하면, ②-1.주변 차량(20)이 스스로 차량(2)에 사고 관련 정보를 전송하거나, ②-2.서버(30)에 차량(2)의 사고 관련 정보를 업로드할 수 있다.
주변 차량(20)은 감지부(23)의 감지 결과에 기초하여 차량(2)의 사고를 감지할 수 있다. 예를 들어, 근접 센서가 차량(2)이 주변에 있음을 감지하고, 감지부(23)의 음향 센서가 감지한 음향이 미리 설정된 기준 크기 이상인 경우에 차량(2)에 사고가 발생한 것으로 판단할 수 있다. 또는, 영상 센서가 촬영한 영상을 분석하여 차량(2)에 사고 발생한 것으로 판단할 수도 있다. 이 경우에는, 영상 처리 알고리즘을 적용하여 차량(2)의 형태 파손 여부를 판단할 수 있다. 또는, 근접 센서 또는 영상 센서에 의해 측정된 차량(2)의 속도가 다른 주변 차량들에 비해 미리 설정된 기준 값 이하로 낮은 경우에 차량(2)에 사고가 발생한 것으로 판단할 수 있다. 또는, 영상 센서 또는 근접 센서에 의해 빛, 예를 들어 섬광이 감지되면, 빛의 밝기나 지속 시간 등을 미리 설정된 기준 값과 비교하여 감지된 빛이 차량(2)에 발생한 사고에 의한 것인지 여부를 판단할 수 있다.
또한, 차량(2)이 주변 차량(20)에 사고 관련 정보를 제공하는 것도 가능하다. 이 경우, 주변 차량(20)이 차량(2)을 목격 차량으로 지정하고 사고 관련 정보를 요청하는 것도 가능하나, 도 40에 도시된 바와 같이, ①.차량(2) 스스로 주변 차량(20)에 발생한 사고를 감지하는 것도 가능하다. 차량(2)이 주변 차량(20)에 발생한 사고를 감지하고 사고 관련 정보를 전송하는 동작은 상기 도 39의 예시에서의 주변 차량(20)의 동작과 동일하므로 그에 관한 자세한 설명은 생략하기로 한다.
차량(2)이 주변 차량(20)에 발생한 사고를 감지하면, 해당 사고와 관련된 사고 관련 정보를 검색하고, ②-1.검색된 사고 관련 정보를 주변 차량(20)에 전송할 수 있다. 주변 차량의 사고와 관련된 사고 관련 정보는 저장부(230)에 저장된 영상 중 사고 발생 전후 일정 시간 동안 촬영된 영상을 포함할 수 있다. ③-1.주변 차량(20)이 수신한 사고 관련 정보를 서버(30)에 업로드하면, 서버(30)가 사고 관련 정보에 기초하여 사고를 분석할 수 있다. 또는, ②-2.차량(2)이 직접 서버(30)에 주변 차량(20)의 사고 관련 정보를 업로드하는 것도 가능하다. 주변 차량(20)에 사고 관련 정보를 전송하거나, 서버(30)에 주변 차량(20)의 사고 관련 정보를 업로드할 때, 차량(2) 자신이 감지한 주변 차량(20)의 사고 발생 정보도 함께 업로드할 수 있다.
지금까지 차량에 발생한 사고와 관련된 정보를 주변 차량들로부터 수집하는 실시예들을 설명하였다. 이하, 수집된 사고 관련 정보를 사고의 분석에 이용하는 실시예를 설명하도록 한다.
도 41은 일 실시예에 따른 사고 분석 장치에 관한 제어 블록도이다.
도 41을 참조하면, 사고 분석 장치(300)는 사고 관련 정보를 저장하는 저장부(310) 및 사고 관련 정보를 이용하여 사고 재현 영상을 생성하는 영상 처리부(320)를 포함한다.
저장부(310)에는 차량에 발생한 사고와 관련된 정보들이 저장될 수 있다. 예를 들어, 사고 발생 시각 및 사고 발생 위치를 포함하는 사고 발생 정보를 태그로 하여, 차량의 위치, 자세 및 속도와 같은 차량 상태 정보와 차량의 영상 센서가 직접 촬영한 사고 관련 영상을 포함하는 사고 관련 정보가 사고 차량 정보로서 저장될 수 있고, 주변 차량(20)의 위치, 자세 및 속도와 같은 차량 상태 정보와 주변 차량(20)의 블랙박스, 즉 영상 센서가 촬영한 사고 관련 영상을 포함하는 사고 관련 정보가 주변 차량 정보로서 저장될 수 있다.
한편, 저장부(310)에 저장된 사고 관련 정보, 차량 상태 정보 등은 전술한 실시예에 따른 사고 정보 관리 장치(100,200) 또는 이를 포함하는 차량(1,2)으로부터 수집된 것일 수 있으나, 사고 정보 분석 장치(300)의 실시예가 반드시 이에 한정되는 것은 아닌바, 저장부(310)에 저장되는 정보의 저장 경로에 대해서는 제한을 두지 않는다.
영상 처리부(320)는 저장부(310)에 저장된 사고 관련 영상에 영상 처리를 수행하여 사고 당시의 상황을 재현할 수 있는 사고 재현 영상을 생성할 수 있다. 이하, 도 42 및 도 43을 참조하여 구체적으로 설명한다.
도 42는 영상 처리부의 구성이 구체화된 제어 블록도이고, 도 43은 영상 처리부에서 생성한 3차원 볼륨을 개략적으로 나타낸 도면이다.
도 42를 참조하면, 영상 처리부(320)는 사고 차량 및 주변 차량으로부터 수집된 사고 관련 영상을 이용하여 3차원 볼륨을 복원하는 3차원 복원부(321) 및 3차원 볼륨을 볼륨 렌더링(volume rendering)하여 2차원 디스플레이 상에서 가시화하는 볼륨 렌더링부(322)를 포함할 수 있다. 3차원 볼륨은 사고 현장의 3차원 공간 정보를 포함하는 복셀 데이터로 이루어질 수 있다.
동일한 사고 현장을 서로 다른 시점(view point)에서 촬영한 복수의 2차원 영상이 존재하면, 3차원 복원부(321)는 복수의 2차원 영상에 공통적인 특징점을 추출하여 3차원 볼륨을 복원할 수 있다. 저장부(310)에 저장된 영상이 동영상인 경우에는 서로 다른 시점에서 촬영된 동영상 중 동일한 시각(time)에 대응되는 프레임 영상들을 이용하여 3차원 볼륨을 복원할 수 있다.
예를 들어, 2개 이상의 영상에서 특징점을 추출하고 정합한 후 영상 센서의 보정 정보를 이용하여 특징점까지의 깊이를 추출하는 삼각법을 적용할 수 있다. 이 때, 복수의 영상에서 추출되는 특징점들 사이의 상관관계는 매칭 알고리즘을 이용하여 획득될 수 있다.
또는, 연속된 영상들 사이에서 추적된 복수의 특징점을 이용하여 영상 센서의 투영 행렬을 구한 후 자기 보정(self-calibration)과 계층적 블록 매칭을 통하여 3차원 볼륨을 복원하는 것도 가능하다.
또는, 복수의 영상에서 취득된 외곽선 정보로부터 전경(foreground)에 포함되지 않은 복셀을 제거해 나감으로써 물체의 형상을 복원하거나, 이것을 확장하여 3차원 복셀 모델의 각 복셀이 기준 영상에 투영되었을 때의 생상의 일치성을 이용하여 형상을 복원하는 voxel-coloring 또는 space-carving과 같은 기법도 적용될 수 있다.
다만, 전술한 3차원 복원 기법들은 사고 분서 장치(300)의 실시예에 적용될 수 있는 예시들에 불과하며, 전술한 기법들 외에도 다양한 기법들이 적용되어 사고 현장에 대한 3차원 볼륨을 복원할 수 있다.
사고 현장에 대한 3차원 볼륨(V)이 복원되면, 볼륨 렌더링부(322)가 복원된 3차원 볼륨(V)에 대해 렌더링을 수행하여 2차원 영상으로 가시화할 수 있다. 볼륨 렌더링이란 3차원의 볼륨 데이터를 2차원 영상으로 가시화하는 작업으로서, 볼륨 렌더링의 방식은 크게 표면 렌더링(surface rendering) 방식과 직접 렌더링(direct rendering) 방식으로 나뉜다. 표면 렌더링 방식은 볼륨 데이터로부터 사용자가 설정한 스칼라 값과 공간적인 변화량을 기반으로 표면 정보를 추정한다. 그리고, 이를 다각형이나 곡면 패치(patch) 등의 기하학적 요소로 바꾸어 가시화한다. 대표적인 표면 렌더링 방식에는 마칭 큐브(marching cubes) 알고리즘이 있다.
직접 렌더링 방식은 표면을 기하학적 요소로 바꾸는 중간 단계 없이 볼륨 데이터를 직접 가시화하는 방식이다. 직접 렌더링 방식은 볼륨 데이터를 탐색하는 방식에 따라 영상 순서(image-order) 알고리즘과 객체 순서(object-order) 알고리즘으로 나뉠 수 있다.
객체 순서 알고리즘은 볼륨 데이터를 저장 순서에 따라 탐색하여 각 복셀을 그에 대응되는 픽셀에 합성하는 방식으로서, 대표적인 예로서 스플래팅(splatting) 방식이 있다.
영상 순서 알고리즘은 영상의 스캔 라인 순서대로 각 픽셀 값을 결정해 나가는 방식으로서, 각각의 픽셀로부터 출발한 광선을 따라 볼륨 데이터에 대응되는 픽셀 값을 차례로 결정해 나가는 방식이다. 영상 순서 알고리즘의 대표적인 방식으로 레이 캐스팅(ray casting)과 레이 트레이싱(ray tracing)이 있다.
레이 캐스팅은 영상 평면을 구성하는 각 픽셀로부터 광선을 조사하여 광선 위의 각 샘플점에서의 색상과 불투명도 값(opacity)을 구하고, 이들을 합성함으로써 해당 픽셀의 값을 결정하는 방식이다. 광선의 조사 방법 즉, 투영 방법은 평행 투영(parallel projection)과 투시 투영(perspective projection)이 있다.
레이 트레이싱은 뷰어의 눈에 들어오는 광선의 경로를 일일이 추적하는 방식으로서, 광선이 대상체의 볼륨과 만나는 교점만을 찾는 레이 캐스팅과 달리 조사된 광선의 경로를 추적하여 광선의 반사, 굴절과 같은 현상까지도 반영할 수 있다.
레이 트레이싱은 순방향 레이 트레이싱과 역방향 레이 트레이싱으로 나뉠 수 있다. 순방향 레이 트레이싱은 가상의 광원에서 조사된 광선이 대상체에 닿아 반사, 산란, 투과되는 현상을 모델링하여 최종적으로 뷰어의 눈에 들어오는 광선을 찾는 기법이고, 역방향 레이 트레이싱은 뷰어의 눈에 들어오는 광선의 경로를 역방향으로 추적하는 기법이다.
다만, 전술한 볼륨 렌더링 기법들은 예시에 불과하며, 볼륨 렌더링부(322)가 볼륨 렌더링을 수행함에 있어서 반드시 전술한 기법들을 적용해야 하는 것은 아니다.
한편, 렌더링되는 시점은 디폴트(default) 값으로 미리 설정될 수도 있고, 사용자에 의해 선택될 수도 있으며, 볼륨 렌더링부(322)가 자체적으로 결정할 수도 있다. 볼륨 렌더링부(322)가 렌더링 시점을 선택하는 경우에는 사고 현장을 고려할 수 있고, 예를 들어, 사고 차량의 충돌 부위가 가장 잘 보이는 시점을 선택할 수 있다.
도 43의 예를 참조하면, 사고 차량1(A)과 사고 차량2(B)를 포함하는 공간을 복원한 3차원 볼륨(V)을 렌더링하여 시점 1(VP1)에서 바라보거나 촬영한 것과 같은 2차원 영상을 생성하거나, 시점 2(VP2)에서 바라보거나 촬영한 것과 같은 2차원 영상을 생성하거나, 시점 3(VP3)에서 바라보거나 촬영한 것과 같은 2차원 영상을 생성하거나, 시점 4(VP4)에서 바라보거나 촬영한 것과 같은 2차원 영상을 생성할 수 있다. 다만, 도 43에 도시된 시점들은 예시에 불과하며, 도 43에 도시된 시점들 외에도 미리 설정되거나 사용자에 의해 선택된 임의의 다른 시점에서 바라보거나 촬영한 것과 같은 2차원 영상을 생성할 수 있다.
후술하는 디스플레이부는 복원된 3차원 볼륨을 임의의 한 시점에서 렌더링하여 생성된 2차원의 사고 재현 영상을 디스플레이할 수도 있고, 서로 다른 복수의 시점에서 렌더링하여 생성된 2차원 사고 재현 영상을 3차원 출력 포맷에 따라 디스플레이하여 3차원 입체 영상으로 표현할 수도 있다. 또는, 영상 처리부(320)가 영상 합성부를 더 포함하고, 영상 합성부가 복수의 2차원 사고 재현 영상을 합성하여 3차원 입체 영상을 생성하는 것도 가능하다.
전술한 바와 같이, 사고 현장에 관한 3차원 볼륨을 생성하고 원하는 시점에서 렌더링하면 사고 당시의 상황을 좀 더 정확하게 파악하고 분석할 수 있다.
도 44는 객체 검출부를 더 포함하는 사고 분석 장치의 제어 블록도이고, 도 45는 사고 재현 영상에 검출된 객체 정보를 표시하는 화면을 나타낸 도면이다.
도 44를 참조하면, 사고 분석 장치(300)의 영상 처리부(320)는 사고 관련 정보를 이용하여 특정 객체를 검출하는 객체 검출부(323)를 더 포함할 수 있다. 여기서, 사고 관련 정보는 사고 차량이 및 주변 차량이 사고 발생 전후에 촬영한 동영상을 포함할 수 있다. 또는, 객체 검출부(323)는 저장부(310)에 저장된 지도 데이터를 이용하여 특정 객체를 검출할 수도 있다. 또는, 3차원 복원부(321)에서 복원한 3차원 볼륨에 기초하여 특정 객체를 검출하는 것도 가능하다.
객체 검출부(323)는 사고 차량(A,B) 또는 다른 객체에 의해 가려져 보이지 않는 객체를 검출할 수 있다. 예를 들어, 차선(L)의 전부 또는 일부가 사고 차량(A,B)에 가려져 보이지 않는 경우에, 객체 검출부(323)가 보이지 않는 차선을 검출할 수 있다.
이를 위해, 다양한 시각 및 다양한 시점에서 촬영되거나 생성된 영상 정보들을 분석하여 사고 차량(A,B)에 가려진 차선을 검출할 수도 있고, 저장부(310)에 저장된 지도 데이터와 사고 발생 정보를 매칭시킴으로써 검출할 수도 있다.
예를 들어, 사고 당시에는 사고 차량(A,B)에 의해 차선이 가려져 있으나, 사고 발생 전이나 사고 발생 후에는 차선이 가려지지 않았을 수 있다. 따라서, 사고 차량 또는 주변 차량이 사고 발생 전후에 촬영한 영상을 분석하면 차선의 존재 및 위치를 판단할 수 있다.
또는, 사고 차량(A,B)에 의해 차선이 가려져 있더라도, 사고 현장에 관한 3차원 볼륨은 3차원 공간의 정보를 포함하고, 3차원 볼륨을 구성하는 복셀 데이터에는 가려진 차선에 대한 정보가 포함될 수 있다. 따라서, 3차원 볼륨을 분석하여 차선의 존재 및 위치를 판단할 수도 있다.
또는, 저장부(310)에 저장된 지도 데이터에 차선 정보가 포함될 수 있다. 따라서, 저장된 지도 데이터에서 사고 발생 위치를 검색하면 사고 현장에서의 차선의 존재 및 위치를 판단할 수 있다.
객체 검출부(323)가 특정 객체를 검출하면 사고 재현 영상에 검출된 특정 객체를 표시할 수 있다. 예를 들어, 검출된 객체가 차선인 경우에는 도 45에 도시된 바와 같이, 사고 재현 영상에서 가려진 차선(L) 부분을 점선으로 표시할 수 있다. 도 45의 사고 재현 영상은 3차원 볼륨을 임의의 한 시점에서 렌더링한 2차원 영상(I2D)인 것으로 한다.
전술한 바와 같이, 다른 객체에 가려져 보이지 않는 객체를 검출하여 사고 재현 영상에 표현하면, 사고 원인이나 사고 차량 간의 과실 비율을 판단하는데 도움이 될 수 있다.
도 46은 시간의 흐름에 따라 3차원 볼륨을 복원하는 예시에 관한 도면이고, 도 47은 사고 재현 영상을 동영상으로 표현하는 예시에 관한 도면이다.
전술한 바와 같이, 사고 재현 영상을 임의의 한 시점에서의 2차원 영상으로 표시할 수도 있고, 3차원 입체 영상으로 표시할 수도 있다. 또는, 동영상으로 표시하는 것도 가능하다.
저장부(310)에 저장된 사고 관련 정보는 사고 발생 이전부터 사고 발생시까지 또는 사고 발생 이전부터 사고 발생 이후까지의 시간 동안 촬영된 영상일 수 있고, 촬영된 영상은 동영상일 수 있다. 3차원 복원부(321)는 서로 다른 시점에서 촬영되고, 동일한 시각에 대응되는 복수의 프레임 영상들을 이용하여 3차원 볼륨을 복원할 수 있는바, 사고 발생 이전부터 사고 발생시까지의 시간의 흐름에 따라 3차원 볼륨의 복원을 반복하면 시간의 흐름에 따른 3차원 볼륨의 변화를 획득할 수 있다.
도 46에 도시된 바와 같이, 사고 발생 이전의 임의의 시각 t1에 대응되는 복수의 프레임 영상(I1 -1,I2 -1,I3 -1,I4 -1,I5 -1)을 이용하여 볼륨 1(V1)을 복원할 수 있고, 시각 t2에 대응되는 복수의 프레임 영상(I1 -2,I2 -2,I3 -2,I4 -2,I5 -2)을 이용하여 볼륨 2(V2)를 복원할 수 있다. 동일한 시각에 대응되는 복수의 프레임 영상은 각각 다른 시점에서 촬영된 것들로서, 사고 차량들과 주변 차량들이 촬영한 것일 수 있다. 같은 방식으로 사고 발생 시각 tn에 대응되는 복수의 프레임 영상((I1 -n,I2 -n,I3 -n,I4 -n,I5 -n)을 이용하여 볼륨 n(Vn)까지 복원할 수 있다.
볼륨 1에서 볼륨 n까지 렌더링할 임의의 시점을 선택하고, 선택된 시점에서 볼륨 1에서 볼륨 n까지 렌더링하면, 프레임 영상으로서 기능하는 2차원 사고 재현 영상(F1,F2,…Fn)들을 획득할 수 있다. 그리고, 사고 재현 영상을 디스플레이하는 기기에서 2차원 사고 재현 영상(F1,F2,…Fn)들을 시간의 흐름에 따라 디스플레이하면 도 47에 도시된 바와 같이, 사고 재현 영상을 동영상으로 표현할 수 있다. 또는, 디스플레이 기기가 3차원 입체 영상을 지원하는 경우, 사고 재현 영상을 3차원 동영상으로 표현하는 것도 가능함은 물론이다.
도 46 및 도 47에 도시된 바와 같이, 사고 재현 영상을 동영상으로 표현하면, 사고 이전의 상황부터 사고 당시의 상황까지 한눈에 파악함으로써 사고 원인과 과실 비율을 더 정확하게 판단할 수 있다.
도 48은 사고 분석부를 더 포함하는 사고 분석 장치의 제어 블록도이고, 도 49는 사고 분석 결과를 사고 재현 영상과 함께 표시하는 화면의 예시이다.
도 48을 참조하면, 사고 분석 장치(300)는 저장부(310)에 저장된 사고 관련 정보 및 차량 상태 정보와, 영상 처리부(320)가 생성한 사고 재현 영상을 분석하여 사고 원인, 과실 비율 등을 판단하는 사고 분석부(330)를 더 포함할 수 있다.
예를 들어, 사고 분석부(330)는 사고 차량들의 사고 당시 속도, 사고 차량 간의 간격, 차선과의 위치 관계 등에 기초하여 규정 위반 여부를 판단할 수 있고, 사고 차량들 사이의 상대적인 위치, 자세 및 규정 위반 여부에 기초하여 과실 비율을 판단할 수 있다. 과실 비율의 판단은 미리 정해진 기준에 의한 것일 수 있다.
도 49에 도시된 바와 같이, 사고 재현 영상(I2D)에 사고 분석 결과를 포함시키는 것도 가능하다. 예를 들어, 사고가 발생한 도로의 제한 속도가 시속 70km/h이었고, 사고 차량2(B)가 후방 차량이었던 경우를 가정한다. 사고 차량 1(A)의 사고 당시 속도가 70km/h이었고, 규정 위반 사실이 없으며, 사고 차량 2(B)의 사고 당시 속도가 80km/h으로 과속운전에 해당하고, 전방 차량과의 안전 거리를 유지하지 않았던 것으로 판단되면, 사고 차량2(B)의 과실 비율을 100%로, 사고 차량1(A)의 과실 비율을 0%로 판단할 수 있다. 그리고, 이 분석 결과에 관한 정보를 사고 재현 영상(I2D)에 포함시켜, 사용자가 사고 원인이나 과실 비율 등에 관한 분석 결과를 한눈에 파악하도록 할 수 있다.
도 49의 예시에서는 2차원 사고 재현 영상에 사고 분석 결과에 관한 정보를 포함시키는 것으로 하였으나, 3차원 사고 재현 영상에 사고 분석 결과에 관한 정보를 포함시키는 것도 가능함은 물론이다.
도 50은 사고 분석 장치를 포함하는 서버의 제어 블록도이다.
도 50을 참조하면, 서버(40)는 전술한 실시예에 따른 사고 분석 장치(300)를 포함할 수 있다. 앞서 차량(1,2)과 사고 정보 관리 장치(100,200)의 실시예에서 설명한 바와 같이, 서버(40)는 차량(1,2) 또는 주변 차량(20)으로부터 사고 관련 정보, 사고 발생 정보, 차량 상태 정보 등을 수집하는 서버(30)로 구현되는 것도 가능하나, 서버(40)에 포함되는 사고 분석 장치(300)가 사고 관련 정보, 사고 발생 정보, 차량 상태 정보 등을 저장할 수만 있으면, 그 저장 경로에 대해서는 제한을 두지 않는다.
서버(40)는 통신부(41)를 더 포함하고, 통신부(41)를 통해 사고 차량(50-1,50-2), 보험사(I), 개인 계정(E) 및 모바일 기기(M)에 사고 분석 결과를 전송할 수 있다. 사고 분석 결과는 사고 재현 영상뿐만 아니라, 사고 분석 장치(300)에서 사고와 관련하여 분석하고 판단한 모든 정보를 포함할 수 있다.
사고 차량(50-1,50-2)마다 그에 대응되는 보험사(I), 개인 계정(E) 및 모바일 기기(M)에 관한 정보가 저장부(310)에 저장될 수 있다. 예를 들어, 사고 차량(50-1,50-1)이 서버(40)에 사고 발생 정보를 업로드할 때 가입 또는 계약된 보험사(I)의 정보, 운전자의 이메일과 같은 개인 계정(E) 및 운전자의 핸드폰과 같은 모바일 기기(M)의 정보를 함께 업로드할 수 있다. 또는, 서버(40)에 차량 별로 상기 정보들이 미리 저장되고 업데이트되면서 관리되는 것도 가능하다.
또한, 서버(40)에는 디스플레이부(42)가 더 마련되어 사고 분석 장치(300)의 분석 결과를 표시할 수도 있다. 디스플레이부(42)가 2차원 영상의 표시를 지원하는 경우, 즉 디스플레이부(42)의 출력 포맷이 2차원 영상인 경우에는 2차원 사고 재현 영상을 표시하고, 디스플레이부(42)가 3차원 영상의 표시를 지원하는 경우에는 3차원 사고 재현 영상을 표시할 수 있다.
또한, 디스플레이부(42)가 3차원 영상의 표시를 지원하는 경우에 있어서, 디스플레이부(42)의 출력 포맷이 스테레오스코픽(stereoscopic) 방식에 대응되는 경우에는 디스플레이부(42)가 뷰어의 좌측 눈에 대응되는 시점에서 렌더링한 사고 재현 영상과 우측 눈에 대응되는 시점에서 렌더링한 사고 재현 영상을 표시하고, 뷰어가 특수 안경을 착용하고 디스플레이부(42)를 보면, 3차원 입체 영상으로 표현되는 사고 재현 영상을 볼 수 있다.
또는, 디스플레이부(42)의 출력 포맷이 오토스테레오스코픽(autostereoscopic) 방식에 대응되는 경우에는 복수의 시점에서 렌더링된 사고 재현 영상들을 합성한 다시점 입체 영상을 표시할 수 있다. 이 경우, 뷰어가 특수 안경을 착용하지 않더라도 사고 재현 영상을 3차원 입체 영상으로 볼 수 있다.
도 51은 사고 분석 장치를 포함하는 차량의 제어 블록도이다.
도 51을 참조하면, 차량(50-1)은 전술한 실시예에 따른 사고 분석 장치(300)를 포함할 수 있다. 차량(50-1)은 전술한 실시예에 따른 차량(1,2)으로 구현되어 사고 발생 시 주변 차량(20)에 사고 관련 정보를 요청할 수도 있으나, 차량(50-1)의 실시예가 이에 한정되는 것은 아니다.
차량(50-1)을 사고 차량1로 가정하면, 차량(50-1)은 통신부(51)를 통해 주변 차량(20) 및 사고 차량2(50-2)로부터 사고 관련 정보와 차량 상태 정보를 수신할 수 있다. 또한, 자신의 차량 상태 정보를 감지부(52)를 통해 감지할 수 있고, GPS 수신부(53)를 통해 위치 정보를 획득할 수 있다.
또는, 사고 차량2(50-2)와 주변 차량(20)의 사고 관련 정보 및 차량 상태 정보를 서버(40)로부터 수신하는 것도 가능하다.
사고 분석 결과는 통신부(51)를 통해 사고 차량2(50-2), 보험사(I), 개인 계정(E) 및 모바일 기기(M)에 전송될 수 있다. 이를 위해, 사고 차량(50-1,50-2)마다 그에 대응되는 보험사(I), 개인 계정(E) 및 모바일 기기(M)에 관한 정보가 저장부(310)에 저장될 수 있다.
또한, 차량(50-1)에는 디스플레이부(52)가 더 마련되어 사고 분석 장치(300)의 분석 결과를 표시할 수도 있다. 일 예로, 디스플레이부(52)는 AVN 디스플레이일 수 있다. 디스플레이부(52)가 2차원 영상의 표시를 지원하는 경우, 즉 디스플레이부(52)의 출력 포맷이 2차원 영상인 경우에는 2차원 사고 재현 영상을 표시하고, 디스플레이부(52)가 3차원 영상의 표시를 지원하는 경우에는 3차원 사고 재현 영상을 표시할 수 있다.
도 52는 사고 분석 장치를 포함하는 모바일 기기의 제어 블록도이다.
도 52를 참조하면, 모바일 기기(60)는 전술한 실시예에 따른 사고 분석 장치(300)를 포함할 수 있다. 모바일 기기(60)는 통신부(61)를 더 포함하며, 통신부(61)를 통해 사고 차량(50-1,50-2) 및 주변 차량(20) 또는 서버(40)로부터 사고 관련 정보와 차량 상태 정보를 수신할 수 있다.
또한, 통신부(61)를 통해 사고 차량(50-1,50-2), 보험사(I), 개인 계정(E) 및 서버(40)에 사고 분석 결과를 전송할 수 있다. 이를 위해, 사고 차량(50-1,50-2)마다 그에 대응되는 보험사(I), 개인 계정(E) 및 모바일 기기(M)에 관한 정보가 저장부(310)에 저장될 수 있다.
또한, 모바일 기기(60)에는 디스플레이부(62)가 더 마련되어 사고 분석 장치(300)의 분석 결과를 표시할 수도 있다. 디스플레이부(62)가 2차원 영상의 표시를 지원하는 경우, 즉 디스플레이부(62)의 출력 포맷이 2차원 영상인 경우에는 2차원 사고 재현 영상을 표시하고, 디스플레이부(62)가 3차원 영상의 표시를 지원하는 경우에는 3차원 사고 재현 영상을 표시할 수 있다.
도 53 및 도 54는 사고 정보 분석 장치의 분석 결과를 디스플레이하는 방식의 예시를 나타낸 도면이다. 당해 예시에서는 차량(50)의 디스플레이부(52)가 분석 결과를 표시하는 경우를 예로 들어 설명한다.
사고 분석 장치(300)를 포함하는 서버(40), 차량(50), 모바일 기기(60) 또는 이들로부터 사고 분석 결과를 전송받은 기기들은 사고 재현 영상을 단순히 표시하는 것도 가능하나, 사용자의 편의성을 향상시키기 위해 정보의 제공 방식을 다양화할 수 있다. 도 53의 예시와 같이, 차량(50)의 디스플레이부(52)는 사고 당시의 사고 차량(A,B)의 위치와 자세를 나타낼 수 있는 기본 화면(52a)을 표시하고, 사용자가 이들 중 한 차량(당해 예시에서는 사고 차량A)을 선택하면, 선택된 사고 차량A가 촬영한 영상을 팝업 창(52b)으로 표시할 수 있다. 이 때, 표시되는 영상은 사고 차량A가 촬영한 동영상 중 사고 당시의 시각에 캡쳐된 정지 영상일 수도 있고, 동영상일 수도 있다. 동영상인 경우에는 사고 전후 미리 설정된 일정 시간 동안 촬영된 동영상을 표시할 수 있다.
사용자가 사고 차량B를 선택하면 사고 차량A가 촬영한 영상이 표시된 팝업 창(52b)은 사라질 수도 있고, 그대로 유지될 수도 있다.
또는 도 54의 예시와 같이, 디스플레이부(52)에 표시된 기본 화면(52b)의 하단에 바(bar) 형태로 시간을 나타내는 시간 표시부(52c)를 표시하고, 사용자가 바를 좌측 또는 우측 방향으로 드래그하여 시간을 선택할 수 있도록 한다. 사용자가 시간을 선택하면 기본 화면(52a)에 표시된 사고 차량A와 사고 차량B의 위치 및 자세가 선택된 시간에 동기되어 변경되고, 팝업 창(52b)에 표시된 영상도 선택된 시간에 동기되어 변경될 수 있다.
또한, 사용자가 드래그하는 동안에는 사고 차량A와 사고 차량B의 위치와 자세 및 팝업 창(52b)에 표시된 영상 중 적어도 하나가 사용자의 드래그에 따라 동기되어 연속적으로 변경될 수도 있고, 드래그하는 동안에는 변경되지 않고, 사용자가 드래그를 멈추어 최종적으로 시간이 선택되면, 선택된 시간에 동기되어 변경될 수도 있다.
한편, 디스플레이부(52)가 터치 스크린으로 구현되는 경우에는 도 53 및 도 54의 예시와 같이 사용자의 입력이 터치 방식으로 이루어질 수 있고, 디스플레이부(52)가 터치 스크린이 아닌 경우에는 마우스나 키보드 등 별도의 입력부를 이용하여 사용자의 입력이 이루어질 수 있다.
이하 사고 정보 관리 방법 및 사고 정보 분석 방법의 실시예를 설명한다.
도 55는 일 실시예에 따른 사고 정보 관리 방법에 관한 순서도이다. 당해 실시예에 따른 사고 정보 관리 방법을 수행함에 있어서 전술한 실시예에 따른 사고 정보 관리 장치(100) 및 이를 포함하는 차량(1)이 적용될 수 있다. 따라서, 사고 정보 관리 장치(100) 및 이를 포함하는 차량(1)에 관한 설명은 당해 실시예에 따른 사고 정보 관리 방법에도 적용될 수 있다.
도 55에 도시된 바와 같이, 일 실시예에 따른 사고 정보 관리 방법에 의하면, 차량이 주변 차량과 빔포밍을 통해 통신을 연결한다(410). 차량(1)은 사고 정보 관리 장치(100)를 포함하며, 사고 관련 정보를 요청할 주변 차량이 선택되면, 선택된 주변 차량에 집속된 빔패턴을 전송하기 위해 빔포밍을 수행할 수 있다. 한편, 차량(1)은 주변 차량(20)에 집속된 빔 패턴을 형성하기 위해, 주변 차량(20)의 위치를 판단할 수 있다. 예를 들어, 전(全)방향 또는 여러 방향으로 빔을 방사한 후 응답(response)이 되돌아오는 방향에 주변 차량(20)이 위치하는 것으로 판단할 수 있다. 구체적으로, 차량(1)은 통신부(120)를 통해 전(全)방향으로 리퀘스트(request) 신호를 전송하고, 차량(1)의 주변에 위치하는 주변 차량(20)들로부터 애크(ack) 신호가 돌아오면, 애크 신호가 돌아온 방향에 주변 차량(20)이 위치하는 것으로 판단할 수 있다. 이 때, 주변 차량(20)의 위치를 더 정확히 판단하기 위해, 주변 차량(20)이 전송하는 애크 신호에 GPS 정보를 실어서 함께 보내는 것도 가능하다. 이 경우, 차량(1)을 기준으로 같은 방향에 중첩되어 위치하는 복수의 주변 차량들이 존재하더라도 이들을 구분할 수 있다.
다른 예로, 제어부(110)가 차량(1)에 마련된 각종 센서들의 출력 데이터에 기초하여 주변 차량(20)의 위치를 판단할 수 있다. 이에 관한 설명은 후술하도록 한다.
한편, 차량(1)은 위치가 판단된 주변 차량(20) 중에서 특정 위치의 주변 차량(20)을 목격 차량, 즉 사고 관련 정보를 요청할 차량으로 지정하는 것도 가능하다.
차량(1)과 주변 차량(20) 간의 통신이 연결되면, 통신이 연결된 주변 차량(20)에 사고 관련 정보를 요청하고(411), 주변 차량(20)으로부터 사고 관련 정보를 수신한다(412). 사고 관련 정보는 주변 차량(20)의 블랙박스에서 촬영한 사고 관련 영상을 포함할 수 있다. 또한, 주변 차량(20)이 차량(1)에 사고 관련 정보를 전송할 때, 자신의 차량 상태 정보를 함께 전송할 수 있는바, 차량 상태 정보는 차량의 위치, 자세, 속도 등의 정보를 포함할 수 있다. 한편, 사고 관련 정보는 사고 발생 시에 요청할 수도 있고, 사고 예측 시에 요청할 수도 있다. 또한, 주변 차량(20)과의 통신 연결도 사고 발생 시 또는 사고 예측 시에 이루어지는 것도 가능하나, 그 전에 미리 연결되는 것도 가능하다.
차량(1)은 주변 차량으로부터 수신한 사고 관련 정보를 서버(30)에 업로드할 수 있다(413). 서버(30)에 업로드 시에, 주변 차량(20)의 차량 상태 정보도 함께 업로드할 수 있고, 자신의 차량 상태 정보도 함께 업로드할 수 있다. 또한, 사고 발생 시각과 사고 발생 위치에 관한 정보를 포함하는 사고 발생 정보도 함께 업로드할 수 있다. 서버(30)는 업로드된 정보들을 이용하여 사고 원인이나, 과실 비율 등을 분석할 수 있다.
도 56은 일 실시예에 따른 사고 정보 관리 방법에 있어서, 차량 상태 정보를 먼저 공유하는 방법에 관한 순서도이다.
도 56을 참조하면, 차량(1)은 사고 예측 또는 사고 발생 이전에 주변 차량과 빔포밍을 통해 통신을 연결하고(420), 차량 식별 정보 및 차량 상태 정보를 공유한다(421). 이 경우, 주변 차량(20)에 사고가 발생할 가능성도 있기 때문에, 차량(1)은 주변 차량(20)으로부터 차량 식별 정보와 차량 상태 정보를 받기만 하는 것이 아니라, 자신의 차량 식별 정보와 차량 상태 정보를 주변 차량(20)에 전송한다.
그리고, 차량(1)에 사고가 예측되거나 사고가 발생되면, 주변 차량(20)에 사고 관련 정보를 요청하고(422), 주변 차량(20)으로부터 사고 관련 정보를 수신하면(423), 수신된 사고 관련 정보를 서버에 업로드한다(424). 전술한 바와 같이, 서버(30)에 사고 관련 정보를 업로드할 때에는 차량(1)과 주변 차량(20)의 차량 상태 정보 및 차량 식별 정보와 사고 발생 정보를 함께 업로드할 수 있다.
도 57은 일 실시예에 따른 사고 정보 관리 방법에 있어서, 사고 예측 시에 주변 차량과 통신을 연결하고 사고 발생 시에 주변 차량으로부터 사고 관련 정보를 수신하는 방법에 관한 순서도이다.
도 57을 참조하면, 차량(1)은 사고를 예측하고(430), 주변 차량과 빔포밍을 통해 통신을 연결한다(431). 차량(1)의 제어부(110)는 감지부(140)의 감지 결과에 기초하여 사고를 예측할 수 있다. 구체적인 예로서, 근접 센서(145) 또는 영상 센서(141)에 의해 감지된 물체의 위치, 차량과 물체의 거리가 감소하는 속도, 차속 센서(147)에 의해 감지된 차량의 속도, 가속도 센서(142)에 의해 감지된 차량의 가속도 및 조향각 센서(146)에 의해 감지된 차량의 조향각 중 적어도 하나의 정보를 분석하여 충돌 가능성을 판단하고, 사고를 예측할 수 있다.
주변 차량(20)과 통신이 연결되면, 차량(1)은 주변 차량(20)과 차량 식별 정보 및 차량 상태 정보를 공유할 수 있다(432).
그리고, 차량(1)에 사고가 발생한 것으로 감지하면(433), 통신 연결된 주변 차량(20)에 사고 관련 정보를 요청한다(434). 그리고, 주변 차량(20)으로부터 사고 관련 정보를 수신하면(435), 수신된 사고 관련 정보를 서버(30)에 업로드할 수 있다(436). 차량(1)의 제어부(110)는 감지부(140)의 감지 결과에 기초하여 사고 발생 여부를 판단할 수 있다. 구체적인 예로서, 근접 센서(145), 영상 센서(141), 가속도 센서(142), 충돌 센서(143) 및 자이로 센서(144) 중 적어도 하나의 출력 데이터를 분석하여 사고 발생 여부를 판단할 수 있다. 또한, 차량(1)이 음향을 감지하는 음향 센서를 더 포함하고, 음향 센서의 출력 데이터를 다른 센서들의 출력 데이터와 함께 또는 단독으로 분석하여 사고 발생 여부를 판단하는 것도 가능하다.
상기 도 55 내지 도 57의 실시예에 있어서, 사고 관련 정보를 수집한 서버(30)는 수집된 사고 관련 정보를 저장, 관리 및 분석할 수 있다. 사고 관련 정보를 분석하여 사고 원인이나 과실 비율 등을 판단할 수 있고, 분석 결과는, 차량(1)에 전송될 수도 있고, 보험사(I)에 전송될 수도 있으며, 휴대폰과 같은 모바일 기기(M)에 전송될 수도 있고, 이메일과 같은 개인 계정(E)으로 전송될 수도 있다. 차량(1), 보험사(I), 모바일 기기(M) 및 개인 계정(E) 중 하나에 전송될 수도 있고, 이들 중 일부에 전송될 수도 있으며, 전부에 전송될 수도 있다. 분석 결과를 수신하는 보험사(I), 모바일 기기(M) 및 개인 계정(E)에 관한 정보는 차량(1)이 서버(30)에 사고 발생 정보 또는 사고 관련 정보를 업로드할 때 함께 전송되거나, 사고 발생 이전에 서버(30)에 미리 저장될 수 있다. 서버(30)에 미리 저장되는 경우에는, 차량(1) 별로 사고 발생 시 분석 결과를 전송할 대상을 미리 지정할 수 있다.
도 58은 다른 실시예에 따른 사고 정보 관리 방법에 관한 순서도이다. 당해 실시예에 따른 사고 정보 관리 방법에는 전술한 실시예에 따른 사고 정보 관리 장치(200) 및 이를 포함하는 차량(2)이 적용될 수 있다. 따라서, 사고 정보 관리 장치(200)에 관한 설명은 당해 실시예에 따른 사고 정보 관리 방법에도 적용될 수 있다.
도 58을 참조하면, 미리 설정된 반경 내에 위치하는 모든 주변 차량에 사고 관련 정보를 요청한다(440). 사고 관련 정보의 요청에는 주변 차량과의 통신 연결이 전제되어 있는바, 통신이 미리 연결되어 있을 수도 있고, 사고 관련 정보의 요청 시에 연결되는 것도 가능하다. 또한, 사고 관련 정보는 사고 발생 시에 요청할 수도 있고, 사고 예측 시에 요청할 수도 있다. 이 때, 차량(2)의 통신부(220)와 주변 차량(20)의 통신부(22) 사이의 통신은 기지국을 통하지 않는 기기간 직접 통신(Device to Device communication: D2D 통신)을 이용할 수 있다. 미리 설정된 반경(R)은 차량에 장착되는 블랙박스의 FOV(Field Of View)나 해상도 등의 정보를 고려하여 결정될 수도 있고, 통신부(220)의 통신 커버리지에 의해 결정될 수도 있다. 또한, 결정된 반경이 사용자에 의해 변경되는 것도 가능하다.
이 경우, 통신부(220)는 전술한 실시예에서와 같이, 신호를 특정 방향으로 집속시키기 위한 빔포밍 모듈을 포함하여 유니캐스트(unicast) 또는 멀티캐스트(multicast) 방식으로 각각의 주변 차량에 신호를 집속시켜 송신하는 것도 가능하나, 빔포밍 모듈을 포함하지 않고 브로드캐스트(broadcast) 방식으로, 즉 수신자를 특정하지 않고 일정 반경 내에 신호를 뿌리거나, 주변 차량의 ID 정보를 이용하여 멀티 캐스트 방식으로 특정 주변 차량에 신호를 전송하는 것도 가능하다.
주변 차량들로부터 사고 관련 정보를 수신하면(441), 수신된 사고 관련 정보를 서버(30)에 업로드한다(442).
도 59는 다른 실시예에 따른 사고 정보 관리 방법에 있어서, 주변 차량의 상태 정보에 기초하여 목격 차량을 선택하는 방법에 관한 순서도이다.
도 59를 참조하면, 미리 설정된 반경 내에 위치하는 모든 주변 차량에 상태 정보를 요청하고(450), 주변 차량으로부터 차량 식별 정보 및 차량 상태 정보를 수신한다(451).
주변 차량의 차량 상태 정보에 기초하여 목격 차량을 선택한다(452). 구체적으로, 제어부(210)가 주변 차량(20)으로부터 수신한 차량 상태 정보를 분석하여 목격 차량을 선택할 수 있고, 감지부(240) 또는 GPS 수신부(260)로부터 획득된 자기 차량(2)의 차량 상태 정보도 함께 이용할 수 있다. 예를 들어, 사고 발생 당시 또는 사고 발생 전후 일정 시간 동안 주변 차량(20)의 위치, 자세 및 속도와 자기 차량(2)의 위치, 자세 및 속도에 기초하여, 사고 발생 당시 또는 사고 발생 전후 일정 시간 동안 차량(2)에 발생한 이벤트를 촬영했을 것으로 예상되는 주변 차량(20)을 목격 차량으로 선택할 수 있다. 이 때, 사고 발생 부위, 주변 차량(20)에 장착된 블랙 박스의 FOV나 위치 등을 고려할 수 있고, 주변 차량(20)이 차량 상태 정보를 차량(2)에 전송할 때, 블랙 박스의 FOV나 위치에 관한 정보도 함께 전송할 수 있다.
선택된 목격 차량에 사고 관련 정보를 요청하고(453), 사고 관련 정보를 수신하면(454), 수신한 사고 관련 정보를 서버(30)에 업로드한다(455). 차량 상태 정보와 사고 관련 정보의 요청은 사고 예측 또는 사고 발생 시에 이루어질 수도 있고, 차량 상태 정보를 사고 예측이나 사고 발생 이전에 요청하고 사고 관련 정보는 사고 예측이나 사고 발생 시에 요청하는 것도 가능하다.
도 60은 다른 실시예에 따른 사고 정보 관리 방법에 있어서, 주변 차량의 사고 관련 정보에 기초하여 목격 차량을 선택하는 방법에 관한 순서도이다.
도 60을 참조하면, 주변 차량에 사고 관련 정보를 요청하고(460), 사고 관련 정보를 수신하면(461), 사고 관련 정보를 분석하여 목격 차량을 선택한다(462). 차량(2)에 사고 관련 정보를 전송한 주변 차량은 차량(2)의 통신 커버리지 내에 위치하는 주변 차량 중 임의의 차량일 수도 있고, 차량 상태 정보를 분석하여 선택된 목격 차량일 수도 있다. 단, 이 주변 차량은 차량(20)과 직접 통신이 가능한 통신 커버리지 내에 위치하는 차량인 것으로 한다. 사고 관련 정보는 사고 관련 영상을 포함하는바, 사고 관련 영상에 나타난 주변 차량 중 사고 현장을 촬영했을 것으로 예상되는 차량을 새로운 목격 차량으로 판단할 수 있다. 새로 판단된 목격 차량이 사고 관련 정보를 차량(2)에 전송하지 않은 주변 차량인 경우에는 목격 차량에 사고 관련 정보를 요청할 수 있다. 이 때, 목격 차량이 차량(2)과 직접 통신 가능한 통신 커버리지 내에 위치하지 않는 경우, 직접 통신 가능한 통신 커버리지 내에 위치하는 다른 주변 차량을 라우터로 하여 멀티홉 방식을 통해 목격 차량에 사고 관련 정보를 요청할 수 있다(463).
또한, 목격 차량으로부터 사고 관련 정보를 수신함에 있어서도, 주변 차량을 라우터로 하여 멀티홉 방식을 통해 사고 관련 정보를 수신할 수 있다(464).
차량(2)은 수신한 사고 관련 정보를 서버(30)에 업로드할 수 있다(465).
도 61은 다른 실시예에 따른 사고 정보 관리 방법에 있어서, 주변 차량이 전송한 차량 상태 정보에 기초하여 목격 차량을 선택하는 방법에 관한 순서도이다.
도 61을 참조하면, 차량(2)은 주변 차량으로부터 차량 상태 정보를 수신할 수 있다(470). 전술한 도 35를 함께 참조하면, 주변 차량들(20-1,20-2,20-3,20-4)끼리 차량 상태 정보를 상호 공유할 수 있고, 차량(2)은 자신의 통신 커버리지(C) 내에 위치하는 주변 차량1(20-1)로부터 차량 상태 정보를 제공받을 수 있다. 주변 차량1(20-1)로부터 제공되는 차량 상태 정보는 주변 차량1(20-1)의 차량 상태 정보뿐만 아니라 다른 주변 차량들(20-2,20-3,20-4)의 차량 상태 정보도 포함될 수 있다.
차량 상태 정보를 분석하여 목격 차량을 선택할 수 있다(471). 예를 들어, 차량(2)의 위치, 자세 및 속도와 주변 차량들(20-1,20-2,20-3,20-4)의 위치, 자세 및 속도에 기초하여 차량(2)에 발생한 사고 당시 또는 사고 전후 일정 시간 동안의 상황을 촬영했을 것으로 예상되는 주변 차량을 판단할 수 있다. 이 경우, 차량(2)의 주변에 위치하는 다양한 주변 차량들의 위치, 자세 및 속도를 함께 분석함으로써, 각 주변 차량에 장착된 블랙박스의 시야가 다른 주변 차량에 의해 가려지는 것도 고려할 수 있다.
목격 차량이 선택되면, 주변 차량을 라우터로 하여 멀티홉 방식을 통해 목격 차량에 사고 관련 정보를 요청할 수 있고(472), 주변 차량을 라우터로 하여 멀티홉 방식을 통해 목격 차량으로부터 사고 관련 정보를 수신할 수 있다(573),
그리고, 사고 관련 정보를 서버에 업로드한다(474).
한편, 차량(2)은 주변 차량에 사고가 발생했을 때 주변 차량에 사고 관련 정보를 제공하는 것도 가능하다. 이하 도 58을 참조하여 설명한다.
도 62는 차량이 주변 차량의 사고를 판단하고 사고 관련 정보를 제공하는 사고 정보 관리 방법에 관한 순서도이다.
도 62를 참조하면, 차량(2)은 주변 차량(20)에 발생한 사고를 판단할 수 있다(480). 예를 들어, 차량(2)은 감지부(240)의 감지 결과에 기초하여 주변 차량(20)의 사고를 감지할 수 있다. 예를 들어, 근접 센서가 주변 차량(20)이 주변에 있음을 감지하고, 감지부(240)의 음향 센서가 감지한 음향이 미리 설정된 기준 크기 이상인 경우에 주변 차량(20)에 사고가 발생한 것으로 판단할 수 있다. 또는, 영상 센서가 촬영한 영상을 분석하여 주변 차량(20)에 사고 발생한 것으로 판단할 수도 있다. 이 경우에는, 영상 처리 알고리즘을 적용하여 주변 차량(20)의 형태 파손 여부를 판단할 수 있다. 또는, 근접 센서 또는 영상 센서에 의해 측정된 주변 차량(20)의 속도가 다른 주변 차량들에 비해 미리 설정된 기준 값 이하로 낮은 경우에 주변 차량(20)에 사고가 발생한 것으로 판단할 수 있다. 또는, 영상 센서 또는 근접 센서에 의해 빛이 감지되면, 빛의 밝기나 지속 시간 등을 미리 설정된 기준 값과 비교하여 감지된 빛이 주변 차량(20)에 발생한 사고에 의한 것인지 여부를 판단할 수 있다.
주변 차량에 사고가 발생한 것으로 판단하면, 주변 차량의 사고와 관련된 사고 관련 정보를 검색하고(481), 사고가 발생한 주변 차량에 사고 관련 정보를 전송한다(482). 주변 차량의 사고와 관련된 사고 관련 정보는 저장부(230)에 저장된 영상 중 사고 발생 전후 일정 시간 동안 촬영된 영상을 포함할 수 있다. 또한, 사고 관련 정보를 전송할 때, 차량(2)의 차량 상태 정보도 함께 전송할 수 있다. 또는, 사고 관련 정보를 주변 차량(20)에 전송하지 않고, 바로 서버(30)에 업로드할 수 있고, 이 때 주변 차량(20)의 사고 발생 정보도 함께 업로드할 수 있다.
이하, 사고 정보 분석 방법의 실시에에 대하여 설명한다.
도 63은 일 실시예에 따른 사고 정보 분석 방법에 관한 순서도이다. 당해 실시예에 따른 사고 정보 분석 방법을 수행함에 있어서, 전술한 실시예에 따른 사고 정보 분석 장치(300)를 이용할 수 있는바, 전술한 사고 정보 분석 장치(300)에 관한 설명이 당해 실시예에 따른 사고 정보 분석 방법에도 적용될 수 있음은 물론이다.
도 63을 참조하면, 차량 및 주변 차량에 의해 촬영된 사고 관련 영상을 이용하여 3차원 볼륨을 복원한다(490). 여기서, 차량은 사고 차량을 의미한다. 사고 분석 장치(300)의 저장부(310)에는 차량에 발생한 사고와 관련된 정보들이 저장될 수 있다. 차량의 위치, 자세 및 속도와 같은 차량 상태 정보와 차량의 영상 센서가 직접 촬영한 사고 관련 영상을 포함하는 사고 관련 정보가 사고 차량 정보로서 저장될 수 있고, 주변 차량(20)의 위치, 자세 및 속도와 같은 차량 상태 정보와 주변 차량(20)의 블랙박스, 즉 영상 센서가 촬영한 사고 관련 영상을 포함하는 사고 관련 정보가 주변 차량 정보로서 저장될 수 있다. 동일한 사고 현장을 서로 다른 시점(view point)에서 촬영한 복수의 2차원 영상이 존재하면, 3차원 복원부(321)는 복수의 2차원 영상에 공통적인 특징점을 추출하여 3차원 볼륨을 복원할 수 있다. 저장부(310)에 저장된 영상이 동영상인 경우에는 서로 다른 시점에서 촬영된 동영상 중 동일한 시각(time)에 대응되는 프레임 영상들을 이용하여 3차원 볼륨을 복원할 수 있다.
3차원 볼륨을 특정 시점에서 렌더링하여 2차원 사고 재현 영상을 생성하고(491), 2차원 사고 재현 영상을 전송한다(492). 사고 분석 장치(300)가 어디에 포함되는지에 따라 사고 재현 영상의 수신 대상이 달라질 수 있다. 예를 들어, 사고 정보 분석 장치(300)가 서버(40)에 포함되는 경우에는, 사고 차량들, 보험사, 모바일 기기, 개인 계정 등으로 사고 재현 영상을 전송할 수 있다. 또는, 사고 정보 분석 장치(300)가 사고 차량1(50-1)에 포함되는 경우에는, 사고 차량2(50-2), 서버(40), 보험사, 모바일 기기, 개인 계정 등으로 사고 재현 영상을 전송할 수 있다. 또는, 사고 분석 장치(300)가 모바일 기기(60)에 포함되는 경우에는, 사고 차량들, 보험사, 모바일 기기, 개인 계정 등으로 사고 재현 영상을 전송할 수 있다.
도 64는 일 실시예에 따른 사고 정보 분석 방법에 있어서, 사고 재현 영상을 3차원 입체 영상으로 생성하는 방법에 관한 순서도이다.
도 64를 참조하면, 차량 및 주변 차량에 의해 촬영된 사고 관련 영상을 이용하여 3차원 볼륨을 복원하고(500), 3차원 볼륨을 복수의 시점에서 렌더링하여 2차원 사고 재현 영상을 생성한다(501). 그리고, 복수의 2차원 사고 재현 영상을 이용하여 3차원 입체 영상을 생성한다(502). 렌더링하는 시점은 3차원 입체 영상의 출력 포맷에 따라 결정될 수 있는바, 출력 포맷이 오토스테레오스코픽(autostereoscopic) 방식에 대응되는 경우에는 복수의 시점에서 렌더링된 사고 재현 영상들을 합성한 다시점 입체 영상을 표시할 수 있다. 이 경우, 뷰어가 특수 안경을 착용하지 않더라도 사고 재현 영상을 3차원 입체 영상으로 볼 수 있다.
도 65는 일 실시예에 따른 사고 정보 분석 방법에 있어서, 사고와 관련된 특정 객체를 검출하여 사고 재현 영상에 표시하는 방법에 관한 순서도이다.
도 65를 참조하면, 사고 관련 영상을 분석하여 특정 객체를 검출한다(510). 예를 들어, 검출하고자 하는 객체가 타선인 경우, 다양한 시각 및 다양한 시점에서 촬영되거나 생성된 영상 정보들을 분석하여 사고 차량에 가려진 차선을 검출할 수도 있고, 저장부(310)에 저장된 지도 데이터와 사고 발생 정보를 매칭시킴으로써 차선을 검출할 수도 있다. 또는, 사고 차량에 의해 차선이 가려져 있더라도, 사고 현장에 관한 3차원 볼륨은 3차원 공간의 정보를 포함하고, 3차원 볼륨을 구성하는 복셀 데이터에는 가려진 차선에 대한 정보가 포함될 수 있다. 따라서, 3차원 볼륨을 분석하여 차선의 존재 및 위치를 판단할 수도 있다. 또는, 저장부(310)에 저장된 지도 데이터에 차선 정보가 포함될 수 있다. 따라서, 저장된 지도 데이터에서 사고 발생 위치를 검색하면 사고 현장에서의 차선의 존재 및 위치를 판단할 수 있다.
검출된 객체를 사고 재현 영상에 표시할 수 있다(511). 즉, 검출된 객체가 표시된 사고 재현 영상을 표시할 수 있다. 예를 들어, 검출된 객체가 차선인 경우에는 사고 재현 영상에서 가려진 차선(L) 부분을 점선으로 표시할 수 있다.
지금까지 전술한 사고 정보 관리 장치, 이를 포함하는 차량, 사고 정보 분석 장치, 사고 정보 수집 방법 및 사고 정보 분석 방법에 의하면, 차량 간 직접 통신을 통해 사고 관련 정보를 주변 차량으로부터 직접 수집하여 사고 원인을 명확히 규명하는데 사용할 수 있다. 또한, 차량간 직접 통신 및 차량과 서버 사이의 통신에 5G 통신 방식을 채용함으로써, 실시간성을 확보할 수 있고, 이로 인해 차량들이 실시간으로 이동함에 따라 차량들 사이의 위치 관계가 달라지는 점을 반영할 수 있다.
또한, 주변 차량과 신호를 주고 받는데 있어서 빔포밍 방식을 채용함으로써, 신호 간섭 효과를 최소화하여 효율적인 통신을 수행할 수 있다.
또한, 사고 발생 전후의 다양한 정보들을 실시간으로 획득하여 사고를 분석하는데 사용할 수 있다.
1: 차량
100,200: 사고 정보 관리 장치
300: 서버
20: 주변 차량

Claims (34)

  1. 차량에 발생한 사고와 관련된 사고 관련 정보 및 차량 상태 정보를 저장하는 저장부; 및
    상기 저장된 사고 관련 정보 및 차량 상태 정보를 이용하여 사고 재현 영상을 생성하는 영상 처리부;를 포함하고,
    상기 영상 처리부는,
    상기 저장된 사고 관련 정보를 이용하여 사고 현장에 관한 3차원 볼륨을 복원하고, 상기 3차원 볼륨을 복수의 시점에서 렌더링하여 복수의 2차원 사고 재현 영상을 생성하고, 상기 복수의 2차원 사고 재현 영상을 합성하여 3차원 사고 재현 영상을 생성하는 사고 정보 분석 장치.
  2. 제 1 항에 있어서,
    상기 저장부는,
    상기 차량이 획득한 사고 관련 정보, 상기 차량의 주변 차량이 획득한 사고 관련 정보, 상기 차량의 차량 상태 정보 및 상기 주변 차량의 차량 상태 정보를 저장하는 사고 정보 분석 장치.
  3. 제 1 항에 있어서,
    상기 사고 관련 정보는, 상기 차량 및 상기 차량의 주변 차량이 촬영한 사고 관련 영상을 포함하고,
    상기 영상 처리부는,
    상기 사고 관련 영상에 영상 처리를 수행하여 3차원 사고 재현 영상을 생성하는 사고 정보 분석 장치.
  4. 삭제
  5. 삭제
  6. 제 1 항에 있어서,
    상기 영상 처리부는,
    상기 저장된 사고 관련 정보에 기초하여 특정 객체를 검출하는 사고 정보 분석 장치.
  7. 제 6 항에 있어서,
    상기 저장된 사고 관련 정보는,
    상기 차량 및 상기 차량의 주변 차량이 사고 발생 전후 일정 시간 동안 촬영한 동영상을 포함하는 사고 정보 분석 장치.
  8. 제 1 항에 있어서,
    상기 영상 처리부는,
    상기 사고 재현 영상 또는 상기 3차원 볼륨을 이용하여 특정 객체를 검출하는 사고 정보 분석 장치.
  9. 제 1 항에 있어서,
    상기 저장부는,
    사고 발생 위치 및 사고 발생 시각을 포함하는 사고 발생 정보와 지도 데이터를 더 저장하고,
    상기 영상 처리부는,
    상기 사고 발생 정보 및 상기 지도 데이터에 기초하여 특정 객체를 검출하는 사고 정보 분석 장치.
  10. 제 6 항에 있어서,
    상기 특정 객체는 차선을 포함하는 사고 정보 분석 장치.
  11. 제 8 항에 있어서,
    상기 특정 객체는 차선을 포함하는 사고 정보 분석 장치.
  12. 제 9 항에 있어서,
    상기 특정 객체는 차선을 포함하는 사고 정보 분석 장치.
  13. 제 6 항에 있어서,
    상기 영상 처리부는,
    상기 사고 재현 영상에 상기 검출된 특정 객체를 표시하는 사고 정보 분석 장치.
  14. 제 8 항에 있어서,
    상기 영상 처리부는,
    상기 사고 재현 영상에 상기 검출된 특정 객체를 표시하는 사고 정보 분석 장치.
  15. 제 9 항에 있어서,
    상기 영상 처리부는,
    상기 사고 재현 영상에 상기 검출된 특정 객체를 표시하는 사고 정보 분석 장치.
  16. 제 1 항에 있어서,
    상기 사고 재현 영상은,
    2차원 정지 영상, 3차원 정지 영상, 2차원 동영상 및 3차원 동영상 중 적어도 하나를 포함하는 사고 정보 분석 장치.
  17. 제 1 항에 있어서,
    상기 저장된 사고 관련 정보, 상기 저장된 차량 상태 정보 및 상기 사고 재현 영상 중 적어도 하나를 분석하여 사고 원인 및 과실 비율 중 적어도 하나를 판단하는 사고 분석부를 더 포함하는 사고 정보 분석 장치.
  18. 제 17 항에 있어서,
    상기 영상 처리부는,
    상기 사고 원인 및 상기 과실 비율 중 적어도 하나를 상기 사고 재현 영상에 표시하는 사고 정보 분석 장치.
  19. 차량에 발생한 사고와 관련된 사고 관련 정보 및 차량 상태 정보를 저장하는 저장부;
    상기 저장된 사고 관련 정보 및 차량 상태 정보를 이용하여 사고 재현 영상을 생성하는 영상 처리부; 및
    상기 사고 재현 영상을 상기 차량, 미리 설정된 모바일 기기 및 미리 설정된 계정 중 적어도 하나로 전송하는 통신부;를 포함하고,
    상기 영상 처리부는,
    상기 저장된 사고 관련 정보를 이용하여 사고 현장에 관한 3차원 볼륨을 복원하고, 상기 3차원 볼륨을 복수의 시점에서 렌더링하여 복수의 2차원 사고 재현 영상을 생성하고, 상기 복수의 2차원 사고 재현 영상을 합성하여 3차원 사고 재현 영상을 생성하는 서버.
  20. 제 19 항에 있어서,
    상기 통신부는,
    5세대 이동통신 방식을 적용하는 서버.
  21. 제 19 항에 있어서,
    상기 통신부는,
    상기 차량 또는 상기 차량의 주변 차량으로부터 상기 사고 관련 정보 및 상기 차량 상태 정보를 수신하는 서버.
  22. 차량에 발생한 사고와 관련된 사고 관련 정보 및 차량 상태 정보를 저장하고;
    상기 저장된 사고 관련 정보 및 차량 상태 정보를 이용하여 사고 재현 영상을 생성하는 것을 포함하고,
    상기 사고 재현 영상을 생성하는 것은,
    상기 저장된 사고 관련 정보를 이용하여 사고 현장에 관한 3차원 볼륨을 복원하고, 상기 3차원 볼륨을 복수의 시점에서 렌더링하여 복수의 2차원 사고 재현 영상을 생성하고, 상기 복수의 2차원 사고 재현 영상을 합성하여 3차원 사고 재현 영상을 생성하는 것을 포함하는 사고 정보 분석 방법.
  23. 제 22 항에 있어서,
    상기 사고 관련 정보 및 차량 상태 정보를 저장하는 것은,
    상기 차량이 획득한 사고 관련 정보, 상기 차량의 주변 차량이 획득한 사고 관련 정보, 상기 차량의 차량 상태 정보 및 상기 주변 차량의 차량 상태 정보를 저장하는 것을 포함하는 사고 정보 분석 방법.
  24. 삭제
  25. 삭제
  26. 제 22 항에 있어서,
    상기 저장된 사고 관련 정보에 기초하여 특정 객체를 검출하는 것을 더 포함하는 사고 정보 분석 방법.
  27. 제 26 항에 있어서,
    상기 저장된 사고 관련 정보는,
    상기 차량 및 상기 차량의 주변 차량이 사고 발생 전후 일정 시간 동안 촬영한 동영상을 포함하는 사고 정보 분석 방법.
  28. 제 22 항에 있어서,
    상기 사고 재현 영상 또는 상기 3차원 볼륨을 이용하여 특정 객체를 검출하는 것을 더 포함하는 사고 정보 분석 방법.
  29. 제 22 항에 있어서,
    사고 발생 위치 및 사고 발생 시각을 포함하는 사고 발생 정보와 지도 데이터를 저장하고;
    상기 사고 발생 정보 및 상기 지도 데이터에 기초하여 특정 객체를 검출하는 것을 더 포함하는 사고 정보 분석 방법.
  30. 제 26 항에 있어서,
    상기 검출된 특정 객체는,
    상기 사고 재현 영상에는 표시되는 사고 정보 분석 방법.
  31. 제 28 항에 있어서,
    상기 검출된 특정 객체는,
    상기 사고 재현 영상에는 표시되는 사고 정보 분석 방법.
  32. 제 29 항에 있어서,
    상기 검출된 특정 객체는,
    상기 사고 재현 영상에는 표시되는 사고 정보 분석 방법.
  33. 제 22 항에 있어서,
    상기 저장된 사고 관련 정보, 상기 저장된 차량 상태 정보 및 상기 사고 재현 영상 중 적어도 하나를 분석하여 사고 원인 및 과실 비율 중 적어도 하나를 판단하는 것을 더 포함하는 사고 정보 분석 방법.
  34. 제 33 항에 있어서,
    상기 사고 원인 및 상기 과실 비율 중 적어도 하나는,
    상기 사고 재현 영상에 표시되는 사고 정보 분석 방법.
KR1020150039158A 2015-03-20 2015-03-20 사고 정보 분석 장치, 이를 포함하는 서버 및 사고 정보 분석 방법 KR101665553B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150039158A KR101665553B1 (ko) 2015-03-20 2015-03-20 사고 정보 분석 장치, 이를 포함하는 서버 및 사고 정보 분석 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150039158A KR101665553B1 (ko) 2015-03-20 2015-03-20 사고 정보 분석 장치, 이를 포함하는 서버 및 사고 정보 분석 방법

Publications (2)

Publication Number Publication Date
KR20160112817A KR20160112817A (ko) 2016-09-28
KR101665553B1 true KR101665553B1 (ko) 2016-10-24

Family

ID=57101916

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150039158A KR101665553B1 (ko) 2015-03-20 2015-03-20 사고 정보 분석 장치, 이를 포함하는 서버 및 사고 정보 분석 방법

Country Status (1)

Country Link
KR (1) KR101665553B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101981027B1 (ko) * 2019-01-16 2019-05-22 주식회사 유진솔루션 설비 관제 시스템
US11308741B1 (en) 2019-05-30 2022-04-19 State Farm Mutual Automobile Insurance Company Systems and methods for modeling and simulation in vehicle forensics

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3828657A1 (en) 2016-12-23 2021-06-02 Mobileye Vision Technologies Ltd. Navigational system
US11430071B2 (en) 2017-08-16 2022-08-30 Mobileye Vision Technologies Ltd. Navigation based on liability constraints
KR102101090B1 (ko) * 2018-09-20 2020-04-14 주식회사 에스원 차량 사고 영상 공유 방법 및 그 장치
KR102624376B1 (ko) * 2019-01-09 2024-01-12 주식회사 케이티 차량 통신 서비스를 제공하는 서버, 단말 및 방법
KR102232716B1 (ko) * 2019-07-09 2021-04-05 김영현 빅데이터 및 머신러닝 기반의 과실 비율 판정 방법 및 장치
KR102095454B1 (ko) * 2019-10-04 2020-03-31 주식회사 에이에스디코리아 커넥티드 카를 위한 클라우드 서버 및 상황 재현 방법
US20220394784A1 (en) * 2019-11-22 2022-12-08 Lg Electronics Inc. Method for signal transmission between vehicle, terminal, and network in wireless communication system, and vehicle, terminal, and network therefor
KR102400842B1 (ko) * 2020-01-30 2022-05-23 상명대학교산학협력단 교통사고 정보를 제공하기 위한 서비스 방법
US11718288B2 (en) 2020-03-23 2023-08-08 Toyota Motor North America, Inc. Consensus-based transport event severity
US11574543B2 (en) 2020-03-23 2023-02-07 Toyota Motor North America, Inc. Transport dangerous location warning
KR102376526B1 (ko) * 2020-08-06 2022-03-18 인하대학교 산학협력단 자율주행차량 데이터 및 cctv 카메라 영상을 활용한 사고상황 재현 방법 및 시스템
KR102485416B1 (ko) * 2021-02-18 2023-01-05 한국교통안전공단 자동차 사고기록 분석시스템, 분석방법 및 분석프로그램
JPWO2023017652A1 (ko) * 2021-08-11 2023-02-16
WO2024035068A1 (ko) * 2022-08-08 2024-02-15 주식회사 아이나비시스템즈 블랙박스를 이용한 차량 사고 감지 및 자동 사고 공유 방법, 이를 수행하는 장치 및 프로그램
KR102633427B1 (ko) * 2023-08-14 2024-02-07 주식회사 카비 교통사고 현장 재구성 리포트를 만드는 방법
KR102633425B1 (ko) * 2023-08-14 2024-02-07 주식회사 카비 교통사고 현장 재구성 리포트를 만드는 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004090879A (ja) * 2002-09-03 2004-03-25 Mitsui Sumitomo Insurance Co Ltd 事故状況記録装置、過失診断システム、事故情報記録方法、過失診断方法、及びプログラム
JP2012128734A (ja) * 2010-12-16 2012-07-05 Denso Corp ドライブレコーダシステム及びドライブレコーダ装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150014264A (ko) * 2013-07-29 2015-02-06 한국전자통신연구원 교통 사고 현장 재현 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004090879A (ja) * 2002-09-03 2004-03-25 Mitsui Sumitomo Insurance Co Ltd 事故状況記録装置、過失診断システム、事故情報記録方法、過失診断方法、及びプログラム
JP2012128734A (ja) * 2010-12-16 2012-07-05 Denso Corp ドライブレコーダシステム及びドライブレコーダ装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101981027B1 (ko) * 2019-01-16 2019-05-22 주식회사 유진솔루션 설비 관제 시스템
US11308741B1 (en) 2019-05-30 2022-04-19 State Farm Mutual Automobile Insurance Company Systems and methods for modeling and simulation in vehicle forensics
US11893840B2 (en) 2019-05-30 2024-02-06 State Farm Mutual Automobile Insurance Company Systems and methods for modeling and simulation in vehicle forensics

Also Published As

Publication number Publication date
KR20160112817A (ko) 2016-09-28

Similar Documents

Publication Publication Date Title
KR101656808B1 (ko) 사고 정보 관리 장치, 이를 포함하는 차량 및 사고 정보 관리 방법
KR101675306B1 (ko) 사고 정보 관리 장치, 이를 포함하는 차량 및 사고 정보 관리 방법
KR101665553B1 (ko) 사고 정보 분석 장치, 이를 포함하는 서버 및 사고 정보 분석 방법
CN109466548B (zh) 用于自主车辆操作的地面参照确定
US10992860B2 (en) Dynamic seam adjustment of image overlap zones from multi-camera source images
US10460180B2 (en) Systems and methods for visual classification with region proposals
CN108693876B (zh) 用于具有控制部件的车辆的目标跟踪系统及方法
US10430641B2 (en) Methods and systems for object tracking using bounding boxes
US10349011B2 (en) System and method for improved obstacle awareness in using a V2X communications system
CN109212543B (zh) 用于自主车辆操作的校准验证方法
CN109426806B (zh) 用于车辆信号灯检测的系统和方法
JP6836327B2 (ja) 車両周辺画像提供方法及びその装置並びにコンピュータ読取可能記録媒体
US10328934B2 (en) Temporal data associations for operating autonomous vehicles
US10613547B2 (en) System and method for improved obstacle awareness in using a V2X communications system
CN109212542A (zh) 用于自主车辆操作的校准方法
CN105989728B (zh) 车辆及其控制方法
CN111033571B (zh) 图像处理设备和图像处理方法
CN109964145A (zh) 用于保护光检测和测距(lidar)设备的方法和系统
US20190385457A1 (en) Obstacle warning method for vehicle
CN109307869B (zh) 用于增加激光雷达探测器的视场的设备和照明装置
US20160275360A1 (en) Vehicle and method for controlling the same
CN109196557A (zh) 图像处理装置、图像处理方法和车辆
US20180339730A1 (en) Method and system for generating a wide-area perception scene graph
US20200189459A1 (en) Method and system for assessing errant threat detection
CN109387856A (zh) 用于lidar阵列中的并行采集的方法和设备

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant