KR101912703B1 - 3채널 차량 상황 감시 장치 및 그 방법 - Google Patents

3채널 차량 상황 감시 장치 및 그 방법 Download PDF

Info

Publication number
KR101912703B1
KR101912703B1 KR1020160108410A KR20160108410A KR101912703B1 KR 101912703 B1 KR101912703 B1 KR 101912703B1 KR 1020160108410 A KR1020160108410 A KR 1020160108410A KR 20160108410 A KR20160108410 A KR 20160108410A KR 101912703 B1 KR101912703 B1 KR 101912703B1
Authority
KR
South Korea
Prior art keywords
vehicle
driver
information
photographing
unit
Prior art date
Application number
KR1020160108410A
Other languages
English (en)
Other versions
KR20170051196A (ko
Inventor
권락범
임은영
Original Assignee
주식회사 세코닉스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 세코닉스 filed Critical 주식회사 세코닉스
Publication of KR20170051196A publication Critical patent/KR20170051196A/ko
Application granted granted Critical
Publication of KR101912703B1 publication Critical patent/KR101912703B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • B60K2350/2013
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0809Driver authorisation; Driver identical check
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/043Identity of occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style

Abstract

본 발명의 일 실시예에 따르면, 운전자별 운전 패턴 분석을 통해 차량 상황을 감시하는 3채널 차량 상황 감시 장치에 있어서, 상기 차량 외부의 전방부를 촬영하는 제1 촬영부; 상기 차량 외부의 후방부를 촬영하는 제2 촬영부; 상기 차량 운전자의 표정 또는 행동 변화를 포함하는 운전자의 상태를 촬영하는 제3 촬영부; 상기 제1 촬영부, 제2 촬영부, 또는 제3 촬영부의 영상 정보를 토대로 각 운전자의 운전 패턴을 분석하는 패턴 분석부; 상기 운전자의 운전 패턴 분석 결과를 토대로 상기 차량의 상황을 감시하는 상태 감지부; 및 상기 차량 상황 감시에 의한 이상 상황 발생 여부에 따라 상기 제1 촬영부, 제2 촬영부, 또는 제3 촬영부의 촬영 방법 또는 촬영된 영상 데이터의 처리 방법을 설정하는 영상 처리부를 포함하는, 3채널 차량 상황 감시 장치가 제공된다.

Description

3채널 차량 상황 감시 장치 및 그 방법{3-CHANNEL MONITORING APPARATUS FOR STATE OF VEHICLE AND METHOD THEREOF}
본 발명은 3채널 차량 상황 감시 장치 및 그 방법에 관한 것으로, 보다 상세하게는, 차량 주변부 또는 차량 내부를 촬영하는 3채널 카메라부를 포함하는 차량 상황 감시 장치가 운전 패턴 정보를 기반으로 차량 상황을 감시하고, 상기 감시 결과에 따라 촬영 영상 데이터를 처리하는 3채널 차량 상황 감시 장치 및 그 방법에 관한 것이다.
자동차의 운행이 기하 급수적으로 증가하는 현대 사회에서 자동차 사고로 인한 인명 피해가 급증함에 따라, 차량 운행을 위한 안전 장치 또는 감시 장치가 많이 보급되고 있다.
대표적으로, 차량용 블랙박스(black box)의 사용이 증가하여 대부분의 차량에서 블랙박스가 장착되고 있다. 차량용 블랙박스는 차량 전방의 영상을 촬영하고 메모리에 저장하므로, 교통 사고가 발생한 경우 메모리에 저장된 영상을 근거로 당시의 상황을 정확하게 판단할 수 있게 한다.
이러한 차량용 블랙박스는 2대 이상의 카메라를 설치하여 차량의 전방뿐 아니라 후방 또는 측면도 동시에 촬영하도록 구비되거나, 차량 내부의 음성을 녹음하고 촬영할 수 있도록 구비된 경우도 있다.
그러나, 종래의 차량용 블랙박스는 영상이 저장되는 메모리의 용량 한계 때문에 저해상도로 영상을 촬영 및 저장하므로, 사고가 발생하였을 때 화질이 좋지 않은 영상으로 인해 사고 상황의 확인 및 분석이 어려운 문제점이 있었다.
또한, 차량용 블랙박스의 영상을 고해상도로 설정하여 사용할 경우에는 이전에 촬영된 영상을 삭제한 후 최근 촬영된 영상을 저장하게 되므로, 사고 상황이 기록되거나 중요한 영상이 의도치 않게 삭제되는 문제점이 발생할 수 밖에 없었다.
이와 같은 블랙박스의 영상 저장 메모리 부족 문제를 해결하기 위한 연구 개발이 이루어지게 되었으며, 그 중 하나로 한국공개특허 제10-2009-0104300호 (선행문헌 1)은 이중 저장구조를 구비하여 데이터 저장 공간 문제의 개선 방안을 제시하고 있으나, 이 경우에도 단순히 저장 공간을 좀 더 확보할 수 있을 뿐, 효율적인 데이터 관리 및 유동적인 데이터 저장 방법을 근본적으로 해결할 수는 없다.
따라서, 주행 상황에 적합하도록 필요에 따라 적절히 촬영 영상을 저장하고 유지할 수 있는 기술이 필요하다.
한편, 이밖에 자동차 주행시 안전을 위한 장치로서, 운전자의 졸음운전 또는 음주운전이나 기타 다른 이유로 운전자가 정상적인 운전을 하지 못해 발생할 수 있는 사고의 방지를 위한 운전자 상태 인식 기술 연구가 진행되고 있다.
운전자 상태 인식 기술에 있어서 또한, 각 운전자에 적합하게 적용할 수 있는 기준이 필요하며, 다양한 정보를 토대로 졸음운전 또는 돌발 상황 발생 여부를 정확하게 감지할 수 있는 분석 기술이 필요한 실정이다.
선행문헌 1 : 한국공개특허 제10-2009-0104300호 (2009.10.06)
본 발명은 전술한 종래기술의 문제점을 해결하기 위한 것으로, 각각의 차량 상황에 대하여 필요에 따른 영상 데이터의 저장 여부를 결정함으로써, 차량 상황 감시 장치의 데이터 관리 효율성을 향상시키는 것을 그 목적으로 한다.
본 발명의 다른 목적은, 하나의 차량 상황 감시 장치에 포함되는 3채널 카메라가 각각 다른 위치를 촬영하도록 하고, 상황에 따라 각 촬영부의 영상 데이터 관리가 별개로 수행되도록 함으로써, 차량 상황 감시의 정확성을 향상시킬 뿐 아니라, 영상 데이터의 활용도를 증가시킬 수 있도록 하는 것이다.
본 발명의 또 다른 목적은, 3채널 카메라의 각 영상 데이터와 함께, 차량의 운행 정보 또는 위치 정보 등을 토대로 운전자의 운전 패턴을 정확히 분석하고, 운전자의 실시간 상태를 상기 분석된 운전 패턴과 비교 분석함으로써, 차량의 이상 상황 발생 여부를 정확하게 판단할 수 있도록 하는 것이다.
본 발명의 또 다른 목적은, 운전자별 운전 패턴 정보를 생성함으로써, 차량을 운행하는 운전자에 대응되는 운전 패턴 정보에 따라 각각의 차량 상황을 감시하여 차량 이상 상황 발생 판단의 정확성을 더욱 향상시킬 수 있도록 하는 것이다.
상술한 목적을 달성하기 위해 본 발명의 일 실시예에 따르면, 운전자별 운전 패턴 분석을 통해 차량 상황을 감시하는 3채널 차량 상황 감시 장치에 있어서, 상기 차량 외부의 전방부를 촬영하는 제1 촬영부; 상기 차량 외부의 후방부를 촬영하는 제2 촬영부; 상기 차량 운전자의 표정 또는 행동 변화를 포함하는 운전자의 상태를 촬영하는 제3 촬영부; 상기 제1 촬영부, 제2 촬영부, 또는 제3 촬영부의 영상 정보를 토대로 각 운전자의 운전 패턴을 분석하는 패턴 분석부; 상기 운전자의 운전 패턴 분석 결과를 토대로 상기 차량의 상황을 감시하는 상태 감지부; 및 상기 차량 상황 감시에 의한 이상 상황 발생 여부에 따라 상기 제1 촬영부, 제2 촬영부, 또는 제3 촬영부의 촬영 방법 또는 촬영된 영상 데이터의 처리 방법을 설정하는 영상 처리부를 포함하는, 3채널 차량 상황 감시 장치가 제공된다.
상기 제1 촬영부, 제2 촬영부, 및 제3 촬영부 각각의 영상 데이터를 저장 및 관리하고, 일 이상의 운전자에 대해 생성된 운전 패턴 정보를 각 운전자별로 구분하여 저장하는 데이터베이스를 포함하는, 3채널 차량 상황 감시 장치가 제공된다.
상기 영상 처리부는, 상기 데이터베이스에 저장되는 상기 제1 촬영부, 제2 촬영부, 또는 제3 촬영부의 각 영상 데이터에 대한 저장 여부, 저장 주기, 저장 기간, 저장 방식 또는 삭제 여부를 상기 차량 상황별로 설정하는 것을 특징으로 하는, 3채널 차량 상황 감시 장치가 제공된다.
상기 패턴 분석부는, 상기 운전자의 차량 주행 패턴 및 차량 주정차 패턴을 각각 분석하고, 상기 상태 감지부는, 상기 차량의 주행 상황 또는 주정차 상황에 따라, 각각 상기 운전자의 주행 패턴 또는 상기 주정차 패턴을 기초로 상기 차량의 이상 상황을 감지하는 것을 특징으로 하는, 3채널 차량 상황 감시 장치가 제공된다.
상기 패턴 분석부 및 상태 감지부는, 상기 차량과 통신을 통해 엔진 구동 정보, 알피엠(RPM, Revolution per minute) 정보, 기어 변속 정보, 운전자에 의한 엑셀/브레이크 페달 작동 정보, 핸들 움직임 정보, 차량 속도 및 차량 움직임 패턴 정보 중 일 이상을 포함하는 차량 정보를 수신함으로써, 운전자의 운전 패턴 분석 및 차량 상황 감지를 수행하는 것을 특징으로 하는, 3채널 차량 상황 감시 장치가 제공된다.
상기 패턴 분석부 및 상태 감지부는, 상기 차량의 위치 정보 또는 상기 차량의 이동 경로 정보를 수신하여 상기 차량의 위치 또는 경로에 따른 운전자의 운전 패턴 분석 및 차량 상황 감지를 수행하는 것을 특징으로 하는, 3채널 차량 상황 감시 장치가 제공된다.
상기 상태 감지부는, 상기 차량의 상황 감시 결과, 상기 운전자가 졸음운전상태인 것으로 추정될 시, 상기 운전자로 하여금 정상운전상태를 나타내는 행위를 수행하도록 유도하는 신호음을 발생시킨 후, 이에 따른 상기 운전자의 행동 변화를 분석함으로써 차량 상황 감지를 수행하는 것을 특징으로 하는, 3채널 차량 상황 감시 장치가 제공된다.
기 지정된 운전자의 ID 및 패스워드 입력, 또는 상기 운전자에게 발급된 운전자 인증용 카드와의 통신을 통해 상기 운전자의 운전자 식별 정보를 수신하는 운전자 정보 송수신부를 포함하는, 3채널 차량 상황 감시 장치가 제공된다.
상기 운전자의 차량 탑승시 상기 제3 촬영부에서 촬영된 영상으로부터 상기 운전자의 식별 정보로서 상기 운전자에 대한 안면 인식 정보를 생성하는, 운전자 안면 인식부를 포함하는, 3채널 차량 상황 감시 장치가 제공된다.
상술한 목적을 달성하기 위해 본 발명의 다른 실시예에 따르면, 3채널 차량 상황 감시 장치가 운전자별 운전 패턴 분석을 통해 차량 주변 상황 또는 운전자 상태를 감시하는 방법에 있어서, (a) 제1 촬영부 및 제2 촬영부를 통해 서로 다른 위치의 상기 차량의 주변 상황을 촬영하는 단계; (b) 제3 촬영부를 통해 상기 차량의 내부 상황을 촬영하는 단계; (c) 상기 제1 촬영부, 제2 촬영부 또는 제3 촬영부의 촬영 영상 정보를 토대로 상기 운전자의 운전 패턴을 분석하는 단계; (d) 상기 제1 촬영부, 제2 촬영부 또는 제3 촬영부에서 실시간으로 촬영된 상기 차량 상황의 실시간 영상을 상기 저장된 운전자의 운전 패턴 정보와 비교 분석하여 실시간 차량의 상황을 감시하는 단계; 및 (e) 상기 실시간 차량 상황 분석 결과에 따라, 상기 제1 촬영부, 제2 촬영부 또는 제3 촬영부의 촬영 방법 또는 영상 데이터 처리 방법을 설정하는 단계를 포함하는, 3채널 차량 상황 감시 장치의 차량 상황 감시 방법이 제공된다.
상기 (c) 단계 이후에, 상기 차량과 통신을 통해 엔진 구동 정보, 알피엠(RPM, Revolution per minute) 정보, 기어 변속 정보, 운전자에 의한 엑셀/브레이크 페달 작동 정보, 핸들 움직임 정보, 차량 속도 및 차량 움직임 패턴 정보 중 일 이상을 포함하는 차량 정보를 수신하여 상기 운전자의 운전 패턴을 분석하는 단계를 포함하고, 상기 (d) 단계 이후에, 상기 차량과의 통신을 통해 실시간으로 상기 차량 정보를 수신하여 상기 운전 패턴과 비교 분석함으로써, 실시간 차량의 상황을 감시하는 단계를 포함하는, 3채널 차량 상황 감시 장치의 차량 상황 감시 방법이 제공된다.
상기 (c) 단계 이후에, 상기 운전자를 식별하기 위한 운전자 식별 정보를 생성하여 상기 분석 결과 생성된 상기 운전자의 운전 패턴 정보와 매칭하여 저장하는 단계를 포함하는, 3채널 차량 상황 감시 장치의 차량 상황 감시 방법이 제공된다.
상기 (a) 단계 이전에, 상기 차량의 위치 정보 또는 차량 이동 경로 정보를 수신하는 단계를 포함하고, 상기 (c) 단계의 운전 패턴 분석 및 상기 (d) 단계의 차량 상황 감시는, 상기 차량의 주행 여부, 주행 위치 또는 주행 경로에 따라 수행되는 것을 특징으로 하는, 3채널 차량 상황 감시 장치의 차량 상황 감시 방법이 제공된다.
상기 (d) 단계의 차량 상황 감시는, 상기 차량 상황의 실시간 영상을 토대로 상기 운전자가 졸음운전상태인 것으로 추정될 시, 상기 운전자로 하여금 정상운전상태를 나타내는 행위를 수행하도록 유도하는 신호음을 발생시킨 후, 이에 따른 상기 운전자의 행동 변화를 분석함으로써 수행되는 것을 특징으로 하는, 3채널 차량 상황 감시 장치의 차량 상황 감시 방법이 제공된다.
상기 (e) 단계 이후에, 상기 설정된 영상 데이터 처리 방법에 따라, 상기 제1 촬영부, 제2 촬영부 또는 제3 촬영부의 영상 데이터가 저장 또는 삭제되는 단계를 포함하는, 3채널 차량 상황 감시 장치의 차량 상황 감시 방법이 제공된다.
상기 (e) 단계의 영상 데이터 처리 방법은, 상기 패턴 분석 결과, 상기 차량의 감시 상황, 또는 상기 각 촬영부마다 상이하게 설정되는 것을 특징으로 하는, 3채널 차량 상황 감시 장치의 차량 상황 감시 방법이 제공된다.
본 발명의 일 실시예에 따르면, 각각의 차량 상황에 대하여 필요에 따른 영상 데이터의 저장 여부를 결정함으로써, 차량 상황 감시 장치의 데이터 관리 효율성을 향상시킬 수 있다.
본 발명의 다른 실시예에 따르면, 하나의 차량 상황 감시 장치에 포함되는 3채널 카메라가 각각 다른 위치를 촬영하도록 하고, 상황에 따라 각 촬영부의 영상 데이터 관리가 별개로 수행되도록 함으로써, 차량 상황 감시의 정확성을 향상시킬 뿐 아니라, 영상 데이터의 활용도를 증가시킬 수 있다.
본 발명의 또 다른 실시예에 따르면, 3채널 카메라의 각 영상 데이터와 함께, 차량의 운행 정보 또는 위치 정보 등을 토대로 운전자의 운전 패턴을 정확히 분석하고, 운전자의 실시간 상태를 상기 분석된 운전 패턴과 비교 분석함으로써, 차량의 이상 상황 발생 여부를 정확하게 판단할 수 있다.
본 발명의 또 다른 실시예에 따르면, 운전자별 운전 패턴 정보를 생성함으로써, 차량을 운행하는 운전자에 대응되는 운전 패턴 정보에 따라 각각의 차량 상황을 감시하여 차량 이상 상황 발생 판단의 정확성을 더욱 향상시킬 수 있다.
본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.
도 1은 본 발명의 일 실시예에 따른 3채널 차량 상황 감시 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 운전자별 패턴 분석 방법을 시간의 흐름에 따라 도시한 흐름도이다.
도 3은 본 발명의 실시예에 따른 3채널 주행 상황 감시 방법을 시간의 흐름에 따라 도시한 흐름도이다.
이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.
본 발명의 실시예에 따른 3채널 차량 상황 감시 장치는 차량에 고정되어 차량의 운행정보 및 운전자 상태정보 등과 같은 주행 상황정보를 실시간으로 감시하여 분석할 수 있다.
3채널 차량 상황 감시 장치는 차량 외부의 전방, 후방 상황을 촬영할 수 있을 뿐만 아니라, 차량 내부의 운전자 상태를 촬영할 수 있는 카메라 모듈을 포함할 수 있다.
이에 따라, 3채널 차량 상황 감시 장치는 3채널 카메라를 통해 촬영된 영상 데이터를 기반으로 자동차 주행 상태를 분석하여 돌발 상황을 감지할 수 있다.
또한, 3채널 차량 상황 감시 장치는 카메라 모듈에 의해 촬영된 영상 이외에도, 차량 정보를 통해 운전자의 운전 패턴을 분석하여 실시간으로 차량 주행 상태를 파악할 수 있다.
이와 같은 3채널 차량 상황 감시 장치의 패턴 분석은 운전자별로 이루어질 수 있으며, 각 운전자별 패턴 분석 결과를 저장함으로써, 차량을 운전하는 운전자에 대응되는 패턴 분석 결과를 기반으로 주행 상황을 판단할 수 있다.
이하, 첨부의 도면을 참조하여 본 발명의 다양한 실시예들을 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 3채널 차량 상황 감시 장치(100)의 구성도이다.
도 1을 참조하면, 일 실시예에 따른 3채널 차량 상황 감시 장치(100)는 카메라부(110), 데이터베이스(120), 운전자 식별부(130) 및 분석부(140)를 포함할 수 있다.
카메라부(110)는 3채널로 구성되어 차량 주변 또는 차량 내부 등 이격된 위치를 각각 촬영할 수 있다.
일 실시예에 따른 카메라부(110)는 야간 또는 어두운 곳에서도 촬영이 가능하도록 적외선 LED 및 적외선 필터를 포함할 수 있으며, 미세한 움직임을 감지할 수 있는 고해상도 카메라를 포함할 수도 있다.
다른 실시예에 따른 카메라부(110)는 주간 및 야간에 일정한 영상 특성을 만들기 위해 일정 영역대 파장의 영상만을 받아들이는 적외선 전용 카메라로 구성될 수도 있다.
본 발명의 실시예에 따른 카메라부(110)는 제1 촬영부(111), 제2 촬영부(112) 및 제3 촬영부(113)의 3채널 카메라를 포함할 수 있다.
먼저, 제1 촬영부(111) 및 제2 촬영부(112)는 차량 외부의 주변 상황을 실시간으로 촬영하여 영상데이터를 생성할 수 있다.
일 실시예에 따른 제1 촬영부(111)는 차량 전방부의 외부 상황을 촬영하고, 이를 통해 상기 차량 전방부의 차선 및 주변 차량의 정보를 인식할 수 있으며, 제2 촬영부(112)는 차량 후방부의 외부 상황을 촬영하고, 이를 통해 차량 후방부의 주변 차량 정보를 인식할 수도 있다.
다른 실시예에 따르면, 제1 촬영부(111) 및 제2 촬영부(112)는 각각 전방부와 일측면을 포함하는 차량 주변부 및 후방부와 타측면을 포함하는 차량 주변부를 촬영할 수도 있다.
제1 촬영부(111) 및 제2 촬영부(112)는 차량이 주행중인지 여부를 감지할 수 있으며, 주행중인 경우뿐만 아니라, 차량이 주정차 되어 있는 경우에도 실시간 차량 주변 촬영이 수행될 수 있다.
일 실시예에 따른 제3 촬영부(113)는 운전자의 차량 탑승 이후, 실시간으로 운전자의 상태를 촬영할 수 있다.
본 발명의 실시예에 따른 3채널 차량 상황 감시 장치(100)는 운전자의 얼굴을 인식함으로써, 운전자를 식별할 수 있는데, 제3 촬영부(113)는 상기 운전자 얼굴 인식이 이루어질 수 있도록 각 운전자 얼굴에서 나타나는 특유한 특징점들을 추출해낼 수도 있고, 운전자의 얼굴형 또는 이목구비 위치 등을 파악할 수도 있다.
본 발명의 일 실시예에 따르면, 제3 촬영부(113)는 사용자의 명령이나 조작 없이도, 운전자의 차량 탑승이 감지되면 자동적으로 운전자의 상태를 실시간으로 촬영할 수 있다. 다른 실시예에 따른 제3 촬영부(113)는 자동차로부터 차량 주행 정보를 수신하여 운전자가 주행을 시작하면 자동적으로 촬영이 수행되도록 할 수도 있다.
데이터베이스(120)는 카메라부(110)에서 촬영한 영상 데이터를 저장할 수 있을 뿐만 아니라, 일 이상의 운전자 정보 및 차량 정보를 저장할 수도 있다.
본 발명의 일 실시예에 따른 데이터베이스(120)는 카메라부(110)의 3채널 촬영부 각각의 촬영 영상을 각각 저장 및 관리할 수 있으며, 동일 운전자 및 동일 시간대의 촬영 영상들이 연계되도록 할 수 있다.
또한, 데이터베이스(120)는 3채널 카메라부(110)에서 촬영된 모든 영상을 일괄적으로 저장 또는 삭제하지 않고, 3채널 차량 상황 감시 장치(100)의 분석 결과에 따라 상황에 적합한 촬영 데이터를 선택적으로 저장 또는 삭제할 수 있으며, 운전자의 입력에 따라 각각의 데이터가 저장 및 삭제될 수도 있다.
카메라부(110)에서 촬영된 각각의 영상은 차량이 주행중인 경우뿐만 아니라, 차량 주정차시에도 데이터베이스(110)에 저장될 수 있는데, 일 실시예에 따르면, 주정차시 영상 데이터의 저장은 차량 외부를 촬영하는 제1 촬영부(111) 및 제2 촬영부(112)에서 촬영된 영상 데이터만이 저장되도록 할 수도 있으며, 다른 실시예에 따르면, 주정차시의 영상 데이터 저장은 사고 감지시에만 사고 발생 전후 영상이 데이터베이스(120)에 저장되도록 할 수도 있다.
뿐만 아니라, 데이터베이스(120)의 영상 데이터 저장은 3채널 카메라부(110) 각 촬영부의 촬영 영상에 대한 저장 주기가 달리 설정될 수도 있으며, 저장 기간, 저장 방식 및 삭제 주기도 달리 설정될 수 있다.
이와 같은 데이터베이스(120)의 데이터 저장 및 삭제 등과 같은 데이터 관리는 사용자의 설정에 의해 조절될 수도 있고, 분석부(140)의 분석에 따라 조절될 수도 있다.
일 실시예에 따른 데이터베이스(120)는 일 이상의 운전자 정보를 각각의 운전자 별로 구분하여 저장할 수 있는데, 구체적으로, 각 운전자의 표정, 행동, 또는 운전 습관 등과 같은 운전자별 차량 주행 패턴이 저장될 수 있으며, 카메라부(110)에서 인식된 각 운전자별 특징 또는 얼굴 유형을 저장할 수도 있다.
이를 위해, 데이터베이스(120)는 운전자의 식별 정보를 저장할 수 있다. 일 실시예에 따르면, 운전자의 식별 정보로서 ID 및 패스워드가 등록될 수도 있고, 다른 실시예에 따라 운전자의 식별 정보가 입력된 운전자 인증용 카드가 발급되는 경우에는 상기 카드 번호가 운전자 식별 정보로서 등록될 수도 있다.
본 발명의 실시예에 따른 3채널 차량 상황 감시 장치(100)는 운전자의 운전 패턴을 분석함에 있어서, 서로 다른 운전자에 대한 운전 패턴을 각각 별도로 분석하여 각 운전자 식별 정보와 매칭하여 저장할 수 있다.
따라서, 각 운전자가 차량 탑승 후, 자신의 운전자 식별 정보를 입력하면, 3채널 차량 상황 감시 장치(100)는 데이터베이스(120)에 저장된 해당 운전자의 운전 패턴 정보를 검색하여 상기 운전자의 실시간 운전 상태와 비교함으로써, 돌발 상황 발생 여부 또는 운전자의 음주운전이나 졸음운전 여부를 판단할 수 있다.
본 발명의 실시예에 따르면, 각 운전자를 식별하기 위한 운전자 식별 정보로서 각 운전자마다 ID 및 패스워드를 지정할 수도 있고, 운전자 정보를 기록한 운전자 인증용 카드를 발급할 수도 있으며, 운전자 상태를 촬영하는 제3 카메라부(113)에서 각 운전자의 얼굴을 인식하여 운전자별 안면 인식 정보를 생성할 수도 있다.
운전자 식별부(130)는 차량을 주행하고자 하는 각 운전자로부터 운전자 식별 정보를 수신하여 상기 운전자 식별 정보가 기 등록된 정보인지 여부를 판단하고, 등록 운전자의 경우, 해당 운전자를 식별함으로써, 등록된 운전자 식별 정보에 매칭된 운전 패턴 정보와 비교한 결과 실시간 주행 상태의 이상 여부를 감지할 수 있도록 한다.
이와 같은 운전자 식별부(130)는 운전자 정보 송수신부(131) 및 운전자 안면 인식부(132)를 포함할 수 있다.
운전자 정보 송수신부(131)는 상기와 같이 운전자를 구분할 수 있도록 하는 운전자 식별 정보를 다양한 방법을 통해 외부의 입력으로부터 수신할 수 있다.
일 실시예에 따른 운전자 식별 정보로서 ID 및 패스워드가 지정된 경우, 운전자 정보 송수신부(131)는 사용자 인터페이스(UI) 등을 통해 각 운전자가 입력하는 ID 또는 패스워드를 수신할 수 있다. 운전자의 ID 및 패스워드가 수신되면, 운전자 정보 송수신부(131)는 상기 운전자 식별 정보를 데이터베이스(120)로 전송함으로써, 데이터베이스(120)로 하여금 운전자 별로 분류 및 저장된 운전자 패턴 정보를 검색하여 분석부(140)로 전달하도록 한다.
다른 실시예에 따라 운전자 식별 정보로서, 각 운전자에 대해 운전자 인증용 카드가 발급된 경우, 운전자 정보 송수신부(131)는 운전자 인증용 카드로부터 운전자 식별 정보를 수신함으로써, 해당 운전자의 패턴 정보를 검색하도록 할 수 있다. 운전자 정보 송수신부(131) 및 운전자 인증용 카드는 통신을 통해 상호간의 정보 송수신을 할 수 있다.
운전자 정보 송수신부(131)는 NFC(Near Field Communication) 또는 기타 RFID(Radio-Frequency Identification)과 같은 근거리 무선 통신 기술을 지원하는 통신 모듈을 포함할 수 있다.
NFC는 무선 통신 기술 중 하나로 13.56MHz의 주파수 대역을 사용하는 비 접촉식 근거리 무선 통신 기술이다. 통신거리가 짧기 때문에 상대적으로 보안이 우수하고 데이터 읽기와 쓰기 기능을 모두 사용할 수 있다. 예를 들면, NFC 카드에 NFC 기술이 지원 가능한 통신 장치를 근거리에 위치시키거나 접촉시킴으로써, 상호간에 직접적인 정보 획득이 가능하게 된다. 그러나, 본 발명의 실시예에 따른 NFC는, 13.56MHz 외의 주파수 영역에서 동작하는 근거리 무선 통신 기술을 모두 포함하는 개념으로 이해되어야 한다.
또한, RFID 는 극소형 IC 칩에 다양한 정보를 저장하고 관리할 수 있는 인식 기술을 말한다.
일 실시예에 따른 운전자 인증용 카드는 각 운전자를 식별하기 위한 운전자 식별 정보, 안면 인식 정보 또는 각 운전자의 운전 패턴 정보 등이 저장될 수 있으며, 상술한 바와 같이 운전자 정보 송수신부(131)와의 무선 통신을 통해 각종 운전자 정보들을 3채널 차량 상황 감시 장치(100)와 송수신할 수 있다.
구체적으로, 운전자 인증용 카드가 발급되기 전, 즉, 3채널 차량 상황 감시 장치(100)에 미등록된 운전자의 경우에는, 본 발명의 실시예에 따라 3채널 차량 상황 감시 장치(100)에서 상기 운전자의 식별 정보, 안면 인식 정보 및 운전 패턴 정보를 생성하고, 정보가 미수록된 공카드 및 운전자 정보 송수신부(131)의 무선 통신을 통해 상기 생성된 운전자 정보를 공카드로 송신함으로써, 운전자 정보가 저장된 운전자 인증용 카드가 발급될 수 있다.
뿐만 아니라, 3채널 차량 상황 감시 장치(100)에 등록되어 있는 운전자가 차량에 탑승할 경우, 상기 운전자는 발급된 운전자 인증용 카드를 3채널 차량 상황 감시 장치(100)에 근거리 접촉시킴으로써, 카드에 수록된 운전자 식별 정보 등을 운전자 정보 송수신부(131)로 전송할 수 있다.
일 실시예에 따른 운전자 안면 인식부(132)는 카메라부(110)의 제3 카메라부(113)에서 인식된 운전자의 얼굴 촬영 정보를 기반으로 운전자별 식별 정보를 생성할 수 있다.
즉, 운전자 안면 인식부(132) 제3 카메라부(113)에서 추출된 각 운전자 얼굴의 특징점들이나, 얼굴형 또는 이목구비 위치 등을 토대로 각 운전자를 식별할 수 있는 안면 인식 정보를 생성하여 데이터베이스(120)에 저장되도록 할 수 있다.
따라서, 본 발명의 실시예에 따른 3채널 차량 상황 감시 장치(100)는 외부로부터 운전자 식별 정보가 수신되지 않는 경우에도 운전자 안면 인식부(132)에서 운전자별 안면 인식 정보를 생성함으로써, 이후, 운전자의 차량 탑승시 제3 카메라부(113)에서 탑승 운전자의 얼굴을 촬영하여 상기 저장된 안면 인식 정보와의 비교를 통해 운전자 정보 등록 여부 판단 및 등록 운전자의 운전 패턴 정보 검색이 가능하다.
운전자 안면 인식부(132)는 운전자의 차량 탑승이 있으면, 먼저, 제3 카메라부(113)로부터 촬영된 운전자 얼굴 영상을 토대로 안면을 인식하여 해당 운전자의 운전자 정보 등록 여부를 판단한다. 상기 운전자 정보 등록 여부 판단 결과, 해당 운전자의 정보가 미등록된 경우, 안면 인식 정보를 생성함으로써, 데이터베이스(120)에 운전자 식별 정보를 저장하고, 운전자 정보가 등록되어 있는 경우에는, 등록된 안면 인식 정보를 통해 식별된 운전자에 대한 운전 패턴 정보 등을 검색 및 추출하도록 할 수 있다.
본 발명의 실시예에 따른 분석부(140)는 각 운전자별 운전 패턴을 분석하여 운전 패턴 정보를 생성할 수 있을 뿐만 아니라, 생성된 운전 패턴 정보를 기반으로 운전자의 주행 상태를 실시간으로 점검함으로써, 돌발 상황, 사고 발생 또는 운전자의 음주운전이나 졸음운전과 같은 이상 상황 발생 여부를 감지할 수 있다.
일 실시예에 따른 분석부(140)는 패턴 분석부(141), 상태 감지부(142) 및 영상 처리부(143)를 포함할 수 있다.
패턴 분석부(141)는 운전자의 운전 패턴을 분석함으로써, 각 운전자별 운전 패턴 정보를 생성 또는 갱신할 수 있다.
본 발명의 실시예에 따른 운전 패턴이란 주행중 운전자의 표정, 운전자의 움직임, 운전 방법 또는 운전자의 습관 등과 같은 운전자의 패턴을 모두 포함하는 개념일 수 있다.
패턴 분석부(141)는 운전자의 운전에 의해 작동되는 각종 차량 정보, 차량의 위치 정보, 경로 정보, 차량 주변 영상 정보 또는 운전자 영상 정보로부터 운전자별 운전 패턴을 종합적으로 분석할 수 있다.
일 실시예에 따른 패턴 분석부(141)는 운전자가 차량에 탑승 및 주행 시작 후, 30분 내지 1시간 가량의 일정 시간 동안 수집되는 각종 정보들을 종합적으로 분석하여 탑승 운전자의 운전 패턴 정보를 생성할 수 있다. 일반적으로, 운전 시작 직후에 사고 발생 가능성이 가장 낮기 때문에 패턴 분석부(141)는 운전자 차량 탑승시부터 운전자의 운전 패턴 분석을 수행하게 된다.
이와 같은 패턴 분석부(141)의 운전자 운전 패턴 분석은 기본적으로 카메라부(110)의 3채널 촬영 영상을 토대로 수행될 수 있다. 특히, 패턴 분석부(141)는 주행중 운전자의 모습을 촬영한 제3 촬영부(113)의 영상을 실시간으로 수신할 수 있다.
일 실시예에 따른 운전자 패턴 분석부(141)는 3채널 카메라부(110)의 각 촬영부 에서 촬영한 차량 주변 영상 및 운전자 영상 전체를 수신하여 운전자의 운전 패턴 분석을 위해 사용될 일부 영상을 추출하거나, 특정 부위의 영상을 확대 및 분류할 수도 있다.
예를 들어, 운전자의 졸음 운전 감지를 위해 운전자의 얼굴을 촬영한 영상에서 눈 부위의 영상을 확대함으로써 눈꺼풀의 움직임을 관찰할 수도 있고, 운전자의 운전 패턴 파악을 위해 주행 시작부터 30분 또는 1시간 정도의 운전자 영상을 추출하여 집중 분석하도록 할 수도 있다.
뿐만 아니라, 차량 정지시, 또는 고속 주행시에는 차량 외부의 촬영 영상 위주로 영상 수신 및 분석이 이루어지도록 하고, 일반 주행시에는 운전자 촬영 영상 위주의 영상 수신 및 분석이 이루어지도록 함으로써, 운전자의 운전 패턴 분석이 효율적으로 이루어지도록 할 수 있다.
따라서, 패턴 분석부(141)는 수신된 차량 주변 영상 및 운전자의 주행 모습 영상을 통해 각종 상황에서 운전자의 차량 운행 습관 또는 운전자의 표정이나 움직임과 관련된 패턴을 분석할 수 있다. 예를 들면, 운전자가 고속도로를 주행할 때 차간 거리를 유지하는 정도, 주정차 습관뿐 아니라, 운전 중 부동자세를 유지하는 시간, 평소 운전자의 표정, 가장 많이 움직이는 부분 등의 파악이 가능하다.
본 발명의 일 실시예에 따른 패턴 분석부(141)는 주행중 발생할 수 있는 각종 상황에 따라, 또는 차량 주행 위치에 따라 운전자의 운전 패턴이 어떻게 달라지는지를 각각 분석할 수도 있다.
구체적으로, 패턴 분석부(141)는 자동차의 각 부분과의 통신을 통해 차량의 움직임 정보 또는 차량 운행 정보 등을 수신하여 운전자의 운전 습관 등을 분석할 수 있고, 차량의 위치 정보 또는 차량 이동 경로 정보 등을 수신하거나 감지함으로써, 위치에 따른 운전자의 운전 습관을 분석할 수도 있다.
일 실시예에 따른 패턴 분석부(141)는 운전자의 운전 습관 분석 기반이 되는 각종 차량 정보 수신을 위해 차량의 각 부분과 통신할 수 있으며, 이러한 자동차 통신 기술로서 CAN(Controller Area Network) 통신 기술 또는 LIN(Local Interconnect Network) 통신 기술 등이 이용될 수 있다.
CAN 통신은 자동차의 안전 시스템 또는 편의 시스템 등의 ECU(Electronic Control Unit)들 간의 데이터 전송 및 각종 시스템 제어 등에 사용되는 통신 기술이며, LIN 통신은 주로 ECU와 능동센서 및 능동 액추에이터 간의 데이터 전송에 사용되는 기술을 말한다.
패턴 분석부(141)는 자동차의 각 부분과 통신함으로써, 엔진 구동 정보, 알피엠(RPM, Revolution per minute) 정보, 기어 변속 정보, 운전자에 의한 엑셀/브레이크 페달 작동 정보, 핸들 움직임 정보, 차량 속도 및 차량 움직임 패턴 정보 등과 같이 운전자의 운전 방식에 따라 상이하게 작동되는 다양한 차량 정보들을 수신할 수 있다.
패턴 분석부(141) 상기 수신된 각종 차량 정보들로부터, 운전자의 엑셀 및 브레이크 제어 습관, 급발진/급정지 빈도수, 핸들 제어 습관, 변속 습관, 핸들 변화량 대비 속도 정보의 상관 관계 등을 파악하여 각 운전자별 운전 패턴을 분석할 수 있다.
또한, 일 실시예에 따른 패턴 분석부(141)는 GPS(Global Positioning System) 모듈을 포함할 수도 있고, 네비게이션 또는 기타 외부의 GPS 장치와 통신을 통해 차량의 위치 및 차량 경로 등을 수신할 수도 있다.
따라서, 패턴 분석부(141)는 차량이 현재 시내에 위치하는지, 또는 고속도로를 주행 중인지 여부를 파악할 수 있으며, 시간의 흐름에 대응하는 차량의 이동 경로 또한 파악할 수 있다.
이와 같이 차량의 위치를 수신함으로써, 주행 위치가 고속도로인 경우의 운전자의 운전 패턴, 또는 시내에서 운전자의 운전 패턴과 같이 다양한 상황이나 위치에 따른 운전 패턴을 각각 분석할 수도 있다.
다른 실시예에 따르면, 패턴 분석부(141)는 네비게이션 또는 디지털 맵과의 통신을 통해 차량의 세부 위치를 파악함으로써, 신호 대기시 운전자 유형, 예를 들어, 신호 대기 후, 출발 반응 속도 또는 정지 유형을 분석할 수도 있으며, 각 운전자의 주차 습관 또한 파악할 수 있다.
이와 같이, 패턴 분석부(141)는 운전자별 운전 패턴 분석을 분석함으로써 각 운전자에 대한 운전 패턴 정보를 생성하고, 운전자별 식별 정보와 매칭하여 데이터베이스(120)에 저장될 수 있도록 한다.
다른 실시예에 따른 패턴 분석부(141)는 등록된 운전자의 경우라도, 차량 탑승 후, 주행 초기에 일정 시간의 운전 패턴 분석을 수행하여 기 저장된 운전 패턴으로부터 변화된 점이 있는지 여부를 판단할 수 있고, 해당 운전자의 운전 패턴에 변화가 있는 것으로 판단되는 경우 상기 저장된 운전 패턴 정보를 업데이트 할 수 있다.
일 실시예에 따른 상태 감지부(142)는 주행중 차량 운행 상황 또는 운전자의 상태를 파악하고, 평소 운전자의 운전 패턴 정보와 비교함으로써, 사고 발생 여부 등의 차량 주변 이상 상황 발생 여부 또는 운전자의 졸음운전 여부를 감지할 수 있다.
상태 감지부(142)는 실시간 차량 운행 정보, 실시간 차량 위치 정보, 차량 이동 경로 정보, 또는 주행중 실시간 차량 주변 영상과 운전자 영상을 수집하여 기 저장된 운전자의 패턴 정보들과 비교하여 실시간 주행 상황을 감지할 수 있다.
상술한 상태 감지부(142)의 실시간 차량 운행 정보, 실시간 차량 위치 정보, 차량 이동 경로 정보 및 각종 영상 정보 수집은 패턴 분석부(141)에서 상기 정보들을 수집하는 방법과 동일한 방법으로 이루어질 수 있다.
일 실시예에 따른 상태 감지부(142)는 차량의 각 부분과 통신을 통해 수신된 실시간 차량 운행 정보를 기 저장된 운전자의 운전 패턴 정보와 비교하여 임계치 이상의 차이를 보이는 경우, 예를 들면, 차량의 급발진 또는 급정지 빈도가 증가하거나, 핸들 변화량에 및 속도의 상관성이 일반적이지 않은 경우에는 이상 상황이 발생되었음을 감지할 수 있다.
뿐만 아니라, 상태 감지부(142)는 수신된 차량의 위치 정보 또는 이동 경로 정보를 토대로 각 위치별 또는 각 상황별 운전 상태의 이상 여부를 판단할 수도 있다.
상태 감지부(142)는 3채널 촬영부를 포함하는 카메라부(110)로부터 주행중 실시간 차량 주변 영상 및 운전자 영상을 수신함으로써, 주행 상황의 이상 여부를 판단할 수도 있다.
구체적으로, 상태 감지부(142)는 제1 촬영부(111) 및 제2 촬영부(112)로부터 수신된 차량 주변 상황이 일반적이지 않은 경우, 즉, 전방 또는 후방의 차량이 임계치 이하의 거리로 근접하거나, 해당 차량 주변의 도로 상황이 일반적이지 않은 경우, 이상 상황 발생 가능성을 감지할 수 있다.
또한, 상태 감지부(142)는 제3 촬영부(113)로부터 수신된 운전자 영상에서 운전자의 눈꺼풀이 깜빡이는 회수, 눈꺼풀이 감겨 있는 시간, 눈동자 또는 동공의 초점방향, 얼굴의 각도 등을 분석하고, 상기 운전자의 운전 패턴 정보와 비교하여 졸음운전을 감지할 수도 있다.
이때, 일 실시예에 따른 상태 감지부(142)는 상기 운전자 영상을 분석한 결과, 운전자가 졸음운전을 하는 것으로 추정되는 상황이 발생할 시, 운전자로 하여금 정상운전상태를 나타내는 행위를 수행하도록 유도하는 신호음을 발생시켜 상기 운전자의 졸음운전 여부를 판단할 수도 있다.
예를 들면, 운전자의 동공 초점방향 또는 얼굴 각도가 차량의 전방을 향하고 있지 않을 경우, 상태 감지부(142)는 운전자에게 전방 주시를 요구하는 신호음을 발생시킬 수 있다. 이후, 일정 시간 내에 운전자가 전방을 주시하는 행위를 나타내지 않을 시, 상태 감지부(142)는 상기 운전자가 졸음운전을 하고 있는 것으로 판단할 수 있다.
뿐만 아니라, 상태 감지부(142)는 상기 운전자가 차량의 핸들에 부착된 신호음 전원 버튼을 OFF로 설정하거나, 또는 카메라부(110)의 카메라를 손으로 가리는 등 정상운전상태를 나타내는 행위가 확인될 시, 3분 내지 5분 가량의 일정 시간 동안 신호음을 발생시키지 않을 수 있다.
이에 따라, 상태 감지부(142)는 상기 정상운전상태 및 졸음운전상태의 알림 신호를 영상 처리부(143)로 전송할 수도 있다.
본 발명의 실시예에 따른 상태 감지부(142)는 주행중 또는 차량 주정차시에 따라 상기 카메라부(110)로부터 선택적으로 영상을 수신할 수 있다.
구체적으로, 주행중에는 3채널 카메라부(110)의 모든 영상을 수신하고 분석을 수행할 수 있는 반면, 차량 주정차시에는 차량 주변을 촬영하는 제1 촬영부(111) 및 제2 촬영부(112)의 영상만을 수신하여 차량 이상 여부 발생을 분석할 수 있다.
요약하면, 상태 감지부(142)는 차량의 주행 상황, 차량의 위치 및 운전자에 따라 상이한 기준을 적용하여 이상 여부를 판단한다.
일 실시예에 따른 영상 처리부(143)는 상태 감지부(142)의 차량 상황 감지 결과에 따라, 카메라부(110)에서 촬영된 영상의 데이터 처리 방법을 설정한다.
본 발명의 실시예에 따르면, 3채널 카메라부(110)의 각 촬영부에서 촬영된 영상은 모두 저장되는 것이 아니라, 설정된 주기 및 상황에 따라 선택적으로 저장 또는 삭제될 수 있는데, 상태 감지부(142)에서 분석한 실시간 차량 상황에 따라 상기 영상 데이터의 처리 방법을 결정할 수 있다.
즉, 일 실시예에 따르면, 차량 주행 상황에 이상이 없는 경우에는 기본적으로 설정된 각 촬영부(111, 112, 113)의 영상 데이터 저장 주기에 따라 촬영 영상이 저장되도록 하고, 이상 발생시에는 이상 상황 발생 전후 일정 시간 동안 3채널 촬영부(111, 112, 113)에서 촬영된 영상 전부가 저장되도록 할 수 있다.
이때, 감지된 이상 상황이 차량 주변에서 발생한 경우에는 제1 촬영부(111) 및 제2 촬영부(112)의 영상만을 수신하여 차량의 전방 및 후방의 주변 차량 존재 여부를 판단함으로써, 상기 제1 촬영부(111) 및 제2 촬영부(112)의 영상과 주변 차량 존재 여부를 함께 저장할 수 있으며, 운전자의 졸음운전이 감지된 경우에는 카메라부(110)의 촬영 영상 전체를 저장할 수 있다.
다른 실시예에 따르면, 영상 처리부(143)는 상태 감지부(142)로부터 정상운전상태 또는 졸음운전상태의 알림 신호를 수신하여, 각 상태별로 영상 데이터 처리 방법을 결정할 수도 있다.
구체적으로, 상태 감지부(142)로부터 운전자의 정상운전상태에 대한 알림 신호를 수신할 시, 영상 처리부(143)는 3분 내지 5분 가량의 일정 시간 동안 각 촬영부(111, 112, 113)에서 촬영된 영상을 모두 합성하여 저장함으로써 3채널 차량 상황 감시 장치(100)의 메모리 용량을 확보할 수 있다.
또한, 상태 감지부(142)로부터 운전자의 졸음운전상태에 대한 알림 신호를 수신할 시, 영상 처리부(143)는 카메라부(110)의 영상 촬영 시간을 기본적으로 설정된 시간보다 일정 시간 더 길게 설정할 수 있으며, 상기 재설정된 시간만큼의 영상을 저장할 수 있는 메모리 공간을 확보함으로써, 상기 확보된 메모리 공간에 촬영 영상을 반복적으로 재저장할 수도 있다.
이때, 영상 처리부(143)는 제 1 촬영부(111)로부터 수신한 영상을 통해 차선의 변경 여부를 확인하거나, 또는 데이터베이스(120)로부터 수신한 차량 정보를 통해 차량의 속도 변화량을 감시하는 등 차량의 사고 전조 현상을 모니터링함으로써, 상기 사고 전조 현상 정보를 상기 촬영 영상과 함께 저장할 수도 있다.
뿐만 아니라, 영상 처리부(143)는 이상 상황 발생의 경중을 단계별로 구분하여 저장 데이터의 저장 기간을 설정할 수 있다.
차량이 주정차 상태에 있는 경우, 영상 처리부(143)는 차량에 접촉이 발생하거나, 일정 시간 이상 차량 주변에서 움직임 또는 소리가 감지된 경우에만 제1 촬영부(111) 및 제2 촬영부(112)에서 촬영된 외부 영상을 저장 및 유지하도록 할 수 있다.
본 발명의 일 실시예에 따르면, 영상처리부(143)는 카메라부(110)의 촬영 영상을 저장하는 방식 또한 설정할 수 있다. 예를 들면, 각 촬영부(111, 112, 113)의 촬영 영상들을 각각 따로 저장할 수 있으며, 하나의 화면 상에 상기 촬영 영상들 각각을 분리하여 배치함으로써 하나의 영상으로 저장할 수도 있다.
이와 같이, 영상 처리부(143)는 기본적인 영상 데이터의 저장 주기, 저장 기간, 저장 방식, 삭제 여부 등을 각 촬영부(111, 112, 113)별로 설정할 수 있고, 상태 감지부(142)의 감지 상황에 따른 영상 데이터 처리 방법을 달리 설정할 수도 있다. 또한, 영상 처리부(143)는 기 설정된 영상 데이터의 처리 방법에 불구하고, 운전자 또는 사용자의 입력에 따라 영상 데이터가 저장 또는 삭제되도록 할 수도 있다.
이하, 도 2 및 도 3을 참고하여 본 발명의 실시예에 따른 3채널 카메라 장치를 바탕으로 운전자의 운전 패턴을 분석하여 차량의 상황을 감시하는 방법을 설명하도록 한다.
도 2는 본 발명의 일 실시예에 따른 운전자별 패턴 분석 방법을 시간의 흐름에 따라 도시한 흐름도이다.
먼저, 자동차에 시동이 걸리거나, 사용자의 입력에 의해 3채널 차량 상황 감시 장치(100)의 전원이 ON 되면(S210), 3채널 차량 상황 감시 장치(100)는 운전자의 차량 탑승을 감지할 수 있다.
3채널 차량 상황 감시 장치(100)는 운전자가 입력한 ID 및 패스워드 또는 운전자 인증용 카드를 통해 외부로부터 운전자 식별 정보가 수신되거나, 운전자의 얼굴을 촬영함으로써 생성된 안면 인식 정보에 의해 운전자 식별 정보가 수신되면, 현재 차량을 운행하고자 하는 탑승 운전자가 기 등록된 운전자에 해당하는지 여부를 판단한다(S220).
상기 단계S220의 운전자 등록 여부 판단 결과, 탑승 운전자가 3채널 차량 상황 감시 장치(100)에 기 등록되어 있는 운전자인 경우, 해당 운전자에 대하여 기 저장된 운전 패턴 정보를 상기 운전자 식별 정보를 통해 검색할 수 있다(S231).
일 실시예에 따른 3채널 차량 상황 감시 장치(100)는 등록된 운전자의 경우에도, 운전자의 차량 탑승 이후 초기에는 운전 패턴 분석을 수행함으로써, 기 등록된 운전 패턴 정보의 변화를 감지하여 운전 패턴 변화를 주기적으로 점검할 수 있다(S232). 이와 같이 3채널 차량 상황 감시 장치(100)가 기 저장된 운전 패턴의 변화 감지를 위해 운전자의 차량 탑승 초기에 패턴 분석을 수행하는 시간은, 미등록된 운전자의 운전 패턴 정보 생성을 위해 패턴 분석을 수행하는 시간보다 짧게 설정될 수 있다.
기 저장된 운전 패턴 정보에 대해 변화된 패턴이 감지되면, 3채널 차량 상황 감시 장치(100)는 감지된 패턴 변화를 반영하여 운전 패턴 정보를 업데이트 할 수 있다(S233).
단계 S231 내지 S233과 달리, 운전자 등록 여부 판단 결과, 탑승 운전자가 3채널 차량 상황 감시 장치(100)에 등록되지 않은 운전자인 경우, 3채널 차량 상황 감시 장치(100)는 해당 운전자의 얼굴을 촬영하여 안면 인식 정보를 생성하고, 그 외의 기타 상기 운전자를 식별하기 위한 운전자 식별 정보를 생성할 수 있다.
또한, 상기 운전자가 탑승한 이후부터 일정 시간 동안 상기 운전자의 모습을 촬영한 영상, 차량 운행 정보, 차량 위치 정보 또는 차량 이동 경로 정보 등을 분석함으로써, 해당 운전자의 운전 패턴 정보를 생성할 수 있다(S241).
생성된 운전 패턴 정보는 상기 운전자의 운전자 식별 정보와 매칭되어 3채널 차량 상황 감시 장치(100)에 저장될 수 있다(S242).
도 3은 본 발명의 실시예에 따른 3채널 주행 차량의 상황 감시 방법을 시간의 흐름에 따라 도시한 흐름도이다.
3채널 차량 상황 감시 장치(100)는 자동차에 시동이 걸리거나, 사용자의 전원 입력에 따라, 전원이 ON될 수 있다(S310).
3채널 차량 상황 감시 장치(100)는 운전자의 ID 및 패스워드 입력, 운전자 인증용 카드의 근거리 접촉, 또는 운전자 얼굴 촬영을 통한 운전자의 안면 인식 정보를 통해 운전자 식별 정보를 수신한다(S320).
상기 수신된 운전자 식별 정보를 토대로 차량에 탑승한 운전자가 3채널 차량 상황 감시 장치(100)에 등록된 운전자인지 여부를 판단하여 기 저장된 상기 운전자의 운전 패턴 정보를 검색하거나, 해당 운전자의 운전 패턴을 분석하여 운전 패턴 정보를 새로이 생성할 수 있다(S330).
일 실시예에 따른 3채널 차량 상황 감시 장치(100)는 차량 탑승 운전자가 기 등록된 운전자인 경우에는, 해당 운전자 식별 정보와 매칭하여 저장된 운전 패턴 정보를 수신한다. 이후, 3채널 차량 상황 감시 장치(100)는 운전자의 차량 탑승 이후, 일정 시간 동안 운전자의 운전 패턴을 관찰함으로써, 상기 저장된 운전 패턴 정보에 대해 변화된 운전 패턴이 있는지 여부를 분석할 수 있다. 상기 본 발명의 실시예에 따른 3채널 차량 상황 감시 장치(100)의 운전 패턴 분석 단계는 등록된 운전자에 대해서는 필요에 따라 생략될 수도 있다.
다른 실시예에 따르면, 차량 탑승 운전자가 3채널 차량 상황 감시 장치(100)에 미등록된 운전자일 수 있는데, 이 경우, 3채널 차량 상황 감시 장치(100)는 운전자 얼굴 촬영 정보를 통해 상기 운전자의 안면 인식 정보를 생성하고, 일정 시간 동안 차량 운행 정보, 차량 위치 정보, 차량 이동 경로 정보 또는 운전자 촬영 영상 정보를 분석함으로써, 상기 운전자의 운전 패턴 정보를 생성할 수 있다.
운전 패턴 분석 또는 기 저장된 운전 패턴 정보의 수신 이후, 3채널 차량 상황 감시 장치(100)는 주행중 차량 주변 상황 또는 운전자의 주행 상태를 실시간으로 감시할 수 있다(S340).
3채널 차량 상황 감시 장치(100)는 자동차의 각 부분과의 통신을 통해, 핸들 움직임 정보, 기어 변속 정보, 엑셀/브레이크 페달 작동 정보 또는 급발진/급정지 정보 등과 같은 실시간 차량 정보를 수신하고, GPS 기능을 포함하는 위치 추적 장치로부터 위치 정보를 주기적으로 수신할 수도 있으며, 3채널 차량 상황 감시 장치(100)의 3채널 카메라부에서 촬영된 실시간 차량 주변 영상 또는 운전자 영상 정보를 수신할 수 있다.
3채널 차량 상황 감시 장치(100)는 상기 수신된 실시간 주행 상황 관련 정보들을 S330단계에서 검색 또는 생성된 운전자의 운전 패턴 정보와 비교 분석하거나, 경보음을 발생시킨 후 이에 따른 운전자의 행동 변화를 분석함으로써, 차량의 주행중 이상 상황 발생 여부를 판단할 수 있다.
S340단계의 주행 상황 감시 결과에 따라 3채널 차량 상황 감시 장치(100)는 3채널 카메라부의 각 촬영부의 영상 촬영 방법 및 촬영 영상 데이터 녹화 주기를 설정할 수 있다(S350).
차량 주행 상황에 별다른 이상이 없는 것으로 감지된 경우에는, 3채널 차량 상황 감시 장치(100)에 기본적으로 설정되어 있는 각 촬영부의 촬영 방법 및 녹화 주기에 따라 촬영 및 영상 데이터의 저장이 이루어지며, 주행중 이상상황이 발생한 것으로 판단된 경우에는, 발생된 각 상황별로 필요에 따른 촬영 방법 및 녹화 주기가 설정되도록 할 수 있다.
상기 본 발명의 실시예에 따른 촬영 방법이란, 3채널 카메라의 각 촬영부의 촬영 여부 또는 촬영 위치일 수 있으며, 상기 녹화 주기란, 각 촬영부에서 촬영된 영상 데이터 중 저장될 영상의 선택, 각 영상 데이터의 저장 주기 또는 저장 기간을 포함하는 개념을 의미할 수 있다.
이와 같이 3채널 차량 상황 감시 장치(100)의 자체적인 차량 주행 상황 감시 및 그에 따른 3채널 카메라 촬영 영상 처리에 관한 설정이 이루어지면, 3채널 차량 상황 감시 장치(100)는 상기 설정에 따라 차량 주변 또는 운전자의 상태를 촬영을 수행하고, 촬영된 영상을 저장한다(S360).
도 3에서는 설명의 편의를 위해 차량이 주행중인 경우만을 도시하고 있으나, 본 발명의 실시예에 따른 3채널 차량 상황 감시 장치(100)는 차량의 주정차 상태를 포함한 모든 상황에 대하여 차량 주변 상황 또는 차량 내부 상황을 감시하고, 그에 따라 3채널 카메라의 촬영 영상 관리 방법을 선택적으로 수행할 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100 : 3채널 차량 상황 감시 장치
110 : 카메라부
111 : 제1 촬영부
112 : 제2 촬영부
113 : 제3 촬영부
120 : 데이터베이스
130 : 운전자 식별부
131 : 운전자 정보 송수신부
132 : 운전자 얼굴 인식부
140 : 분석부
141 : 패턴 분석부
142 : 상태 감지부
143 : 영상 처리부

Claims (16)

  1. 운전자별 운전 패턴 분석을 통해 차량 상황을 감시하는 3채널 차량 상황 감시 장치(100)에 있어서,
    상기 차량 외부의 전방부를 촬영하는 제1 촬영부(111);
    상기 차량 외부의 후방부를 촬영하는 제2 촬영부(112);
    상기 차량 운전자의 표정 또는 행동 변화를 포함하는 운전자의 상태를 촬영하는 제3 촬영부(113);
    상기 제1 촬영부(111), 제2 촬영부(112), 또는 제3 촬영부(113)의 영상 정보를 토대로 각 운전자의 운전 패턴을 분석하는 패턴 분석부(141);
    상기 운전자의 운전 패턴 분석 결과를 토대로 상기 차량의 상황을 감시하는 상태 감지부(142); 및
    상기 차량 상황 감시에 의한 이상 상황 발생 여부에 따라 상기 제1 촬영부(111), 제2 촬영부(112), 또는 제3 촬영부(113)의 촬영 방향 또는 촬영된 영상 데이터의 처리 방법을 설정하는 영상 처리부(143)를 포함하며,
    상기 패턴 분석부(141)는, 차량 정지시, 또는 고속 주행시에는 상기 차량 외부의 촬영 영상을 위주로, 일반 주행시에는 운전자 촬영 영상을 위주로 영상 수신 및 분석이 이루어지도록 하고,
    상기 상태 감지부(142)는, 차량의 주행 상황에 따라 상기 제1 촬영부(111), 제2 촬영부(112), 또는 제3 촬영부(113)로부터 선택적으로 영상을 수신하여 차량 이상 여부 발생을 분석하는, 3채널 차량 상황 감시 장치.
  2. 제1항에 있어서,
    상기 제1 촬영부(111), 제2 촬영부(112), 및 제3 촬영부(113) 각각의 영상 데이터를 저장 및 관리하고, 일 이상의 운전자에 대해 생성된 운전 패턴 정보를 각 운전자별로 구분하여 저장하는 데이터베이스(120)를 포함하는, 3채널 차량 상황 감시 장치.
  3. 제2항에 있어서,
    상기 영상 처리부(143)는,
    상기 데이터베이스(120)에 저장되는 상기 제1 촬영부(111), 제2 촬영부(112), 또는 제3 촬영부(113)의 각 영상 데이터에 대한 저장 여부, 저장 주기, 저장 기간, 저장 방식 또는 삭제 여부를 상기 차량 상황별로 설정하는 것을 특징으로 하는, 3채널 차량 상황 감시 장치.
  4. 제1항에 있어서,
    상기 패턴 분석부(141)는,
    상기 운전자의 차량 주행 패턴 및 차량 주정차 패턴을 각각 분석하고,
    상기 상태 감지부(142)는,
    상기 차량의 주행 상황 또는 주정차 상황에 따라, 각각 상기 운전자의 주행 패턴 또는 상기 주정차 패턴을 기초로 상기 차량의 이상 상황을 감지하는 것을 특징으로 하는, 3채널 차량 상황 감시 장치.
  5. 제1항에 있어서,
    상기 패턴 분석부(141) 및 상태 감지부(142)는,
    상기 차량과 통신을 통해 엔진 구동 정보, 알피엠(RPM, Revolution per minute) 정보, 기어 변속 정보, 운전자에 의한 엑셀 및 브레이크 페달 중 일 이상의 작동 정보, 핸들 움직임 정보, 차량 속도 및 차량 움직임 패턴 정보 중 일 이상을 포함하는 차량 정보를 수신함으로써, 운전자의 운전 패턴 분석 및 차량 상황 감지를 수행하는 것을 특징으로 하는, 3채널 차량 상황 감시 장치.
  6. 제1항에 있어서,
    상기 패턴 분석부(141) 및 상태 감지부(142)는,
    상기 차량의 위치 정보 또는 상기 차량의 이동 경로 정보를 수신하여 상기 차량의 위치 또는 경로에 따른 운전자의 운전 패턴 분석 및 차량 상황 감지를 수행하는 것을 특징으로 하는, 3채널 차량 상황 감시 장치.
  7. 제1항에 있어서,
    상기 상태 감지부(142)는,
    상기 차량의 상황 감시 결과, 상기 운전자가 졸음운전상태인 것으로 추정될 시, 상기 운전자로 하여금 정상운전상태를 나타내는 행위를 수행하도록 유도하는 신호음을 발생시킨 후, 이에 따른 상기 운전자의 행동 변화를 분석함으로써 차량 상황 감지를 수행하는 것을 특징으로 하는, 3채널 차량 상황 감시 장치.
  8. 제1항에 있어서,
    기 지정된 운전자의 ID 및 패스워드 입력, 또는 상기 운전자에게 발급된 운전자 인증용 카드와의 통신을 통해 상기 운전자의 운전자 식별 정보를 수신하는 운전자 정보 송수신부(131)를 포함하는, 3채널 차량 상황 감시 장치.
  9. 제1항에 있어서,
    상기 운전자의 차량 탑승시 상기 제3 촬영부(113)에서 촬영된 영상으로부터 상기 운전자의 식별 정보로서 상기 운전자에 대한 안면 인식 정보를 생성하는, 운전자 안면 인식부(132)를 포함하는, 3채널 차량 상황 감시 장치.
  10. 3채널 차량 상황 감시 장치가 운전자별 운전 패턴 분석을 통해 차량 주변 상황 또는 운전자 상태를 감시하는 방법에 있어서,
    (a) 제1 촬영부(111) 및 제2 촬영부(112)를 통해 서로 다른 위치의 상기 차량의 주변 상황을 촬영하는 단계;
    (b) 제3 촬영부(113)를 통해 상기 차량의 내부 상황을 촬영하는 단계;
    (c) 상기 제1 촬영부(111), 제2 촬영부(112), 또는 제3 촬영부(113)의 촬영 영상 정보를 토대로 상기 운전자의 운전 패턴을 분석하는 단계;
    (d) 상기 제1 촬영부(111), 제2 촬영부(112), 또는 제3 촬영부(113)에서 실시간으로 촬영된 상기 차량 상황의 실시간 영상을 저장된 운전자의 운전 패턴 정보와 비교 분석하여 실시간 차량의 상황을 감시하는 단계; 및
    (e) 상기 실시간 차량 상황 분석 결과에 따라, 상기 제1 촬영부(111), 제2 촬영부(112), 또는 제3 촬영부(113)의 촬영 방향 또는 영상 데이터 처리 방법을 설정하는 단계를 포함하며,
    상기 (c) 단계는, 차량 정지시, 또는 고속 주행시에는 상기 차량 외부의 촬영 영상을 위주로, 일반 주행시에는 운전자 촬영 영상을 위주로 영상 수신 및 분석이 이루어지도록 하는 단계를 더 포함하고,
    상기 (d) 단계는, 차량의 주행 상황에 따라 상기 제1 촬영부(111), 제2 촬영부(112), 또는 제3 촬영부(113)로부터 선택적으로 영상을 수신하여 차량 이상 여부 발생을 분석하는 단계를 더 포함하는, 3채널 차량 상황 감시 장치의 차량 상황 감시 방법.
  11. 제10항에 있어서,
    상기 (c) 단계 이후에,
    상기 차량과 통신을 통해 엔진 구동 정보, 알피엠(RPM, Revolution per minute) 정보, 기어 변속 정보, 운전자에 의한 엑셀 및 브레이크 페달 중 일 이상의 작동 정보, 핸들 움직임 정보, 차량 속도 및 차량 움직임 패턴 정보 중 일 이상을 포함하는 차량 정보를 수신하여 상기 운전자의 운전 패턴을 분석하는 단계를 포함하고,
    상기 (d) 단계 이후에,
    상기 차량과의 통신을 통해 실시간으로 상기 차량 정보를 수신하여 상기 운전 패턴과 비교 분석함으로써, 실시간 차량의 상황을 감시하는 단계를 포함하는, 3채널 차량 상황 감시 장치의 차량 상황 감시 방법.
  12. 제10항에 있어서,
    상기 (c) 단계 이후에,
    상기 운전자를 식별하기 위한 운전자 식별 정보를 생성하여 상기 분석 결과 생성된 상기 운전자의 운전 패턴 정보와 매칭하여 저장하는 단계를 포함하는, 3채널 차량 상황 감시 장치의 차량 상황 감시 방법.
  13. 제10항에 있어서,
    상기 (a) 단계 이전에,
    상기 차량의 위치 정보 또는 차량 이동 경로 정보를 수신하는 단계를 포함하고,
    상기 (c) 단계의 운전 패턴 분석 및 상기 (d) 단계의 차량 상황 감시는,
    상기 차량의 주행 여부, 주행 위치 또는 주행 경로에 따라 수행되는 것을 특징으로 하는, 3채널 차량 상황 감시 장치의 차량 상황 감시 방법.
  14. 제10항에 있어서,
    상기 (d) 단계의 차량 상황 감시는,
    상기 차량 상황의 실시간 영상을 토대로 상기 운전자가 졸음운전상태인 것으로 추정될 시, 상기 운전자로 하여금 정상운전상태를 나타내는 행위를 수행하도록 유도하는 신호음을 발생시킨 후, 이에 따른 상기 운전자의 행동 변화를 분석함으로써 수행되는 것을 특징으로 하는, 3채널 차량 상황 감시 장치의 차량 상황 감시 방법.
  15. 제10항에 있어서,
    상기 (e) 단계 이후에,
    상기 설정된 영상 데이터 처리 방법에 따라, 상기 제1 촬영부(111), 제2 촬영부(112), 또는 제3 촬영부(113)의 영상 데이터가 저장 또는 삭제되는 단계를 포함하는, 3채널 차량 상황 감시 장치의 차량 상황 감시 방법.
  16. 제10항에 있어서,
    상기 (e) 단계의 영상 데이터 처리 방법은,
    상기 패턴 분석 결과, 상기 차량의 감시 상황, 또는 상기 각 촬영부마다 상이하게 설정되는 것을 특징으로 하는, 3채널 차량 상황 감시 장치의 차량 상황 감시 방법.
KR1020160108410A 2015-10-29 2016-08-25 3채널 차량 상황 감시 장치 및 그 방법 KR101912703B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20150150685 2015-10-29
KR1020150150685 2015-10-29

Publications (2)

Publication Number Publication Date
KR20170051196A KR20170051196A (ko) 2017-05-11
KR101912703B1 true KR101912703B1 (ko) 2019-01-14

Family

ID=58741958

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020160108410A KR101912703B1 (ko) 2015-10-29 2016-08-25 3채널 차량 상황 감시 장치 및 그 방법
KR1020160108411A KR101945706B1 (ko) 2015-10-29 2016-08-25 운전 패턴 분석을 통한 운전자 상태 감시 방법 및 장치

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020160108411A KR101945706B1 (ko) 2015-10-29 2016-08-25 운전 패턴 분석을 통한 운전자 상태 감시 방법 및 장치

Country Status (1)

Country Link
KR (2) KR101912703B1 (ko)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102563991B1 (ko) 2017-04-20 2023-08-08 한국전자통신연구원 광 투과도 조절 필름 및 광 투과도 조절 필름 조성물
KR102371119B1 (ko) * 2017-11-17 2022-03-07 한국전자기술연구원 얼굴 표정 인식 기술을 이용한 전방 집중도 분석 방법
KR102051136B1 (ko) * 2017-11-30 2020-01-08 주식회사 라스테크 클라우드서버를 기반을 하는 인공지능 대쉬보드로봇을 이용한 사용자 상태인식시스템
CN108215794A (zh) * 2018-01-04 2018-06-29 项卢杨 一种防疲劳驾驶系统及方法
KR101998703B1 (ko) 2018-01-17 2019-07-11 (주) 블루테크솔루션 차량 관제 제어 시스템
CN108596028B (zh) * 2018-03-19 2022-02-08 昆明理工大学 一种基于视频录像中的异常行为检测算法
KR102058967B1 (ko) * 2018-06-01 2019-12-24 주식회사 한솔리드텍 버스 안전 운행시스템
KR102079086B1 (ko) * 2018-08-06 2020-04-07 호남대학교 산학협력단 지능형 졸음운전 방지 장치
KR102039279B1 (ko) * 2018-12-18 2019-10-31 장승현 영상 인식을 이용한 경찰 업무 지원 시스템 및 그 방법
KR102070752B1 (ko) * 2018-12-28 2020-01-30 (주)오펠솔루션 차량 운전 정보 자동 추출 및 운전 행동 모니터링을 위한 장치 및 방법
KR102115699B1 (ko) * 2019-05-16 2020-05-26 (주)기흥산업 고소작업차 관리시스템
CN110588605B (zh) * 2019-08-30 2021-05-25 江苏大学 一种防误踩加速踏板的主动制动控制系统及控制方法
CN111376909A (zh) * 2020-03-21 2020-07-07 东风汽车集团有限公司 一种间接疲劳监测方法
KR102483259B1 (ko) * 2021-01-20 2023-01-03 한국과학기술원 주행 데이터 분석을 통한 운전자 식별을 위한 컴퓨터 시스템 및 그의 방법
WO2022175149A1 (fr) * 2021-02-18 2022-08-25 Valeo Systemes Thermiques Dispositif de gestion thermique d'une batterie électrique de véhicule
KR102411864B1 (ko) * 2021-08-31 2022-06-22 (주)에이아이매틱스 운전자의 익명성을 보장하는 공유 차량의 주행 정보 관리 시스템 및 방법
KR102520687B1 (ko) * 2021-10-25 2023-04-11 주식회사 아쎄따 졸음운전 검출 및 방지 기능을 제공하는 단말 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100836073B1 (ko) * 2007-02-07 2008-06-09 에이치케이이카 주식회사 캔통신을 이용한 차량용 영상블랙박스 시스템
JP2014144708A (ja) * 2013-01-29 2014-08-14 Toyota Motor Corp 駐車支援装置及び駐車支援方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110135715A (ko) * 2010-06-11 2011-12-19 자동차부품연구원 차량의 운전상황 측정 장치
JP2012084967A (ja) 2010-10-07 2012-04-26 Hyundai Motor Co Ltd 運転者状態検知カメラ
KR20140002373A (ko) * 2012-06-29 2014-01-08 현대자동차주식회사 운전패턴학습을 통한 운전자 상태 감시 장치 및 방법
JP5900448B2 (ja) * 2013-09-30 2016-04-06 トヨタ自動車株式会社 運転支援装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100836073B1 (ko) * 2007-02-07 2008-06-09 에이치케이이카 주식회사 캔통신을 이용한 차량용 영상블랙박스 시스템
JP2014144708A (ja) * 2013-01-29 2014-08-14 Toyota Motor Corp 駐車支援装置及び駐車支援方法

Also Published As

Publication number Publication date
KR20170051197A (ko) 2017-05-11
KR20170051196A (ko) 2017-05-11
KR101945706B1 (ko) 2019-05-10

Similar Documents

Publication Publication Date Title
KR101912703B1 (ko) 3채널 차량 상황 감시 장치 및 그 방법
US9180887B2 (en) Driver identification based on face data
JP7218535B2 (ja) 交通違反車両識別システム及びサーバ
CN109427114B (zh) 信息处理方法、信息处理装置和记录介质
US8606492B1 (en) Driver log generation
US8379924B2 (en) Real time environment model generation system
EP3109117B1 (en) Device and method for opening trunk of car, and recording medium for recording program for executing method
US20200001892A1 (en) Passenger assisting apparatus, method, and program
WO2018058958A1 (zh) 一种道路车辆交通告警系统及其方法
CN110866427A (zh) 一种车辆行为检测方法及装置
CN109080640A (zh) 用于在车辆内提供昏睡警报的方法
US10785404B2 (en) Information processing method, information processing apparatus, and non-transitory recording medium
JP7135904B2 (ja) 交通管理システム及びその制御方法
KR20180094812A (ko) 승차인원 검지방법 및 그 장치
JP2015071319A (ja) 運転者特定システム
JP2015071318A (ja) 保険料金算出システム
JP2014182007A (ja) 車間距離計測装置及び車間距離計測方法
CA3146367A1 (en) Information-enhanced off-vehicle event identification
KR101761357B1 (ko) 차량 감시 시스템 및 방법
KR101311112B1 (ko) 차량 사고 판단 장치 및 그 방법
CN114212041A (zh) 一种车辆的监控方法及系统
KR101460902B1 (ko) 차량 주변의 도난 징후 감지를 위한 지능형 블랙박스 시스템 및 그 동작 방법
JP2018169924A (ja) 学習データ収集装置、学習データ収集システムおよび学習データ収集方法
US20230316919A1 (en) Hazard notification method and system for implementing
WO2021181574A1 (ja) 車載装置、飲酒判定方法及び記録媒体

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
E801 Decision on dismissal of amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant