KR101945809B1 - 차량 보조 장치 및 차량 - Google Patents

차량 보조 장치 및 차량 Download PDF

Info

Publication number
KR101945809B1
KR101945809B1 KR1020150116919A KR20150116919A KR101945809B1 KR 101945809 B1 KR101945809 B1 KR 101945809B1 KR 1020150116919 A KR1020150116919 A KR 1020150116919A KR 20150116919 A KR20150116919 A KR 20150116919A KR 101945809 B1 KR101945809 B1 KR 101945809B1
Authority
KR
South Korea
Prior art keywords
vehicle
processor
information
unit
control signal
Prior art date
Application number
KR1020150116919A
Other languages
English (en)
Other versions
KR20170022206A (ko
Inventor
박상민
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020150116919A priority Critical patent/KR101945809B1/ko
Priority to PCT/KR2015/012097 priority patent/WO2017030240A1/ko
Priority to US15/097,478 priority patent/US9815467B2/en
Publication of KR20170022206A publication Critical patent/KR20170022206A/ko
Application granted granted Critical
Publication of KR101945809B1 publication Critical patent/KR101945809B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/10Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the vehicle 
    • B60K28/14Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the vehicle  responsive to accident or emergency, e.g. deceleration, tilt of vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18109Braking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/44Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating braking action or preparation for braking, e.g. by detection of the foot approaching the brake pedal
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/107Longitudinal acceleration
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F02COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
    • F02DCONTROLLING COMBUSTION ENGINES
    • F02D41/00Electrical control of supply of combustible mixture or its constituents
    • F02D41/0002Controlling intake air
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F02COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
    • F02DCONTROLLING COMBUSTION ENGINES
    • F02D9/00Controlling engines by throttling air or fuel-and-air induction conduits or exhaust conduits
    • F02D9/02Controlling engines by throttling air or fuel-and-air induction conduits or exhaust conduits concerning induction conduits
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/52Radar, Lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/12Brake pedal position
    • B60W2550/406
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle for navigation systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/06Combustion engines, Gas turbines
    • B60W2710/0605Throttle position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/08Electric propulsion units
    • B60W2710/086Power
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/18Propelling the vehicle
    • B60Y2300/26Dangerous conditions

Abstract

본 발명은 차량 주변 오브젝트를 검출하는 오브젝트 감지부; 제동등에 유입되는 전류 정보를 수신하는 인터페이스부; 및 상기 검출된 오브젝트를 기초로 주행 속도를 검출하고, 상기 주행 속도 및 상기 전류 정보를 기초로 판단된 급발진 여부에 따라 구동력 차단 제어 신호를 제공하는 프로세서;를 포함하는 차량 보조 장치에 관한 것이다.

Description

차량 보조 장치 및 차량{Vehicle assistance apparatus and Vehicle}
본 발명은 차량 보조 장치 및 차량에 관한 것이다.
차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다.
한편, 차량을 이용하는 사용자의 편의를 위해, 각 종 센서와 전자 장치 등이 구비되고 있는 추세이다. 특히, 사용자의 운전 편의를 위한 다양한 장치 등이 개발되고 있다.
최근, 다양한 차량 운전 보조 시스템(이하, ADAS : Advanced Driver Assistance System)에 대한 연구가 활발하게 이루어 지고 있다. ADAS 중 일부는 양산차에 적용되기도 한다.
한편, 최근 급발진으로 추정되는 사고가 많이 발생되고 있다. 그러나, 이러한 급발진 추정 사고는, 브레이크 페달에 압력이 가해진 상태에서도 차량이 가속되어,이러한 급발진 사고 발생시, 운전자가 제어할 수 없는 상황에서 차량이 고속으로 주행하기 때문에, 인명 피해가 발생될 확률이 크다.
한국 등록 특허 10-1487473에서는 자동차의 급발진 방지 장치 및 이를 이용한 급발진 방지 방법에 대해 기재하고 있으나, 정확하게 급발진을 판단 방법 및 급발진으로 판단되는 경우의 제어 동작에 대해서는 연구, 개발이 필요하다.
본 발명은 상기한 문제점을 해결하기 위하여, 제동등의 점멸 및 오브젝트 감지부에서 감지된 신호를 기초로 검출된 차량 속도를 기초로 급발진을 판단하는 차량 보조 장치를 제공하는데 목적이 있다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위하여, 본 발명의 실시예는, 차량 주변 오브젝트를 검출하는 오브젝트 감지부; 제동등에 유입되는 전류 정보를 수신하는 인터페이스부; 및 상기 검출된 오브젝트를 기초로 주행 속도를 검출하고, 상기 주행 속도 및 상기 전류 정보를 기초로 판단된 급발진 여부에 따라 구동력 차단 제어 신호를 제공하는 프로세서;를 포함하는 차량 보조 장치를 제공한다.
또한, 상기 과제를 달성하기 위하여, 본 발명의 실시예는, 차량 주변 오브젝트를 검출하는 오브젝트 감지부; 주변 차량에서 획득한 영상을 수신하는 통신부; 및 상기 검출된 오브젝트를 기초로 주행 속도를 검출하고, 상기 주행 속도 및 상기 영상에서 검출된 자차의 제동등 점멸 여부를 기초로 판단된 급발진 여부에 따라 구동력 차단 제어 신호를 제공하는 프로세서;를 포함하는 차량 보조 장치를 제공한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 실시예에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, ECU를 거치지 않고, 제동등의 점멸 상태 및 오브젝트 감지부를 통해 검출된 차량의 주행 속도를 기초로 급발진을 판단하므로, 명확하게 급발진을 판단할 수 있는 효과가 있다.
둘째, 급발진 발생시, 제어부를 통하지 않고 차량 보조 장치에서 직접 스로틀 바디를 제어함으로써, 사고 발생을 방지하는 효과가 있다.
셋째, 타 차량으로부터 수신된 영상을 기초로 제동등 점열 상태를 판단할 수 있여, 명확하게 급발진을 판단할 수 있는 효과가 있다.
넷째, 급발진 정보를 외부 디바이스에 전송함으로써, 급발진에 미리 대응할 수 있는 효과가 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 차량의 외관을 도시한 도면이다.
도 2a 내지 2b는 도 1의 차량의 내부 블록도의 일예이다.
도 3은 본 발명의 실시예에 따른 차량 보조 장치의 블록도이다.
도 4는 본 발명의 제1 실시예에 따른 차량 보조 장치의 프로세서 내부 블럭도이다.
도 5는 본 발명의 제1 실시예에 따른 차량 보조 장치의 동작을 설명하는데 참조되는 플로우 차트이다.
도 6은 본 발명의 실시예에 따라, 차량의 주행 속도를 검출하는 동작을 설명하는데 참조되는 도면이다.
도 7은 본 발명의 실시예에 따라, 제동등의 점멸 상태를 파악하는 동작을 설명하는데 참조되는 도면이다.
도 8은 본 발명의 실시예에 따라, 급발진시 스로틀 바디를 제어하는 동작을 설명하는데 참조되는 도면이다.
도 9는 본 발명의 실시예에 따라, 급발진시 외부 디바이스에 급발진 정보를 전송하는 동작을 설명하는데 참조되는 도면이다.
도 10은 본 발명의 제2 실시예에 다른 차량 보조 장치 프로세서의 내부 블럭도이다.
도 11은 본 발명의 제2 실시예에 따른 차량 보조 장치의 동작을 설명하는데 참조되는 플로우 차트이다.
도 12는 본 발명의 실시예에 따라, 타 차량으르부터 영상 정보를 수신하는 동작을 설명하는데 참조되는 도면이다.
도 13 내지 도 15는 본 발명의 실시예에 따라 급발진을 판단하는 동작을 설명하는데 참조되는 도면이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에서 기술되는 차량은, 자동차, 오토바이를 포함하는 개념일 수 있다. 이하에서는, 차량에 대해 자동차를 위주로 기술한다.
본 명세서에서 기술되는 차량은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량 등을 모두 포함하는 개념일 수 있다. 또한, 본 명세서에서 기술되는 차량은, 자율 주행 차량일 수 있다.
이하의 설명에서 차량의 좌측은 차량의 주행 방향의 좌측을 의미하고, 차량의 우측은 차량의 주행 방향의 우측을 의미한다.
이하의 설명에서 별도로 언급되지 않는한 LHD(Left Hand Drive) 차량을 중심으로 설명하나, RHD(Right Hand Drive)차량에서도 통상의 기술자 수준에서 이해될 수 있을 정도로 본 발명이 적용될 수 있다.
도 1은 본 발명의 일 실시예에 따른 차량의 외관을 도시한 도면이다.
도면을 참조하면, 차량(100)은, 동력원에 의해 회전하는 바퀴(103FR,103FL,103RL,..), 차량(100)의 진행 방향을 조절하기 위한 조향 입력 수단(121a)을 구비할 수 있다.
한편, 실시예에 따라, 차량(100)은 자율 주행 차량일 수 있다. 자율 주행 차량의 경우, 사용자 입력에 따라 자율 주행 모드 또는 메뉴얼 모드로 전환될 수 있다. 메뉴얼 모드로 전환되는 경우, 자율 주행 차량(100)은 조향 입력 수단(121a)을 통해 조향 입력을 수신할 수 있다.
전장(overall length)은 차량(100)의 앞부분에서 뒷부분까지의 길이, 전폭(width)은 차량(100)의 너비, 전고(height)는 바퀴 하부에서 루프까지의 길이를 의미한다. 이하의 설명에서, 전장 방향(L)은 차량(100)의 전장 측정의 기준이 되는 방향, 전폭 방향(W)은 차량(100)의 전폭 측정의 기준이 되는 방향, 전고 방향(H)은 차량(100)의 전폭 측정의 기준이 되는 방향을 의미할 수 있다.
한편, 이하의 설명에서 차량(100)은 타 차량(390)과 구분하기 위해 자 차량(100)으로 설명될 수 있다.
도 2a 내지 2b는 도 1의 차량의 내부 블록도의 일예이다.
먼저 도 2a를 참조하면, 차량(100)은, 통신부(110), 입력부(120), 센싱부(125) 메모리(130), 출력부(140), 차량 구동부(150), 제어부(170), 인터페이스부(180), 전원 공급부(190), 차량 보조 장치(200) 및 디스플레이 장치(350)를 포함할 수 있다.
통신부(110)는, 근거리 통신 모듈(113), 위치 정보 모듈(114), 광통신 모듈(115) 및 V2X 통신 모듈(116)을 포함할 수 있다.
근거리 통신 모듈(113)은, 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.
이러한, 근거리 통신 모듈(113)은, 근거리 무선 통신망(Wireless Area Networks)을 형성하여, 차량(100)과 적어도 하나의 외부 디바이스 사이의 근거리 통신을 수행할 수 있다. 예를 들면, 근거리 통신 모듈(113)은 이동 단말기(310)와 무선으로 데이터를 교환할 수 있다. 근거리 통신 모듈(113)은 이동 단말기(310)로부터 날씨 정보, 도로의 교통 상황 정보(예를 들면, TPEG(Transport Protocol Expert Group))를 수신할 수 있다. 가령, 사용자가 차량(100)에 탑승한 경우, 사용자의 이동 단말기(310)와 차량(100)은 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링을 수행할 수 있다.
위치 정보 모듈(114)은, 차량(100)의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈이 있다. 예를 들면, 차량은 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 차량의 위치를 획득할 수 있다.
한편, 실시예에 따라, 위치 정보 모듈(114)은 통신부(110)에 포함되는 구성요소가 아닌, 센싱부(125)에 포함되는 구성요소일 수도 있다.
광통신 모듈(115)은, 광발신부 및 광수신부를 포함할 수 있다.
광수신부는, 광(light)신호를 전기 신호로 전환하여, 정보를 수신할 수 있다. 광수신부는 광을 수신하기 위한 포토 다이오드(PD, Photo Diode)를 포함할 수 있다. 포토 다이오드는 빛을 전기 신호로 전환할 수 있다. 예를 들면, 광수신부는 전방 차량에 포함된 광원에서 방출되는 광을 통해, 전방 차량의 정보를 수신할 수 있다.
광발신부는 전기 신호를 광 신호로 전환하기 위한 발광 소자를 적어도 하나 포함할 수 있다. 여기서, 발광 소자는 LED(Light Emitting Diode)인 것이 바람직하다. 광발신부는, 전기 신호를 광 신호로 전환하여, 외부에 발신한다. 예를 들면, 광 발신부는 소정 주파수에 대응하는 발광소자의 점멸을 통해, 광신호를 외부에 방출할 수 있다. 실시예에 따라, 광발신부는 복수의 발광 소자 어레이를 포함할 수 있다. 실시예에 따라, 광발신부는 차량(100)에 구비된 램프와 일체화될 수 있다. 예를 들면, 광발신부는 전조등, 후미등, 제동등, 방향 지시등 및 차폭등 중 적어도 어느 하나일 수 있다. 예를 들면, 광통신 모듈(115)은 광 통신을 통해 타 차량(390)과 데이터를 교환할 수 있다.
V2X 통신 모듈(116)은, 서버(380) 또는 타 차량(390)과의 무선 통신 수행을 위한 모듈이다. V2X 모듈(116)은 차량간 통신(V2V) 또는 차량과 인프라간 통신(V2I) 프로토콜이 구현 가능한 모듈을 포함한다. 차량(100)은 V2X 통신 모듈(116)을 통해, 외부 서버(380) 및 타 차량(390)과 무선 통신을 수행할 수 있다.
입력부(120)는, 운전 조작 수단(121), 카메라(122), 마이크로 폰(123) 및 사용자 입력부(124)를 포함할 수 있다.
운전 조작 수단(121)은, 차량(100) 운전을 위한 사용자 입력을 수신한다. 운전 조작 수단(121)은 조향 입력 수단(121a), 쉬프트 입력 수단(121b), 가속 입력 수단(121c), 브레이크 입력 수단(121d)을 포함할 수 있다.
조향 입력 수단(121a)은, 사용자로부터 차량(100)의 진행 방향 입력을 수신한다. 조향 입력 수단(121a)은 회전에 의해 조향 입력이 가능하도록 휠 형태로 형성되는 것이 바람직하다. 실시예에 따라, 조향 입력 수단(121a)은 터치 스크린, 터치 패드 또는 버튼으로 형성될 수도 있다.
쉬프트 입력 수단(121b)은, 사용자로부터 차량(100)의 주차(P), 전진(D), 중립(N), 후진(R)의 입력을 수신한다. 쉬프트 입력 수단(121b)은 레버 형태로 형성되는 것이 바람직하다. 실시예에 따라, 쉬프트 입력 수단(121b)은 터치 스크린, 터치 패드 또는 버튼으로 형성될 수도 있다.
가속 입력 수단(121c)은, 사용자로부터 차량(100)의 가속을 위한 입력을 수신한다. 브레이크 입력 수단(121d)은, 사용자로부터 차량(100)의 감속을 위한 입력을 수신한다. 가속 입력 수단(121c) 및 브레이크 입력 수단(121d)은 페달 형태로 형성되는 것이 바람직하다. 실시예에 따라, 가속 입력 수단(121c) 또는 브레이크 입력 수단(121d)은 터치 스크린, 터치 패드 또는 버튼으로 형성될 수도 있다.
내부 카메라(122)는 차량(100)의 실내를 촬영할 수 있다. 내부 카메라(122)는 탑승자에 대한 이미지를 획득할 수 있다.
내부 카메라(122)의 프로세서는, 차량(100) 내에 탑승자에 대한 이미지를 획득하여, 탑승 인원이 몇 명인지, 탑승자가 어느 자리에 탑승하였는지 검출할 수 있다. 예를 들면, 내부 카메라(122)는 동승자의 탑승 유무 및 탑승 위치를 검출할 수 있다.
내부 카메라(122)는 탑승자의 생체 인식을 위한 이미지를 획득할 수 있다. 내부 카메라(122)의 프로세서는 탑승자의 얼굴 이미지를 기초로, 탑승자의 ID를 확인할 수 있다.
한편, 실시예에 따라, 내부 카메라(122)의 프로세서는, 탑승자의 이미지를 기초로, 탑승자의 유형을 검출할 수 있다. 예를 들면, 내부 카메라(122)의 프로세서는, 소정 이미지 처리 알고리즘을 통해, 운전자의 유형이 노인, 장애인 또는 임신부인지 검출할 수 있다.
마이크로 폰(123)은, 외부의 음향 신호를 전기적인 데이터로 처리할 수 있다. 처리된 데이터는 차량(100)에서 수행 중인 기능에 따라 다양하게 활용될 수 있다. 마이크로폰(123)은 사용자의 음성 명령을 전기적인 데이터로 전환할 수 있다. 전환된 전기적인 데이터는 제어부(170)에 전달될 수 있다.
한편, 실시예에 따라, 카메라(122) 또는 마이크로폰(123)는 입력부(120)에 포함되는 구성요소가 아닌, 센싱부(125)에 포함되는 구성요소일 수도 있다.
사용자 입력부(124)는 사용자로부터 정보를 입력받기 위한 것이다. 사용자 입력부(124)를 통해, 정보가 입력되면, 제어부(170)는 입력된 정보에 대응되도록 차량(100)의 동작을 제어할 수 있다. 사용자 입력부(124)는 터치식 입력수단 또는 기계식 입력 수단을 포함할 수 있다. 실시예에 따라, 사용자 입력부(124)는 스티어링 휠의 일 영역에 배치될 수 있다. 이경우, 운전자는 스티어링 휠을 잡은 상태에서, 손가락으로 사용자 입력부(124)를 조작할 수 있다.
센싱부(125)는, 차량(100)의 각종 상황을 센싱한다. 이를 위해, 센싱부(125)는, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 가속 페달 포지션 센서, 브레이크 페달 포지션 센서, 등을 포함할 수 있다.
이에 의해, 센싱부(125)는, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도, 가속 페달에 가해지는 압력, 브레이크 페달에 가해지는 압력 등에 대한 센싱 신호를 획득할 수 있다.
한편, 센싱부(125)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 포함할 수 있다.
한편, 위치 정보 모듈(114)은 센싱부(125)의 하위 구성 요소로 분류될 수도 있다. 또한, 카메라(122)는 센싱부(125)의 하위 구성 요소로 분류될 수도 있다.
메모리(130)는, 제어부(170)와 전기적으로 연결된다. 메모리(130)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(130)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(130)는 제어부(170)의 처리 또는 제어를 위한 프로그램 등, 차량(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
출력부(140)는, 제어부(170)에서 처리된 정보를 출력하기 위한 것으로, 디스플레이부(141), 음향 출력부(142) 및 햅틱 출력부(143)를 포함할 수 있다.
디스플레이부(141)는 제어부(170)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부(141)는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 차량에 대한 직접적인 제어를 위한 차량 제어 정보, 또는 차량 운전자에게 운전 가이드를 위한 차량 운전 보조 정보를 포함할 수 있다. 또한, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다.
디스플레이부(141)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.
디스플레이부(141)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 차량(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(724)로써 기능함과 동시에, 차량(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다. 이경우, 디스플레이부(141)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이부(141)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이를 이용하여, 디스플레이부(141)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 제어부(170)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.
한편, 디스플레이부(141)는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다. 클러스터는 대시보드 위에 위치할 수 있다. 이경우, 운전자는, 시선을 차량 전방에 유지한채로 클러스터에 표시되는 정보를 확인할 수 있다.
한편, 실시예에 따라, 디스플레이부(141)는 HUD(Head Up Display)로 구현될 수 있다. 디스플레이부(141)가 HUD로 구현되는 경우, 윈드 쉴드에 구비되는 투명 디스플레이를 통해 정보를 출력할 수 있다. 또는, 디스플레이부(141)는 투사 모듈을 구비하여 윈드 쉴드에 투사되는 이미지를 통해 정보를 출력할 수 있다.
한편, 실시예에 따라, 디스플레이부(141)는, 투명 디스플레이를 포함할 수 있다. 이경우, 투명 디스플레이는 윈드 쉴드에 부착될 수 있다.
투명 디스플레이는 소정의 투명도를 가지면서, 소정의 화면을 표시할 수 있다. 투명 디스플레이는, 투명도를 가지기 위해, 투명 디스플레이는 투명 TFEL(Thin Film Elecroluminescent), 투명 OLED(Organic Light-Emitting Diode), 투명 LCD(Liquid Crystal Display), 투과형 투명디스플레이, 투명 LED(Light Emitting Diode) 디스플레이 중 적어도 하나를 포함할 수 있다. 투명 디스플레이의 투명도는 조절될 수 있다.
음향 출력부(142)는 제어부(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부(142)는 스피커 등을 구비할 수 있다. 음향 출력부(142)는, 사용자 입력부(724) 동작에 대응하는, 사운드를 출력하는 것도 가능하다.
햅틱 출력부(143)는 촉각적인 출력을 발생시킨다. 예를 들면, 햅틱 출력부(143)는, 스티어링 휠, 안전 벨트, 시트를 진동시켜, 사용자가 출력을 인지할 수 있게 동작할 수 있다.
차량 구동부(150)는, 차량 각종 장치의 동작을 제어할 수 있다. 차량 구동부(150)는 동력원 구동부(151), 조향 구동부(152), 브레이크 구동부(153), 램프 구동부(154), 공조 구동부(155), 윈도우 구동부(156), 에어백 구동부(157), 썬루프 구동부(158) 및 서스펜션 구동부(159)를 포함할 수 있다.
동력원 구동부(151)는, 차량(100) 내의 동력원에 대한 전자식 제어를 수행할 수 있다.
예를 들면, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부(151)는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부(151)가 엔진인 경우, 제어부(170)의 제어에 따라, 엔진 출력 토크를 제한하여 차량의 속도를 제한할 수 있다.
다른 예로, 전기 기반의 모터(미도시)가 동력원인 경우, 동력원 구동부(151)는, 모터에 대한 제어를 수행할 수 있다. 이에 의해, 모터의 회전 속도, 토크 등을 제어할 수 있다.
조향 구동부(152)는, 차량(100) 내의 조향 장치(steering apparatus)에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 차량의 진행 방향을 변경할 수 있다.
브레이크 구동부(153)는, 차량(100) 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(100)의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량(100)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.
램프 구동부(154)는, 차량 내, 외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들면, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.
공조 구동부(155)는, 차량(100) 내의 공조 장치(air cinditioner)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 차량 내부의 온도가 높은 경우, 공조 장치가 동작하여, 냉기가 차량 내부로 공급되도록 제어할 수 있다.
윈도우 구동부(156)는, 차량(100) 내의 윈도우 장치(window apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 차량의 측면의 좌,우 윈도우들에 대한 개방 또는 폐쇄를 제어할 수 있다.
에어백 구동부(157)는, 차량(100) 내의 에어백 장치(airbag apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 위험시, 에어백이 터지도록 제어할 수 있다.
썬루프 구동부(158)는, 차량(100) 내의 썬루프 장치(sunroof apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 썬루프의 개방 또는 폐쇄를 제어할 수 있다.
서스펜션 구동부(159)는, 차량(100) 내의 서스펜션 장치(suspension apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 도로면에 굴곡이 있는 경우, 서스펜션 장치를 제어하여, 차량(100)의 진동이 저감되도록 제어할 수 있다.
한편, 실시예에 따라, 차량 구동부(150)는 샤시 구동부를 포함할 수 있다. 여기서, 샤시 구동부는 조향 구동부(152), 브레이크 구동부(153) 및 서스펜션 구동부(159)를 포함하는 개념일 수 있다.
제어부(170)는, 차량(100) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Contol Unit)로 명명될 수 있다.
제어부(170)는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
인터페이스부(180)는, 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(180)는 이동 단말기(310)와 연결 가능한 포트를 구비할 수 있고, 상기 포트를 통해, 이동 단말기(310)와 연결할 수 있다. 이경우, 인터페이스부(180)는 이동 단말기(310)와 데이터를 교환할 수 있다.
한편, 인터페이스부(180)는 연결된 이동 단말기(310)에 전기 에너지를 공급하는 통로 역할을 수행할 수 있다. 이동 단말기(310)가 인터페이스부(180)에 전기적으로 연결되는 경우, 제어부(170)의 제어에 따라, 인터페이스부(180)는 전원부(190)에서 공급되는 전기 에너지를 이동 단말기(310)에 제공한다.
전원 공급부(190)는, 제어부(170)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원부(170)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.
도 2b를 참조하면, 차량(100)은 램프(300)를 포함할 수 있다. 램프(300)는, 램프 구동부(154)의 제어에 따라 동작될 수 있다.
램프(300)는, 헤드 램프(311), 제동등(312), 후미등(313), 방향 지시등(314), 후진등(315), 차폭등(316), 주간 주행등(317)을 포함할 수 있다.
램프(300)의 각 기능 및 동작은 공지된 바와 같다. 특히, 제동등(312)은, 브레이크 페달에 압력이 가해질때 점등되고, 브레이크 페달에 압력이 가해지지 않을때, 소등된다.
한편, 제동등(312)은 전류 센서(도 7의 720)를 포함할 수 있다. 전류 센서는 배터리(710)에서 제동등(312)으로 유입되는 전류를 감지할 수 있다.
도 3은 본 발명의 실시예에 따른 차량 보조 장치를 설명하는데 참조되는 블럭도이다.
도 3을 참조하면, 차량 보조 장치(200)는, 통신부(210), 오브젝트 감지부(220), 메모리(230), 출력부(240), 광센서(250), 프로세서(270), 인터페이스부(280) 및 전원 공급부(290)를 포함할 수 있다.
통신부(210)는, 근거리 통신 모듈(214), V2X 통신 모듈(216)을 포함할 수 있다. 통신부(210)는, 주변 차량에서 획득한 영상 데이터를 수신할 수 있다.
한편, 통신부(210)는, 외부 디바이스(370, 380, 390)로부터 외부 제어 신호를 수신할 수 있다.
근거리 통신 모듈(214)은, 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.
이러한, 근거리 통신 모듈(214)은, 근거리 무선 통신망(Wireless Area Networks)을 형성하여, 차량(100)과 적어도 하나의 외부 디바이스 사이의 근거리 통신을 수행할 수 있다. 예를 들면, 근거리 통신 모듈(214)은 이동 단말기(310)와 무선으로 데이터를 교환할 수 있다. 근거리 통신 모듈(214)은 이동 단말기(310)로부터 날씨 정보, 도로의 교통 상황 정보(예를 들면, TPEG(Transport Protocol Expert Group))를 수신할 수 있다. 가령, 사용자가 차량(100)에 탑승한 경우, 사용자의 이동 단말기(310)와 차량(100)은 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링을 수행할 수 있다.
V2X 통신 모듈(216)은, 서버(380) 또는 타 차량(390)과의 무선 통신 수행을 위한 모듈이다. V2X 모듈(216)은 차량간 통신(V2V) 또는 차량과 인프라간 통신(V2I) 프로토콜이 구현 가능한 모듈을 포함한다. 차량(100)은 V2X 통신 모듈(216)을 통해, 외부 서버(380) 및 타 차량(390)과 무선 통신을 수행할 수 있다.
V2X 통신 모듈(216)은, 차량(100) 주변에 위치하는 타 차량(390)과 데이터를 교환할 수 있다. 특히, V2X 통신 모듈(216)은, 차량(100) 주변에 위치하는 차량(390)으로부터 타 차량(390)이 획득한 영상 데이터를 수신할 수 있다. 수신된 영상 데이터는 프로세서(270)에 전달될 수 있다.
V2X 통신 모듈(216)는, 외부 디바이스(380, 390)로부터 외부 제어 신호를 수신할 수 있다. 외부 디바이스(380, 390)는 교통 관제 서버(380) 또는 자 차량(100) 주변에 위치하는 타 차량(390)일 수 있다.
예를 들면, V2X 통신 모듈(216)은, 프로세서(270)의 제어에 따라, 급발진 발생 정보를 외부 디바이스(380, 390)에 전송할 수 있다. 외부 디바이스(380, 390)는, 수신된 급발진 발생 정보에 대응하여, 자 차량(100)의 동력 차단을 위한 외부 제어 신호를 제공할 수 있다. 이때, V2X 통신 모듈(216)은, 상기 외부 제어 신호를 수신하여, 프로세서(270)에 전달할 수 있다.
오브젝트 감지부(220)는, 차량 주변 오브젝트를 센싱할 수 있다.
오브젝트 감지부(220)는, 카메라(221), 스테레오 카메라(222), 레이더(223), 라이더(224) 및 초음파 센서(225)를 포함할 수 있다. 실시예에 따라, 차량(100)은 카메라(221), 스테레오 카메라(222), 레이더(223), 라이더(224) 및 초음파 센서(225)중 하나 이상을 선택적으로 포함할 수 있다.
카메라(221)는, 이미지 센서와 영상 처리 모듈을 포함할 수 있다. 카메라(221)는 이미지 센서(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. 영상 처리 모듈은 이미지 센서를 통해 획득된 정지영상 또는 동영상을 가공하여, 필요한 정보를 추출하고, 추출된 정보를 제어부(170)에 전달할 수 있다.
한편, 차량(100)은 모노 카메라(221a), 스테레오 카메라(221b), TOF 카메라(221c), 차량 주변 영상을 촬영하는 어라운드 뷰 카메라(221d)를 포함할 수 있다. 각각의 카메라(221a, 221b, 221c, 221d)는 각각 렌즈, 이미지 센서 및 프로세서를 포함할 수 있다. 프로세서는, 촬영되는 영상을 컴퓨터 처리하여, 데이터 또는 정보를 생성하고, 생성된 데이터 또는 정보를 제어부(170)에 전달할 수 있다.
카메라(221)에 포함되는 프로세서는, 차량 보조 장치의 프로세서(270)의 제어를 받을 수 있다.
한편, 카메라(221)는, 프로세서(270)의 제어에 따라, 차량(100)에 급발진이 발생한 경우, 획득되는 영상을 저장할 수 있다. 이때, 상기 영상은, 카메라(221) 내부에 포함된 메모리 또는 차량 보조 장치(200)의 메모리(230)에 저장될 수 있다.
카메라(221)에 포함되는 프로세서는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
모노 카메라(221a)는, 차량 전방 또는 차량 주변을 촬영한 영상에서 오브젝트를 검출할 수 있다. 모노 카메라(221a)는 검출된 오브젝트를 트래킹할 수 있다. 모노 카메라(221a)는, 지속적으로 획득되는 영상에서 검출된 오브젝트의 시간에 따른 크기의 변화를 기초로, 차량(100)과 오브젝트와의 거리를 산출할 수 있다. 모노 카메라(221a)는 산출된 거리를 기초로 오브젝트와의 상대 속도를 산출할 수 있다. 구체적으로, 모노 카메라(221a)는 시간에 따른 거리의 변화를 기초로 상기 상대 속도를 산출할 수 있다.
한편, 오브젝트가 정지해 있는 물체(예를 들면, 가로수, 가로등, 신호등, 교통표지판 등)인 경우, 모노 카메라(221a)는 오브젝트와의 상대 속도를 기초로, 차량(100)의 주행 속도를 검출할 수 있다.
스테레오 카메라(221b)는, 스테레오 영상에서 검출된 디스패러티(disparity) 차이를 이용하여, 오브젝트와의 거리, 영상에서 검출된 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.
한편, 오브젝트가 정지해 있는 물체(예를 들면, 가로수, 가로등, 신호등, 교통 표지판 등)인 경우, 스테레오 카메라(221b)는 오브젝트와의 상대 속도를 기초로, 차량(100)의 주행 속도를 검출할 수 있다.
TOF(Time of Flight) 카메라(221c)는, 광원(예를 들면, 적외선 또는 레이저) 및 수신부를 포함할 수 있다. 이경우, 카메라(221a)의 프로세는, 광원에서 발신되는 적외선 또는 레이저가 오브젝트에 반사되어 수신될 때까지의 시간(TOF)에 기초하여 오브젝트와의 거리, 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.
한편, 오브젝트가 정지해 있는 물체(예를 들면, 가로수, 가로등, 신호등, 교통표지판 등)인 경우, TOF 카메라(221c)는 오브젝트와의 상대 속도를 기초로, 차량(100)의 주행 속도를 검출할 수 있다.
어라운드 뷰 카메라(221d)는, 복수의 카메라를 포함할 수 있다. 예를 들면, 복수의 카메라는 차량의 좌측, 후방, 우측 및 전방에 배치될 수 있다.
좌측 카메라는, 좌측 사이드 미러를 둘러싸는 케이스 내에 배치될 수 있다. 또는, 좌측 카메라는, 좌측 사이드 미러를 둘러싸는 케이스 외부에 배치될 수 있다. 또는, 좌측 카메라는 좌측 프런트 도어, 좌측 리어 도어 또는 좌측 휀더(fender) 외측 일 영역에 배치될 수 있다.
우측 카메라는, 우측 사이드 미러를 둘러싸는 케이스 내에 배치될 수 있다. 또는 우측 카메라는, 우측 사이드 미러를 둘러싸는 케이스 외부에 배치될 수 있다. 또는, 우측 카메라는 우측 프런트 도어, 우측 리어 도어 또는 우측 펜터(fender) 외측 일 영역에 배치될 수 있다.
한편, 후방 카메라는, 후방 번호판 또는 트렁크 또는 테일 게이트 스위치 부근에 배치될 수 있다.
전방 카메라는, 앰블럼 부근 또는 라디에이터 그릴 부근에 배치될 수 있다.
복수의 카메라에서 촬영된 각각의 이미지는, 카메라(221d)의 프로세서에 전달되고, 프로세서는 상기 각각의 이미지를 합성하여, 차량 주변 영상을 생성할 수 있다. 이때, 차량 주변 영상은 탑뷰 이미지 또는 버드 아이 이미지로 디스플레이부(141)를 통해 표시될 수 있다.
어라운드 뷰 카메라(221d)에 포함된 각각의 카메라는, 상술한 모노 카메라(221a)와 같은 방식으로, 차량 주변의 오브젝트를 검출하고, 트래킹할 수 있다. 또한, 각각의 카메라는 오브젝트와의 거리, 상대 속도를 검출할 수 있다.
레이더(223)는, 전자파 송신부, 수신부 및 프로세서를 포함할 수 있다. 레이더(223)는 전파 발사 원리상 펄스 레이더(Pulse Radar) 방식 또는 연속파 레이더(Continuous Wave Radar) 방식으로 구현될 수 있다. 또한, 레이더(223)는 연속파 레이더 방식 중에서 신호 파형에 따라 FMCW(Frequency Modulated Continuous Wave)방식 또는 FSK(Frequency Shift Keyong) 방식으로 구현될 수 있다.
레이더(223)는 송신된 전자파를 기초로 오브젝트를 검출하고, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 오브젝트가 정지해 있는 물체(예를 들면, 가로수, 가로등, 신호등, 교통표지판 등)인 경우, 레이더(223)는 오브젝트에 의한 TOF(Time of Flight)를 기초로 차량(100)의 주행 속도를 검출할 수 있다.
라이더(224)는, 레이저 송신부, 수신부, 프로세서를 포함할 수 있다. 라이더(224)는, TOF(Time of Flight) 방식 또는 페이즈쉬프트(phase-shift) 방식으로 구현될 수 있다.
TOF 방식의 라이더(224)는, 레이저 펄스 신호를 방출하고, 오브젝트에 반사되는 반사 펄스 신호를 수신한다. 라이더(224)는, 레이저 펄스 신호가 방출되고 반사 펄스 신호가 수신된 시간을 기초로 오브젝트와의 거리를 측정할 수 있다. 또한, 시간에 따른 거리의 변화를 기초로 오브젝트와의 상대 속도를 측정할 수 있다.
한편, 페이즈쉬프트 방식의 라이더(224)는, 특정 주파수를 가지고 연속적으로 변조되는 레이저 빔을 방출하고, 오브젝트에 반사되어 돌아오는 신호의 위상 변화량을 기초로 시간 및 오브젝트와의 거리를 측정할 수 있다. 또한, 시간에 따른 거리의 변화를 기초로 오브젝트와의 상대 속도를 측정할 수 있다.
라이더(224)는, 송신된 레이저를 기초로 오브젝트를 검출하고, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 오브젝트가 정지해 있는 물체(예를 들면, 가로수, 가로등, 신호등, 교통표지판 등)인 경우, 라이더(224)는 오브젝트에 의한 TOF(Time of Flight)를 기초로 차량(100)의 주행 속도를 검출할 수 있다.
초음파 센서(225)는, 초음파 송신부, 수신부, 프로세서를 포함할 수 있다.
초음파(224)는, 송신된 초음파를 기초로 오브젝트를 검출하고, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 오브젝트가 정지해 있는 물체(예를 들면, 가로수, 가로등, 신호등, 교통표지판 등)인 경우, 초음파 센서(225)는 오브젝트에 의한 TOF(Time of Flight)를 기초로 차량(100)의 주행 속도를 검출할 수 있다.
메모리(230)는, 프로세서(270)와 전기적으로 연결된다. 메모리(230)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(230)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(230)는 프로세서(270)의 처리 또는 제어를 위한 프로그램 등, 차량 보조 장치(200) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
출력부(240)는, 프로세서(270)에서 처리된 정보를 출력하기 위한 것으로, 디스플레이부(241) 및 음향 출력부(242)를 포함할 수 있다.
디스플레이부(241)는 프로세서(270)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부(241)는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 차량에 대한 직접적인 제어를 위한 차량 제어 정보, 또는 차량 운전자에게 운전 가이드를 위한 차량 운전 보조 정보를 포함할 수 있다. 또한, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다.
디스플레이부(241)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.
디스플레이부(241)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 차량 보조 장치(200)와 사용자 사이의 입력 인터페이스를 제공하는 입력부(220)로써 기능함과 동시에, 차량 보조 장치(200)와 사용자 사이의 출력 인터페이스를 제공할 수 있다. 이경우, 디스플레이부(241)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이부(241)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이를 이용하여, 디스플레이부(241)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 프로세서(270)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.
한편, 디스플레이부(241)는 윈드 쉴드의 일 영역에 화면이 표시되도록 구현될 수 있다.
디스플레이부(241)는 투명 디스플레이를 포함할 수 있다. 이경우, 투명 디스플레이는 윈드 쉴드에 부착될 수 있다. 이경우, 차량 보조 장치(200)는, 투명 디스플레이를 통해, 정보를 출력할 수 있다.
투명 디스플레이는 소정의 투명도를 가지면서, 소정의 화면을 표시할 수 있다. 투명 디스플레이는, 투명도를 가지기 위해, 투명 디스플레이는 투명 TFEL(Thin Film Elecroluminescent), 투명 OLED(Organic Light-Emitting Diode), 투명 LCD(Liquid Crystal Display), 투과형 투명디스플레이, 투명 LED(Light Emitting Diode) 디스플레이 중 적어도 하나를 포함할 수 있다.
한편, 투명 디스플레이의 투명도는 프로세서(270)의 제어에 따라 조절될 수 있다.
디스플레이부(241)는 투사 모듈을 포함할 수 있다. 이경우, 차량 보조 장치(200)는, 윈드 쉴드에 투사되는 이미지를 통해 정보를 출력할 수 있다.
투사 모듈은 윈드 쉴드를 향해 빔(beam)을 투사한다. 투사 모듈은, 광원 및 투사 렌즈를 포함할 수 있다. 투사 모듈은 프로세서(170)에서 처리되는 정보에 대응하는 영상을 구현할 수 있다. 즉, 투사 모듈은 광원에서 발생한 광을 이용하여 영상을 구현하고, 구현된 영상을 윈드 쉴드에 투사할 수 있다. 이때, 광원은 LED, 레이저 등을 이용하는 것이 바람직하다.
디스플레이부(241)는, 프로세서(270)의 제어에 따라, 급발진 발생 정보를 표시할 수 있다.
음향 출력부(242)는 프로세서(270)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부(242)는 스피커 등을 구비할 수 있다. 음향 출력부(242)는, 입력부(220) 동작에 대응하는, 사운드를 출력하는 것도 가능하다.
음향 출력부(242)는, 프로세서(270)의 제어에 따라, 급발진 발생 정보를 음성으로 출력할 수 있다.
광센서(250)는, 차량(100) 후방 제동등 근처에 배치될 수 있다. 광센서(250)는, 제동등의 점멸을 감지할 수 있다. 광센서(250)는, 제동등에서 출력되는 광을 감지하고, 감지된 정보를 기초로, 제동등의 점멸 상태를 감지 수 있다. 실시예에 따라, 광센서(250)는 적색광을 감지할 수 있다.
광센서(250)는 광을 전기적 신호로 변환하는 하나 이상의 소자를 포함할 수 있다. 예를 들면, 광센서(250)는, 포토 다이오드 또는 포토 트랜지스터를 포함할 수 있다.
프로세서(270)는, 차량 보조 장치(200) 내의 각 유닛의 전반적인 동작을 제어한다.
프로세서(270)는, 통신부(210), 입력부(220) 또는 인터페이스부(280)를 통해 수신된 정보 또는 데이터가 출력되도록 출력부(240)를 제어할 수 있다. 프로세서(270)는, 메모리(230)에 저장된 정보 또는 데이터가 출력되도록 출력부(240)를 제어할 수 있다. 프로세서(270)는, 수신된 정보 또는 데이터를 직접 출력하거나, 가공하여 출력할 수 있다. 프로세서(270)는 정보 또는 데이터를 디스플레이부(241)를 통해 시각적으로 출력할 수 있다. 프로세서(270)는 정보 또는 데이터를 음향출력부(242)를 통해 청각적으로 출력할 수 있다.
프로세서(270)는, 오브젝트 감지부(220)에서 검출된 오브젝트를 기초로 주행 속도를 검출할 수 있다.
프로세서(270)는, 검출된 오브젝트와의 거리 및 상대 속도를 산출할 수 있다. 또는 프로세서(270)는, 오브젝트 감지부로부터, 오브젝트와의 거리 및 상대 속도 정보를 수신할 수 있다.
예를 들면, 프로세서(270)는, 모노 카메라(221a)를 통해 지속적으로 획득되는 영상에서 검출된 오브젝트의 시간에 따른 크기의 변화를 기초로, 차량(100)과 오브젝트와의 거리, 오브젝트와의 상대 속도를 검출할 수 있다.
예를 들면, 프로세서(270)는, 스테레오 카메라(221b)를 통해 획득되는 스테레오 영상에서 검출된 디스패러티(disparity)를 이용하여, 오브젝트와의 거리, 오브젝트와의 상대 속도를 검출할 수 있다.
예를 들면, 프로세서(270)는, 레이더(223), 라이더(224) 또는 초음파 센서(225)에서 검출되는 오브젝트에 의한 TOF(Time of Flight)를 기초로, 오브젝트와의 거리, 검출된 오브젝트와의 상대 속도를 검출할 수 있다.
오브젝트가 정지해 있는 물체(예를 들면, 가로수, 가로등, 신호등, 교통 표지판 등)인 경우, 프로세서(270)는, 오브젝트와의 상대 속도를 기초로, 차량(100)의 주행 속도를 검출할 수 있다.
프로세서(270)는, 제동등(312)으로부터 제동등(312)의 점멸 상태 정보를 수신할 수 있다. 프로세서(270)는, 제동등(312)의 전류 센서(도 7의 720)으로부터, 배터리에서 제동등(312)에 유입되는 전류 정보를 수신할 수 있다. 프로세서(270)는, 제동등(312)에 기준값 이상의 전류가 유입되는 경우, 제동등(312)이 점등되는 것으로 판단할 수 있다.
한편, 프로세서(270)는, 광센서(250)로부터 제동등(312)의 점멸 상태 정보를 수신할 수 있다. 프로세서(270)는, 광센서(250)에 기준값 이상의 광이 감지되는 경우, 제동등(312)이 점등되는 것으로 판단할 수 있다.
프로세서(270)는, 주행 속도 및 제동등 점멸 상태 정보를 기초로 급발진 여부를 판단할 수 있다. 여기서, 제동등 점멸 상태 정보는, 제동등의 전류 센서(도 7의 720) 또는 광센서(250)에서 수신된 정보에 기초할 수 있다.
프로세서(270)는, 제동등(312)이 온(on) 된 상태에서, 주행 속도가 증가하는 경우, 급발진이 발생된 것으로 판단할 수 있다.
한편, 프로세서(270)는, 가속 페달 또는 브레이크 페달의 페달링 정보를 기초로 급발진 여부를 판단할 수 있다. 가속 페달 또는 브레이크 페달의 페달링 정보는, 인터페이스부(280)를 통해, 가속 페달 포지션 센서 또는 브레이크 페달 포지션 센서로부터 수신될 수 있다.
가령, 가속 페달에 압력이 가해지지 않은 상태에서, 차량(100)이 가속하는 경우, 프로세서(270)는 차량(100)에 급발진이 발생한 것으로 판단할 수 있다.
가령, 브레이크 페달에 압력이 가해진 상태에서, 차량(100)이 가속하는 경우, 프로세서(270)는 차량(100)에 급발진이 발생한 것으로 판단할 수 있다.
한편, 프로세서(270)는, 급발진 판단의 경우, 제어부(170)에 테스트 신호를 전송할 수 있다. 프로세서(270)는, 테스트 신호에 대응되는 리턴 신호를 수신하여 제어부(170) 오작동 여부를 판단할 수 있다. 제어부(170)가 오작동하는 경우, 프로세서(270)는, 차량(100)의 상태를, 최종적으로, 급발진 상태로 판단할 수 있다. 이와 같이, 급발진 판단시, 제어부(170)의 오작동 여부 판단 과정을 더 부여함으로써, 급발진 판단에 대한 신뢰도를 높일 수 있다.
프로세서(270)는, 급발진이 발생한 것으로 판단되는 경우, 차량(100)에 제공되는 동력을 차단하는 제어 신호를 제공할 수 있다. 여기서, 제어 신호는 동력원 구동부(151)에 전달될 수 있다.
예를 들면, 차량(100)이 내여 기관 차량인 경우, 프로세서(270)는, 동력 차단 제어 신호를, 스로틀 바디(throttle body)에 제공할 수 있다. 여기서, 동력 차단 제어 신호는, 스로틀 밸브(throttle valve)를 클로즈(close) 상태로 전환하여, 퓨얼 컷(fuel cut)을 하는 제어 신호일 수 있다.
예를 들면, 차량(100)이 전기 자동차인 경우, 프로세서(270)는, 동력 차단 제어 신호를 모터 제어부에 제공할 수 있다. 여기서, 동력 차단 제어 신호는, 모터로부터 제공받는 구동력을 차단하는 제어 신호일 수 있다.
프로세서(270)는, 급발진이 발생한 것으로 판단되는 경우, 외부 디바이스(370, 380, 390)에 급발진 정보를 전송할 수 있다. 여기서, 외부 디바이스는, 이동 단말기(370), 외부 서버(380), 타 차량(390)일 수 있다. 외부 서버(380)는 교통 관제 서버일 수 있다.
프로세서(270)는, 외부 디바이스(370, 380, 390)에 급발진 정보 전송시, 차량(100)의 GPS 정보를 같이 전송할 수 있다. 이와 같이 급발진 정보 및 GPS 정보를 전송함으로써, 교통 관제 센터나 타 차량이 차량(100)의 급발진 상태 및 차량의 위치를 신속하게 파악할 수 있는 장점이 있다.
프로세서(270)는, 차량(100)에 급발진이 발생한 것으로 판단되는 경우, 외부 디바이스(370, 380, 390)에 카메라(221)를 통해 획득되는 영상 데이터를 전송할 수 있다. 이때, 영상 데이터는, 카메라(221)가 획득한 실시간 영상 데이터일 수 있다. 또는, 영상 데이터는, 급발진 판단 시점부터, 메모리(230)에 저장된 영상 데이터일 수 있다.
한편, 프로세서(270)는, 통신부(210)를 통해, 주변 차량에서 촬영된 영상 데이터를 수신할 수 있다.
프로세서(270)는, 타 차량(390)의 영상을 컴퓨터 처리할 수 있다. 구체적으로, 프로세서(270)는, 타 차량(390)의 영상에서 자 차량(100)을 검출할 수 있다. 프로세서(270)는 영상 처리를 통해 검출된 자차량(100)의 상태를 파악할 수 있다.
예를 들면, 프로세서(270)는, 자 차량(100)에 후행하는 타 차량(390)으로부터 자 차량(100)을 촬영한 영상을 통신부(210)를 통해 수신할 수 있다. 프로세서(270)는 수신된 영상에서, 자 차량(100) 제동등(312)의 점멸 여부를 검출할 수 있다. 프로세서(270)는, 수신된 영상 중, 자 차량(100) 제동등(312)이 위치하는 영역의 색 또는 밝기 분석을 통해, 제동등의 점멸 여부를 검출할 수 있다.
프로세서(270)는, 제동등(312)이 온(on) 된 상태에서, 주행 속도가 증가하는 경우, 급발진이 발생된 것으로 판단할 수 있다. 여기서, 주행 속도는 오브젝트 감지부(220)에서 검출된 오브젝트를 기초로 검출될 수 있다. 또는, 주행 속도는 타 차량(390)으로부터 수신된 영상에서 검출된 자 차량(100)과 타 차량(390)과 상대 속도 및 타 차량(390)의 주행 속도를 기초로 검출될 수 있다.
프로세서(270)는 수신된 영상에서, 타이어와 노면의 마찰에 의한 연기를 검출할 수 있다. 프로세서(270)는, 상기 연기가 검출되는 경우, 급발진이 발생된 것으로 판단할 수 있다.
프로세서(270)는, 프로세서(270)는, 차량(100)이 급발진 상태로 판단되는 경우, 차량(100)에 제공되는 동력을 차단하는 제어 신호를 제공할 수 있다. 또한, 프로세서(270)는, 급발진이 발생한 것으로 판단되는 경우, 외부 디바이스(370, 380, 390)에 급발진 정보를 전송할 수 있다
한편, 프로세서(270)는, 통신부(210)를 통해, 외부 디바이스(380, 390)로부터 외부 제어 신호를 제공받을 수 있다. 여기서, 외부 디바이스(380, 390)는 교통 관제 서버(380) 또는 자 차량(100) 주변에 위치하는 타 차량(390)일 수 있다. 프로세서(270)는, 급발진이 발생하는 것으로 판단되는 경우, 수신된 외부 제어 신호에 따라 동력 차단 제어 신호를 제공할 수 있다.
한편, 교통 관제 센터에 위치하는 교통 관제 서버(380)는, 타 차량(390)으로부터 영상 정보를 수신할 수 있다. 이때, 영상 정보는, 자 차량(100)의 급발진을 판단할 수 있는 정보가 포함될 수 있다. 교통 관제 서버(380)는, 자 차량(100)의 급발진 발생 여부를 판단하고, 급발진으로 판단되는 경우, 자 차량(100)에 외부 제어 신호를 제공할 수 있다. 여기서, 외부 제어 신호는, 자 차량(100)의 동력 차단을 위한 제어 신호일 수 있다. 즉, 외부 제어 신호는, 타 차량(390)으로부터 영상 정보를 수신하는 교통 관제 서버(380)로부터 생성되는 제어 신호일 수 있다.
한편, 급발진이 발생한 상태에서, 오브젝트 감지부(220)는, 오브젝트와의 충돌을 감지할 수 있다. 여기서, 오브젝트는, 선행하는 타 차량(390), 도로 주변에 배치되는 구조물 또는 보행자 등일 수 있다.
프로세서(270)는, 급발진이 발생한 상태에서, 오브젝트와의 충돌이 검출되는 경우, 스티어링을 제어, 서스펜션을 제어, 또는 에어백 제어 신호를 차량 구동부(150)에 제공할 수 있다.
예를 들면, 프로세서(270)는, 급발진 발생이 판단된 상태에서, 오브젝트와의 충돌이 검출되는 경우, 범퍼를 통해 상기 오브젝트와의 정면 충돌이 유도되도록, 스티어링 제어 신호를 조향 구동부(152)에 제공하거나 서스펜션 제어 신호를 서스펜션 구동부(159)에 제공하는 차량 보조 장치.
예를 들면, 프로세서(270)는, 급발진 발생이 판단된 상태에서, 오브젝트와의 충돌이 검출되는 경우, 에어백 전개 신호를 에어백 구동부(157)에 제공할 수 있다.
한편, 프로세서(270)는 ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
인터페이스부(280)는, 데이터를 수신하거나, 프로세서(270)에서 처리 또는 생성된 신호를 외부로 전송할 수 있다. 이를 위해, 인터페이스부(280)는, 유선 통신 또는 무선 통신 방식에 의해, 차량 내부의 센싱부(125), 제어부(170), 차량 구동부(150) 및 디스플레이 장치(350) 등과 데이터 통신을 수행할 수 있다.
인터페이스부(280)는, 제어부(170) 또는 센싱부(125)로부터, 센서 정보를 수신할 수 있다.
여기서, 센서 정보는, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차속 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 가속 페달에 가해지는 압력 정보, 브레이크 페달에 가해지는 압력 정보 중 적어도 하나를 포함할 수 있다.
이러한 센서 정보는, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 휠 센서(wheel sensor), 차량 속도 센서, 차체 경사 감지센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 가속 페달 포지션 센서, 브레이크 페달 포지션 센서 등으로부터 획득될 수 있다.
한편, 센서 정보 중, 차량 주행과 관련한, 차량 방향 정보, 차량 위치 정보, 차량 각도 정보, 차량 속도 정보, 차량 기울기 정보 등을 차량 주행 정보라 명명할 수 있다.
한편, 인터페이스부(280)는, 제동등(312)으로부터 제동등의 점멸 상태 정보를 수신할 수 있다. 구체적으로, 인터페이스부(280)는, 제동등(312)의 전류 센서(도 7의 720)에서 감지된 유입 전류 정보를 수신할 수 있다.
한편, 인터페이스부(280)는, 가속 페달 포지션 센서 또는 브레이크 페달 포지션 센서로부터 가속 페달 또는 브레이크 페달의 페달링 정보를 수신할 수 있다.
한편, 인터페이스부(280)는, 프로세서(270)에서 생성된 신호를 제어부(170), 차량 구동부(150) 또는 디스플레이 장치(350)로 전송할 수 있다.
예를 들면, 인터페이스부(280)는, 동력원 구동부(도 1b의 151)에 차량(100)에 제공되는 동력 차단을 위한 신호를 제공할 수 있다.
전원 공급부(290)는, 프로세서(270)의 제어에 의해, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(290)는, 차량 내부의 배터리 등으로부터 전원을 공급받을 수 있다.
도 4는 본 발명의 제1 실시예에 따른 차량 보조 장치의 프로세서 내부 블럭도이다.
도 4를 참조하면, 프로세서(270)는, 주행 속도 검출부(271), 판단부(272), 신호 제공부(273) 및 정보 제공부(274)를 포함할 수 있다.
주행 속도 검출부(271)는, 차량(100)의 주행 속도를 검출할 수 있다.
주행 속도 검출부(271)는, 검출된 오브젝트와의 거리 및 상대 속도를 산출할 수 있다.
예를 들면, 주행 속도 검출부(271)는, 모노 카메라(221a)를 통해 지속적으로 획득되는 영상에서 검출된 오브젝트의 시간에 따른 크기의 변화를 기초로, 차량(100)과 오브젝트와의 거리, 오브젝트와의 상대 속도를 검출할 수 있다.
예를 들면, 주행 속도 검출부(271)는, 스테레오 카메라(221b)를 통해 획득되는 스테레오 영상에서 검출된 디스패러티(disparity) 차이를 이용하여, 오브젝트와의 거리, 오브젝트와의 상대 속도를 검출할 수 있다.
예를 들면, 주행 속도 검출부(271)는, 레이더(223), 라이더(224) 또는 초음파 센서(225)에서 검출되는 오브젝트에 의한 TOF(Time of Flight)를 기초로, 오브젝트와의 거리, 검출된 오브젝트와의 상대 속도를 검출할 수 있다.
오브젝트가 정지해 있는 물체(예를 들면, 가로수, 가로등, 신호등, 교통 표지판 등)인 경우, 주행 속도 검출부(271)는, 오브젝트와의 상대 속도를 기초로, 차량(100)의 주행 속도를 검출할 수 있다.
판단부(272)는, 급발진 발생 여부를 판단할 수 있다.
판단부(272)는, 제동등(312)의 전류 센서(도 7의 720)으로부터, 배터리에서 제동등(312)에 유입되는 전류 정보를 수신할 수 있다.
판단부(272)는, 광센서(250)로부터 제동등(312)의 점멸 상태 정보를 수신할 수 있다.
판단부(272)는, 제동등(312)이 온(on) 된 상태에서, 주행 속도가 증가하는 경우, 급발진이 발생된 것으로 판단할 수 있다.
판단부(272)는, 가속 페달 포지션 센서(125b) 또는 브레이크 페달 포지션 센서(125a)로부터, 가속 페달 또는 브레이크 페달의 페달링 정보를 수신할 수 있다.
또는, 판단부(272)는, 가속 페달에 압력이 가해지지 않은 상태에서, 차량(100)이 가속하는 경우, 차량(100)에 급발진이 발생한 것으로 판단할 수 있다.
또는, 판단부(272)는, 브레이크 페달에 압력이 가해진 상태에서, 차량(100)이 가속하는 경우, 차량(100)에 급발진이 발생한 것으로 판단할 수 있다.
신호 제공부(273)는, 급발진이 발생한 것으로 판단되는 경우, 차량(100)에 제공되는 동력을 차단하는 제어 신호를 제공할 수 있다.
예를 들면, 차량(100)이 내여 기관 차량인 경우, 신호 제공부(273)는, 동력 차단 제어 신호를, 스로틀 바디(throttle body)에 제공할 수 있다. 여기서, 동력 차단 제어 신호는, 스로틀 밸브(throttle valve)를 클로즈(close) 상태로 전환하여, 퓨얼 컷(fuel cut)을 하는 제어 신호일 수 있다.
예를 들면, 차량(100)이 전기 자동차인 경우, 신호 제공부(273)는, 동력 차단 제어 신호를 모터 제어부에 제공할 수 있다. 여기서, 동력 차단 제어 신호는, 모터로부터 제공받는 구동력을 차단하는 제어 신호일 수 있다.
정보 제공부(274)는, 급발진이 발생한 것으로 판단되는 경우, 외부 디바이스(370, 380, 390)에 급발진 정보를 전송할 수 있다.
정보 제공부(274)는, 외부 디바이스(370, 380, 390)에 급발진 정보 전송시, 차량(100)의 GPS 정보를 같이 전송할 수 있다.
정보 제공부(274)는, 차량(100)에 급발진이 발생한 것으로 판단되는 경우, 외부 디바이스(370, 380, 390)에 카메라(221)를 통해 획득되는 영상 데이터를 전송할 수 있다. 이때, 영상 데이터는, 카메라(221)가 획득한 실시간 영상 데이터일 수 있다. 또는, 영상 데이터는, 급발진 판단 시점부터, 메모리(230)에 저장된 영상 데이터일 수 있다.
도 5는 본 발명의 제1 실시예에 따른 차량 보조 장치의 동작을 설명하는데 참조되는 플로우 차트이다.
도 5를 참조하면, 프로세서(270)는 오브젝트 감지부(220)에서 검출된 오브젝트를 기초로 주행 속도를 검출할 수 있다(S510).
프로세서(270)는, 검출된 오브젝트와의 거리 및 상대 속도를 산출할 수 있다. 또는 프로세서(270)는, 오브젝트 감지부로부터, 오브젝트와의 거리 및 상대 속도 정보를 수신할 수 있다.
예를 들면, 프로세서(270)는, 모노 카메라(221a)를 통해 지속적으로 획득되는 영상에서 검출된 오브젝트의 시간에 따른 크기의 변화를 기초로, 차량(100)과 오브젝트와의 거리, 오브젝트와의 상대 속도를 검출할 수 있다.
예를 들면, 프로세서(270)는, 스테레오 카메라(221b)를 통해 획득되는 스테레오 영상에서 검출된 디스패러티(disparity) 차이를 이용하여, 오브젝트와의 거리, 오브젝트와의 상대 속도를 검출할 수 있다.
예를 들면, 프로세서(270)는, 레이더(223), 라이더(224) 또는 초음파 센서(225)에서 검출되는 오브젝트에 의한 TOF(Time of Flight)를 기초로, 오브젝트와의 거리, 검출된 오브젝트와의 상대 속도를 검출할 수 있다.
오브젝트가 정지해 있는 물체(예를 들면, 가로수, 가로등, 신호등, 교통 표지판 등)인 경우, 프로세서(270)는, 오브젝트와의 상대 속도를 기초로, 차량(100)의 주행 속도를 검출할 수 있다.
프로세서(270)는, 제동등(312)의 온(on) 또는 오프(off) 정보를 수신할 수 있다(S520).
프로세서(270)는, 제동등(312)의 전류 센서(도 7의 720)으로부터, 배터리에서 제동등(312)에 유입되는 전류 정보를 수신할 수 있다. 프로세서(270)는, 제동등(312)에 기준값 이상의 전류가 유입되는 경우, 제동등(312)이 점등되는 것으로 판단할 수 있다.
프로세서(270)는, 주행 속도 및 제동등 점멸 상태 정보를 기초로 급발진 여부를 판단할 수 있다(S530). 여기서, 제동등 점멸 상태 정보는, 제동등의 전류 센서(도 7의 720) 또는 광센서(250)에서 수신된 정보에 기초할 수 있다.
구체적으로, 프로세서(270)는, 제동등(312)이 온(on) 된 상태에서, 주행 속도가 증가하는 경우, 급발진이 발생된 것으로 판단할 수 있다.
프로세서(270)는, 차량(100)이 급발진이 발생한 것으로 판단되는 경우, 차량(100)에 제공되는 동력을 차단하는 제어 신호를 제공할 수 있다(S540).
예를 들면, 차량(100)이 내여 기관 차량인 경우, 프로세서(270)는, 동력 차단 제어 신호를, 스로틀 바디(throttle body)에 제공할 수 있다. 여기서, 동력 차단 제어 신호는, 스로틀 밸브(throttle valve)를 클로즈(close) 상태로 전환하여, 퓨얼 컷(fuel cut)을 하는 제어 신호일 수 있다.
예를 들면, 차량(100)이 전기 자동차인 경우, 프로세서(270)는, 동력 차단 제어 신호를 모터 제어부에 제공할 수 있다. 여기서, 동력 차단 제어 신호는, 모터로부터 제공받는 구동력을 차단하는 제어 신호일 수 있다.
프로세서(270)는, 급발진이 발생한 것으로 판단되는 경우, 외부 디바이스(370, 380, 390)에 급발진 정보를 전송할 수 있다(S550). 여기서, 외부 디바이스는, 이동 단말기(370), 외부 서버(380), 타 차량(390)일 수 있다. 외부 서버(380)는 교통 관제 서버일 수 있다.
프로세서(270)는, 외부 디바이스(370, 380, 390)에 급발진 정보 전송시, 차량(100)의 GPS 정보를 같이 전송할 수 있다.
프로세서(270)는, 차량(100)에 급발진이 발생한 것으로 판단되는 경우, 외부 디바이스(370, 380, 390)에 카메라(221)를 통해 획득되는 영상 데이터를 전송할 수 있다. 이때, 영상 데이터는, 카메라(221)가 획득한 실시간 영상 데이터일 수 있다. 또는, 영상 데이터는, 급발진 판단 시점부터, 메모리(230)에 저장된 영상 데이터일 수 있다.
도 6은 본 발명의 실시예에 따라, 차량의 주행 속도를 검출하는 동작을 설명하는데 참조되는 도면이다.
도 6을 참조하면, 카메라(221)는, 차량 전방 영상을 획득할 수 있다.
프로세서(270)는, 획득된 영상에서 오브젝트를 검출하고, 검출된 오브젝트를 트래킹할 수 있다. 여기서, 오브젝트는, 타 차량(610), 보행자(620), 신호등(630), 교통 표지판(640), 가로수(650) 또는 가로등(660)일 수 있다.
프로세서(270)는, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다.
카메라(221)가 모노 카메라(221a)인 경우, 프로세서(270)는, 지속적으로 획득되는 영상에서 검출된 오브젝트를 트래킹할 수 있다. 차량(100)이 주행함에 따라, 획득되는 영상에서 오브젝트의 크기는 변할 수 있다. 즉, 차량(100)과 오브젝트와의 상대 거리의 변화에 따라 오브젝트의 크기는 변할 수 있다. 이경우, 프로세서(270)는, 검출된 오브젝트의 시간에 따른 크기의 변화를 기초로, 차량(100)과 오브젝트와의 거리를 검출할 수 있다. 프로세서(270)는, 단위 시간당 오브젝트와의 거리를 기초로 오브젝트와의 상대 속도를 검출할 수 있다.
카메라(221)가 스테레오 카메라(221b)인 경우, 프로세서(270)는, 스테레오 영상에서 스테레오 카메라 간의 이격에 따른 디스패러티를 검출할 수 있다. 프로세서(270)는, 검출된 디스패러티(disparity)를 이용하여, 오브젝트와의 거리를 검출할 수 있다. 프로세서(270)는, 단위 시간당 오브젝트와의 거리를 기초로 오브젝트와의 상대 속도를 검출할 수 있다.
한편, 오브젝트는 정지해 있는 고정물일 수 있다. 예를 들면, 오브젝트는, 신호등(630), 교통 표지판(640), 가로수(650) 또는 가로등(660)일 수 있다. 이경우, 프로세서(270)는, 오브젝트와의 상대 속도를 기초로, 차량(100)의 주행 속도를 검출할 수 있다. 오브젝트가 정지해 있기 때문에, 오브젝트와의 상대 속도는 차량(100)의 주행 속도로 환산될 수 있다.
도 7은 본 발명의 실시예에 따라, 제동등의 점멸 상태를 파악하는 동작을 설명하는데 참조되는 도면이다.
도 7을 참조하면, 제동등(312)은, 광출력부(715) 및 전류 센서(720)를 포함할 수 있다.
광출력부(715)는, 배터리(710)로부터 전기 에너지를 전달 받아 광(730)을 출력할 수 있다.
전류 센서(720)는 배터리(710)에서 광출력부(715)로 흐르는 전류(711)를 감지할 수 있다.
차량 보조 장치(200)는, 전류 센서(720)로부터 제동등(312), 특히, 광출력부(715)에 유입되는 전류(711)에 대한 정보를 수신할 수 있다. 즉, 차량 보조 장치(200)는, 광출력부(715)에 유입되는 전류(711)의 유무에 대한 정보를 수신할 수 있다.
한편, 차량 보조 장치(200)에 포함되는 광센서(240)는, 제동등(312), 특히, 광출력부(715)에서 출력되는 광(730)을 센싱할 수 있다. 여기서, 광(730)은 붉은색일 수 있다.
도 8은 본 발명의 실시예에 따라, 급발진시 스로틀 바디를 제어하는 동작을 설명하는데 참조되는 도면이다.
도 8을 참조하면, 차량 보조 장치(200)는, 급발진 판단의 경우, 차량(100)의 제어부(170)에 테스트 신호를 전송할 수 있다. 차량 보조 장치(200)는, 테스트 신호에 대응되는 리턴 신호를 수신하여 제어부(170) 오작동 여부를 판단할 수 있다. 제어부(170)가 오작동하는 경우, 차량 보조 장치(200)는, 차량(100)의 상태를, 최종적으로, 급발진 상태로 판단할 수 있다.
여기서, 테스트 신호와 리턴 신호는 미리 약속되어 있을 수 있다. 예를 들어, 차량 보조 장치(200)는, 1 내지 10 중 어느 하나의 숫자를 테스트 신호로 제어부(170)로 전송한다. 이후, 차량 보조 장치(200)는, 전송한 숫자에 5를 곱한 숫자를 리턴 신호로 수신할 수 있다. 이때, 전송한 숫자에 5를 곱하는 리턴 신호는 미리 약속되어 있다. 만약, 미리 약속된 리턴 신호가 수신되지 않는 경우, 차량 보조 장치(200)는, 제어부(170)가 오작동하는 것으로 판단할 수 있다.
이와 같이, 급발진 판단시, 제어부(170)의 오작동 여부 판단 과정을 더 부여함으로써, 급발진 판단에 대한 신뢰도를 높일 수 있다.
차량 보조 장치(200)는, 급발진이 발생한 것으로 판단되는 경우, 차량(100)에 제공되는 동력을 차단하는 제어 신호를 제공할 수 있다. 여기서, 제어 신호는 동력원 구동부(151)에 전달될 수 있다.
예를 들면, 차량(100)이 내여 기관 차량인 경우, 프로세서(270)는, 동력 차단 제어 신호를, 스로틀 바디(throttle body)(810)에 제공할 수 있다. 여기서, 동력 차단 제어 신호는, 스로틀 밸브(throttle valve)를 클로즈(close) 상태로 전환하여, 퓨얼 컷(fuel cut)을 하는 제어 신호일 수 있다.
제어부(170)가 오작동 상태인 경우, 제어부(170)에서 스로틀 바디(810)로 제어 신호를 적절하게 전송할 수 없다. 이경우, 차량 보조 장치(200)에서 스로틀 바디(810)로 퓨얼 컷 제어 신호를 전송할 수 있다. 이때, 차량(100)은 정지하고, 급발진으로 인한 큰 사고를 예방할 수 있다.
도 9는 본 발명의 실시예에 따라, 급발진시 외부 디바이스에 급발진 정보를 전송하는 동작을 설명하는데 참조되는 도면이다.
도 9를 참조하면, 차량(100)에 급발진이 발생한 경우, 차량 보조 장치(200)는 통신부(210)를 통해, 외부 디바이스(370, 380, 390)에 급발진 발생 정보를 전송할 수 있다.
구체적으로, 차량 보조 장치(200)는, V2V 통신을 통해, 자 차량(100) 주변에 위치하는 타 차량(390a, 390b, 390c)에 급발진 발생 정보를 전송할 수 있다.
또한, 차량 보조 장치(200)는, V2I 통신을 통해, V2I 기지국(910)을 거쳐, 외부 서버(380a, 380b, 380c)에 급발진 발생 정보를 전송할 수 있다. 여기서, 외부 서버(380a, 380b, 380c)는, 병원(923), 경찰서(922), 교통 관제 센터(921)에 위치하는 서버일 수 있다.
한편, 차량 보조 장치(200)는, 외부 디바이스(370, 380, 390)에 급발진 정보 전송시, 차량(100)의 GPS 정보를 같이 전송할 수 있다.
차량 보조 장치(200)는, 외부 디바이스(370, 380, 390)에 급발진 정보 전송시, 카메라(221)를 통해 획득되는 영상 데이터를 전송할 수 있다.
도 10은 본 발명의 제2 실시예에 다른 차량 보조 장치 프로세서의 내부 블럭도이다.
도 10을 참조하면, 프로세서(270)는, 주행 속도 검출부(271), 외부 영상 처리부(279), 판단부(272), 신호 제공부(273) 및 정보 제공부(274)를 포함할 수 있다.
주행 속도 검출부(271)는, 차량(100)의 주행 속도를 검출할 수 있다.
주행 속도 검출부(271)는, 검출된 오브젝트와의 거리 및 상대 속도를 산출할 수 있다.
예를 들면, 주행 속도 검출부(271)는, 모노 카메라(221a)를 통해 지속적으로 획득되는 영상에서 검출된 오브젝트의 시간에 따른 크기의 변화를 기초로, 차량(100)과 오브젝트와의 거리, 오브젝트와의 상대 속도를 검출할 수 있다.
예를 들면, 주행 속도 검출부(271)는, 스테레오 카메라(221b)를 통해 획득되는 스테레오 영상에서 검출된 디스패러티(disparity) 차이를 이용하여, 오브젝트와의 거리, 오브젝트와의 상대 속도를 검출할 수 있다.
예를 들면, 주행 속도 검출부(271)는, 레이더(223), 라이더(224) 또는 초음파 센서(225)에서 검출되는 오브젝트에 의한 TOF(Time of Flight)를 기초로, 오브젝트와의 거리, 검출된 오브젝트와의 상대 속도를 검출할 수 있다.
오브젝트가 정지해 있는 물체(예를 들면, 가로수, 가로등, 신호등, 교통 표지판 등)인 경우, 주행 속도 검출부(271)는, 오브젝트와의 상대 속도를 기초로, 차량(100)의 주행 속도를 검출할 수 있다.
외부 영상 처리부(279)는, 자 차량(100) 주변에 위치한 타 차량(390)으로부터 수신되는 영상 정보를 컴퓨터 처리할 수 있다.
구체적으로, 외부 영상 처리부(279)는, 타 차량(390)의 영상에서 자 차량(100)을 검출할 수 있다. 외부 영상 처리부(279)는 영상 처리를 통해 검출된 자차량(100)의 상태를 파악할 수 있다.
예를 들면, 외부 영상 처리부(279)는, 자 차량(100)에 후행하는 타 차량(390)으로부터 자 차량(100)을 촬영한 영상을 통신부(210)를 통해 수신할 수 있다. 외부 영상 처리부(279)는 수신된 영상에서, 자 차량(100) 제동등(312)의 점멸 여부를 검출할 수 있다. 외부 영상 처리부(279)는, 수신된 영상 중, 자 차량(100) 제동등(312)이 위치하는 영역의 색 또는 밝기 분석을 통해, 제동등의 점멸 여부를 검출할 수 있다.
외부 영상 처리부(279)는 수신된 영상에서, 타이어와 노면의 마찰에 의한 연기를 검출할 수 있다.
판단부(272)는, 급발진 발생 여부를 판단할 수 있다.
판단부(272)는, 제동등(312)이 온(on) 된 상태에서, 주행 속도가 증가하는 경우, 급발진이 발생된 것으로 판단할 수 있다.
판단부(272)는, 수신된 영상에서, 타이어와 노면의 마찰에 의한 연기가 검출되는 경우, 급발진이 발생된 것으로 판단할 수 있다.
신호 제공부(273)는, 급발진이 발생한 것으로 판단되는 경우, 차량(100)에 제공되는 동력을 차단하는 제어 신호를 제공할 수 있다.
예를 들면, 차량(100)이 내여 기관 차량인 경우, 신호 제공부(273)는, 동력 차단 제어 신호를, 스로틀 바디(throttle body)에 제공할 수 있다. 여기서, 동력 차단 제어 신호는, 스로틀 밸브(throttle valve)를 클로즈(close) 상태로 전환하여, 퓨얼 컷(fuel cut)을 하는 제어 신호일 수 있다.
예를 들면, 차량(100)이 전기 자동차인 경우, 신호 제공부(273)는, 동력 차단 제어 신호를 모터 제어부에 제공할 수 있다. 여기서, 동력 차단 제어 신호는, 모터로부터 제공받는 구동력을 차단하는 제어 신호일 수 있다.
정보 제공부(274)는, 급발진이 발생한 것으로 판단되는 경우, 외부 디바이스(370, 380, 390)에 급발진 정보를 전송할 수 있다.
정보 제공부(274)는, 외부 디바이스(370, 380, 390)에 급발진 정보 전송시, 차량(100)의 GPS 정보를 같이 전송할 수 있다.
정보 제공부(274)는, 차량(100)에 급발진이 발생한 것으로 판단되는 경우, 외부 디바이스(370, 380, 390)에 카메라(221)를 통해 획득되는 영상 데이터를 전송할 수 있다. 이때, 영상 데이터는, 카메라(221)가 획득한 실시간 영상 데이터일 수 있다. 또는, 영상 데이터는, 급발진 판단 시점부터, 메모리(230)에 저장된 영상 데이터일 수 있다.
도 11은 본 발명의 제2 실시예에 따른 차량 보조 장치의 동작을 설명하는데 참조되는 플로우 차트이다.
도 11을 참조하면, 프로세서(270)는 오브젝트 감지부(220)에서 검출된 오브젝트를 기초로 주행 속도를 검출할 수 있다(S1110).
프로세서(270)는, 검출된 오브젝트와의 거리 및 상대 속도를 산출할 수 있다. 또는 프로세서(270)는, 오브젝트 감지부로부터, 오브젝트와의 거리 및 상대 속도 정보를 수신할 수 있다.
예를 들면, 프로세서(270)는, 모노 카메라(221a)를 통해 지속적으로 획득되는 영상에서 검출된 오브젝트의 시간에 따른 크기의 변화를 기초로, 차량(100)과 오브젝트와의 거리, 오브젝트와의 상대 속도를 검출할 수 있다.
예를 들면, 프로세서(270)는, 스테레오 카메라(221b)를 통해 획득되는 스테레오 영상에서 검출된 디스패러티(disparity) 차이를 이용하여, 오브젝트와의 거리, 오브젝트와의 상대 속도를 검출할 수 있다.
예를 들면, 프로세서(270)는, 레이더(223), 라이더(224) 또는 초음파 센서(225)에서 검출되는 오브젝트에 의한 TOF(Time of Flight)를 기초로, 오브젝트와의 거리, 검출된 오브젝트와의 상대 속도를 검출할 수 있다.
오브젝트가 정지해 있는 물체(예를 들면, 가로수, 가로등, 신호등, 교통 표지판 등)인 경우, 프로세서(270)는, 오브젝트와의 상대 속도를 기초로, 차량(100)의 주행 속도를 검출할 수 있다.
프로세서(270)는, 통신부(210)를 통해, 자 차량(100) 주변에 위치하는 타 차량(390)의 영상 정보를 수신할 수 있다(S1120).
프로세서(270)는, 타 차량(390)의 영상을 컴퓨터 처리할 수 있다. 구체적으로, 프로세서(270)는, 타 차량(390)의 영상에서 자 차량(100)을 검출할 수 있다. 프로세서(270)는 영상 처리를 통해 검출된 자차량(100)의 상태를 파악할 수 있다.
예를 들면, 프로세서(270)는, 자 차량(100)에 후행하는 타 차량(390)으로부터 자 차량(100)을 촬영한 영상을 통신부(210)를 통해 수신할 수 있다. 프로세서(270)는 수신된 영상에서, 자 차량(100) 제동등(312)의 점멸 여부를 검출할 수 있다. 프로세서(270)는, 수신된 영상 중, 자 차량(100) 제동등(312)이 위치하는 영역의 색 또는 밝기 분석을 통해, 제동등의 점멸 여부를 검출할 수 있다.
프로세서(270)는 수신된 영상에서, 타이어와 노면의 마찰에 의한 연기를 검출할 수 있다.
프로세서(270)는, 주행 속도 및 영상 정보를 기초로 급발진 여부를 판단할 수 있다(S1130).
구체적으로, 프로세서(270)는, 제동등(312)이 온(on) 된 상태에서, 주행 속도가 증가하는 경우, 급발진이 발생된 것으로 판단할 수 있다.
프로세서(270)는, 수신된 영상에서, 타이어와 노면의 마찰에 의한 연기가 검출되는 경우, 급발진이 발생된 것으로 판단할 수 있다.
프로세서(270)는, 차량(100)이 급발진이 발생한 것으로 판단되는 경우, 차량(100)에 제공되는 동력을 차단하는 제어 신호를 제공할 수 있다(S1140).
예를 들면, 차량(100)이 내여 기관 차량인 경우, 프로세서(270)는, 동력 차단 제어 신호를, 스로틀 바디(throttle body)에 제공할 수 있다. 여기서, 동력 차단 제어 신호는, 스로틀 밸브(throttle valve)를 클로즈(close) 상태로 전환하여, 퓨얼 컷(fuel cut)을 하는 제어 신호일 수 있다.
예를 들면, 차량(100)이 전기 자동차인 경우, 프로세서(270)는, 동력 차단 제어 신호를 모터 제어부에 제공할 수 있다. 여기서, 동력 차단 제어 신호는, 모터로부터 제공받는 구동력을 차단하는 제어 신호일 수 있다.
프로세서(270)는, 급발진이 발생한 것으로 판단되는 경우, 외부 디바이스(370, 380, 390)에 급발진 정보를 전송할 수 있다(S1150). 여기서, 외부 디바이스는, 이동 단말기(370), 외부 서버(380), 타 차량(390)일 수 있다. 외부 서버(380)는 교통 관제 서버일 수 있다.
프로세서(270)는, 외부 디바이스(370, 380, 390)에 급발진 정보 전송시, 차량(100)의 GPS 정보를 같이 전송할 수 있다.
프로세서(270)는, 차량(100)에 급발진이 발생한 것으로 판단되는 경우, 외부 디바이스(370, 380, 390)에 카메라(221)를 통해 획득되는 영상 데이터를 전송할 수 있다. 이때, 영상 데이터는, 카메라(221)가 획득한 실시간 영상 데이터일 수 있다. 또는, 영상 데이터는, 급발진 판단 시점부터, 메모리(230)에 저장된 영상 데이터일 수 있다.
도 12는 본 발명의 실시예에 따라, 타 차량으르부터 영상 정보를 수신하는 동작을 설명하는데 참조되는 도면이다.
도 12를 참조하면, 차량 보조 장치(200)는 후행하는 타 차량(390)로부터 영상 데이터를, 통신부(210)를 통해, 수신할 수 있다. 이때, 후행하는 타 차량(390)으로부터 수신되는 영상 데이터는 자 차량(100)이 포함된 영상일 수 있다.
차량 보조 장치(200)는 수신되는 영상을 컴퓨터 처리하여 자 차량(100) 제동등(312)의 점멸 상태를 검출할 수 있다. 차량 보조 장치(200)는, 수신된 영상 중, 자 차량(100) 제동등(312)이 위치하는 영역의 색 또는 밝기 분석을 통해, 제동등의 점멸 여부를 검출할 수 있다. 차량 보조 장치(200)는, 제동등(312)이 온(on) 된 상태에서, 주행 속도가 증가하는 경우, 급발진이 발생된 것으로 판단할 수 있다.
여기서 주행 속도는, 오브젝트 감지부(220)에서 검출된 오브젝트를 기초로 검출될 수 있다. 또는, 주행 속도는 타 차량(390)으로부터 수신된 영상에서 검출된 자 차량(100)과 타 차량(390)과 상대 속도 및 타 차량(390)의 주행 속도를 기초로 검출될 수 있다.
또한, 차량 보조 장치(200)는, 수신된 영상에서, 타이어와 노면의 마찰에 의한 연기를 검출할 수 있다. 차량 보조 장치(200)는, 상기 연기가 검출되는 경우, 급발진이 발생된 것으로 판단할 수 있다.
한편, 교통 관제 센터에 위치하는 교통 관제 서버(380)는, 타 차량(390)으로부터 영상 정보를 수신할 수 있다. 이때, 영상 정보는, 자 차량(100)의 급발진을 판단할 수 있는 정보가 포함될 수 있다. 교통 관제 서버(380)는, 자 차량(100)의 급발진 발생 여부를 판단하고, 급발진으로 판단되는 경우, 자 차량(100)에 외부 제어 신호를 제공할 수 있다. 여기서, 외부 제어 신호는, 자 차량(100)의 동력 차단을 위한 제어 신호일 수 있다.
도 13 내지 도 15는 본 발명의 실시예에 따라 급발진을 판단하는 동작을 설명하는데 참조되는 도면이다.
도 13을 참조하면, 자 차량(100)에 후행하는 타 차량(390)이 획득한 영상에는 자 차량 이미지(100i)가 포함될 수 있다.
차량 보조 장치(200)는 자 차량 이미지(100i)가 포함된 영상(1310)을 타 차량(390)으로부터 수신할 수 있다. 차량 보조 장치(200)의 프로세서(270)는, 영상(1310)에서 제동등의 온(on)/오프(off) 여부를 검출할 수 있다. 프로세서(270)는, 수신된 영상 중, 자 차량(100) 제동등(312)이 위치하는 영역(730i)의 색 또는 밝기 분석을 통해, 제동등의 점멸 여부를 검출할 수 있다.
한편, 차량 보조 장치(200)의 프로세서(270)는, 영상(1310)에서 자 차량 이미지(100i)를 기초로 자 차량(100)의 주행 속도를 검출할 수 있다.
구체적으로, 영상(1310)이 모노 이미지인 경우, 시간의 흐름에 따른 자 차량 이미지(100i) 크기의 변화를 기초로 자 차량(100)의 주행 속도를 검출할 수 있다.
또는, 영상(1310)이 스테레오 이미지인 경우, 디스패러티(disparity) 차이를 이용하여, 자 차량(100)의 주행 속도를 검출할 수 있다.
도 14를 참조하면, 자 차량(100)에 후행하는 타 차량(390)이 획득한 영상에는 자 차량(100)의 타이어와 노면의 마찰에 의한 연기 이미지(1410)가 포함될 수 있다.
도 15를 참조하면, 차량(100)은 초음파 센서(225)를 포함할 수 있다. 주행 차량의 속도에 따라, 초음파 센서(225)에서 인식되는 샘플링 개수가 다르다.
예를 들면, 차량(100)이 15km/h로 주행하는 경우, 초음파 센서(225)를 통해 입력 받는 데이터는 100개일 수 있다. 차량(100)이 30km/h로 주행하는 경우, 초음파 센서(225)를 통해 입력 받는 데이터는 50개로 줄어든다.
한편, 차량 보조 장치(200)는, 차량(100)의 가속 페달, 브레이크 페달, 엔진 RPM, 기어비 정보를 입력 받아, 차량의 속도를 계산할 수 있다. 차량 보조 장치(200)는, 계산된 차량 속도와 초음파 센서(225)에서 입력 받는 샘플링 데이터 개수를 비교할 수 있다. 차량의 속도에 비해 샘플링 데이터 개수가 현저히 적을 겅우, 차량 보조 장치(200)는 차량(100)이 오동작하는 것으로 판단할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는, 제어부(170) 또는 프로세서(270)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
100 : 차량
200 : 차량 보조 장치

Claims (20)

  1. 차량 주변 오브젝트를 검출하는 오브젝트 감지부;
    제동등에 유입되는 전류 정보를 수신하는 인터페이스부;
    외부 디바이스와 데이터를 교환하는 통신부; 및
    상기 검출된 오브젝트를 기초로 주행 속도를 검출하고,
    제동등의 전류 센서로부터, 배터리에서 상기 제동등으로 유입되는 전류 정보를 수신하고,
    상기 제동등에 전류가 공급되는 상황에서 주행 속도가 증가하는 경우, 급발진이 발생한 것으로 판단하고,
    급발진이 발생한 것으로 판단되는 경우, 동력 차단 제어 신호를 제공하고,
    급발진이 발생한 것으로 판단된 상태에서, 오브젝트와의 충돌이 검출되는 경우, 범퍼를 통해 오브젝트와의 충돌이 유도되도록, 스티어링 제어 신호를 제공하고,
    급발진이 발생한 것으로 판단되는 경우, 상기 외부 디바이스에, 차량의 GPS 정보, 급발진이 발생한 것으로 판단된 시점부터 저장된 영상 데이터 및 급발진 발생 정보를 전송하는 프로세서;를 포함하는 차량 보조 장치.
  2. 제 1항에 있어서,
    상기 오브젝트 감지부는 카메라를 포함하고,
    상기 프로세서는, 상기 카메라를 통해 감지된 오브젝트의 시간에 따른 크기의 변화를 기초로 상기 주행 속도를 검출하는 차량 보조 장치.
  3. 제 1항에 있어서,
    상기 오브젝트 감지부는, 스테레오 카메라를 포함하고,
    상기 프로세서는, 상기 스테레오 카메라를 통해 상기 오브젝트의 디스페러티를 기초로 상기 주행 속도를 검출하는 차량 보조 장치.
  4. 제 1항에 있어서,
    상기 오브젝트 감지부는, 레이더, 라이더 또는 초음파 센서를 포함하고,
    상기 프로세서는, 레이더, 라이더 또는 초음파 센서에서 검출되는 상기 오브젝트에 의한 TOF(Time of Flight)를 기초로 상기 주행 속도를 검출하는 차량 보조 장치.
  5. 삭제
  6. 제 1항에 있어서,
    상기 인터페이스부는, 가속 페달 또는 브레이크 페달의 페달링 정보를 수신하고,
    상기 프로세서는, 상기 가속 페달 또는 상기 브레이크 페달의 페달링 정보를 더 고려하여 급발진을 판단하는 차량 보조 장치.
  7. 제 1항에 있어서,
    상기 제동등의 점멸을 감지하는 광센서;를 더 포함하고,
    상기 프로세서는, 상기 광센서로부터 감지되는 상기 제동등의 점멸 여부를 더 고려하여 급발진을 판단하는 차량 보조 장치.
  8. 제 1항에 있어서,
    상기 제어 신호는,
    스로틀 밸브를 클로즈(close) 상태로 전환하는 신호인 차량 보조 장치.
  9. 제 1항에 있어서,
    상기 제어 신호는,
    모터에서 제공되는 구동력을 차단하는 신호인 차량 보조 장치.
  10. 제 1항에 있어서,
    상기 프로세서는, 급발진으로 판단되는 경우, 차량 제어부에 테스트 신호를 전송하고, 상기 테스트 신호에 대응되는 리턴 신호를 수신하여 상기 차량 제어부의 상태를 판단하는 차량 보조 장치.
  11. 삭제
  12. 삭제
  13. 삭제
  14. 차량 주변 오브젝트를 검출하는 오브젝트 감지부;
    주변 차량에서 획득한 영상을 수신하는 통신부; 및
    상기 검출된 오브젝트를 기초로 주행 속도를 검출하고,
    제동등이 켜진 상태에서, 주행 속도가 증가하는 경우, 급발진이 발생한 것으로 판단하고,
    급발진이 발생한 것으로 판단되는 경우, 구동력 차단 제어 신호를 제공하고,
    급발진이 발생한 것으로 판단된 상태에서, 오브젝트와의 충돌이 검출되는 경우, 범퍼를 통해 오브젝트와의 충돌이 유도되도록, 스티어링 제어 신호를 제공하고,
    급발진이 발생한 것으로 판단되는 경우, 외부 디바이스에, 차량의 GPS 정보, 급발진이 발생한 것으로 판단된 시점부터 저장된 영상 데이터 및 급발진 발생 정보를 전송하는 프로세서;를 포함하는 차량 보조 장치.
  15. 삭제
  16. 제 14항에 있어서,
    상기 프로세서는,
    상기 영상에서 검출된 타이어와 노면의 마찰에 의한 연기를 기초로 급발진 여부를 판단하는 차량 보조 장치.
  17. 제 14항에 있어서,
    상기 통신부는,
    외부 디바이스로부터 외부 제어 신호를 수신하고,
    상기 프로세서는, 급발진으로 판단되는 경우, 상기 외부 제어 신호에 따라 구동력 차단 제어 신호를 제공하는 차량 보조 장치.
  18. 제 17항에 있어서,
    상기 외부 디바이스는,
    타 차량 또는 교통 관제 서버인 차량 보조 장치.
  19. 제 17항에 있어서,
    상기 외부 제어 신호는, 타 차량으로부터 상기 영상 정보를 수신하는 교통 관제 서버로부터 생성되는 차량 보조 장치.
  20. 제 1항 내지 제 4항, 제 6항 내지 제 10항, 제14 항 및 제 16항 내지 제 19항 중 어느 하나의 항에 기재된 차량 보조 장치를 포함하는 차량.
KR1020150116919A 2015-08-19 2015-08-19 차량 보조 장치 및 차량 KR101945809B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020150116919A KR101945809B1 (ko) 2015-08-19 2015-08-19 차량 보조 장치 및 차량
PCT/KR2015/012097 WO2017030240A1 (ko) 2015-08-19 2015-11-11 차량 보조 장치 및 차량
US15/097,478 US9815467B2 (en) 2015-08-19 2016-04-13 Vehicle assistance apparatus and vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150116919A KR101945809B1 (ko) 2015-08-19 2015-08-19 차량 보조 장치 및 차량

Publications (2)

Publication Number Publication Date
KR20170022206A KR20170022206A (ko) 2017-03-02
KR101945809B1 true KR101945809B1 (ko) 2019-02-08

Family

ID=58051804

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150116919A KR101945809B1 (ko) 2015-08-19 2015-08-19 차량 보조 장치 및 차량

Country Status (3)

Country Link
US (1) US9815467B2 (ko)
KR (1) KR101945809B1 (ko)
WO (1) WO2017030240A1 (ko)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6281483B2 (ja) * 2014-04-17 2018-02-21 株式会社デンソー 故障検出システム、情報処理装置、及び車両搭載装置
CN105644444B (zh) * 2016-03-17 2018-02-06 京东方科技集团股份有限公司 一种车载显示系统
KR102561132B1 (ko) * 2016-09-21 2023-07-28 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
KR102348110B1 (ko) * 2017-03-02 2022-01-07 현대자동차주식회사 차량 크기 추정 장치, 그 방법 및 그를 포함한 차량 인지 시스템
US20180365400A1 (en) * 2017-06-19 2018-12-20 Brennan T. Lopez-Hinojosa Biometric authentication for connected vehicles including autonomous vehicles
US20190012625A1 (en) * 2017-07-05 2019-01-10 Panasonic Intellectual Property Management Co., Lt d. Autonomous vehicle/drive-through synchronization system and synchronization method
KR101985832B1 (ko) 2017-07-14 2019-06-04 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
KR102005245B1 (ko) * 2017-08-07 2019-07-31 (주)캠시스 전기 차량 충돌 방지 장치 및 방법
CN111566710A (zh) * 2017-12-26 2020-08-21 索尼公司 信号处理装置和方法以及程序
WO2020021694A1 (ja) * 2018-07-27 2020-01-30 三菱電機株式会社 物体検出装置の制御装置、物体検出装置および物体検出プログラム
US11474125B2 (en) * 2018-11-16 2022-10-18 Pony Ai Inc. Measurements incorporating brake light detection
KR102186810B1 (ko) * 2018-11-29 2020-12-04 주식회사 알티스트 차량간 통신 기반 장애물 검증 시스템 및 방법
KR102245766B1 (ko) * 2018-12-28 2021-04-28 주식회사대성엘텍 외부 팽창 에어백을 포함하는 자동차
CN110509919A (zh) * 2019-08-05 2019-11-29 佛山科学技术学院 一种防追尾方法
KR102320893B1 (ko) * 2019-12-16 2021-11-03 현대트랜시스 주식회사 하이브리드 차량용 급발진 방지 장치 및 방법
KR102382388B1 (ko) * 2019-12-26 2022-04-06 주식회사 유라코퍼레이션 차량 급발진 발생시 사고방지 시스템 및 그 방법
KR102537901B1 (ko) 2023-01-27 2023-05-31 케이지모빌리티 주식회사 전방 차량 브레이크 연동 비상회피 운전시스템 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009236570A (ja) * 2008-03-26 2009-10-15 Aisin Aw Co Ltd 車速検出装置、車速検出方法及びプログラム
KR101172303B1 (ko) * 2010-06-29 2012-08-14 현대 파워텍 주식회사 자동변속기 차량의 급발진 방지장치의 제어방법
KR101271209B1 (ko) * 2012-07-04 2013-06-07 (주)위니테크놀러지 자기표시수단이 구비된 차량용 사고영상 기록장치
KR101395371B1 (ko) * 2013-01-22 2014-05-14 주식회사 현대케피코 차량의 급발진 방지방법
JP2014241102A (ja) * 2013-06-12 2014-12-25 本田技研工業株式会社 他車両状態配信システム及び他車両状態配信サーバ

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62279142A (ja) * 1986-05-26 1987-12-04 Mitsubishi Electric Corp 車両用定速走行制御装置
KR960032262A (ko) * 1995-02-09 1996-09-17 배순훈 차량의 주행 안전 시스템
JP3229215B2 (ja) * 1996-09-04 2001-11-19 株式会社日立製作所 自動走行装置
DE50206323D1 (de) * 2002-10-25 2006-05-18 Ford Global Tech Llc Verfahren zum abstellen einer brennkraftmaschine und brennkraftmaschine geeignet zur durchfuehrung dieses verfahrens
JP3882797B2 (ja) * 2003-08-08 2007-02-21 日産自動車株式会社 車両用運転操作補助装置および車両用運転操作補助装置を備える車両
JP2005231491A (ja) * 2004-02-19 2005-09-02 Honda Motor Co Ltd 追従走行制御装置
US20080015744A1 (en) * 2006-07-17 2008-01-17 Isaac Lund Remoted controlled vehicle system
KR101675145B1 (ko) * 2010-08-19 2016-11-22 현대모비스 주식회사 차량 급발진 방지 장치 및 그 방법
KR101283356B1 (ko) * 2010-11-23 2013-07-08 (주)세이브어스 차량배출 이산화탄소량 저감 기능을 가지는 차량운행기록장치 및 그 방법
KR20130070222A (ko) * 2011-12-19 2013-06-27 주식회사 대창 모터스 카메라를 이용한 추돌 방지시스템
KR101378998B1 (ko) * 2012-11-27 2014-03-27 김진아 차량 급발진 판단 시스템
DE102013013867A1 (de) * 2013-08-20 2015-03-12 Audi Ag Kraftfahrzeug und Verfahren zur Steuerung eines Kraftfahrzeugs

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009236570A (ja) * 2008-03-26 2009-10-15 Aisin Aw Co Ltd 車速検出装置、車速検出方法及びプログラム
KR101172303B1 (ko) * 2010-06-29 2012-08-14 현대 파워텍 주식회사 자동변속기 차량의 급발진 방지장치의 제어방법
KR101271209B1 (ko) * 2012-07-04 2013-06-07 (주)위니테크놀러지 자기표시수단이 구비된 차량용 사고영상 기록장치
KR101395371B1 (ko) * 2013-01-22 2014-05-14 주식회사 현대케피코 차량의 급발진 방지방법
JP2014241102A (ja) * 2013-06-12 2014-12-25 本田技研工業株式会社 他車両状態配信システム及び他車両状態配信サーバ

Also Published As

Publication number Publication date
WO2017030240A1 (ko) 2017-02-23
US20170050641A1 (en) 2017-02-23
KR20170022206A (ko) 2017-03-02
US9815467B2 (en) 2017-11-14

Similar Documents

Publication Publication Date Title
KR101945809B1 (ko) 차량 보조 장치 및 차량
KR101891599B1 (ko) 자율 주행 차량의 제어방법과 서버
US10684620B2 (en) Vehicle control device mounted on vehicle and method for controlling the vehicle
KR101834351B1 (ko) 차량용 운전 보조 장치
KR101850324B1 (ko) 램프 및 자율 주행 차량
KR101777329B1 (ko) 차량용 회생 제동 제어 장치
KR101792994B1 (ko) 자율 주행 차량
KR102135088B1 (ko) 자율 주행 차량
KR101979269B1 (ko) 자율 주행 차량 및 자율 주행 차량의 동작 방법
KR20190033368A (ko) 주행 시스템 및 차량
KR101949352B1 (ko) 자율 주행 차량 및 자율 주행 차량의 동작 방법
KR20190030090A (ko) 차량용 운전 보조 장치 및 그 제어 방법
KR101918230B1 (ko) 차량용 램프 및 차량
US10710611B2 (en) Vehicle control device mounted on vehicle and method for controlling the vehicle
KR20190041173A (ko) 자율주행 차량 및 그 제어 방법
KR20180066495A (ko) 차량용 주행 제어 장치 및 차량
KR20170004144A (ko) 차량 주행 보조 장치, 이의 동작 방법, 및 이를 포함하는 차량
KR101989095B1 (ko) 자율 주행 차량
KR20190041172A (ko) 자율주행 차량 및 그 제어 방법
US10549779B2 (en) Vehicle control device mounted on vehicle and method for controlling vehicle
KR101896253B1 (ko) 차량 및 그 제어방법
KR20210143344A (ko) 차량 제어 장치 및 그 장치의 제어 방법
KR20180051225A (ko) 차량 제어 시스템 및 그의 제어방법
KR101890677B1 (ko) 차량에 구비된 차량 제어 장치 및 그의 제어방법
KR101969037B1 (ko) 자율 주행 차량

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant