KR20170120334A - 차량용 운전 보조 장치 - Google Patents

차량용 운전 보조 장치 Download PDF

Info

Publication number
KR20170120334A
KR20170120334A KR1020160048662A KR20160048662A KR20170120334A KR 20170120334 A KR20170120334 A KR 20170120334A KR 1020160048662 A KR1020160048662 A KR 1020160048662A KR 20160048662 A KR20160048662 A KR 20160048662A KR 20170120334 A KR20170120334 A KR 20170120334A
Authority
KR
South Korea
Prior art keywords
vehicle
bsd
information
processor
region
Prior art date
Application number
KR1020160048662A
Other languages
English (en)
Other versions
KR101838968B1 (ko
Inventor
배현주
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020160048662A priority Critical patent/KR101838968B1/ko
Priority to PCT/KR2016/015204 priority patent/WO2017183797A1/ko
Priority to US15/493,889 priority patent/US10611383B2/en
Publication of KR20170120334A publication Critical patent/KR20170120334A/ko
Application granted granted Critical
Publication of KR101838968B1 publication Critical patent/KR101838968B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0098Details of control systems ensuring comfort, safety or stability not otherwise provided for
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0083Setting, resetting, calibration
    • B60W2050/0085Setting or resetting initial positions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/05Type of road, e.g. motorways, local streets, paved or unpaved roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/406Traffic density
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/92Driver displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은, 타차량을 감지하는 BSD영역이 상황에 따라 가변적이고, 위험도를 알리는 알람을 출력하기 위하여, 차량 외부에 위치하는 오브젝트를 감지하는 센싱부 및 차량정보에 기초하여 BSD(Blind Spot Detection)영역을 변경하고, 상기 변경된 BSD영역에 기초하여 알람에 대응하는 신호를 제공하는 프로세서를 포함하는 차량용 운전 보조 장치에 관한 것이다.

Description

차량용 운전 보조 장치{Driving assistance Apparatus for Vehicle}
본 발명은 차량에 구비되는 차량용 운전 보조 장치에 관한 것이다.
차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다.
한편, 차량을 이용하는 사용자의 편의를 위해, 각 종 센서와 전자 장치 등이 구비되고 있는 추세이다. 특히, 사용자의 운전 편의를 위한 다양한 장치 등이 개발되고 있다.
차량에 다양한 전자 장치가 구비되면서, 여러 편의 장치 또는 시스템들이 차량에 장착된다.
한편, 종래에는 차량의 측후방 사각지대에 타차량이 존재하면 알람을 출력하는 BSD(Blind Spot Detection)가 이용된다. 그러나, 타차량을 감지하는 영역이 정해져 있으므로, 운전 중 발생하는 여러가지 상황에 대응할 수 없다. 또한, 운전자는, 알람 출력을 통하여 현재 상황의 위험도를 판단할 수 없다.
따라서, 타차량을 감지하는 BSD영역이 상황에 따라 가변적이고, 위험도를 알리는 알람을 출력하는 차량용 운전 보조 장치가 연구중에 있다.
본 발명의 실시예는 상기한 문제점을 해결하기 위하여, 타차량을 감지하는 BSD영역을 상황에 따라 변경하는 차량용 운전 보조 장치를 제공하는데 목적이 있다.
또한, 본 발명의 실시예는 위험도에 따라서 상이한 단계의 알람을 출력하는 차량용 운전 보조 장치를 제공하는데 목적이 있다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 차량용 운전 보조 장치는, 차량 외부에 위치하는 오브젝트를 감지하는 센싱부 및 차량정보에 기초하여 BSD(Blind Spot Detection)영역을 변경하고, 상기 변경된 BSD영역에 기초하여 알람에 대응하는 신호를 제공하는 프로세서를 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 실시예에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 타차량을 감지하는 BSD영역을 상황에 따라 변경하므로, 운전 중 신경써야할 영역에 대한 사용자의 인지 가능성이 향상되는 효과가 있다.
둘째, 위험도에 따라서 상이한 단계의 알람을 출력하므로 사용자가 현재 상황의 위험한 정도를 빠르게 파악할 수 있는 효과가 있다.
셋째, 현재 상황의 위험한 정도가 낮은 경우, 낮은 단계의 알람이 출력되므로, 불필요한 알람에 대한 불편을 해소할 수 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 실시예에 따른 차량의 외부를 도시한 도면이다.
도 2은 본 발명의 실시예에 따른 차량을 설명하는데 참조되는 블럭도이다.
도 3는 본 발명의 실시예에 따른 차량용 운전 보조 장치를 설명하는데 참조되는 블록도이다.
도 4a 내지 4c는 본 발명의 실시예에 따른 차량용 운전 보조 장치의 센싱부 배치 및 BSD영역의 배치를 설명하는데 참조되는 도면이다.
도 5a 내지 5c는, 본 발명의 실시예에 따른 차량용 운전 보조 장치가 알람을 출력하기 위한 BSD영역을 설명하는데 참조되는 도면이다.
도 6a 및 6b는, 본 발명의 실시예에 따른 차량용 운전 보조 장치가 차량 상태 정보에 기초하여 BSD영역을 변경하는 것을 설명하는데 참조되는 도면이다.
도 7a 내지 7d은, 본 발명의 실시예에 따른 차량용 운전 보조 장치가 차량 상태 정보에 기초하여 제2 BSD영역을 변경하는 것을 설명하는데 참조되는 도면이다.
도 8a 및 8b는, 본 발명의 실시예에 따른 차량용 운전 보조 장치가 제2 BSD영역에서 오브젝트가 감지되더라도 제1 단계 알람을 출력하는 경우를 설명하는데 참조되는 도면이다.
도 9a 및 9b는, 본 발명의 실시예에 따른 차량용 운전 보조 장치가 타차량 상태 정보에 기초하여 BSD영역을 변경하는 것을 설명하는데 참조되는 도면이다.
도 10은, 본 발명의 실시예에 따른 차량용 운전 보조 장치가 차량 상태 정보 및 타차량 상태 정보에 기초하여 제2 단계 알람을 출력하는 것을 설명하는데 참조되는 도면이다.
도 11a 내지 11c는, 본 발명의 실시예에 따른 차량용 운전 보조 장치가 주행 환경 정보에 기초하여 BSD영역을 변경하는 것을 설명하는데 참조되는 도면이다.
도 12a 및 12b는, 본 발명의 실시예에 따른 차량용 운전 보조 장치가 주행 환경 정보에 기초하여 제2 BSD영역을 변경하는 것을 설명하는데 참조되는 도면이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에서 기술되는 차량은, 자동차, 오토바이를 포함하는 개념일 수 있다. 이하에서는, 차량에 대해 자동차를 위주로 기술한다.
본 명세서에서 기술되는 차량은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량 등을 모두 포함하는 개념일 수 있다.
이하의 설명에서 차량의 좌측은 차량의 주행 방향의 좌측을 의미하고, 차량의 우측은 차량의 주행 방향의 우측을 의미한다.
도 1은 본 발명의 실시예에 따른 차량의 외부를 도시한 도면이다.
도 1을 참조하면, 차량(100)은 동력원에 의해 회전하는 바퀴, 차량(100)의 진행 방향을 조절하기 위한 조향 입력 장치를 구비할 수 있다.
차량(100)은, 본 발명에 따른 차량용 운전 보조 장치(200)를 구비할 수 있다. 차량용 운전 보조 장치(200)는, 설정된 BSD영역 내에서 오브젝트가 감지되면 알람을 출력할 수 있다.
차량용 운전 보조 장치(200)는, 차량정보에 기초하여 BSD영역을 변경할 수 있다. 차량용 운전 보조 장치(200)는, 변경된 BSD영역 내에서 오브젝트가 감지되면 알람을 출력할 수 있다.
차량용 운전 보조 장치(200)는, BSD영역을 복수 개로 설정할 수 있다. 차량용 운전 보조 장치(200)는, 차량정보에 기초하여 복수 개의 BSD영역을 개별적으로 변경할 수 있다.
차량용 운전 보조 장치(200)는, 복수 개의 BSD영역 각각에 대응하는 위험 레벨을 설정할 수 있다. 차량용 운전 보조 장치(200)는, 복수 개의 BSD영역 중 적어도 하나의 BSD영역 내에서 오브젝트가 감지되면, 오브젝트가 위치하는 BSD영역의 위험 레벨에 대응하는 알람을 출력할 수 있다.
실시예에 따라, 차량(100)은 자율 주행 차량일 수 있다. 자율 주행 차량의 경우, 사용자 입력에 따라 자율 주행 모드 또는 메뉴얼 모드로 전환될 수 있다. 메뉴얼 모드로 전환되는 경우, 자율 주행 차량(100)은 조향 입력 장치를 통해 조향 입력을 수신할 수 있다.
전장(overall length)은 차량(100)의 앞부분에서 뒷부분까지의 길이, 전폭(width)은 차량(100)의 너비, 전고(height)는 바퀴 하부에서 루프까지의 길이를 의미한다. 이하의 설명에서, 전장 방향(L)은 차량(100)의 전장 측정의 기준이 되는 방향, 전폭 방향(W)은 차량(100)의 전폭 측정의 기준이 되는 방향, 전고 방향(H)은 차량(100)의 전고 측정의 기준이 되는 방향을 의미할 수 있다.
도 2은 본 발명의 실시예에 따른 차량을 설명하는데 참조되는 블럭도이다.
도 2을 참조하면, 차량(100)은, 통신부(110), 입력부(120), 센싱부(125), 메모리(130), 출력부(140), 차량 구동부(150), 제어부(170), 인터페이스부(180), 전원 공급부(190) 및 차량용 운전 보조 장치(200)를 포함할 수 있다.
통신부(110)는, 근거리 통신 모듈(113), 위치 정보 모듈(114), 광통신 모듈(115) 및 V2X 통신 모듈(116)을 포함할 수 있다.
근거리 통신 모듈(113)은, 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.
이러한, 근거리 통신 모듈(113)은, 근거리 무선 통신망(Wireless Area Networks)을 형성하여, 차량(100)과 적어도 하나의 외부 디바이스 사이의 근거리 통신을 수행할 수 있다. 예를 들면, 근거리 통신 모듈(113)은 이동 단말기와 무선으로 데이터를 교환할 수 있다. 근거리 통신 모듈(113)은 이동 단말기로부터 날씨 정보, 도로의 교통 상황 정보(예를 들면, TPEG(Transport Protocol Expert Group))를 수신할 수 있다. 가령, 사용자가 차량(100)에 탑승한 경우, 사용자의 이동 단말기와 차량(100)은 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링을 수행할 수 있다.
위치 정보 모듈(114)은, 차량(100)의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈이 있다. 예를 들면, 차량은 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 차량의 위치를 획득할 수 있다.
한편, 실시예에 따라, 위치 정보 모듈(114)은 통신부(110)에 포함되는 구성요소가 아닌, 센싱부(125)에 포함되는 구성요소일 수도 있다.
광통신 모듈(115)은, 광발신부 및 광수신부를 포함할 수 있다.
광수신부는, 광(light)신호를 전기 신호로 전환하여, 정보를 수신할 수 있다. 광수신부는 광을 수신하기 위한 포토 다이오드(PD, Photo Diode)를 포함할 수 있다. 포토 다이오드는 빛을 전기 신호로 전환할 수 있다. 예를 들면, 광수신부는 전방 차량에 포함된 광원에서 방출되는 광을 통해, 전방 차량의 정보를 수신할 수 있다.
광발신부는 전기 신호를 광 신호로 전환하기 위한 발광 소자를 적어도 하나 포함할 수 있다. 여기서, 발광 소자는 LED(Light Emitting Diode)인 것이 바람직하다. 광발신부는, 전기 신호를 광 신호로 전환하여, 외부에 발신한다. 예를 들면, 광 발신부는 소정 주파수에 대응하는 발광소자의 점멸을 통해, 광신호를 외부에 방출할 수 있다. 실시예에 따라, 광발신부는 복수의 발광 소자 어레이를 포함할 수 있다. 실시예에 따라, 광발신부는 차량(100)에 구비된 램프와 일체화될 수 있다. 예를 들면, 광발신부는 전조등, 후미등, 제동등, 방향 지시등 및 차폭등 중 적어도 어느 하나일 수 있다. 예를 들면, 광통신 모듈(115)은 광 통신을 통해 타 차량과 데이터를 교환할 수 있다.
V2X 통신 모듈(116)은, 서버 또는 타 차량과의 무선 통신 수행을 위한 모듈이다. V2X 모듈(116)은 차량간 통신(V2V) 또는 차량과 인프라간 통신(V2I) 프로토콜이 구현 가능한 모듈을 포함한다. 차량(100)은 V2X 통신 모듈(116)을 통해, 외부 서버 및 타 차량과 무선 통신을 수행할 수 있다.
입력부(120)는, 운전 조작 장치(121), 마이크로 폰(123) 및 사용자 입력부(124)를 포함할 수 있다.
운전 조작 장치(121)는, 차량(100) 운전을 위한 사용자 입력을 수신한다. 운전 조작 장치(121)는 조향 입력 장치, 쉬프트 입력 장치, 가속 입력 장치, 브레이크 입력 장치를 포함할 수 있다.
조향 입력 장치는, 사용자로부터 차량(100)의 진행 방향 입력을 수신한다. 조향 입력 장치는 회전에 의해 조향 입력이 가능하도록 휠 형태로 형성되는 것이 바람직하다. 실시예에 따라, 조향 입력 장치는 터치 스크린, 터치 패드 또는 버튼으로 형성될 수도 있다.
쉬프트 입력 장치는, 사용자로부터 차량(100)의 주차(P), 전진(D), 중립(N), 후진(R)의 입력을 수신한다. 쉬프트 입력 장치는 레버 형태로 형성되는 것이 바람직하다. 실시예에 따라, 쉬프트 입력 장치는 터치 스크린, 터치 패드 또는 버튼으로 형성될 수도 있다.
가속 입력 장치는, 사용자로부터 차량(100)의 가속을 위한 입력을 수신한다. 브레이크 입력 장치는, 사용자로부터 차량(100)의 감속을 위한 입력을 수신한다. 가속 입력 장치 및 브레이크 입력 장치는 페달 형태로 형성되는 것이 바람직하다. 실시예에 따라, 가속 입력 장치 또는 브레이크 입력 장치는 터치 스크린, 터치 패드 또는 버튼으로 형성될 수도 있다.
마이크로 폰(123)은, 외부의 음향 신호를 전기적인 데이터로 처리할 수 있다. 처리된 데이터는 차량(100)에서 수행 중인 기능에 따라 다양하게 활용될 수 있다. 마이크로 폰(123)은 사용자의 음성 명령을 전기적인 데이터로 전환할 수 있다. 전환된 전기적인 데이터는 제어부(170)에 전달될 수 있다.
한편, 실시예에 따라, 카메라(122) 또는 마이크로 폰(123)은 입력부(120)에 포함되는 구성요소가 아닌, 센싱부(125)에 포함되는 구성요소일 수도 있다.
사용자 입력부(124)는 사용자로부터 정보를 입력받기 위한 것이다. 사용자 입력부(124)를 통해, 정보가 입력되면, 제어부(170)는 입력된 정보에 대응되도록 차량(100)의 동작을 제어할 수 있다. 사용자 입력부(124)는 터치식 입력수단 또는 기계식 입력 수단을 포함할 수 있다. 실시예에 따라, 사용자 입력부(124)는 스티어링 휠의 일 영역에 배치될 수 있다. 이경우, 운전자는 스티어링 휠을 잡은 상태에서, 손가락으로 사용자 입력부(124)를 조작할 수 있다.
센싱부(125)는, 차량(100)의 각종 상황 또는 차량의 외부 상황을 센싱한다. 이를 위해, 센싱부(125)는, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 가속 페달 포지션 센서, 브레이크 페달 포지션 센서, 등을 포함할 수 있다.
센싱부(125)는, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도, 가속 페달에 가해지는 압력, 브레이크 페달에 가해지는 압력 등에 대한 센싱 신호를 획득할 수 있다.
센싱부(125)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 포함할 수 있다.
한편, 위치 정보 모듈(114)은 센싱부(125)의 하위 구성 요소로 분류될 수도 있다.
센싱부(125)는 차량 주변의 오브젝트를 감지할 수 있는 오브젝트 센싱부를 포함할 수 있다. 여기서, 오브젝트 센싱부는, 카메라 모듈, 레이더(Radar), 라이더(Lidar), 초음파 센서를 포함할 수 있다. 이경우, 센싱부(125)는, 카메라 모듈, 레이더(Radar), 라이더(Lidar) 또는 초음파 센서를 통해 차량 전방에 위치하는 전방 오브젝트 또는 차량 후방에 위치하는 후방 오브젝트를 감지할 수 있다.
센싱부(125)는 카메라 모듈을 포함할 수 있다. 카메라 모듈은, 차량 외부를 촬영하는 외부 카메라 모듈 및 차량 내부를 촬영하는 외부 카메라 모듈을 포함할 수 있다.
외부 카메라 모듈은, 차량(100)의 외부를 촬영하는 하나 이상의 카메라를 포함할 수 있다. 외부 카메라 모듈은 AVM(Arond View Monitoring) 장치, 또는 후방 카메라 장치를 포함할 수 있다.
AVM 장치는, 복수의 카메라에서 획득된 복수의 영상을 합성하여, 차량 주변 영상을 사용자에게 제공할 수 있다. AVM 장치는 복수의 영상을 합성하여 사용자가 보기 편한 영상으로 전환하여 표시할 수 있다. 예를 들면, AVM 장치는 복수의 영상을 합성하여 탑뷰 영상으로 전환하여 표시될 수 있다.
예를 들면, AVM 장치는, 제1 내지 제4 카메라를 포함할 수 있다. 이경우, 제1 카메라는, 프런트 범퍼 주변, 라디에이터 그릴 주변, 엠블럼 주변 또는 윈드 쉴드 주변에 배치될 수 있다. 제2 카메라는, 좌측 사이드 미러, 좌측 프런트 도어, 좌측 리어 도어, 좌측 휀더에 배치될 수 있다. 제3 카메라는, 우측 사이드 미러, 우측 프런트 도어, 우측 리어 도어 또는 우측 휀더에 배치될 수 있다. 제4 카메라는, 리어 범퍼 주변, 엠블럼 주변 또는 번호판 주변에 배치될 수 있다.
후방 카메라는, 차량 후방 영상을 획득하는 카메라를 포함할 수 있다.
예를 들면, 후방 카메라는 리어 범퍼 주변, 엠블럼 주변 또는 번호판 주변에 배치될 수 있다.
차량용 운전 보조 장치(200)에 포함되는 센싱부(210) 중 카메라는, 차량(100)에 구비되는 AVM 장치, BSD 장치, 후방 카메라 장치 중 어느 하나에 포함되는 카메라 일 수 있다.
메모리(130)는, 제어부(170)와 전기적으로 연결된다. 메모리(130)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(130)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(130)는 제어부(170)의 처리 또는 제어를 위한 프로그램 등, 차량(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
출력부(140)는, 제어부(170)에서 처리된 정보를 출력하기 위한 것으로, 디스플레이 장치(141), 음향 출력부(142) 및 햅틱 출력부(143)를 포함할 수 있다.
디스플레이 장치(141)는 다양한 그래픽 객체를 표시할 수 있다. 예를 들면, 디스플레이 장치(141)는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 차량에 대한 직접적인 제어를 위한 차량 제어 정보, 또는 차량 운전자에게 운전 가이드를 위한 차량 운전 보조 정보를 포함할 수 있다. 또한, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다.
디스플레이 장치(141)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.
디스플레이 장치(141)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 차량(100)과 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(724)로써 기능함과 동시에, 차량(100)과 사용자 사이의 출력 인터페이스를 제공할 수 있다. 이경우, 디스플레이 장치(141)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이 장치(141)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이를 이용하여, 디스플레이 장치(141)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 제어부(170)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.
한편, 디스플레이 장치(141)는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다. 클러스터는 대시보드 위에 위치할 수 있다. 이경우, 운전자는, 시선을 차량 전방에 유지한채로 클러스터에 표시되는 정보를 확인할 수 있다.
한편, 실시예에 따라, 디스플레이 장치(141)는 HUD(Head Up Display)로 구현될 수 있다. 디스플레이 장치(141)가 HUD로 구현되는 경우, 윈드 쉴드에 구비되는 투명 디스플레이를 통해 정보를 출력할 수 있다. 또는, 디스플레이 장치(141)는 투사 모듈을 구비하여 윈드 쉴드에 투사되는 이미지를 통해 정보를 출력할 수 있다.
한편, 실시예에 따라, 디스플레이 장치(141)는, 투명 디스플레이를 포함할 수 있다. 이경우, 투명 디스플레이는 윈드 쉴드에 부착될 수 있다.
투명 디스플레이는 소정의 투명도를 가지면서, 소정의 화면을 표시할 수 있다. 투명 디스플레이는, 투명도를 가지기 위해, 투명 디스플레이는 투명 TFEL(Thin Film Elecroluminescent), 투명 OLED(Organic Light-Emitting Diode), 투명 LCD(Liquid Crystal Display), 투과형 투명디스플레이, 투명 LED(Light Emitting Diode) 디스플레이 중 적어도 하나를 포함할 수 있다. 투명 디스플레이의 투명도는 조절될 수 있다.
음향 출력부(142)는 제어부(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부(142)는 스피커 등을 구비할 수 있다. 음향 출력부(142)는, 사용자 입력부(724) 동작에 대응하는, 사운드를 출력하는 것도 가능하다.
햅틱 출력부(143)는 촉각적인 출력을 발생시킨다. 예를 들면, 햅틱 출력부(143)는, 스티어링 휠, 안전 벨트, 시트를 진동시켜, 사용자가 출력을 인지할 수 있게 동작할 수 있다.
차량 구동부(150)는, 차량 각종 장치의 동작을 제어할 수 있다. 차량 구동부(150)는 동력원 구동부(151), 조향 구동부(152), 브레이크 구동부(153), 램프 구동부(154), 공조 구동부(155), 윈도우 구동부(156), 에어백 구동부(157), 썬루프 구동부(158) 및 서스펜션 구동부(159)를 포함할 수 있다.
동력원 구동부(151)는, 차량(100) 내의 동력원에 대한 전자식 제어를 수행할 수 있다.
예를 들면, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부(151)는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부(151)가 엔진인 경우, 제어부(170)의 제어에 따라, 엔진 출력 토크를 제한하여 차량의 속도를 제한할 수 있다.
다른 예로, 전기 기반의 모터(미도시)가 동력원인 경우, 동력원 구동부(151)는, 모터에 대한 제어를 수행할 수 있다. 이에 의해, 모터의 회전 속도, 토크 등을 제어할 수 있다.
조향 구동부(152)는, 차량(100) 내의 조향 장치(steering apparatus)에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 차량의 진행 방향을 변경할 수 있다.
브레이크 구동부(153)는, 차량(100) 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(100)의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량(100)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.
램프 구동부(154)는, 차량 내, 외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들면, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.
공조 구동부(155)는, 차량(100) 내의 공조 장치(air cinditioner)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 차량 내부의 온도가 높은 경우, 공조 장치가 동작하여, 냉기가 차량 내부로 공급되도록 제어할 수 있다.
윈도우 구동부(156)는, 차량(100) 내의 윈도우 장치(window apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 차량의 측면의 좌,우 윈도우들에 대한 개방 또는 폐쇄를 제어할 수 있다.
에어백 구동부(157)는, 차량(100) 내의 에어백 장치(airbag apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 위험시, 에어백이 터지도록 제어할 수 있다.
썬루프 구동부(158)는, 차량(100) 내의 썬루프 장치(sunroof apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 썬루프의 개방 또는 폐쇄를 제어할 수 있다.
서스펜션 구동부(159)는, 차량(100) 내의 서스펜션 장치(suspension apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 도로면에 굴곡이 있는 경우, 서스펜션 장치를 제어하여, 차량(100)의 진동이 저감되도록 제어할 수 있다.
한편, 실시예에 따라, 차량 구동부(150)는 샤시 구동부를 포함할 수 있다. 여기서, 샤시 구동부는 조향 구동부(152), 브레이크 구동부(153) 및 서스펜션 구동부(159)를 포함하는 개념일 수 있다.
제어부(170)는, 차량(100) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Contol Unit)로 명명될 수 있다.
제어부(170)는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
인터페이스부(180)는, 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(180)는 이동 단말기와 연결 가능한 포트를 구비할 수 있고, 상기 포트를 통해, 이동 단말기와 연결할 수 있다. 이경우, 인터페이스부(180)는 이동 단말기와 데이터를 교환할 수 있다.
한편, 인터페이스부(180)는 연결된 이동 단말기에 전기 에너지를 공급하는 통로 역할을 수행할 수 있다. 이동 단말기가 인터페이스부(180)에 전기적으로 연결되는 경우, 제어부(170)의 제어에 따라, 인터페이스부(180)는 전원 공급부(190)에서 공급되는 전기 에너지를 이동 단말기에 제공할 수 있다.
전원 공급부(190)는, 제어부(170)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 제어부(170)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.
차량용 운전 보조 장치(200)는, 가변적인 BSD(Blind Spot Detection)영역에서 오브젝트가 감지되면, 알람을 출력한다. 이하에서, 차량용 운전 보조 장치(200)를 중심으로 설명한다.
도 3는 본 발명의 실시예에 따른 차량용 운전 보조 장치를 설명하는데 참조되는 블록도이다.
도 3를 참조하면, 차량용 운전 보조 장치(200)는, 센싱부(210), 통신부(220), 입력부(230), 메모리(240), 인터페이스부(250), 출력부(260), 프로세서(270), 및 전원 공급부(290)를 포함할 수 있다.
센싱부(210)는, 오브젝트를 감지하는 수단을 포함할 수 있다. 센싱부(210)는, 차량(100) 외부에 위치하는 오브젝트를 감지할 수 있다. 예를 들어, 센싱부(210)는, 적어도 하나의 BSD영역에 위치하는 오브젝트를 감지할 수 있다.
센싱부(210)는, 프로세서(270)와 전기적으로 연결될 수 있다. 센싱부(210)는, 오브젝트가 감지되면, 프로세서(270)에 오브젝트 감지 신호를 제공할 수 있다. 프로세서(270)는, 센싱부(210)가 제공하는 오브젝트 감지 신호를 기초로 오브젝트가 감지된 위치가 BSD영역 내인지 판단할 수 있다. 프로세서(270)는, 오브젝트가 감지된 위치가 BSD영역 내로 판단되는 경우, 알람에 대응하는 신호를 출력할 수 있다. 출력부(260)는, 프로세서(270)가 제공하는 신호에 대응하여 알람을 출력할 수 있다.
BSD영역은, 차량 주행시 운전자의 주의가 요구되는 특정 범위 내의 영역일 수 있다. 프로세서(270)는, 운전자의 주의가 요구되는 특정 범위 내의 영역을 BSD영역으로 설정할 수 있다. 프로세서(270)는, 차량(100)을 중심으로 BSD영역을 설정할 수 있다. 예를 들어, 프로세서(270)는, 차량(100)을 중심으로 차량(100)의 측방 및 후방으로 소정 거리 내에 BSD영역을 설정할 수 있다. 예를 들어, 프로세서(270)는, 차량(100)의 후측방 사각지대를 BSD영역으로 설정할 수 있다. BSD영역은, 차량(100)의 후측방 사각지대의 일부를 포함하는 영역일 수 있다.
센싱부(210)는, 차량(100)의 일 영역에 배치될 수 있다. 예를 들어, 센싱부(210)는, 차량(100)의 사이드 미러, 프런트 도어, 리어 도어, 휀더, 및 후방 범퍼 중 적어도 하나에 배치될 수 있다.
센싱부(210)는, 하나 이상일 수 있다. 예를 들어, 센싱부(210)는, 차량(100)의 우측 및 좌측에 적어도 하나씩 배치될 수 있다.
센싱부(210)는, 오브젝트를 감지할 수 있는 다양한 종류의 장치를 포함할 수 있다. 예를 들어, 센싱부(210)는, 카메라, 레이더(Radar), 라이다(Lidar), 초음파 센서, 및 적외선 센서 중 적어도 하나를 포함할 수 있다.
카메라는, 획득되는 영상에 기초하여 오브젝트를 검출할 수 있다. 카메라는 이미지 센서와 이미지 프로세서를 포함할 수 있다. 실시예에 따라, 카메라는 스테레오 카메라일 수 있다.
이미지 프로세서는, 획득된 영상을 처리하여, 오브젝트를 검출할 수 있다. 이미지 프로세서는 검출된 오브젝트를 트래킹할 수 있다.
이미지 프로세서는, 오브젝트와의 거리를 측정할 수 있다. 예를 들면, 이미지 프로세서는, 핀홀, 움직임 벡터, 디스패러티(disparity), 및 오브젝트의 크기 변화 중 적어도 하나를 이용하여 오브젝트와의 거리를 측정할 수 있다.
실시예에 따라, 카메라는 이미지 데이터를 프로세서(270)로 제공할 수 있다. 이 경우, 프로세서(270)는 이미지 처리를 수행할 수 있다.
초음파 센서는, 초음파 송신부, 수신부를 포함할 수 있다. 초음파 센서는, 송신된 초음파가 오브젝트에 반사되는 수신 초음파를 기초로 오브젝트를 감지할 수 있다. 초음파 센서는, 감지된 오브젝트와 차량(100) 간의 거리를 측정할 수 있다. 예를 들어, 센싱부(210)가 초음파 센서인 경우, 센싱부(210)는, 차량(100)과 감지된 오브젝트와의 거리 데이터를 프로세서(270)에 제공할 수 있다.
통신부(220)는, 차량(100) 내부 또는 외부에 위치하는 타 디바이스와 데이터 통신을 수행할 수 있다. 상기 타 디바이스는, 이동 단말기, 서버 또는 타차량을 포함할 수 있다. 통신부(220)는, 타차량과 통신을 수행할 수 있다. 통신부(220)는, 타차량으로부터 타차량의 차종, 위치, 속도, 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보를 수신할 수 있다. 프로세서(270)는, 통신부(220)를 통하여, 상기 타차량의 차종 정보, 상기 타차량의 위치 정보, 상기 타차량의 속도 정보, 상기 타차량의 조향 정보, 상기 타차량의 턴 시그널 정보 상기 타차량의 주행 경로 정보 중 적어도 하나를 획득할 수 있다. 프로세서(270)는, 상기 획득한 정보에 기초하여 기 설정된 BSD 영역을 변경할 수 있다.
통신부(220)는, V2X 통신 모듈, 광통신 모듈, 위치 정보 모듈, 및 근거리 통신 모듈 중 적어도 하나를 포함할 수 있다.
V2X 통신 모듈은, 서버 또는 타 차량과의 무선 통신을 수행할 수 있다. V2X 모듈은, 차량간 통신(V2V) 또는 차량과 인프라간 통신(V2I) 프로토콜을 구현할 수 있다. 통신부(220)는, V2X 통신 모듈을 통하여, 타 차량에 관련된 정보를 수신할 수 있다.
광통신 모듈은, 광 발신부 및 광 수신부를 포함할 수 있다. 광 수신부는, 수신되는 광(light)신호를 전기 신호로 전환함으로써, 정보를 수신할 수 있다. 광 수신부는, 광을 수신하기 위한 포토 다이오드(PD, Photo Diode)를 포함할 수 있다. 포토 다이오드는 빛을 전기 신호로 전환할 수 있다. 광 수신부는, 타차량이 방출하는 광을 통해, 타차량에 관련된 정보를 수신할 수 있다.
광 발신부는, 전기 신호를 광 신호로 전환할 수 있다. 광 발신부는, 발광 소자를 적어도 하나 포함할 수 있다. 발광 소자는 LED(Light Emitting Diode)일 수 있다. 광 발신부는, 소정 주파수에 대응하는 발광소자의 점멸을 통해, 광신호를 외부에 방출할 수 있다. 광 발신부는 복수의 발광 소자 어레이를 포함할 수 있다. 광 발신부는 차량(100)에 구비된 램프와 일체화될 수 있다. 광 발신부는 전조등, 후미등, 제동등, 방향 지시등 및 차폭등 중 적어도 하나를 포함할 수 있다.
위치 정보 모듈은, 차량(100)의 위치에 대한 정보를 획득할 수 있다. 위치 정보 모듈은, GPS(Global Positioning System) 모듈일 수 있다. GPS모듈은, GPS 위성에서 보내는 신호에 기초하여 차량(100)의 위치를 획득할 수 있다.
근거리 통신 모듈은, 근거리 통신을 수행할 수 있다. 근거리 통신 모듈은, 근거리 무선 통신망(Wireless Area Networks)을 형성한다. 근거리 통신 모듈은, 근거리 무선 통신망을 통하여, 적어도 하나의 타 디바이스 간의 근거리 통신을 수행할 수 있다. 근거리 통신 모듈은, 이동 단말기와 데이터를 교환할 수 있다. 근거리 통신 모듈은, 이동 단말기로부터 날씨 정보, 도로의 교통 상황 정보(예를 들면, TPEG(Transport Protocol Expert Group))를 수신할 수 있다. 근거리 통신 모듈은, 자동으로 또는 애플리케이션의 실행에 의하여, 이동 단말기와 페어링을 수행할 수 있다.
근거리 통신 모듈은, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용할 수 있다.
통신부(220)는, 프로세서(270)와 전기적으로 연결될 수 있다. 통신부(220)는, 수신된 타차량에 관한 정보를 프로세서(270)에 제공할 수 있다.
인터페이스부(250)는, 차량용 운전 보조 장치(200)와 외부 기기간의 통로 역할을 수행할 수 있다. 인터페이스부(250)는, 외부로부터 각종 신호 또는 정보를 수신하거나, 프로세서(270)가 제공하는 신호 또는 정보를 외부로 전송할 수 있다. 인터페이스부(250)는, 프로세서(270), 차량 구동부(150), 제어부(170), 및 통신부(110)와 연결되어 데이터 통신을 수행할 수 있다.
인터페이스부(250)는, 차량(100)의 위치, 기어상태, 속도, 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보를 수신할 수 있다. 인터페이스부(250)는, 차량(100)의 위치, 기어상태, 속도, 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보를 프로세서(270)에 제공할 수 있다. 프로세서(270)는, 인터페이스부(250)를 통하여, 차량(100)의 위치 정보, 차량(100)의 기어 포지션 정보, 차량(100)의 속도 정보, 차량(100)의 조향 정보, 차량(100)의 턴 시그널 정보 및 차량(1000의 주행 경로 정보 중 적어도 하나를 획득할 수 있다. 프로세서(270)는, 상기 획득한 정보에 기초하여 기 설정된 BSD 영역을 변경할 수 있다.
인터페이스부(250)는, 제어부(170) 또는 센싱부(125)로부터 센싱 정보를 수신할 수 있다. 상기 센싱 정보는, 차량(100)에 관련된 정보이다. 상기 센싱 정보는, 위치 정보(GPS 정보), 기어상태 정보, 속도 정보, 핸들조향각 정보, 및 방향지시등 정보, 차량 방향 정보, 차량 각도 정보, 가속도 정보, 기울기 정보, 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 및 비가 오는지에 대한 정보 중 적어도 하나를 포함할 수 있다.
센싱 정보는, 위치 정보를 제공하는 포지션 모듈(position module), 기어 포지션 센서, 속도 센서, 핸들조향각 센서, 방향지시등 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 차량 전진/후진 센서, 휠 센서(wheel sensor), 차체 경사 감지센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 및 레인 센서에 의하여 획득될 수 있다. 포지션 모듈은, GPS 정보 수신을 위한 GPS 모듈을 포함할 수 있다.
상기 센싱 정보 중, 차량(100)의 위치, 기어상태, 속도, 핸들조향각, 및 방향지시등에 대한 정보는, 차량 상태 정보라 명명할 수 있다.
인터페이스부(250)는, 제어부(170) 또는 별도의 내비게이션 장치와의 데이터 통신에 의해, 차량(100)의 주행경로에 대한 정보를 수신할 수 있다. 상기 주행경로에 대한 정보는, 설정된 목적지 정보, 상기 목적지에 따른 경로 정보, 주행경로와 관련된 맵(map) 정보, 및 차량(100)의 현재 위치 정보 중 적어도 하나를 포함할 수 있다.
인터페이스부(250)는, 제어부(170) 또는 차량 구동부(150)에, 신호를 제공할 수 있다. 상기 신호는 제어 신호일 수 있다. 인터페이스부(250)는, 프로세서(270)가 제공하는 차량(100)의 조향장치, 제동장치, 구동장치 중 적어도 하나를 제어하기 위한 신호를, 제어부(170) 또는 차량 구동부(150)에 제공할 수 있다.
출력부(260)는, 알람을 출력한다. 출력부(260)는, 프로세서(270)가 제공하는 신호에 대응하는 알람을 출력한다.
출력부(260)는, 음향출력부(261), 광출력부(262), 햅틱출력부(263), 및 디스플레이부(264) 중 적어도 하나를 포함할 수 있다.
음향출력부(261)는, 음향으로 알람을 출력한다. 음향출력부(261)는, 스피커를 포함할 수 있다.
광출력부(262)는, 빛으로 알람을 출력한다. 광출력부(262)는, 발광소자를 포함할 수 있다.
햅틱출력부(263)는, 진동으로 알람을 출력한다. 햅틱출력부(263)는, 핸들 또는 운전자 시트에 배치될 수 있다.
디스플레이부(264)는, 알람에 관련된 정보를 표시한다. 디스플레이부(264)는, 인터페이스부(250) 또는 통신부(220)를 통하여 수신되는 각종 차량정보를 표시할 수 있다.
센싱부(210)가 차량(100)의 좌측 및 우측에 배치되고, BSD영역이 차량(100)의 좌측 및 우측에 형성되는 경우, 음향출력부(261), 광출력부(262), 및 햅틱출력부(263)는, 센싱부(210) 또는 BSD영역에 대응하여 좌측 및 우측으로 구비될 수 있다.
예를 들어, 센싱부(210)를 통하여 감지된 오브젝트의 위치가 우측 BSD영역 내인 경우, 프로세서(270)는, 우측으로 구비된 음향출력부(261), 광출력부(262), 및 햅틱출력부(263) 중 적어도 하나를 통하여, 알람을 출력할 수 있다.
프로세서(270)는, 복수 개의 기 설정된 BSD 영역마다 대응하는 알람을 구분할 수 있다. 프로세서(270)는, 센싱부(210)를 통하여 감지된 오브젝트가 위치하는 BSD 영역에 대응하는 알람이 출력되도록 출력부(260)를 제어할 수 있다.
출력부(260)는, 프로세서(270)가 제공하는 신호에 대응하는 위험 레벨의 알람을 출력한다.
상기 위험 레벨은, 프로세서(270)에 의하여 설정된다. 상기 위험 레벨은, 차량(100)이 얼마나 위험한지를 나타낼 수 있다. 상기 위험 레벨은, 여러 단계로 설정될 수 있다.
상기 위험 레벨은 제1 단계 및 제2 단계를 포함할 수 있다. 출력부(260)가 출력하는 알람은, 제1 단계 위험 레벨에 대응하는 제1 단계 알람, 및 제2 단계 위험 레벨에 대응하는 제2 단계 알람이 있을 수 있다.
예를 들어, 광출력부(262)는 제1 단계 알람으로써 빛을 출력할 수 있다. 음향출력부(261) 및 햅틱출력부(263)는, 제2 단계 알람으로써 음향 및 진동을 출력할 수 있다.
상기 위험 레벨은 BSD영역의 종류에 따라 달라질 수 있다. BSD영역은, 제1 BSD영역과 제2 BSD영역을 포함할 수 있다. 제2 BSD영역은, 제1 BSD영역보다 좁은 영역일 수 있다. 제2 BSD영역은, 제1 BSD영역보다 차량(100)에 근접한 영역일 수 있다. 제1 BSD영역에서 오브젝트가 감지되는 경우, 제1 단계 알람이 출력될 수 있다. 제2 BSD영역에서 오브젝트가 감지되는 경우, 제2 단계 알람이 출력될 수 있다.
위험 레벨의 각 단계에 대응하는 알람은, 입력부(230)를 통하여 설정될 수 있다. 예를 들어, 제1 단계 알람은, 입력부(230)를 통하여, 햅틱출력부(263)가 출력하는 진동으로 설정될 수 있다. 제2 단계 알람은, 입력부(230)를 통하여, 음향출력부(261)가 출력하는 음향으로 설정될 수 있다. 입력부(230)를 통하여 설정된 알람은, 메모리(240)에 저장될 수 있다.
프로세서(270)는, 차량용 운전 보조 장치(200)내의 각 유닛의 전반적인 동작을 제어할 수 있다. 프로세서(270)는, 센싱부(210), 통신부(220), 입력부(230), 메모리(240), 인터페이스부(250), 출력부(260), 및 전원 공급부(290)와 전기적으로 연결될 수 있다.
센싱부(210)가 차량(100) 외부의 오브젝트를 감지하여, 프로세서(270)로 오브젝트 감지 신호를 제공하면, 프로세서(270)는, 오브젝트 감지 신호에 기초하여, 센싱부(210)가 감지한 오브젝트가 BSD영역에서 감지된 것인지 판단한다. 프로세서(270)는, 오브젝트가 BSD영역에서 감지된 것으로 판단되는 경우, 알람에 대응되는 신호를 제공할 수 있다. 출력부(260)는, 프로세서(270)가 제공하는 신호에 대응하는 알람을 출력할 수 있다.
BSD영역은, 운전자의 주의가 필요한 특정 범위의 지역일 수 있다. 프로세서(270)는, 운전자의 주의가 필요한 특정 범위의 지역을 BSD영역으로 설정할 수 있다. 예를 들어, 프로세서(270)는, 차량(100)의 후측방 사각지대를 BSD영역으로 설정할 수 있다. BSD영역은, 차량(100)의 후측방 사각지대의 일부를 포함하는 영역일 수 있다.
프로세서(270)는, 획득되는 정보에 기초하여 기 설정된 BSD(Blind Spot Detection) 영역을 변경할 수 있다. 프로세서(270)는, 획득되는 정보인 차량정보에 기초하여 BSD영역을 변경할 수 있다. 프로세서(270)는, 센싱부(210)가 감지한 오브젝트가 변경된 BSD영역에서 감지된 것으로 판단되는 경우, 알람에 대응하는 신호를 제공할 수 있다. 출력부(260)는, 프로세서(270)가 제공하는 신호에 대응하는 알람을 출력할 수 있다.
프로세서(270)가 획득하는 정보는, 차량 정보라고 명명할 수 있다. 상기 차량정보는, 차량 상태 정보, 타차량 상태 정보, 및 주행 환경 정보 중 적어도 하나를 포함할 수 있다.
상기 차량 상태 정보는, 차량(100)의 위치, 기어상태, 속도, 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보를 포함할 수 있다. 상기 차량 상태 정보는, 차량(100)의 위치 정보, 차량(100)의 기어상태를 나타내는 기어 포지션 정보, 차량(100)의 속도 정보, 차량(100)의 핸들조향각을 나타내는 조향 정보, 차량(100)의 방향지시등을 나타내는 턴 시그널 정보 및 차량(100)의 주행 경로 정보 중 적어도 하나를 포함할 수 있다.
상기 타차량 상태 정보는, 타차량의 차종, 위치, 속도, 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보를 포함할 수 있다. 상기 타차량의 차종 정보, 상기 타차량의 위치 정보, 상기 타차량의 속도 정보, 상기 타차량의 조향 정보, 상기 타차량의 턴 시그널 정보 상기 타차량의 주행 경로 정보 중 적어도 하나를 포함할 수 있다.
상기 주행 환경 정보는, 차량(100)의 주행 시간대가 야간 또는 주간임을 나타내는 주행 시간 정보, 차량(100)이 주행하는 도로 종류를 나타내는 주행 도로 정보, 및 차량(100)의 주변 교통상황이 원활 또는 정체임을 나타내는 교통 상황 정보 중 적어도 하나를 포함할 수 있다.
프로세서(270)는, 상기 차량정보에 기초하여 차량(100)의 사고 발생 가능성을 판단할 수 있다. 프로세서(270)는, 상기 차량정보에 기초하여 차량(100)의 사고 발생 가능성이 증가한다고 판단되는 경우, BSD영역을 확대할 수 있다. 프로세서(270)는, BSD영역이 확대하여, 알람이 출력되는 시점을 앞당길 수 있다. 운전자는, 위험한 상황을 더욱 빠르게 인지할 수 있다. 프로세서(270)는, 상기 차량정보에 기초하여 차량(100)의 사고 발생 가능성이 감소한다고 판단되는 경우, BSD영역을 축소할 수 있다. 프로세서(270)는, BSD영역이 축소하여, 알람이 출력되는 시점을 늦출 수 있다.
프로세서(270)는, 상기 차량정보에 기초하여, 특정 영역에서의 차량(100)의 사고 발생 가능성을 판단할 수 있다. 프로세서(270)는, 상기 차량정보에 기초하여, 특정 영역에서의 차량(100)의 사고 발생 가능성이 증가한다고 판단되는 경우, 상기 특정 영역이 있는 방향으로 BSD영역을 확대할 수 있다. 예를 들어, 프로세서(270)는, 상기 차량정보에 기초하여, 차량(100)의 좌측 후방에서의 차량(100)의 사고 발생 가능성이 증가한다고 판단되는 경우, 차량(100)의 좌측 후방으로 BSD영역을 확대할 수 있다.
프로세서(270)는, BSD영역 변경의 기준이 되는 기준 BSD영역을 설정할 수 있다. 기준 BSD영역은, 메모리(240)에 초기 설정으로써 저장될 수 있다. 프로세서(270)는, 기준 BSD영역을 기준으로 BSD영역을 변경할 수 있다. 예를 들어, 프로세서(270)는, 기준 BSD영역을 기준으로 BSD영역을 확대하거나 축소할 수 있다.
프로세서(270)는, 입력부(230)를 통한 BSD영역 설정 입력에 대응하여, 기준 BSD영역을 변경할 수 있다. 프로세서(270)는, 입력부(230)를 통한 BSD영역 설정 입력에 따라 기준 BSD영역이 변경되는 경우, 변경된 기준 BSD영역을 기준으로 BSD영역을 확대하거나 축소할 수 있다.
프로세서(270)는, 획득되는 정보에 기초하여 기 설정된 BSD(Blind Spot Detection) 영역을 변경하고, 센싱부(210)가 감지하는 오브젝트가 상기 변경된 BSD 영역에 위치하는 경우, 출력부(260)를 통해 알람이 출력되도록 제어할 수 있다.
프로세서(270)는, 주행 시간 정보, 주행 도로 정보, 및 교통 상황 정보 중 적어도 하나를 획득하고, 상기 획득한 정보에 기초하여 상기 기 설정된 BSD 영역을 변경할 수 있다.
프로세서(270)가 획득되는 정보는, 차량(100)의 주행 시간대가 야간 또는 주간임을 나타내는 주행 시간 정보, 차량(100)이 주행하는 도로 종류를 나타내는 주행 도로 정보, 및 차량(100)의 주변 교통상황이 원활 또는 정체임을 나타내는 교통 상황 정보, 중 적어도 하나를 포함할 수 있다.
프로세서(270)는, 상기 주행 시간 정보를 기초로 차량(100)이 주행 중인 시간대가 주간인지 야간인지 판단할 수 있다. 상기 주행 시간 정보는, 현재 시간을 나타내는 정보일 수 있다. 예를 들어, 프로세서(270)는, 현재 시간이 제1 기준 시간 이전이면 주간이고, 제2 기준 시간 이후이면 야간으로 판단할 수 있다. 상기 제1 기준 시간과 상기 제2 기준 시간은, 같은 시간일 수도 있고, 제1 기준 시간이 제2 기준 시간보다 이른 시간일 수도 있다. 예를 들어, 상기 제1 기준 시간이 오후 5시 이고, 상기 제2 기준 시간이 오후 7시이면, 프로세서(270)는, 현재 시간이 오후 5시 이전이면 주행 시간대를 주간으로 판단하고, 현재 시간이 오후 7시 이후이면 주행 시간대를 야간으로 판단할 수 있다. 상기 제1 기준 시간 및 제2 기준 시간은, 사용자가 설정할 수 있다.
프로세서(270)는, 주행 시간대가 주간인 경우, BSD영역을 축소할 수 있다. 프로세서(270)는, 주행 시간대가 야간인 경우, BSD영역을 확대 할 수 있다.
프로세서(270)는, 차량(100)이 주행 중인 시간대가 주간인 경우, 차량(100)의 주변이 야간에 비하여 밝으므로, 차량(100)의 사고 발생 가능성이 감소한다고 판단할 수 있다. 프로세서(270)는, 차량(100)이 주행 중인 시간대가 야간인 경우, 차량(100)의 주변이 주간에 비하여 어두우므로, 운전자의 시야가 좁아지고 차량(100)의 사고 발생 가능성이 증가한다고 판단할 수 있다.
프로세서(270)는, 차량(100)이 주행 중인 시간대가 주간인 경우, 차량(100)의 사고 발생 가능성이 감소한다고 판단하여, BSD영역을 축소할 수 있다. 프로세서(270)는, 차량(100)이 주행 중인 시간대가 야간인 경우, 차량(100)의 사고 발생 가능성이 증가한다고 판단하여, BSD영역을 확대 할 수 있다.
프로세서(270)는, 상기 주행 도로 정보를 기초로 차량(100)이 주행하는 도로 종류가 고속도로, 병목구간, 램프구간, 커브길, 산길, 및 공사구간 중의 하나인지 판단할 수 있다. 상기 주행 도로 정보는, 내비게이션 정보, 카메라 이미지, 도로 교통 정보 중 하나일 수 있다. 상기 주행 도로 정보가 내비게이션 정보인 경우, 프로세서(270)는, 상기 내비게이션 정보를 통하여 차량(100)이 주행하고 있는 도로의 종류를 판단할 수 있다. 상기 주행 도로 정보가 카메라 이미지인 경우, 상기 카메라 이미지는 차량(100)의 주변을 촬영한 이미지일 수 있다. 프로세서(270)는, 차량(100)의 주변을 촬영한 이미지를 분석하여 차량(100)이 주행하고 있는 도로의 종류를 판단할 수 있다. 상기 주행 도로 정보가 도로 교통 정보인 경우, 상기 도로 교통 정보는, 도로 교통 정보를 제공하는 특정 서버로부터, 통신부(220)를 통하여 수신될 수 있다. 상기 도로 교통 정보는, 차량(100)의 위치 정보를 기반으로 판단된 차량(100)이 주행 하고 있는 도로의 종류에 대한 내용이 포함된다.
프로세서(270)는, 도로 종류가 고속도로인 경우, BSD영역을 확대 할 수 있다.
프로세서(270)는, 차량(100)이 주행하는 도로가 고속도로인 경우, 차량(100) 및 타차량의 속도가 상대적으로 빠르므로, 차량(100)의 사고 발생 가능성이 증가한다고 판단할 수 있다. 프로세서(270)는, 차량(100)이 주행하는 도로가 고속도로인 경우, 차량(100)의 사고 발생 가능성이 증가한다고 판단하여, BSD영역을 확대할 수 있다.
프로세서(270)는, 도로 종류가 병목구간인 경우, BSD영역을 축소 할 수 있다.
프로세서(270)는, 차량(100)이 병목구간을 주행하는 경우, 차량(100) 및 타차량의 속도가 상대적으로 느리므로, 차량(100)의 사고 발생 가능성이 감소한다고 판단할 수 있다. 프로세서(270)는, 차량(100)이 병목구간을 주행하는 경우, 차량(100)의 사고 발생 가능성이 감소한다고 판단하여, BSD영역을 축소할 수 있다.
프로세서(270)는, 도로 종류가 램프구간인 경우, 합류 지점으로 상기 BSD영역을 확대 할 수 있다. 상기 램프구간은 다른 도로가 합류되는 구간을 말한다.
프로세서(270)는, 차량(100)이 다른 도로가 합류되는 램프구간을 주행하는 경우, 다른 도로의 합류 지점에서 타차량이 접근할 수 있으므로, 상기 합류 지점에서의 차량(100)의 사고 발생 가능성이 증가한다고 판단할 수 있다. 프로세서(270)는, 차량(100)이 다른 도로가 합류되는 램프구간을 주행하는 경우, 상기 합류 지점에서의 차량(100)의 사고 발생 가능성이 증가한다고 판단하여, 상기 합류 지점이 있는 방향으로 BSD영역을 확대할 수 있다.
프로세서(270)는, 교통 상황 정보를 기초로 차량(100) 주변의 교통 상황이 원활인지 정체인지 판단할 수 있다. 상기 교통 상황 정보는, 내비게이션 정보, 카메라 이미지, 도로 교통 정보 중 하나일 수 있다. 상기 주행 도로 정보가 내비게이션 정보인 경우, 프로세서(270)는, 상기 내비게이션 정보에 포함된 차량(100)이 주행하고 있는 도로의 교통 상황의 혼잡도에 대한 정보를 활용하여 상기 혼잡도가 설정값이상이면 정체이고 이하이면 원활이라고 판단할 수 있다. 상기 주행 도로 정보가 카메라 이미지인 경우, 상기 카메라 이미지는 차량(100)의 주변을 촬영한 이미지일 수 있다. 프로세서(270)는, 차량(100)의 주변을 촬영한 이미지를 분석하고, 차량(100)이 주행하고 있는 도로의 차량의 수를 검출하고, 단위 면적당 검출된 차량의 수를 산출하여, 산출된 값이 설정 값이상인 경우 교통 상황이 정체라고 판단할 수 있다. 상기 주행 도로 정보가 도로 교통 정보인 경우, 상기 도로 교통 정보는, 도로 교통 정보를 제공하는 특정 서버로부터, 통신부(220)를 통하여 수신될 수 있다. 상기 도로 교통 정보는, 차량(100)의 위치 정보를 기반으로 차량(100) 주변의 교통 상황이 원활인지 정체인지 평가한 내용이 포함된다.
프로세서(270)는, 교통상황이 원활인 경우, 상기 BSD영역을 확대 할 수 있다. 프로세서(270)는, 교통상황이 정체인 경우, 상기 BSD영역을 축소 할 수 있다.
프로세서(270)는, 차량(100)의 주변 교통상황이 원활인 경우, 차량(100) 및 타차량의 속도가 상대적으로 빠르므로, 차량(100)의 사고 발생 가능성이 증가한다고 판단할 수 있다. 프로세서(270)는, 차량(100)의 주변 교통상황이 원활인 경우, 차량(100)의 사고 발생 가능성이 증가한다고 판단하여, BSD영역을 확대할 수 있다.
프로세서(270)는, 차량(100)의 주변 교통상황이 정체인 경우, 차량(100) 및 타차량의 속도가 상대적으로 느리므로, 차량(100)의 사고 발생 가능성이 감소한다고 판단할 수 있다. 프로세서(270)는, 차량(100)의 주변 교통상황이 정체인 경우, 차량(100)의 사고 발생 가능성이 감소한다고 판단하여, BSD영역을 축소할 수 있다.
프로세서(270)는, 차량(100)이 주행 중인 도로 종류가 고속도로이고, 차량(100)의 주변 교통상황이 정체인 경우, BSD영역을 축소할 수 있다.
프로세서(270)는, 차량(100)이 고속도로에서 주행하더라도, 주변 교통상황이차량정체인 경우, 차량(100) 및 타차량의 속도가 상대적으로 느리므로, 차량(100)의 사고 발생 가능성이 감소한다고 판단할 수 있다. 프로세서(270)는, 차량(100)이 고속도로에서 주행하더라도, 주변 교통상황이차량정체인 경우, BSD영역을 축소할 수 있다.
프로세서(270)는, 차량(100)의 주행 시간대가 야간이고, 차량(100)의 주변 교통상황이 정체인 경우, BSD영역을 축소할 수 있다.
프로세서(270)는, 차량(100)의 주행시간대가 야간이더라도, 주변 교통상황이차량정체인 경우, 차량(100) 및 타차량의 속도가 상대적으로 느리므로, 차량(100)의 사고 발생 가능성이 감소한다고 판단할 수 있다. 프로세서(270)는, 차량(100)의 주행시간대가 야간이더라도, 주변 교통상황이 정체인 경우, BSD영역을 축소할 수 있다.
상기 차량정보는, 차량(100)의 위치, 기어상태, 속도, 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보를 포함할 수 있다.
프로세서(270)는, 인터페이스부(250)를 통해 수신된 차량(100)의 위치, 기어상태, 속도, 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보에 기초하여 BSD영역을 변경할 수 있다.
프로세서(270)는, 차량(100)의 기어상태가 R인 경우, BSD영역을 축소할 수 있다. 예를 들어, 차량(100)이 주차 중 후진을 하는 경우 차량(100)에 근접한 오브젝트가 문제되므로, 프로세서(270)는, BSD영역을 축소하여 차량(100)에 근접한 오브젝트에 대한 알람이 출력되도록 한다.
프로세서(270)는, 차량(100)의 속도가 증가하는 경우 BSD영역을 확대할 수 있다. 프로세서(270)는, 차량(100)의 속도가 감소하는 경우 BSD영역을 축소할 수 있다. 차량(100)의 속도가 증가하는 경우, 차량(100)의 운전자가 감지되는 오브젝트에 미리 대응할 수 있도록, 차량(100) 주변의 오브젝트는, 상대적으로 빨리 감지되어야 한다. 프로세서(270)는, 차량(100)의 속도가 증가하는 경우, 차량(100) 주변의 오브젝트가 상대적으로 빨리 감지될 수 있도록, BSD영역을 확대한다.
반면, 차량(100)의 속도가 감소하는 경우, 차량(100) 주변의 오브젝트가 상대적으로 천천히 감지되어도 무방하므로, 프로세서(270)는, BSD영역을 축소할 수 있다.
예를 들어, 프로세서(270)는, 차량(100)의 속도가 설정 속도 이상인 경우, BSD영역을 확대할 수 있다. 프로세서(270)는, 차량(100)의 속도가 상기 설정 속도 미만인 경우, BSD영역을 축소할 수 있다. 상기 설정 속도는, 실험을 통하여 결정되어, 메모리(240)에 저장된 값일 수 있다.
예를 들어, 프로세서(270)는, 차량(100)의 속도와 상기 설정 속도의 차이에 대응하여 BSD영역의 변화량을 조정할 수 있다. 예를 들어, 프로세서(270)는, 차량(100)의 속도가 상기 설정 속도 이상이고, 차량(100)의 속도와 상기 설정 속도의 차이가 큰 경우, BSD영역을 상대적으로 더 크게 확대할 수 있다.
프로세서(270)는, 상기 차량의 조향 정보, 상기 차량의 턴 시그널 정보, 및 상기 차량의 주행 경로 정보 중 적어도 하나를 기초로, 상기 차량의 차선 변경 의도를 판단하고, 상기 차선 변경 의도에 기초하여, 상기 차량이 이동하고자 하는 방향으로 상기 BSD 영역을 확대할 수 있다.
프로세서(270)는, 차량(100)의 핸들조향각이나 방향지시등에 대응하는 방향으로 BSD영역을 확대할 수 있다. 프로세서(270)는, 차량(100)의 핸들조향각이나 방향지시등에 기초하여, 차량(100)의 차선 변경 여부를 판단할 수 있다. 프로세서(270)는, 차량(100)이 차선을 변경하는 것으로 판단되면, 차량(100)이 이동할 차선 방향으로 BSD영역을 확대할 수 있다.
예를 들어, 프로세서(270)는, 차량(100)의 핸들조향각이 설정 각도 이상인 상태로 설정 시간이 경과하는 경우, 차량(100)이 차선을 변경할 것으로 판단하여, 차량(100)의 핸들조향각이 기울어진 방향으로 BSD영역을 확대한다. 상기 설정 각도 및 설정 시간은, 실험을 통하여 결정되어 메모리에 저장된 값일 수 있다.
예를 들어, 프로세서(270)는, 차량(100)의 방향지시등이 켜진 상태로 설정 시간이 경과하는 경우, 차량(100)이 차선을 변경할 것으로 판단하여, 차량(100)의 방향지시등이 켜진 방향으로 BSD영역을 확대한다. 상기 설정 시간은, 실험을 통하여 결정되어, 메모리에 저장된 값일 수 있다.
프로세서(270)는, 주행경로에 대한 정보에 기초하여 차량(100)의 차선 변경이 예상되는 경우, 변경될 차선 방향으로 BSD영역을 확대할 수 있다. 프로세서(270)는, 인터페이스부(250)를 통해 수신된 차량(100)의 주행경로에 대한 정보에 기초하여 차량(100)의 차선 변경 가능성을 판단할 수 있다. 예를 들어, 프로세서(270)는, 차량(100)의 주행경로가 전방 200m 앞 우회전이고, 현재 차량(100)의 주행 차선이 1차선인 경우, 차량(100)의 차선 변경 가능성이 있는 것으로 판단할 수 있다. 프로세서(270)는, 차량(100)의 차선 변경 가능성이 있는 것으로 판단되면, 차량(100)이 이동할 차선 방향으로 BSD영역을 확대할 수 있다.
상기 차량정보는, 타차량의 차종, 위치, 속도, 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보를 더 포함할 수 있다.
통신부(220)는 차량(100) 주변에서 주행 중인 타차량으로부터 타차량의 차종, 위치, 속도, 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보를 수신한다. 통신부(220)는, 수신된 정보를 프로세서(270)로 제공한다.
프로세서(270)는, 통신부(220)를 통해 수신된 타차량의 차종, 위치, 속도, 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보에 기초하여 BSD영역을 변경할 수 있다.
프로세서(270)는, 타차량의 차종이 대형차량인 경우, 타차량의 방향으로 BSD영역을 확대할 수 있다.
프로세서(270)는, 통신부(220)를 통하여 차량(100) 주변에서 주행 중인 타차량의 차종에 대한 정보를 수신할 수 있다.
프로세서(270)는, 수신된 정보에 기초하여, 타차량의 차종이 대형차량으로 판단된 경우, 대형차량이 있는 방향으로 BSD영역을 확대할 수 있다.
차량(100) 주변에서 대형차량이 주행 중인 경우, 프로세서(270)는, 대형차량이 있는 방향으로 BSD영역을 확대하여, 운전자가 대형차량을 미리 인지할 수 있도록 한다.
프로세서(270)는, 통신부(220)를 통해 수신되는 타차량의 위치 정보를 기초로, 타차량이 있는 방향으로 BSD영역을 확대한다.
프로세서(270)는, 타차량의 위치가 설정시간 이상동안 차량(100)에 접근하는 경우, 타차량의 방향으로 BSD영역을 확대할 수 있다.
프로세서(270)는, 통신부(220)를 통하여 차량(100) 주변에서 주행 중인 타차량의 위치에 대한 정보를 수신할 수 있다. 상기 타차량의 정보는 GPS 정보일 수 있다.
프로세서(270)는, 인터페이스부(250)를 통하여 수신된 차량(100)의 위치 정보와 통신부(220)를 통하여 수신된 타차량의 위치 정보에 기초하여, 차량(100)과 타차량 간의 거리를 판단할 수 있다. 프로세서(270)는, 차량(100)과 타차량 간의 거리가 설정시간 이상동안 감소하는 경우, 타차량이 차량(100)에 접근하는 것으로 판단할 수 있다. 상기 설정시간은, 실험을 통하여 결정되어 메모리(240)에 저장된 값일 수 있다.
프로세서(270)는, 타차량이 차량(100)에 접근하는 것으로 판단되는 경우, 타차량이 있는 방향으로 BSD영역을 확대할 수 있다. 이에 다라, 운전자는, 차량(100)에 접근 중인 타차량을 미리 인지할 수 있다.
프로세서(270)는, 타차량의 속도가 차량(100)의 속도 이상인 경우, 타차량의 방향으로 BSD영역을 확대할 수 있다.
프로세서(270)는, 통신부(220)를 통하여 차량(100) 주변에서 주행 중인 타차량의 속도에 대한 정보를 수신할 수 있다.
프로세서(270)는, 인터페이스부(250)를 통하여 수신된 차량(100)의 속도 정보와 통신부(220)를 통하여 수신된 타차량의 속도 정보를 비교하여, 타차량의 속도가 차량(100)의 속도 이상인 경우, 타차량이 있는 방향으로 BSD영역을 확대할 수 있다.
프로세서(270)는, 타차량의 속도가 차량(100)의 속도 이상인 경우, 타차량이 있는 방향으로 BSD영역을 확대하여, 운전자가 타차량을 미리 인지할 수 있도록 한다.
프로세서(270)는, 타차량의 핸들조향각 또는 방향지시등이 차량(100)을 향하는 경우, 타차량의 방향으로 BSD영역을 확대할 수 있다.
프로세서(270)는, 통신부(220)를 통하여 차량(100) 주변에서 주행 중인 타차량의 핸들조향각 또는 방향지시등에 대한 정보를 수신할 수 있다. 프로세서(270)는, 타차량의 핸들조향각 또는 방향지시등에 대한 정보를 기초로 타차량이 차량(100)을 향하여 이동하는지 판단할 수 있다. 프로세서(270)는, 타차량이 차량(100)을 향하여 이동하는 것으로 판단되는 경우, 타차량이 있는 방향으로 BSD영역을 확대한다.
프로세서(270)는, 타차량의 핸들조향각이 차량(100)이 있는 방향으로 설정각도 이상 기울어진 상태로 설정시간이 경과하면, 타차량이 있는 방향으로 BSD영역을 확대할 수 있다.
프로세서(270)는, 타차량의 방향지시등이 차량(100)이 있는 방향으로 켜진 상태가 설정시간 이상 지속되면, 타차량이 있는 방향으로 BSD영역을 확대할 수 있다.
프로세서(270)는, 타차량이 있는 방향으로 BSD영역을 확대하여, 운전자가 차량(100)에 접근하는 타차량을 미리 인지할 수 있도록 한다.
프로세서(270)는, 타차량의 주행경로에 대한 정보에 기초하여 타차량이 차량(100)에 접근하는 것으로 판단되는 경우, 타차량의 방향으로 BSD영역을 확대할 수 있다.
프로세서(270)는, 통신부(220)를 통하여 차량(100) 주변에서 주행 중인 타차량의 주행경로에 대한 정보를 수신할 수 있다. 프로세서(270)는, 타차량의 주행경로에 대한 정보를 기초로 타차량이 차량(100)을 향하여 접근하는지 판단할 수 있다.
프로세서(270)는, 인터페이스부(250)를 통하여 수신된 차량(100)의 위치 및 주행경로 정보와, 통신부(220)를 통하여 수신된 타차량의 위치 및 주행경로 정보를 기초로, 타차량이 차량(100)을 향하여 접근하는지 판단할 수 있다.
프로세서(270)는, 타차량이 차량(100)에 접근하는 것으로 판단되는 경우, 타차량이 있는 방향으로 BSD영역을 확대할 수 있다.
프로세서(270)는, BSD영역을 복수 개로 설정할 수 있다. 예를 들어, 프로세서(270)는, 4개의 BSD영역을 설정할 수 있다. 복수 개의 BSD영역은, 상호간의 중복되는 영역을 포함할 수 있다. 복수 개의 BSD영역은, 상호간의 중복되는 영역을 포함하지 않을 수도 있다.
프로세서(270)는, 상기 차량정보에 기초하여 복수 개의 BSD영역을 개별적으로 변경할 수 있다. 예를 들어, 프로세서(270)는, 상기 차량정보에 기초하여, 대형 차량이 차량(100)에 접근하는 것으로 판단되는 경우, 복수 개의 BSD영역 중, 차량(100)을 중심으로 상기 대형 차량이 있는 방향에 존재하는 BSD영역을 확대할 수 있다. 예를 들어, 프로세서(270)는, 상기 차량정보에 기초하여, 차량(100)이 우측 차선으로 이동하는 것으로 판단되는 경우, 복수 개의 BSD영역 중, 차량(100)의 우측에 존재하는 BSD영역을 확대하면서, 차량(100)의 좌측에 존재하는 BSD영역을 축소할 수 있다.
프로세서(270)는, 좌측 BSD영역 및 우측 BSD영역을 설정할 수 있다. BSD 영역은, 차량(100)의 좌측 BSD영역 및 우측 BSD영역을 포함할 수 있다. 좌측 BSD영역은, 차량(100)의 좌측에 존재하는 영역이다. 우측 BSD영역은, 차량(100)의 우측에 존재하는 영역이다. 예를 들어, 차량(100)의 좌측에 구비된 센싱부(210)는, 좌측 BSD영역에 위치하는 오브젝트를 감지할 수 있다. 예를 들어, 차량(100)의 우측에 구비된 센싱부(210)는, 우측 BSD영역에 위치하는 오브젝트를 감지할 수 있다.
프로세서(270)는, 상기 차량정보에 기초하여, 차량(100)의 좌측 및 우측에서의 차량(100)의 사고 발생 가능성을 판단할 수 있다. 프로세서(270)는, 상기 차량정보에 기초하여, 차량(100)의 좌측 및 우측 중, 차량(100)의 사고 발생 가능성이 증가한다고 판단되는 측면의 BSD영역을 확대할 수 있다. 예를 들어, 프로세서(270)는, 상기 차량정보에 기초하여, 차량(100)의 좌측 후방에서의 차량(100)의 사고 발생 가능성이 증가한다고 판단되는 경우, 좌측 BSD영역을 확대할 수 있다.
프로세서(270)는, 상기 차량의 조향 정보, 상기 차량의 턴 시그널 정보, 및 상기 차량의 주행 경로 정보 중 적어도 하나를 기초로, 상기 차량의 차선 변경 의도를 판단하고, 상기 차선 변경 의도에 기초하여, 상기 좌측 BSD 영역 및 우측 BSD 영역 중, 상기 차량이 이동하고자 하는 측면의 BSD 영역을 확대할 수 있다.
프로세서(270)는, 좌측 BSD영역 및 우측 BSD영역 중, 차량(100)의 핸들조향각이나 방향지시등 방향에 대응하는 측면의 BSD영역을 확대할 수 있다.
프로세서(270)는, 좌측 BSD영역 및 우측 BSD영역 중, 차량(100)의 핸들조향각이 기울어지는 방향에 존재하는 BSD영역을 확대할 수 있다. 프로세서(270)는, 좌측 BSD영역 및 우측 BSD영역 중, 차량(100)의 방향지시등이 켜지는 방향에 존재하는 BSD영역을 확대 할 수 있다.
차량(100)의 핸들조향각이 기울어지는 방향이나 방향지시등이 켜지는 방향은, 차량(100)이 이동하는 방향과 대응할 수 있으므로, 프로세서(270)는, 차량(100)의 핸들조향각이 기울어지는 방향이나 방향지시등이 켜지는 방향에 존재하는 측면의 BSD영역을 확대할 수 있다.
프로세서(270)는, 상기 차량정보에 기초하여 차량(100)의 차선 변경이 예상되는 경우, 좌측 BSD영역 및 우측 BSD영역 중, 변경될 차선에 대응하는 측면의 BSD영역을 확대할 수 있다.
상기 차량정보는, 차량(100)의 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보를 포함할 수 있다.
프로세서(270)는, 차량(100)의 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보에 기초하여, 차량(100)의 차선 변경 가능성을 판단할 수 있다.
예를 들어, 프로세서(270)는, 차량(100)의 핸들조향각이 설정 각도 이상인 상태로 설정 시간이 경과하는 경우, 차량(100)이 차선을 변경할 것으로 판단할 수 있다.
예를 들어, 프로세서(270)는, 차량(100)의 방향지시등이 켜진 상태로 설정 시간이 경과하는 경우, 차량(100)이 차선을 변경할 것으로 판단할 수 있다. 프로세서(270)는, 차량(100)이 이동할 목적지까지의 주행경로에 대한 정보에 기초하여 차량(100)의 차선 변경 가능성을 판단할 수 있다.
프로세서(270)는, 상기 차량정보에 기초하여 차량(100)이 차선을 변경하는 것으로 판단되면, 좌측 BSD영역 및 우측 BSD영역 중, 차량(100)이 이동할 차선 방향에 존재하는 BSD영역을 확대할 수 있다.
프로세서(270)는, 상기 차량정보에 기초하여 타차량이 차량(100)에 접근하는 것으로 판단되는 경우, 좌측 BSD영역 및 우측 BSD영역 중, 타차량이 존재하는 측면의 BSD영역을 확대할 수 있다.
프로세서(270)는, 통신부(220)를 통하여 타차량의 차종, 위치, 속도, 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보를 수신할 수 있다. 프로세서(270)는, 통신부(220)를 통하여 수신된 타차량에 관련된 정보에 기초하여, 타차량이 차량(100)에 접근하는지 판단할 수 있다. 프로세서(270)는, 타차량의 위치, 속도, 핸들조향각, 방향지시등, 및 주행경로에 대한 정보를 종합적으로 분석하여, 타차량이 차량(100)에 접근하는지 판단할 수 있다.
프로세서(270)는, 타차량이 차량(100)에 접근하는 것으로 판단되는 경우, 좌측 BSD영역 및 우측 BSD영역 중, 타차량이 존재하는 측면의 BSD영역을 확대할 수 있다.
프로세서(270)는, 상기 차량정보를 기초로, 차량(100)이 주행하는 도로 종류가 램프구간인 경우, 좌측 BSD영역 및 우측 BSD영역 중, 합류 지점이 존재하는 측면의 BSD영역을 확대할 수 있다.
프로세서(270)는, 차량(100)이 다른 도로가 합류되는 램프구간을 주행하는 경우, 다른 도로의 합류 지점에서 타차량이 접근할 수 있으므로, 상기 합류 지점에서의 차량(100)의 사고 발생 가능성이 증가한다고 판단할 수 있다. 프로세서(270)는, 차량(100)이 다른 도로가 합류되는 램프구간을 주행하는 경우, 상기 합류 지점에서의 차량(100)의 사고 발생 가능성이 증가한다고 판단하여, 좌측 BSD영역 및 우측 BSD영역 중, 상기 합류 지점이 존재하는 측면의 BSD영역을 확대할 수 있다.
프로세서(270)는, 상기 차량정보를 기초로, 차량(100)이 주행하는 도로 종류가 병목구간이고, 차량(100)의 차선 변경이 예상되는 경우, 좌측 BSD영역 및 우측 BSD영역 중, 변경될 차선이 존재하는 측면의 BSD영역을 확대할 수 있다.
프로세서(270)는, 상기 차량정보에 포함된 상기 도로정보를 기초로, 차량(100)이 주행하는 도로 종류가 병목구간인지 판단할 수 있다. 프로세서(270)는, 상기 차량정보에 포함된 상기 차량 상태 정보를 기초로 차량(100)의 차선 변경 가능성을 판단할 수 있다.
차량(100)이 주행하는 도로 종류가 병목구간인 경우, 프로세서(270)는, 상기 차량 상태 정보에 포함된 차량(100)의 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보를 기초로, 차량(100)의 차선 변경 가능성을 판단되는 경우, 좌측 BSD영역 및 우측 BSD영역 중, 차량(100)이 이동하고자 하는 차선이 존재하는 측면의 BSD영역을 확대할 수 있다.
BSD영역이 복수 개로 설정된 경우, 프로세서(270)는, 상기 차량정보에 기초하여 복수 개의 BSD영역 각각의 위험 레벨에 설정할 수 있다. 프로세서(270)는, 각각의 위험 레벨에 대응하는 신호를 제공할 수 있다. 예를 들어, BSD영역이 3개로 설정된 경우, 프로세서(270)는, BSD영역이 차량(100)에 근접한 순서대로 3개의 BSD영역의 위험 레벨을 설정할 수 있다.
프로세서(270)는, 제1 BSD영역 및 제1 BSD영역보다 좁은 영역인 제2 BSD영역을 설정할 수 있다. BSD영역은, 제1 BSD영역과 제2 BSD영역을 포함할 수 있다. 예를 들어, 제2 BSD영역은, 제1 BSD영역의 일 영역을 포함할 수 있다. 제1 BSD영역은, 제2 BSD영역을 포함할 수 있다. 제2 BSD영역은, 제1 BSD영역보다 차량(100)에 근접한 영역일 수 있다.
프로세서(270)는, 제1 BSD영역에서 오브젝트가 감지되는 경우, 제1 단계 알람에 대응되는 제1 신호를 제공할 수 있다. 프로세서(270)는, 제2 BSD영역에서 오브젝트가 감지되는 경우, 제2 단계 알람에 대응되는 제2 신호를 제공할 수 있다.
출력부(260)는, 프로세서(270)가 제공하는 제1 신호에 대응하여 제1 단계 알람을 출력할 수 있다. 출력부(260)는, 프로세서(270)가 제공하는 제2 신호에 대응하여 제2 단계 알람을 출력할 수 있다. 예를 들어, 제2 단계 알람은, 제1 단계 알람보다 더 위험한 상황을 알리는 것일 수 있다.
예를 들어, 제2 BSD영역이 제1 BSD영역보다 차량(100)에 근접한 영역인 경우, 프로세서(270)는, 제1 BSD영역에서 오브젝트가 감지되면, 출력부(260)를 통하여 제1 단계 알람을 출력한다. 프로세서(270)는, 제1 단계 알람이 출력된 후 제2 BSD영역에서 오브젝트가 감지되면, 오브젝트가 차량(100)에 점점 접근한 것이므로, 출력부(260)를 통하여 제2 단계 알람을 출력한다. 제2 단계 알람은, 제1 단계 알람보다 더 위험한 상황을 알리는 알람일 수 있다.
본 발명의 일실시예로, 프로세서(270)는, 상기 차량정보에 기초하여, 제2 BSD영역을 변경할 수 있다. 프로세서(270)는, 상기 차량정보에 기초하여 차량(100)의 사고 발생 가능성이 증가한다고 판단되는 경우, 제2 BSD영역을 확대할 수 있다. 프로세서(270)는, 제2 BSD영역이 확대하여, 제2 단계 알람이 출력되는 시점을 앞당길 수 있다. 운전자는, 위험한 상황을 더욱 빠르게 인지할 수 있다. 프로세서(270)는, 상기 차량정보에 기초하여 차량(100)의 사고 발생 가능성이 감소한다고 판단되는 경우, 제2 BSD영역을 축소할 수 있다. 프로세서(270)는, 제2 BSD영역이 축소하여, 제2 단계 알람이 출력되는 시점을 늦출 수 있다.
프로세서(270)는, 상기 주행 시간 정보를 기초로 차량(100)이 주행 중인 시간대가 주간인지 야간인지 판단할 수 있다. 프로세서(270)는, 주행 시간대가 주간인 경우, 제2 BSD영역을 축소할 수 있다. 프로세서(270)는, 주행 시간대가 야간인 경우, 제2 BSD영역을 확대 할 수 있다.
프로세서(270)는, 차량(100)이 주행 중인 시간대가 주간인 경우, 차량(100)의 사고 발생 가능성이 감소한다고 판단하여, 제2 BSD영역을 축소할 수 있다. 프로세서(270)는, 차량(100)이 주행 중인 시간대가 야간인 경우, 차량(100)의 사고 발생 가능성이 증가한다고 판단하여, 제2 BSD영역을 확대 할 수 있다.
프로세서(270)는, 상기 주행 도로 정보를 기초로 차량(100)이 주행하는 도로 종류가 고속도로, 병목구간, 램프구간, 커브길, 산길, 및 공사구간 중의 하나인지 판단할 수 있다.
프로세서(270)는, 도로 종류가 고속도로 또는 커브길인 경우, 제2 BSD영역을 확대 할 수 있다.
프로세서(270)는, 차량(100)이 주행하는 도로가 고속도로인 경우, 차량(100)의 사고 발생 가능성이 증가한다고 판단하여, 제2 BSD영역을 확대할 수 있다. 프로세서(270)는, 차량(100)이 주행하는 도로가 커브길인 경우, 차량(100)의 사고 발생 가능성이 증가한다고 판단하여, 제2 BSD영역을 확대할 수 있다.
프로세서(270)는, 도로 종류가 병목구간인 경우, 제2 BSD영역을 축소 할 수 있다.
프로세서(270)는, 차량(100)이 병목구간을 주행하는 경우, 차량(100) 및 타차량의 속도가 상대적으로 느리므로, 차량(100)의 사고 발생 가능성이 감소한다고 판단하여, 제2 BSD영역을 축소할 수 있다.
프로세서(270)는, 도로 종류가 램프구간인 경우, 합류 지점으로 제2 BSD영역을 확대 할 수 있다.
프로세서(270)는, 차량(100)이 다른 도로가 합류되는 램프구간을 주행하는 경우, 다른 도로의 합류 지점에서 타차량이 접근할 수 있으므로, 상기 합류 지점에서의 차량(100)의 사고 발생 가능성이 증가한다고 판단하여, 상기 합류 지점이 있는 방향으로 제2 BSD영역을 확대할 수 있다.
프로세서(270)는, 교통상황이 원활인 경우, 제2 BSD영역을 확대 할 수 있다. 프로세서(270)는, 교통상황이 정체인 경우, 제2 BSD영역을 축소 할 수 있다.
프로세서(270)는, 차량(100)의 주변 교통상황이 원활인 경우, 차량(100) 및 타차량의 속도가 상대적으로 빠르므로, 차량(100)의 사고 발생 가능성이 증가한다고 판단하여, 제2 BSD영역을 확대할 수 있다.
프로세서(270)는, 차량(100)의 주변 교통상황이 정체인 경우, 차량(100) 및 타차량의 속도가 상대적으로 느리므로, 차량(100)의 사고 발생 가능성이 감소한다고 판단하여, 제2 BSD영역을 축소할 수 있다.
프로세서(270)는, 차량(100)이 고속도로에서 주행하더라도, 주변 교통상황이차량정체인 경우, 차량(100) 및 타차량의 속도가 상대적으로 느리므로, 차량(100)의 사고 발생 가능성이 감소한다고 판단할 수 있다. 프로세서(270)는, 차량(100)이 고속도로에서 주행하더라도, 주변 교통상황이차량정체인 경우, 제2 BSD영역을 축소할 수 있다.
프로세서(270)는, 차량(100)의 주행시간대가 야간이더라도, 주변 교통상황이차량정체인 경우, 차량(100) 및 타차량의 속도가 상대적으로 느리므로, 차량(100)의 사고 발생 가능성이 감소한다고 판단할 수 있다. 프로세서(270)는, 차량(100)의 주행시간대가 야간이더라도, 주변 교통상황이차량정체인 경우, 제2 BSD영역을 축소할 수 있다.
프로세서(270)는, 차량(100)의 기어상태가 R이면 제2 BSD영역을 확대할 수 있다. 프로세서(270)는, 상기 차량정보에 기초하여, 차량(100)의 기어상태가 R인지 판단할 수 있다.
예를 들어, 차량(100)이 후진하는 경우 오브젝트와 충돌할 가능성이 증가하므로, 프로세서(270)는, 제2 BSD영역을 확대할 수 있다. 프로세서(270)는, 제2 BSD영역이 확대하여, 제2 단계 알람이 출력되는 시점을 앞당길 수 있다. 이와 달리, 프로세서(270)는, 차량(100)의 기어상태가 R이면, 제2 BSD영역을 축소할 수도 있다.
프로세서(270)는, 차량(100)의 속도가 증가하면 제2 BSD영역을 확대할 수 있다. 프로세서(270)는, 차량(100)의 속도가 감소하면 제2 BSD영역을 축소할 수 있다. 프로세서(270)는, 상기 차량정보에 기초하여, 차량(100)의 속도가 증가하거나 감소하는지 판단할 수 있다.
차량(100)의 속도가 증가하는 경우, 차량(100)의 사고 발생 가능성이 상대적으로 증가할 수 있다. 프로세서(270)는, 차량(100)의 속도가 증가하는 경우, 제2 BSD영역을 확대하여, 제2 단계 알람이 출력되는 시점을 빠르게 한다.
반면, 차량(100)의 속도가 감소하는 경우, 사고 발생 가능성이 감소하고, 차량(100) 주변의 오브젝트가 천천히 감지되어도 무방하므로, 프로세서(270)는, 제2 BSD영역을 축소할 수 있다.
프로세서(270)는, 차량(100)의 속도가 설정 속도 이상인 경우, 제2 BSD영역을 확대할 수 있다. 프로세서(270)는, 차량(100)의 속도가 상기 설정 속도 미만인 경우, 제2 BSD영역을 축소할 수 있다. 상기 설정 속도는, 실험을 통하여 결정되어, 메모리(240)에 저장된 값일 수 있다.
프로세서(270)는, 차량(100)의 속도와 상기 설정 속도의 차이에 대응하여 제2 BSD영역의 변화량을 조정할 수 있다. 예를 들어, 프로세서(270)는, 차량(100)의 속도가 상기 설정 속도 이상이고, 차량(100)의 속도와 상기 설정 속도의 차이가 큰 경우, 제2 BSD영역을 상대적으로 더 크게 확대할 수 있다.
프로세서(270)는, 차량(100)의 핸들조향각이나 방향지시등에 대응하는 방향으로 제2 BSD영역을 확대할 수 있다. 프로세서(270)는, 상기 차량정보에 기초하여, 차량(100)의 핸들조향각이나 방향지시등에 대응하는 방향을 판단할 수 있다. 프로세서(270)는, 차량(100)의 핸들조향각이나 방향지시등에 대응하는 방향으로 차량(100)이 차선을 변경한다고 판단할 수 있다.
차량(100)이 차선을 변경하는 경우, 이동하려는 차선 방향으로 운전자 주의가 필요하다. 따라서, 프로세서(270)는, 차량(100)이 차선을 변경하는 경우, 이동하려는 차선 방향으로 제2 BSD영역을 확대할 수 있다.
프로세서(270)는, 차량(100)의 핸들조향각이 설정 각도 이상인 상태로 설정 시간이 경과하는 경우, 차량(100)이 차선을 변경할 것으로 판단하여, 차량(100)의 핸들조향각이 기울어진 방향으로 제2 BSD영역을 확대한다. 상기 설정 각도 및 설정 시간은, 실험을 통하여 결정되어 메모리에 저장된 값일 수 있다.
프로세서(270)는, 차량(100)의 방향지시등이 켜진 상태로 설정 시간이 경과하는 경우, 차량(100)이 차선을 변경할 것으로 판단하여, 차량(100)의 방향지시등이 켜진 방향으로 제2 BSD영역을 확대한다. 상기 설정 시간은, 실험을 통하여 결정되어, 메모리에 저장된 값일 수 있다.
프로세서(270)는, 주행경로에 대한 정보에 기초하여 차량(100)의 차선 변경이 예상되는 경우, 변경될 차선 방향으로 제2 BSD영역을 확대할 수 있다.
차량(100)이 차선을 변경하는 경우, 이동하려는 차선 방향으로 운전자 주의가 필요하므로, 프로세서(270)는, 차량(100)이 이동하려는 차선 방향으로 제2 BSD영역을 확대할 수 있다.
프로세서(270)는, 인터페이스부(250)를 통해 수신된 차량(100)의 주행경로에 대한 정보에 기초하여 차량(100)의 차선 변경 가능성을 판단할 수 있다. 예를 들어, 프로세서(270)는, 차량(100)의 주행경로가 전방 300m 앞 좌회전이고, 현재 차량(100)의 주행 차선이 1차선이 아닌 경우, 차량(100)의 차선 변경 가능성이 있는 것으로 판단할 수 있다. 프로세서(270)는, 차량(100)의 차선 변경 가능성이 있는 것으로 판단되면, 차량(100)이 이동할 차선 방향으로 제2 BSD영역을 확대할 수 있다.
프로세서(270)는, 상기 차량정보에 기초하여, 차량(100)이 차선을 변경하지 않는 것으로 판단되고, 제2 BSD영역에서 오브젝트가 감지되는 경우, 제1 단계 알람에 대응하는 제1 신호를 제공할 수 있다. 상기 차량정보는, 차량(100)의 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보를 포함할 수 있다.
프로세서(270)는, 차량(100)의 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보에 기초하여, 차량(100)이 차선을 변경하지 않는 것을 판단할 수 있다. 예를 들어, 차량(100)의 핸들조향각이 기울어지지 않거나, 방향지시등이 켜지지 않거나, 차량(100)의 주행 경로가 계속 직진인 경우, 프로세서(270)는, 차량(100)이 차선을 변경하지 않는 것으로 판단할 수 있다.
프로세서(270)는, 차량(100)이 차선을 변경하지 않는 것으로 판단된 경우, 제2 BSD영역에서 오브젝트가 감지되면, 제1 단계 알람에 대응하는 제1 신호를 제공할 수 있다. 출력부(260)는, 프로세서(270)가 제공하는 제1 신호에 대응하여 제1 단계 알람을 출력한다.
차량(100)이 차선을 변경하지 않는 경우, 차량(100)의 측후방에 존재하는 오브젝트의 위험도가 적으므로, 프로세서(270)는, 오브젝트가 제2 BSD영역에서 감지되더라도, 출력부(260)를 통하여 제1 단계 알람을 출력할 수 있다.
프로세서(270)는, 센싱부(210)가 제공하는 오브젝트 감지 신호를 기초로, 감지된 오브젝트와 차량(100) 간의 거리를 산출할 수 있다. 본 발명의 다른 실시예로, 센싱부(210)가 감지되는 오브젝트와의 거리를 측정할 수 있는 장치인 경우, 센싱부(210)는, 차량(100)과 감지된 오브젝트 간의 거리 데이터를 프로세서(270)에 제공할 수 있다.
프로세서(270)는, 감지된 오브젝트와 차량(100) 간의 거리가 설정시간 이상동안 증가하고, 제2 BSD영역에서 오브젝트가 감지되는 경우, 제1 신호를 제공할 수 있다. 출력부(260)는, 프로세서(270)가 제공하는 제1 신호에 대응하여 제1 단계 알람을 출력할 수 있다.
프로세서(270)는, 차량(100)과 감지된 오브젝트 간의 거리가 설정시간 이상동안 증가하는지 판단한다. 상기 설정시간은 실험을 통하여 결정되어, 메모리에 저장된 값일 수 있다.
프로세서(270)는, 차량(100)과 감지된 오브젝트 간의 거리가 설정시간 이상동안 증가하는 것으로 판단되는 경우, 제2 BSD영역에서 상기 오브젝트가 감지되면, 제1 신호를 제공한다. 출력부(260)는, 프로세서(270)가 제공하는 제1 신호에 대응하여 제1 단계 알람을 출력한다.
차량(100)과 제2 BSD영역에 존재하는 오브젝트의 거리가 점점 멀어지는 경우, 사고 발생 가능성이 낮으므로, 프로세서(270)는, 오브젝트가 제2 BSD영역에서 감지되더라도, 출력부(260)를 통하여 제1 단계 알람을 출력할 수 있다.
프로세서(270)는, 제1 BSD영역 및 제1 BSD영역보다 좁은 영역인 제2 BSD영역을 설정할 수 있다. 프로세서(270)는, 제1 BSD영역에서 오브젝트가 감지되는 경우, 제1 단계 알람에 대응되는 제1 신호를 제공할 수 있다. 프로세서(270)는, 제2 BSD영역에서 오브젝트가 감지되는 경우, 제2 단계 알람에 대응되는 제2 신호를 제공할 수 있다.
프로세서(270)는, 타차량의 차종이 대형차량인 경우, 타차량의 방향으로 제2 BSD영역을 확대할 수 있다.
프로세서(270)는, 통신부(220)를 통하여 차량(100) 주변에서 주행 중인 타차량의 차종에 대한 정보를 수신할 수 있다. 프로세서(270)는, 수신된 정보에 기초하여, 타차량의 차종이 대형차량으로 판단된 경우, 대형차량이 있는 방향으로 제2 BSD영역을 확대할 수 있다.
차량(100)의 주변에서 주행하는 대형차량이 확대된 제2 BSD영역에 존재하는 경우, 프로세서(270)는, 출력부(260)를 통하여 제2 단계 알람을 출력한다. 이에 따라, 운전자는, 대형차량을 명확하게 인지할 수 있다.
프로세서(270)는, 통신부(220)를 통해 수신되는 타차량의 위치 정보를 기초로, 타차량이 있는 방향으로 제2 BSD영역을 확대한다.
프로세서(270)는, 타차량의 위치가 설정시간 이상동안 차량(100)에 접근하는 경우, 타차량의 방향으로 제2 BSD영역을 확대할 수 있다.
프로세서(270)는, 통신부(220)를 통하여 차량(100) 주변에서 주행 중인 타차량의 위치에 대한 정보를 수신할 수 있다. 프로세서(270)는, 인터페이스부(250)를 통하여 수신된 차량(100)의 위치 정보와 통신부(220)를 통하여 수신된 타차량의 위치 정보에 기초하여, 차량(100)과 타차량 간의 거리를 판단할 수 있다. 프로세서(270)는, 차량(100)과 타차량 간의 거리가 설정시간 이상동안 감소하는 경우, 타차량이 차량(100)에 접근하는 것으로 판단할 수 있다.
프로세서(270)는, 타차량이 차량(100)에 접근하는 것으로 판단되는 경우, 위험도가 높으므로, 타차량이 있는 방향으로 제2 BSD영역을 확대할 수 있다.
프로세서(270)는, 타차량의 속도가 차량(100)의 속도 이상인 경우, 타차량의 방향으로 제2 BSD영역을 확대할 수 있다.
프로세서(270)는, 통신부(220)를 통하여 차량(100) 주변에서 주행 중인 타차량의 속도에 대한 정보를 수신할 수 있다. 프로세서(270)는, 인터페이스부(250)를 통하여 수신된 차량(100)의 속도 정보와 통신부(220)를 통하여 수신된 타차량의 속도 정보를 비교하여, 타차량의 속도가 차량(100)의 속도 이상인 경우, 타차량이 있는 방향으로 제2 BSD영역을 확대할 수 있다.
프로세서(270)는, 타차량의 속도가 차량(100)의 속도 이상인 경우, 위험도가 높으므로, 타차량이 있는 방향으로 제2 BSD영역을 확대한다.
프로세서(270)는, 타차량의 핸들조향각 또는 방향지시등이 차량(100)을 향하는 경우, 타차량의 방향으로 제2 BSD영역을 확대할 수 있다.
프로세서(270)는, 통신부(220)를 통하여 차량(100) 주변에서 주행 중인 타차량의 핸들조향각 또는 방향지시등에 대한 정보를 수신할 수 있다. 프로세서(270)는, 타차량의 핸들조향각 또는 방향지시등에 대한 정보를 기초로 타차량이 차량(100)을 향하여 이동하는지 판단할 수 있다.
프로세서(270)는, 타차량의 핸들조향각이 차량(100)이 있는 방향으로 설정각도 이상 기울어진 상태로 설정시간이 경과하면, 타차량이 있는 방향으로 제2 BSD영역을 확대할 수 있다. 프로세서(270)는, 타차량의 방향지시등이 차량(100)이 있는 방향으로 켜진 상태가 설정시간 이상 지속되면, 타차량이 있는 방향으로 제2 BSD영역을 확대할 수 있다.
프로세서(270)는, 타차량의 주행경로에 대한 정보에 기초하여 타차량이 차량(100)에 접근하는 것으로 판단되는 경우, 타차량의 방향으로 제2 BSD영역을 확대할 수 있다.
프로세서(270)는, 통신부(220)를 통하여 차량(100) 주변에서 주행 중인 타차량의 주행경로에 대한 정보를 수신할 수 있다. 프로세서(270)는, 타차량의 주행경로에 대한 정보를 기초로, 타차량의 주행경로에 차량(100)이 위치하고, 타차량이 현재 타차량의 주행경로에 위치하지 않으며, 타차량과 차량(100) 간의 거리가 감소하는 경우, 타차량이 차량(100)을 향하여 접근할 것으로 판단할 수 있다.
프로세서(270)는, 타차량이 차량(100)에 접근하는 것으로 판단되는 경우, 타차량이 있는 방향으로 제2 BSD영역을 확대할 수 있다.
프로세서(270)는, 인터페이스부(250) 및 통신부(220)를 통해 수신된 차량정보에 기초하여, 차량(100)의 차선 변경시 타차량이 차량(100)에 설정거리 이내로 접근한다고 판단되는 경우, 제2 단계 알람에 대응하는 제2 신호를 제공할 수 있다.
프로세서(270)는, 인터페이스부(250)를 통하여 수신된 차량(100)에 관련된 정보와, 통신부(220)를 통하여 수신된 타차량에 관련된 정보를 기초로, 차량(100)의 차선 변경시 타차량의 움직임, 및 타차량과 차량(100) 간의 거리를 판단할 수 있다. 이에 따라, 프로세서(270)는, 차량(100)의 차선 변경시 타차량이 차량(100)에 설정거리 이내로 접근하는지 판단할 수 있다. 상기 설정거리는, 타차량에 대한 알람이 필요한 거리로 실험에 의해 결정될 수 있고, 메모리(240)에 저장된 값일 수 있다.
프로세서(270)는, 차량(100)의 차선 변경시 타차량이 차량(100)에 설정거리 이내로 접근한다고 판단되는 경우, 제2 신호를 제공할 수 있다. 출력부(260)는, 제2 신호에 대응하여 제2 단계 알람을 출력한다.
프로세서(270)는, 제2 BSD영역에서 오브젝트가 감지되지 않더라도, 차량(100)의 차선 변경시 타차량이 차량(100)에 설정거리 이내로 접근한다고 판단되는 경우, 제2 신호를 제공할 수 있다.
프로세서(270)는, 상기 차량정보에 기초하여 차량(100)과 타차량이 충돌하는 것으로 판단되는 경우, 차량(100)과 타차량의 충돌이 발생하지 않도록, 차량(100)의 조향장치, 제동장치, 구동장치 중 적어도 하나를 제어하기 위한 신호를 제공할 수 있다.
프로세서(270)는, 획득되는 정보에 기초하여, 상기 차량의 차선 변경 의도나 상기 타차량의 이동 경로를 판단하고, 상기 차량의 차선 변경 의도가 없거나, 상기 타차량이 상기 차량으로부터 멀어지는 것으로 판단되는 경우, 상기 제1 단계 알람이 출력되도록 제어할 수 있다.
프로세서(270)는, 획득되는 정보에 기초하여, 상기 차량의 차선 변경시 상기 타차량이 설정거리 이내로 접근한다고 판단되는 경우, 상기 제2 알람을 제공할 수 있다.
프로세서(270)는, 상기 차량정보에 포함된 상기 차량 상태 정보, 및 상기 타차량 상태 정보를 기초로, 타차량과 차량(100) 간의 상대거리 및 상대속도의 변화량을 산출할 수 있다. 프로세서(270)는, 상기 차량 상태 정보에 포함된 차량(100)의 위치, 속도, 핸들조향각, 및 주행경로 정보를 기초로 차량(100)의 움직임을 분석하면서, 상기 타차량 상태 정보에 포함된 차량(100)의 위치, 속도, 핸들조향각, 및 주행경로 정보와, 타차량의 위치, 속도, 핸들조향각, 및 주행경로 정보를 기초로 타차량의 움직임을 분석할 수 있다. 프로세서(270)는, 차량(100)의 움직임과 타차량의 움직임을 분석하여, 타차량과 차량(100) 간의 상대거리 및 상대속도의 변화량을 산출할 수 있다.
프로세서(270)는, 타차량과 차량(100) 간의 상대거리 및 상대속도의 변화량을 기초로, TTC(Time to Collision)를 산출할 수 있다. 프로세서(270)는, 산출된 TTC를 기초로, 차량(100)이 현재와 동일한 상태로 주행하는 경우, 차량(100)과 타차량이 충돌하는지 판단할 수 있다.
프로세서(270)는, 차량(100)과 타차량이 충돌하는 것으로 판단되는 경우, 차량(100)과 타차량이 충돌하지 않기 위한 차량(100)의 움직임을 산출한다. 이 경우, 프로세서(270)는, 센싱부(210, 125)를 통하여 차량(100)의 전후좌우에 존재하는 오브젝트를 감지할 수 있다. 프로세서(270)는, 차량(100)의 전후좌우에서 감지되는 오브젝트를 피하면서, 타차량과 충돌하지 않을 수 있는 차량(100)의 움직임을 산출할 수 있다.
프로세서(270)는, 산출된 움직임에 따라 차량이 움직이도록, 차량(100)의 조향장치, 제동장치, 구동장치 중 적어도 하나를 제어하기 위한 신호를 제공할 수 있다. 프로세서(270)는, 인터페이스부(250)를 통하여, 상기 제어를 위한 신호를 제어부(170) 또는 차량 구동부(150)로 제공할 수 있다. 제어부(170) 또는 차량 구동부(150)는, 상기 제어를 위한 신호에 대응하여 차량(100)을 제어한다.
프로세서(270)는 ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
입력부(230)는, 차량용 운전 보조 장치(200)에 대한 사용자 입력을 수신할 수 있다. 입력부(230)는, 차량용 운전 보조 장치(200)의 활성화 입력을 수신할 수 있다. 입력부(230)를 통하여, 차량용 운전 보조 장치(200)의 활성화 입력이 수신되는 경우, 차량용 운전 보조 장치(200)가 작동할 수 있다.
입력부(230)는, 차량용 운전 보조 장치(200)의 여러 기능에 대한 활성화 입력을 수신할 수 있다. 차량용 운전 보조 장치(200)의 기능은, 알람 출력 수단 변경, BSD영역 변경, 및 차량 회피 기능 등이 포함할 수 있다. 입력부(230)를 통하여, 차량용 운전 보조 장치(200)의 특정 기능에 대한 활성화 입력이 수신되는 경우, 이에 대응하는 특정 기능이 작동될 수 있다.
입력부(230)는, 출력부(260)가 출력하는 알람에 대한 설정 입력을 수신할 수 있다.
입력부(230)는, 기계식 입력 장치, 터치식 입력 장치, 음성 입력 장치 및 무선 입력 장치 중 적어도 하나를 포함할 수 있다.
기계식 입력 장치는, 버튼, 레버, 조그휠, 스위치 등을 포함할 수 있다. 터치식 입력 장치는, 적어도 하나의 터치 센서를 포함할 수 있다. 터치 입력 장치는 터치 스크린으로 구성될 수 있다. 음성 입력 장치는, 음성을 전기적 신호로 전환할 수 있다. 음성 입력 장치는, 마이크를 포함할 수 있다. 무선 입력 장치는, 무선(wireless)으로 사용자 입력을 수신할 수 있다.
메모리(240)는, 프로세서(270)의 처리 또는 제어를 위한 프로그램 등, 차량용 운전 보조 장치(200)의 동작에 대한 다양한 데이터를 저장할 수 있다.
메모리(240)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(240)는, 실시예에 따라, 프로세서(270)의 하위 구성으로 포함될 수 있다.
전원 공급부(290)는, 프로세서(270)의 제어에 의해, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 전원 공급부(290)는, 차량 내부의 배터리 등으로부터 전원을 공급받을 수 있다.
도 4a 내지 4c는 본 발명의 실시예에 따른 차량용 운전 보조 장치의 센싱부 배치 및 BSD영역의 배치를 설명하는데 참조되는 도면이다.
도 4a 및 4b을 참조하면, 차량용 운전 보조 장치(200)의 센싱부(210)는, 차량(100)의 일 영역에 배치될 수 있다. 예를 들어, 센싱부(210)는, 차량(100)의 후방 범퍼의 일 영역, 및 차량(100)의 사이드 미러 중 적어도 하나에 배치될 수 있다.
차량용 운전 보조 장치(200)는, 적어도 하나의 센싱부(210)를 구비할 수 있다.
센싱부(210)는, 차량(100) 외부에 위치하는 오브젝트를 감지할 수 있다. 예를 들어, 센싱부(210)는, 차량(100) 외부의 오브젝트가 감지될 수 있는 범위인 감지 범위를 가질 수 있다.
센싱부(210)는, 카메라, 레이더(Radar), 라이다(Lidar), 초음파 센서, 및 적외선 센서 중 하나일 수 있다.
도 4b를 참조하면, 본 발명의 일 실시예에 따른 센싱부(210)는, 차량(100)의 우측 사이드 미러와 좌측 사이드 미러에 하나씩 배치될 수도 있다.
차량용 운전 보조 장치(200)는, 광출력부(211) 및 음향출력부(212)를 더 포함할 수 있다.
광출력부(211) 및 음향출력부(212)는, 차량(100) 내부 또는 외부의 일 영역에 배치될 수 있다. 예를 들어, 광출력부(211) 및 음향출력부(212)는, 사이드 미러에 배치된 센싱부(210)에 대응하여 좌측 및 우측으로 구분될 수 있다. 광출력부(211) 및 음향출력부(212)가 좌측 및 우측으로 구분되는 경우, 센싱부(210)를 통해 감지된 오브젝트가 위치하는 측면의 광출력부(211) 및 음향출력부(212)로 알람이 출력된다.
도 4c를 참조하면, 본 발명의 일 실시예에 따른 BSD(Blind Spot Detection)영역은, 차량(100)의 좌측 및 우측에 형성될 수 있다. BSD영역은, 좌측 BSD영역(301a) 및 우측 BSD영역(301b)을 포함할 수 있다.
프로세서(270)는, 출력부(260)를 통하여, 좌측 BSD영역(301a) 및 우측 BSD영역(301b) 각각에 대응하는 알람을 출력할 수 있다. 예를 들어, 프로세서(270)는, 센싱부(210)에 의하여 감지된 오브젝트의 위치가 좌측 BSD영역(301a) 내인 경우, 좌측에 구비된 광출력부(211) 및 음향출력부(212) 중 적어도 하나를 통하여 알람을 출력할 수 있다.
도 4c의 (a)를 참조하면, 본 발명의 일 실시예로, 센싱부(210)는, 차량(100)의 후방 범퍼의 좌측 및 우측 영역에 배치될 수 있다.
도 4c의 (b)는, 본 발명의 일 실시예로, 센싱부(210)는, 차량(100)의 좌측 사이드 미러 및 우측 사이드 미러에 배치될 수 있다.
프로세서(270)는, 센싱부(210)에 의하여 감지된 오브젝트의 위치가 좌측 BSD영역(301a) 또는 우측 BSD영역(301b) 내인 경우, 출력부(260)를 통하여 알람을 출력할 수 있다. 예를 들어, 프로세서(270)는, 센싱부(210)에 의하여 감지된 오브젝트의 위치가 좌측 BSD영역(301a) 내인 경우, 출력부(260)를 통하여 좌측 BSD영역(301a)에 대응하는 알람을 출력할 수 있다.
도 5a 내지 5c는, 본 발명의 실시예에 따른 차량용 운전 보조 장치가 알람을 출력하기 위한 BSD영역을 설명하는데 참조되는 도면이다.
도 5a를 참조하면, 프로세서(270)는, 차량의 좌측 및 우측에 각각 제1 BSD영역 및 제2 BSD영역을 설정할 수 있다.
프로세서(270)는, 차량(100)의 후측방에 배치된 센싱부(210)를 통하여, 좌측 제1 BSD영역(302a), 우측 제1 BSD 영역(302b), 좌측 제2 BSD영역(303a), 및 우측 제2 BSD영역(303b) 중 적어도 하나의 영역에 위치하는 오브젝트를 감지할 수 있다.
이 경우, BSD영역은, 좌측 제1 BSD영역(302a), 우측 제1 BSD 영역(302b), 좌측 제2 BSD영역(303a), 우측 제2 BSD영역(303b)을 포함할 수 있다. 좌측 제2 BSD영역(303a)은, 좌측 제1 BSD영역(302a)에 포함되는 영역일 수 있다. 우측 제2 BSD영역(303b)은, 우측 제1 BSD영역(302b)에 포함되는 영역일 수 있다.
프로세서(270)는, 좌측 제1 BSD영역(302a), 및 우측 제1 BSD 영역(302b)에서 오브젝트가 검출되는 경우, 출력부(260)를 통하여 제1 단계 알람을 출력할 수 있다. 프로세서(270)는, 좌측 제2 BSD영역(303a), 및 우측 제2 BSD 영역(303b)에서 오브젝트가 검출되는 경우, 출력부(260)를 통하여 제2 단계 알람을 출력할 수 있다. 제1 단계 알람 및 제2 단계 알람은, 입력부(230)를 통한 설정 입력에 따라 다르게 설정될 수 있다.
프로세서(270)는, 상기 차량정보를 기초로, 좌측 제1 BSD영역(302a), 우측 제1 BSD 영역(302b), 좌측 제2 BSD영역(303a), 우측 제2 BSD영역(303b)을 개별적으로 변경할 수 있다.
프로세서(270)는, 상기 차량정보를 기초로, 운전자가 오브젝트를 미리 인지해야하는 상황으로 판단되는 경우, 오브젝트가 존재하는 측면의 제1 BSD영역을 확대할 수 있다. 프로세서(270)는, 상기 차량정보를 기초로, 위험도가 높은 상황으로 판단되는 경우, 위험도가 존재하는 측면의 제2 BSD영역을 확대할 수 있다.
도 5b를 참조하면, 프로세서(270)는, 좌측 제1 BSD영역(302a), 우측 제1 BSD 영역(302b), 좌측 제2 BSD영역(303a), 및 우측 제2 BSD영역(303b)을 설정하고, 이와 별도로, 좌측 BSD영역(301a) 및 우측 BSD영역(301b)을 더 설정할 수 있다.
프로세서(270)는, 차량(100)의 후측방에 배치된 센싱부(210)를 통하여, 좌측 제1 BSD영역(302a), 우측 제1 BSD 영역(302b), 좌측 제2 BSD영역(303a), 및 우측 제2 BSD영역(303b) 중 적어도 하나의 영역에 위치하는 오브젝트를 감지할 수 있다. 동시에, 프로세서(270)는, 차량(100)의 사이드미러에 배치된 센싱부(210)를 통하여, 좌측 BSD영역(301a) 또는 우측 BSD영역(301b)에 위치하는 오브젝트를 감지할 수 있다.
프로세서(270)는, 상기 차량정보를 기초로, 좌측 제1 BSD영역(302a), 우측 제1 BSD 영역(302b), 좌측 제2 BSD영역(303a), 우측 제2 BSD영역(303b), 좌측 BSD영역(301a), 및 우측 BSD영역(301b)을 개별적으로 변경할 수 있다.
프로세서(270)는, 입력부(230)를 통하여, 좌측 BSD영역(301a) 또는 우측 BSD영역(301b)에서 오브젝트가 감지되는 경우 출력되는 알람을 설정할 수 있다.
도 5c를 참조하면, 프로세서(270)는, 상기 차량정보를 기초로, 좌측 BSD영역(301a) 및 우측 BSD영역(301b) 중 적어도 하나를 변경할 수 있다.
프로세서(270)는, 상기 차량정보를 기초로, 운전자가 오브젝트를 미리 인지해야하는 상황으로 판단되는 경우, 양측의 BSD영역(301a, 301b)을 확대할 수 있다. 예를 들어, 프로세서(270)는, 차량(100)의 속도가 증가하거나, 타차량의 속도가 차량(100)의 속도보다 빠르거나, 차량(100)이 고속도로에서 주행하거나, 차량(100)이 야간에 주행하는 경우, BSD영역을 확대할 수 있다. 확대된 BSD영역(305a, 305b)으로 인하여, 알람이 상대적으로 빠르게 출력된다.
프로세서(270)는, 상기 차량정보를 기초로, 운전자가 오브젝트를 천천히 인지해도 무방한 것으로 판단되는 경우, 양측의 BSD영역(301a, 301b)을 축소할 수 있다. 예를 들어, 프로세서(270)는, 차량(100)의 속도가 감소하거나, 타차량의 속도가 차량(100)의 속도보다 느리거나, 차량(100)의 주변 교통상황이 정체이거나, 차량(100)이 주간에 주행하는 경우, BSD영역을 축소할 수 있다. 축소된 BSD영역(304a, 304b)으로 인하여, 알람이 상대적으로 느리게 출력된다.
프로세서(270)는, 차량(100)의 좌측 및 우측 중, 차량(100)에 접근하는 오브젝트가 있는 측면의 BSD영역을 확대할 수 있다. 프로세서(270)는, 차량정보를 기초로 차량(100)의 차선 변경 가능성을 판단하여, 차량(100)의 좌측 및 우측 중, 차량(100)이 이동하고자 하는 차선이 있는 측면의 BSD영역을 확대할 수 있다.
도 6a 및 6b는, 본 발명의 실시예에 따른 차량용 운전 보조 장치가 차량 상태 정보에 기초하여 BSD영역을 변경하는 것을 설명하는데 참조되는 도면이다.
프로세서(270)는, 차량 상태 정보에 기초하여 BSD영역을 변경할 수 있다. 상기 차량 상태 정보는, 차량의 위치, 기어상태, 속도, 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보를 포함한다.
도 6a를 참조하면, 프로세서(270)는, 차량의 핸들조향각 또는 방향지시등에 대한 정보를 기초로, 좌측 BSD영역 및 우측 BSD영역 중, 차량(100)이 이동하고자 하는 방향에 있는 BSD영역을 확대한다.
프로세서(270)는, 좌측 BSD영역 및 우측 BSD영역 중, 차량(100)의 핸들조향각이 기울어지는 방향에 존재하는 BSD영역을 확대할 수 있다. 프로세서(270)는, 좌측 BSD영역 및 우측 BSD영역 중, 차량(100)의 방향지시등이 켜지는 방향에 존재하는 BSD영역을 확대 할 수 있다.
차량(100)의 핸들조향각이 기울어지는 방향이나 방향지시등이 켜지는 방향은 차량(100)이 이동하는 방향과 대응할 수 있으므로, 프로세서(270)는, 차량(100)의 핸들조향각이 기울어지는 방향이나 방향지시등이 켜지는 방향에 존재하는 측면의 BSD영역을 확대할 수 있다.
예를 들어, 프로세서(270)는, 차량(100)의 핸들조향각이 오른쪽으로 기울어지거나, 차량(100)의 오른쪽 방향지시등이 켜지는 경우, 우측 BSD영역(305b)을 확대할 수 있다. 이 경우, 프로세서(270)는, 좌측 BSD영역(301a)을 변경하지 않거나 축소할 수도 있다.
프로세서(270)는, 차량(100)의 핸들조향각이나 방향지시등에 기초하여, 차량(100)의 차선 변경 여부를 판단할 수 있다. 프로세서(270)는, 차량(100)이 차선을 변경하는 것으로 판단되면, 차량(100)이 이동할 차선이 있는 측면의 BSD영역을 확대할 수 있다.
프로세서(270)는, 차량(100)의 핸들조향각이 설정 각도 이상인 상태로 설정 시간이 경과하는 경우, 차량(100)이 차선을 변경할 것으로 판단하여, 차량(100)의 핸들조향각이 기울어진 방향에 있는 측면 BSD영역을 확대한다. 상기 설정 각도 및 설정 시간은, 실험을 통하여 결정되어 메모리에 저장된 값일 수 있다.
프로세서(270)는, 차량(100)의 방향지시등이 켜진 상태로 설정 시간이 경과하는 경우, 차량(100)이 차선을 변경할 것으로 판단하여, 차량(100)의 방향지시등이 켜진 방향에 있는 측면 BSD영역을 확대한다. 상기 설정 시간은, 실험을 통하여 결정되어, 메모리에 저장된 값일 수 있다.
도 6b를 참조하면, 프로세서(270)는, 차량(100)의 주행경로에 대한 정보를 기초로 차량(100)이 이동할 방향을 판단하여, 차량(100)이 이동할 방향에 있는 측면 BSD영역을 확대할 수 있다.
프로세서(270)는, 인터페이스부(250)를 통하여 차량(100)의 주행경로에 대한 정보를 수신한다. 프로세서(270)는, 차량(100)의 주행경로에 대한 정보를 기초로 차량(100)이 오른쪽 차선으로 이동하는 것이 예상되는 경우, 우측 BSD영역(305b)을 확대할 수 있다.
도 7a 내지 7d은, 본 발명의 실시예에 따른 차량용 운전 보조 장치가 차량 상태 정보에 기초하여 제2 BSD영역을 변경하는 것을 설명하는데 참조되는 도면이다.
프로세서(270)는, BSD영역을 제1 BSD영역(302a, 302b) 및 제2 BSD영역(303a, 303b)으로 설정할 수 있다. 제2 BSD영역은, 제1 BSD영역보다 차량(100)에 근접한 영역일 수 있다.
프로세서(270)는, 제1 BSD영역에서 오브젝트가 감지되는 경우, 제1 단계 알람에 대응되는 제1 신호를 제공할 수 있다. 프로세서(270)는, 제2 BSD영역에서 오브젝트가 감지되는 경우, 제2 단계 알람에 대응되는 제2 신호를 제공할 수 있다. 제2 단계 알람은, 제1 단계 알람보다 더 위험한 상황을 알리는 것일 수 있다. 제2 BSD영역이 확대되면, 제2 단계 알람이 출력되는 시점이 상대적으로 빨라지므로, 운전자는, 위험도가 높은 상황을 더욱 빠르게 인지할 수 있다. 제2 BSD영역이 축소되면, 제2 단계 알람이 출력되는 시점이 상대적으로 느려진다.
도 7a를 참조하면, 프로세서(270)는, 좌측 제2 BSD영역(303a) 및 우측 제2 BSD영역(307b) 중, 차량(100)의 핸들조향각이나 방향지시등의 방향에 대응하는 측면의 제2 BSD영역을 확대할 수 있다.
차량(100)이 차선을 변경하는 경우, 이동하려는 차선 방향으로 운전자 주의가 필요하므로, 프로세서(270)는, 차량(100)이 이동하고자하는 차선이 있는 측면의 제2 BSD영역을 확대할 수 있다.
예를 들어, 프로세서(270)는, 차량(100)의 핸들조향각이 오른쪽으로 기울어지거나, 차량(100)의 오른쪽 방향지시등이 켜지는 경우, 차량(100)이 오른쪽 차선으로 이동한다고 판단하여, 우측 제2 BSD영역(307b)을 확대한다. 이에 따라, 운전자는, 우측 차선으로 이동하고자 하는 경우, 차량(100)의 우측으로 빠르게 접근하는 타차량을 먼저 인지할 수 있다.
도 7b 및 7c를 참조하면, 프로세서(270)는, 차량(100)의 기어상태가 R이면 제2 BSD영역(307a, 307b)을 확대할 수 있다.
예를 들어, 차량(100)이 길을 잘못 들어 후진하는 경우, 오브젝트와 충돌할 위험이 크므로, 프로세서(270)는, 좌측 제2 BSD영역(307a) 및 우측 제2 BSD영역(307b)을 확대한다. 이에 따라, 운전자는, 차량(100)이 길을 잘못 들어 후진하는 경우, 차량(100)에 접근하는 차량에 대한 인지 가능성을 높일 수 있다.
또한, 주차된 차량(100)이 후진하여 출차하고, 주차된 지점의 후방에 도로가 형성되어있는 경우, 차량(100)이 후방의 오브젝트와 충돌할 위험이 크므로, 프로세서(270)는, 좌측 제2 BSD영역(307a) 및 우측 제2 BSD영역(307b)을 확대한다. 이에 따라, 후진하여 출차하는 운전자는, 차량(100)의 후방에서 접근하는 차량에 대한 인지 가능성을 높일 수 있다.
도 7d를 참조하면, 프로세서(270)는, 주행경로에 대한 정보에 기초하여 차량(100)의 차선 변경이 예상되는 경우, 좌측 제2 BSD영역(307a) 및 우측 제2 BSD영역(303b) 중, 차량(100)이 향하는 차선 방향의 제2 BSD영역을 확대할 수 있다.
프로세서(270)는, 인터페이스부(250)를 통해 수신된 차량(100)의 주행경로에 대한 정보에 기초하여 차량(100)의 차선 변경 가능성을 판단할 수 있다.
예를 들어, 프로세서(270)는, 목적지를 가기 위한 차량(100)의 주행경로가 2차선이고, 현재 차량(100)의 주행 차선이 3차선인 경우, 차량(100)의 차선 변경 가능성이 있는 것으로 판단할 수 있다.
차량(100)이 차선을 왼쪽으로 변경하는 경우, 차량(100)의 왼쪽 차선 방향으로 운전자의 주의가 필요하므로, 프로세서(270)는, 좌측 제2 BSD영역(307a)을 확대할 수 있다.
도 8a 및 8b는, 본 발명의 실시예에 따른 차량용 운전 보조 장치가 제2 BSD영역에서 오브젝트가 감지되더라도 제1 단계 알람을 출력하는 경우를 설명하는데 참조되는 도면이다.
도 8a를, 참조하면, 프로세서(270)는, 차량(100)의 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보에 기초하여, 차량(100)이 차선을 변경하지 않는 것으로 판단되는 경우, 제2 BSD영역(303a, 303b)에서 오브젝트가 감지되더라도, 출력부(260)를 통하여 제1 단계 알람를 출력할 수 있다.
프로세서(270)는, 차량(100)의 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보에 기초하여, 차량(100)의 차선 변경여부를 판단할 수 있다. 예를 들어, 차량(100)의 핸들조향각이 기울어지지 않거나, 방향지시등이 켜지지 않거나, 차량(100)의 주행 경로가 계속 직진인 경우, 프로세서(270)는, 차량(100)이 차선을 변경하지 않는 것으로 판단할 수 있다.
프로세서(270)는, 차량(100)이 차선을 변경하지 않는 것으로 판단된 경우, 제2 BSD영역에서 오브젝트가 감지되면, 제1 단계 알람에 대응하는 제1 신호를 제공할 수 있다. 출력부(260)는, 프로세서(270)가 제공하는 제1 신호에 대응하여 제1 단계 알람을 출력한다. 차량(100)이 차선을 변경하지 않는 경우, 차량(100)의 측후방에 존재하는 오브젝트의 위험도가 적으므로, 프로세서(270)는, 제2 BSD영역 내의 오브젝트가 감지되더라도 낮은 단계의 알람을 출력한다.
또한, 프로세서(270)는, 통신부(220)를 통하여 수신된 타차량의 주행경로에 대한 정보를 기초로, 타차량이 차량(100)과 멀어지는 방향으로 차선을 변경하는 것으로 판단되는 경우, 제2 BSD영역(303a, 303b)에서 오브젝트가 감지되더라도, 출력부(260)를 통하여 제1 단계 알람를 출력할 수 있다.
프로세서(270)는, 차량(100)의 주행경로 정보와 타차량의 주행경로 정보를 기초로 차량(100)과 타차량이 멀어지는 방향으로 이동하는지 판단할 수 있다. 프로세서(270)는, 차량(100)과 타차량이 멀어지는 방향으로 이동하는 것으로 판단되는 경우, 제2 BSD영역(303a, 303b)에서 오브젝트가 감지되더라도, 제1 단계 알람에 대응하는 제1 신호를 제공한다. 출력부(260)는, 프로세서(270)가 제공하는 제1 신호에 대응하여 제1 단계 알람을 출력한다. 차량(100)과 BSD영역에 존재하는 오브젝트의 거리가 멀어지는 경우, 사고 발생 가능성이 낮으므로, 프로세서(270)는, 제2 BSD영역 내의 오브젝트가 감지되더라도 낮은 단계의 알람을 출력할 수 있다.
도 8b를 참조하면, 프로세서(270)는, 차량(100) 또는 타차량의 움직임을 x축과 y축으로 나누어 분석할 수 있다.
도 8b의 (a)를 참조하면, 프로세서(270)는, x축과 y축으로 이루어진 좌표를 생성하여 차량(100)의 움직임을 분석할 수 있다. 프로세서(270)는, 차량(100)의 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보에 기초하여, 차량(100)의 차선 변경여부를 판단할 수 있다. 프로세서(270)는, 차량(100)의 주행경로 정보를 기초로, 차량(100)이 이동해야 하는 차선을 판단하고, 현재 차량(100)이 주행하는 차선을 판단하여, 상기 생성된 좌표 상에서 차량(100)이 이동해야하는 경로를 산출할 수 있다.
도 8b의 (b)를 참조하면, 프로세서(270)는, x축과 y축으로 이루어진 좌표를 생성하여 타차량의 움직임을 분석할 수 있다. 프로세서(270)는, 통신부(220)를 통하여 수신된 타차량에 대한 정보를 기초로, 타차량(300)이 차량(100)과 동일하게 y좌표가 증가하는 방향으로 이동하면서 차량(100)으로부터 x축 상의 거리가 멀어지도록 이동하는 것으로 판단할 수 있다. 프로세서(270)는, 타차량(300)이 차량(100)과 멀어지는 방향으로 이동하는 것으로 판단하여, 알람에 대응하는 신호를 출력하지 않거나, 제1 단계 알람에 대응하는 제1 신호만을 출력할 수 있다.
도 9a 및 9b는, 본 발명의 실시예에 따른 차량용 운전 보조 장치가 타차량 상태 정보에 기초하여 BSD영역을 변경하는 것을 설명하는데 참조되는 도면이다.
상기 타차량 상태 정보는, 통신부(220)를 통하여 수신되는 타차량의 차종, 위치, 속도, 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보를 포함할 수 있다. 프로세서(270)는, 상기 타차량 상태 정보에 기초하여 BSD영역을 변경할 수 있다.
도 9a를 참조하면, 프로세서(270)는, 타차량(300)의 차종이 대형차량이거나, 타차량(300)이 차량(100)에 접근하는 경우, 좌측 BSD영역(301a) 및 우측 BSD영역(301b) 중 타차량이 존재하는 측면의 BSD영역을 확대할 수 있다.
프로세서(270)는, 상기 타차량 상태 정보에 기초하여, 차량(100)의 좌측에 존재하는 타차량(300)이 대형차량인지 또는 차량(100)에 접근하는지 판단할 수 있다.
타차량(300)의 차종이 대형차량이거나, 타차량(300)이 차량(100)에 접근하는 경우, 운전자가 타차량을 미리 인지할 필요가 있으므로, 프로세서(270)는, 타차량(300)이 있는 방향에 존재하는 좌측 BSD영역(301a)을 확대할 수 있다. 이 경우, 프로세서(270)는, 통신부(220)를 통해 수신되는 타차량(300)의 위치 정보를 기초로, 좌측 BSD영역(301a) 및 우측 BSD영역(301b) 중, 타차량(300)이 있는 방향에 존재하는 BSD영역이 무엇인지 판단한다.
도 9b를 참조하면, 프로세서(270)는, 타차량(300)의 차종이 대형차량이거나, 타차량(300)이 차량(100)에 접근하는 경우, 좌측 제2 BSD영역(307a) 및 우측 제2 BSD영역(303b) 중 타차량이 존재하는 측면의 제2 BSD영역을 확대할 수 있다.
프로세서(270)는, 상기 타차량 상태 정보를 기초로, 차량(100)의 좌측에 존재하는 타차량(300)이 대형차량인지 또는 차량(100)에 접근하는지 판단되는 경우, 좌측 제2 BSD영역(307a)을 확대할 수 있다.
이에 따라, 운전자가 대형차량을 인지할 수 있는 가능성이 높아진다.
도 10은, 본 발명의 실시예에 따른 차량용 운전 보조 장치가 차량 상태 정보 및 타차량 상태 정보에 기초하여 제2 단계 알람을 출력하는 것을 설명하는데 참조되는 도면이다.
도 10을 참도하면, 프로세서(270)는, 인터페이스부(250) 및 통신부(220)를 통해 수신된 차량 상태 정보 및 타차량 상태 정보에 기초하여, 차량(100)의 차선 변경시 타차량(300)이 차량(100)에 설정거리 이내로 접근한다고 판단되는 경우, 제2 단계 알람에 대응하는 제2 신호를 제공할 수 있다.
상기 차량 상태 정보는, 인터페이스부(250)를 통하여 수신되는, 차량(100)의 위치, 기어상태, 속도, 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보를 포함한다. 상기 타차량 상태 정보는, 통신부(220)를 통하여 수신되는, 타차량(300)의 차종, 위치, 속도, 핸들조향각, 방향지시등, 및 주행경로 중 적어도 하나에 대한 정보를 포함한다.
프로세서(270)는, 차량 상태 정보 및 타차량 상태 정보를 기초로, 차량(100)의 차선 변경시 타차량(300)의 움직임을 판단할 수 있다. 또한, 프로세서(270)는, 차량 상태 정보 및 타차량 상태 정보를 기초로, 타차량(300)과 차량(100) 간의 거리를 산출할 수 있다. 이에 따라, 프로세서(270)는, 차량(100)의 차선 변경시 타차량(300)이 차량(100)에 설정거리 이내로 접근하는지 판단할 수 있다. 상기 설정거리는, 타차량에 대한 알람이 필요한 거리로 실험에 의해 결정될 수 있고, 메모리(240)에 저장된 값일 수 있다.
프로세서(270)는, 차량(100)의 차선 변경시 타차량(300)이 차량(100)에 설정거리 이내로 접근한다고 판단되는 경우, BSD영역에 타차량(300)이 감지되지 않더라도, 출력부(260)를 통하여 제2 단계 알람을 출력한다.
도 11a 내지 11c는, 본 발명의 실시예에 따른 차량용 운전 보조 장치가 주행 환경 정보에 기초하여 BSD영역을 변경하는 것을 설명하는데 참조되는 도면이다.
상기 주행 환경 정보는, 차량(100)의 주행 시간대가 야간 또는 주간임을 나타내는 주행 시간 정보, 차량(100)이 주행하는 도로 종류를 나타내는 주행 도로 정보, 및 차량(100)의 주변 교통상황이 원활 또는 정체임을 나타내는 교통 상황 정보, 중 적어도 하나를 포함할 수 있다.
도 11a를 참조하면, 프로세서(270)는, 차량(100)의 주변 교통상황이 정체인 경우, 좌측 BSD영역(301a) 및 우측 BSD영역(301b)을 축소할 수 있다.
프로세서(270)는, 주행 환경 정보에 포함된 교통 상황 정보를 기초로, 차량(100)의 주변 교통상황이 정체인지 원활인지 판단할 수 있다.
프로세서(270)는, 차량(100)의 주변 교통상황이 정체인 경우, 차량(100)과 타차량들의 속도가 감소할 것이므로, BSD영역을 축소시킨다. 이는, 차량(100)과 타차량들의 속도가 감소하는 경우, 운전자가 차량(100) 주변의 오브젝트를 미리 인지하지 않아도 무방하기 때문이다.
프로세서(270)는, 차량(100)의 주변 교통상황이 정체인 경우, 차량(100)이 야간에 고속도로를 주행하더라도, BSD영역을 축소시킬 수 있다.
도 11b를 참조하면, 프로세서(270)는, 차량(100)이 주행하는 도로 종류가 램프구간인 경우, 좌측 BSD영역(301a) 및 우측 BSD영역(301b) 중, 합류 지점이 있는 측면의 BSD영역을 확대 할 수 있다.
프로세서(270)는, 차량(100)이 다른 도로가 합류되는 램프구간을 주행하는 경우, 다른 도로의 합류 지점에서 타차량이 접근할 수 있으므로, 좌측 BSD영역(301a) 및 우측 BSD영역(301b) 중, 합류 지점이 있는 측면의 BSD영역을 확대할 수 있다.
이에 따라, 운전자는, 램프구간을 주행하는 경우, 합류 지점에서 진입하는 타차량을 미리 인지할 수 있다.
도 11c를 참조하면, 프로세서(270)는, 상기 주행 환경 정보 및 차량(100)에 관련된 정보를 기초로, 차량(100)이 주행하는 도로 종류가 병목구간이고, 차량(100)의 차선 변경이 예상되는 경우, 좌측 BSD영역(301a) 및 우측 BSD영역(301b) 중, 변경될 차선이 존재하는 측면의 BSD영역을 확대할 수 있다.
차량(100)이 주행하는 도로 종류가 병목구간인 경우, 차량(100)이 차선을 변경해야 하는 경우가 발생할 수 있다. 이에 따라, 프로세서(270)는, 차량(100)이 주행하는 도로 종류가 병목구간인 경우, 차량(100)에 관련된 정보를 기초로, 차량(100)의 차선 변경 가능성을 판단한다. 프로세서(270)는, 차량(100)이 주행하는 도로 종류가 병목구간이고, 차량(100)의 차선 변경이 예상되는 경우, 좌측 BSD영역(301a) 및 우측 BSD영역(301b) 중, 차량(100)이 이동하려는 차선이 있는 측면의 BSD영역을 확대할 수 있다.
도 12a 및 12b는, 본 발명의 실시예에 따른 차량용 운전 보조 장치가 주행 환경 정보에 기초하여 제2 BSD영역을 변경하는 것을 설명하는데 참조되는 도면이다.
도 12a를 참조하면, 프로세서(270)는, 차량(100)의 주변 교통상황이 정체인 경우, 차량(100) 및 타차량의 속도가 상대적으로 느리므로, 제2 단계 알람을 출력하기 위한 제2 BSD영역(303a, 303b)을 축소할 수 있다.
프로세서(270)는, 차량(100)이 고속도로에서 주행하더라도, 주변 교통상황이차량정체인 경우, 차량(100) 및 타차량의 속도가 상대적으로 느리므로, 제2 BSD영역(303a, 303b)을 축소할 수 있다.
프로세서(270)는, 차량(100)의 주행시간대가 야간이더라도, 주변 교통상황이차량정체인 경우, 차량(100) 및 타차량의 속도가 상대적으로 느리므로, 제2 BSD영역(303a, 303b)을 축소할 수 있다.
도 12b를 참조하면, 프로세서(270)는, 도로 종류가 커브길인 경우, 제2 BSD영역(303a, 303b)을 확대 할 수 있다.
프로세서(270)는, 차량(100)이 주행하는 도로가 커브길인 경우, 사고 발생 가능성 및 위험도가 상대적으로 높으므로, 제2 BSD영역(303a, 303b)을 확대할 수 있다. 이에 따라, 운전자는, 커브길 주행시, 차량(100) 주변의 타차량을 용이하게 인지할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서(270) 또는 제어부(170)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
100 : 차량
200 : 차량용 운전 보조 장치

Claims (20)

  1. 차량 외부에 위치하는 오브젝트를 감지하는 센싱부;
    출력부; 및
    획득되는 정보에 기초하여 기 설정된 BSD(Blind Spot Detection) 영역을 변경하고,
    상기 센싱부가 감지하는 오브젝트가 상기 변경된 BSD 영역에 위치하는 경우,
    상기 출력부를 통해 알람이 출력되도록 제어하는 프로세서;
    를 포함하는 차량용 운전 보조 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    주행 시간 정보, 주행 도로 정보, 및 교통 상황 정보 중 적어도 하나를 획득하고,
    상기 획득한 정보에 기초하여 상기 기 설정된 BSD 영역을 변경하는 차량용 운전 보조 장치.
  3. 제2항에 있어서,
    상기 프로세서는,
    상기 교통 상황 정보에 기초하여,
    상기 차량 주변의 교통 상황이 정체라고 판단되는 경우, 상기 기 설정된 BSD 영역을 확대하고, 상기 차량 주변의 교통 상황이 원활이라고 판단되는 경우, 상기 기 설정된 BSD 영역을 축소하는 차량용 운전 보조 장치.
  4. 제2항에 있어서,
    상기 기 설정된 BSD 영역은, 좌측 BSD 영역 및 우측 BSD 영역을 포함하고,
    상기 프로세서는,
    상기 주행 도로 정보에 기초하여, 상기 차량이 주행하는 도로가 램프구간인 경우,
    상기 좌측 BSD 영역 및 우측 BSD 영역 중, 합류 지점이 존재하는 측면의 BSD영역을 확대하는 차량용 운전 보조 장치.
  5. 제1항에 있어서,
    인터페이스부; 를 더 포함하고,
    상기 프로세서는,
    상기 인터페이스부를 통하여, 상기 차량의 위치 정보, 상기 차량의 기어 포지션 정보, 상기 차량의 속도 정보, 상기 차량의 조향 정보, 상기 차량의 턴 시그널 정보 및 상기 차량의 주행 경로 정보 중 적어도 하나를 획득하고,
    상기 획득한 정보에 기초하여 상기 기 설정된 BSD 영역을 변경하는 차량용 운전 보조 장치.
  6. 제5항에 있어서,
    상기 프로세서는,
    상기 차량의 조향 정보, 상기 차량의 턴 시그널 정보, 및 상기 차량의 주행 경로 정보 중 적어도 하나를 기초로, 상기 차량의 차선 변경 의도를 판단하고,
    상기 차선 변경 의도에 기초하여, 상기 차량이 이동하고자 하는 방향으로 상기 BSD 영역을 확대하는 차량용 운전 보조 장치.
  7. 제5항에 있어서,
    상기 프로세서는,
    상기 차량의 속도 정보를 기초로,
    상기 차량의 속도가 증가하면, 상기 BSD 영역을 확대하고, 상기 차량의 속도가 감소하면, 상기 BSD 영역을 축소하는 차량용 운전 보조 장치.
  8. 제5항에 있어서,
    상기 기 설정된 BSD 영역은, 좌측 BSD 영역 및 우측 BSD 영역을 포함하고,
    상기 프로세서는,
    상기 차량의 조향 정보, 상기 차량의 턴 시그널 정보, 및 상기 차량의 주행 경로 정보 중 적어도 하나를 기초로, 상기 차량의 차선 변경 의도를 판단하고,
    상기 차선 변경 의도에 기초하여, 상기 좌측 BSD 영역 및 우측 BSD 영역 중, 상기 차량이 이동하고자 하는 측면의 BSD 영역을 확대하는 차량용 운전 보조 장치.
  9. 제1항에 있어서,
    타차량과 통신을 수행하는 통신부; 를 더 포함하고,
    상기 프로세서는,
    상기 통신부를 통하여, 상기 타차량의 차종 정보, 상기 타차량의 위치 정보, 상기 타차량의 속도 정보, 상기 타차량의 조향 정보, 상기 타차량의 턴 시그널 정보 상기 타차량의 주행 경로 정보 중 적어도 하나를 획득하고,
    상기 획득한 정보에 기초하여 상기 기 설정된 BSD 영역을 변경하는 차량용 운전 보조 장치.
  10. 제9항에 있어서,
    상기 프로세서는,
    상기 획득한 정보를 기초로, 상기 타차량이 상기 차량에 접근하는 것으로 판단되는 경우,
    상기 타차량이 있는 방향으로 상기 BSD 영역을 확대하는 차량용 운전 보조 장치.
  11. 제9항에 있어서,
    상기 기 설정된 BSD 영역은, 좌측 BSD 영역 및 우측 BSD 영역을 포함하고,
    상기 프로세서는,
    상기 획득한 정보에 기초하여, 상기 타차량이 상기 차량에 접근하는 것으로 판단되는 경우,
    상기 좌측 BSD 영역 및 우측 BSD 영역 중, 상기 타차량이 있는 측면의 BSD 영역을 확대하는 차량용 운전 보조 장치.
  12. 제1항에 있어서,
    상기 기 설정된 BSD 영역은 복수 개이고,
    상기 프로세서는,
    획득되는 정보에 기초하여 상기 기 설정된 복수의 BSD 영역을 개별적으로 변경하는 차량용 운전 보조 장치.
  13. 제12항에 있어서,
    상기 프로세서는,
    상기 복수 개의 기 설정된 BSD 영역마다 대응하는 알람을 구분하고,
    상기 오브젝트가 위치하는 BSD 영역에 대응하는 알람이 출력되도록 제어하는 차량용 운전 보조 장치.
  14. 제13항에 있어서,
    상기 기 설정된 BSD 영역은, 제1 BSD 영역 및 제2 BSD 영역을 포함하고,
    상기 제2 BSD 영역은, 상기 제1 BSD 영역보다 좁고,
    상기 프로세서는,
    상기 오브젝트가 상기 제1 BSD 영역에 위치하는 경우, 제1 단계 알람이 출력되도록 제어하고, 상기 오브젝트가 상기 제2 BSD 영역에 위치하는 경우, 제2 단계 알람이 출력되도록 제어하는 차량용 운전 보조 장치.
  15. 제14항에 있어서,
    상기 프로세서는,
    주행 시간 정보, 주행 도로 정보, 및 교통 상황 정보 중 적어도 하나를 획득하고,
    상기 획득한 정보에 기초하여 상기 제2 BSD 영역을 변경하는 차량용 운전 보조 장치.
  16. 제14항에 있어서,
    인터페이스부; 를 더 포함하고,
    상기 프로세서는,
    상기 인터페이스부를 통하여, 상기 차량의 위치 정보, 상기 차량의 기어 포지션 정보, 상기 차량의 속도 정보, 상기 차량의 조향 정보, 상기 차량의 턴 시그널 정보 및 상기 차량의 주행 경로 정보 중 적어도 하나를 획득하고,
    상기 획득한 정보에 기초하여 상기 제2 BSD 영역을 변경하는 차량용 운전 보조 장치.
  17. 제14항에 있어서,
    타차량과 통신을 수행하는 통신부; 를 더 포함하고,
    상기 프로세서는,
    상기 통신부를 통하여, 상기 타차량의 차종 정보, 상기 타차량의 위치 정보, 상기 타차량의 속도 정보, 상기 타차량의 조향 정보, 상기 타차량의 턴 시그널 정보 상기 타차량의 주행 경로 정보 중 적어도 하나를 획득하고,
    상기 획득한 정보에 기초하여 상기 제2 BSD 영역을 변경하는 차량용 운전 보조 장치.
  18. 제14항에 있어서,
    인터페이스부; 및 타차량과 통신을 수행하는 통신부; 를 더 포함하고,
    상기 프로세서는,
    상기 인터페이스부를 통하여, 상기 차량에 관련된 정보를 획득하고,
    상기 통신부를 통하여, 상기 타차량에 관련된 획득하고,
    상기 획득한 정보들에 기초하여, 상기 차량의 차선 변경 의도나 상기 타차량의 이동 경로를 판단하고,
    상기 차량의 차선 변경 의도가 없거나, 상기 타차량이 상기 차량으로부터 멀어지는 것으로 판단되는 경우, 상기 제1 단계 알람이 출력되도록 제어하는 차량용 운전 보조 장치.
  19. 제14항에 있어서,
    인터페이스부; 및 타차량과 통신을 수행하는 통신부; 를 더 포함하고,
    상기 프로세서는,
    상기 인터페이스부를 통하여, 상기 차량에 관련된 정보를 획득하고,
    상기 통신부를 통하여, 상기 타차량에 관련된 획득하고,
    상기 획득한 정보들에 기초하여, 상기 차량의 차선 변경시 상기 타차량이 설정거리 이내로 접근한다고 판단되는 경우, 상기 제2 단계 알람을 제공하는 차량용 운전 보조 장치.
  20. 제1항에 있어서,
    상기 프로세서는,
    상기 획득되는 정보에 기초하여, 상기 차량과 상기 오브젝트가 충돌하는 것으로 판단되는 경우,
    상기 차량과 상기 오브젝트의 충돌이 발생하지 않도록, 상기 차량의 조향장치, 제동장치, 구동장치 중 적어도 하나를 제어하기 위한 신호를 제공하는 차량용 운전 보조 장치.
KR1020160048662A 2016-04-21 2016-04-21 차량용 운전 보조 장치 KR101838968B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020160048662A KR101838968B1 (ko) 2016-04-21 2016-04-21 차량용 운전 보조 장치
PCT/KR2016/015204 WO2017183797A1 (ko) 2016-04-21 2016-12-23 차량용 운전 보조 장치
US15/493,889 US10611383B2 (en) 2016-04-21 2017-04-21 Driver assistance apparatus for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160048662A KR101838968B1 (ko) 2016-04-21 2016-04-21 차량용 운전 보조 장치

Publications (2)

Publication Number Publication Date
KR20170120334A true KR20170120334A (ko) 2017-10-31
KR101838968B1 KR101838968B1 (ko) 2018-04-26

Family

ID=60088803

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160048662A KR101838968B1 (ko) 2016-04-21 2016-04-21 차량용 운전 보조 장치

Country Status (3)

Country Link
US (1) US10611383B2 (ko)
KR (1) KR101838968B1 (ko)
WO (1) WO2017183797A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190058027A (ko) * 2017-11-21 2019-05-29 현대자동차주식회사 차량의 주행지원 제어장치 그 방법
WO2019208965A1 (ko) * 2018-04-27 2019-10-31 삼성전자 주식회사 전자 장치 및 그 동작 방법
KR102040919B1 (ko) * 2018-09-20 2019-11-06 만도헬라일렉트로닉스(주) 사각지대 감지 시스템
KR20210147186A (ko) * 2020-05-28 2021-12-07 쌍용자동차 주식회사 사각지대경고장치를 결합한 사각지대 감시장치 및 방법

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9499139B2 (en) 2013-12-05 2016-11-22 Magna Electronics Inc. Vehicle monitoring system
US10528826B2 (en) * 2016-05-06 2020-01-07 GM Global Technology Operations LLC Vehicle guidance system
JP6371329B2 (ja) * 2016-05-16 2018-08-08 トヨタ自動車株式会社 車両の運転支援制御装置
KR20170133743A (ko) * 2016-05-26 2017-12-06 현대자동차주식회사 사용자 입력 기반 차량 제어 시스템 및 그 방법
US11024160B2 (en) * 2016-11-07 2021-06-01 Nio Usa, Inc. Feedback performance control and tracking
JP2018116516A (ja) * 2017-01-19 2018-07-26 トヨタ自動車株式会社 車両の注意喚起装置
US10902728B2 (en) * 2017-04-26 2021-01-26 Ford Global Technologies, Llc Blind spot object detection
JP6744269B2 (ja) * 2017-09-06 2020-08-19 本田技研工業株式会社 運転支援装置および運転支援方法
JP2019089394A (ja) * 2017-11-13 2019-06-13 矢崎総業株式会社 自動運転時情報伝達方法および車両用情報提示装置
US10509410B2 (en) * 2017-12-06 2019-12-17 Zoox, Inc. External control of an autonomous vehicle
CN111566710A (zh) * 2017-12-26 2020-08-21 索尼公司 信号处理装置和方法以及程序
DE102018200820A1 (de) * 2018-01-18 2019-07-18 Volkswagen Aktiengesellschaft Steuerungssystem für ein Kraftfahrzeug, Verfahren zum Betreiben des Steuerungssystems sowie Kraftfahrzeug mit einem derartigen Steuerungssystem
US11017665B1 (en) * 2018-02-25 2021-05-25 Matthew Roy Vehicle-to-vehicle payment system for traffic prioritization in self-driving vehicles
JP7077083B2 (ja) * 2018-03-15 2022-05-30 本田技研工業株式会社 表示システム、表示方法、およびプログラム
US11059421B2 (en) 2018-03-29 2021-07-13 Honda Motor Co., Ltd. Vehicle proximity system using heads-up display augmented reality graphics elements
EP3575171A1 (en) * 2018-05-28 2019-12-04 Veoneer Sweden AB Vehicle collision avoidance method and system
JP6859374B2 (ja) * 2019-01-11 2021-04-14 本田技研工業株式会社 予測装置、予測方法、およびプログラム
US11440471B2 (en) * 2019-03-21 2022-09-13 Baidu Usa Llc Automated warning system to detect a front vehicle slips backwards
KR20200130774A (ko) 2019-05-03 2020-11-20 삼성전자주식회사 차량의 주행을 보조하는 전자 장치 및 방법
US11634142B2 (en) * 2019-08-09 2023-04-25 Intel Corporation Blind spot detection
CN110775056B (zh) * 2019-11-25 2021-10-15 苏州智加科技有限公司 基于雷达探测的车辆行驶方法、装置、终端及介质
KR20220044045A (ko) * 2020-09-29 2022-04-06 현대모비스 주식회사 차량의 도로 진입 시스템 및 방법
EP4358062A1 (en) * 2022-10-19 2024-04-24 Continental Autonomous Mobility Germany GmbH Vehicle object detection system and method for detecting a target object in a detection area located behind a subject vehicle
CN117058885B (zh) * 2023-10-11 2023-12-08 广州扬名信息科技有限公司 一种车况信息反馈共享服务系统

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3061675B2 (ja) 1992-01-29 2000-07-10 マツダ株式会社 車両の障害物検出装置
US7852462B2 (en) * 2000-05-08 2010-12-14 Automotive Technologies International, Inc. Vehicular component control methods based on blind spot monitoring
JP2003081035A (ja) * 2001-09-11 2003-03-19 Denso Corp 障害物検知装置
ES2391556T3 (es) * 2002-05-03 2012-11-27 Donnelly Corporation Sistema de detección de objetos para vehículo
KR100581825B1 (ko) * 2004-08-26 2006-05-23 주식회사 현대오토넷 자동차의 후방 및 사각지대 물체 적응적 감지 장치 및 방법
ES2258399B1 (es) * 2005-02-04 2007-11-16 Fico Mirrors, S.A. Metodo y sistema para mejorar la supervision de un ambiente exterior de un vehiculo automovil.
US7859432B2 (en) * 2007-05-23 2010-12-28 Che Il Electric Wireing Devices Co., Ltd. Collision avoidance system based on detection of obstacles in blind spots of vehicle
EP2473871B1 (en) * 2009-09-01 2015-03-11 Magna Mirrors Of America, Inc. Imaging and display system for vehicle
KR20110036366A (ko) * 2009-10-01 2011-04-07 카인몰 주식회사 후방차량 접근 감지방법 및 그 방법을 이용한 경고장치
JP5817270B2 (ja) * 2011-07-12 2015-11-18 日産自動車株式会社 車両制御装置
KR101745015B1 (ko) * 2011-11-29 2017-06-08 현대자동차주식회사 장애물 감지영역 조절 장치 및 그 방법
JP2013242679A (ja) * 2012-05-21 2013-12-05 Panasonic Corp 障害物検知装置
KR20140073709A (ko) * 2012-12-06 2014-06-17 현대자동차주식회사 차량의 사각지대 감시 시스템 및 방법
KR101478135B1 (ko) * 2013-12-02 2014-12-31 현대모비스(주) 프로젝션 유닛을 이용한 증강현실 차선변경 보조 시스템
US9522676B2 (en) * 2014-04-30 2016-12-20 Denso International America, Inc. Situation awareness assistant for vehicle control
JP6507862B2 (ja) * 2015-06-02 2019-05-08 トヨタ自動車株式会社 周辺監視装置及び運転支援装置
JP2017114155A (ja) * 2015-12-21 2017-06-29 三菱自動車工業株式会社 運転支援装置
US9947226B2 (en) * 2016-04-12 2018-04-17 Denso International America, Inc. Methods and systems for blind spot monitoring with dynamic detection range
EP3496969A4 (en) * 2016-08-10 2020-09-16 Xevo Inc. PROCEDURE AND SYSTEM FOR PROVIDING INFORMATION ON COLLECTED AND STORED METADATA WITH A DERIVED ATTENTION MODEL

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190058027A (ko) * 2017-11-21 2019-05-29 현대자동차주식회사 차량의 주행지원 제어장치 그 방법
WO2019208965A1 (ko) * 2018-04-27 2019-10-31 삼성전자 주식회사 전자 장치 및 그 동작 방법
KR102040919B1 (ko) * 2018-09-20 2019-11-06 만도헬라일렉트로닉스(주) 사각지대 감지 시스템
KR20210147186A (ko) * 2020-05-28 2021-12-07 쌍용자동차 주식회사 사각지대경고장치를 결합한 사각지대 감시장치 및 방법

Also Published As

Publication number Publication date
KR101838968B1 (ko) 2018-04-26
US10611383B2 (en) 2020-04-07
WO2017183797A1 (ko) 2017-10-26
US20170305418A1 (en) 2017-10-26

Similar Documents

Publication Publication Date Title
KR101838968B1 (ko) 차량용 운전 보조 장치
KR101834351B1 (ko) 차량용 운전 보조 장치
EP3425469B1 (en) Driving system for vehicle and vehicle thereof
EP3301530B1 (en) Control method of autonomous vehicle and server
KR101850324B1 (ko) 램프 및 자율 주행 차량
US11645919B2 (en) In-vehicle vehicle control device and vehicle control method
KR102077573B1 (ko) 자동 주차 시스템 및 차량
CN109249939B (zh) 用于车辆的驱动系统和车辆
KR102037324B1 (ko) 자율주행 차량 및 그 제어 방법
KR101945809B1 (ko) 차량 보조 장치 및 차량
KR20190033368A (ko) 주행 시스템 및 차량
KR101911703B1 (ko) 차량용 주행 제어 장치 및 차량
KR102333765B1 (ko) 자율 주행 시스템 및 차량
KR20180053145A (ko) 차량 주행 제어 장치 및 방법
KR20190007286A (ko) 차량용 주행 시스템 및 차량
KR101994699B1 (ko) 차량 운전 보조 장치 및 차량
KR20180051969A (ko) 차량에 구비된 차량 제어 장치 및 차량의 제어방법
KR20180046704A (ko) 자율 주행 차량 및 자율 주행 차량의 동작 방법
KR20190041172A (ko) 자율주행 차량 및 그 제어 방법
KR20190041173A (ko) 자율주행 차량 및 그 제어 방법
KR101977092B1 (ko) 차량에 구비된 차량 제어 장치 및 차량의 제어방법
KR20190019439A (ko) 차량 운전 보조 장치 및 차량
KR20180046705A (ko) 자율 주행 차량 및 자율 주행 차량의 동작 방법
KR101995489B1 (ko) 차량 제어 시스템 및 그의 제어방법
KR20190016375A (ko) 차량용 사이드 미러 및 차량

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant