KR20180091533A - 차량의 운전을 보조하는 전자 장치 및 방법 - Google Patents

차량의 운전을 보조하는 전자 장치 및 방법 Download PDF

Info

Publication number
KR20180091533A
KR20180091533A KR1020170016852A KR20170016852A KR20180091533A KR 20180091533 A KR20180091533 A KR 20180091533A KR 1020170016852 A KR1020170016852 A KR 1020170016852A KR 20170016852 A KR20170016852 A KR 20170016852A KR 20180091533 A KR20180091533 A KR 20180091533A
Authority
KR
South Korea
Prior art keywords
vehicle
entry
lane
area
entryable
Prior art date
Application number
KR1020170016852A
Other languages
English (en)
Other versions
KR102343329B1 (ko
Inventor
유진우
국중갑
백아론
장민성
이정은
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020170016852A priority Critical patent/KR102343329B1/ko
Priority to PCT/KR2018/001450 priority patent/WO2018147599A1/ko
Priority to US16/483,558 priority patent/US11217100B2/en
Priority to EP18750769.4A priority patent/EP3546310A4/en
Publication of KR20180091533A publication Critical patent/KR20180091533A/ko
Application granted granted Critical
Publication of KR102343329B1 publication Critical patent/KR102343329B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/009Priority selection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • B60Y2400/301Sensors for position or displacement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/92Driver displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Optics & Photonics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)

Abstract

차량이 차로 변경을 통해 진입하고자 하는 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱하는 센싱부; 센싱된 적어도 하나의 외부 차량의 주행 상태에 기초하여, 진입 예정 차로 상의 진입 가능 영역을 결정하고, 진입 가능 영역으로 차량이 진입하기 위한 진입 조건을 결정하는 프로세서; 및 진입 가능 영역 및 진입 조건에 대한 정보를 출력하는 출력부;를 포함하는, 차량의 운전자를 보조하는 전자 장치 및 방법을 나타낸다.

Description

차량의 운전을 보조하는 전자 장치 및 방법 {ELECTRONIC APPARATUS AND METHOD FOR ASSISTING DRIVING OF A VEHICLE}
차량의 운전자가 안전하고 편리하게 차로를 변경할 수 있도록 차량의 운전을 보조하는 장치 및 방법에 관한다.
일반적으로 차량이 도로를 주행하는 경우, 차량의 운전자는 주행 중인 차로를 변경하게 된다. 차로 변경 시, 운전자는 차량에 구비되는 거울을 이용하여 차량의 좌측 또는 우측을 확인한다. 또한, 차량이 진입할 수 있는 충분한 공간이 있고 다른 차량과의 충돌 위험이 없다고 판단되는 경우에 운전자는 차로 변경을 수행한다.
하지만, 주행 중 운전자가 차로를 변경하기 위해 거울을 통해 차량의 좌측 또는 우측을 살펴보더라도, 차량의 좌측 또는 우측에 위치한 외부 차량과 차량 간의 거리, 해당 외부 차량의 속도에 관한 정보를 파악하기는 쉽지 않다. 그로 인해 운전자가 차로를 변경하는 경우에, 차량과 외부 차량 간의 접촉 사고가 발생할 가능성이 크다.
차량이 차로를 변경하는 경우에, 차량의 운전자가 안전하게 차로를 변경할 수 있도록 차량의 운전을 보조하는 장치 및 방법을 제공하는 데 있다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. 해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
일 측면에 따른 차량의 운전자를 보조하는 장치는, 차량이 차로 변경을 통해 진입하고자 하는 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱하는 센싱부; 센싱된 적어도 하나의 외부 차량의 주행 상태에 기초하여, 진입 예정 차로 상의 진입 가능 영역을 결정하고, 진입 가능 영역으로 차량이 진입하기 위한 진입 조건을 결정하는 프로세서; 및 진입 가능 영역 및 진입 조건에 대한 정보를 출력하는 출력부;를 포함할 수 있다.
다른 측면에 따른 차량의 운전자를 보조하는 방법은, 차량이 차로 변경을 통해 진입하고자 하는 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱하는 단계; 센싱된 적어도 하나의 외부 차량의 주행 상태에 기초하여, 진입 예정 차로 상의 진입 가능 영역을 결정하는 단계; 진입 가능 영역으로 차량이 진입하기 위한 진입 조건을 결정하는 단계; 및 진입 가능 영역 및 진입 조건에 대한 정보를 출력하는 단계를 포함할 수 있다.
또 다른 측면에 따른 컴퓨터로 읽을 수 있는 기록매체는 상술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체를 포함한다.
도 1은 일 실시예에 따른 차량의 운전자를 보조하는 전자 장치가 동작하는 일 예를 도시하는 도면이다.
도 2는 일 실시예에 따라 전자 장치가 차량의 운전을 보조하는 방법의 흐름도이다.
도 3은 일 실시예에 따라 전자 장치가 진입 예정 차로를 인식하는 방법의 흐름도이다.
도 4는 전자 장치가 진입 예정 차로를 인식하는 실시예를 나타낸다.
도 5는 일 실시예에 따른 전자 장치가 후보 영역들을 통해 진입 가능 영역을 결정하는 방법의 흐름도이다.
도 6은 전자 장치가 후보 영역들을 통해 진입 가능 영역을 결정하는 실시예를 나타낸다.
도 7은 일 실시예에 따른 전자 장치가 진입 가능 영역을 변경하는 방법의 흐름도를 나타낸다.
도 8은 전자 장치가 진입 가능 영역을 변경하는 실시예를 나타낸다.
도 9는 전자 장치가 진입 가능 영역 및 진입 조건에 대한 정보를 출력하는 실시예를 나타낸다.
도 10a 및 10b는 전자 장치가 차량의 운전을 보조하는 다른 실시예를 나타낸다.
도 11은 일 실시예에 따른 차량의 운전자를 보조하는 전자 장치의 블록도를 도시하는 도면이다.
도 12는 다른 실시예에 따른 차량의 운전자를 보조하는 전자 장치의 블록도를 도시하는 도면이다.
도 13은 일 실시예에 따른 차량의 블록도를 도시하는 도면이다.
실시 예들에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "?부", "?모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
이하에서는 도면을 참조하여 본 발명의 실시 예들을 상세히 설명한다.
도 1은 일 실시예에 따라 차량의 운전을 보조하는 전자 장치가 동작하는 일 예를 도시하는 도면이다.
차량(1)은 차량(1)의 운전을 보조하는 전자 장치(100)(이하, 전자 장치(100))를 포함할 수 있다. 전자 장치(100)는 운전자가 차량(1)을 보다 편리하고 안전하게 운전할 수 있도록 차량(1)의 운전을 보조하는 장치이다. 구체적으로, 운전자가 차량(1)을 운전하여 현재 주행 차로로부터 진입 예정 차로로 차로 변경을 하고자 하는 경우, 전자 장치(100)는 운전자가 보다 편리하게 차로를 변경할 수 있도록 보조할 수 있다.
일 실시예에 따라, 도 1에 도시된 바와 같이, 차량(1)이 진입로를 통해 고속도로로 진입하는 경우, 운전자는 차량(1)을 운전하여 현재 주행 차로로부터 고속도로 상의 진입 예정 차로로 차로를 변경하여야 한다. 이 경우, 전자 장치(100)는 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱하여, 진입 예정 차로 상의 진입 가능 영역을 결정할 수 있고, 차량(1)이 결정된 진입 가능 영역으로 진입하기 위한 진입 조건을 결정할 수 있다. 이에 따라, 전자 장치(100)는 결정된 진입 가능 영역 및 진입 조건에 대한 정보를 출력할 수 있다. 예를 들어, 도 1에 도시된 바와 같이, 전자 장치(100)는 차량(1)이 진입 가능 영역으로 진입하기 위한 속도에 대한 정보를 중앙 정보 디스플레이(center information display)에 표시할 수 있다.
따라서, 운전자는 진입 조건에 따라 차량(1)을 운전하여 진입 가능 영역으로 차로 변경을 할 수 있으므로, 전자 장치(100)는 운전자가 보다 편리하게 차로를 변경할 수 있도록 차량(1)의 운전을 보조할 수 있다.
도 2는 일 실시예에 따라 전자 장치가 차량의 운전을 보조하는 방법의 흐름도이다.
단계 s210에서, 전자 장치(100)는 차량(1)이 차로 변경을 통해 진입하고자 하는 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱할 수 있다. 즉, 전자 장치(100)는 진입 예정 차로 상의 적어도 하나의 외부 차량의 위치, 속도, 및 가속도를 센싱할 수 있다. 예를 들어, 전자 장치(100)는 거리 센서(distant sensor)를 이용하여 적어도 하나의 외부 차량의 위치, 속도, 및 가속도를 센싱할 수 있다. 또한, 전자 장치(100)는, 적어도 하나의 외부 차량의 방향(orientation), 적어도 하나의 외부 차량의 yaw, roll 및 pitch와 같은 흔들림 상태, 및 (적어도 하나의 외부 차량이 무인차가 아닌 경우) 적어도 하나의 외부 차량의 운전자 상태 등을 센싱할 수 있다.
또한, 전자 장치(100)는 차량(1)이 차로 변경을 통해 진입하고자 하는 진입 예정 차로를 인식할 수 있고, 인식된 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱할 수 있다.
단계 s220에서, 전자 장치(100)는 s210에서 센싱된 주행 상태에 기초하여, 진입 예정 차로 상의 진입 가능 영역을 결정할 수 있다. 진입 가능 영역은 차량(1)이 차로를 변경하여 진입하기에 적합한 영역을 의미할 수 있다. 전자 장치(100)는 진입 예정 차로 상의 적어도 하나의 외부 차량의 위치, 속도, 및 가속도 중 적어도 하나를 고려하여, 진입 가능 영역을 결정할 수 있다.
전자 장치(100)는 센싱된 적어도 하나의 외부 차량의 위치를 고려하여 외부 차량들 간의 차간 간격(vehicle interval)을 계산할 수 있다. 예를 들어, 전자 장치(100)는 차간 간격을 형성하는 외부 차량들 중에서 전방 차량과 후방 차량 각각과 차량(1) 간의 거리를 센싱할 수 있다. 이어서, 전자 장치(100)는, 전방 차량과 차량(1) 간의 거리 및 후방 차량과 차량(1) 간의 거리를 이용하여, 삼각법(trigonometry)에 따라 전방 차량과 후방 차량의 차간 간격을 계산할 수 있다.
전자 장치(100)는 외부 차량들 간의 차간 간격을 고려하여 진입 가능 영역을 결정할 수 있다. 구체적으로, 전자 장치(100)는 차간 간격이 기 설정된 길이 이상인지 여부에 따라, 차간 간격을 형성하는 외부 차량들 사이의 영역을 진입 가능 영역으로 결정할 수 있다. 기 설정된 길이는 차량(1)의 전장의 길이를 고려하여 설정될 수 있다. 또한, 전자 장치(100)는 차간 간격뿐만 아니라 차간 간격의 변화 정도를 더 고려하여, 진입 가능 영역을 결정할 수 있다. 예를 들어, 전방 차량의 속도가 줄어들거나 후방 차량의 속도가 빨라져서 차간 간격이 줄어드는 경우, 전자 장치(100)는 차간 간격이 기 설정된 길이 이상이더라도, 줄어드는 차간 간격을 형성하는 외부 차량들 사이의 영역을 진입 가능 영역에서 제외시킬 수 있다.
전자 장치(100)는 센싱된 적어도 하나의 외부 차량의 주행 상태뿐만 아니라 차량(1)의 주행 상태를 더 고려하여, 진입 예정 차로 상의 진입 가능 영역을 결정할 수 있다. 예를 들어, 차간 간격이 기 설정된 길이 이상이더라도, 차간 간격의 위치가 차량(1)의 위치로부터 일정 거리 이상 떨어져있는 경우, 전자 장치(100)는 차간 간격을 형성하는 외부 차량들 사이의 영역을 진입 가능 영역에서 제외시킬 수 있다. 또한, 전방 및 후방의 외부 차량의 주행 속도가 차량(1)의 주행 속도 보다 일정 속도 이상 빠른 경우, 전자 장치(100)는 전방 및 후방 차량 사이의 영역을 진입 가능 영역에서 제외시킬 수 있다.
또한, 전자 장치(100)는 진입 가능 영역을 결정한 후에도, 진입 예정 차로 상의 외부 차량들에 대한 주행 상태를 계속하여 센싱할 수 있다. 센싱 결과, 전자 장치(100)는 기 결정된 진입 가능 영역이 진입 불가 상태로 판단된 경우, 진입 가능 영역을 변경할 수 있다.
단계 s230에서, 전자 장치(100)는 s220에서 결정된 진입 가능 영역으로 차량(1)이 진입하기 위한 진입 조건을 결정할 수 있다. 진입 조건은, 차량(1)이 주행 차로로부터 진입 가능 영역으로 진입하기 위한 주행 차로 상의 위치, 차량(1)이 진입 가능 영역으로 진입하기 위한 시점, 및 차량(1)이 진입 가능 영역으로 진입하기 위한 속도 중 적어도 하나를 포함할 수 있으나, 이에 한정된 것은 아니다.
단계 s240에서, 전자 장치(100)는 s220에서 결정된 진입 가능 영역 및 s230에서 결정된 진입 조건에 대한 정보를 출력할 수 있다. 구체적으로, 전자 장치(100)는 차량(1)이 진입 가능 영역으로 진입하기 위한 위치, 시점, 속도, 가속도, 및 방향 중 적어도 하나에 대한 정보를 출력하여 운전자에게 제공할 수 있다. 일 예에 따라, 전자 장치(100)는, 디스플레이를 통해, 진입 조건에 따라 진입 가능 영역으로 진입할 것을 안내하는 정보를 영상으로 표시 출력할 수 있다. 다른 예에 따라, 전자 장치(100)는, 헤드 업 디스플레이(head-up-display)를 통해, 진입 조건에 따라 진입 가능 영역으로 진입할 것을 안내하는 정보를 차량(1)의 전면 차창(car window)에 투영시킬 수 있다. 또 다른 예에 따라, 전자 장치(100)는, 음향 출력 장치를 통해, 진입 조건에 따라 진입 가능 영역으로 진입할 것을 안내하는 정보를 음성으로 출력할 수 있다.
다만, 진입 예정 차로 상의 진입 가능 영역이 존재하지 않는 경우, 전자 장치(100)는 진입 예정 차로로 현재 진입이 불가하다는 정보를 운전자에게 제공할 수 있다.
도 3은 일 실시예에 따라 전자 장치가 진입 예정 차로를 인식하는 방법의 흐름도이다.
단계 s310에서, 전자 장치(100)는 차량(1)이 주행 중인 주행 차로의 형태 및 주행 차로와 인접한 적어도 하나의 인접 차로의 형태를 센싱할 수 있다. 예를 들어, 전자 장치(100)는 이미지 센서(image sensor)를 이용하여 주행 차로의 형태 및 주행 차로와 인접한 적어도 하나의 차로의 형태를 센싱할 수 있다. 예를 들어, 차로의 형태는 차로의 모양, 차로 폭, 차로의 곡률 등을 포함할 수 있다. 전자 장치(100)는 주행 차로의 형태 및 주행 차로와 인접한 적어도 하나의 차로의 형태를 센싱할 수 있는 바, 차로 모양의 변화, 차로 폭 변화, 타 차로와의 접합 여부 및 접합로 형태를 인식할 수 있다.
단계 s320에서, 전자 장치(100)는 s310에서 센싱된 주행 차로 및 인접 차로의 형태에 기초하여, 적어도 하나의 인접 차로 중에서 진입 예정 차로를 선택할 수 있다. 전자 장치(100)는 센싱된 주행 차로 및 인접 차로의 형태에 기초하여, 차량(1)의 진입 예정 차로를 미리 인식할 수 있으며, 적어도 하나의 인접 차로 중에서 진입 예정 차로를 선택할 수 있다. 예를 들어, 전자 장치(100)는 s310에서 센싱된 주행 차로 및 인접 차로의 형태에 기초하여, 차로의 숫자 변화 또는 곡률 변화를 인식할 수 있고, 인식된 숫자 변화 또는 곡률 변화를 통해, 적어도 하나의 인접 차로 중에서 진입 예정 차로를 선택할 수 있다.
또한, 일 실시예에 따라, 전자 장치(100)는 차량(1)의 주변에 위치하는 표지판, 가드 레일 또는 주행 차로에 표시된 마커를 센싱하여, 주행 차로와 인접한 진입 예정 차로를 결정할 수 있다. 또한, 전자 장치(100)는 주변의 건물, 다리, 터널, 연석, 또는 간판 등의 랜드마크를 센싱하여, 주행 차로와 인접한 진입 예정 차로를 결정할 수 있다.
단계 s330에서, 전자 장치(100)는 s320에서 선택된 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱할 수 있다.
따라서, 전자 장치(100)는, 운전자의 별도의 입력 없이, 차량(1)의 진입 예정 차로를 인식할 수 있고, 결과적으로, 인식된 진입 예정 차로 상의 진입 가능 영역으로 진입하기 위한 진입 조건을 운전자에게 안내할 수 있는 바, 차량(1)의 운전에 대한 편의와 안전을 제공할 수 있다.
도 4는 전자 장치가 진입 예정 차로를 인식하는 실시예를 나타낸다.
전자 장치(100)는 차량(1)의 현재 주행 차로(401)의 형태 및 현재 주행 차로(401)에 인접한 적어도 하나의 인접 차로(403,405)의 형태를 센싱할 수 있다. 센싱 결과, 전자 장치(100)는 현재 차량(1)이 진입로를 통해 2차선의 고속도로로 진입해야 하는 상황임을 인식할 수 있다. 구체적으로, 전자 장치(100)는 현재 주행 차로(401)의 형태 및 적어도 하나의 인접 차로(403,405)의 형태를 센싱한 결과, 주변 차로의 숫자 변화 및 현재 주행 차로(401)의 곡률 변화를 인식하여, 현재 주행 차로(401)에 인접한 차로로 진입해야 하는 상황임을 인식할 수 있다.
이어서, 전자 장치(100)는 센싱된 현재 주행 차로(401) 및 적어도 하나의 인접 차로(403,405)에 기초하여, 적어도 하나의 인접 차로(403,405) 중 차로(403)를 진입 예정 차로로써 선택할 수 있다. 구체적으로, 전자 장치(100)는 센싱된 현재 주행 차로(401) 및 적어도 하나의 인접 차로(403,405)에 기초하여, 현재 주행 차로(401)에 가장 인접한 차로(403)를 진입 예정 차로로 선택할 수 있다.
도 5는 일 실시예에 따른 전자 장치가 후보 영역들을 통해 진입 가능 영역을 결정하는 방법의 흐름도이다.
단계 s510에서, 전자 장치(100)는 진입 예정 차로 상의 외부 차량들의 주행 상태에 기초하여, 진입 가능 영역에 대한 후보 영역들을 결정할 수 있다. 즉, 전자 장치(100)는 진입 가능 영역을 결정하기에 앞서, 후보 영역들을 먼저 결정할 수 있다. 예를 들어, 전자 장치(100)는 진입 예정 차로 상의 외부 차량들 간의 차간 간격들 각각에 대응되는 영역들을 후보 영역들로 결정할 수 있다.
단계 s520에서, 전자 장치(100)는 s510에서 결정된 후보 영역들을 기 설정된 기준에 따라 우선 순위 별로 분류할 수 있다. 구체적으로, 전자 장치(100)는 N개의 후보 영역들을 기 설정된 기준에 따라 1순위 내지 N순위 후보 영역으로 분류할 수 있다.
일 예에 따라, 전자 장치(100)는 후보 영역들 각각에 대응되는 차간 간격의 길이를 기준으로, 후보 영역들을 우선 순위 별로 분류할 수 있다. 구체적으로, 전자 장치(100)는 후보 영역들 중 상대적으로 긴 차간 간격에 대응되는 후보 영역을 선순위 후보 영역으로 결정할 수 있고, 상대적으로 짧은 차간 간격에 대응되는 후보 영역을 후순위 진입 가능 영역으로 결정할 수 있다. 따라서, 전자 장치(100)는 후보 영역들 중 가장 긴 차간 간격에 대응되는 후보 영역을 최우선 순위 후보 영역으로 결정할 수 있다.
다른 예에 따라, 전자 장치(100)는 차량(1)의 주행 상태를 고려하여, 후보 영역들을 우선 순위 별로 분류할 수 있다. 구체적으로, 전자 장치(100)는 차량(1)의 주행 속도의 변화율을 기준으로, 후보 영역들을 우선 순위 별로 분류할 수 있다. 예를 들어, 전자 장치(100)는 차량(1)이 현재 주행 속도의 변화율의 변동 없이 진입하여야 하는 후보 영역의 경우, 선순위 후보 영역으로 결정할 수 있고, 전자 장치(100)는 차량(1)이 현재 주행 속도의 변화율을 크게 하여 진입하여야 하는 진입 가능 영역의 경우, 후순위 후보 영역으로 결정할 수 있다.
또 다른 예에 따라, 전자 장치(100)는 후보 영역들 각각에 대응되는 차간 간격의 길이 및 차량(1)의 주행 상태를 동시에 고려하여, 후보 영역들을 우선 순위 별로 분류할 수 있다. 구체적으로, 전자 장치(100)는 기 설정된 수치 이상의 차간 간격을 갖는 후보 영역들 중, 차량(1)이 가장 먼저 진입 가능한 후보 영역을 최우선 순위 후보 영역으로 결정할 수 있다. 또한, 전자 장치(100)는 기 설정된 수치 미만의 차간 간격을 갖는 후보 영역이라도, 차간 간격이 점차적으로 늘어나서 일정 시간 후 차량(1)이 진입 가능한 후보 영역을 최우선 순위 후보 영역으로 결정할 수 있다.
단계 s530에서, 전자 장치(100)는 분류된 후보 영역들 중 최우선 순위 후보 영역을 진입 가능 영역으로 결정할 수 있다.
도 6은 전자 장치가 후보 영역들을 통해 진입 가능 영역을 결정하는 실시예를 나타낸다.
전자 장치(100)는 진입 예정 차로 상의 외부 차량들인 Car 1 내지 Car 6의 주행 상태에 기초하여, 진입 가능 영역에 대한 후보 영역들을 결정할 수 있다. 즉, 전자 장치(100)는 Car 1 내지 Car 6 간의 차간 간격들 중 기 설정된 길이 이상을 만족시키는 Car 1 및 Car 2 간의 차간 간격, Car 3 및 Car 4 간의 차간 간격, 및 Car 5 및 Car 6 간의 차간 간격에 대응되는 영역들을 진입 가능 영역에 대한 후보 영역들로 결정할 수 있다.
이어서, 전자 장치(100)는 후보 영역들 기 설정된 기준에 따라 우선 순위 별로 분류하여, 1순위 후보 영역, 2순위 후보 영역 및 3순위 후보 영역을 결정할 수 있다. 구체적으로, 전자 장치(100)는 Car 3 및 Car 4 간의 차간 간격이 가장 긴 차간 간격이므로, Car 3 및 Car 4 간의 차간 간격에 대응되는 영역을 1순위 후보 영역으로 결정할 수 있고, Car 1 및 Car 2 간의 차간 간격이 2번째로 긴 차간 간격이므로, Car 1 및 Car 2 간의 차간 간격에 대응되는 영역을 2순위 후보 영역으로 결정할 수 있고 Car 5 및 Car 6 간의 차간 간격이 3번째로 긴 차간 간격이므로, Car 5 및 Car 6 간의 차간 간격에 대응되는 영역을 3순위 후보 영역으로 결정할 수 있다.
또한, 다른 예에 따라, 전자 장치(100)는 차량의 속도 또는 가속도의 변화로 인한 차간 간격의 변화 정도를 고려하여, Car 3 및 Car 4 간의 차간 간격에 대응되는 영역을 1순위 후보 영역으로 결정할 수 있고, Car 1 및 Car 2 간의 차간 간격에 대응되는 영역을 2순위 후보 영역으로 결정할 수 있고, Car 5 및 Car 6 간의 차간 간격에 대응되는 영역을 3순위 후보 영역으로 결정할 수 있다.
또 다른 예에 따라, 전자 장치(100)는 차간 간격을 형성하는 전방 및 후방 차량들의 흔들림 상태를 고려하여, 1순위 후보 영역, 2순위 후보 영역 및 3순위 후보 영역을 결정할 수 있다.
따라서, 전자 장치(100)는 후보 영역들 중 1순위 후보 영역을 진입 가능 영역으로 결정할 수 있다.
도 7은 일 실시예에 따른 전자 장치가 진입 가능 영역을 변경하는 방법의 흐름도를 나타낸다.
단계 s710에서, 전자 장치(100)는 진입 예정 차로 상의 진입 가능 영역을 결정할 수 있다. 예를 들어, 전자 장치(100)는 진입 예정 차로 상의 후보 영역들 중 1순위 후보 영역을 진입 가능 영역으로 결정할 수 있다.
단계 s720에서, 전자 장치(100)는 s710에서 결정된 진입 가능 영역 주변의 외부 차량의 주행 상태를 센싱할 수 있다. 전자 장치(100)는 s710에서 진입 가능 영역을 결정한 후에도, 전자 장치(100)는 결정된 진입 가능 영역 주변의 외부 차량을 계속하여 센싱할 수 있다. 예를 들어, 차량(1)과 진입 가능 영역 간의 거리가 일정 거리 이내가 될 때까지, 전자 장치(100)는 결정된 진입 가능 영역 주변의 외부 차량을 계속하여 센싱할 수 있다. 또한, 전자 장치(100)는 진입 가능 영역 주변의 외부 차량의 방향, 흔들림 상태, 및 외부 차량의 운전자 상태 등을 센싱할 수 있다.
단계 s730에서, 전자 장치(100)는 s720에서의 센싱 결과, s710에서 결정된 진입 가능 영역이 진입 불가 상태인지 여부를 판단할 수 있다. 일 예로, s720에서의 센싱 결과, 진입 예정 차로의 옆 차로에서 외부 차량이 진입 가능 영역으로 진입하는 경우, 전자 장치(100)는 s710에서 결정된 진입 가능 영역을 진입 불가 상태로 판단할 수 있다. 또 다른 예로, s720에서의 센싱 결과, 진입 가능 영역을 형성하는 전방 및 후방의 외부 차량들의 속도 변화로 인해 진입 가능 영역이 줄어드는 경우, 전자 장치(100)는 s710에서 결정된 진입 가능 영역을 진입 불가 상태로 판단할 수 있다.
또한, 전자 장치(100)는 s720에서의 센싱 결과, 진입 가능 영역 주변 차량의 흔들림 상태, 또는 운전자 상태에 기초하여, s710에서 결정된 진입 가능 영역을 진입 불가 상태로 판단할 수 있다. 예를 들어, 전자 장치(100)는 진입 가능 영역 주변 차량의 흔들리는 정도가 기 설정된 수치 이상인 경우, 또는 운전자가 조는 상태인 경우, s710에서 결정된 진입 가능 영역을 진입 불가 상태로 판단할 수 있다.
단계 s740에서는, s730에서 진입 불가 상태로 판단된 경우, 전자 장치(100)는 진입 가능 영역을 변경할 수 있다. 예를 들어, 진입 예정 차로 상의 후보 영역들 중 1순위 후보 영역이 진입 불가 상태이므로, 전자 장치(100)는 후보 영역들 중 2순위 후보 영역을 진입 가능 영역으로 재결정할 수 있다.
단계 s750에서는, s730에서 진입 불가 상태가 아닌 것으로 판단된 경우, 전자 장치(100)는 진입 가능 영역으로 차량(1)이 진입하기 위한 진입 조건을 결정할 수 있다.
도 8은 전자 장치가 진입 가능 영역을 변경하는 실시예를 나타낸다.
도 6에서 살펴보았듯이, 전자 장치(100)는 후보 영역들 중 1순위 후보 영역을 진입 가능 영역으로 결정할 수 있다. 이어서, 전자 장치(100)는 차량(1)이 진입 가능 영역과의 거리가 일정 거리 이내가 될 때까지 계속하여 진입 가능 영역 주변의 외부 차량을 센싱할 수 있다. 예를 들어, 전자 장치(100)는 진입 가능 영역의 전방 및 후방의 외부 차량인 Car 3 및 Car4를 센싱할 수 있고, 진입 예정 차로의 옆 차로에 위치하는 Car N을 센싱할 수 있다.
또한, 전자 장치(100)는 지속적으로 진입 가능 영역 주변의 외부 차량의 속도 변화, 흔들림 상태 등을 센싱할 수 있다. 따라서, 전자 장치(100)는 외부 차량의 흔들림 상태 등으로 인한 발생 가능한 사고를 예상할 수 있다.센싱 결과, 전자 장치(100)는 Car N이 진입 가능 영역으로 진입하는 주행 상태를 센싱할 수 있으므로, 전자 장치(100)는 진입 가능 영역이 진입 불가 상태라고 판단할 수 있다.
따라서, 전자 장치(100)는 진입 가능 영역을 변경할 수 있고, 후보 영역들 중 2순위 후보 영역을 진입 가능 영역으로써 재결정할 수 있다.
도 9는 전자 장치가 진입 가능 영역 및 진입 조건에 대한 정보를 출력하는 실시예를 나타낸다.
전자 장치(100)는 진입 가능 영역 및 진입 조건에 대한 정보를 헤드 업 디스플레이를 통해 전면 차창(910)에 표시 출력할 수 있다. 구체적으로, 전자 장치(100)는 후보 영역들 중 진입 가능 영역 및 진입 조건을 안내하는 영상을 전면 차창(910)에 투영시켜, 운전자가 전면 차창(910)을 바라볼 때 진입 가능 영역 및 진입 조건을 인식하도록 할 수 있다.
도 9에 도시되어 있듯이, 차량(1)이 진입로를 통해 고속도로로 진입하는 상황에서, 전자 장치(100)는 전면 차창(910)에서 나타나는 외부 차량(912) 및 외부 차량(914)의 차간 간격에 해당하는 영역을 진입 가능 영역으로 결정할 수 있고, 진입 가능 영역으로 진입하기 위한 진입 조건인 속력 56km를 결정할 수 있다. 따라서, 도 9와 같이, 전자 장치(100)는 진입 가능 영역 및 진입 조건을 안내하는 영상을 전면 차창(910)에 투영시킬 수 있다.
따라서, 운전자는 전방을 주시한 상태에서 진입 가능 영역 및 진입 조건을 인식할 수 있고, 진입 가능 영역 및 진입 조건에 따라 주행 차로를 변경할 수 있다.
도 10a 및 도 10b는 전자 장치가 차량의 운전을 보조하는 다른 실시예를 나타낸다.
먼저, 도 10a에 도시된 바와 같이, T자형 교차로에서, 운전자는 차량(1)을 운전하여 현재 주행 차로로부터 진입 예정 차로로 우회전하여 진입해야 한다.
이 경우, 차량(1)에 포함된 전자 장치(100)는 주행 중인 주행 차로의 형태 및 주행 차로와 인접한 적어도 하나의 차로의 형태를 센싱하여, 진입 예정 차로를 인식할 수 있다. 즉, 전자 장치(100)는 센싱된 차로의 형태를 통해, 가장 인접한 전방 수평 차로를 진입 예정 차로로 인식할 수 있다.
이어서, 전자 장치(100)는 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱할 수 있다. 즉, 전자 장치(100)는 센싱된 적어도 하나의 외부 차량의 위치, 속도, 및 가속도 중 적어도 하나를 고려하여, 진입 가능 영역을 결정할 수 있다. 도 10에 도시되어 있듯이, 전자 장치(100)는 외부 차량(1010,1020,1030)의 위치, 및 속도를 센싱하여, 외부 차량(1010) 및 외부 차량(1020)의 차간 간격에 해당하는 영역을 진입 불가 영역으로 결정할 수 있고, 외부 차량(1020) 및 외부 차량(1030)에 해당하는 영역을 진입 가능 영역으로 결정할 수 있다.
이어서, 전자 장치(100)는 기 결정된 진입 가능 영역으로 차량(1)이 진입하기 위한 진입 조건을 결정할 수 있다. 즉, 전자 장치(100)는 차량(1)이 외부 차량(1010) 및 외부 차량(1020)의 차간 간격에 해당하는 영역에 진입하기 위한 시점을 '5초 후'로 결정할 수 있다.
따라서, 전자 장치(100)는 기 결정된 진입 가능 영역 및 진입 조건을 운전자에게 안내할 수 있다. 도 10a에 도시되어 있듯이, 전자 장치(100)는 "5초 후에 전방으로 진입하여 우회전 할 것"을 안내하는 음성을 음향 출력 장치를 통해 출력할 수 있다.
다만, 도 10b에 도시된 바와 같이, 전자 장치(100)는 도 10b에서 진입 가능 영역 및 진입 조건을 결정하고 출력한 이후에도, 기 결정한 진입 가능 영역 주변의 외부 차량을 센싱할 수 있다. 예를 들어, 전자 장치(100)는 진입 예정 차로의 옆 차로에 위치하는 외부 차량(1040)을 센싱할 수 있다.
센싱 결과, 전자 장치(100)는 외부 차량(1040)이 진입 가능 영역으로 진입하는 주행 상태를 센싱할 수 있으므로, 전자 장치(100)는 진입 가능 영역이 진입 불가 상태라고 판단할 수 있다.
따라서, 전자 장치(100)는 진입 가능 영역을 외부 차량(1040) 및 외부 차량(1050)의 차간 간격에 해당하는 영역으로 변경할 수 있다. 또한, 전자 장치(100)는 변경된 진입 가능 영역으로 차량(1)이 진입하기 위한 진입 조건을 재결정할 수 있다. 즉, 전자 장치(100)는 차량(1)이 외부 차량(1030) 및 외부 차량(1050)의 차간 간격에 해당하는 영역에 진입하기 위한 시점을 '10초 후'로 변경할 수 있다.
이어서, 전자 장치(100)는 변경된 진입 가능 영역 및 진입 조건을 운전자에게 안내할 수 있다. 도 10b에 도시되어 있듯이, 전자 장치(100)는 "10초 후에 전방으로 진입하여 우회전 할 것"을 안내하는 음성을 음향 출력 장치를 통해 출력할 수 있다.
도 11은 일 실시예에 따른 차량의 운전자를 보조하는 전자 장치의 블록도를 도시하는 도면이다.
전자 장치(100)는 일 실시예에 따라, 센싱부(110), 프로세서(120) 및 출력부(130)를 포함할 수 있다. 도 11에 도시된 전자 장치(100)는 본 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 11에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
센싱부(110)는 차량(1)이 차로 변경을 통해 진입하고자 하는 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱할 수 있다. 즉, 전자 장치(100)는 진입 예정 차로 상의 적어도 하나의 외부 차량의 위치, 속도, 및 가속도를 센싱할 수 있다. 센싱부(110)는 적어도 하나의 외부 차량의 주행 상태를 센싱하기 위한 다수의 센서들을 포함할 수 있다. 예를 들어, 센싱부(110)는 RADAR 센서 및 LIDAR 센서와 같은 거리 센서, 및 카메라와 같은 이미지 센서를 포함할 수 있다. 또한, 센싱부(110)는 다수의 센서들의 위치 및/또는 배향을 수정하도록 구성되는 하나 이상의 액추에이터들을 포함할 수 있는 바, 차량(1)의 전방, 후방, 및 측방 각각의 방향에 위치한 외부 차량의 주행 상태를 센싱할 수 있다.
또한, 센싱부(110)는 차량(1)이 주행 중인 주행 차로의 형태 및 주행 차로와 인접한 적어도 하나의 차로의 형태를 센싱할 수 있다. 예를 들어, 센싱부(110)는 이미지 센서(image sensor)를 이용하여 주행 차로의 형태 및 주행 차로와 인접한 적어도 하나의 차로의 형태를 센싱할 수 있다.
프로세서(120)는 센싱부(110)에 의해 센싱된 차로의 형태에 기초하여, 진입 예정 차로를 미리 인식할 수 있으며, 주행 차로와 인접한 적어도 하나의 차로 중에서 진입 예정 차로를 선택할 수 있다.
프로세서(120)는 센싱부(110)에 의해 센싱된 적어도 하나의 외부 차량의 주행 상태에 기초하여, 진입 예정 차로 상의 진입 가능 영역을 결정할 수 있다. 구체적으로, 전자 장치(100)는 진입 예정 차로 상의 적어도 하나의 외부 차량의 위치, 속도, 및 가속도 중 적어도 하나를 고려하여, 진입 가능 영역을 결정할 수 있다.
프로세서(120)는 진입 예정 차로 상의 외부 차량들의 주행 상태에 기초하여, 진입 가능 영역에 대한 후보 영역들을 결정할 수 있다. 즉, 프로세서(120)는 진입 가능 영역을 결정하기에 앞서, 후보 영역들을 먼저 결정할 수 있다. 이어서, 프로세서(120)는 결정된 후보 영역들을 기 설정된 기준에 따라 우선 순위 별로 분류할 수 있다. 이어서, 프로세서(120)는 분류된 후보 영역들 중 최우선 순위 후보 영역을 진입 가능 영역으로 결정할 수 있다. 일 실시예에 따라, 프로세서(120)는 적어도 하나의 프로세서로 구성될 수 있다.
센싱부(110)는 프로세서(120)에 의해 결정된 진입 가능 영역 주변의 외부 차량의 주행 상태를 센싱할 수 있다. 프로세서(120)에 의해 진입 가능 영역이 결정된 후에도, 센싱부(110)는 결정된 진입 가능 영역 주변의 외부 차량을 계속하여 센싱할 수 있다. 센싱 결과, 프로세서(120)는 기 결정된 진입 가능 영역이 진입 불가 상태인지 여부를 판단할 수 있고, 진입 불가 상태인 경우, 프로세서(120)는 진입 가능 영역을 변경할 수 있다.
프로세서(120)는 결정된 진입 가능 영역으로 차량(1)이 진입하기 위한 진입 조건을 결정할 수 있다. 진입 조건은 차량(1)이 주행 차로로부터 진입 가능 영역으로 진입하기 위한 주행 차로 상의 위치, 차량(1)이 진입 가능 영역으로 진입하기 위한 시점, 및 차량(1)이 진입 가능 영역으로 진입하기 위한 속도 중 적어도 하나를 포함할 수 있다.
출력부(130)는 오디오 신호 또는 비디오 신호를 출력할 수 있으며, 출력부(130)는 디스플레이, 헤드업디스플레이, 및 음향 출력 장치 중 적어도 하나를 포함할 수 있다.
출력부(130)는 프로세서(120)에 의해 결정된 진입 가능 영역 및 진입 조건에 대한 정보를 출력할 수 있다. 일 예에 따라, 출력부(130)의 디스플레이는 진입 조건에 따라 진입 가능 영역으로 진입할 것을 안내하는 정보를 영상으로 표시 출력할 수 있다. 다른 예에 따라, 출력부(130)의 헤드업디스플레이는 진입 조건에 따라 진입 가능 영역으로 진입할 것을 안내하는 정보를 영상으로 차량(1)의 전면 차창에 표시 출력할 수 있다. 또 다른 예에 따라, 출력부(130)의 음향 출력 장치는 진입 조건에 따라 진입 가능 영역으로 진입할 것을 안내하는 정보를 음성으로 출력할 수 있다.
도 12는 다른 실시예에 따른 차량의 운전자를 보조하는 전자 장치의 블록도를 도시하는 도면이다.
전자 장치(100)는 센싱부(110), 프로세서(120), 출력부(130), 저장부(140), 입력부(150), 및 통신부(160)를 포함할 수 있다.
센싱부(110)는 차량(1)이 위치해 있는 환경에 관한 정보를 감지하도록 구성되는 다수의 센서들을 포함할 수 있고, 센서들의 위치 및/또는 배향을 수정하도록 구성되는 하나 이상의 액추에이터들을 포함할 수 있다. 예를 들어, 센싱부(110)는 GPS(Global Positioning System)(224), IMU(Inertial Measurement Unit)(225), RADAR 센서(226), LIDAR 센서(227), 및 이미지 센서(228)를 포함할 수 있다. 이미지 센서(228)는 일 실시예에 따라, 카메라, 스테레오 카메라, 모노 카메라, 와이드 앵글 카메라, 또는 3D 비전 센서를 포함할 수 있다. 또한, 센싱부(110)는 온/습도 센서(232), 적외선 센서(233), 기압 센서(235), 근접 센서(236), 및 RGB 센서(illuminance sensor)(237) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 또한, 센싱부(110)는 이미지 센서(228)와 RADAR 센서(226)가 복합된 형태로 구성되거나, 이미지 센서(228)와 LIDAR 센서(227)가 복합된 형태로 구성될 수 있다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
또한, 센싱부(110)는 차량(1)의 움직임을 센싱할 수 있는 움직임 센싱부(238)를 포함할 수 있다. 움직임 센싱부(238)는 지자기 센서(Magnetic sensor)(229), 가속도 센서(Acceleration sensor)(231), 및 자이로스코프 센서(234)를 포함할 수 있다.
GPS(224)는 차량(1)의 지리적 위치를 추정하도록 구성되는 센서일 수 있다. 즉, GPS(224)는 지구에 대한 차량(1)의 위치를 추정하도록 구성되는 송수신기를 포함할 수 있다.
IMU(225)는 관성 가속도에 기초하여 차량(1)의 위치 및 배향 변화들을 감지하도록 구성되는 센서들의 조합이 될 수 있다. 예를 들어, 센서들의 조합은, 가속도계들 및 자이로스코프들을 포함할 수 있다.
RADAR 센서(226)는 무선 신호를 사용하여 차량(1)이 위치해 있는 환경 내의 물체들을 감지하도록 구성되는 센서일 수 있다. 또한, RADAR 센서(226)는, 물체들의 속도 및/또는 방향을 감지하도록 구성될 수 있다.
LIDAR 센서(227)는 레이저를 사용하여 차량(1)이 위치해 있는 환경 내의 물체들을 감지하도록 구성되는 센서일 수 잇다. 보다 구체적으로, LIDAR 센서(227)는 레이저를 방출하도록 구성되는 레이저 광원 및/또는 레이저 스캐너와, 레이저의 반사를 검출하도록 구성되는 검출기를 포함할 수 잇다. LIDAR 센서(227)는 코히런트(coherent)(예컨대, 헤티로다인 검출을 사용함) 또는 비코히런트(incoherent) 검출 모드에서 동작하도록 구성될 수 있다.
이미지 센서(228)는 차량(1) 외부의 환경을 기록하도록 구성되는 스틸 카메라 또는 비디오 카메라가 될 수 있다. 예를 들어, 이미지 센서(228)는 다수의 카메라들을 포함할 수 있고, 다수의 카메라들은 차량(1)의 내부 및 외부 상의 다수의 위치들에 배치될 수 있다.
저장부(140)는 마그네틱 디스크 드라이브, 광학 디스크 드라이브, 플래쉬 메모리를 포함할 수 있다. 또는 저장부(140)는 휴대 가능한 USB 데이터 저장 장치가 될 수 있다. 저장부(140)는 본원과 관련되는 예들을 실행하기 위한 시스템 소프트웨어를 저장할 수 있다. 본원과 관련되는 예들을 실행하기 위한 시스템 소프트웨어는 휴대 가능한 저장 매체에 저장될 수 있다.
통신부(160)는 다른 디바이스와 무선으로 통신하기 위한 적어도 하나의 안테나를 포함할 수 있다. 예를 들어, 통신부(160)는 와이파이 또는 블루투스를 통해 무선으로 셀룰러 네트워크 또는 다른 무선 프로토콜 및 시스템과 통신하기 위해 이용될 수 있다. 프로세서(120)에 의해 제어되는 통신부(160)는 무선 신호를 송수신할 수 있다. 예를 들어, 프로세서(120)는, 통신부(160)가 셀룰러 네트워크와 무선 신호를 송수신하기 위해, 저장부(140)에 포함된 프로그램을 실행시킬 수 있다.
입력부(150)는 차량(1)을 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 입력부(150)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다. 또한, 입력부(150)는 마이크를 포함할 수 있는 바, 마이크는 차량(1)의 탑승자로부터 오디오(예를 들어, 음성 명령)를 수신하도록 구성될 수 있다.
출력부(130)는 오디오 신호 또는 비디오 신호를 출력할 수 있으며, 출력 장치(280)는 디스플레이(281), 음향 출력부(282), 및 진동부(283)를 포함할 수 있다.
디스플레이(281)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 출력부(130)의 구현 형태에 따라, 출력부(130)는 디스플레이(281)를 2개 이상 포함할 수도 있다.
음향 출력부(282)는 통신부(160)로부터 수신되거나 저장부(140)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(282)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
진동부(283)는 전기적 에너지를 이용하여 물리적 진동을 생성할 수 있다.
입력부(150) 및 출력부(130)는 네트워크 인터페이스를 포함할 수 있고, 터치 스크린으로 구현될 수 있다.
프로세서(120)는, 저장부(140)에 저장된 프로그램들을 실행함으로써, 센싱부(110), 통신부(160), 입력부(150), 저장부(140), 및 출력부(130)를 전반적으로 제어할 수 있다.
도 13은 일 실시예에 따른 차량의 블록도를 도시하는 도면이다.
차량(1)은 일 실시예에 따라, 전자 장치(100) 및 주행 장치(200)를 포함할 수 있다. 도 13에 도시된 차량(1)은 본 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 13에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
전자 장치(100)는 센싱부(110) 및 프로세서(120)를 포함할 수 있다.
주행 장치(200)는 브레이크 유닛(221), 조향 유닛(222) 및 스로틀(223)을 포함할 수 있다.
조향 유닛(222)은 차량(1)의 방향을 조절하도록 구성되는 매커니즘들의 조합이 될 수 있다.
스로틀(223)은 엔진/모터(211)의 동작 속도를 제어하여, 차량(1)의 속도를 제어하도록 구성되는 매커니즘들의 조합이 될 수 있다. 또한, 스로틀(223)은 스로틀 개방량을 조절하여 엔진/모터(211)로 유입되는 연료공기의 혼합 가스 양을 조절할 수 있으며, 스로틀 개방량을 조절하여 동력 및 추력을 제어할 수 있다.
브레이크 유닛(221)은 차량(1)을 감속시키도록 구성되는 매커니즘들의 조합이 될 수 있다. 예를 들어, 브레이크 유닛(221)은 휠/타이어(214)의 속도를 줄이기 위해 마찰을 사용할 수 있다.
센싱부(110)는 차량(1)이 차로 변경을 통해 진입하고자 하는 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱할 수 있다.
프로세서(120)는 센싱부(110)에 의해 센싱된 주행 상태에 기초하여, 진입 예정 차로 상의 진입 가능 영역을 결정하고, 결정된 진입 가능 영역으로 차량(1)이 진입하기 위한 진입 조건을 결정할 수 있다.
프로세서(120)는 결정된 진입 조건에 따라 차량(1)이 진입 가능 영역으로 진입하도록 제어할 수 있다. 구체적으로, 프로세서(120)는 주행 장치(200)를 제어하여, 차량(1)이 현재 주행 차로에서 진입 예정 차로 상의 진입 가능 영역으로 진입하도록 제어할 수 있다. 따라서, 차량(1)은 운전자의 개입 없이 스스로 주행하여 차로 변경을 수행할 수 있다.
상기 살펴 본 실시예들에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다.
본 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. "매커니즘", "요소", "수단", "구성"과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.

Claims (19)

  1. 차량의 운전을 보조하는 전자 장치에 있어서,
    상기 차량이 차로 변경을 통해 진입하고자 하는 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱하는 센싱부;
    상기 센싱된 적어도 하나의 외부 차량의 주행 상태에 기초하여, 상기 진입 예정 차로 상의 진입 가능 영역을 결정하고, 상기 진입 가능 영역으로 상기 차량이 진입하기 위한 진입 조건을 결정하는 프로세서; 및
    상기 진입 가능 영역 및 상기 진입 조건에 대한 정보를 출력하는 출력부를 포함하는 전자 장치.
  2. 제 1 항에 있어서,
    상기 프로세서는,
    상기 진입 가능 영역에 대한 후보 영역들을 결정하고, 기 설정된 기준에 따라 상기 후보 영역들을 우선 순위 별로 분류하고, 분류된 후보 영역들 중 최선순위 후보 영역을 상기 진입 가능 영역으로 선택하는, 전자 장치.
  3. 제 1 항에 있어서,
    상기 센싱부는,
    상기 진입 가능 영역 주변의 외부 차량의 주행 상태를 실시간으로 센싱하고,
    상기 프로세서는,
    상기 실시간 센싱 결과, 상기 진입 가능 영역이 진입 불가 상태인지 여부를 판단하고, 진입 불가 상태로 판단된 경우 상기 진입 가능 영역을 변경하는, 전자 장치.
  4. 제 1 항에 있어서,
    상기 센싱부는,
    상기 차량이 주행 중인 주행 차로의 형태, 및 상기 주행 차로와 인접한 적어도 하나의 인접 차로의 형태를 센싱하고,
    상기 프로세서는,
    상기 센싱된 주행 차로의 형태 및 상기 적어도 하나의 인접 차로의 형태에 기초하여, 상기 적어도 하나의 인접 차로 중에서 상기 진입 예정 차로를 선택하는, 전자 장치.
  5. 제 1 항에 있어서,
    상기 프로세서는,
    상기 적어도 하나의 외부 차량의 주행 상태 및 상기 차량의 주행 상태를 고려하여, 상기 진입 가능 영역을 결정하는, 전자 장치.
  6. 제 1 항에 있어서,
    상기 센싱부는 거리 센서를 포함하고,
    상기 거리 센서를 이용하여 상기 적어도 하나의 외부 차량의 위치, 속도, 가속도, 흔들림 상태, 및 방향 중 적어도 하나를 센싱하는, 전자 장치.
  7. 제 1 항에 있어서,
    상기 진입 조건은,
    상기 차량이 주행 중인 주행 차로로부터 상기 진입 가능 영역으로 진입하기 위한 상기 주행 차로 상의 위치, 상기 진입 가능 영역으로 진입할 시점, 및 상기 진입 가능 영역으로 진입하기 위한 상기 차량의 속도, 가속도 및 방향 중 적어도 하나를 포함하는, 전자 장치.
  8. 제 1 항에 있어서,
    상기 출력부는,
    상기 진입 조건에 따라 상기 진입 가능 영역으로 진입할 것을 안내하는 정보를 영상으로 표시 출력하는 디스플레이, 상기 진입 조건에 따라 상기 진입 가능 영역으로 진입할 것을 안내하는 정보를 영상으로 상기 차량의 차창(car window)에 투영시키는 헤드업디스플레이(head-up-display), 및 상기 진입 조건에 따라 상기 진입 가능 영역으로 진입할 것을 안내하는 정보를 음성으로 출력하는 음향 출력 장치 중 적어도 하나를 포함하는, 전자 장치.
  9. 제 1 항에 있어서,
    상기 프로세서는,
    상기 차량이 상기 진입 조건에 따라 상기 진입 가능 영역으로 진입하도록 상기 차량의 주행 장치를 제어하는, 전자 장치.
  10. 차량의 운전자를 보조하는 방법에 있어서,
    상기 차량이 차로 변경을 통해 진입하고자 하는 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱하는 단계;
    상기 센싱된 적어도 하나의 외부 차량의 주행 상태에 기초하여, 상기 진입 예정 차로 상의 진입 가능 영역을 결정하는 단계;
    상기 진입 가능 영역으로 상기 차량이 진입하기 위한 진입 조건을 결정하는 단계; 및
    상기 진입 가능 영역 및 상기 진입 조건에 대한 정보를 출력하는 단계를 포함하는 방법.
  11. 제 10 항에 있어서,
    상기 진입 가능 영역을 결정하는 단계는,
    상기 진입 가능 영역에 대한 후보 영역들을 결정하는 단계;
    기 설정된 기준에 따라 상기 후보 영역들을 우선 순위 별로 분류하는 단계; 및
    분류된 후보 영역들 중 최선순위 후보 영역을 상기 진입 가능 영역으로 선택하는 단계를 포함하는, 방법.
  12. 제 10 항에 있어서,
    상기 진입 가능 영역을 결정하는 단계는,
    상기 진입 가능 영역 주변의 외부 차량의 주행 상태를 실시간으로 센싱하는 단계; 및
    상기 실시간 센싱 결과, 상기 진입 가능 영역이 진입 불가 상태인지 여부를 판단하는 단계; 및
    진입 불가 상태로 판단된 경우 상기 진입 가능 영역을 변경하는 단계를 포함하는, 방법.
  13. 제 10 항에 있어서,
    상기 센싱하는 단계는,
    상기 차량이 주행 중인 주행 차로의 형태, 및 상기 주행 차로와 인접한 적어도 하나의 차로의 형태를 센싱하는 단계; 및
    상기 센싱된 주행 차로의 형태 및 상기 적어도 하나의 차로의 형태에 기초하여, 상기 적어도 하나의 차로 중에서 상기 진입 예정 차로를 선택하는 단계를 포함하는, 방법.
  14. 제 10 항에 있어서,
    상기 진입 가능 영역을 결정하는 단계는,
    상기 적어도 하나의 외부 차량의 주행 상태 및 상기 차량의 주행 상태를 고려하여, 상기 진입 가능 영역을 결정하는, 방법.
  15. 제 10 항에 있어서,
    상기 센싱하는 단계는,
    거리 센서를 이용하여 상기 적어도 하나의 외부 차량의 위치, 속도, 가속도, 흔들림 상태, 및 방향 중 적어도 하나를 센싱하는, 방법.
  16. 제 10 항에 있어서,
    상기 진입 조건은,
    상기 차량이 주행 중인 주행 차로로부터 상기 진입 가능 영역으로 진입하기 위한 상기 주행 차로 상의 위치, 상기 진입 가능 영역으로 진입할 시점, 및 상기 진입 가능 영역으로 진입하기 위한 상기 차량의 속도, 가속도 및 방향 중 적어도 하나를 포함하는, 방법.
  17. 제 10 항에 있어서,
    상기 출력하는 단계는,
    상기 진입 조건에 따라 상기 진입 가능 영역으로 진입할 것을 안내하는 영상을 표시 출력하거나, 상기 진입 조건에 따라 상기 진입 가능 영역으로 진입할 것을 안내하는 음성을 출력하는, 방법.
  18. 제 10 항에 있어서,
    상기 차량이 상기 진입 조건에 따라 상기 진입 가능 영역으로 진입하도록 상기 차량의 주행 장치를 제어하는 단계를 더 포함하는, 방법.
  19. 제 10 항 내지 제 18 항 중에 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020170016852A 2017-02-07 2017-02-07 차량의 운전을 보조하는 전자 장치 및 방법 KR102343329B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020170016852A KR102343329B1 (ko) 2017-02-07 2017-02-07 차량의 운전을 보조하는 전자 장치 및 방법
PCT/KR2018/001450 WO2018147599A1 (ko) 2017-02-07 2018-02-02 차량의 운전을 보조하는 전자 장치 및 방법
US16/483,558 US11217100B2 (en) 2017-02-07 2018-02-02 Electronic device and method for assisting in vehicle driving
EP18750769.4A EP3546310A4 (en) 2017-02-07 2018-02-02 ELECTRONIC DEVICE AND METHOD FOR DRIVING A VEHICLE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170016852A KR102343329B1 (ko) 2017-02-07 2017-02-07 차량의 운전을 보조하는 전자 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20180091533A true KR20180091533A (ko) 2018-08-16
KR102343329B1 KR102343329B1 (ko) 2021-12-24

Family

ID=63106965

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170016852A KR102343329B1 (ko) 2017-02-07 2017-02-07 차량의 운전을 보조하는 전자 장치 및 방법

Country Status (4)

Country Link
US (1) US11217100B2 (ko)
EP (1) EP3546310A4 (ko)
KR (1) KR102343329B1 (ko)
WO (1) WO2018147599A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020050502A1 (ko) * 2018-09-04 2020-03-12 네이버랩스 주식회사 카메라 기반의 차선 변경 가능 시점을 학습하는 방법 및 시스템, 그리고 차선 변경 가능 여부의 알림을 제공하는 방법 및 시스템
KR20210006086A (ko) * 2019-07-08 2021-01-18 네이버랩스 주식회사 차선 변경 가능 여부의 알림을 제공하는 방법 및 시스템
WO2021040143A1 (ko) * 2019-08-27 2021-03-04 엘지전자 주식회사 무선 통신 시스템에서 차량이 신호를 전송하는 방법 및 이를 위한 차량
US11217100B2 (en) 2017-02-07 2022-01-04 Samsung Electronics Co., Ltd. Electronic device and method for assisting in vehicle driving

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7091284B2 (ja) * 2019-06-05 2022-06-27 本田技研工業株式会社 制御装置、プログラム、通信システム、及び制御方法
US11614739B2 (en) * 2019-09-24 2023-03-28 Apple Inc. Systems and methods for hedging for different gaps in an interaction zone
DE102022111538A1 (de) * 2022-05-09 2023-11-09 Daimler Truck AG Verfahren und Vorrichtung zur Planung eines Spurwechsels eines Fahrzeugs

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003205764A (ja) * 2002-01-16 2003-07-22 Nissan Motor Co Ltd 車両用走行制御装置
JP4853525B2 (ja) * 2009-02-09 2012-01-11 トヨタ自動車株式会社 移動領域予測装置
KR20140074158A (ko) * 2012-12-06 2014-06-17 광주과학기술원 차선 변경 안내 방법 및 이를 실행하는 장치
JP2015174494A (ja) * 2014-03-13 2015-10-05 日産自動車株式会社 車線変更支援装置
JP2017019358A (ja) * 2015-07-09 2017-01-26 富士重工業株式会社 車両の運転支援装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4297045B2 (ja) 2004-12-14 2009-07-15 株式会社デンソー ヘッドアップディスプレイの表示制御装置およびプログラム
DE102009046274A1 (de) 2009-11-02 2011-05-12 Robert Bosch Gmbh Sicherheitsvorrichtung für einen Kraftfahrzeug-Service-Arbeitsplatz
KR20120018614A (ko) * 2010-08-23 2012-03-05 현대모비스 주식회사 차선 변경 보조기능이 구비된 자동차 및 차선변경방법
JP2012073925A (ja) 2010-09-29 2012-04-12 Fuji Heavy Ind Ltd 車両用運転支援装置
KR101029096B1 (ko) 2010-11-18 2011-04-13 김은숙 차량의 측면 충돌 회피 방법
DE102011082126B4 (de) 2011-09-05 2020-07-23 Robert Bosch Gmbh Sicherheitseinrichtung für kraftfahrzeuge
DE102012213568A1 (de) 2012-08-01 2014-02-06 Robert Bosch Gmbh Sicherheitseinrichtung für kraftfahrzeuge
GB2511748B (en) 2013-03-11 2015-08-12 Jaguar Land Rover Ltd Emergency braking system for a vehicle
DE102013009400A1 (de) 2013-06-04 2014-12-04 Volkswagen Aktiengesellschaft Notfallassistenz zur Fahrzeugführung
JP6257989B2 (ja) * 2013-10-08 2018-01-10 日産自動車株式会社 運転支援装置
CN106462727B (zh) 2014-01-30 2020-02-11 移动眼视力科技有限公司 车辆、车道终止检测系统和方法
KR20150095102A (ko) * 2014-02-12 2015-08-20 한국전자통신연구원 주행중 운전자의 차로 변경을 보조하는 장치
KR101558786B1 (ko) * 2014-06-30 2015-10-07 현대자동차주식회사 차량의 주행차로 인식장치 및 방법
US9628565B2 (en) 2014-07-23 2017-04-18 Here Global B.V. Highly assisted driving platform
JP6055865B2 (ja) * 2014-08-04 2016-12-27 富士重工業株式会社 走行環境危険度判定装置および走行環境危険度報知装置
US20160107642A1 (en) 2014-10-15 2016-04-21 Continental Automotive Systems, Inc. Collision avoidance system using driver eye monitoring during gear change
WO2016143113A1 (ja) * 2015-03-12 2016-09-15 三菱電機株式会社 車群管理装置、車群管理方法、車群管理プログラム及び車群表示装置
JP2016189097A (ja) * 2015-03-30 2016-11-04 パイオニア株式会社 異常運転検出装置
JP6323385B2 (ja) * 2015-04-20 2018-05-16 トヨタ自動車株式会社 車両走行制御装置
US9864918B2 (en) * 2015-11-04 2018-01-09 Ford Global Technologies, Llc Predicting vehicle movements based on driver body language
JP2018103766A (ja) * 2016-12-26 2018-07-05 トヨタ自動車株式会社 車両の車線変更支援装置
KR102343329B1 (ko) 2017-02-07 2021-12-24 삼성전자주식회사 차량의 운전을 보조하는 전자 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003205764A (ja) * 2002-01-16 2003-07-22 Nissan Motor Co Ltd 車両用走行制御装置
JP4853525B2 (ja) * 2009-02-09 2012-01-11 トヨタ自動車株式会社 移動領域予測装置
KR20140074158A (ko) * 2012-12-06 2014-06-17 광주과학기술원 차선 변경 안내 방법 및 이를 실행하는 장치
JP2015174494A (ja) * 2014-03-13 2015-10-05 日産自動車株式会社 車線変更支援装置
JP2017019358A (ja) * 2015-07-09 2017-01-26 富士重工業株式会社 車両の運転支援装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11217100B2 (en) 2017-02-07 2022-01-04 Samsung Electronics Co., Ltd. Electronic device and method for assisting in vehicle driving
WO2020050502A1 (ko) * 2018-09-04 2020-03-12 네이버랩스 주식회사 카메라 기반의 차선 변경 가능 시점을 학습하는 방법 및 시스템, 그리고 차선 변경 가능 여부의 알림을 제공하는 방법 및 시스템
KR20210006086A (ko) * 2019-07-08 2021-01-18 네이버랩스 주식회사 차선 변경 가능 여부의 알림을 제공하는 방법 및 시스템
WO2021040143A1 (ko) * 2019-08-27 2021-03-04 엘지전자 주식회사 무선 통신 시스템에서 차량이 신호를 전송하는 방법 및 이를 위한 차량

Also Published As

Publication number Publication date
WO2018147599A1 (ko) 2018-08-16
US20200027352A1 (en) 2020-01-23
EP3546310A1 (en) 2019-10-02
US11217100B2 (en) 2022-01-04
EP3546310A4 (en) 2020-01-01
KR102343329B1 (ko) 2021-12-24

Similar Documents

Publication Publication Date Title
US10906532B2 (en) Autonomous vehicle and method for controlling the same
US11217100B2 (en) Electronic device and method for assisting in vehicle driving
CN110347145B (zh) 用于自动驾驶车辆的感知辅助
CN110239562B (zh) 自动驾驶车辆的基于周围车辆行为的实时感知调整与驾驶调适
US11302196B2 (en) Information processing apparatus and information processing method
US11597396B2 (en) Vehicle control device
US10114374B2 (en) Emergency handling system for an autonomous driving vehicle (ADV)
KR102479493B1 (ko) 자율 주행 차량을 보조하기 위한 방법 및 이를 위한 장치
KR102564013B1 (ko) 차량 제어 장치, 그를 포함한 시스템 및 그 방법
JP6325670B2 (ja) 車線選択装置、車両制御システム及び車線選択方法
KR102077573B1 (ko) 자동 주차 시스템 및 차량
CN108622003B (zh) 用于自动驾驶车辆的碰撞预测以及安全气囊预先展开系统
US20170076606A1 (en) System and method to provide driving assistance
KR20190106845A (ko) 자율 주행 차량의 탑승자 인식 및 승하차 지원 장치 및 방법
CN110053608B (zh) 安装在车辆上的车辆控制装置及控制该车辆的方法
US11535252B2 (en) Electronic apparatus and method of assisting driving of vehicle
CN111830859B (zh) 车辆远程指示系统
CN109085818B (zh) 基于车道信息控制自动驾驶车辆的车门锁的方法和系统
CN111724627B (zh) 检测前方车辆向后滑动的自动告警系统
JP2008230467A (ja) 走行支援装置
KR20180051977A (ko) 차량용 사용자 인터페이스 장치 및 차량
CN111328313A (zh) 用于自动驾驶车辆的控制占主导的三点转弯规划
JP2021107217A (ja) 車両用表示制御装置、方法およびプログラム
JP2023012793A (ja) 重畳画像表示装置
CN113548043A (zh) 用于自主车辆的安全操作员的碰撞告警系统和方法

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant