KR20240036967A - Method and apparatus for active driving assistance based on driving information judgment - Google Patents

Method and apparatus for active driving assistance based on driving information judgment Download PDF

Info

Publication number
KR20240036967A
KR20240036967A KR1020220115666A KR20220115666A KR20240036967A KR 20240036967 A KR20240036967 A KR 20240036967A KR 1020220115666 A KR1020220115666 A KR 1020220115666A KR 20220115666 A KR20220115666 A KR 20220115666A KR 20240036967 A KR20240036967 A KR 20240036967A
Authority
KR
South Korea
Prior art keywords
driving
detection area
vehicle
area
processor
Prior art date
Application number
KR1020220115666A
Other languages
Korean (ko)
Inventor
장원철
이재영
Original Assignee
한화에어로스페이스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화에어로스페이스 주식회사 filed Critical 한화에어로스페이스 주식회사
Priority to KR1020220115666A priority Critical patent/KR20240036967A/en
Publication of KR20240036967A publication Critical patent/KR20240036967A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/06Direction of travel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects

Abstract

본 발명은 주행정보 판단 기반 능동주행보조 방법 및 장치를 위하여, 차량의 주행 정보 또는 차선 정보를 기초로 주행 영역을 식별하는 단계, 상기 주행 정보 및 상기 주행 영역을 기초로 탐지 영역을 단계별로 구분하여 상기 탐지 영역을 가변적으로 생성하는 단계, 상기 탐지 영역을 기초로 상기 탐지 영역 상의 장애물을 탐지하는 단계, 및 차량의 자세 변화 또는 상기 주행 정보를 기초로 상기 탐지 영역을 보정하는 단계를 포함하는, 능동 주행 보조 방법을 제공한다.The present invention provides an active driving assistance method and device based on driving information judgment, comprising the steps of identifying a driving area based on vehicle driving information or lane information, dividing the detection area into stages based on the driving information and the driving area, and Active, comprising the steps of variably generating the detection area, detecting obstacles on the detection area based on the detection area, and correcting the detection area based on a change in attitude of the vehicle or the driving information. Provides driving assistance methods.

Description

주행정보 판단 기반 능동주행보조 방법 및 장치{Method and apparatus for active driving assistance based on driving information judgment}{Method and apparatus for active driving assistance based on driving information judgment}

본 발명의 실시예들은 주행정보 판단 기반 능동주행보조 방법 및 장치에 관한 것이다.Embodiments of the present invention relate to an active driving assistance method and device based on driving information judgment.

레이더나 초음파 센서 등을 활용하여 차량 주변에 장애물(예: 차량, 사람, 기구물 등)이 근접한 경우 소리로 장애물이 근접해 있음을 알릴 수 있다. 주로 차량 주차 보조기능, 주행 중 차선변경, 교차로 진입시 시야 사각지대 장애물 탐지에 사용된다.By using radar or ultrasonic sensors, when obstacles (e.g. vehicles, people, objects, etc.) are close to the vehicle, the proximity of the obstacles can be notified by sound. It is mainly used for vehicle parking assistance functions, lane changes while driving, and blind spot obstacle detection when entering an intersection.

종래에는 제한적 상황(예; 주행 중 차선변경시, 주차 보조수단)에서만 활용되며, 이는 수동운전 및 원격으로 차량을 주행하는 상황에서 제공되는 차량의 주변정보가 매우 협소해진다. 현재 차량의 진행방향에 접근하는 장애물 식별이 아닌 센서가 탐지 가능한 전방 범위 전체를 탐지하므로 이는 운전자에게 명확한 주행환경을 제공하기 어려우며, 접근하는 장애물이 출현하는 경우 위험 수준을 인지하기 어렵다.Conventionally, it is used only in limited situations (e.g., when changing lanes while driving, as a parking assistant), and this means that the information surrounding the vehicle provided in situations where the vehicle is driven manually or remotely is very limited. Currently, it is difficult to provide a clear driving environment to the driver because the sensor detects the entire detectable front range rather than identifying obstacles approaching the vehicle's direction of travel, and it is difficult to recognize the level of risk when an approaching obstacle appears.

또한, 정규 도로 환경과 달리 야외 환경에서 주행하는 경우 차량 주행방향에 따른 주행영역 궤적과 상관없이 출현 장애물 탐지여부만 알려주므로 운전자에게 혼란과 오탐지로 오해할 수 있는 여지가 있어 주행안정성에 한계가 명확하다.In addition, unlike a regular road environment, when driving in an outdoor environment, only whether or not an obstacle is detected is notified regardless of the driving area trajectory according to the vehicle's driving direction, which may cause confusion and misunderstanding to the driver as a false positive, thereby limiting driving stability. It's clear.

본 발명은 상기와 같은 문제점을 포함하여 여러 문제점들을 해결하기 위한 것으로서, 주행정보 판단 기반 능동주행보조 방법 및 장치를 제공하는 것을 목적으로 한다. 그러나 이러한 과제는 예시적인 것으로, 이에 의해 본 발명의 범위가 한정되는 것은 아니다.The present invention is intended to solve various problems including the problems described above, and its purpose is to provide an active driving assistance method and device based on driving information judgment. However, these tasks are illustrative and do not limit the scope of the present invention.

본 발명의 일 관점에 따르면, 차량의 주행 정보 또는 차선 정보를 기초로 주행 영역을 식별하는 단계, 상기 주행 정보 및 상기 주행 영역을 기초로 탐지 영역을 단계별로 구분하여 상기 탐지 영역을 가변적으로 생성하는 단계, 상기 탐지 영역을 기초로 상기 탐지 영역 상의 장애물을 탐지하는 단계, 및 차량의 자세 변화 또는 상기 주행 정보를 기초로 상기 탐지 영역을 보정하는 단계를 포함하는, 능동 주행 보조 방법이 제공된다.According to one aspect of the present invention, identifying a driving area based on driving information or lane information of a vehicle, dividing detection areas into stages based on the driving information and the driving area to variably generate the detection area. An active driving assistance method is provided, including the steps of detecting an obstacle in the detection area based on the detection area, and correcting the detection area based on a change in posture of the vehicle or the driving information.

상기 탐지 영역을 보정하는 단계는, 차량이 주행하는 차선의 폭을 기초로 상기 탐지 영역을 보정하는 단계, 차량이 주행하는 차선의 인접 차선의 폭을 기초로 상기 탐지 영역을 보정하는 단계, 및 차량의 주행 속도 및 진행 방향을 기초로 상기 탐지 영역에 충돌경고 영역을 추가하여 상기 탐지 영역을 보정하는 단계를 포함할 수 있다.The step of correcting the detection area includes correcting the detection area based on the width of the lane in which the vehicle is traveling, correcting the detection area based on the width of the adjacent lane of the lane in which the vehicle is traveling, and the vehicle It may include correcting the detection area by adding a collision warning area to the detection area based on the driving speed and direction of travel.

상기 장애물을 탐지하는 단계는, 상기 주행 영역 및 상기 탐지 영역을 기초로 장애물을 탐지하여 차량과 장애물의 충돌 위험 수준을 판단하는 단계, 및 상기 충돌 위험 수준 및 상기 주행 정보를 기초로 차량의 가감속과 조향 제어 보조를 수행하는 단계를 포함할 수 있다.The step of detecting the obstacle includes detecting an obstacle based on the driving area and the detection area to determine a collision risk level between the vehicle and the obstacle, and acceleration/deceleration of the vehicle based on the collision risk level and the driving information. and performing steering control assistance.

본 발명의 일 관점에 따르면, 프로세서를 포함하고, 상기 프로세서는, 차량의 주행 정보 또는 차선 정보를 기초로 주행 영역을 식별하고, 상기 주행 정보 및 상기 주행 영역을 기초로 탐지 영역을 단계별로 구분하여 상기 탐지 영역을 가변적으로 생성하고, 상기 탐지 영역을 기초로 상기 탐지 영역 상의 장애물을 탐지하고, 차량의 자세 변화 또는 상기 주행 정보를 기초로 상기 탐지 영역을 보정하는, 능동 주행 보조 장치가 제공된다.According to one aspect of the present invention, it includes a processor, wherein the processor identifies a driving area based on driving information or lane information of the vehicle, and divides the detection area into stages based on the driving information and the driving area. An active driving assistance device is provided that variably generates the detection area, detects obstacles on the detection area based on the detection area, and corrects the detection area based on a change in vehicle posture or the driving information.

상기 프로세서는, 차량이 주행하는 차선의 폭을 기초로 상기 탐지 영역을 보정하고, 차량이 주행하는 차선의 인접 차선의 폭을 기초로 상기 탐지 영역을 보정하고, 차량의 주행 속도 및 진행 방향을 기초로 상기 탐지 영역에 충돌경고 영역을 추가하여 상기 탐지 영역을 보정할 수 있다.The processor corrects the detection area based on the width of the lane in which the vehicle is traveling, corrects the detection area based on the width of the adjacent lane of the lane in which the vehicle is traveling, and based on the traveling speed and direction of travel of the vehicle. The detection area can be corrected by adding a collision warning area to the detection area.

상기 프로세서는, 상기 주행 영역 및 상기 탐지 영역을 기초로 장애물을 탐지하여 차량과 장애물의 충돌 위험 수준을 판단하고, 상기 충돌 위험 수준 및 상기 주행 정보를 기초로 차량의 가감속과 조향 제어 보조를 수행할 수 있다.The processor detects obstacles based on the driving area and the detection area, determines the collision risk level between the vehicle and the obstacle, and performs acceleration/deceleration and steering control assistance of the vehicle based on the collision risk level and the driving information. can do.

전술한 것 외의 다른 측면, 특징, 이점은 이하의 발명을 실시하기 위한 구체적인 내용, 청구범위 및 도면으로부터 명확해질 것이다.Other aspects, features and advantages other than those described above will become apparent from the detailed description, claims and drawings for carrying out the invention below.

상기한 바와 같이 이루어진 본 발명의 일 실시예에 따르면, 주행정보 판단 기반 능동주행보조 방법 및 장치를 구현할 수 있다. 물론 이러한 효과에 의해 본 발명의 범위가 한정되는 것은 아니다.According to an embodiment of the present invention made as described above, an active driving assistance method and device based on driving information judgment can be implemented. Of course, the scope of the present invention is not limited by this effect.

도 1은 본 발명의 일 실시예에 따른 능동 주행 보조 장치의 구성 및 동작을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 능동 주행 보조 장치의 프로세서 구성을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 능동 주행 보조 방법을 보여주는 순서도이다.
도 4 내지 도 6은 본 발명의 일 실시예에 따른 능동 주행 보조 방법을 설명하기 위한 도면이다.
도 7 및 도 8은 본 발명의 다른 실시예에 따른 능동 주행 보조 방법을 설명하기 위한 도면이다.
1 is a diagram for explaining the configuration and operation of an active driving assistance device according to an embodiment of the present invention.
Figure 2 is a diagram for explaining the processor configuration of an active driving assistance device according to an embodiment of the present invention.
Figure 3 is a flowchart showing an active driving assistance method according to an embodiment of the present invention.
4 to 6 are diagrams for explaining an active driving assistance method according to an embodiment of the present invention.
7 and 8 are diagrams for explaining an active driving assistance method according to another embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다.Since the present invention can be modified in various ways and can have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. The effects and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. When describing with reference to the drawings, identical or corresponding components will be assigned the same reference numerals and redundant description thereof will be omitted. .

이하의 실시예에서, 제1 이나 제2 등의 용어는 한정적인 의미가 아니라, 일 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 그리고 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서 상에 기재된 특징 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 배제하는 것은 아니다.In the following embodiments, terms such as first or second are used not in a limiting sense but for the purpose of distinguishing one component from another component. And singular expressions include plural expressions, unless the context clearly dictates otherwise. Additionally, terms such as include or have mean that the features or components described in the specification exist, and do not exclude the possibility of adding one or more other features or components.

도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.In the drawings, the sizes of components may be exaggerated or reduced for convenience of explanation. For example, the size and thickness of each component shown in the drawings are shown arbitrarily for convenience of explanation, so the present invention is not necessarily limited to what is shown.

이하의 실시예에서, 영역, 구성 요소, 부, 블록 또는 모듈 등의 부분이 다른 부분 위에 또는 상에 있다고 할 때, 다른 부분의 바로 위에 있는 경우뿐만 아니라, 그 중간에 다른 영역, 구성 요소, 부, 블록 또는 모듈 등이 개재되어 있는 경우도 포함한다. 그리고 영역, 구성 요소, 부, 블록 또는 모듈 등이 연결되었다고 할 때, 영역, 구성 요소, 부, 블록 또는 모듈들이 직접적으로 연결된 경우뿐만 아니라 영역, 구성요소, 부, 블록 또는 모듈들 중간에 다른 영역, 구성 요소, 부, 블록 또는 모듈들이 개재되어 간접적으로 연결된 경우도 포함한다.In the following embodiments, when a part such as a region, component, unit, block, or module is said to be on or on another part, it is not only the case that it is directly on top of the other part, but also the other area, component, or module in between. , also includes cases where blocks or modules are included. And when areas, components, parts, blocks, or modules are connected, not only are the areas, components, parts, blocks, or modules directly connected, but also other areas are in between the areas, components, parts, blocks, or modules. , also includes cases where components, parts, blocks or modules are interposed and indirectly connected.

이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, several embodiments of the present invention will be described in detail with reference to the attached drawings in order to enable those skilled in the art to easily practice the present invention.

도 1은 본 발명의 일 실시예에 따른 능동 주행 보조 장치의 구성 및 동작을 설명하기 위한 도면이고, 도 2는 본 발명의 일 실시예에 따른 능동 주행 보조 장치의 프로세서 구성을 설명하기 위한 도면이다.FIG. 1 is a diagram for explaining the configuration and operation of an active driving assistance device according to an embodiment of the present invention, and FIG. 2 is a diagram for explaining the processor configuration of an active driving assistance device according to an embodiment of the present invention. .

본 발명의 일 실시예에 따른 능동 주행 보조 장치(100)는 차량에 구비될 수 있다. 예를 들어, 능동 주행 보조 장치(100)는 차량 주행 중 주변 장애물 정보를 획득하여 충돌 가능성 및 위험수준을 운전자에게 알릴 수 있다. 또한, 능동 주행 보조 장치(100)는 운전자가 미처 인지하지 못한 장애물에 대한 정보를 운전자에게 제공하여 운전 미숙 혹은 사각지대에서 출현한 장애물에 의한 사고를 예방할 수 있다. 또한, 능동 주행 보조 장치(100)는 수동 혹은 원격으로 차량을 제어하는 상황에서 운전자에게 차량 주변상황에 대한 피드백을 제공하여, 주행 안정성을 향상시킬 수 있다.The active driving assistance device 100 according to an embodiment of the present invention may be installed in a vehicle. For example, the active driving assistance device 100 can acquire information about surrounding obstacles while the vehicle is driving and inform the driver of the possibility of collision and the level of risk. In addition, the active driving assistance device 100 can prevent accidents caused by poor driving or obstacles appearing in blind spots by providing the driver with information about obstacles that the driver is not aware of. In addition, the active driving assistance device 100 can improve driving stability by providing feedback on situations surrounding the vehicle to the driver in situations where the vehicle is controlled manually or remotely.

먼저, 도 1을 참조하면, 본 발명의 일 실시예에 따른 능동 주행 보조 장치(100)는 메모리(110), 프로세서(120), 통신 모듈(130) 및 센서(140)를 포함할 수 있다. 하지만 본 발명은 이에 한정되지 않으며, 능동 주행 보조 장치(100)는 다른 구성요소를 더 포함할 수도 있고 일부 구성요소가 생략될 수도 있다. 능동 주행 보조 장치(100)의 일부 구성요소는 복수의 장치로 분리될 수도 있고, 복수개의 구성요소들이 하나의 장치로 병합될 수도 있다.First, referring to FIG. 1, the active driving assistance device 100 according to an embodiment of the present invention may include a memory 110, a processor 120, a communication module 130, and a sensor 140. However, the present invention is not limited to this, and the active driving assistance device 100 may further include other components or some components may be omitted. Some components of the active driving assistance device 100 may be separated into multiple devices, or multiple components may be merged into one device.

메모리(110)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리(110)에는 능동 주행 보조 장치(100)를 제어하기 위한 프로그램 코드가 일시적 또는 영구적으로 저장될 수 있다.The memory 110 is a computer-readable recording medium and may include a non-permanent mass storage device such as random access memory (RAM), read only memory (ROM), and a disk drive. Additionally, a program code for controlling the active driving assistance device 100 may be temporarily or permanently stored in the memory 110.

프로세서(120)는 차량의 주행 정보 또는 차선 정보를 기초로 주행 영역을 식별할 수 있다. 또한, 프로세서(120)는 주행 정보 및 주행 영역을 기초로 탐지 영역을 단계별로 구분하여 탐지 영역을 가변적으로 생성할 수 있다. 또한, 프로세서(120)는 탐지 영역을 기초로 탐지 영역 상의 장애물을 탐지하고, 차량의 자세 변화 또는 주행 정보를 기초로 탐지 영역을 보정할 수 있다.The processor 120 may identify the driving area based on vehicle driving information or lane information. Additionally, the processor 120 may variably generate a detection area by dividing the detection area into stages based on driving information and driving area. Additionally, the processor 120 may detect obstacles in the detection area based on the detection area and correct the detection area based on a change in the vehicle's posture or driving information.

통신 모듈(130)은 네트워크를 통해 외부 서버와 통신하기 위한 기능을 제공할 수 있다. 일례로, 능동 주행 보조 장치(100)의 프로세서(120)가 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신 모듈(130)의 제어에 따라 네트워크를 통해 외부 서버로 전달될 수 있다. 역으로, 외부 서버의 프로세서의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 네트워크를 거쳐 통신 모듈(130)을 통해 능동 주행 보조 장치(100)로 수신될 수 있다. 예를 들어 통신 모듈(130)을 통해 수신된 외부 서버의 제어 신호나 명령 등은 프로세서(120)나 메모리(110)로 전달될 수 있다.The communication module 130 may provide a function for communicating with an external server through a network. For example, a request generated by the processor 120 of the active driving assistance device 100 according to a program code stored in a recording device such as memory 110 is transmitted to an external server through the network under the control of the communication module 130. It can be. Conversely, control signals, commands, content, files, etc. provided under control of a processor of an external server may be received by the active driving assistance device 100 through the communication module 130 via a network. For example, control signals or commands from an external server received through the communication module 130 may be transmitted to the processor 120 or memory 110.

통신 방식은 제한되지 않으며, 네트워크가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.The communication method is not limited, and may include not only a communication method utilizing a communication network that the network may include (for example, a mobile communication network, wired Internet, wireless Internet, and a broadcasting network), but also short-range wireless communication between devices. For example, networks include personal area network (PAN), local area network (LAN), campus area network (CAN), metropolitan area network (MAN), wide area network (WAN), broadband network (BBN), Internet, etc. It may include one or more arbitrary networks among the networks. Additionally, the network may include, but is not limited to, any one or more of network topologies including a bus network, star network, ring network, mesh network, star-bus network, tree or hierarchical network, etc. .

또한, 통신 모듈(130)은 외부 서버와 네트워크를 통해 통신할 수 있다. 통신 방식은 제한되지 않지만, 네트워크는 근거리 무선통신망일 수 있다. 예를 들어, 네트워크는 블루투스(Bluetooth), BLE(Bluetooth Low Energy), Wifi 통신망일 수 있다. Additionally, the communication module 130 can communicate with an external server through a network. The communication method is not limited, but the network may be a short-range wireless communication network. For example, the network may be a Bluetooth, Bluetooth Low Energy (BLE), or Wifi communication network.

또한, 본 발명에 따른 능동 주행 보조 장치(100)는 입출력 인터페이스를 포함할 수 있다. 입출력 인터페이스는 입출력 장치와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 어플리케이션의 통신 세션을 표시하기 위한 디스플레이와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 보다 구체적인 예로, 능동 주행 보조 장치(100)의 프로세서(120)는 메모리(110)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 외부 서버가 제공하는 데이터를 이용하여 구성되는 서비스 화면이나 컨텐츠가 입출력 인터페이스를 통해 디스플레이에 표시될 수 있다.Additionally, the active driving assistance device 100 according to the present invention may include an input/output interface. The input/output interface may be a means for interfacing with an input/output device. For example, an input device may include a device such as a keyboard or mouse, and an output device may include a device such as a display for displaying a communication session of an application. As another example, an input/output interface may be a means of interfacing with a device that integrates input and output functions into one, such as a touch screen. As a more specific example, the processor 120 of the active driving assistance device 100 processes commands of a computer program loaded in the memory 110, and provides a service screen or content configured using data provided by an external server through an input/output interface. It can be displayed on the display through .

센서(140)는 차량의 주행 정보 또는 차선 정보를 획득하는 센서일 수 있다. 예를 들어, 센서(140)는 레이더, 라이다 또는 초음파 센서일 수 있다.The sensor 140 may be a sensor that obtains driving information or lane information of the vehicle. For example, sensor 140 may be a radar, lidar, or ultrasonic sensor.

또한, 다른 실시예들에서 능동 주행 보조 장치(100)는 도 1의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 예를 들어, 상술한 입출력 장치 중 적어도 일부를 포함하도록 구현되거나 또는 내부 구성요소들에 전력을 공급하는 배터리 및 충전 장치, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.Additionally, in other embodiments, the active driving assistance device 100 may include more components than those shown in FIG. 1 . For example, it may be implemented to include at least some of the above-described input/output devices, or may further include other components such as a battery and charging device that supplies power to internal components, various sensors, and a database.

이하 도 2를 참조하여 본 발명의 일 실시예에 따른 능동 주행 보조 장치(100)의 프로세서(120)의 내부 구성에 대하여 상세히 검토한다. 후술되는 프로세서(120)는 이해의 용이를 위하여 도 1에 도시된 능동 주행 보조 장치(100)의 프로세서(120)임을 가정하고 설명한다.Hereinafter, the internal configuration of the processor 120 of the active driving assistance device 100 according to an embodiment of the present invention will be reviewed in detail with reference to FIG. 2. For ease of understanding, the processor 120 described later will be described assuming that it is the processor 120 of the active driving assistance device 100 shown in FIG. 1 .

본 발명의 일 실시예에 따른 능동 주행 보조 장치(100)의 프로세서(120)는 주행 영역 식별 모듈(121), 탐지 영역 생성 모듈(122), 장애물 탐지 모듈(123), 및 탐지 영역 보정 모듈(124)을 포함한다. 몇몇 실시예에 따라 프로세서(120)의 구성요소들은 선택적으로 프로세서(120)에 포함되거나 제외될 수도 있다. 또한, 몇몇 실시예에 따라 프로세서(120)의 구성요소들은 프로세서(120)의 기능의 표현을 위해 분리 또는 병합될 수도 있다.The processor 120 of the active driving assistance device 100 according to an embodiment of the present invention includes a driving area identification module 121, a detection area creation module 122, an obstacle detection module 123, and a detection area correction module ( 124). According to some embodiments, components of the processor 120 may be selectively included in or excluded from the processor 120. Additionally, according to some embodiments, components of the processor 120 may be separated or merged to express the functions of the processor 120.

이러한 프로세서(120) 및 프로세서(120)의 구성요소들은 도 3의 능동 주행 보조 방법이 포함하는 단계들(S110 내지 S140)을 수행하도록 능동 주행 보조 장치(100)를 제어할 수 있다. 예를 들어, 프로세서(120) 및 프로세서(120)의 구성요소들은 메모리(110)가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 프로세서(120)의 구성요소들은 능동 주행 보조 장치(100)에 저장된 프로그램 코드가 제공하는 명령에 따라 프로세서(120)에 의해 수행되는 프로세서(120)의 서로 다른 기능들(different functions)의 표현들일 수 있다. 프로세서(120)의 내부 구성 및 구체적인 동작에 대해서는 도 3의 능동 주행 보조 방법의 순서도를 참조하여 설명하기로 한다.The processor 120 and the components of the processor 120 may control the active driving assistance device 100 to perform steps S110 to S140 included in the active driving assistance method of FIG. 3 . For example, the processor 120 and its components may be implemented to execute instructions according to the code of an operating system included in the memory 110 and the code of at least one program. Here, the components of the processor 120 represent different functions of the processor 120 that are performed by the processor 120 according to instructions provided by the program code stored in the active driving assistance device 100. You can take it in. The internal configuration and specific operation of the processor 120 will be described with reference to the flowchart of the active driving assistance method in FIG. 3.

도 3은 본 발명의 일 실시예에 따른 능동 주행 보조 방법을 보여주는 순서도이다.Figure 3 is a flowchart showing an active driving assistance method according to an embodiment of the present invention.

도 3을 참조하면, 단계 S110에서, 프로세서(120)는 차량의 주행 정보 또는 차선 정보를 기초로 주행 영역을 식별할 수 있다.Referring to FIG. 3, in step S110, the processor 120 may identify a driving area based on vehicle driving information or lane information.

단계 S120에서, 프로세서(120)는 주행 정보 및 주행 영역을 기초로 탐지 영역을 단계별로 구분하여 탐지 영역을 가변적으로 생성할 수 있다.In step S120, the processor 120 may variably generate a detection area by dividing the detection area into stages based on the driving information and the driving area.

단계 S130에서, 프로세서(120)는 탐지 영역을 기초로 탐지 영역 상의 장애물을 탐지할 수 있다.In step S130, the processor 120 may detect an obstacle on the detection area based on the detection area.

본 발명의 일 실시예에 따른 프로세서(120)는 주행 영역 및 탐지 영역을 기초로 장애물을 탐지하여 차량과 장애물의 충돌 위험 수준을 판단할 수 있다.The processor 120 according to an embodiment of the present invention may detect obstacles based on the driving area and detection area and determine the level of risk of collision between the vehicle and the obstacle.

또한, 프로세서(120)는 충돌 위험 수준 및 주행 정보를 기초로 차량의 가감속과 조향 제어 보조를 수행할 수 있다.Additionally, the processor 120 may perform acceleration/deceleration and steering control assistance of the vehicle based on the collision risk level and driving information.

단계 S140에서, 프로세서(120)는 차량의 자세 변화 또는 주행 정보를 기초로 탐지 영역을 보정할 수 있다.In step S140, the processor 120 may correct the detection area based on a change in posture or driving information of the vehicle.

본 발명의 일 실시예에 따른 프로세서(120)는 차량이 주행하는 차선의 폭을 기초로 탐지 영역을 보정할 수 있다.The processor 120 according to an embodiment of the present invention may correct the detection area based on the width of the lane in which the vehicle is traveling.

또한, 프로세서(120)는 차량이 주행하는 차선의 인접 차선의 폭을 기초로 탐지 영역을 보정할 수 있다.Additionally, the processor 120 may correct the detection area based on the width of a lane adjacent to the lane in which the vehicle is traveling.

또한, 프로세서(120)는 차량의 주행 속도 및 진행 방향을 기초로 탐지 영역에 충돌경고 영역을 추가하여 탐지 영역을 보정할 수 있다.Additionally, the processor 120 may correct the detection area by adding a collision warning area to the detection area based on the vehicle's driving speed and direction of travel.

도 4 내지 도 6은 본 발명의 일 실시예에 따른 능동 주행 보조 방법을 설명하기 위한 도면이다.4 to 6 are diagrams for explaining an active driving assistance method according to an embodiment of the present invention.

먼저, 도 4를 참조하면, 본 발명의 일 실시예에 따른 능동 주행 보조 방법을 보여주는 순서도가 도시되어 있다.First, referring to FIG. 4, a flow chart showing an active driving assistance method according to an embodiment of the present invention is shown.

단계 S210에서, 프로세서(120)는 차량의 주행 정보를 판단할 수 있다. 예를 들어, 프로세서(120)는 주행정보 판단을 통해 주행영역 식별과 탐지영역 구분을 통하여 차량주변에 장애물이 있는지 판단하기 위한 기준 정보를 수립할 수 있다. 주행영역의 식별과 탐지영역 구분 단계의 세부 내용은 도 5 및 도 6의 순서도에 도시되어 있다.In step S210, the processor 120 may determine driving information of the vehicle. For example, the processor 120 may establish reference information for determining whether there are obstacles around the vehicle by identifying the driving area and distinguishing the detection area through determining the driving information. Details of the driving area identification and detection area classification steps are shown in the flowcharts of FIGS. 5 and 6.

도 5를 참조하면, 단계 S310 내지 S340에서, 본 발명의 일 실시예에 따른 프로세서(120)는 주행영역을 식별할 수 있다. 예를 들어, 프로세서(120)는 차량의 현재 주행구간에 차선정보 존재유무를 식별하고, 차선 정보가 불명확하거나 존재하지 않다면 현재 차량의 주행조작 정보(주행상황)를 근거로 차량의 주행영역을 예측할 수 있다. 또한, 프로세서(120)는 주행구간에서 차선정보가 식별된다면, 차선의 궤적과 양 차선의 폭을 근거로 주행영역을 예측할 수 있다.Referring to FIG. 5, in steps S310 to S340, the processor 120 according to an embodiment of the present invention may identify the driving area. For example, the processor 120 identifies the presence or absence of lane information in the current driving section of the vehicle, and if lane information is unclear or does not exist, it can predict the driving area of the vehicle based on the current driving operation information (driving situation) of the vehicle. You can. Additionally, if lane information is identified in the driving section, the processor 120 can predict the driving area based on the trajectory of the lane and the width of both lanes.

도 6을 참조하면, 단계 S410 내지 S420에서, 본 발명의 일 실시예에 따른 프로세서(120)는 탐지영역을 구분할 수 있다. 예를 들어, 프로세서(120)는 현재 주행정보인 차량의 조향, 주행속도, 진행방향을 기초정보를 기반으로 탐지영역을 가변으로 생성할 수 있다. 탐지영역은 센서의 최대 인식 범위를 초과하지 않으며, 차량 제원의 20%이상이 최소 인식범위로 지정될 수 있다. 또한, 탐지영역은 장애물의 출연 시 추정 위치정보를 기반으로 위험수준을 판단하기 위하여 3단계로 구분되며, 위험수준은 출현/경고/위험으로 위험수준이 구분될 수 있다.Referring to FIG. 6, in steps S410 to S420, the processor 120 according to an embodiment of the present invention may distinguish a detection area. For example, the processor 120 may variably generate a detection area based on basic information such as the vehicle's steering, driving speed, and direction of travel, which are current driving information. The detection area does not exceed the maximum recognition range of the sensor, and more than 20% of the vehicle specifications can be designated as the minimum recognition range. In addition, the detection area is divided into three levels to determine the risk level based on the estimated location information when an obstacle appears, and the risk level can be divided into appearance/warning/danger.

단계 S240 내지 S270에서, 프로세서(120)는 차량의 주행영역과 3단계로 구분된 탐지영역을 기준으로 현 주행시점에서 장애물의 출현여부와 고정/이동 장애물의 구분, 현재 진행방향의 차량과의 충돌위험 수준을 판단할 수 있다.In steps S240 to S270, the processor 120 determines whether an obstacle appears at the current driving point, distinguishes between a fixed/moving obstacle, and collides with a vehicle in the current direction based on the vehicle's driving area and a detection area divided into three stages. The risk level can be determined.

또한, 단계 S280 내지 S290에서, 프로세서(120)는 장애물 출현 시 위험수준을 판단하여 운영자에게 주변 환경정보를 제공하고, 식별된 장애물이 주행영역으로 접근할 탐지시점의 주행영역 정보를 기준으로 차량의 가감속과 조향 제어보조를 수행할 수 있다.In addition, in steps S280 to S290, the processor 120 determines the risk level when an obstacle appears, provides surrounding environment information to the operator, and determines the level of risk of the vehicle based on the driving area information at the time of detection when the identified obstacle approaches the driving area. Acceleration/deceleration and steering control assistance can be performed.

도 7을 참조하면, 본 발명의 일 실시예에 따른 탐지영역생성과 주행영역 식별의 예가 도시되어 있다.Referring to FIG. 7, an example of detection area creation and driving area identification according to an embodiment of the present invention is shown.

예를 들어, 도 7에 도시된 바와 같이, 프로세서(120)는 차량의 주행 영역(77)을 식별할 수 있다. 예컨대, 차량은 주행 궤적(76)을 따라 주행할 수 있다.For example, as shown in FIG. 7 , the processor 120 may identify the driving area 77 of the vehicle. For example, the vehicle may travel along the travel trajectory 76 .

프로세서(120)는 차량 주변의 장애물(74, 75)을 탐지할 수 있다. 예를 들어, 프로세서(120)는 장애물 출현(71), 충돌 경고(72), 및 충돌 위험(73)의 단계별로 탐지 영역을 생성할 수 있다. 또한, 프로세서(120)는 장애물 출현(71), 충돌 경고(72), 및 충돌 위험(73)의 탐지 영역을 기초로 장애물(74, 75)을 탐지할 수 있다.The processor 120 can detect obstacles 74 and 75 around the vehicle. For example, the processor 120 may generate detection areas in stages of obstacle appearance 71, collision warning 72, and collision risk 73. Additionally, the processor 120 may detect obstacles 74 and 75 based on detection areas of obstacle appearance 71, collision warning 72, and collision risk 73.

도 8을 참조하면, 본 발명의 일 실시예에 따른 주행상황 중 탐지영역 가변 보정 예(우회전 가속 상황(도 8a) 및 좌회전 감속 상황(도 8b))가 도시되어 있다.Referring to FIG. 8, an example of detection area variable correction (right turn acceleration situation (FIG. 8A) and left turn deceleration situation (FIG. 8B)) among driving situations according to an embodiment of the present invention is shown.

예를 들어, 도 8에 도시된 바와 같이, 탐지영역의 구분과 생성은 차선인식 유무에 따라 보정될 수 있으며, 차선정보가 식별될 경우 현재 주행차선의 폭을 근거로 보정된 탐지영역이 적용될 수 있다. 예컨대, 도로주행 상황 중에는 현재 주행중인 차선 영역뿐만 아니라 주변 차선영역이 탐지영역에 포함될 수 있다. For example, as shown in Figure 8, the classification and creation of the detection area can be corrected according to the presence or absence of lane recognition, and if lane information is identified, the detection area corrected based on the width of the current driving lane can be applied. there is. For example, during a road driving situation, not only the currently driving lane area but also surrounding lane areas may be included in the detection area.

예를 들어, 프로세서(120)는 주행속도 및 진행방향(전방 주행 중 감속하는 상황)에 따라 충돌경고 영역을 추가로 보정할 수 있다. 또한, 프로세서(120)는 충돌경고 영역의 후방을 확대하여 후방충돌에 대한 대비를 수행할 수 있다.For example, the processor 120 may additionally correct the collision warning area according to the driving speed and direction of travel (situation of deceleration during forward driving). Additionally, the processor 120 can prepare for a rear collision by enlarging the rear of the collision warning area.

예를 들어, 도 8a에 도시된 바와 같이, 프로세서(120)는 우회전 가속 상황에서 차량의 주행 영역(87)을 식별할 수 있다. 예컨대, 차량은 주행 궤적(86)을 따라 주행할 수 있다.For example, as shown in FIG. 8A, the processor 120 may identify the driving area 87 of the vehicle in a right-turn acceleration situation. For example, the vehicle may travel along the travel trajectory 86.

프로세서(120)는 장애물 출현(81), 충돌 경고(82), 및 충돌 위험(83)으로 탐지 영역을 구분하여 생성할 수 있다. 예를 들어, 도 8a에 도시된 바와 같이, 프로세서(120)는 현재 주행차선 및 주변 차선영역을 기초로 탐지 영역을 구분하여 생성할 수 있다. 또한, 프로세서(120)는 우회전 가속 상황에서 차량의 주행 방향의 우측과 전방의 탐지 영역을 확대하여 탐지 영역을 보정할 수 있다.The processor 120 may generate detection areas by dividing them into obstacle appearance (81), collision warning (82), and collision risk (83). For example, as shown in FIG. 8A, the processor 120 may divide and create detection areas based on the current driving lane and surrounding lane areas. Additionally, the processor 120 may correct the detection area by expanding the detection area to the right and in front of the vehicle's driving direction in a right-turn acceleration situation.

예를 들어, 도 8b에 도시된 바와 같이, 프로세서(120)는 좌회전 감속 상황에서 차량의 주행 영역(87)을 식별할 수 있다. 예컨대, 차량은 주행 궤적(86)을 따라 주행할 수 있다.For example, as shown in FIG. 8B, the processor 120 may identify the driving area 87 of the vehicle in a left turn deceleration situation. For example, the vehicle may travel along the travel trajectory 86.

프로세서(120)는 장애물 출현(81), 충돌 경고(82), 및 충돌 위험(83)으로 탐지 영역을 구분하여 생성할 수 있다. 예를 들어, 도 8b에 도시된 바와 같이, 프로세서(120)는 현재 주행차선 및 주변 차선영역을 기초로 탐지 영역을 구분하여 생성할 수 있다. 또한, 프로세서(120)는 좌회전 감속 상황에서 차량의 주행 방향의 좌측과 후방의 탐지 영역을 확대하여 탐지 영역을 보정할 수 있다.The processor 120 may generate detection areas by dividing them into obstacle appearance (81), collision warning (82), and collision risk (83). For example, as shown in FIG. 8B, the processor 120 may create a detection area by dividing it based on the current driving lane and the surrounding lane area. Additionally, the processor 120 may correct the detection area by expanding the detection area to the left and rear of the vehicle's driving direction in a left turn deceleration situation.

본 발명에 따르면, 차량 주행 중 주변 장애물 정보를 획득하여 충돌 가능성 및 위험수준을 알려줌으로써 운전자가 미처 인지하지 못한 장애물에 대한 정보를 제공하여 운전 미숙 혹은 사각지대에서 출현한 장애물에 의한 사고를 예방할 수 있다. 또한, 본 발명에 따르면, 수동 혹은 원격으로 차량을 제어하는 상황에서 운전자에게 차량 주변상황에 대한 피드백을 제공하여, 주행 안정성을 향상시킬 수 있다. According to the present invention, by obtaining information on surrounding obstacles while driving the vehicle and notifying the possibility of collision and the level of risk, it is possible to prevent accidents caused by poor driving or obstacles appearing in blind spots by providing information about obstacles that the driver is not aware of. there is. Additionally, according to the present invention, driving stability can be improved by providing feedback on the vehicle's surroundings to the driver in situations where the vehicle is controlled manually or remotely.

또한, 본 발명에 따르면, 차량의 주행정보를 기반으로 차량의 주변주행 환경정보와 객체 검출결과를 제공할 수 있다. 또한, 주행경로에 발생한 장애물 출현 상황에 능동적 대응이 가능하도록 운전자에게 주행환경 정보를 제공하고 차량제어를 보조할 수 있다.Additionally, according to the present invention, information on the vehicle's surrounding driving environment and object detection results can be provided based on the vehicle's driving information. In addition, it can provide driving environment information to the driver and assist vehicle control to enable active response to obstacles appearing in the driving path.

이상에서 설명된 장치 및/또는 시스템은, 하드웨어 구성요소, 소프트웨어 구성요소 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device and/or system described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. Devices and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), and a programmable logic unit (PLU). It may be implemented using one or more general-purpose or special-purpose computers, such as a logic unit, microprocessor, or any other device capable of executing and responding to instructions. A processing device may execute an operating system (OS) and one or more software applications that run on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction) 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, and may configure a processing unit to operate as desired, or may operate independently or collectively on a processing unit. You can command. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. Computer-readable media may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

100: 능동 주행 보조 장치
110: 메모리
120: 프로세서
130: 통신 모듈
140: 센서
100: Active driving assistance device
110: memory
120: processor
130: Communication module
140: sensor

Claims (6)

차량의 주행 정보 또는 차선 정보를 기초로 주행 영역을 식별하는 단계;
상기 주행 정보 및 상기 주행 영역을 기초로 탐지 영역을 단계별로 구분하여 상기 탐지 영역을 가변적으로 생성하는 단계;
상기 탐지 영역을 기초로 상기 탐지 영역 상의 장애물을 탐지하는 단계; 및
차량의 자세 변화 또는 상기 주행 정보를 기초로 상기 탐지 영역을 보정하는 단계를 포함하는, 능동 주행 보조 방법.
Identifying a driving area based on vehicle driving information or lane information;
variably generating the detection area by dividing the detection area into stages based on the driving information and the driving area;
Detecting an obstacle on the detection area based on the detection area; and
An active driving assistance method comprising correcting the detection area based on a change in vehicle posture or the driving information.
제1 항에 있어서,
상기 탐지 영역을 보정하는 단계는,
차량이 주행하는 차선의 폭을 기초로 상기 탐지 영역을 보정하는 단계;
차량이 주행하는 차선의 인접 차선의 폭을 기초로 상기 탐지 영역을 보정하는 단계; 및
차량의 주행 속도 및 진행 방향을 기초로 상기 탐지 영역에 충돌경고 영역을 추가하여 상기 탐지 영역을 보정하는 단계를 포함하는, 능동 주행 보조 방법.
According to claim 1,
The step of correcting the detection area is,
correcting the detection area based on the width of the lane in which the vehicle travels;
correcting the detection area based on the width of a lane adjacent to the lane in which the vehicle is traveling; and
An active driving assistance method comprising correcting the detection area by adding a collision warning area to the detection area based on the driving speed and direction of travel of the vehicle.
제2 항에 있어서,
상기 장애물을 탐지하는 단계는,
상기 주행 영역 및 상기 탐지 영역을 기초로 장애물을 탐지하여 차량과 장애물의 충돌 위험 수준을 판단하는 단계; 및
상기 충돌 위험 수준 및 상기 주행 정보를 기초로 차량의 가감속과 조향 제어 보조를 수행하는 단계를 포함하는, 능동 주행 보조 방법.
According to clause 2,
The step of detecting the obstacle is,
Detecting an obstacle based on the driving area and the detection area to determine a collision risk level between the vehicle and the obstacle; and
An active driving assistance method comprising performing acceleration/deceleration and steering control assistance of a vehicle based on the collision risk level and the driving information.
프로세서;를 포함하고,
상기 프로세서는, 차량의 주행 정보 또는 차선 정보를 기초로 주행 영역을 식별하고, 상기 주행 정보 및 상기 주행 영역을 기초로 탐지 영역을 단계별로 구분하여 상기 탐지 영역을 가변적으로 생성하고, 상기 탐지 영역을 기초로 상기 탐지 영역 상의 장애물을 탐지하고, 차량의 자세 변화 또는 상기 주행 정보를 기초로 상기 탐지 영역을 보정하는, 능동 주행 보조 장치.
Including a processor;
The processor identifies a driving area based on vehicle driving information or lane information, divides detection areas into stages based on the driving information and the driving area, variably generates the detection area, and creates the detection area. An active driving assistance device that detects obstacles in the detection area based on a change in vehicle posture or the driving information and corrects the detection area.
제4 항에 있어서,
상기 프로세서는, 차량이 주행하는 차선의 폭을 기초로 상기 탐지 영역을 보정하고, 차량이 주행하는 차선의 인접 차선의 폭을 기초로 상기 탐지 영역을 보정하고, 차량의 주행 속도 및 진행 방향을 기초로 상기 탐지 영역에 충돌경고 영역을 추가하여 상기 탐지 영역을 보정하는, 능동 주행 보조 장치.
According to clause 4,
The processor corrects the detection area based on the width of the lane in which the vehicle is traveling, corrects the detection area based on the width of the adjacent lane of the lane in which the vehicle is traveling, and based on the traveling speed and direction of travel of the vehicle. An active driving assistance device that corrects the detection area by adding a collision warning area to the detection area.
제5 항에 있어서,
상기 프로세서는, 상기 주행 영역 및 상기 탐지 영역을 기초로 장애물을 탐지하여 차량과 장애물의 충돌 위험 수준을 판단하고, 상기 충돌 위험 수준 및 상기 주행 정보를 기초로 차량의 가감속과 조향 제어 보조를 수행하는, 능동 주행 보조 장치.
According to clause 5,
The processor detects obstacles based on the driving area and the detection area, determines the collision risk level between the vehicle and the obstacle, and performs acceleration/deceleration and steering control assistance of the vehicle based on the collision risk level and the driving information. active driving assistance device.
KR1020220115666A 2022-09-14 2022-09-14 Method and apparatus for active driving assistance based on driving information judgment KR20240036967A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220115666A KR20240036967A (en) 2022-09-14 2022-09-14 Method and apparatus for active driving assistance based on driving information judgment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220115666A KR20240036967A (en) 2022-09-14 2022-09-14 Method and apparatus for active driving assistance based on driving information judgment

Publications (1)

Publication Number Publication Date
KR20240036967A true KR20240036967A (en) 2024-03-21

Family

ID=90472492

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220115666A KR20240036967A (en) 2022-09-14 2022-09-14 Method and apparatus for active driving assistance based on driving information judgment

Country Status (1)

Country Link
KR (1) KR20240036967A (en)

Similar Documents

Publication Publication Date Title
US11001196B1 (en) Systems and methods for communicating a machine intent
EP3342666B1 (en) Method and system for operating autonomous driving vehicles using graph-based lane change guide
CN108089571B (en) Method and system for predicting vehicle traffic behavior of unmanned vehicles to make driving decisions
US10678248B2 (en) Fast trajectory planning via maneuver pattern selection
US10824153B2 (en) Cost design for path selection in autonomous driving technology
US9796378B2 (en) Vehicle travel path generating apparatus
US20190071091A1 (en) Driver intention-based lane assistant system for autonomous driving vehicles
JP2018152056A (en) Risk-based driver assistance for approaching intersections with limited visibility
CN106004876A (en) Gap-based speed control for automated driving system
US20150057835A1 (en) Driver assistance system, motor vehicle having a driver assistance system, and a method for operating a driver assistance system
JPWO2019058720A1 (en) Information processing equipment, autonomous mobile devices, and methods, and programs
CN110621541A (en) Map-free and location-free lane-following driving method for the automatic driving of an autonomous vehicle on a highway
US10909377B2 (en) Tracking objects with multiple cues
KR20200037119A (en) Tunnel-based planning system used in autonomous vehicles
US11753012B2 (en) Systems and methods for controlling the operation of an autonomous vehicle using multiple traffic light detectors
JP2016007954A (en) Lane merging assist system
JP7167977B2 (en) Vehicle driving support method and vehicle driving support device
JPWO2018066133A1 (en) Vehicle determination method, travel route correction method, vehicle determination device, and travel route correction device
JP2019144691A (en) Vehicle control device
JP2021047644A (en) Electronic control device
JP2020163975A (en) Vehicle drive assisting system
KR102179835B1 (en) Method and system for path prediction considering vehicle travel intention and object selection algorithm based on vehicle sensor including wireless communication
JP2020129331A (en) Reverse run determination system, reverse run determination method, and reverse run determination program
WO2023076343A1 (en) Autonomous vehicle trajectory determination based on state transition model
JP2020163967A (en) Vehicle drive assisting system