KR20230106768A - Advanced Driver Assistance System, and Vehicle having the same - Google Patents

Advanced Driver Assistance System, and Vehicle having the same Download PDF

Info

Publication number
KR20230106768A
KR20230106768A KR1020220001989A KR20220001989A KR20230106768A KR 20230106768 A KR20230106768 A KR 20230106768A KR 1020220001989 A KR1020220001989 A KR 1020220001989A KR 20220001989 A KR20220001989 A KR 20220001989A KR 20230106768 A KR20230106768 A KR 20230106768A
Authority
KR
South Korea
Prior art keywords
information
vehicle
target vehicle
processor
obstacle
Prior art date
Application number
KR1020220001989A
Other languages
Korean (ko)
Inventor
강보련
Original Assignee
주식회사 에이치엘클레무브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이치엘클레무브 filed Critical 주식회사 에이치엘클레무브
Priority to KR1020220001989A priority Critical patent/KR20230106768A/en
Publication of KR20230106768A publication Critical patent/KR20230106768A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • B60W30/143Speed control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • B60W10/06Conjoint control of vehicle sub-units of different type or different function including control of propulsion units including control of combustion engines
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4023Type large-size vehicles, e.g. trucks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4026Cycles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4043Lateral speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/803Relative lateral speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/81Braking systems

Abstract

본 발명은, 운전자 보조 시스템 및 그를 가지는 차량에 관한 것이다.
본 발명의 운전자 보조 시스템은, 영상 획득부; 및 영상 획득부에서 획득된 영상 정보에 기초하여 자 차로 오브젝트, 차선 오브젝트와 장애물 오브젝트를 인식하고, 인식한 장애물 오브젝트의 깊이 정보에 기초하여 3차원 차량 검출 영상 정보를 획득하고 변환하고 변환한 3차원 차량 검출 영상 정보에 기초하여 타깃 차량에 대한 타깃 차량 오브젝트를 인식하고, 인식한 타깃 차량 오브젝트의 위치 정보와 차선 오브젝트의 위치 정보에 기초하여 타깃 차량 오브젝트의 일부가 차선 오브젝트에 오버랩되는지를 판단하고, 타깃 차량 오브젝트의 일부가 차선 오브젝트에 오버랩된다고 판단되면 타깃 차량 오브젝트의 영역들 중 자 차로 오브젝트 상에 위치하는 영역의 면적 정보에 기초하여 타깃 차량의 컷 아웃 여부를 판단하고 타깃 차량의 컷 아웃 여부에 기초하여 감속 신호 또는 가속 신호를 생성하는 프로세서를 포함한다.
The present invention relates to a driver assistance system and a vehicle having the same.
A driver assistance system of the present invention includes an image acquisition unit; and recognizing the own lane object, lane object, and obstacle object based on the image information acquired by the image acquisition unit, and acquiring, converting, and converting 3D vehicle detection image information based on the depth information of the recognized obstacle object. Recognizing a target vehicle object for the target vehicle based on the vehicle detection image information, determining whether a part of the target vehicle object overlaps the lane object based on the recognized location information of the target vehicle object and the location information of the lane object; If it is determined that a part of the target vehicle object overlaps with the lane object, it is determined whether the target vehicle is cut out or not based on the area information of the region located on the object of the vehicle among the regions of the target vehicle object, and determines whether the target vehicle is cut out or not. and a processor for generating a deceleration signal or an acceleration signal based on the

Description

운전자 보조 시스템 및 그를 가지는 차량 {Advanced Driver Assistance System, and Vehicle having the same} Driver assistance system and vehicle having the same {Advanced Driver Assistance System, and Vehicle having the same}

본 발명은 주행 중 장애물과의 충돌을 방지하기 위한 운전자 보조 시스템 및 그를 가지는 차량에 관한 것이다.The present invention relates to a driver assistance system for preventing collision with an obstacle while driving and a vehicle having the same.

최근 운전자 부주의로 발생하는 사고를 방지하기 위하여 운전자에게 차량의 주행 정보를 전달해주고 또한 운전자의 편의를 위한 자율 주행을 위해 다양한 운전자 보조 시스템(ADAS: Advanced Driver Assistance Systems)이 개발되고 있다. Recently, various advanced driver assistance systems (ADAS) are being developed to deliver driving information of a vehicle to a driver in order to prevent an accident caused by a driver's negligence, and also to enable autonomous driving for the driver's convenience.

일 예로, 차량에 거리감지센서를 장착하여 차량 주변의 장애물을 검출하고, 이를 운전자에게 경보하는 기술이 있다. As an example, there is a technology in which a distance sensor is mounted on a vehicle to detect an obstacle around the vehicle and alerts the driver.

다른 예로, 주행 속도를 일정하게 조절하며 주행하도록 하는 크루즈 컨트롤 기술이 있다. 최근에는 기술이 발전함에 따라 자동으로 주행 속도를 제어하는 것뿐만 아니라 타 차량과의 거리, 정지 서행 등을 제어하는 크루즈 컨트롤 기술이 개발되고 있다.As another example, there is a cruise control technology for driving while constantly adjusting the driving speed. Recently, with the development of technology, a cruise control technology is being developed that not only automatically controls driving speed, but also controls a distance from another vehicle, stopping and slowing.

또 다른 예로, 도로 정보 및 현재 위치 정보에 기초하여 목적지까지 자율적으로 주행하되 장애물을 검출하고 검출된 장애물을 회피하면서 목적지까지 자율적으로 주행하는 자율 주행 기술이 있다.As another example, there is an autonomous driving technology that autonomously travels to a destination based on road information and current location information, detects an obstacle, and autonomously travels to the destination while avoiding the detected obstacle.

이러한 크루즈 컨트롤 기술 및 자율 주행 기술은 장애물 센서 등을 사용하여 차량의 전방 상황을 인식하고, 인식된 전방 상황에 따라 엔진 혹은 브레이크를 조작하여 운전자의 개입 없이 주행 속도 및 차간 거리를 조정한다.These cruise control technologies and autonomous driving technologies use obstacle sensors to recognize the situation ahead of the vehicle, and operate the engine or brakes according to the recognized situation ahead to adjust the driving speed and distance between vehicles without driver intervention.

즉 기존의 크루즈 컨트롤 기술 및 자율 주행 기술은, 주행 상황을 예측할 때, 장애물 센서를 통해 차량의 앞에서 주행하는 타깃 차량을 인식한 후 타깃 차량을 추종하며 차간 거리 및 주행 속도를 조정한다. That is, when predicting a driving situation, conventional cruise control technology and autonomous driving technology recognize a target vehicle driving in front of the vehicle through an obstacle sensor, and then follow the target vehicle and adjust the distance between vehicles and driving speed.

이러한, 크루즈 컨트롤 기술 및 자율 주행 기술은, 타깃 차량의 급작스러운 주행 경로 이탈(Cut-out)에 대응하여 가속을 제어하였고 이로 인해 타깃 차량의 앞에서 주행하는 다른 타깃 차량과 충돌하는 문제가 있었다.Such cruise control technology and autonomous driving technology control acceleration in response to a sudden cut-out of the target vehicle, and as a result, there is a problem of colliding with another target vehicle traveling in front of the target vehicle.

일 측면은 영상 정보에 기초하여 주변의 타깃 차량의 컷 아웃 상태를 판단하고 주변의 타깃 차량의 컷 아웃 상태에 대응하여 주행 속도를 조절하는 운전자 보조 시스템, 그를 가지는 차량을 제공한다. One aspect provides a driver assistance system for determining a cut-out state of a surrounding target vehicle based on image information and adjusting a driving speed in response to the cut-out state of a surrounding target vehicle, and a vehicle having the same.

일 측면에 따른 운전자 보조 시스템은, 영상 획득부; 및 영상 획득부에서 획득된 영상 정보에 기초하여 자 차로 오브젝트, 차선 오브젝트와 장애물 오브젝트를 인식하고, 인식한 장애물 오브젝트의 깊이 정보에 기초하여 3차원 차량 검출 영상 정보를 획득하고 변환하고 변환한 3차원 차량 검출 영상 정보에 기초하여 타깃 차량에 대한 타깃 차량 오브젝트를 인식하고, 인식한 타깃 차량 오브젝트의 위치 정보와 차선 오브젝트의 위치 정보에 기초하여 타깃 차량 오브젝트의 일부가 차선 오브젝트에 오버랩되는지를 판단하고, 타깃 차량 오브젝트의 일부가 차선 오브젝트에 오버랩된다고 판단되면 타깃 차량 오브젝트의 영역들 중 자 차로 오브젝트 상에 위치하는 영역의 면적 정보에 기초하여 타깃 차량의 컷 아웃 여부를 판단하고 타깃 차량의 컷 아웃 여부에 기초하여 감속 신호 또는 가속 신호를 생성하는 프로세서를 포함한다.A driver assistance system according to one aspect includes an image acquisition unit; and recognizing the own lane object, lane object, and obstacle object based on the image information acquired by the image acquisition unit, and acquiring, converting, and converting 3D vehicle detection image information based on the depth information of the recognized obstacle object. Recognizing a target vehicle object for the target vehicle based on the vehicle detection image information, determining whether a part of the target vehicle object overlaps the lane object based on the recognized location information of the target vehicle object and the location information of the lane object; If it is determined that a part of the target vehicle object overlaps with the lane object, it is determined whether the target vehicle is cut out or not based on the area information of the region located on the object of the vehicle among the regions of the target vehicle object, and determines whether the target vehicle is cut out or not. and a processor for generating a deceleration signal or an acceleration signal based on the

일 측면에 따른 운전자 보조 시스템의 프로세서는, 3차원 차량 검출 영상에 기초하여 타깃 차량의 리어 패널 오브젝트를 인식하고, 3차원 차량 검출 영상에 기초하여 타깃 차량의 횡방향 위치 정보와 종방향 위치 정보를 획득하고, 획득한 타깃 차량의 횡방향 위치 정보와 종방향 위치 정보에 기초하여 차선 오브젝트와 타깃 차량의 리어 패널 오브젝트 사이의 거리 정보를 획득하고, 거리 정보에 기초하여 타깃 차량의 컷 아웃 여부를 판단한다.The processor of the driver assistance system according to one aspect recognizes a rear panel object of the target vehicle based on the 3D vehicle detection image, and lateral location information and longitudinal location information of the target vehicle based on the 3D vehicle detection image. Obtain distance information between the lane object and the rear panel object of the target vehicle based on the acquired lateral position information and longitudinal position information of the target vehicle, and determine whether the target vehicle is cut out based on the distance information do.

일 측면에 따른 운전자 보조 시스템은 차량의 주행 정보를 수신하는 통신부; 및 주변의 장애물을 검출하고 검출된 장애물에 대한 장애물 정보를 출력하는 장애물 검출부를 더 포함하고, 프로세서는, 차량의 주행 정보 및 장애물 정보에 기초하여 타깃 차량의 횡방향 속도 정보를 획득하고 획득한 횡방향 속도 정보 및 거리 정보에 기초하여 타깃 차량의 컷 아웃 여부를 추가로 판단한다.A driver assistance system according to an aspect includes a communication unit receiving driving information of a vehicle; and an obstacle detection unit configured to detect surrounding obstacles and output obstacle information about the detected obstacles, wherein the processor obtains lateral speed information of the target vehicle based on vehicle driving information and obstacle information, and obtains the obtained lateral speed information. Based on the direction speed information and the distance information, whether or not the target vehicle is cut out is additionally determined.

일 측면에 따른 운전자 보조 시스템의 프로세서는, 타깃 차량의 컷 아웃 여부의 추가 판단에 의해 타깃 차량이 컷 아웃 상태라고 판단되면 3차원 차량 검출 영상 정보에 기초하여 다른 타깃 차량에 대한 다른 타깃 차량 오브젝트를 인식하고, 장애물 검출부에 의해 검출된 장애물 정보에 기초하여 인식한 다른 타깃 오브젝트에 대한 다른 타깃 차량의 상대 거리 정보와 상대 속도 정보를 획득하고, 다른 타깃 차량의 상대 거리 정보와 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성한다.If the processor of the driver assistance system according to an aspect determines that the target vehicle is in a cut-out state by additionally determining whether or not the target vehicle is cut-out, the processor creates another target vehicle object for another target vehicle based on 3D vehicle detection image information. and acquires relative distance information and relative speed information of another target vehicle to another target object recognized based on the obstacle information detected by the obstacle detection unit, and based on the relative distance information and relative speed information of the other target vehicle Generate an acceleration signal or deceleration signal.

일 측면에 따른 운전자 보조 시스템의 프로세서는, 면적 정보, 획득한 횡방향 속도 정보 및 거리 정보에 기초하여 타깃 차량과의 충돌 위험도를 인식하고 타깃 차량과의 충돌 위험도가 기준 충돌 위험도를 초과한다고 판단되면 장애물 검출부에 의해 검출된 장애물 정보와 차량의 주행 정보에 기초하여 타깃 차량의 상대 거리 정보 및 상대 속도 정보를 획득하고, 획득한 타깃 차량의 상대 거리 정보 및 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성한다.When the processor of the driver assistance system according to one aspect recognizes the risk of collision with the target vehicle based on the area information, the obtained lateral speed information, and the distance information, and determines that the risk of collision with the target vehicle exceeds the reference risk of collision Relative distance information and relative speed information of the target vehicle are obtained based on the obstacle information detected by the obstacle detection unit and the driving information of the vehicle, and an acceleration signal or deceleration signal is obtained based on the acquired relative distance information and relative speed information of the target vehicle. generate

일 측면에 따른 운전자 보조 시스템의 프로세서는, 타깃 차량과의 충돌 위험도가 기준 충돌 위험도 이하라고 판단되면 획득한 타깃 차량의 상대 거리 정보 및 상대 속도 정보, 다른 타깃 차량의 상대 거리 정보 및 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성한다.The processor of the driver assistance system according to one aspect may, when it is determined that the risk of collision with the target vehicle is less than or equal to the standard collision risk, the obtained relative distance information and relative speed information of the target vehicle and relative distance information and relative speed information of another target vehicle. Based on this, an acceleration signal or deceleration signal is generated.

일 측면에 따른 운전자 보조 시스템의 프로세서는, 3차원 차량 검출 영상 정보에 기초하여 타깃 차량의 길이 정보, 타깃 차량의 폭 정보, 타깃 차량의 헤딩 각도 정보를 획득하고 타깃 차량의 길이 정보, 타깃 차량의 폭 정보, 타깃 차량의 헤딩 각도 정보에 기초하여 영역의 면적 정보를 획득한다.The processor of the driver assistance system according to one aspect may obtain length information of the target vehicle, width information of the target vehicle, and heading angle information of the target vehicle based on the 3D vehicle detection image information, and obtain the length information of the target vehicle and the target vehicle's heading angle information. Area information of the region is obtained based on the width information and the heading angle information of the target vehicle.

일 측면에 따른 운전자 보조 시스템은 차량에 마련된 차량용 프로세서와 통신을 수행하는 통신부를 더 포함하고, 프로세서는 통신부를 통해 감속 신호 또는 가속 신호를 차량용 프로세서에 전송하도록 한다.A driver assistance system according to an aspect further includes a communication unit configured to communicate with a vehicle processor provided in a vehicle, and the processor transmits a deceleration signal or an acceleration signal to the vehicle processor through the communication unit.

다른 측면에 따른 차량은, 주행 정보를 검출하는 주행 정보 검출부; 주변의 장애물을 검출하고 검출된 장애물에 대한 장애물 정보를 출력하는 장애물 검출부; 전방 및 좌우 측방의 도로에 대한 영상을 획득하는 영상 획득부; 및 영상 획득부에서 획득된 영상 정보에 기초하여 자 차로 오브젝트, 차선 오브젝트와 장애물 오브젝트를 인식하고, 인식한 장애물 오브젝트의 깊이 정보에 기초하여 3차원 차량 검출 영상 정보를 획득하고 변환하고 변환한 3차원 차량 검출 영상 정보에 기초하여 타깃 차량에 대한 타깃 차량 오브젝트를 인식하고, 인식한 타깃 차량 오브젝트의 위치 정보와 차선 오브젝트의 위치 정보에 기초하여 타깃 차량 오브젝트의 일부가 차선 오브젝트에 오버랩되는지를 판단하고, 타깃 차량 오브젝트의 일부가 차선 오브젝트에 오버랩된다고 판단되면 타깃 차량 오브젝트의 영역들 중 자 차로 오브젝트 상에 위치하는 영역의 면적 정보에 기초하여 타깃 차량의 컷 아웃 여부를 판단하고 타깃 차량의 컷 아웃 여부, 주행 정보 및 장애물 정보에 기초하여 감속 신호 또는 가속 신호를 생성하는 프로세서를 포함한다.A vehicle according to another aspect includes a driving information detection unit configured to detect driving information; an obstacle detection unit that detects nearby obstacles and outputs obstacle information about the detected obstacles; An image acquisition unit for acquiring images of the front and left and right side roads; and recognizing the own lane object, lane object, and obstacle object based on the image information acquired by the image acquisition unit, and acquiring, converting, and converting 3D vehicle detection image information based on the depth information of the recognized obstacle object. Recognizing a target vehicle object for the target vehicle based on the vehicle detection image information, determining whether a part of the target vehicle object overlaps the lane object based on the recognized location information of the target vehicle object and the location information of the lane object; If it is determined that a part of the target vehicle object overlaps the lane object, it is determined whether the target vehicle is cut out based on area information of the region located on the object of the vehicle among the regions of the target vehicle object, whether the target vehicle is cut out, and a processor generating a deceleration signal or an acceleration signal based on driving information and obstacle information.

다른 측면에 따른 차량은, 생성된 감속 신호에 기초하여 감속을 수행하는 제동 시스템; 및 생성된 가속 신호에 기초하여 가속을 수행하는 엔진 시스템을 더 포함한다.A vehicle according to another aspect includes a braking system that performs deceleration based on a generated deceleration signal; and an engine system that performs acceleration based on the generated acceleration signal.

다른 측면에 따른 차량의 프로세서는, 3차원 차량 검출 영상에 기초하여 타깃 차량의 리어 패널 오브젝트를 인식하고, 3차원 차량 검출 영상에 기초하여 타깃 차량의 횡방향 위치 정보와 종방향 위치 정보를 획득하고, 획득한 타깃 차량의 횡방향 위치 정보와 종방향 위치 정보에 기초하여 차선 오브젝트와 타깃 차량의 리어 패널 오브젝트 사이의 거리 정보를 획득하고, 거리 정보에 기초하여 타깃 차량의 컷 아웃 여부를 판단한다.A processor of a vehicle according to another aspect recognizes a rear panel object of a target vehicle based on a 3D vehicle detection image, obtains lateral location information and longitudinal location information of the target vehicle based on the 3D vehicle detection image, , Distance information between a lane object and a rear panel object of the target vehicle is obtained based on the acquired lateral location information and longitudinal location information of the target vehicle, and based on the distance information, it is determined whether the target vehicle is cut out.

다른 측면에 따른 차량의 프로세서는, 주행 정보 및 장애물 정보에 기초하여 타깃 차량의 횡방향 속도 정보를 획득하고 획득한 횡방향 속도 정보 및 거리 정보에 기초하여 타깃 차량의 컷 아웃 여부를 추가로 판단한다.The processor of the vehicle according to another aspect obtains lateral speed information of the target vehicle based on driving information and obstacle information, and further determines whether the target vehicle is cut out based on the obtained lateral speed information and distance information. .

다른 측면에 따른 차량의 프로세서는, 타깃 차량의 컷 아웃 여부의 추가 판단에 의해 타깃 차량이 컷 아웃 상태라고 판단되면 3차원 차량 검출 영상 정보에 기초하여 다른 타깃 차량에 대한 다른 타깃 차량 오브젝트를 인식하고, 장애물 검출부에 의해 검출된 장애물 정보에 기초하여 인식한 다른 타깃 오브젝트에 대한 다른 타깃 차량의 상대 거리 정보와 상대 속도 정보를 획득하고, 다른 타깃 차량의 상대 거리 정보와 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성한다.According to another aspect, the processor of the vehicle recognizes another target vehicle object for another target vehicle based on the 3D vehicle detection image information when it is determined that the target vehicle is in a cutout state by additionally determining whether or not the target vehicle is cutout. Obtaining relative distance information and relative speed information of another target vehicle to another target object recognized based on the obstacle information detected by the obstacle detection unit, and an acceleration signal based on the relative distance information and relative speed information of the other target vehicle. Or generate a deceleration signal.

다른 측면에 따른 차량의 프로세서는, 면적 정보, 획득한 횡방향 속도 정보 및 거리 정보에 기초하여 타깃 차량과의 충돌 위험도를 인식하고 타깃 차량과의 충돌 위험도가 기준 충돌 위험도를 초과한다고 판단되면 장애물 검출부에 의해 검출된 장애물 정보와 차량의 주행 정보에 기초하여 타깃 차량의 상대 거리 정보 및 상대 속도 정보를 획득하고, 획득한 타깃 차량의 상대 거리 정보 및 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성한다.The processor of the vehicle according to another aspect recognizes the risk of collision with the target vehicle based on the area information, the obtained lateral speed information, and the distance information, and when it is determined that the risk of collision with the target vehicle exceeds the reference risk of collision, the obstacle detection unit Obtain relative distance information and relative speed information of the target vehicle based on the obstacle information detected by the obstacle information and driving information of the vehicle, and generate an acceleration signal or deceleration signal based on the obtained relative distance information and relative speed information of the target vehicle. do.

다른 측면에 따른 차량의 프로세서는, 타깃 차량과의 충돌 위험도가 기준 충돌 위험도 이하라고 판단되면 획득한 타깃 차량의 상대 거리 정보 및 상대 속도 정보, 다른 타깃 차량의 상대 거리 정보 및 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성한다.According to another aspect, the processor of the vehicle may determine that the risk of collision with the target vehicle is less than or equal to the standard collision risk based on the acquired relative distance information and relative speed information of the target vehicle and relative distance information and relative speed information of another target vehicle. Generate an acceleration signal or deceleration signal.

다른 측면에 따른 차량의 프로세서는, 3차원 차량 검출 영상 정보에 기초하여 타깃 차량의 길이 정보, 타깃 차량의 폭 정보, 타깃 차량의 헤딩 각도 정보를 획득하고 타깃 차량의 길이 정보, 타깃 차량의 폭 정보, 타깃 차량의 헤딩 각도 정보에 기초하여 영역의 면적 정보를 획득한다.According to another aspect, the vehicle processor may obtain length information of the target vehicle, width information of the target vehicle, and heading angle information of the target vehicle based on the 3D vehicle detection image information, and obtain the length information of the target vehicle and the width information of the target vehicle. , Area information of the region is obtained based on the heading angle information of the target vehicle.

다른 측면에 따른 차량은, 타깃 차량과의 충돌 알림 정보를 표시하는 표시부; 및 타깃 차량과의 충돌 알림 정보를 출력하는 사운드 출력부를 더 포함한다.A vehicle according to another aspect includes a display unit displaying collision notification information with a target vehicle; and a sound output unit configured to output collision notification information with the target vehicle.

본 발명은 영상 정보에 기초하여 자 차량의 주변에서 주행하는 타깃 차량이 주행 경로를 변경하는 컷 아웃 상태를 신속하게 인식할 수 있고, 타깃 차량이 컷 아웃 상태라고 판단되면 자 차량의 주행 속도를 제어함으로써 크루즈 컨트롤 모드나 자율 주행 모드의 성능을 향상시킬 수 있다.According to the present invention, based on image information, it is possible to quickly recognize a cut-out state in which a target vehicle driving near the host vehicle changes its driving path, and if it is determined that the target vehicle is in a cut-out state, the driving speed of the host vehicle is controlled. By doing so, the performance of cruise control mode or autonomous driving mode can be improved.

또한 본 발명은 신속한 주행 속도 제어를 통해 운전자에게 심리적 안정감을 부여할 수 있고 주변의 타 차량(즉 제1타깃 차량)뿐 만 아니라, 타 차량의 전방에서 주행하는 또 다른 차량(즉 제2 타깃 차량)과의 충돌도 방지할 수 있다. In addition, the present invention can give a driver a sense of psychological stability through rapid driving speed control, and not only other nearby vehicles (ie, the first target vehicle), but also another vehicle (ie, the second target vehicle) traveling in front of the other vehicle. ) can also be prevented.

본 발명은 하드웨어적인 구성이 추가되지 않은 상태에서 주변의 타깃 차량의 컷 아웃 상태를 판단할 수 있어 차량의 원가 상승을 방지하면서 차량의 안정성을 향상시킬 수 있고 운전자 보조 시스템의 활용도도 향상시킬 수 있다.The present invention can determine the cut-out state of a surrounding target vehicle without adding a hardware configuration, thereby preventing an increase in vehicle cost, improving vehicle stability, and improving the utilization of driver assistance systems. .

이와 같이 본 발명은 운전자 보조 시스템 및 운전자 보조 시스템을 가지는 차량의 품질 및 상품성을 향상시킬 수 있고 나아가 사용자의 만족도를 높일 수 있으며 제품의 경쟁력을 확보할 수 있다.As described above, the present invention can improve the quality and marketability of a driver assistance system and a vehicle having a driver assistance system, further increase user satisfaction, and secure product competitiveness.

도 1은 실시 예에 의한 차량의 구성도이다.
도 2은 실시 예에 의한 차량에 마련된 운전자 보조 시스템의 구성도이다.
도 3은 실시 예에 의한 차량의 운전자 보조 시스템에 포함된 카메라 및 레이더의 검출 영역의 예시도이다.
도 4는 실시 예에 따른 차량에 마련된 운전자 보조 시스템 중 크루즈 컨트롤 모드를 수행하는 운전자 보조 시스템의 제어 구성도이다.
도 5a, 도 5b 및 도 5c는 실시 예에 따른 차량에 마련된 운전자 보조 시스템에서 타깃 차량의 컷 아웃 상태를 판단하기 위한 예시도이다.
도 6은 실시 예에 따른 차량(에 마련된 운전자 보조 시스템 내의 제2프로세서의 상세 구성도이다.
eh 7은 실시 예에 따른 차량의 제어 순서도이다.
1 is a configuration diagram of a vehicle according to an embodiment.
2 is a configuration diagram of a driver assistance system provided in a vehicle according to an embodiment.
3 is an exemplary view of a detection area of a camera and a radar included in a driver assistance system of a vehicle according to an embodiment.
4 is a control configuration diagram of a driver assistance system performing a cruise control mode among driver assistance systems provided in a vehicle according to an embodiment.
5A, 5B, and 5C are exemplary diagrams for determining a cut-out state of a target vehicle in a driver assistance system provided in a vehicle according to an embodiment.
6 is a detailed configuration diagram of a second processor in a driver assistance system provided in a vehicle according to an embodiment.
eh 7 is a control flowchart of a vehicle according to an embodiment.

명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시 예들의 모든 요소들을 설명하는 것은 아니며, 개시된 발명이 속하는 기술분야에서 일반적인 내용 또는 실시 예들 간에 중복되는 내용은 생략한다. Like reference numbers designate like elements throughout the specification. This specification does not describe all elements of the embodiments, and general content or overlapping content between the embodiments in the technical field to which the disclosed invention belongs is omitted.

명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시 예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.The term 'unit, module, member, or block' used in the specification may be implemented as software or hardware, and according to embodiments, a plurality of 'units, modules, members, or blocks' may be implemented as one component or may be implemented as one component. It is also possible that the 'part, module, member, block' of includes a plurality of components.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case of being directly connected but also the case of being indirectly connected, and indirect connection includes being connected through a wireless communication network. do.

또한 어떤 부분이 어떤 구성요소를"포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, when a certain component is said to "include", this means that it may further include other components, not excluding other components unless otherwise stated.

명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout the specification, when a member is said to be located “on” another member, this includes not only a case where a member is in contact with another member, but also a case where another member exists between the two members.

제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다. Terms such as first and second are used to distinguish one component from another, and the components are not limited by the aforementioned terms.

단수의 표현은 문맥 상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly dictates otherwise.

각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.In each step, the identification code is used for convenience of description, and the identification code does not explain the order of each step, and each step may be performed in a different order from the specified order unless a specific order is clearly described in context. there is.

이하 첨부된 도면들을 참고하여 개시된 발명의 작용 원리 및 실시 예들에 대해 설명한다.Hereinafter, working principles and embodiments of the disclosed invention will be described with reference to the accompanying drawings.

도 1은 실시 예에 의한 차량의 구성도이다.1 is a configuration diagram of a vehicle according to an embodiment.

실시 예에 따른 차량은 운전자의 운전 의지에 대응하여 주행하는 수동 주행 모드와, 다른 차량과 일정 거리를 유지하면서 설정 속도로 주행하도록 하는 크루즈 컨트롤 모드를 수행하는 차량일 수 있다.A vehicle according to an embodiment may be a vehicle that performs a manual driving mode in which the vehicle drives in response to the driver's driving intention and a cruise control mode in which the vehicle travels at a set speed while maintaining a certain distance from other vehicles.

실시 예에 따른 차량은 차량의 현재 위치 정보와 목적지 정보에 기초하여 목적지까지 자율적으로 주행하는 자율 주행 모드를 수행하는 차량일 수 있다.A vehicle according to an embodiment may be a vehicle that performs an autonomous driving mode that autonomously travels to a destination based on current location information and destination information of the vehicle.

크루즈 컨트롤 모드는 차량을 일정한 속도로 유지한 상태로 계속 주행할 수 있게 하는 모드로, 장거리 주행 시 가속 페달에서 발을 뗄 수 있는 장점이 있다.The cruise control mode is a mode that allows the vehicle to continue driving while maintaining a constant speed, and has the advantage of being able to take one's foot off the accelerator pedal during long-distance driving.

크루즈 컨트롤은, 액티브 크루즈 컨트롤(ACC: Active Cruise Control, 어댑티브 크루즈 컨트롤(adaptive cruise control), 스마트 크루즈 컨트롤(SCC: Smart Cruise Control), 어드밴스드 스마트 크루즈 컨트롤(Advanced Smart Cruise Control), 다이나믹 레이더 크루즈 컨트롤(DRCC)이라고도 한다Cruise control includes active cruise control (ACC: Active Cruise Control, adaptive cruise control), smart cruise control (SCC: Smart Cruise Control), advanced smart cruise control (Advanced Smart Cruise Control), dynamic radar cruise control ( Also known as DRCC

실시 예에 따른 차량은 내연 기관 차량일 수도 있고, 친환경 차량일 수도 있다. A vehicle according to an embodiment may be an internal combustion engine vehicle or an eco-friendly vehicle.

본 실시 예에서 내연 기관 차량 중 크루즈 컨트롤 모드를 수행하는 차량을 예를 들어 설명한다.In this embodiment, a vehicle performing a cruise control mode among vehicles with an internal combustion engine will be described as an example.

도 1에 도시된 바와 같이, 차량(1)은 엔진(10)과, 변속기(20)와, 제동 장치(30)와, 조향 장치(40)를 포함한다.As shown in FIG. 1 , a vehicle 1 includes an engine 10 , a transmission 20 , a braking device 30 , and a steering device 40 .

엔진(10)은 실린더와 피스톤을 포함하며, 차량(1)이 주행하기 위한 동력을 생성할 수 있다.The engine 10 includes a cylinder and a piston, and can generate power for the vehicle 1 to travel.

변속기(20)는 복수 개의 기어들을 포함하며, 엔진(10)에 의하여 생성된 동력을 차륜까지 전달할 수 있다. The transmission 20 includes a plurality of gears and can transmit power generated by the engine 10 to wheels.

제동 장치(30)는 차륜과의 마찰을 통하여 차량(1)을 감속시키거나 차량(1)을 정지시킬 수 있다.The braking device 30 may decelerate the vehicle 1 or stop the vehicle 1 through friction with wheels.

조향 장치(40)는 차량(1)의 주행 방향을 변경할 수 있다.The steering device 40 can change the driving direction of the vehicle 1 .

차량(1)은 복수 개의 전장 부품들을 포함할 수 있다. The vehicle 1 may include a plurality of electric components.

예를 들어, 차량(1)은 엔진 관리 시스템(Engine Management System, EMS) (11)과, 변속기 제어 유닛(Transmission Control Unit, TCU) (21)과, 전자식 제동 제어 모듈(Electronic Brake Control Module) (31)과, 전자식 조향 장치(Electronic Power Steering, EPS) (41)과, 바디 컨트롤 모듈(Body Control Module, BCM)과, 운전자 보조 시스템(Driver Assistance System, DAS)을 더 포함한다.For example, the vehicle 1 includes an engine management system (EMS) 11, a transmission control unit (TCU) 21, and an electronic brake control module ( 31), an electronic power steering (EPS) 41, a body control module (BCM), and a driver assistance system (DAS).

엔진 관리 시스템(11)은 가속 페달을 통한 운전자의 가속 의지 또는 운전자 보조 시스템(100)의 요청에 응답하여 엔진(10)을 제어할 수 있다. 예를 들어, 엔진 관리 시스템(11)은 엔진(10)의 토크를 제어할 수 있다.The engine management system 11 may control the engine 10 in response to a driver's will to accelerate through an accelerator pedal or a request from the driver assistance system 100 . For example, the engine management system 11 may control torque of the engine 10 .

변속기 제어 유닛(21)은 변속 레버(또는 기어 레버, 시프팅 레버, 기어 시프트라고도 함)를 통한 운전자의 변속 명령 및/또는 차량(1)의 주행 속도에 응답하여 변속기(20)를 제어할 수 있다. 예를 들어, 변속기 제어 유닛(21)은 엔진(10)으로부터 차륜까지의 변속 비율을 조절할 수 있다.The transmission control unit 21 may control the transmission 20 in response to a driver's shift command through a shift lever (also referred to as a gear lever, shift lever, or gear shift) and/or a driving speed of the vehicle 1. there is. For example, the transmission control unit 21 can adjust the transmission ratio from the engine 10 to the wheels.

전자식 제동 제어 모듈(31)은 제동 페달을 통한 운전자의 제동 의지 및/또는 차륜들의 슬립(slip)에 응답하여 제동 장치(30)를 제어할 수 있다. 예를 들어, 전자식 제동 제어 모듈(31)은 차량(1)의 제동 시에 감지되는 차륜의 슬립에 응답하여 차륜의 제동을 일시적으로 해제할 수 있다(Anti-lock Braking Systems, ABS). The electronic brake control module 31 may control the brake device 30 in response to a driver's will to brake through a brake pedal and/or slip of wheels. For example, the electronic brake control module 31 may temporarily release braking of a wheel in response to wheel slip detected during braking of the vehicle 1 (Anti-lock Braking Systems, ABS).

전자식 제동 제어 모듈(31)은 차량(1)의 조향 시에 감지되는 오버스티어링(oversteering) 및/또는 언더스티어링(understeering)에 응답하여 차륜의 제동을 선택적으로 해제할 수 있다(Electronic stability control, ESC).The electronic brake control module 31 may selectively release brakes on wheels in response to oversteering and/or understeering detected during steering of the vehicle 1 (Electronic Stability Control, ESC). ).

또한, 전자식 제동 제어 모듈(31)은 차량(1)의 구동 시에 감지되는 차륜의 슬립에 응답하여 차륜을 일시적으로 제동할 수 있다(Traction Control System, TCS).In addition, the electronic brake control module 31 may temporarily brake a wheel in response to wheel slip detected while driving the vehicle 1 (Traction Control System, TCS).

전자식 조향 제어 장치(41)는 스티어링 휠을 통한 운전자의 조향 의지에 응답하여 운전자가 쉽게 스티어링 휠을 조작할 수 있도록 조향 장치(40)의 동작을 보조할 수 있다.예를 들어, 전자식 조향 제어 장치(41)는 저속 주행 또는 주차 시에는 조향력을 감소시키고 고속 주행 시에는 조향력을 증가시키도록 조향 장치(40)의 동작을 보조할 수 있다.The electronic steering control device 41 may assist the operation of the steering device 40 so that the driver can easily operate the steering wheel in response to the driver's steering intention through the steering wheel. For example, the electronic steering control device (41) may assist the operation of the steering device 40 to reduce the steering force during low-speed driving or parking and to increase the steering force during high-speed driving.

바디 컨트롤 모듈(51)은 운전자에게 편의를 제공하거나 운전자의 안전을 보장하는 전장 부품들의 동작을 제어할 수 있다. 예를 들어, 바디 컨트롤 모듈(51)은 헤드 램프, 와이퍼, 클러스터, 다기능 스위치 및 방향 지시 램프 등을 제어할 수 있다.The body control module 51 may control the operation of electrical components that provide convenience to the driver or ensure the driver's safety. For example, the body control module 51 may control a head lamp, a wiper, a cluster, a multi-function switch, and a direction indicator lamp.

운전자 보조 시스템(100)은 운전자가 차량(1)을 조작(구동, 제동, 조향)하는 것을 보조할 수 있다. 예를 들어, 운전자 보조 시스템(100)은 차량(1) 주변의 환경(예를 들어, 다른 차량, 보행자, 사이클리스트(cyclist), 차선, 도로 표지판 등)을 감지하고, 감지된 환경에 응답하여 차량(1)의 구동 및/또는 제동 및/또는 조향을 제어할 수 있다.The driver assistance system 100 may assist the driver in manipulating (driving, braking, and steering) the vehicle 1 . For example, the driver assistance system 100 detects an environment around the vehicle 1 (eg, other vehicles, pedestrians, cyclists, lanes, road signs, etc.) and responds to the detected environment to the vehicle. The driving and/or braking and/or steering of (1) can be controlled.

운전자 보조 시스템(100)은 운전자에게 다양한 기능을 제공할 수 있다. 예를 들어, 운전자 보조 시스템(100)은 차선 이탈 경보(Lane Departure Warning, LDW)와, 차선 유지 보조(Lane Keeping Assist, LKA)와, 상향등 보조(High Beam Assist, HBA)와, 자동 긴급 제동(Autonomous Emergency Braking, AEB)과, 교통 표지판 인식(Traffic Sign Recognition, TSR)과, 스마트 크루즈 컨트롤(Smart Cruise Control, SCC)과, 사각지대 감지(Blind Spot Detection, BSD) 등을 제공할 수 있다.The driver assistance system 100 may provide various functions to a driver. For example, the driver assistance system 100 includes lane departure warning (LDW), lane keeping assist (LKA), high beam assist (HBA), and automatic emergency braking ( Autonomous Emergency Braking (AEB), Traffic Sign Recognition (TSR), Smart Cruise Control (SCC), Blind Spot Detection (BSD), and the like can be provided.

운전자 보조 시스템(100)은 차량 스스로 도로 환경을 인식하고, 장애물과 주행 상황을 판단하며, 장애물을 회피하면서 계획된 주행 경로에 따라 차량의 주행을 제어함으로써 자동으로 목적지까지 주행하도록 하는 자율 주행 제어 장치를 포함할 수 있다.The driver assistance system 100 is an autonomous driving control device that automatically drives to a destination by recognizing the road environment, determining obstacles and driving conditions, and controlling the driving of the vehicle according to a planned driving path while avoiding obstacles. can include

운전자 보조 시스템(100)은 차량(1) 주변의 영상 데이터를 획득하는 카메라 모듈(101)과, 차량(1) 주변의 장애물 데이터를 획득하는 레이더 모듈(102)을 포함한다.The driver assistance system 100 includes a camera module 101 that acquires image data around the vehicle 1 and a radar module 102 that acquires obstacle data around the vehicle 1.

카메라 모듈(101)은 카메라(101a)와 제어기(Electronic Control Unit, ECU) (101b)를 포함하며, 차량(1)의 주변을 촬영하고 다른 차량, 보행자, 사이클리스트, 차선, 도로 표지판 등을 인식할 수 있다.The camera module 101 includes a camera 101a and a controller (Electronic Control Unit, ECU) 101b, and can photograph the surroundings of the vehicle 1 and recognize other vehicles, pedestrians, cyclists, lanes, road signs, etc. can

레이더 모듈(102)은 레이더(102a)와 제어기(102b)를 포함하며, 차량(1) 주변의 장애물(예를 들어, 다른 차량, 보행자, 사이클리스트 등)의 상대 위치, 상대 속도 등을 획득할 수 있다.The radar module 102 includes a radar 102a and a controller 102b, and can acquire the relative position, relative speed, etc. of obstacles around the vehicle 1 (eg, other vehicles, pedestrians, cyclists, etc.) there is.

이상의 전자 부품들은 차량용 통신 네트워크(NT)를 통하여 서로 통신할 수 있다. 예를 들어, 전장 부품들은 이더넷(Ethernet), 모스트(MOST, Media Oriented Systems Transport), 플렉스레이(Flexray), 캔(CAN, Controller Area Network), 린(LIN, Local Interconnect Network) 등을 통하여 데이터를 송신 및 수신할 수 있다. The above electronic components may communicate with each other through the vehicle communication network NT. For example, electronic components transmit data through Ethernet, MOST (Media Oriented Systems Transport), Flexray, CAN (Controller Area Network), LIN (Local Interconnect Network), etc. Can transmit and receive.

운전자 보조 시스템(100)은 엔진 관리 시스템(11), 전자식 제동 제어 모듈(31) 및 전자식 조향 제어 장치(41)에 각각 차량용 통신 네트워크(NT)를 통하여 구동 제어 신호, 제동 제어 신호 및 조향 제어 신호를 전송할 수 있다.The driver assistance system 100 transmits a driving control signal, a braking control signal, and a steering control signal to the engine management system 11, the electronic braking control module 31, and the electronic steering control device 41 through the vehicle communication network NT, respectively. can transmit.

도 2은 실시 예에 의한 차량에 마련된 운전자 보조 시스템의 구성도이고, 도 3은 실시 예에 의한 차량의 운전자 보조 시스템에 포함된 카메라 및 레이더의 검출 영역의 예시도이다.2 is a configuration diagram of a driver assistance system provided in a vehicle according to an embodiment, and FIG. 3 is an exemplary view of a detection area of a camera and a radar included in the driver assistance system of a vehicle according to an embodiment.

도 2에 도시된 바와 같이, 차량(1)은 제동 시스템(32)과, 엔진 시스템(12), 조향 시스템(42)과, 운전자 보조 시스템(100)을 포함할 수 있다.As shown in FIG. 2 , vehicle 1 may include a braking system 32 , an engine system 12 , a steering system 42 , and a driver assistance system 100 .

엔진 시스템(12)은 도 1과 함께 설명된 엔진 관리 시스템(11)과 엔진(10)을 포함하고, 제동 시스템(32)은 도 1과 함께 설명된 전자식 제동 제어 모듈(31, 도 1 참조)과 제동 장치(30, 도 1 참조)를 포함하며, 조향 시스템(42)은 전자식 조향 장치(41, 도 1 참조)와 조향 장치(40, 도 1 참조)를 포함할 수 있다.The engine system 12 includes the engine management system 11 and the engine 10 described in conjunction with FIG. 1, and the braking system 32 includes the electronic brake control module 31 (see FIG. 1) described in conjunction with FIG. and a braking device 30 (see FIG. 1), and the steering system 42 may include an electronic steering device 41 (see FIG. 1) and a steering device 40 (see FIG. 1).

본 실시 예의 운전자 보조 시스템(100)은 카메라 모듈(101)의 카메라로써 전방 카메라(110)를 포함할 수 있고, 레이더 모듈(102)의 레이더로써 전방 레이더(120)와 복수 개의 코너 레이더(130: 131, 132, 133, 134)를 포함할 수 있다.The driver assistance system 100 of this embodiment may include a front camera 110 as a camera of the camera module 101, and a front radar 120 and a plurality of corner radars 130 as radars of the radar module 102: 131, 132, 133, 134) may be included.

도 3에 도시된 바와 같이, 운전자 보조 시스템(100)은 차량(1)의 전방을 향하는 시야(field of view) (110a)를 확보하기 위한 전방 카메라(110)와, 전방 레이더(120)와, 복수 개의 코너 레이더(130)를 포함할 수 있다.As shown in FIG. 3, the driver assistance system 100 includes a front camera 110 for securing a field of view 110a toward the front of the vehicle 1, a front radar 120, A plurality of corner radars 130 may be included.

전방 카메라(110)는 차량(1)의 프론트 윈드 쉴드에 설치될 수 있다.The front camera 110 may be installed on a front windshield of the vehicle 1 .

전방 카메라(110)는 차량(1)의 전방을 촬영하고, 차량(1) 전방의 영상 데이터를 획득할 수 있다. 차량(1) 전방의 영상 데이터는 차량(1) 전방에 위치하는 다른 차량, 보행자, 사이클리스트, 차선, 연석, 가드레일, 가로수 및 가로등 중 적어도 하나에 관한 위치 정보를 포함할 수 있다.The front camera 110 may photograph the front of the vehicle 1 and obtain image data of the front of the vehicle 1 . The image data of the front of the vehicle 1 may include location information about at least one of other vehicles, pedestrians, cyclists, lanes, curbs, guardrails, street trees, and streetlights located in front of the vehicle 1 .

전방 카메라(110)는 복수의 렌즈들 및 이미지 센서를 포함할 수 있다. 이미지 센서는 광을 전기 신호로 변환하는 복수의 포토 다이오드들을 포함할 수 있으며, 복수의 포토 다이오드들이 2차원 매트릭스로 배치될 수 있다.The front camera 110 may include a plurality of lenses and an image sensor. The image sensor may include a plurality of photodiodes that convert light into electrical signals, and the plurality of photodiodes may be arranged in a two-dimensional matrix.

전방 카메라(110)는 제어부(140)와 전기적으로 연결될 수 있다. 예를 들어, 전방 카메라(110)는 차량용 통신 네트워크(NT)를 통하여 제어부(140)와 연결되거나, 하드 와이어(hard wire)를 통하여 제어부(140)와 연결되거나, 인쇄 회로 기판(Printed Circuit Board, PCB)을 통하여 제어부(140)와 연결될 수 있다.The front camera 110 may be electrically connected to the controller 140 . For example, the front camera 110 is connected to the control unit 140 through the vehicle communication network NT, connected to the control unit 140 through a hard wire, or printed circuit board (Printed Circuit Board, It may be connected to the control unit 140 through a PCB).

전방 카메라(110)는 차량(1) 전방의 영상 데이터를 제어부(140)로 전달할 수 있다.The front camera 110 may transmit image data of the front of the vehicle 1 to the controller 140 .

전방 레이더(120)는 차량(1)의 전방을 향하는 감지 시야(field of sensing) (120a)을 가질 수 있다. 전방 레이더(120)는 예를 들어 차량(1)의 그릴(grille) 또는 범퍼(bumper)에 설치될 수 있다.The front radar 120 may have a field of sensing 120a facing the front of the vehicle 1 . The front radar 120 may be installed on a grill or bumper of the vehicle 1, for example.

전방 레이더(120)는 차량(1)의 전방을 향하여 송신 전파를 방사하는 송신 안테나(또는 송신 안테나 어레이)와, 장애물에 반사된 반사 전파를 수신하는 수신 안테나(또는 수신 안테나 어레이)를 포함할 수 있다. The front radar 120 may include a transmission antenna (or transmission antenna array) for radiating transmission radio waves toward the front of the vehicle 1 and a reception antenna (or reception antenna array) for receiving reflected radio waves reflected by obstacles. there is.

전방 레이더(120)는 송신 안테나에 의한 송신된 송신 전파와 수신 안테나에 의하여 수신된 반사 전파로부터 전방 레이더 데이터를 획득할 수 있다.The front radar 120 may obtain front radar data from a transmission wave transmitted by a transmission antenna and a reflected wave received by a reception antenna.

전방 레이더 데이터는 차량(1) 전방에 위치하는 다른 차량 또는 보행자 또는 사이클리스트에 관한 위치 정보 및 속도 정도를 포함할 수 있다. The front radar data may include location information and speed of other vehicles or pedestrians or cyclists located in front of the vehicle 1 .

전방 레이더(120)는 송신 전파와 반사 전파 사이의 위상 차이(또는 시간 차이)에 기초하여 장애물까지의 상대 거리를 산출하고, 송신 전파와 반사 전파 사이의 주파수 차이에 기초하여 장애물의 상대 속도를 산출할 수 있다.The front radar 120 calculates the relative distance to the obstacle based on the phase difference (or time difference) between the transmitted radio wave and the reflected radio wave, and calculates the relative speed of the obstacle based on the frequency difference between the transmitted radio wave and the reflected radio wave. can do.

전방 레이더(120)는 예를 들어 차량용 통신 네트워크(NT) 또는 하드 와이어 또는 인쇄 회로 기판을 통하여 제어부(140)와 연결될 수 있다. 전방 레이더(120)는 전방 레이더 데이터를 제어부(140)로 전달할 수 있다.The forward radar 120 may be connected to the control unit 140 through, for example, a vehicle communication network (NT) or a hard wire or a printed circuit board. The forward radar 120 may transmit forward radar data to the control unit 140 .

복수 개의 코너 레이더(130)는 차량(1)의 전방 우측에 설치되는 제1 코너 레이더(131)와, 차량(1)의 전방 좌측에 설치되는 제2 코너 레이더(132)와, 차량(1)의 후방 우측에 설치되는 제3 코너 레이더(133)와, 차량(1)의 후방 좌측에 설치되는 제4 코너 레이더(134)를 포함한다.The plurality of corner radars 130 include a first corner radar 131 installed on the front right side of the vehicle 1, a second corner radar 132 installed on the front left side of the vehicle 1, and a vehicle 1 A third corner radar 133 installed on the rear right side of the vehicle 1 and a fourth corner radar 134 installed on the rear left side of the vehicle 1 are included.

제1 코너 레이더(131)는 차량(1)의 전방 우측을 향하는 감지 시야(131a)를 가질 수 있다. 제1 코너 레이더(131)는 차량(1)의 전방 범퍼의 우측에 설치될 수 있다. The first corner radar 131 may have a detection field of view 131a facing the front right side of the vehicle 1 . The first corner radar 131 may be installed on the right side of the front bumper of the vehicle 1 .

제2 코너 레이더(132)는 차량(1)의 전방 좌측을 향하는 감지 시야(132a)를 가질 수 있으며, 차량(1)의 전방 범퍼의 좌측에 설치될 수 있다. The second corner radar 132 may have a detection field of view 132a facing the front left side of the vehicle 1 and may be installed on the left side of the front bumper of the vehicle 1 .

제3 코너 레이더(133)는 차량(1)의 후방 우측을 향하는 감지 시야(133a)를 가질 수 있으며, 차량(1)의 후방 범퍼의 우측에 설치될 수 있다. The third corner radar 133 may have a detection field of view 133a facing the rear right side of the vehicle 1 and may be installed on the right side of the rear bumper of the vehicle 1 .

제4 코너 레이더(134)는 차량(1)의 후방 좌측을 향하는 감지 시야(134a)를 가질 수 있으며, 차량(1)의 후방 범퍼(리어 패널)의 좌측에 설치될 수 있다.The fourth corner radar 134 may have a detection field of view 134a toward the rear left side of the vehicle 1 and may be installed on the left side of the rear bumper (rear panel) of the vehicle 1.

제1, 제2, 제3 및 제4 코너 레이더들(131, 132, 133, 134) 각각은 송신 안테나와 수신 안테나를 포함할 수 있다. Each of the first, second, third, and fourth corner radars 131, 132, 133, and 134 may include a transmit antenna and a receive antenna.

제1, 제2, 제3 및 제4 코너 레이더들(131, 132, 133, 134)은 각각 제1 코너 레이더 데이터와 제2 코너 레이더 데이터와 제3 코너 레이더 데이터와 제4 코너 레이더 데이터를 획득할 수 있다.The first, second, third, and fourth corner radars 131, 132, 133, and 134 obtain first corner radar data, second corner radar data, third corner radar data, and fourth corner radar data, respectively. can do.

제1 코너 레이더 데이터는 차량(1) 전방 우측에 위치하는 다른 차량, 보행자 또는 사이클리스트(이하 "장애물"이라 한다)에 관한 거리 정보 및 속도 정도를 포함할 수 있다.The first corner radar data may include distance information and speed about another vehicle, pedestrian, or cyclist (hereinafter referred to as “obstacle”) located on the right front side of the vehicle 1.

제2 코너 레이더 데이터는 차량(1) 전방 좌측에 위치하는 장애물의 거리 정보 및 속도 정도를 포함할 수 있다. The second corner radar data may include distance information and speed of an obstacle located on the left front side of the vehicle 1 .

제3 및 제4 코너 레이더 데이터는 차량(1) 후방 우측 및 차량(1) 후방 좌측에 위치하는 장애물의 거리 정보 및 속도 정보를 포함할 수 있다.The third and fourth corner radar data may include distance information and speed information of obstacles located on the rear right side of the vehicle 1 and the rear left side of the vehicle 1 .

제1, 제2, 제3 및 제4 코너 레이더들(131, 132, 133, 134) 각각은 차량용 통신 네트워크(NT) 또는 하드 와이어 또는 인쇄 회로 기판을 통하여 제어부(140)와 연결될 수 있다. 제1, 제2, 제3 및 제4 코너 레이더들(131, 132, 133, 134)은 각각 제1, 제2, 제3 및 제4 코너 레이더 데이터를 제어부(140)로 전달할 수 있다.Each of the first, second, third, and fourth corner radars 131, 132, 133, and 134 may be connected to the controller 140 through a vehicle communication network NT or a hard wire or a printed circuit board. The first, second, third, and fourth corner radars 131, 132, 133, and 134 may transfer first, second, third, and fourth corner radar data to the controller 140, respectively.

제어부(140)는 카메라 모듈(101, 도 1 참조)의 제어기(101b, 도 1 참조) 및/또는 레이더 모듈(102, 도 1 참조)의 제어기(102b, 도 1 참조) 및/또는 별도의 통합 제어기를 포함할 수 있다.The controller 140 is a controller 101b (see FIG. 1) of the camera module 101 (see FIG. 1) and/or a controller 102b (see FIG. 1) of the radar module 102 (see FIG. 1) and/or separate integration. A controller may be included.

제어부(140)는 제1프로세서(141)와 제2메모리(142)를 포함한다.The controller 140 includes a first processor 141 and a second memory 142 .

제1프로세서(141)는 전방 카메라(110)의 전방 영상 데이터와 전방 레이더(120)의 전방 레이더 데이터와 복수의 코너 레이더들(130)의 코너 레이더 데이터를 처리하고, 엔진 시스템(12), 제동 시스템(32) 및 조향 시스템(42)을 제어하기 위한 가속 신호, 제동 신호 및 조향 신호를 생성할 수 있다. The first processor 141 processes the front image data of the front camera 110, the front radar data of the front radar 120, and the corner radar data of the plurality of corner radars 130, and the engine system 12, braking Acceleration signals, braking signals, and steering signals for controlling the system 32 and the steering system 42 may be generated.

예를 들어, 제1프로세서(141)는 전방 카메라(110)의 전방 영상 데이터를 처리하는 이미지 시그널 프로세서 및/또는 레이더들(120, 130)의 레이더 데이터를 처리하는 디지털 시그널 프로세서 및/또는 제동 신호와 조향 신호를 생성하는 마이크로 컨트롤 유닛(Micro Control Unit, MCU)를 포함할 수 있다.For example, the first processor 141 may include an image signal processor processing front image data of the front camera 110 and/or a digital signal processor processing radar data of the radars 120 and 130 and/or a braking signal. and a micro control unit (MCU) that generates a steering signal.

제1프로세서(141)는 전방 카메라(110)의 전방 영상 데이터와 전방 레이더(120)의 전방 레이더 데이터에 기초하여 차량(1) 전방의 장애물들(예를 들어, 다른 차량, 보행자, 사이클리스트, 연석, 가드레일, 가로수, 가로등 등)을 감지할 수 있다.The first processor 141 detects obstacles (eg, other vehicles, pedestrians, cyclists, curbs) in front of the vehicle 1 based on the front image data of the front camera 110 and the front radar data of the front radar 120. , guardrails, street trees, streetlights, etc.) can be detected.

구체적으로, 제1프로세서(141)는 전방 레이더(120)의 전방 레이더 데이터에 기초하여 차량(1) 전방의 장애물들의 위치 정보(거리 및 방향) 및 속도 정보(상대 속도)를 획득할 수 있다. 제프로세서(141)는 전방 카메라(110)의 전방 영상 데이터에 기초하여 차량(1) 전방의 장애물들의 위치 정보(방향) 및 유형 정보(예를 들어, 장애물이 다른 차량인지, 또는 보행자인지, 또는 사이클리스트인지, 또는 연석인지, 또는 가드레일인지, 또는 가로수인지, 또는 가로등인지 등)를 획득할 수 있다.Specifically, the first processor 141 may obtain location information (distance and direction) and speed information (relative speed) of obstacles in front of the vehicle 1 based on front radar data of the front radar 120. Based on the front image data of the front camera 110, the processor 141 performs location information (direction) and type information (for example, whether the obstacle is another vehicle or a pedestrian, or whether it is a cyclist, or a curb, or a guardrail, or a street tree, or a streetlight, etc.).

또한, 제1프로세서(141)는 전방 영상 데이터에 의하여 감지된 장애물들을 전방 레이더 데이터에 의한 감지된 장애물에 매칭하고, 매칭 결과에 기초하여 차량(1)의 전방 장애물들의 유형 정보와 위치 정보와 속도 정보를 획득할 수 있다.In addition, the first processor 141 matches the obstacles detected by the front image data with the obstacles detected by the front radar data, and based on the matching result, the type information, location information, and speed of the obstacles in front of the vehicle 1 information can be obtained.

제1프로세서(141)는 전방 장애물들의 유형 정보와 위치 정보와 속도 정보에 기초하여 가속 신호, 제동 신호와 조향 신호를 생성할 수 있다.The first processor 141 may generate an acceleration signal, a braking signal, and a steering signal based on type information, location information, and speed information of forward obstacles.

예를 들어, 제1프로세서(141)는 전방 장애물들의 위치 정보(상대 거리)와 속도 정보(상대 속도)에 기초하여 차량(1)과 전방 장애물 사이의 충돌까지의 시간(Time to Collision, TTC)를 산출하고, 충돌까지의 시간과 미리 정해진 기준 시간 사이의 비교 결과에 기초하여 운전자에게 충돌을 경보하거나 제동 신호를 제동 시스템(32)으로 전송하거나, 조향 신호를 조향 시스템(42)에 전송할 수 있다.For example, the first processor 141 calculates the time to collision (TTC) between the vehicle 1 and the front obstacle based on position information (relative distance) and speed information (relative speed) of the front obstacles. Calculate , and based on the comparison result between the time until the collision and the predetermined reference time, the driver may be alerted to a collision, a braking signal may be transmitted to the braking system 32, or a steering signal may be transmitted to the steering system 42. .

제1프로세서(141)는 전방 장애물들의 위치 정보 중 방향 정보에 기초하여 조향 신호를 조향 시스템(42)에 전송할 수 있다.The first processor 141 may transmit a steering signal to the steering system 42 based on direction information among position information of front obstacles.

다른 예로, 제1프로세서(141)는 전방 장애물들의 속도 정보(즉 상대 속도)에 기초하여 충돌까지의 거리(Distance to Collision, DTC)를 산출하고, 충돌까지의 거리와 전방 장애물들까지의 거리 사이의 비교 결과에 기초하여 운전자에게 충돌을 경보하거나 제동 신호를 제동 시스템(32)으로 전송할 수 있다.As another example, the first processor 141 calculates a distance to collision (DTC) based on speed information (ie, relative speed) of front obstacles, and between the distance to collision and the distance to front obstacles. Based on the comparison result, the driver may be alerted to a collision or a braking signal may be transmitted to the braking system 32 .

제1프로세서(141)는 복수의 코너 레이더들(130)의 코너 레이더 데이터에 기초하여 차량(1) 측방(전방 우측, 전방 좌측, 후방 우측, 후방 좌측)의 장애물들의 위치 정보(거리 및 방향) 및 속도 정보(상대 속도)를 획득할 수 있다.The first processor 141 provides positional information (distance and direction) of obstacles on the sides (front right, front left, rear right, rear left) of the vehicle 1 based on the corner radar data of the plurality of corner radars 130. and speed information (relative speed).

제1메모리(142)는 제1프로세서(141)가 영상 데이터를 처리하기 위한 프로그램 및/또는 데이터와, 레이더 데이터를 처리하기 위한 프로그램 및/또는 데이터와, 프로세서(141)가 제동 신호 및/또는 조향 신호를 생성하기 위한 프로그램 및/또는 데이터를 저장할 수 있다.The first memory 142 includes a program and/or data for the first processor 141 to process image data, a program and/or data for processing radar data, and a braking signal and/or data for the processor 141 to process. A program and/or data for generating a steering signal may be stored.

제1메모리(142)는 전방 카메라(110)로부터 수신된 영상 데이터 및/또는 레이더들(120, 130)로부터 수신된 레이더 데이터를 임시로 기억하고, 프로세서(141)의 영상 데이터 및/또는 레이더 데이터의 처리 결과를 임시로 기억할 수 있다.The first memory 142 temporarily stores image data received from the front camera 110 and/or radar data received from the radars 120 and 130, and image data and/or radar data of the processor 141. The result of processing can be temporarily stored.

제1메모리(142)는 S램(S-RAM), D램(D-RAM) 등의 휘발성 메모리뿐만 아니라 플래시 메모리, 롬(Read Only Memory, ROM), 이피롬(Erasable Programmable Read Only Memory: EPROM) 등의 비휘발성 메모리를 포함할 수 있다.The first memory 142 includes not only volatile memories such as S-RAM and D-RAM, but also flash memory, read only memory (ROM), and erasable programmable read only memory (EPROM). ).

도 4는 실시 예에 따른 차량에 마련된 운전자 보조 시스템의 제어 구성도로, 크루즈 컨트롤 모드를 수행하는 운전자 보조 시스템의 제어 구성도이다.4 is a control configuration diagram of a driver assistance system provided in a vehicle according to an embodiment, and is a control configuration diagram of a driver assistance system performing a cruise control mode.

운전자 보조 시스템의 제어 구성은, 도 2와 같이 설계되는 것도 가능하지만, 도 4와 같이 설계되는 것도 가능하다. 본 실시 예에서는 도 4의 제어 구성을 예를 들어 설명하도록 한다. The control configuration of the driver assistance system may be designed as shown in FIG. 2 , but may also be designed as shown in FIG. 4 . In this embodiment, the control configuration of FIG. 4 will be described as an example.

즉 운전자 보조 시스템(200)은, 통신부(200a), 제2프로세서(200b) 및 제2메모리(200c)를 포함할 수 있고, 통신부(200ㅁ)를 통해 차량 내에 마련된 각종 장치와 통신을 수행할 수 있다.That is, the driver assistance system 200 may include a communication unit 200a, a second processor 200b, and a second memory 200c, and communicate with various devices provided in the vehicle through the communication unit 200ㅁ. can

본 실시 예에 의한 운전자 보조 시스템(200) 내에 마련된 프로세서와 차량(1) 내에 마련된 프로세서 간의 구별을 위해, 본 실시 예에 의한 운전자 보조 시스템(200) 내에 마련된 프로세서를 제2프로세서'로 기재하고 차량(1) 내에 마련된 프로세서를 '제3 프로세서'로 기재하도록 한다.In order to distinguish between the processor provided in the driver assistance system 200 according to the present embodiment and the processor provided in the vehicle 1, the processor provided in the driver assistance system 200 according to the present embodiment is described as a 'second processor' and the vehicle The processor provided in (1) is described as a 'third processor'.

통신부(200a)는 운전자 보조 시스템(200) 내 각종 전자 장치와 통신을 수행할 수 있고, 차량(1) 내 각종 전자 장치와 통신을 수행할 수도 있다.The communication unit 200a may communicate with various electronic devices in the driver assistance system 200 and may also communicate with various electronic devices in the vehicle 1 .

통신부(200a)는 외부 장치와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.The communication unit 200a may include one or more components enabling communication with an external device, and may include, for example, at least one of a short-distance communication module, a wired communication module, and a wireless communication module.

근거리 통신 모듈은 블루투스 모듈, 적외선 통신 모듈, RFID(Radio Frequency Identification) 통신 모듈, WLAN(Wireless Local Access Network) 통신 모듈, NFC 통신 모듈, 직비(Zigbee) 통신 모듈 등 근거리에서 무선 통신망을 이용하여 신호를 송수신하는 다양한 근거리 통신 모듈을 포함할 수 있다.The short-range communication module uses a wireless communication network such as a Bluetooth module, an infrared communication module, a Radio Frequency Identification (RFID) communication module, a Wireless Local Access Network (WLAN) communication module, an NFC communication module, and a Zigbee communication module to transmit signals at a short distance. It may include various short-range communication modules that transmit and receive.

유선 통신 모듈은 캔(Controller Area Network; CAN) 통신 모듈, 지역 통신(Local Area Network; LAN) 모듈, 광역 통신(Wide Area Network; WAN) 모듈 또는 부가가치 통신(Value Added Network; VAN) 모듈 등 다양한 유선 통신 모듈뿐만 아니라, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), DVI(Digital Visual Interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 다양한 케이블 통신 모듈을 포함할 수 있다. Wired communication modules include various wired communication modules, such as Controller Area Network (CAN) communication modules, Local Area Network (LAN) modules, Wide Area Network (WAN) modules, or Value Added Network (VAN) modules. In addition to communication modules, various cable communications such as USB (Universal Serial Bus), HDMI (High Definition Multimedia Interface), DVI (Digital Visual Interface), RS-232 (recommended standard 232), power line communication, or POTS (plain old telephone service) modules may be included.

무선 통신 모듈은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution) 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.In addition to the WiFi module and the WiBro module, wireless communication modules include global system for mobile communication (GSM), code division multiple access (CDMA), wideband code division multiple access (WCDMA), and universal mobile telecommunications system (UMTS). ), a wireless communication module supporting various wireless communication schemes such as Time Division Multiple Access (TDMA) and Long Term Evolution (LTE).

이러한 통신부(200a)는 운전자 보조 시스템이 아닌 차량에 마련되는 것도 가능하다. 이 경우 차량에 마련된 통신부는 운전자 보조 시스템의 제2프로세서와 통신을 수행할 수 있다.Such a communication unit 200a may also be provided in a vehicle other than a driver assistance system. In this case, the communication unit provided in the vehicle may perform communication with the second processor of the driver assistance system.

통신부(200a)는 운전자 보조 시스템과 차량(1) 내에 각각 마련될 수 있고, 운전자 보조 시스템의 통신부와 차량(1) 내에 마련된 통신부는 서로 통신을 수행하는 것도 가능하다.The communication unit 200a may be provided in the driver assistance system and the vehicle 1, respectively, and the communication unit of the driver assistance system and the communication unit provided in the vehicle 1 may communicate with each other.

제2프로세서(200b)는 통신부를 통해 제3프로세서와 정보 또는 신호를 송신 및 수신할 수 있다.The second processor 200b may transmit and receive information or signals with the third processor through the communication unit.

제2프로세서(200b)는 제3프로세서(250)로부터 웨이크 업 명령이 수신되면 웨이크 업을 수행한 후 크루즈 컨트롤 모드를 수행하고, 제3프로세서(250)로부터 슬립 명령이 수신되면 크루즈 컨트롤 모드를 종료하고 슬립 모드로 전환할 수 있다.The second processor 200b wakes up when a wake-up command is received from the third processor 250 and then performs a cruise control mode, and ends the cruise control mode when a sleep command is received from the third processor 250. and switch to sleep mode.

제2프로세서(200b)는 크루즈 컨트롤 모드를 수행할 때 통신부(200a)를 통해 제3프로세서에서 전송된 영상 정보, 주행 정보 및 장애물 정보를 수신할 수 있고, 가속 신호, 감속 신호 및 조향 신호 중 적어도 하나를 통신부(200a)를 통해 제3프로세서에 전송할 수 있다.When performing the cruise control mode, the second processor 200b may receive image information, driving information, and obstacle information transmitted from the third processor through the communication unit 200a, and may receive at least one of an acceleration signal, a deceleration signal, and a steering signal. One may be transmitted to the third processor through the communication unit 200a.

제2프로세서(200b)는 크루즈 컨트롤 모드를 수행할 때 목표 주행 속도로 주행하도록 제어하고, 장애물 검출부(220)에 의해 검출된 장애물 정보에 기초하여 가속 신호 또는 감속 신호를 생성함으로써 장애물 회피를 위한 차량(1)의 가속 또는 감속이 수행되도록 할 수 있다.The second processor 200b controls the vehicle to drive at the target driving speed when performing the cruise control mode and generates an acceleration signal or deceleration signal based on the obstacle information detected by the obstacle detection unit 220 to avoid obstacles. Acceleration or deceleration of (1) can be performed.

제2프로세서(200b)는 장애물을 회피하기 위한 조향 신호를 생성하는 것도 가능하고, 충돌 위험 정보의 출력을 제어하는 것도 가능하다. 여기서 충돌 위험 정보는 사용자에 의한 충돌 위험 알림 모드의 선택 여부에 따라 출력되거나, 출력되지 않을 수 있다. The second processor 200b can also generate a steering signal for avoiding an obstacle and control the output of collision risk information. Here, the collision risk information may or may not be output depending on whether the collision risk notification mode is selected by the user.

제2프로세서(200b)는 크루즈 컨트롤 모드의 수행 중 장애물 검출부(220)에서 검출된 장애물 정보에 기초하여 전방에 장애물이 없다고 판단되면 속도 검출부(231)에 의해 검출된 주행 속도 정보에 기초하여 차량(1)이 목표 주행 속도로 주행하도록 제어할 수 있다.When it is determined that there is no obstacle ahead based on the obstacle information detected by the obstacle detection unit 220 while the cruise control mode is being performed, the second processor 200b determines the vehicle ( 1) can be controlled to travel at the target travel speed.

제2프로세서(200b)는 크루즈 컨트롤 모드의 수행 중 장애물 검출부(220)에서 검출된 장애물 정보에 기초하여 전방에 장애물이 존재한다고 판단되면 장애물의 위치 정보와 장애물의 속도 정보 및 속도 검출부(231)에 의해 검출된 주행 속도 정보에 기초하여 주행 속도를 조절하면서 주행하도록 제어할 수 있다.When the second processor 200b determines that there is an obstacle in front based on the obstacle information detected by the obstacle detection unit 220 during the cruise control mode, the second processor 200b transmits the position information of the obstacle, the speed information of the obstacle, and the speed detection unit 231. Based on the travel speed information detected by the controller, the vehicle may be controlled to travel while adjusting the travel speed.

즉 제2프로세서(200b)는 크루즈 컨트롤 모드의 수행 중 차량(1)의 주행 경로 내의 전방에서 주행하는 하나 또는 두 대 이상의 타 차량의 주행 정보에 기초하여 가속 또는 감속을 제어할 수 있다. 여기서 하나 또는 두 대 이상의 타 차량은, 크루즈 컨트롤 모드의 수행 중 충돌 방지를 위한 타깃 차량일 수 있다.That is, while performing the cruise control mode, the second processor 200b may control acceleration or deceleration based on driving information of one or two or more other vehicles traveling in front within the driving route of the vehicle 1 . Here, one or two or more other vehicles may be a target vehicle for collision prevention during execution of the cruise control mode.

제2프로세서(200b)는 크루즈 컨트롤 모드의 수행 중 장애물 검출부(220)에서 검출된 장애물 정보에 기초하여 전방의 제1타깃 차량(2)의 주행 정보 및 제2 타깃 차량(3)의 주행 정보를 획득하고 획득한 전방의 제1 타깃 차량(2)의 주행 정보 및 제2 타깃 차량(3)의 주행 정보에 기초하여 감속 신호 또는 가속 신호를 생성할 수 있다. 여기서 전방의 제1, 2 타깃 차량의 주행 정보는 상대 속도 정보 및 상대 거리 정보를 포함할 수 있다.The second processor 200b transmits driving information of the first target vehicle 2 and driving information of the second target vehicle 3 in front based on the obstacle information detected by the obstacle detection unit 220 during the cruise control mode. A deceleration signal or an acceleration signal may be generated based on the acquired driving information of the first target vehicle 2 and the driving information of the second target vehicle 3 in front. Here, driving information of the first and second target vehicles in front may include relative speed information and relative distance information.

좀 더 구체적으로, 제2프로세서(200b)는 크루즈 컨트롤 모드의 수행 중 장애물 검출부(220)에서 검출된 장애물 정보에 기초하여 제1 타깃 차량(2)과의 상대 거리 정보 및 상대 속도 정보를 획득하고, 획득된 제1 타깃 차량(2)과의 상대 거리 정보 및 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성하고, 제1 타깃 차량이 컷 아웃 상태일 때 제2 타깃 차량(3)의 상대 거리 정보 및 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성할 수 있다.More specifically, the second processor 200b obtains relative distance information and relative speed information with the first target vehicle 2 based on the obstacle information detected by the obstacle detection unit 220 while performing the cruise control mode, , An acceleration signal or a deceleration signal is generated based on the obtained relative distance information and relative speed information with the first target vehicle 2, and when the first target vehicle is in a cut-out state, the relative distance of the second target vehicle 3 is generated. An acceleration signal or deceleration signal may be generated based on the distance information and the relative speed information.

제2프로세서(200b)는 통신부(200a)에 수신된 정보들 중 차량(1)의 주행 경로 상에 존재하는 낙석, 보행자, 자전거나 차단기 등의 장애물에 대한 장애물의 정보에 기초하여 감속 및 제동을 제어하는 것도 가능하다. The second processor 200b decelerates and brakes based on information about obstacles such as falling rocks, pedestrians, bicycles, and barriers existing on the driving path of the vehicle 1 among the information received by the communication unit 200a. It is also possible to control.

제2프로세서(200b)는 압력 검출부(234)에서 검출된 압력 정보에 기초하여 크루즈 컨트롤 모드의 해제를 제어할 수 있다. 이 경우 제3프로세서는 압력 검출부(234)에서 검출된 압력 정보에 기초하여 차량의 제동을 제어할 수 있다.The second processor 200b may control release of the cruise control mode based on pressure information detected by the pressure detector 234 . In this case, the third processor may control braking of the vehicle based on pressure information detected by the pressure detector 234 .

제2프로세서(200b)는 수신된 영상 획득부(240)의 전방 카메라(120)의 전방 도로와 측방 도로의 영상 정보에 기초하여 전방에서 주행하는 제1타깃 차량이 컷 아웃 상태인지를 판단할 수 있다. 이를 도 5a, 도 5b 및 도 5c를 참조하여 설명한다.The second processor 200b may determine whether the first target vehicle driving in the front is in a cut-out state based on the received image information of the front road and the side road of the front camera 120 of the image acquisition unit 240. there is. This will be described with reference to FIGS. 5A, 5B and 5C.

도 5a에 도시된 바와 같이 차량(1)이 주행하고 있는 상태에서, 도 5b에 도시된 바와 같이, 제2프로세서(200b)는 영상 획득부(240)에서 획득된 영상 정보 기초하여 자 차량의 전방 및 측방 도로에 대한 영상(M)을 획득할 수 있다.As shown in FIG. 5A , while the vehicle 1 is driving, as shown in FIG. 5B , the second processor 200b based on the image information acquired by the image acquisition unit 240 is the front of the vehicle. and an image M of a side road may be acquired.

제2프로세서(200b)는 획득된 영상에 대한 3차원 차량 검출 영상(3D vehicle detection (3DVD) image)을 생성할 수 있다.The second processor 200b may generate a 3D vehicle detection (3DVD) image for the obtained image.

좀 더 구체적으로, 제2프로세서(200b)는 타 차량, 보행자, 자전거, 스쿠터 등 도로 위에서 움직일 수 있는 장애물들을 인식하고, 차선을 인식하며 도로 표면 종류 및 상태, 각도, 높낮이, 각 차선의 종류를 인식하며, 커브, 가드레일 등 주행 가능한 도로에 대한 경계를 구분하고, 도로 위나 주변의 신호등 및 표지판 또는 보행자의 움직임이나 타 차량의 램프 점등 여부를 인식한다.More specifically, the second processor 200b recognizes obstacles that can move on the road, such as other vehicles, pedestrians, bicycles, and scooters, and recognizes lanes, and the type and condition of the road surface, angle, height, and type of each lane. It recognizes, distinguishes the boundaries for drivable roads such as curves and guardrails, and recognizes whether traffic lights and signs on or around the road, movement of pedestrians, or whether lamps of other vehicles are turned on.

제2프로세서(200b)는 영상을 픽셀 단위로 차량 및 사물들의 외형(Appearance), 원근감이나 움직임 등을 통해 3차원의 깊이(Geometry)를 인식하고 인식 정보에 기초하여 영상 획득부에서 획득된 2차원(2D) 영상을 3차원(3D) 영상으로 변환한다.The second processor 200b recognizes the 3D depth (Geometry) of the image in pixel units through the appearance, perspective or movement of vehicles and objects, and the 2D image acquired by the image acquisition unit based on the recognition information. (2D) image is converted into a three-dimensional (3D) image.

즉 제2프로세서(200b)는 2차원 영상 정보에 기초하여 장애물을 검색하여 박스화하여 외형(appearance)을 확인한 후 신경망을 통해 학습하고. 학습 정보에 기초하여 3차원의 깊이(Geometry) 정보를 인식할 수 있다. That is, the second processor 200b searches for obstacles based on 2D image information, boxes them, checks their appearance, and then learns them through a neural network. Based on the learning information, 3D depth (geometry) information may be recognized.

제2프로세서(200b)는 영상 정보를 장애물 검출부에서 검출된 장애물 정보에 주입하여 인공지능 신경망 학습을 수행하는 것도 가능하다.The second processor 200b may perform artificial intelligence neural network learning by injecting image information into obstacle information detected by the obstacle detection unit.

제2프로세서(200b)는 미리 저장된 고정밀 지도(HD 맵)을 활용하여 도로의 형태나 깊이, 각도, 높낮이 등을 구분해 3차원 영상 정보를 획득하는 것도 가능하다.The second processor 200b may obtain 3D image information by distinguishing the shape, depth, angle, height, etc. of the road by utilizing a pre-stored high-definition map (HD map).

도 5b에 도시된 바와 같이, 제2프로세서(200b)는 3차원 영상 정보에 기초하여 영상(M) 내 차선 오브젝트들(L1, L2, L3, L4, L5)를 인식하고, 인식된 차선 오브젝트들의 위치 정보에 기초하여 차량(1)이 주행하고 있는 자 차로(즉 제1차로라고도 함) 오브젝트(R1)를 인식하고, 영상 정보에 기초하여 장애물 오브젝트를 인식하고 인식된 장애물 오브젝트(2M, 3M, 4M) 중 자 차로를 주행하되 차량의 전방에서 주행하는 제1타킷 차량(2)에 대한 제1타킷 차량 오브젝트(2M)를 인식할 수 있다.As shown in FIG. 5B, the second processor 200b recognizes lane objects L1, L2, L3, L4, and L5 in the image M based on the 3D image information, and recognizes lane objects L1, L2, L3, L4, and L5. Based on the location information, an object R1 is recognized in the own lane on which the vehicle 1 is traveling (that is, also referred to as a first lane), an obstacle object is recognized based on the image information, and the recognized obstacle objects 2M, 3M, 4M), it is possible to recognize the first target vehicle object 2M for the first target vehicle 2 driving in its own lane but in front of the vehicle.

제2프로세서(200b)는 자 차로를 이루는 양쪽 차선인 제1차선 오브젝트(L1)와 제2차선 오브젝트(L2)를 확인하고 확인한 제1차선 오브젝트(L1)의 위치 정보, 제2차선 오브젝트(L2)의 위치 정보 및 제1타깃 차량 오브젝트(2M)의 위치 정보에 기초하여 제1타깃 차량(2)이 컷 아웃 상태인지를 판단한다.The second processor 200b checks the first lane object L1 and the second lane object L2, which are both lanes constituting the own lane, and determines the location information of the first lane object L1 and the second lane object L2. ) and the location information of the first target vehicle object 2M, it is determined whether the first target vehicle 2 is in a cut-out state.

여기서 제1타킷 차량의 컷 아웃 상태는, 제1타깃 차량(2)의 일부의 위치 정보와 제1차선의 위치 정보가 동일한 것을 포함한다. 즉, 제1타킷 차량(2)의 컷 아웃 상태는 제1타깃 차량(2)의 일부가 제1차선(L1) 상에 위치하는 상태일 수 있다.Here, the cut-out state of the first target vehicle includes the case where the location information of part of the first target vehicle 2 and the location information of the first lane are the same. That is, the cut-out state of the first target vehicle 2 may be a state in which a part of the first target vehicle 2 is located on the first lane L1.

또한 제1타킷 차량(2)의 컷 아웃 상태는, 제1타깃 차량(2)의 일부의 위치 정보와 제2차선(L2)의 위치 정보가 동일한 것을 포함한다. 즉, 제1타킷 차량(2)의 컷 아웃 상태는 제1타깃 차량(2)의 일부가 제2차선(L2) 상에 위치하는 상태일 수 있다.In addition, the cut-out state of the first target vehicle 2 includes the case where the location information of part of the first target vehicle 2 and the location information of the second lane L2 are the same. That is, the cut-out state of the first target vehicle 2 may be a state in which a part of the first target vehicle 2 is located on the second lane L2.

제2프로세서(200b)는 제1타킷 차량(2)이 컷 아웃 상태일 때, 제1타깃 차량 오브젝트(M2)와 오버랩된 차선 오브젝트(L1)를 획득하고 획득한 차선 오브젝트(L1)를 기준으로 제1타깃 차량 오브젝트(2M)의 영역을 자 차로 오브젝트(R1)에 위치하는 제1 영역(A1)과 타 차로 오브젝트(R2)에 위치하는 제2 영역(A2)으로 구분하고, 제1영역(A1)의 면적 정보를 획득하고 획득된 제1 영역(A1)의 면적 정보에 기초하여 제1타킷 차량(2)과의 충돌 위험도을 판단할 수 있다. When the first target vehicle 2 is in a cut-out state, the second processor 200b obtains a lane object L1 overlapped with the first target vehicle object M2, and based on the acquired lane object L1 The area of the first target vehicle object 2M is divided into a first area A1 located in the object R1 of the own vehicle and a second area A2 located in the object R2 by another vehicle, and the first area ( Area information of A1) may be obtained, and a risk of collision with the first target vehicle 2 may be determined based on the obtained area information of the first area A1 .

제2프로세서(200b)는 3차원 차량 검출 영상 정보에 기초하여 제1타깃 차량의 종방향 위치(longitudinal position) 정보, 횡방향 위치(lateral position) 정보, 길이(length) 정보, 폭(width) 정보, 헤딩 각도(heading angle) 정보를 획득하고 획득된 정보들에 기초하여 제1영역의 면적을 획득할 수 있다. The second processor 200b generates longitudinal position information, lateral position information, length information, and width information of the first target vehicle based on the 3D vehicle detection image information. , heading angle information may be obtained, and the area of the first region may be obtained based on the obtained information.

헤딩 각도(heading angle)는 차선을 기준으로 제1타깃 차량의 프론트 패널이 회전한 각도일 수 있다. The heading angle may be an angle at which the front panel of the first target vehicle is rotated based on the lane.

이러한 3차원 차량 검출 영상 정보는 영상 획득부에서 획득되거나, 제3프로세서에서 획득되는 것도 가능하다. 이 경우, 제2프로세서(200b)는 영상 획득부나 제3프로세서로부터 3차원 차량 검출 영상 정보를 제공받을 수 있다.This 3D vehicle detection image information may be acquired by an image acquisition unit or acquired by a third processor. In this case, the second processor 200b may receive 3D vehicle detection image information from the image acquisition unit or the third processor.

제2프로세서(200b)는 종방향 위치 정보와 횡방향 위치 정보에 기초하여 제1 타깃 차량의 리어 패널까지의 거리 정보(D)를 획득할 수 있다.The second processor 200b may obtain distance information D to the rear panel of the first target vehicle based on the longitudinal location information and the lateral location information.

아울러 제2프로세서(200b)는 제1타킷 차량(2)의 타 차로로의 차로 변경 의지가 존재하는지를 판단하는 것도 가능하다. In addition, the second processor 200b may determine whether or not the intention to change the lane to another lane of the first target vehicle 2 exists.

도 5b에 도시된 바와 같이, 제2프로세서(200b)는 획득된 제1 영역(A1)의 면적 정보에 기초하여 획득된 제1 영역(A1)의 면적이 기준 면적 이하라고 판단되면 충돌 위험도가 기준 위험도 이하라고 판단하여 영상 내에서 제2 타깃 차량 오브젝트(3M)를 인식하고, 영상 정보 및 장애물 검출부에 의해 검출된 장애물 정보에 기초하여 인식한 제2타깃 차량 오브젝트(2M)에 대응하는 제2타킷 차량(2)의 주행 정보를 획득하고, 획득한 제2타킷 차량(2)의 주행 정보에 기초하여 가속 신호 또는 감속 신호를 생성할 수 있다. As shown in FIG. 5B , if the second processor 200b determines that the acquired area of the first area A1 is less than or equal to the reference area based on the acquired area information of the first area A1, the collision risk is determined as the reference area. A second target corresponding to the second target vehicle object 2M recognized based on the image information and the obstacle information detected by the obstacle detection unit is determined to be less than or equal to the risk level and the second target vehicle object 3M is recognized in the image. Driving information of the vehicle 2 may be obtained, and an acceleration signal or deceleration signal may be generated based on the acquired driving information of the second target vehicle 2 .

도 5c에 도시된 바와 같이, 제2프로세서(200b)는 획득된 제1 영역(A1)의 면적 정보에 기초하여 획득된 제1 영역(A1)의 면적이 기준 면적을 초과한다고 판단되면 제1타킷 차량(2)이 컷 아웃 상태이나 제1타킷 차량(2)과의 충돌 위험도가 기준 위험도를 초과한다고 판단하고 제1 타깃 차량(2)의 상대 거리 정보, 상대 속도 정보와 제2타깃 차량(3)의 상대 거리 정보 및 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성할 수 있다.As shown in FIG. 5C , the second processor 200b determines that the area of the first area A1 exceeds the reference area based on the obtained area information of the first area A1 , the first target The vehicle 2 is in a cut-out state, but it is determined that the risk of collision with the first target vehicle 2 exceeds the standard risk, and the relative distance information and relative speed information of the first target vehicle 2 and the second target vehicle 3 ), an acceleration signal or a deceleration signal may be generated based on the relative distance information and relative speed information.

여기서 기준 면적은, 제1 타깃 차량의 종류에 따라 상이할 수 있다.Here, the reference area may be different according to the type of the first target vehicle.

제2프로세서(200b)는 제1타킷 차량 오브젝트(2M)의 영역 중 제1영역(A1)의 면적에 기초하여 제1타킷 차량(2)이 컷 아웃 상태인지를 1차로 판단한 후, 제1타깃 차량 오브젝트(2M)에서 리어 패널 오브젝트를 획득하고, 획득한 리어 패널 오브젝트의 위치 정보와 중첩된 차선 오브젝트의 위치 정보를 획득하며, 획득한 리어 패널 오브젝트의 위치 정보와 중첩된 차선 오브젝트의 위치 정보에 기초하여 리어 패널 오브젝트와 중첩된 차선 오브젝트 사이의 거리 정보(D)를 획득하고, 획득된 거리 정보와 장애물 검출부에 의해 검출된 제1타깃 차량(2)의 횡방향 상대 속도 정보에 기초하여 제1타킷 차량(2)이 컷 아웃 상태인지를 2차로 판단할 수 있다.The second processor 200b first determines whether the first target vehicle 2 is in a cutout state based on the area of the first area A1 among the areas of the first target vehicle object 2M, and then determines whether the first target vehicle 2 is in a cutout state. A rear panel object is acquired from the vehicle object 2M, the acquired location information of the rear panel object and the overlapped location information of the lane object are obtained, and the acquired location information of the rear panel object and the overlapped location information of the lane object are obtained. Based on the obtained distance information D between the rear panel object and the overlapping lane object, and based on the obtained distance information and the lateral relative speed information of the first target vehicle 2 detected by the obstacle detection unit, the first It is possible to secondarily determine whether the target vehicle 2 is in a cut-out state.

제2프로세서(200b)는 종방향 위치 정보와 횡방향 위치 정보에 기초하여 제1 타깃 차량의 리어 패널까지의 거리 정보(D)를 획득할 수 있다.The second processor 200b may obtain distance information D to the rear panel of the first target vehicle based on the longitudinal location information and the lateral location information.

제2프로세서(200b)는 제1타킷 차량(2)이 컷 아웃 상태일 때, 제 제1영역(A1)의 면적의 전체 영역(A1+A2)의 면적에 대한 비율(A1/A1+A2)을 획득하고 획득한 비율에 기초하여 제1타킷 차량(2)과의 충돌 위험도를 판단하는 것도 가능하다.The second processor 200b determines the ratio (A1/A1+A2) of the area of the first area A1 to the area of the total area A1+A2 when the first target vehicle 2 is in the cut-out state. It is also possible to obtain and determine the risk of collision with the first target vehicle 2 based on the obtained ratio.

좀 더 구체적으로, 제2프로세서(200b)는 획득한 비율이 기준 비율 이하라고 판단되면 제1타킷 차량(2)과의 충돌 위험도가 기준 위험도 이하라고 판단하여 영상 내에서 제2 타깃 차량 오브젝트(3M)를 인식하고, 영상 정보 및 장애물 검출부(220)에 의해 검출된 장애물 정보에 기초하여 인식한 제2타깃 차량 오브젝트(3M)에 대응하는 제2타킷 차량(3)의 주행 정보를 획득하고, 획득한 제2타킷 차량(3)의 주행 정보에 기초하여 가속 신호 또는 감속 신호를 생성할 수 있다. More specifically, when the obtained ratio is determined to be less than or equal to the reference ratio, the second processor 200b determines that the risk of collision with the first target vehicle 2 is less than or equal to the reference risk, and determines that the second target vehicle object (3M) is displayed in the image. ) is recognized, and driving information of the second target vehicle 3 corresponding to the recognized second target vehicle object 3M is obtained based on the image information and the obstacle information detected by the obstacle detection unit 220, and the acquisition An acceleration signal or deceleration signal may be generated based on driving information of one second target vehicle 3 .

제2프로세서(200b)는 획득한 비율이 기준 비율을 초과한다고 판단되면 제1타깃 차량(2)이 컷 아웃 상태이나 제1타깃 차량(2)과의 충돌 위험도가 기준 위험도를 초과한다고 판단하고 제1 타깃 차량(2)의 주행 정보와 제2타깃 차량(3)의 주행 정보에 기초하여 가속 신호 또는 감속 신호를 생성할 수 있다.When it is determined that the obtained ratio exceeds the reference ratio, the second processor 200b determines that the first target vehicle 2 is in a cut-out state, but the risk of collision with the first target vehicle 2 exceeds the reference risk, and An acceleration signal or a deceleration signal may be generated based on the driving information of the first target vehicle 2 and the driving information of the second target vehicle 3 .

여기서 기준 비율은, 제1 타깃 차량의 종류에 따라 상이할 수 있다.Here, the reference ratio may be different according to the type of the first target vehicle.

제2프로세서(200b)는 영상 내 자 차로의 양쪽 차선 오브젝트를 인식하고 인식한 양쪽 차선 오브젝트 중 어느 하나의 차선 오브젝트와 제3타깃 차량(4)에 대한 제3타깃 차량 오브젝트(4M)가 오버랩된다고 판단되면 제3타깃 차량 오브젝트(4M)의 영역 중 자 차로 오브젝트(R1)에 위치한 제3 타깃 차량 오브젝트(4M)의 영역의 면적을 획득하고 획득한 면적에 기초하여 제3 타깃 차량의 컷 인 상태를 판단하는 것도 가능하다.The second processor 200b recognizes both lane objects of the own lane in the image and determines that one of the recognized lane objects overlaps with the third target vehicle object 4M for the third target vehicle 4. If determined, the area of the area of the third target vehicle object 4M located in the object R1 of the third target vehicle object 4M among the areas of the third target vehicle object 4M is obtained, and the cut-in state of the third target vehicle is obtained based on the obtained area. It is also possible to judge

제2프로세서(200b)는 제1타깃 차량(2)에게 차로 변경 의지가 존재한다고 판단되면 장애물 검출부(220)에 의해 검출된 장애물 정보와 영상 획득부(240)에 의해 획득된 영상 정보에 기초하여 제3타깃 차량(3)을 획득하고, 획득한 제3타깃 차량(3)과의 상대 거리 정보 및 상대 속도 거리 정보에 기초하여 가속신호 또는 감속 신호를 생성할 수 있다.When the second processor 200b determines that the first target vehicle 2 has a willingness to change lanes, the second processor 200b based on the obstacle information detected by the obstacle detection unit 220 and the image information obtained by the image acquisition unit 240 The third target vehicle 3 may be obtained, and an acceleration signal or deceleration signal may be generated based on the acquired relative distance information and relative speed distance information with the third target vehicle 3 .

제2프로세서(200b)는 획득한 제3타깃 차량(3)과의 상대 거리 정보 및 상대 속도 거리 정보에 기초하여 목표 가속도 또는 목표 감속도를 획득하고 획득한 목표 가속도 또는 목표 감속도에 대응하는 가속신호 또는 감속 신호를 생성할 수 있다.The second processor 200b acquires a target acceleration or a target deceleration based on the acquired relative distance information and relative speed distance information with the third target vehicle 3 and accelerates corresponding to the obtained target acceleration or target deceleration. signal or deceleration signal can be generated.

제2프로세서(200b)는 제1타깃차량(2)이나 제2타깃 차량(3)과 충돌하기까지의 시간 정보 또는 제1타깃 차량(2)이나 제2타깃차량(3)과의 상대 거리 정보에 기초하여 엔진 시스템(12), 제동 시스템(32) 및 조향 시스템 중 적어도 하나의 동작이 제어되도록 할 수 있다.The second processor 200b provides time information or relative distance information with the first target vehicle 2 or the second target vehicle 3 until colliding with the first target vehicle 2 or the second target vehicle 3. Based on this, the operation of at least one of the engine system 12, the braking system 32, and the steering system may be controlled.

제2프로세서(200b)는 하나의 프로세서로 구현하는 것도 가능하다. The second processor 200b may also be implemented as a single processor.

도 6에 도시된 바와 같이, 제2프로세서(200b)는 복수 개의 프로세서로 구현하는 것도 가능하다.As shown in FIG. 6 , the second processor 200b may be implemented with a plurality of processors.

제2프로세서(200b)는 영상 획득부(240)에서 획득된 영상 정보를 신호 처리하여 노이즈를 제거하고 오브젝트들을 인식 및 분류하는 전처리 프로세서(b1)와, 영상 내 오브젝트들 중 제1타깃 차량(2)에 대한 제1타깃 차량 오브젝트를 인식하는 제1타깃 오브젝트 인식 프로세서(b2)와, 제1타깃 차량(2)이 컷 아웃 상태인지를 1차적으로 분석 및 판단하는 제1분석 프로세서(b3)와, 제1타깃 차량 오브젝트에 의해 형성되는 영역을 구분으로 구분된 영역들 중 제1영역의 면적 정보를 획득하는 면적 획득 프로세서(b4)와, 제1영역의 면적 정보에 기초하여 제1타깃 차량(2)이 컷 아웃 상태인지를 2차적으로 분석 및 판단하는 제2분석 프로세서(b5)와, 제2분석 프로세서에서의 분석 결과에 기초하여 인식한 오브젝트들 중 제2타깃 차량(2)에 대한 제2타깃 차량 오브젝트를 인식하는 제2타깃 오브젝트 인식 프로세서(b6)를 포함할 수 있다.The second processor 200b includes a preprocessor b1 for signal processing the image information acquired by the image acquisition unit 240 to remove noise and recognizing and classifying objects, and a first target vehicle 2 among objects in the image. A first target object recognition processor (b2) for recognizing a first target vehicle object for ) and a first analysis processor (b3) for primarily analyzing and determining whether the first target vehicle (2) is in a cut-out state; , an area acquisition processor (b4) for obtaining area information of a first area among areas divided into areas formed by the first target vehicle object, and a first target vehicle based on the area information of the first area ( 2) a second analysis processor (b5) that secondarily analyzes and determines whether the vehicle is in a cut-out state, and a second analysis processor (b5) for the second target vehicle (2) among objects recognized based on the analysis result in the second analysis processor A second target object recognizing processor b6 recognizing two target vehicle objects may be included.

제2분석 프로세서(b5)는 제1타깃 차량 오브젝트에서 제1타킷 차량(2)의 리어 패널에 대한 리어 패널 오브젝트를 인식하고, 인식한 리어 패널 오브젝트(RP)와 차선 오브젝트(L1) 사이의 거리 정보를 획득하고, 획득한 거리 정보와 제1영역의 면적 정보 및 제1타깃 차량(2)의 횡방향 속도 정보에 기초하여 제1타깃 차량(2)이 컷 아웃 상태인지를 2차적으로 분석 및 판단하는 것도 가능하다.The second analysis processor b5 recognizes a rear panel object for the rear panel of the first target vehicle 2 from the first target vehicle object, and calculates the distance between the recognized rear panel object RP and the lane object L1. Acquiring information, secondarily analyzing whether the first target vehicle 2 is in a cut-out state based on the acquired distance information, area information of the first area, and lateral speed information of the first target vehicle 2, and It is also possible to judge.

제2분석 프로세서(b5)는 장애물 검출부(220)에 의해 검출된 제1타깃 차량(2)의 상대 속도 정보 및 상대 거리 정보와, 주행 정보 검출부(230)에 의해 획득된 자 차량의 횡방향의 속도 정보에 기초하여 제1타깃 차량(2)의 횡방향 속도 정보를 획득할 수 있다.The second analysis processor b5 determines the relative speed information and relative distance information of the first target vehicle 2 detected by the obstacle detection unit 220 and the lateral direction of the own vehicle obtained by the driving information detection unit 230. Based on the speed information, lateral speed information of the first target vehicle 2 may be obtained.

오브젝트들은, 차선, 제1, 2 타깃 차량을 포함한 타 차량, 보행자, 가로등, 가로수, 중앙분리대와 같은 장애물에 대한 오브젝트 영상일 수 있다.Objects may be object images of lanes, other vehicles including first and second target vehicles, pedestrians, streetlights, street trees, and obstacles such as median barriers.

제2프로세서(200b)는 운전자 보조 시스템(200) 내 구성부들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리(미도시)를 더 포함할 수 있고 이 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행할 수 있다. The second processor 200b may further include a memory (not shown) for storing data for an algorithm or a program reproducing the algorithm for controlling the operation of components in the driver assistance system 200, and stored in the memory. The above-described operation may be performed using the data.

예를 들어, 메모리(미도시)는 제2프로세서(200b)가 영상 데이터를 처리하기 위한 프로그램 및/또는 데이터와, 레이더 데이터를 처리하기 위한 프로그램 및/또는 데이터와, 제2프로세서(200b)가 가속 신호, 제동 신호 및/또는 조향 신호를 생성하기 위한 프로그램 및/또는 데이터를 저장할 수 있다.For example, a memory (not shown) includes a program and/or data for processing image data by the second processor 200b, a program and/or data for processing radar data, and a program and/or data for processing radar data by the second processor 200b. Programs and/or data for generating acceleration signals, braking signals and/or steering signals may be stored.

메모리(미도시)는 전방 카메라(110)로부터 수신된 영상 데이터 및/또는 레이더들(120, 130)로부터 수신된 레이더 데이터를 임시로 기억하고, 제2프로세서(200b)의 영상 데이터 및/또는 레이더 데이터의 처리 결과를 임시로 기억할 수 있다.The memory (not shown) temporarily stores image data received from the front camera 110 and/or radar data received from the radars 120 and 130, and image data and/or radar data from the second processor 200b. Data processing results can be temporarily stored.

메모리(미도시)와 제2프로세서(200b)는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리(미도시)와 제2프로세서(200b)는 단일 칩으로 구현될 수도 있다.The memory (not shown) and the second processor 200b may be implemented as separate chips. Alternatively, the memory (not shown) and the second processor 200b may be implemented as a single chip.

제2메모리(200c)는 목표 주행 속도에 대한 정보를 저장할 수 있다. 여기서 목표 주행 속도는 미리 설정된 주행 속도로, 차량 제조 시에 설정된 주행 속도일 수도 있고, 사용자에 의해 설정된 주행 속도일 수도 있다.The second memory 200c may store information about the target driving speed. Here, the target travel speed is a preset travel speed, which may be a travel speed set during vehicle manufacturing or a travel speed set by a user.

제2메모리(200c)는 제1타깃 차량의 컷 아웃 상태를 판단하기 위한 기준 면적 정보를 저장하는 것도 가능하고, 기준 비율 정보를 저장하는 것도 가능하다.The second memory 200c may store reference area information for determining the cut-out state of the first target vehicle, and may also store reference ratio information.

제2메모리(200c)는 제1타깃 차량의 종류 별 기준 면적 정보를 저장하는 것도 가능하다.The second memory 200c may also store reference area information for each type of the first target vehicle.

제1타깃 차량의 종류는, 대형 차량, 중형 차량, 소형 차량을 포함할 수 있다. The type of the first target vehicle may include a large vehicle, a medium vehicle, and a small vehicle.

제1타깃 차량의 종류는, 타 차량의 모델 정보 및 타 차량의 차체 사이즈 정보에 의해 획득될 수 있다.The type of the first target vehicle may be obtained based on model information of the other vehicle and body size information of the other vehicle.

제2메모리(200c)는 충돌 위험의 경보에 대응하는 사운드의 종류 및 크기 정보를 저장할 수 있다. The second memory 200c may store information about the type and size of sound corresponding to the warning of the risk of collision.

제2메모리(200c)는 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래시 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(HDD, Hard Disk Drive), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다.The second memory 200c is a nonvolatile memory device such as a cache, a read only memory (ROM), a programmable ROM (PROM), an erasable programmable ROM (EPROM), an electrically erasable programmable ROM (EEPROM), and a flash memory; or It may be implemented as at least one of a volatile memory device such as RAM (Random Access Memory) or a storage medium such as a Hard Disk Drive (HDD) and a CD-ROM, but is not limited thereto.

제2메모리(200c)와 제2프로세서(200b)는 각각 별개의 칩으로 구현될 수 있다. 또는, 제2메모리(200c)는 와 제2프로세서(200b)는 단일 칩으로 구현될 수도 있다.The second memory 200c and the second processor 200b may be implemented as separate chips. Alternatively, the second memory 200c and the second processor 200b may be implemented as a single chip.

차량(1)은 사용자 인터페이스(210), 장애물 검출부(220), 주행 정보 검출부(230), 영상 획득부(240), 제3프로세서(250)를 포함하고, 엔진 시스템(12), 제동 시스템(32) 및 조향 시스템(42)을 더 포함할 수 있다.The vehicle 1 includes a user interface 210, an obstacle detection unit 220, a driving information detection unit 230, an image acquisition unit 240, and a third processor 250, an engine system 12, a braking system ( 32) and a steering system 42 may be further included.

이하 설명에서 차량을 자 차량, 자 차량의 전방에서 주행하는 다른 차량을 제1타깃 차량 및 제2 타깃 차량으로 기재하도록 한다. In the following description, the vehicle will be described as the first target vehicle and the second target vehicle, respectively.

사용자 인터페이스(210)는 사용자 입력을 수신하는 입력부(211)와, 동작 정보를 표시하는 표시부(212)를 포함할 수 있다.The user interface 210 may include an input unit 211 for receiving a user input and a display unit 212 for displaying operation information.

사용자 인터페이스(210)는 라디오 기능, 오디오 기능, 비디오 기능, 맵 표시 기능, 내비게이션 기능, DMB 기능, 컨텐츠 재생 기능, 인터넷 검색 기능 중 적어도 하나를 수행하는 차량용 단말기(AVN)일 수 있다.The user interface 210 may be an AVN that performs at least one of a radio function, an audio function, a video function, a map display function, a navigation function, a DMB function, a content playback function, and an Internet search function.

입력부(211)는 자율 주행 모드 및 크루즈 컨트롤 모드의 온 명령 및 오프 명령을 수신하고 수신된 명령에 대한 신호를 제3프로세서(250)에 전송할 수 있다.The input unit 211 may receive an on command and an off command of the autonomous driving mode and the cruise control mode and transmit a signal corresponding to the received command to the third processor 250 .

입력부(211)는 차량(1)에서 수행 가능한 기능 중 어느 하나의 기능에 대한 동작 명령을 수신할 수 있다. 예를 들어, 입력부(211)는 라디오 기능, 오디오 기능, 비디오 기능, 맵 표시 기능, 내비게이션 기능, DMB 기능, 컨텐츠 재생 기능, 인터넷 검색 기능 중 적어도 하나의 동작 명령을 입력받을 수 있다.The input unit 211 may receive an operation command for any one function among functions that can be performed in the vehicle 1 . For example, the input unit 211 may receive an operation command of at least one of a radio function, an audio function, a video function, a map display function, a navigation function, a DMB function, a content playback function, and an Internet search function.

입력부(211)는 자율 주행 모드 및 크루즈 컨트롤 모드를 수행하기 위한 목표 주행 속도를 입력받는 것도 가능하다.The input unit 211 may also receive a target driving speed for performing the autonomous driving mode and the cruise control mode.

입력부(211)는 장애물과의 충돌 가능성을 알려주는 충돌 위험 알림 모드의 온 명 및 오프 명령을 수신할 수 있다.The input unit 211 may receive an on/off command of a collision risk notification mode indicating a possibility of collision with an obstacle.

입력부(211)는 차량(1) 내 헤드유닛 또는 센터페시아에 마련될 수 있고, 차량용 단말기에 마련될 수도 있다. 입력부(211)는 버튼, 키, 스위치, 조작 레버, 조그 다이얼 등으로 마련될 수 있고, 터치 패드로 마련될 수도 있다.The input unit 211 may be provided in a head unit or center fascia in the vehicle 1, or may be provided in a vehicle terminal. The input unit 211 may be provided as a button, key, switch, operation lever, jog dial, or the like, or may be provided as a touch pad.

표시부(212)는 수행 중인 기능에 대한 동작 정보를 표시한다. 예를 들어, 표시부(212)는 전화 통화와 관련된 정보를 표시하거나, 단말기(미도시)를 통해 출력되는 콘텐츠의 정보를 표시하거나, 음악 재생과 관련된 정보를 표시하는 것도 가능하고 외부의 방송 정보를 표시한다.The display unit 212 displays operation information about the function being performed. For example, the display unit 212 can display information related to a phone call, display content information output through a terminal (not shown), or display information related to music playback, and can display external broadcasting information. display

표시부(212)는 내비게이션 모드 시 지도 정보를 표시하고, 목적지까지의 경로가 매칭된 지도 정보와 길 안내 정보를 표시하는 것도 가능하다. The display unit 212 may display map information in a navigation mode, map information matching a route to a destination, and road guidance information.

표시부(212)는 충돌 위험 알림 모드의 온오프 정보를 표시할 수 있다. The display unit 212 may display on/off information of the collision risk notification mode.

표시부(212)는 도로의 영상을 표시하거나, 보행자의 위치 정보 및 타 차량의 위치 정보를 표시하는 것도 가능하다.The display unit 212 may display an image of a road or display location information of a pedestrian and location information of other vehicles.

표시부(212)는 장애물과의 충돌을 알리는 충돌 위험 정보를 영상으로 표시할 수 있다.The display unit 212 may display collision risk information indicating a collision with an obstacle as an image.

표시부(212)는 장애물 회피를 위한 가속 정보, 감속 정보와 조향 정보를 영상으로 표시하는 것도 가능하다. The display unit 212 may also display acceleration information, deceleration information, and steering information for obstacle avoidance as images.

표시부(212)는 자율 주행 모드 또는 크루즈 컨트롤 모드에서의 목표 주행 속도와 실제 주행 속도에 대한 주행 정보를 표시하는 것도 가능하다.The display unit 212 may also display driving information about a target driving speed and an actual driving speed in an autonomous driving mode or a cruise control mode.

표시부(212)는 LED 등과 같은 램프나 LCD등과 같은 평판 디스플레이 장치일 수 있다.The display unit 212 may be a lamp such as an LED or a flat panel display device such as an LCD.

입력부(211)가 터치 패널로 이루어진 경우, 표시부(212)는 터치 패널과 일체로 마련된 평판 또는 곡면의 터치 스크린으로 마련될 수 있다.When the input unit 211 is formed of a touch panel, the display unit 212 may be provided as a flat or curved touch screen integrally provided with the touch panel.

사용자 인터페이스(210)는 클러스터(213)를 더 포함할 수 있다.The user interface 210 may further include a cluster 213 .

클러스터(213)는 타코미터, 속도계, 냉각수 온도계, 연료계, 방향전환 지시등, 상향등 표시등, 경고등, 안전벨트 경고등, 주행 거리계, 주행 기록계, 변속 레버 표시등, 도어 열림 경고등, 엔진 오일 경고등, 연료부족 경고등을 포함할 수 있다.Cluster 213 includes a tachometer, speedometer, coolant temperature gauge, fuel gauge, turn indicator lamp, high beam indicator lamp, warning lamp, seat belt warning lamp, odometer, odometer, shift lever indicator, door open warning lamp, engine oil warning lamp, low fuel Warning lights may be included.

클러스터(213)는 충돌 위험 정보를 지시하는 램프 및 디스플레이를 포함할 수 있다. 이러한 클러스터(213)는 제3프로세서(250)의 제어 명령에 대응하여 클러스터의 램프를 점등 또는 소등시킬 수 있고 디스플레이에 영상을 표시할 수 있다.The cluster 213 may include lamps and displays indicating collision risk information. The cluster 213 can turn on or off lamps of the cluster in response to a control command of the third processor 250 and display an image on the display.

예를 들어, 클러스터(213)는 충돌 위험 정보에 대한 영상을 표시할 수 있다.For example, the cluster 213 may display an image for collision risk information.

클러스터(213)는 자율 주행 모드 또는 크루즈 컨트롤 모드에서의 주행 속도 정보를 표시하는 것도 가능하다.The cluster 213 can also display driving speed information in an autonomous driving mode or a cruise control mode.

클러스터(213)는 가속 요청 정보, 감속 요청 정보 및 조향 요청 정보를 표시할 수 있다.The cluster 213 may display acceleration request information, deceleration request information, and steering request information.

사용자 인터페이스는 사운드 출력부(214)를 더 포함할 수 있다.The user interface may further include a sound output unit 214 .

사운드 출력부(214)는 제3프로세서(250)의 제어 명령에 대응하여 사운드를 출력하되, 제3프로세서(250)의 제어 명령에 대응하는 레벨로 사운드를 출력한다.The sound output unit 214 outputs sound in response to the control command of the third processor 250, and outputs the sound at a level corresponding to the control command of the third processor 250.

사운드 출력부(214)는 장애물과의 충돌에 대해 위험을 알릴 수 있도록 경보 정보를 사운드로 출력할 수 있다. 이러한 사운드 출력부(214)는 하나 또는 둘 이상의 스피커일 수 있다.The sound output unit 214 may output warning information as a sound so as to notify the danger of collision with an obstacle. The sound output unit 214 may be one or two or more speakers.

사운드 출력부(214)는 전방의 제 1타깃 차량(2)과 제2타깃 차량(3)과의 충돌 위험 알림에 대한 사운드를 출력하되, 서로 다른 음향의 사운드를 출력하는 것도 가능하다. The sound output unit 214 outputs a sound for notification of a risk of collision between the first target vehicle 2 and the second target vehicle 3 in front, but it is also possible to output sounds of different sounds.

사운드 출력부(214)는 가속 요청 정보, 감속 요청 정보 및 조향 요청 정보를 서로 다른 사운드로 출력할 수 있다.The sound output unit 214 may output acceleration request information, deceleration request information, and steering request information as different sounds.

장애물 검출부(220)는 차량(1)의 전방 및 좌우 측방의 장애물을 검출하고, 검출된 장애물에 대한 장애물 정보를 제3프로세서(250)에 전송한다. 여기서 장애물 정보는 장애물의 위치 정보를 포함할 수 있고, 장애물의 위치 정보는 장애물과의 거리 정보 및 장애물의 방향 정보를 포함할 수 있다. 장애물과의 거리에 대한 거리 정보는 장애물과의 상대 거리에 대한 거리 정보일 수 있다.The obstacle detector 220 detects obstacles in the front and left and right sides of the vehicle 1 and transmits obstacle information about the detected obstacles to the third processor 250 . Here, the obstacle information may include position information of the obstacle, and the position information of the obstacle may include distance information and direction information of the obstacle. The distance information about the distance to the obstacle may be distance information about the relative distance to the obstacle.

이러한 장애물 검출부(220)는 전방 레이더(120), 제1, 2 코너 레이더(131, 132)를 포함할 수 있고 전방 카메라를 더 포함할 수 있다.The obstacle detector 220 may include a front radar 120, first and second corner radars 131 and 132, and may further include a front camera.

아울러 장애물 검출부(220)는 라이더 센서를 포함하는 것도 가능하다. 라이다(LiDAR: Light Detection And Ranging) 센서는 레이저 레이다(Laser Radar) 원리를 이용한 비접촉식 거리 검출 센서이다. 라이다 센서는 레이저를 송신하는 송신부와, 센서 범위 내에 존재하는 물체의 표면에 반사되어 돌아오는 레이저를 수신하는 수신부를 포함할 수 있다.In addition, the obstacle detection unit 220 may also include a lidar sensor. A LiDAR (Light Detection And Ranging) sensor is a non-contact distance detection sensor using the principle of a laser radar. The LiDAR sensor may include a transmitter that transmits a laser beam and a receiver that receives the laser beam that is reflected and returned to the surface of an object existing within the range of the sensor.

장애물 검출부(220)는 초음파 센서를 포함할 수도 있다.The obstacle detector 220 may include an ultrasonic sensor.

초음파 센서는 초음파를 일정시간 발생시킨 뒤 물체에 반사되어 돌아오는 신호를 검출한다. 이러한 초음파 센서는 근거리 범위 내에서 보행자 등의 장애물의 유무를 판별하는데 사용될 수 있다.The ultrasonic sensor generates ultrasonic waves for a certain period of time and then detects a signal that is reflected from an object and returns. Such an ultrasonic sensor may be used to determine the presence or absence of an obstacle such as a pedestrian within a short range.

장애물 검출부(220)는 차량(1)의 후방의 장애물을 검출하는 것도 가능하다.The obstacle detection unit 220 can also detect obstacles behind the vehicle 1 .

차량(1)은 주행 속도 정보, 주행 방향 정보, 가속도 정보, 요레이트 정보, 감속 정보 및 가속 정보와 같은 차량의 주행 정보를 검출하는 주행 정보 검출부(230)를 포함할 수 있다.The vehicle 1 may include a driving information detection unit 230 that detects driving information of the vehicle, such as driving speed information, driving direction information, acceleration information, yaw rate information, deceleration information, and acceleration information.

여기서 가속도 정보는 차량의 차체를 기준으로 횡방향의 가속도 정보와 종방향의 가속도 정보를 포함할 수 있다.Here, the acceleration information may include acceleration information in a lateral direction and acceleration information in a longitudinal direction with respect to the body of the vehicle.

이러한 주행 정보 검출부(230)는 속도 검출부(231), 요레이트 검출부(232), 조향각 검출부(233) 및 압력 검출부(234)를 포함할 수 있다.The driving information detector 230 may include a speed detector 231, a yaw rate detector 232, a steering angle detector 233, and a pressure detector 234.

속도 검출부(231)는 복수 개의 휠 속도 센서를 포함할 수 있다. 속도 검출부(231)는 가속도 센서를 포함할 수 있다. 속도 검출부(231)는 복수 개의 휠 속도 센서와 가속도 센서를 포함할 수 있다.The speed detector 231 may include a plurality of wheel speed sensors. The speed detector 231 may include an acceleration sensor. The speed detector 231 may include a plurality of wheel speed sensors and acceleration sensors.

속도 검출부(231)가 가속도 센서일 경우, 제3프로세서(250)는 가속도 센서에 의해 검출된 정보에 기초하여 차량(1)의 가속도를 획득하고 획득된 가속도에 기초하여 차량(1)의 주행 속도를 획득하는 것도 가능하다.When the speed detection unit 231 is an acceleration sensor, the third processor 250 acquires the acceleration of the vehicle 1 based on information detected by the acceleration sensor and travels speed of the vehicle 1 based on the obtained acceleration. It is also possible to obtain

속도 검출부(231)가 가속도 센서와 복수 개의 휠 속도 센서일 경우, 제3프로세서(250)는 가속도 센서에 의해 검출된 정보에 기초하여 차량(1)의 가속도를 획득하고, 복수 개의 휠 속도 센서에 의해 획득된 속도 정보에 기초하여 차량(1)의 주행 속도를 획득하는 것도 가능하다.When the speed detection unit 231 is an acceleration sensor and a plurality of wheel speed sensors, the third processor 250 obtains the acceleration of the vehicle 1 based on the information detected by the acceleration sensor and transmits the information to the plurality of wheel speed sensors. It is also possible to obtain the traveling speed of the vehicle 1 based on the speed information obtained by

요 레이트 검출부(232)는 차량(1)의 요 모멘트를 검출한다. 차량의 수직축 방향의 요 레이트인 회전각 속도를 검출한다.The yaw rate detector 232 detects the yaw moment of the vehicle 1 . The rotational angular speed, which is the yaw rate in the direction of the vehicle's vertical axis, is detected.

요 레이트 검출부(232)는 차량(1)의 차체에 마련될 수 있고, 센터 콘솔 하부나, 운전석 시트 등에 마련되어 있을 수 있으며, 이들 위치에 한정되는 것은 아니다. The yaw rate detector 232 may be provided on the body of the vehicle 1, and may be provided on the lower part of the center console or on the driver's seat, but is not limited to these locations.

조향각 검출부(233)는 차량(1)의 조향각을 검출하기 위한 스티어링 휠의 각속도를 검출한다. 즉 조향각 검출부(233)는 각속도 검출부를 포함할 수 있다.The steering angle detection unit 233 detects the angular velocity of the steering wheel for detecting the steering angle of the vehicle 1 . That is, the steering angle detector 233 may include an angular velocity detector.

차량(1)의 내부에는 주행 방향을 조절하기 위한 스티어링 휠과, 사용자(즉 운전자)의 제동 의지에 따라 사용자에 의해 가압되는 브레이크 페달과, 사용자의 가속 의지에 따라 사용자에 의해 가압되는 액셀러레이터 페달을 포함할 수 있고, 스티어링 휠의 주변에 마련되고 좌회전, 우회전 및 유턴에 대한 회전 방향을 지시하는 주행 방향 지시 레버를 더 포함하는 것도 가능하다. Inside the vehicle 1, a steering wheel for adjusting the driving direction, a brake pedal pressed by the user according to the user's (ie driver's) will to brake, and an accelerator pedal pressed by the user according to the user's will to accelerate are provided. It may include, and it is possible to further include a driving direction indicating lever provided around the steering wheel and instructing rotational directions for left turn, right turn, and U-turn.

압력 검출부(234)는 브레이크 페달에 인가된 압력을 검출한다.The pressure detector 234 detects the pressure applied to the brake pedal.

차량(1)은 액셀러레이터 페달(가속 페달이라고도 함)에 인가된 압력을 검출하는 압력 검출부를 더 포함하는 것도 가능하다.It is also possible that the vehicle 1 further includes a pressure detector for detecting pressure applied to an accelerator pedal (also referred to as an accelerator pedal).

영상획득부(240)는 차량(1) 주변의 물체 정보를 검출하여 전기적인 영상 신호로 변환하는 것으로, 차량의 현재 위치에서 차량 외부의 환경, 특히 차량이 주행하는 도로 및 차량의 전방, 좌우의 측방의 물체 정보를 검출하고 검출된 물체 정보의 영상 신호를 제3프로세서(250)로 전송한다.The image acquisition unit 240 detects object information around the vehicle 1 and converts it into an electrical image signal, and from the current location of the vehicle to the environment outside the vehicle, especially the road on which the vehicle travels and the front, left and right sides of the vehicle. Detects side object information and transmits a video signal of the detected object information to the third processor 250 .

즉 영상 획득부(240)는 도로의 영상을 획득하고, 획득된 영상을 제3프로세서(250)에 전송한다. 여기서 도로의 영상은 차량의 주행 방향을 기준으로 전진 방향의 도로와 전진 방향을 기준으로 양쪽 도로의 영상일 수 있다. That is, the image acquisition unit 240 acquires an image of the road and transmits the acquired image to the third processor 250 . Here, the image of the road may be images of a road in a forward direction based on the traveling direction of the vehicle and images of both roads based on the forward direction.

영상 획득부(240)는 차량의 전방뿐만 아니라, 차량의 측방에 대한 영상도 획득함으로써 운전자 보조 시스템(200) 또는 제3프로세서(250)에서 자 차량의 주변의 다른 차량들을 인식하도록 할 수 있고 이로 인해 제1타깃 차량이 컷 아웃 상태인지를 분석 및 판단하도록 할 수 있다.The image acquisition unit 240 acquires images of not only the front of the vehicle, but also the side of the vehicle, so that the driver assistance system 200 or the third processor 250 can recognize other vehicles around the user's vehicle. Therefore, it is possible to analyze and determine whether the first target vehicle is in a cut-out state.

영상 획득부(240)는 전방 카메라로, CCD 또는 CMOS 이미지 센서를 포함할 수 있다.The image acquisition unit 240 is a front camera and may include a CCD or CMOS image sensor.

영상 획득부(240)는 전면의 윈도우 글래스에 마련되되 차량 내부의 윈도 글래스에 마련될 수도 있고, 차량 내부의 룸 미러에 마련될 수도 있으며, 루프 패널의 마련되되 외부로 노출되도록 마련될 수도 있다. The image acquisition unit 240 may be provided on the front window glass, but may be provided on the window glass inside the vehicle, may be provided on the room mirror inside the vehicle, or may be provided on the roof panel to be exposed to the outside.

영상획득부(240)는 후방 카메라, 블랙 박스의 카메라일 수 있고, 자율 주행을 위해 마련된 자율 주행 제어 장치의 카메라일 수 있다.The image acquisition unit 240 may be a rear camera, a black box camera, or a camera of an autonomous driving control device prepared for autonomous driving.

제3프로세서(250)는 입력부(211)를 통해 크루즈 컨트롤 모드의 온 명령에 대한 온 신호가 수신되면 운전자 보조 시스템(200)에 웨이크 업 명령을 전송함으로써 운전자 보조 시스템(200)이 웨이크 업 되도록 할 수 있고 입력부(211)를 통해 크루즈 컨트롤 모드의 오프 명령에 대한 오프 신호가 수신되면 운전자 보조 시스템(200)에 슬립 명령을 전송함으로써 운전자 보조 시스템(200)이 슬립 모드를 수행하도록 할 수 있다.The third processor 250 transmits a wake-up command to the driver assistance system 200 when an on signal for a cruise control mode on command is received through the input unit 211 so that the driver assistance system 200 wakes up. and when an off signal for a cruise control mode off command is received through the input unit 211, a sleep command may be transmitted to the driver assistance system 200 so that the driver assistance system 200 may perform the sleep mode.

운전자 보조 시스템(200)을 통해 크루즈 컨트롤 모드의 수행 중, 제3프로세서(250)는 장애물 검출부(220), 주행 정보 검출부(230) 및 영상 획득부(240)의 각종 정보를 운전자 보조 시스템(200)에 전송할 수 있다. While the cruise control mode is being performed through the driver assistance system 200, the third processor 250 transmits various types of information from the obstacle detection unit 220, the driving information detection unit 230, and the image acquisition unit 240 to the driver assistance system 200. ) can be transmitted.

운전자 보조 시스템(200)을 통해 크루즈 컨트롤 모드의 수행 중, 제3프로세서(250)는 운전자 보조 시스템(200)을 통해 수신된 가속 신호, 감속 신호 및 조향 신호에 기초하여 엔진 시스템(12), 제동 시스템(32) 및 조향 시스템(42) 중 적어도 하나를 제어할 수 있다.While the cruise control mode is performed through the driver assistance system 200, the third processor 250 operates the engine system 12 and brakes based on the acceleration signal, deceleration signal, and steering signal received through the driver assistance system 200. At least one of system 32 and steering system 42 may be controlled.

제3프로세서(250)는 제2프로세서(200b)와 통합되어 하나의 프로세서로 차량(1)에 마련되는 것도 가능하다. 즉 도 4에 도시된 제2프로세서에서 수행하는 동작들 모두 제3프로세서(250)에서 수행하는 것도 가능하다.The third processor 250 may be integrated with the second processor 200b and provided in the vehicle 1 as a single processor. That is, all of the operations performed by the second processor shown in FIG. 4 may also be performed by the third processor 250 .

제3프로세서(250)는 차량(1) 내 구성부들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 제3메모리(미도시)를 포함할 수 있고 제3메모리에 저장된 데이터를 이용하여 전술한 동작을 수행할 수 있다. 이때, 제3메모리와 제3프로세서는 각각 별개의 칩으로 구현될 수 있다. 또는, 제3메모리와 제3프로세서는 단일 칩으로 구현될 수도 있다.The third processor 250 may include a third memory (not shown) storing data for an algorithm or a program reproducing the algorithm for controlling the operation of components in the vehicle 1, and stored in the third memory. The above-described operation may be performed using data. In this case, the third memory and the third processor may be implemented as separate chips. Alternatively, the third memory and the third processor may be implemented as a single chip.

도 7은 실시 예에 따른 차량의 제어 순서도이다.7 is a control flowchart of a vehicle according to an embodiment.

차량은 영상 획득부(240)를 통해 전방과 좌우 방향의 도로의 영상 정보를 획득(301)한다.The vehicle obtains (301) image information of roads in forward and left-right directions through the image acquisition unit 240.

차량은 획득된 영상 정보에 기초하여 3차원 차량 검출 영상(3D vehicle detection (3DVD) image) 정보를 생성할 수 있다.The vehicle may generate 3D vehicle detection (3DVD) image information based on the acquired image information.

좀 더 구체적으로, 차량은 영상 획득부에서 획득된 영상 정보에 기초하여 영상 내 타 차량, 보행자, 자전거, 스쿠터 등 도로 위에서 움직일 수 있는 장애물들을 인식하고, 차선을 인식하며, 도로 표면 종류 및 도로 표면 상태, 도로의 각도, 도로의 높낮이, 각 차선의 종류를 인식하며, 커브, 가드레일 등 주행 가능한 도로에 대한 경계를 구분하고, 도로 위나 주변의 신호등 및 표지판 또는 타 차량의 램프 점등 여부를 인식한다.More specifically, the vehicle recognizes obstacles that can move on the road such as other vehicles, pedestrians, bicycles, and scooters in the image based on the image information acquired by the image acquisition unit, recognizes lanes, and recognizes road surface types and road surfaces. Recognizes the condition, angle of the road, height of the road, and type of each lane, distinguishes boundaries for drivable roads such as curves and guardrails, and recognizes whether traffic lights and signs on or around the road or lamps of other vehicles are on. .

차량은 영상을 픽셀 단위로 장애물들의 외형(Appearance), 원근감이나 움직임 등을 통해 3차원의 깊이(Geometry)를 인식하고 인식 정보에 기초하여 영상 획득부에서 획득된 2차원(2D) 영상을 3차원(3D) 영상으로 변환한다. The vehicle recognizes the 3D depth (Geometry) of the image through the appearance, perspective, or movement of obstacles in pixel units, and converts the 2D image acquired by the image acquisition unit to the 3D image based on the recognition information. Convert to (3D) image.

이를 통해 차량은 3차원(3D) 영상을 통해 타 차량에 대한 정보를 3차원 차량 영상 정보로 획득할 수 있고, 3차원(3D) 영상을 통해 차선 정보를 획득(302)할 수 있다.Through this, the vehicle can acquire information about other vehicles as 3D vehicle image information through a 3D image, and obtain lane information through a 3D image (302).

차량은 영상 획득부에서 획득된 2차원(2D) 영상 정보에 기초하여 차선 정보를 획득할 수도 있다. 여기서 차선 정보는, 차선 종류 정보 및 차선 위치 정보를 포함할 수 있다.The vehicle may obtain lane information based on 2D image information acquired by the image acquisition unit. Here, the lane information may include lane type information and lane location information.

차량은 3차원(3D) 영상에서 노이즈 등을 제거하는 전처리(303)를 수행할 수 있다.The vehicle may perform preprocessing 303 to remove noise from a 3D image.

아울러, 차량은 영상 획득부에서 획득된 2차원 영상을 전처리하는 것도 가능하다.In addition, the vehicle may pre-process the 2D image acquired by the image acquisition unit.

차량은 3차원 영상 정보에 기초하여 영상(M) 내 차선 오브젝트들(L1, L2, L3, L4, L5)를 인식하고, 인식된 차선 오브젝트들의 위치 정보에 기초하여 차량(1)이 주행하고 있는 자 차로(즉 제1차로라고도 함) 오브젝트(R1)를 인식하고, 영상 정보에 기초하여 장애물 오브젝트를 인식하고 인식된 장애물 오브젝트(2M, 3M, 4M) 중 자 차로를 주행하되 차량의 전방에서 주행하는 제1타킷 차량(2)에 대한 제1타킷 차량 오브젝트(2M)를 인식(304)할 수 있다(도 5b참조).The vehicle recognizes lane objects L1, L2, L3, L4, and L5 in the image M based on the 3D image information, and based on the location information of the recognized lane objects, the vehicle 1 is driving. Recognizes the object R1 of the own lane (also referred to as the first lane), recognizes the obstacle object based on the image information, and drives in the own lane among the recognized obstacle objects (2M, 3M, 4M) while driving in front of the vehicle The first target vehicle object 2M for the first target vehicle 2 to be played may be recognized (304) (see FIG. 5B).

차량은 자 차로를 이루는 양쪽 차선인 제1차선 오브젝트(L1)와 제2차선 오브젝트(L2)를 확인하고 확인한 제1차선 오브젝트(L1)의 위치 정보, 제2차선 오브젝트(L2)의 위치 정보 및 제1타깃 차량 오브젝트(2M)의 위치 정보에 기초하여 제1타깃 차량(2)의 상태를 분석하되, 제1타깃 차량이 컷 아웃 상태인지를 1차적으로 분석(305)한다.The vehicle checks the first lane object L1 and the second lane object L2, which are both lanes constituting the own lane, and identifies the checked location information of the first lane object L1, the location information of the second lane object L2, and Based on the location information of the first target vehicle object 2M, the state of the first target vehicle 2 is analyzed, and whether the first target vehicle is in a cut-out state is primarily analyzed (305).

차량은 분석 결과에 대응하여 제1타킷 차량(2)이 컷 아웃 상태라고 1차적으로 판단(306)되면 제1타깃 차량 오브젝트(M2)와 오버랩된 차선 오브젝트(L1)를 획득하고 획득한 차선 오브젝트(L1)를 기준으로 제1타깃 차량 오브젝트(2M)의 영역을 자 차로 오브젝트(R1)에 위치하는 제1 영역(A1)과 타 차로 오브젝트(R2)에 위치하는 제2 영역(A2)으로 구분하고, 제1영역(A1)의 면적 정보를 획득(307)한다.When it is first determined (306) that the first target vehicle 2 is in a cut-out state in response to the analysis result, the vehicle acquires a lane object L1 overlapping the first target vehicle object M2, and obtains the obtained lane object. Based on (L1), the area of the first target vehicle object 2M is divided into a first area A1 located in the object R1 of the own vehicle and a second area A2 located in the object R2 of the other vehicle. And, area information of the first area A1 is acquired (307).

좀 더 구체적으로, 차량은 3차원 차량 검출 영상 정보에 기초하여 제1타깃 차량의 종방향 위치(longitudinal position) 정보, 횡방향 위치(lateral position) 정보, 길이(length) 정보, 폭(width) 정보, 헤딩 각도(heading angle) 정보를 획득하고 획득된 정보들에 기초하여 제1영역(A1)의 면적을 획득할 수 있다. More specifically, the vehicle provides longitudinal position information, lateral position information, length information, and width information of the first target vehicle based on the 3D vehicle detection image information. , heading angle information may be obtained, and the area of the first area A1 may be obtained based on the obtained information.

차량은 종방향 위치 정보와 횡방향 위치 정보에 기초하여 제1 타깃 차량의 리어 패널까지의 거리 정보(D)를 획득할 수 있다.The vehicle may acquire distance information D to the rear panel of the first target vehicle based on the longitudinal location information and the lateral location information.

좀 더 구체적으로, 차량은 제1타깃 차량 오브젝트(2M)에서 리어 패널 오브젝트를 획득하고, 획득한 리어 패널 오브젝트의 위치 정보와 중첩된 차선 오브젝트의 위치 정보를 획득하며, 획득한 리어 패널 오브젝트의 위치 정보와 중첩된 차선 오브젝트의 위치 정보에 기초하여 리어 패널 오브젝트와 중첩된 차선 오브젝트 사이의 거리 정보(D)를 획득할 수 있다. More specifically, the vehicle obtains a rear panel object from the first target vehicle object 2M, acquires the acquired location information of the rear panel object and the overlapped location information of the lane object, and obtains the location of the acquired rear panel object Distance information D between the rear panel object and the overlapping lane object may be obtained based on the location information of the lane object overlapped with the information.

아울러 차량은 종방향 위치 정보와 횡방향 위치 정보에 기초하여 제1 타깃 차량의 리어 패널까지의 거리 정보(D)를 획득하는 것도 가능하다.In addition, the vehicle may acquire distance information D to the rear panel of the first target vehicle based on the longitudinal location information and the lateral location information.

차량은 장애물 검출부(220)에 의해 검출된 장애물 정보와 차량의 주행 속도 정보에 기초하여 제1타깃 차량(2)의 상대 속도 정보 및 상대 거리 정보를 획득하고, 획득한 제1타깃 차량(2)의 상대 속도 정보, 상대 거리 정보 및 주행 정보 검출부(230)에 의해 획득된 자 차량의 횡방향의 속도 정보에 기초하여 제1타깃 차량(2)의 횡방향 속도 정보를 획득(308)할 수 있다.The vehicle obtains relative speed information and relative distance information of the first target vehicle 2 based on the obstacle information detected by the obstacle detection unit 220 and the traveling speed information of the vehicle, and the obtained first target vehicle 2 The lateral speed information of the first target vehicle 2 may be obtained (308) based on the relative speed information, the relative distance information, and the lateral speed information of the host vehicle obtained by the driving information detection unit 230. .

차량은 제1영역의 면적 정보, 획득된 거리 정보(D)와 장애물 검출부에 의해 검출된 제1타깃 차량(2)의 횡방향 상대 속도 정보에 기초하여 제1타킷 차량(2)이 컷 아웃 상태인지를 2차로 판단(309)할 수 있다.The vehicle determines that the first target vehicle 2 is in a cut-out state based on the area information of the first area, the obtained distance information D, and the lateral relative speed information of the first target vehicle 2 detected by the obstacle detector. Recognition can be determined secondarily (309).

차량은 제1타깃 차량이 컷 아웃 상태라고 2차로 판단되면 영상 내에서 제2 타깃 차량 오브젝트(3M)를 인식하고, 영상 내 제2타깃 차량 오브젝트의 위치 정보에 기초하여 주변의 타 차량 중 제2타깃 차량을 인식(310)한다.When the vehicle secondarily determines that the first target vehicle is in a cut-out state, the vehicle recognizes the second target vehicle object 3M in the image, and based on the location information of the second target vehicle object in the image, the second target vehicle object 3M is selected from among other nearby vehicles. The target vehicle is recognized (310).

차량은 영상 정보 및 장애물 검출부에 의해 검출된 장애물 정보에 기초하여 제2타킷 차량(2)의 주행 정보를 획득하고, 획득한 제2타킷 차량(2)의 주행 정보에 기초하여 종방향 제어를 수행(311)한다.The vehicle obtains driving information of the second target vehicle 2 based on the image information and the obstacle information detected by the obstacle detection unit, and performs longitudinal control based on the acquired driving information of the second target vehicle 2. (311).

여기서 종방향 제어는 가속 신호 또는 감속 신호를 생성하고 생성된 신호에 기초하여 제동 시스템이나 엔진 시스템을 제어하는 것을 포함한다.Here, the longitudinal control includes generating an acceleration signal or deceleration signal and controlling a braking system or an engine system based on the generated signal.

차량은 제1영역의 면적 정보, 획득된 거리 정보(D)와 장애물 검출부에 의해 검출된 제1타깃 차량(2)의 횡방향 상대 속도 정보에 기초하여 제1타깃 차량과의 충돌 위험도를 판단하는 것도 가능하다.The vehicle determines the risk of collision with the first target vehicle based on the area information of the first area, the obtained distance information (D), and the lateral relative speed information of the first target vehicle 2 detected by the obstacle detection unit. It is also possible.

제1영역의 면적 정보, 획득된 거리 정보(D)와 장애물 검출부에 의해 검출된 제1타깃 차량(2)의 횡방향 상대 속도 정보의 상관 관계에 대응하는 충돌 위험도는 룩업 테이블로 미리 저장되어 있을 수 있다.The collision risk corresponding to the correlation between the area information of the first region, the obtained distance information D, and the lateral relative speed information of the first target vehicle 2 detected by the obstacle detector may be stored in advance as a lookup table. can

차량은 제1타깃 차량과의 충돌 위험도가 기준 위험도를 초과한다고 판단되면 제1타깃 차량의 상대 거리 정보와 상대 속도 정보에 기초하여 감속을 제어할 수 있다.When it is determined that the risk of collision with the first target vehicle exceeds the reference risk, the vehicle may control deceleration based on the relative distance information and relative speed information of the first target vehicle.

차량은 제1타깃 차량과의 충돌 위험도가 기준 위험도 이하라고 판단되면 제2타깃 차량의 상대 거리 정보와 상대 속도 정보에 기초하여 감속을 제어할 수 있다.When it is determined that the risk of collision with the first target vehicle is less than or equal to the reference risk, the vehicle may control deceleration based on the relative distance information and relative speed information of the second target vehicle.

한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium storing instructions executable by a computer. Instructions may be stored in the form of program codes, and when executed by a processor, create program modules to perform operations of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.

컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. Computer-readable recording media include all types of recording media in which instructions that can be decoded by a computer are stored. For example, there may be read only memory (ROM), random access memory (RAM), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device, and the like.

이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다.본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.As described above, the disclosed embodiments have been described with reference to the accompanying drawings. A person skilled in the art to which the present invention pertains may change the technical spirit or essential features of the present invention in a different form from the disclosed embodiments. It will be understood that the present invention can be practiced with The disclosed embodiments are illustrative and should not be construed as limiting.

1: 차량
100: 운전자 보조 시스템
110: 전방 카메라
120: 전방 레이더
130: 코너 레이더
131: 제1 코너 레이더
132: 제2 코너 레이더
133: 제3 코너 레이더
134: 제4 코너 레이더
140: 제어부
200: 운전자 보조 시스템
280: 제2제어부
281: 저장부
1: vehicle
100: driver assistance system
110: front camera
120: forward radar
130: corner radar
131: first corner radar
132: second corner radar
133: third corner radar
134: 4th corner radar
140: control unit
200: driver assistance system
280: second control unit
281: storage unit

Claims (17)

영상 획득부; 및
상기 영상 획득부에서 획득된 영상 정보에 기초하여 자 차로 오브젝트, 차선 오브젝트와 장애물 오브젝트를 인식하고, 상기 인식한 장애물 오브젝트의 깊이 정보에 기초하여 3차원 차량 검출 영상 정보를 획득하고 변환하고 상기 변환한 3차원 차량 검출 영상 정보에 기초하여 타깃 차량에 대한 타깃 차량 오브젝트를 인식하고, 상기 인식한 타깃 차량 오브젝트의 위치 정보와 상기 차선 오브젝트의 위치 정보에 기초하여 상기 타깃 차량 오브젝트의 일부가 상기 차선 오브젝트에 오버랩되는지를 판단하고, 상기 타깃 차량 오브젝트의 일부가 상기 차선 오브젝트에 오버랩된다고 판단되면 상기 타깃 차량 오브젝트의 영역들 중 상기 자 차로 오브젝트 상에 위치하는 영역의 면적 정보에 기초하여 상기 타깃 차량의 컷 아웃 여부를 판단하고 상기 타깃 차량의 컷 아웃 여부에 기초하여 감속 신호 또는 가속 신호를 생성하는 프로세서를 포함하는 운전자 보조 시스템.
image acquisition unit; and
Based on the image information acquired by the image acquisition unit, the own lane object, lane object, and obstacle object are recognized, and 3D vehicle detection image information is acquired and converted based on the depth information of the recognized obstacle object, and the converted A target vehicle object for the target vehicle is recognized based on the 3D vehicle detection image information, and a part of the target vehicle object is attached to the lane object based on the recognized location information of the target vehicle object and the location information of the lane object. It is determined whether or not a part of the target vehicle object overlaps with the lane object, and if it is determined that a part of the target vehicle object overlaps with the lane object, the target vehicle is cut out based on area information of an area located on the object by the own vehicle among areas of the target vehicle object. and a processor that determines whether or not the target vehicle is cut out and generates a deceleration signal or an acceleration signal based on whether the target vehicle is cut out.
제 1 항에 있어서, 상기 프로세서는,
상기 3차원 차량 검출 영상에 기초하여 상기 타깃 차량의 리어 패널 오브젝트를 인식하고, 상기 3차원 차량 검출 영상에 기초하여 상기 타깃 차량의 횡방향 위치 정보와 종방향 위치 정보를 획득하고, 상기 획득한 타깃 차량의 횡방향 위치 정보와 종방향 위치 정보에 기초하여 상기 차선 오브젝트와 상기 타깃 차량의 리어 패널 오브젝트 사이의 거리 정보를 획득하고, 상기 거리 정보에 기초하여 상기 타깃 차량의 컷 아웃 여부를 판단하는 운전자 보조 시스템.
The method of claim 1, wherein the processor,
Recognizing a rear panel object of the target vehicle based on the 3D vehicle detection image, acquiring lateral location information and longitudinal location information of the target vehicle based on the 3D vehicle detection image, and obtaining the target A driver obtaining distance information between the lane object and a rear panel object of the target vehicle based on the lateral location information and the longitudinal location information of the vehicle, and determining whether the target vehicle is cut out based on the distance information auxiliary system.
제 2 항에 있어서,
차량의 주행 정보를 수신하는 통신부; 및
주변의 장애물을 검출하고 검출된 장애물에 대한 장애물 정보를 출력하는 장애물 검출부를 더 포함하고,
상기 프로세서는, 상기 차량의 주행 정보 및 상기 장애물 정보에 기초하여 상기 타깃 차량의 횡방향 속도 정보를 획득하고 상기 획득한 횡방향 속도 정보 및 상기 거리 정보에 기초하여 상기 타깃 차량의 컷 아웃 여부를 추가로 판단하는 운전자 보조 시스템.
According to claim 2,
Communication unit for receiving driving information of the vehicle; and
Further comprising an obstacle detection unit for detecting nearby obstacles and outputting obstacle information about the detected obstacles;
The processor obtains lateral speed information of the target vehicle based on the driving information of the vehicle and the obstacle information, and adds whether the target vehicle is cut out based on the obtained lateral speed information and the distance information Driver assistance systems judged by
제 3 항에 있어서, 상기 프로세서는,
상기 타깃 차량의 컷 아웃 여부의 추가 판단에 의해 상기 타깃 차량이 컷 아웃 상태라고 판단되면 3차원 차량 검출 영상 정보에 기초하여 다른 타깃 차량에 대한 다른 타깃 차량 오브젝트를 인식하고, 상기 장애물 검출부에 의해 검출된 장애물 정보에 기초하여 상기 인식한 다른 타깃 오브젝트에 대한 다른 타깃 차량의 상대 거리 정보와 상대 속도 정보를 획득하고, 상기 다른 타깃 차량의 상대 거리 정보와 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성하는 운전자 보조 시스템.
The method of claim 3, wherein the processor,
When it is determined that the target vehicle is in a cut-out state by additional determination of whether the target vehicle is cut-out, another target vehicle object for another target vehicle is recognized based on 3D vehicle detection image information, and detected by the obstacle detection unit. Based on the obtained obstacle information, relative distance information and relative speed information of another target vehicle to the recognized other target object are obtained, and an acceleration signal or deceleration signal is generated based on the relative distance information and relative speed information of the other target vehicle. driver assistance systems.
제 4 항에 있어서, 상기 프로세서는,
상기 면적 정보, 상기 획득한 횡방향 속도 정보 및 상기 거리 정보에 기초하여 상기 타깃 차량과의 충돌 위험도를 인식하고 상기 타깃 차량과의 충돌 위험도가 기준 충돌 위험도를 초과한다고 판단되면 상기 장애물 검출부에 의해 검출된 장애물 정보와 상기 차량의 주행 정보에 기초하여 상기 타깃 차량의 상대 거리 정보 및 상대 속도 정보를 획득하고, 상기 획득한 타깃 차량의 상대 거리 정보 및 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성하는 운전자 보조 시스템.
The method of claim 4, wherein the processor,
Recognizing the risk of collision with the target vehicle based on the area information, the obtained lateral speed information, and the distance information, and detecting by the obstacle detection unit when it is determined that the risk of collision with the target vehicle exceeds the reference risk of collision Relative distance information and relative speed information of the target vehicle are obtained based on the obtained obstacle information and driving information of the vehicle, and an acceleration signal or deceleration signal is generated based on the obtained relative distance information and relative speed information of the target vehicle. driver assistance systems.
제 5 항에 있어서, 상기 프로세서는,
상기 타깃 차량과의 충돌 위험도가 기준 충돌 위험도 이하라고 판단되면 상기 획득한 타깃 차량의 상대 거리 정보 및 상대 속도 정보, 상기 다른 타깃 차량의 상대 거리 정보 및 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성하는 운전자 보조 시스템.
The method of claim 5, wherein the processor,
When it is determined that the risk of collision with the target vehicle is less than or equal to the reference risk of collision, an acceleration signal or deceleration signal is generated based on the obtained relative distance information and relative speed information of the target vehicle and the relative distance information and relative speed information of the other target vehicle. driver assistance systems.
제 1 항에 있어서, 상기 프로세서는,
상기 3차원 차량 검출 영상 정보에 기초하여 상기 타깃 차량의 길이 정보, 상기 타깃 차량의 폭 정보, 상기 타깃 차량의 헤딩 각도 정보를 획득하고 상기 타깃 차량의 길이 정보, 상기 타깃 차량의 폭 정보, 상기 타깃 차량의 헤딩 각도 정보에 기초하여 상기 영역의 면적 정보를 획득하는 운전자 보조 시스템.
The method of claim 1, wherein the processor,
Based on the 3D vehicle detection image information, length information of the target vehicle, width information of the target vehicle, and heading angle information of the target vehicle are obtained, and the length information of the target vehicle, the width information of the target vehicle, and the target vehicle A driver assistance system for obtaining area information of the area based on heading angle information of the vehicle.
제 1 항에 있어서,
차량에 마련된 차량용 프로세서와 통신을 수행하는 통신부를 더 포함하고,
상기 프로세서는, 상기 통신부를 통해 상기 감속 신호 또는 가속 신호를 상기 차량용 프로세서에 전송하도록 하는 운전자 보조 시스템.
According to claim 1,
Further comprising a communication unit for performing communication with a vehicle processor provided in the vehicle,
wherein the processor transmits the deceleration signal or the acceleration signal to the vehicle processor through the communication unit.
주행 정보를 검출하는 주행 정보 검출부;
주변의 장애물을 검출하고 검출된 장애물에 대한 장애물 정보를 출력하는 장애물 검출부;
전방 및 좌우 측방의 도로에 대한 영상을 획득하는 영상 획득부; 및
상기 영상 획득부에서 획득된 영상 정보에 기초하여 자 차로 오브젝트, 차선 오브젝트와 장애물 오브젝트를 인식하고, 상기 인식한 장애물 오브젝트의 깊이 정보에 기초하여 3차원 차량 검출 영상 정보를 획득하고 변환하고 상기 변환한 3차원 차량 검출 영상 정보에 기초하여 타깃 차량에 대한 타깃 차량 오브젝트를 인식하고, 상기 인식한 타깃 차량 오브젝트의 위치 정보와 상기 차선 오브젝트의 위치 정보에 기초하여 상기 타깃 차량 오브젝트의 일부가 상기 차선 오브젝트에 오버랩되는지를 판단하고, 상기 타깃 차량 오브젝트의 일부가 상기 차선 오브젝트에 오버랩된다고 판단되면 상기 타깃 차량 오브젝트의 영역들 중 상기 자 차로 오브젝트 상에 위치하는 영역의 면적 정보에 기초하여 상기 타깃 차량의 컷 아웃 여부를 판단하고 상기 타깃 차량의 컷 아웃 여부, 상기 주행 정보 및 상기 장애물 정보에 기초하여 감속 신호 또는 가속 신호를 생성하는 프로세서를 포함하는 차량.
a driving information detection unit that detects driving information;
an obstacle detection unit that detects nearby obstacles and outputs obstacle information about the detected obstacles;
An image acquisition unit for acquiring images of the front and left and right side roads; and
Based on the image information acquired by the image acquisition unit, the own lane object, lane object, and obstacle object are recognized, and 3D vehicle detection image information is acquired and converted based on the depth information of the recognized obstacle object, and the converted A target vehicle object for the target vehicle is recognized based on the 3D vehicle detection image information, and a part of the target vehicle object is attached to the lane object based on the recognized location information of the target vehicle object and the location information of the lane object. It is determined whether or not a part of the target vehicle object overlaps with the lane object, and if it is determined that a part of the target vehicle object overlaps with the lane object, the target vehicle is cut out based on area information of an area located on the object by the own vehicle among areas of the target vehicle object. and a processor that determines whether or not the target vehicle is cut out, and generates a deceleration signal or an acceleration signal based on the driving information and the obstacle information.
제 9 항에 있어서,
상기 생성된 감속 신호에 기초하여 감속을 수행하는 제동 시스템; 및
상기 생성된 가속 신호에 기초하여 가속을 수행하는 엔진 시스템을 더 포함하는 차량.
According to claim 9,
a braking system performing deceleration based on the generated deceleration signal; and
A vehicle further comprising an engine system performing acceleration based on the generated acceleration signal.
제 1항에 있어서, 상기 프로세서는,
상기 3차원 차량 검출 영상에 기초하여 상기 타깃 차량의 리어 패널 오브젝트를 인식하고, 상기 3차원 차량 검출 영상에 기초하여 상기 타깃 차량의 횡방향 위치 정보와 종방향 위치 정보를 획득하고, 상기 획득한 타깃 차량의 횡방향 위치 정보와 종방향 위치 정보에 기초하여 상기 차선 오브젝트와 상기 타깃 차량의 리어 패널 오브젝트 사이의 거리 정보를 획득하고, 상기 거리 정보에 기초하여 상기 타깃 차량의 컷 아웃 여부를 판단하는 차량.
The method of claim 1, wherein the processor,
Recognizing a rear panel object of the target vehicle based on the 3D vehicle detection image, acquiring lateral location information and longitudinal location information of the target vehicle based on the 3D vehicle detection image, and obtaining the target A vehicle that obtains distance information between the lane object and a rear panel object of the target vehicle based on the lateral location information and the longitudinal location information of the vehicle, and determines whether the target vehicle is cut out based on the distance information. .
제 11 항에 있어서, 상기 프로세서는,
상기 주행 정보 및 상기 장애물 정보에 기초하여 상기 타깃 차량의 횡방향 속도 정보를 획득하고 상기 획득한 횡방향 속도 정보 및 상기 거리 정보에 기초하여 상기 타깃 차량의 컷 아웃 여부를 추가로 판단하는 차량.
The method of claim 11, wherein the processor,
A vehicle that acquires lateral speed information of the target vehicle based on the driving information and the obstacle information and further determines whether or not the target vehicle is cut out based on the obtained lateral speed information and the distance information.
제 12 항에 있어서, 상기 프로세서는,
상기 타깃 차량의 컷 아웃 여부의 추가 판단에 의해 상기 타깃 차량이 컷 아웃 상태라고 판단되면 3차원 차량 검출 영상 정보에 기초하여 다른 타깃 차량에 대한 다른 타깃 차량 오브젝트를 인식하고, 상기 장애물 검출부에 의해 검출된 장애물 정보에 기초하여 상기 인식한 다른 타깃 오브젝트에 대한 다른 타깃 차량의 상대 거리 정보와 상대 속도 정보를 획득하고, 상기 다른 타깃 차량의 상대 거리 정보와 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성하는 차량.
The method of claim 12, wherein the processor,
When it is determined that the target vehicle is in a cut-out state by additional determination of whether the target vehicle is cut-out, another target vehicle object for another target vehicle is recognized based on 3D vehicle detection image information, and detected by the obstacle detection unit. Based on the obtained obstacle information, relative distance information and relative speed information of another target vehicle to the recognized other target object are obtained, and an acceleration signal or deceleration signal is generated based on the relative distance information and relative speed information of the other target vehicle. vehicle to create.
제 13 항에 있어서, 상기 프로세서는,
상기 면적 정보, 상기 획득한 횡방향 속도 정보 및 상기 거리 정보에 기초하여 상기 타깃 차량과의 충돌 위험도를 인식하고 상기 타깃 차량과의 충돌 위험도가 기준 충돌 위험도를 초과한다고 판단되면 상기 장애물 검출부에 의해 검출된 장애물 정보와 상기 차량의 주행 정보에 기초하여 상기 타깃 차량의 상대 거리 정보 및 상대 속도 정보를 획득하고, 상기 획득한 타깃 차량의 상대 거리 정보 및 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성하는 차량.
The method of claim 13, wherein the processor,
Recognizing the risk of collision with the target vehicle based on the area information, the obtained lateral speed information, and the distance information, and detecting by the obstacle detection unit when it is determined that the risk of collision with the target vehicle exceeds the reference risk of collision Relative distance information and relative speed information of the target vehicle are obtained based on the obtained obstacle information and driving information of the vehicle, and an acceleration signal or deceleration signal is generated based on the obtained relative distance information and relative speed information of the target vehicle. vehicle to do.
제 14 항에 있어서, 상기 프로세서는,
상기 타깃 차량과의 충돌 위험도가 기준 충돌 위험도 이하라고 판단되면 상기 획득한 타깃 차량의 상대 거리 정보 및 상대 속도 정보, 상기 다른 타깃 차량의 상대 거리 정보 및 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성하는 차량.
The method of claim 14, wherein the processor,
When it is determined that the risk of collision with the target vehicle is less than or equal to the reference risk of collision, an acceleration signal or deceleration signal is generated based on the obtained relative distance information and relative speed information of the target vehicle and the relative distance information and relative speed information of the other target vehicle. vehicle to create.
제 9항에 있어서, 상기 프로세서는,
상기 3차원 차량 검출 영상 정보에 기초하여 상기 타깃 차량의 길이 정보, 상기 타깃 차량의 폭 정보, 상기 타깃 차량의 헤딩 각도 정보를 획득하고 상기 타깃 차량의 길이 정보, 상기 타깃 차량의 폭 정보, 상기 타깃 차량의 헤딩 각도 정보에 기초하여 상기 영역의 면적 정보를 획득하는 차량.
The method of claim 9, wherein the processor,
Based on the 3D vehicle detection image information, length information of the target vehicle, width information of the target vehicle, and heading angle information of the target vehicle are obtained, and the length information of the target vehicle, the width information of the target vehicle, and the target vehicle A vehicle for obtaining area information of the area based on heading angle information of the vehicle.
제 9항에 있어서,
상기 타깃 차량과의 충돌 알림 정보를 표시하는 표시부; 및
상기 타깃 차량과의 충돌 알림 정보를 출력하는 사운드 출력부를 더 포함하는 차량.

According to claim 9,
a display unit displaying collision notification information with the target vehicle; and
A vehicle further comprising a sound output unit configured to output collision notification information with the target vehicle.

KR1020220001989A 2022-01-06 2022-01-06 Advanced Driver Assistance System, and Vehicle having the same KR20230106768A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220001989A KR20230106768A (en) 2022-01-06 2022-01-06 Advanced Driver Assistance System, and Vehicle having the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220001989A KR20230106768A (en) 2022-01-06 2022-01-06 Advanced Driver Assistance System, and Vehicle having the same

Publications (1)

Publication Number Publication Date
KR20230106768A true KR20230106768A (en) 2023-07-14

Family

ID=87155341

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220001989A KR20230106768A (en) 2022-01-06 2022-01-06 Advanced Driver Assistance System, and Vehicle having the same

Country Status (1)

Country Link
KR (1) KR20230106768A (en)

Similar Documents

Publication Publication Date Title
KR102588920B1 (en) Advanced Driver Assistance System, Vehicle having the same and method for controlling the vehicle
US10926764B2 (en) Lane keeping assistance apparatus, vehicle having the same and method for controlling the same
US10919525B2 (en) Advanced driver assistance system, vehicle having the same, and method of controlling the vehicle
US11472433B2 (en) Advanced driver assistance system, vehicle having the same and method for controlling the vehicle
KR20180072139A (en) Vehicle and method for controlling thereof
KR20210083462A (en) Advanced Driver Assistance System, Vehicle having the same and method for controlling the vehicle
KR20200094378A (en) Driver assistance system and controlling method thereof
KR20200098774A (en) Vehicle and method for controlling the same
US20220332319A1 (en) Advanced driver assistance system, and vehicle having the same
KR20210083459A (en) Advanced Driver Assistance System, Vehicle having the same and method for controlling the vehicle
KR20210079946A (en) Vehicle and control method thereof
KR20210030529A (en) Advanced Driver Assistance System, Vehicle having the same and method for controlling the same
KR102356612B1 (en) Collision Avoidance device, Vehicle having the same and method for controlling the same
KR20220119229A (en) Advanced Driver Assistance System, and Vehicle having the same
KR20210152602A (en) driver assistance apparatus and method of thereof
KR20200046611A (en) Driver assistance apparatus
KR20230106768A (en) Advanced Driver Assistance System, and Vehicle having the same
KR20220106875A (en) Driver assistance system and method therof
KR20210124586A (en) Advanced Driver Assistance System, and Vehicle
KR20210088117A (en) Driver assistance system and method therof
US20230294682A1 (en) Driver assistance system and vehicle including the same
US20230368543A1 (en) System and vehicle including the same
US20230278552A1 (en) Driver assistance system and driver assistance method
US20240010231A1 (en) Apparatus for driver assistance and method of controlling the same
US20230232107A1 (en) Infrastructure and Vehicle for Communicating with the Same

Legal Events

Date Code Title Description
E902 Notification of reason for refusal