KR20230106768A - Advanced Driver Assistance System, and Vehicle having the same - Google Patents
Advanced Driver Assistance System, and Vehicle having the same Download PDFInfo
- Publication number
- KR20230106768A KR20230106768A KR1020220001989A KR20220001989A KR20230106768A KR 20230106768 A KR20230106768 A KR 20230106768A KR 1020220001989 A KR1020220001989 A KR 1020220001989A KR 20220001989 A KR20220001989 A KR 20220001989A KR 20230106768 A KR20230106768 A KR 20230106768A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- vehicle
- target vehicle
- processor
- obstacle
- Prior art date
Links
- 238000001514 detection method Methods 0.000 claims abstract description 82
- 230000001133 acceleration Effects 0.000 claims abstract description 60
- 238000004891 communication Methods 0.000 claims description 48
- 238000000034 method Methods 0.000 claims description 15
- 230000015654 memory Effects 0.000 description 30
- 230000006870 function Effects 0.000 description 18
- 230000004044 response Effects 0.000 description 13
- 230000005540 biological transmission Effects 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 8
- 238000007726 management method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 238000002485 combustion reaction Methods 0.000 description 2
- 239000005357 flat glass Substances 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000002826 coolant Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000003195 fascia Anatomy 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 239000010705 motor oil Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/14—Adaptive cruise control
- B60W30/143—Speed control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/04—Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
- B60W10/06—Conjoint control of vehicle sub-units of different type or different function including control of propulsion units including control of combustion engines
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4023—Type large-size vehicles, e.g. trucks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4026—Cycles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4029—Pedestrians
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4043—Lateral speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/801—Lateral distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/803—Relative lateral speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2720/00—Output or target parameters relating to overall vehicle dynamics
- B60W2720/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/81—Braking systems
Abstract
본 발명은, 운전자 보조 시스템 및 그를 가지는 차량에 관한 것이다.
본 발명의 운전자 보조 시스템은, 영상 획득부; 및 영상 획득부에서 획득된 영상 정보에 기초하여 자 차로 오브젝트, 차선 오브젝트와 장애물 오브젝트를 인식하고, 인식한 장애물 오브젝트의 깊이 정보에 기초하여 3차원 차량 검출 영상 정보를 획득하고 변환하고 변환한 3차원 차량 검출 영상 정보에 기초하여 타깃 차량에 대한 타깃 차량 오브젝트를 인식하고, 인식한 타깃 차량 오브젝트의 위치 정보와 차선 오브젝트의 위치 정보에 기초하여 타깃 차량 오브젝트의 일부가 차선 오브젝트에 오버랩되는지를 판단하고, 타깃 차량 오브젝트의 일부가 차선 오브젝트에 오버랩된다고 판단되면 타깃 차량 오브젝트의 영역들 중 자 차로 오브젝트 상에 위치하는 영역의 면적 정보에 기초하여 타깃 차량의 컷 아웃 여부를 판단하고 타깃 차량의 컷 아웃 여부에 기초하여 감속 신호 또는 가속 신호를 생성하는 프로세서를 포함한다.The present invention relates to a driver assistance system and a vehicle having the same.
A driver assistance system of the present invention includes an image acquisition unit; and recognizing the own lane object, lane object, and obstacle object based on the image information acquired by the image acquisition unit, and acquiring, converting, and converting 3D vehicle detection image information based on the depth information of the recognized obstacle object. Recognizing a target vehicle object for the target vehicle based on the vehicle detection image information, determining whether a part of the target vehicle object overlaps the lane object based on the recognized location information of the target vehicle object and the location information of the lane object; If it is determined that a part of the target vehicle object overlaps with the lane object, it is determined whether the target vehicle is cut out or not based on the area information of the region located on the object of the vehicle among the regions of the target vehicle object, and determines whether the target vehicle is cut out or not. and a processor for generating a deceleration signal or an acceleration signal based on the
Description
본 발명은 주행 중 장애물과의 충돌을 방지하기 위한 운전자 보조 시스템 및 그를 가지는 차량에 관한 것이다.The present invention relates to a driver assistance system for preventing collision with an obstacle while driving and a vehicle having the same.
최근 운전자 부주의로 발생하는 사고를 방지하기 위하여 운전자에게 차량의 주행 정보를 전달해주고 또한 운전자의 편의를 위한 자율 주행을 위해 다양한 운전자 보조 시스템(ADAS: Advanced Driver Assistance Systems)이 개발되고 있다. Recently, various advanced driver assistance systems (ADAS) are being developed to deliver driving information of a vehicle to a driver in order to prevent an accident caused by a driver's negligence, and also to enable autonomous driving for the driver's convenience.
일 예로, 차량에 거리감지센서를 장착하여 차량 주변의 장애물을 검출하고, 이를 운전자에게 경보하는 기술이 있다. As an example, there is a technology in which a distance sensor is mounted on a vehicle to detect an obstacle around the vehicle and alerts the driver.
다른 예로, 주행 속도를 일정하게 조절하며 주행하도록 하는 크루즈 컨트롤 기술이 있다. 최근에는 기술이 발전함에 따라 자동으로 주행 속도를 제어하는 것뿐만 아니라 타 차량과의 거리, 정지 서행 등을 제어하는 크루즈 컨트롤 기술이 개발되고 있다.As another example, there is a cruise control technology for driving while constantly adjusting the driving speed. Recently, with the development of technology, a cruise control technology is being developed that not only automatically controls driving speed, but also controls a distance from another vehicle, stopping and slowing.
또 다른 예로, 도로 정보 및 현재 위치 정보에 기초하여 목적지까지 자율적으로 주행하되 장애물을 검출하고 검출된 장애물을 회피하면서 목적지까지 자율적으로 주행하는 자율 주행 기술이 있다.As another example, there is an autonomous driving technology that autonomously travels to a destination based on road information and current location information, detects an obstacle, and autonomously travels to the destination while avoiding the detected obstacle.
이러한 크루즈 컨트롤 기술 및 자율 주행 기술은 장애물 센서 등을 사용하여 차량의 전방 상황을 인식하고, 인식된 전방 상황에 따라 엔진 혹은 브레이크를 조작하여 운전자의 개입 없이 주행 속도 및 차간 거리를 조정한다.These cruise control technologies and autonomous driving technologies use obstacle sensors to recognize the situation ahead of the vehicle, and operate the engine or brakes according to the recognized situation ahead to adjust the driving speed and distance between vehicles without driver intervention.
즉 기존의 크루즈 컨트롤 기술 및 자율 주행 기술은, 주행 상황을 예측할 때, 장애물 센서를 통해 차량의 앞에서 주행하는 타깃 차량을 인식한 후 타깃 차량을 추종하며 차간 거리 및 주행 속도를 조정한다. That is, when predicting a driving situation, conventional cruise control technology and autonomous driving technology recognize a target vehicle driving in front of the vehicle through an obstacle sensor, and then follow the target vehicle and adjust the distance between vehicles and driving speed.
이러한, 크루즈 컨트롤 기술 및 자율 주행 기술은, 타깃 차량의 급작스러운 주행 경로 이탈(Cut-out)에 대응하여 가속을 제어하였고 이로 인해 타깃 차량의 앞에서 주행하는 다른 타깃 차량과 충돌하는 문제가 있었다.Such cruise control technology and autonomous driving technology control acceleration in response to a sudden cut-out of the target vehicle, and as a result, there is a problem of colliding with another target vehicle traveling in front of the target vehicle.
일 측면은 영상 정보에 기초하여 주변의 타깃 차량의 컷 아웃 상태를 판단하고 주변의 타깃 차량의 컷 아웃 상태에 대응하여 주행 속도를 조절하는 운전자 보조 시스템, 그를 가지는 차량을 제공한다. One aspect provides a driver assistance system for determining a cut-out state of a surrounding target vehicle based on image information and adjusting a driving speed in response to the cut-out state of a surrounding target vehicle, and a vehicle having the same.
일 측면에 따른 운전자 보조 시스템은, 영상 획득부; 및 영상 획득부에서 획득된 영상 정보에 기초하여 자 차로 오브젝트, 차선 오브젝트와 장애물 오브젝트를 인식하고, 인식한 장애물 오브젝트의 깊이 정보에 기초하여 3차원 차량 검출 영상 정보를 획득하고 변환하고 변환한 3차원 차량 검출 영상 정보에 기초하여 타깃 차량에 대한 타깃 차량 오브젝트를 인식하고, 인식한 타깃 차량 오브젝트의 위치 정보와 차선 오브젝트의 위치 정보에 기초하여 타깃 차량 오브젝트의 일부가 차선 오브젝트에 오버랩되는지를 판단하고, 타깃 차량 오브젝트의 일부가 차선 오브젝트에 오버랩된다고 판단되면 타깃 차량 오브젝트의 영역들 중 자 차로 오브젝트 상에 위치하는 영역의 면적 정보에 기초하여 타깃 차량의 컷 아웃 여부를 판단하고 타깃 차량의 컷 아웃 여부에 기초하여 감속 신호 또는 가속 신호를 생성하는 프로세서를 포함한다.A driver assistance system according to one aspect includes an image acquisition unit; and recognizing the own lane object, lane object, and obstacle object based on the image information acquired by the image acquisition unit, and acquiring, converting, and converting 3D vehicle detection image information based on the depth information of the recognized obstacle object. Recognizing a target vehicle object for the target vehicle based on the vehicle detection image information, determining whether a part of the target vehicle object overlaps the lane object based on the recognized location information of the target vehicle object and the location information of the lane object; If it is determined that a part of the target vehicle object overlaps with the lane object, it is determined whether the target vehicle is cut out or not based on the area information of the region located on the object of the vehicle among the regions of the target vehicle object, and determines whether the target vehicle is cut out or not. and a processor for generating a deceleration signal or an acceleration signal based on the
일 측면에 따른 운전자 보조 시스템의 프로세서는, 3차원 차량 검출 영상에 기초하여 타깃 차량의 리어 패널 오브젝트를 인식하고, 3차원 차량 검출 영상에 기초하여 타깃 차량의 횡방향 위치 정보와 종방향 위치 정보를 획득하고, 획득한 타깃 차량의 횡방향 위치 정보와 종방향 위치 정보에 기초하여 차선 오브젝트와 타깃 차량의 리어 패널 오브젝트 사이의 거리 정보를 획득하고, 거리 정보에 기초하여 타깃 차량의 컷 아웃 여부를 판단한다.The processor of the driver assistance system according to one aspect recognizes a rear panel object of the target vehicle based on the 3D vehicle detection image, and lateral location information and longitudinal location information of the target vehicle based on the 3D vehicle detection image. Obtain distance information between the lane object and the rear panel object of the target vehicle based on the acquired lateral position information and longitudinal position information of the target vehicle, and determine whether the target vehicle is cut out based on the distance information do.
일 측면에 따른 운전자 보조 시스템은 차량의 주행 정보를 수신하는 통신부; 및 주변의 장애물을 검출하고 검출된 장애물에 대한 장애물 정보를 출력하는 장애물 검출부를 더 포함하고, 프로세서는, 차량의 주행 정보 및 장애물 정보에 기초하여 타깃 차량의 횡방향 속도 정보를 획득하고 획득한 횡방향 속도 정보 및 거리 정보에 기초하여 타깃 차량의 컷 아웃 여부를 추가로 판단한다.A driver assistance system according to an aspect includes a communication unit receiving driving information of a vehicle; and an obstacle detection unit configured to detect surrounding obstacles and output obstacle information about the detected obstacles, wherein the processor obtains lateral speed information of the target vehicle based on vehicle driving information and obstacle information, and obtains the obtained lateral speed information. Based on the direction speed information and the distance information, whether or not the target vehicle is cut out is additionally determined.
일 측면에 따른 운전자 보조 시스템의 프로세서는, 타깃 차량의 컷 아웃 여부의 추가 판단에 의해 타깃 차량이 컷 아웃 상태라고 판단되면 3차원 차량 검출 영상 정보에 기초하여 다른 타깃 차량에 대한 다른 타깃 차량 오브젝트를 인식하고, 장애물 검출부에 의해 검출된 장애물 정보에 기초하여 인식한 다른 타깃 오브젝트에 대한 다른 타깃 차량의 상대 거리 정보와 상대 속도 정보를 획득하고, 다른 타깃 차량의 상대 거리 정보와 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성한다.If the processor of the driver assistance system according to an aspect determines that the target vehicle is in a cut-out state by additionally determining whether or not the target vehicle is cut-out, the processor creates another target vehicle object for another target vehicle based on 3D vehicle detection image information. and acquires relative distance information and relative speed information of another target vehicle to another target object recognized based on the obstacle information detected by the obstacle detection unit, and based on the relative distance information and relative speed information of the other target vehicle Generate an acceleration signal or deceleration signal.
일 측면에 따른 운전자 보조 시스템의 프로세서는, 면적 정보, 획득한 횡방향 속도 정보 및 거리 정보에 기초하여 타깃 차량과의 충돌 위험도를 인식하고 타깃 차량과의 충돌 위험도가 기준 충돌 위험도를 초과한다고 판단되면 장애물 검출부에 의해 검출된 장애물 정보와 차량의 주행 정보에 기초하여 타깃 차량의 상대 거리 정보 및 상대 속도 정보를 획득하고, 획득한 타깃 차량의 상대 거리 정보 및 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성한다.When the processor of the driver assistance system according to one aspect recognizes the risk of collision with the target vehicle based on the area information, the obtained lateral speed information, and the distance information, and determines that the risk of collision with the target vehicle exceeds the reference risk of collision Relative distance information and relative speed information of the target vehicle are obtained based on the obstacle information detected by the obstacle detection unit and the driving information of the vehicle, and an acceleration signal or deceleration signal is obtained based on the acquired relative distance information and relative speed information of the target vehicle. generate
일 측면에 따른 운전자 보조 시스템의 프로세서는, 타깃 차량과의 충돌 위험도가 기준 충돌 위험도 이하라고 판단되면 획득한 타깃 차량의 상대 거리 정보 및 상대 속도 정보, 다른 타깃 차량의 상대 거리 정보 및 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성한다.The processor of the driver assistance system according to one aspect may, when it is determined that the risk of collision with the target vehicle is less than or equal to the standard collision risk, the obtained relative distance information and relative speed information of the target vehicle and relative distance information and relative speed information of another target vehicle. Based on this, an acceleration signal or deceleration signal is generated.
일 측면에 따른 운전자 보조 시스템의 프로세서는, 3차원 차량 검출 영상 정보에 기초하여 타깃 차량의 길이 정보, 타깃 차량의 폭 정보, 타깃 차량의 헤딩 각도 정보를 획득하고 타깃 차량의 길이 정보, 타깃 차량의 폭 정보, 타깃 차량의 헤딩 각도 정보에 기초하여 영역의 면적 정보를 획득한다.The processor of the driver assistance system according to one aspect may obtain length information of the target vehicle, width information of the target vehicle, and heading angle information of the target vehicle based on the 3D vehicle detection image information, and obtain the length information of the target vehicle and the target vehicle's heading angle information. Area information of the region is obtained based on the width information and the heading angle information of the target vehicle.
일 측면에 따른 운전자 보조 시스템은 차량에 마련된 차량용 프로세서와 통신을 수행하는 통신부를 더 포함하고, 프로세서는 통신부를 통해 감속 신호 또는 가속 신호를 차량용 프로세서에 전송하도록 한다.A driver assistance system according to an aspect further includes a communication unit configured to communicate with a vehicle processor provided in a vehicle, and the processor transmits a deceleration signal or an acceleration signal to the vehicle processor through the communication unit.
다른 측면에 따른 차량은, 주행 정보를 검출하는 주행 정보 검출부; 주변의 장애물을 검출하고 검출된 장애물에 대한 장애물 정보를 출력하는 장애물 검출부; 전방 및 좌우 측방의 도로에 대한 영상을 획득하는 영상 획득부; 및 영상 획득부에서 획득된 영상 정보에 기초하여 자 차로 오브젝트, 차선 오브젝트와 장애물 오브젝트를 인식하고, 인식한 장애물 오브젝트의 깊이 정보에 기초하여 3차원 차량 검출 영상 정보를 획득하고 변환하고 변환한 3차원 차량 검출 영상 정보에 기초하여 타깃 차량에 대한 타깃 차량 오브젝트를 인식하고, 인식한 타깃 차량 오브젝트의 위치 정보와 차선 오브젝트의 위치 정보에 기초하여 타깃 차량 오브젝트의 일부가 차선 오브젝트에 오버랩되는지를 판단하고, 타깃 차량 오브젝트의 일부가 차선 오브젝트에 오버랩된다고 판단되면 타깃 차량 오브젝트의 영역들 중 자 차로 오브젝트 상에 위치하는 영역의 면적 정보에 기초하여 타깃 차량의 컷 아웃 여부를 판단하고 타깃 차량의 컷 아웃 여부, 주행 정보 및 장애물 정보에 기초하여 감속 신호 또는 가속 신호를 생성하는 프로세서를 포함한다.A vehicle according to another aspect includes a driving information detection unit configured to detect driving information; an obstacle detection unit that detects nearby obstacles and outputs obstacle information about the detected obstacles; An image acquisition unit for acquiring images of the front and left and right side roads; and recognizing the own lane object, lane object, and obstacle object based on the image information acquired by the image acquisition unit, and acquiring, converting, and converting 3D vehicle detection image information based on the depth information of the recognized obstacle object. Recognizing a target vehicle object for the target vehicle based on the vehicle detection image information, determining whether a part of the target vehicle object overlaps the lane object based on the recognized location information of the target vehicle object and the location information of the lane object; If it is determined that a part of the target vehicle object overlaps the lane object, it is determined whether the target vehicle is cut out based on area information of the region located on the object of the vehicle among the regions of the target vehicle object, whether the target vehicle is cut out, and a processor generating a deceleration signal or an acceleration signal based on driving information and obstacle information.
다른 측면에 따른 차량은, 생성된 감속 신호에 기초하여 감속을 수행하는 제동 시스템; 및 생성된 가속 신호에 기초하여 가속을 수행하는 엔진 시스템을 더 포함한다.A vehicle according to another aspect includes a braking system that performs deceleration based on a generated deceleration signal; and an engine system that performs acceleration based on the generated acceleration signal.
다른 측면에 따른 차량의 프로세서는, 3차원 차량 검출 영상에 기초하여 타깃 차량의 리어 패널 오브젝트를 인식하고, 3차원 차량 검출 영상에 기초하여 타깃 차량의 횡방향 위치 정보와 종방향 위치 정보를 획득하고, 획득한 타깃 차량의 횡방향 위치 정보와 종방향 위치 정보에 기초하여 차선 오브젝트와 타깃 차량의 리어 패널 오브젝트 사이의 거리 정보를 획득하고, 거리 정보에 기초하여 타깃 차량의 컷 아웃 여부를 판단한다.A processor of a vehicle according to another aspect recognizes a rear panel object of a target vehicle based on a 3D vehicle detection image, obtains lateral location information and longitudinal location information of the target vehicle based on the 3D vehicle detection image, , Distance information between a lane object and a rear panel object of the target vehicle is obtained based on the acquired lateral location information and longitudinal location information of the target vehicle, and based on the distance information, it is determined whether the target vehicle is cut out.
다른 측면에 따른 차량의 프로세서는, 주행 정보 및 장애물 정보에 기초하여 타깃 차량의 횡방향 속도 정보를 획득하고 획득한 횡방향 속도 정보 및 거리 정보에 기초하여 타깃 차량의 컷 아웃 여부를 추가로 판단한다.The processor of the vehicle according to another aspect obtains lateral speed information of the target vehicle based on driving information and obstacle information, and further determines whether the target vehicle is cut out based on the obtained lateral speed information and distance information. .
다른 측면에 따른 차량의 프로세서는, 타깃 차량의 컷 아웃 여부의 추가 판단에 의해 타깃 차량이 컷 아웃 상태라고 판단되면 3차원 차량 검출 영상 정보에 기초하여 다른 타깃 차량에 대한 다른 타깃 차량 오브젝트를 인식하고, 장애물 검출부에 의해 검출된 장애물 정보에 기초하여 인식한 다른 타깃 오브젝트에 대한 다른 타깃 차량의 상대 거리 정보와 상대 속도 정보를 획득하고, 다른 타깃 차량의 상대 거리 정보와 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성한다.According to another aspect, the processor of the vehicle recognizes another target vehicle object for another target vehicle based on the 3D vehicle detection image information when it is determined that the target vehicle is in a cutout state by additionally determining whether or not the target vehicle is cutout. Obtaining relative distance information and relative speed information of another target vehicle to another target object recognized based on the obstacle information detected by the obstacle detection unit, and an acceleration signal based on the relative distance information and relative speed information of the other target vehicle. Or generate a deceleration signal.
다른 측면에 따른 차량의 프로세서는, 면적 정보, 획득한 횡방향 속도 정보 및 거리 정보에 기초하여 타깃 차량과의 충돌 위험도를 인식하고 타깃 차량과의 충돌 위험도가 기준 충돌 위험도를 초과한다고 판단되면 장애물 검출부에 의해 검출된 장애물 정보와 차량의 주행 정보에 기초하여 타깃 차량의 상대 거리 정보 및 상대 속도 정보를 획득하고, 획득한 타깃 차량의 상대 거리 정보 및 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성한다.The processor of the vehicle according to another aspect recognizes the risk of collision with the target vehicle based on the area information, the obtained lateral speed information, and the distance information, and when it is determined that the risk of collision with the target vehicle exceeds the reference risk of collision, the obstacle detection unit Obtain relative distance information and relative speed information of the target vehicle based on the obstacle information detected by the obstacle information and driving information of the vehicle, and generate an acceleration signal or deceleration signal based on the obtained relative distance information and relative speed information of the target vehicle. do.
다른 측면에 따른 차량의 프로세서는, 타깃 차량과의 충돌 위험도가 기준 충돌 위험도 이하라고 판단되면 획득한 타깃 차량의 상대 거리 정보 및 상대 속도 정보, 다른 타깃 차량의 상대 거리 정보 및 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성한다.According to another aspect, the processor of the vehicle may determine that the risk of collision with the target vehicle is less than or equal to the standard collision risk based on the acquired relative distance information and relative speed information of the target vehicle and relative distance information and relative speed information of another target vehicle. Generate an acceleration signal or deceleration signal.
다른 측면에 따른 차량의 프로세서는, 3차원 차량 검출 영상 정보에 기초하여 타깃 차량의 길이 정보, 타깃 차량의 폭 정보, 타깃 차량의 헤딩 각도 정보를 획득하고 타깃 차량의 길이 정보, 타깃 차량의 폭 정보, 타깃 차량의 헤딩 각도 정보에 기초하여 영역의 면적 정보를 획득한다.According to another aspect, the vehicle processor may obtain length information of the target vehicle, width information of the target vehicle, and heading angle information of the target vehicle based on the 3D vehicle detection image information, and obtain the length information of the target vehicle and the width information of the target vehicle. , Area information of the region is obtained based on the heading angle information of the target vehicle.
다른 측면에 따른 차량은, 타깃 차량과의 충돌 알림 정보를 표시하는 표시부; 및 타깃 차량과의 충돌 알림 정보를 출력하는 사운드 출력부를 더 포함한다.A vehicle according to another aspect includes a display unit displaying collision notification information with a target vehicle; and a sound output unit configured to output collision notification information with the target vehicle.
본 발명은 영상 정보에 기초하여 자 차량의 주변에서 주행하는 타깃 차량이 주행 경로를 변경하는 컷 아웃 상태를 신속하게 인식할 수 있고, 타깃 차량이 컷 아웃 상태라고 판단되면 자 차량의 주행 속도를 제어함으로써 크루즈 컨트롤 모드나 자율 주행 모드의 성능을 향상시킬 수 있다.According to the present invention, based on image information, it is possible to quickly recognize a cut-out state in which a target vehicle driving near the host vehicle changes its driving path, and if it is determined that the target vehicle is in a cut-out state, the driving speed of the host vehicle is controlled. By doing so, the performance of cruise control mode or autonomous driving mode can be improved.
또한 본 발명은 신속한 주행 속도 제어를 통해 운전자에게 심리적 안정감을 부여할 수 있고 주변의 타 차량(즉 제1타깃 차량)뿐 만 아니라, 타 차량의 전방에서 주행하는 또 다른 차량(즉 제2 타깃 차량)과의 충돌도 방지할 수 있다. In addition, the present invention can give a driver a sense of psychological stability through rapid driving speed control, and not only other nearby vehicles (ie, the first target vehicle), but also another vehicle (ie, the second target vehicle) traveling in front of the other vehicle. ) can also be prevented.
본 발명은 하드웨어적인 구성이 추가되지 않은 상태에서 주변의 타깃 차량의 컷 아웃 상태를 판단할 수 있어 차량의 원가 상승을 방지하면서 차량의 안정성을 향상시킬 수 있고 운전자 보조 시스템의 활용도도 향상시킬 수 있다.The present invention can determine the cut-out state of a surrounding target vehicle without adding a hardware configuration, thereby preventing an increase in vehicle cost, improving vehicle stability, and improving the utilization of driver assistance systems. .
이와 같이 본 발명은 운전자 보조 시스템 및 운전자 보조 시스템을 가지는 차량의 품질 및 상품성을 향상시킬 수 있고 나아가 사용자의 만족도를 높일 수 있으며 제품의 경쟁력을 확보할 수 있다.As described above, the present invention can improve the quality and marketability of a driver assistance system and a vehicle having a driver assistance system, further increase user satisfaction, and secure product competitiveness.
도 1은 실시 예에 의한 차량의 구성도이다.
도 2은 실시 예에 의한 차량에 마련된 운전자 보조 시스템의 구성도이다.
도 3은 실시 예에 의한 차량의 운전자 보조 시스템에 포함된 카메라 및 레이더의 검출 영역의 예시도이다.
도 4는 실시 예에 따른 차량에 마련된 운전자 보조 시스템 중 크루즈 컨트롤 모드를 수행하는 운전자 보조 시스템의 제어 구성도이다.
도 5a, 도 5b 및 도 5c는 실시 예에 따른 차량에 마련된 운전자 보조 시스템에서 타깃 차량의 컷 아웃 상태를 판단하기 위한 예시도이다.
도 6은 실시 예에 따른 차량(에 마련된 운전자 보조 시스템 내의 제2프로세서의 상세 구성도이다.
eh 7은 실시 예에 따른 차량의 제어 순서도이다.1 is a configuration diagram of a vehicle according to an embodiment.
2 is a configuration diagram of a driver assistance system provided in a vehicle according to an embodiment.
3 is an exemplary view of a detection area of a camera and a radar included in a driver assistance system of a vehicle according to an embodiment.
4 is a control configuration diagram of a driver assistance system performing a cruise control mode among driver assistance systems provided in a vehicle according to an embodiment.
5A, 5B, and 5C are exemplary diagrams for determining a cut-out state of a target vehicle in a driver assistance system provided in a vehicle according to an embodiment.
6 is a detailed configuration diagram of a second processor in a driver assistance system provided in a vehicle according to an embodiment.
eh 7 is a control flowchart of a vehicle according to an embodiment.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시 예들의 모든 요소들을 설명하는 것은 아니며, 개시된 발명이 속하는 기술분야에서 일반적인 내용 또는 실시 예들 간에 중복되는 내용은 생략한다. Like reference numbers designate like elements throughout the specification. This specification does not describe all elements of the embodiments, and general content or overlapping content between the embodiments in the technical field to which the disclosed invention belongs is omitted.
명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시 예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.The term 'unit, module, member, or block' used in the specification may be implemented as software or hardware, and according to embodiments, a plurality of 'units, modules, members, or blocks' may be implemented as one component or may be implemented as one component. It is also possible that the 'part, module, member, block' of includes a plurality of components.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case of being directly connected but also the case of being indirectly connected, and indirect connection includes being connected through a wireless communication network. do.
또한 어떤 부분이 어떤 구성요소를"포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, when a certain component is said to "include", this means that it may further include other components, not excluding other components unless otherwise stated.
명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout the specification, when a member is said to be located “on” another member, this includes not only a case where a member is in contact with another member, but also a case where another member exists between the two members.
제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다. Terms such as first and second are used to distinguish one component from another, and the components are not limited by the aforementioned terms.
단수의 표현은 문맥 상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly dictates otherwise.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.In each step, the identification code is used for convenience of description, and the identification code does not explain the order of each step, and each step may be performed in a different order from the specified order unless a specific order is clearly described in context. there is.
이하 첨부된 도면들을 참고하여 개시된 발명의 작용 원리 및 실시 예들에 대해 설명한다.Hereinafter, working principles and embodiments of the disclosed invention will be described with reference to the accompanying drawings.
도 1은 실시 예에 의한 차량의 구성도이다.1 is a configuration diagram of a vehicle according to an embodiment.
실시 예에 따른 차량은 운전자의 운전 의지에 대응하여 주행하는 수동 주행 모드와, 다른 차량과 일정 거리를 유지하면서 설정 속도로 주행하도록 하는 크루즈 컨트롤 모드를 수행하는 차량일 수 있다.A vehicle according to an embodiment may be a vehicle that performs a manual driving mode in which the vehicle drives in response to the driver's driving intention and a cruise control mode in which the vehicle travels at a set speed while maintaining a certain distance from other vehicles.
실시 예에 따른 차량은 차량의 현재 위치 정보와 목적지 정보에 기초하여 목적지까지 자율적으로 주행하는 자율 주행 모드를 수행하는 차량일 수 있다.A vehicle according to an embodiment may be a vehicle that performs an autonomous driving mode that autonomously travels to a destination based on current location information and destination information of the vehicle.
크루즈 컨트롤 모드는 차량을 일정한 속도로 유지한 상태로 계속 주행할 수 있게 하는 모드로, 장거리 주행 시 가속 페달에서 발을 뗄 수 있는 장점이 있다.The cruise control mode is a mode that allows the vehicle to continue driving while maintaining a constant speed, and has the advantage of being able to take one's foot off the accelerator pedal during long-distance driving.
크루즈 컨트롤은, 액티브 크루즈 컨트롤(ACC: Active Cruise Control, 어댑티브 크루즈 컨트롤(adaptive cruise control), 스마트 크루즈 컨트롤(SCC: Smart Cruise Control), 어드밴스드 스마트 크루즈 컨트롤(Advanced Smart Cruise Control), 다이나믹 레이더 크루즈 컨트롤(DRCC)이라고도 한다Cruise control includes active cruise control (ACC: Active Cruise Control, adaptive cruise control), smart cruise control (SCC: Smart Cruise Control), advanced smart cruise control (Advanced Smart Cruise Control), dynamic radar cruise control ( Also known as DRCC
실시 예에 따른 차량은 내연 기관 차량일 수도 있고, 친환경 차량일 수도 있다. A vehicle according to an embodiment may be an internal combustion engine vehicle or an eco-friendly vehicle.
본 실시 예에서 내연 기관 차량 중 크루즈 컨트롤 모드를 수행하는 차량을 예를 들어 설명한다.In this embodiment, a vehicle performing a cruise control mode among vehicles with an internal combustion engine will be described as an example.
도 1에 도시된 바와 같이, 차량(1)은 엔진(10)과, 변속기(20)와, 제동 장치(30)와, 조향 장치(40)를 포함한다.As shown in FIG. 1 , a
엔진(10)은 실린더와 피스톤을 포함하며, 차량(1)이 주행하기 위한 동력을 생성할 수 있다.The
변속기(20)는 복수 개의 기어들을 포함하며, 엔진(10)에 의하여 생성된 동력을 차륜까지 전달할 수 있다. The
제동 장치(30)는 차륜과의 마찰을 통하여 차량(1)을 감속시키거나 차량(1)을 정지시킬 수 있다.The
조향 장치(40)는 차량(1)의 주행 방향을 변경할 수 있다.The
차량(1)은 복수 개의 전장 부품들을 포함할 수 있다. The
예를 들어, 차량(1)은 엔진 관리 시스템(Engine Management System, EMS) (11)과, 변속기 제어 유닛(Transmission Control Unit, TCU) (21)과, 전자식 제동 제어 모듈(Electronic Brake Control Module) (31)과, 전자식 조향 장치(Electronic Power Steering, EPS) (41)과, 바디 컨트롤 모듈(Body Control Module, BCM)과, 운전자 보조 시스템(Driver Assistance System, DAS)을 더 포함한다.For example, the
엔진 관리 시스템(11)은 가속 페달을 통한 운전자의 가속 의지 또는 운전자 보조 시스템(100)의 요청에 응답하여 엔진(10)을 제어할 수 있다. 예를 들어, 엔진 관리 시스템(11)은 엔진(10)의 토크를 제어할 수 있다.The
변속기 제어 유닛(21)은 변속 레버(또는 기어 레버, 시프팅 레버, 기어 시프트라고도 함)를 통한 운전자의 변속 명령 및/또는 차량(1)의 주행 속도에 응답하여 변속기(20)를 제어할 수 있다. 예를 들어, 변속기 제어 유닛(21)은 엔진(10)으로부터 차륜까지의 변속 비율을 조절할 수 있다.The
전자식 제동 제어 모듈(31)은 제동 페달을 통한 운전자의 제동 의지 및/또는 차륜들의 슬립(slip)에 응답하여 제동 장치(30)를 제어할 수 있다. 예를 들어, 전자식 제동 제어 모듈(31)은 차량(1)의 제동 시에 감지되는 차륜의 슬립에 응답하여 차륜의 제동을 일시적으로 해제할 수 있다(Anti-lock Braking Systems, ABS). The electronic
전자식 제동 제어 모듈(31)은 차량(1)의 조향 시에 감지되는 오버스티어링(oversteering) 및/또는 언더스티어링(understeering)에 응답하여 차륜의 제동을 선택적으로 해제할 수 있다(Electronic stability control, ESC).The electronic
또한, 전자식 제동 제어 모듈(31)은 차량(1)의 구동 시에 감지되는 차륜의 슬립에 응답하여 차륜을 일시적으로 제동할 수 있다(Traction Control System, TCS).In addition, the electronic
전자식 조향 제어 장치(41)는 스티어링 휠을 통한 운전자의 조향 의지에 응답하여 운전자가 쉽게 스티어링 휠을 조작할 수 있도록 조향 장치(40)의 동작을 보조할 수 있다.예를 들어, 전자식 조향 제어 장치(41)는 저속 주행 또는 주차 시에는 조향력을 감소시키고 고속 주행 시에는 조향력을 증가시키도록 조향 장치(40)의 동작을 보조할 수 있다.The electronic
바디 컨트롤 모듈(51)은 운전자에게 편의를 제공하거나 운전자의 안전을 보장하는 전장 부품들의 동작을 제어할 수 있다. 예를 들어, 바디 컨트롤 모듈(51)은 헤드 램프, 와이퍼, 클러스터, 다기능 스위치 및 방향 지시 램프 등을 제어할 수 있다.The
운전자 보조 시스템(100)은 운전자가 차량(1)을 조작(구동, 제동, 조향)하는 것을 보조할 수 있다. 예를 들어, 운전자 보조 시스템(100)은 차량(1) 주변의 환경(예를 들어, 다른 차량, 보행자, 사이클리스트(cyclist), 차선, 도로 표지판 등)을 감지하고, 감지된 환경에 응답하여 차량(1)의 구동 및/또는 제동 및/또는 조향을 제어할 수 있다.The
운전자 보조 시스템(100)은 운전자에게 다양한 기능을 제공할 수 있다. 예를 들어, 운전자 보조 시스템(100)은 차선 이탈 경보(Lane Departure Warning, LDW)와, 차선 유지 보조(Lane Keeping Assist, LKA)와, 상향등 보조(High Beam Assist, HBA)와, 자동 긴급 제동(Autonomous Emergency Braking, AEB)과, 교통 표지판 인식(Traffic Sign Recognition, TSR)과, 스마트 크루즈 컨트롤(Smart Cruise Control, SCC)과, 사각지대 감지(Blind Spot Detection, BSD) 등을 제공할 수 있다.The
운전자 보조 시스템(100)은 차량 스스로 도로 환경을 인식하고, 장애물과 주행 상황을 판단하며, 장애물을 회피하면서 계획된 주행 경로에 따라 차량의 주행을 제어함으로써 자동으로 목적지까지 주행하도록 하는 자율 주행 제어 장치를 포함할 수 있다.The
운전자 보조 시스템(100)은 차량(1) 주변의 영상 데이터를 획득하는 카메라 모듈(101)과, 차량(1) 주변의 장애물 데이터를 획득하는 레이더 모듈(102)을 포함한다.The
카메라 모듈(101)은 카메라(101a)와 제어기(Electronic Control Unit, ECU) (101b)를 포함하며, 차량(1)의 주변을 촬영하고 다른 차량, 보행자, 사이클리스트, 차선, 도로 표지판 등을 인식할 수 있다.The
레이더 모듈(102)은 레이더(102a)와 제어기(102b)를 포함하며, 차량(1) 주변의 장애물(예를 들어, 다른 차량, 보행자, 사이클리스트 등)의 상대 위치, 상대 속도 등을 획득할 수 있다.The
이상의 전자 부품들은 차량용 통신 네트워크(NT)를 통하여 서로 통신할 수 있다. 예를 들어, 전장 부품들은 이더넷(Ethernet), 모스트(MOST, Media Oriented Systems Transport), 플렉스레이(Flexray), 캔(CAN, Controller Area Network), 린(LIN, Local Interconnect Network) 등을 통하여 데이터를 송신 및 수신할 수 있다. The above electronic components may communicate with each other through the vehicle communication network NT. For example, electronic components transmit data through Ethernet, MOST (Media Oriented Systems Transport), Flexray, CAN (Controller Area Network), LIN (Local Interconnect Network), etc. Can transmit and receive.
운전자 보조 시스템(100)은 엔진 관리 시스템(11), 전자식 제동 제어 모듈(31) 및 전자식 조향 제어 장치(41)에 각각 차량용 통신 네트워크(NT)를 통하여 구동 제어 신호, 제동 제어 신호 및 조향 제어 신호를 전송할 수 있다.The
도 2은 실시 예에 의한 차량에 마련된 운전자 보조 시스템의 구성도이고, 도 3은 실시 예에 의한 차량의 운전자 보조 시스템에 포함된 카메라 및 레이더의 검출 영역의 예시도이다.2 is a configuration diagram of a driver assistance system provided in a vehicle according to an embodiment, and FIG. 3 is an exemplary view of a detection area of a camera and a radar included in the driver assistance system of a vehicle according to an embodiment.
도 2에 도시된 바와 같이, 차량(1)은 제동 시스템(32)과, 엔진 시스템(12), 조향 시스템(42)과, 운전자 보조 시스템(100)을 포함할 수 있다.As shown in FIG. 2 ,
엔진 시스템(12)은 도 1과 함께 설명된 엔진 관리 시스템(11)과 엔진(10)을 포함하고, 제동 시스템(32)은 도 1과 함께 설명된 전자식 제동 제어 모듈(31, 도 1 참조)과 제동 장치(30, 도 1 참조)를 포함하며, 조향 시스템(42)은 전자식 조향 장치(41, 도 1 참조)와 조향 장치(40, 도 1 참조)를 포함할 수 있다.The
본 실시 예의 운전자 보조 시스템(100)은 카메라 모듈(101)의 카메라로써 전방 카메라(110)를 포함할 수 있고, 레이더 모듈(102)의 레이더로써 전방 레이더(120)와 복수 개의 코너 레이더(130: 131, 132, 133, 134)를 포함할 수 있다.The
도 3에 도시된 바와 같이, 운전자 보조 시스템(100)은 차량(1)의 전방을 향하는 시야(field of view) (110a)를 확보하기 위한 전방 카메라(110)와, 전방 레이더(120)와, 복수 개의 코너 레이더(130)를 포함할 수 있다.As shown in FIG. 3, the
전방 카메라(110)는 차량(1)의 프론트 윈드 쉴드에 설치될 수 있다.The
전방 카메라(110)는 차량(1)의 전방을 촬영하고, 차량(1) 전방의 영상 데이터를 획득할 수 있다. 차량(1) 전방의 영상 데이터는 차량(1) 전방에 위치하는 다른 차량, 보행자, 사이클리스트, 차선, 연석, 가드레일, 가로수 및 가로등 중 적어도 하나에 관한 위치 정보를 포함할 수 있다.The
전방 카메라(110)는 복수의 렌즈들 및 이미지 센서를 포함할 수 있다. 이미지 센서는 광을 전기 신호로 변환하는 복수의 포토 다이오드들을 포함할 수 있으며, 복수의 포토 다이오드들이 2차원 매트릭스로 배치될 수 있다.The
전방 카메라(110)는 제어부(140)와 전기적으로 연결될 수 있다. 예를 들어, 전방 카메라(110)는 차량용 통신 네트워크(NT)를 통하여 제어부(140)와 연결되거나, 하드 와이어(hard wire)를 통하여 제어부(140)와 연결되거나, 인쇄 회로 기판(Printed Circuit Board, PCB)을 통하여 제어부(140)와 연결될 수 있다.The
전방 카메라(110)는 차량(1) 전방의 영상 데이터를 제어부(140)로 전달할 수 있다.The
전방 레이더(120)는 차량(1)의 전방을 향하는 감지 시야(field of sensing) (120a)을 가질 수 있다. 전방 레이더(120)는 예를 들어 차량(1)의 그릴(grille) 또는 범퍼(bumper)에 설치될 수 있다.The
전방 레이더(120)는 차량(1)의 전방을 향하여 송신 전파를 방사하는 송신 안테나(또는 송신 안테나 어레이)와, 장애물에 반사된 반사 전파를 수신하는 수신 안테나(또는 수신 안테나 어레이)를 포함할 수 있다. The
전방 레이더(120)는 송신 안테나에 의한 송신된 송신 전파와 수신 안테나에 의하여 수신된 반사 전파로부터 전방 레이더 데이터를 획득할 수 있다.The
전방 레이더 데이터는 차량(1) 전방에 위치하는 다른 차량 또는 보행자 또는 사이클리스트에 관한 위치 정보 및 속도 정도를 포함할 수 있다. The front radar data may include location information and speed of other vehicles or pedestrians or cyclists located in front of the
전방 레이더(120)는 송신 전파와 반사 전파 사이의 위상 차이(또는 시간 차이)에 기초하여 장애물까지의 상대 거리를 산출하고, 송신 전파와 반사 전파 사이의 주파수 차이에 기초하여 장애물의 상대 속도를 산출할 수 있다.The
전방 레이더(120)는 예를 들어 차량용 통신 네트워크(NT) 또는 하드 와이어 또는 인쇄 회로 기판을 통하여 제어부(140)와 연결될 수 있다. 전방 레이더(120)는 전방 레이더 데이터를 제어부(140)로 전달할 수 있다.The
복수 개의 코너 레이더(130)는 차량(1)의 전방 우측에 설치되는 제1 코너 레이더(131)와, 차량(1)의 전방 좌측에 설치되는 제2 코너 레이더(132)와, 차량(1)의 후방 우측에 설치되는 제3 코너 레이더(133)와, 차량(1)의 후방 좌측에 설치되는 제4 코너 레이더(134)를 포함한다.The plurality of
제1 코너 레이더(131)는 차량(1)의 전방 우측을 향하는 감지 시야(131a)를 가질 수 있다. 제1 코너 레이더(131)는 차량(1)의 전방 범퍼의 우측에 설치될 수 있다. The
제2 코너 레이더(132)는 차량(1)의 전방 좌측을 향하는 감지 시야(132a)를 가질 수 있으며, 차량(1)의 전방 범퍼의 좌측에 설치될 수 있다. The
제3 코너 레이더(133)는 차량(1)의 후방 우측을 향하는 감지 시야(133a)를 가질 수 있으며, 차량(1)의 후방 범퍼의 우측에 설치될 수 있다. The
제4 코너 레이더(134)는 차량(1)의 후방 좌측을 향하는 감지 시야(134a)를 가질 수 있으며, 차량(1)의 후방 범퍼(리어 패널)의 좌측에 설치될 수 있다.The
제1, 제2, 제3 및 제4 코너 레이더들(131, 132, 133, 134) 각각은 송신 안테나와 수신 안테나를 포함할 수 있다. Each of the first, second, third, and
제1, 제2, 제3 및 제4 코너 레이더들(131, 132, 133, 134)은 각각 제1 코너 레이더 데이터와 제2 코너 레이더 데이터와 제3 코너 레이더 데이터와 제4 코너 레이더 데이터를 획득할 수 있다.The first, second, third, and
제1 코너 레이더 데이터는 차량(1) 전방 우측에 위치하는 다른 차량, 보행자 또는 사이클리스트(이하 "장애물"이라 한다)에 관한 거리 정보 및 속도 정도를 포함할 수 있다.The first corner radar data may include distance information and speed about another vehicle, pedestrian, or cyclist (hereinafter referred to as “obstacle”) located on the right front side of the
제2 코너 레이더 데이터는 차량(1) 전방 좌측에 위치하는 장애물의 거리 정보 및 속도 정도를 포함할 수 있다. The second corner radar data may include distance information and speed of an obstacle located on the left front side of the
제3 및 제4 코너 레이더 데이터는 차량(1) 후방 우측 및 차량(1) 후방 좌측에 위치하는 장애물의 거리 정보 및 속도 정보를 포함할 수 있다.The third and fourth corner radar data may include distance information and speed information of obstacles located on the rear right side of the
제1, 제2, 제3 및 제4 코너 레이더들(131, 132, 133, 134) 각각은 차량용 통신 네트워크(NT) 또는 하드 와이어 또는 인쇄 회로 기판을 통하여 제어부(140)와 연결될 수 있다. 제1, 제2, 제3 및 제4 코너 레이더들(131, 132, 133, 134)은 각각 제1, 제2, 제3 및 제4 코너 레이더 데이터를 제어부(140)로 전달할 수 있다.Each of the first, second, third, and
제어부(140)는 카메라 모듈(101, 도 1 참조)의 제어기(101b, 도 1 참조) 및/또는 레이더 모듈(102, 도 1 참조)의 제어기(102b, 도 1 참조) 및/또는 별도의 통합 제어기를 포함할 수 있다.The
제어부(140)는 제1프로세서(141)와 제2메모리(142)를 포함한다.The
제1프로세서(141)는 전방 카메라(110)의 전방 영상 데이터와 전방 레이더(120)의 전방 레이더 데이터와 복수의 코너 레이더들(130)의 코너 레이더 데이터를 처리하고, 엔진 시스템(12), 제동 시스템(32) 및 조향 시스템(42)을 제어하기 위한 가속 신호, 제동 신호 및 조향 신호를 생성할 수 있다. The
예를 들어, 제1프로세서(141)는 전방 카메라(110)의 전방 영상 데이터를 처리하는 이미지 시그널 프로세서 및/또는 레이더들(120, 130)의 레이더 데이터를 처리하는 디지털 시그널 프로세서 및/또는 제동 신호와 조향 신호를 생성하는 마이크로 컨트롤 유닛(Micro Control Unit, MCU)를 포함할 수 있다.For example, the
제1프로세서(141)는 전방 카메라(110)의 전방 영상 데이터와 전방 레이더(120)의 전방 레이더 데이터에 기초하여 차량(1) 전방의 장애물들(예를 들어, 다른 차량, 보행자, 사이클리스트, 연석, 가드레일, 가로수, 가로등 등)을 감지할 수 있다.The
구체적으로, 제1프로세서(141)는 전방 레이더(120)의 전방 레이더 데이터에 기초하여 차량(1) 전방의 장애물들의 위치 정보(거리 및 방향) 및 속도 정보(상대 속도)를 획득할 수 있다. 제프로세서(141)는 전방 카메라(110)의 전방 영상 데이터에 기초하여 차량(1) 전방의 장애물들의 위치 정보(방향) 및 유형 정보(예를 들어, 장애물이 다른 차량인지, 또는 보행자인지, 또는 사이클리스트인지, 또는 연석인지, 또는 가드레일인지, 또는 가로수인지, 또는 가로등인지 등)를 획득할 수 있다.Specifically, the
또한, 제1프로세서(141)는 전방 영상 데이터에 의하여 감지된 장애물들을 전방 레이더 데이터에 의한 감지된 장애물에 매칭하고, 매칭 결과에 기초하여 차량(1)의 전방 장애물들의 유형 정보와 위치 정보와 속도 정보를 획득할 수 있다.In addition, the
제1프로세서(141)는 전방 장애물들의 유형 정보와 위치 정보와 속도 정보에 기초하여 가속 신호, 제동 신호와 조향 신호를 생성할 수 있다.The
예를 들어, 제1프로세서(141)는 전방 장애물들의 위치 정보(상대 거리)와 속도 정보(상대 속도)에 기초하여 차량(1)과 전방 장애물 사이의 충돌까지의 시간(Time to Collision, TTC)를 산출하고, 충돌까지의 시간과 미리 정해진 기준 시간 사이의 비교 결과에 기초하여 운전자에게 충돌을 경보하거나 제동 신호를 제동 시스템(32)으로 전송하거나, 조향 신호를 조향 시스템(42)에 전송할 수 있다.For example, the
제1프로세서(141)는 전방 장애물들의 위치 정보 중 방향 정보에 기초하여 조향 신호를 조향 시스템(42)에 전송할 수 있다.The
다른 예로, 제1프로세서(141)는 전방 장애물들의 속도 정보(즉 상대 속도)에 기초하여 충돌까지의 거리(Distance to Collision, DTC)를 산출하고, 충돌까지의 거리와 전방 장애물들까지의 거리 사이의 비교 결과에 기초하여 운전자에게 충돌을 경보하거나 제동 신호를 제동 시스템(32)으로 전송할 수 있다.As another example, the
제1프로세서(141)는 복수의 코너 레이더들(130)의 코너 레이더 데이터에 기초하여 차량(1) 측방(전방 우측, 전방 좌측, 후방 우측, 후방 좌측)의 장애물들의 위치 정보(거리 및 방향) 및 속도 정보(상대 속도)를 획득할 수 있다.The
제1메모리(142)는 제1프로세서(141)가 영상 데이터를 처리하기 위한 프로그램 및/또는 데이터와, 레이더 데이터를 처리하기 위한 프로그램 및/또는 데이터와, 프로세서(141)가 제동 신호 및/또는 조향 신호를 생성하기 위한 프로그램 및/또는 데이터를 저장할 수 있다.The
제1메모리(142)는 전방 카메라(110)로부터 수신된 영상 데이터 및/또는 레이더들(120, 130)로부터 수신된 레이더 데이터를 임시로 기억하고, 프로세서(141)의 영상 데이터 및/또는 레이더 데이터의 처리 결과를 임시로 기억할 수 있다.The
제1메모리(142)는 S램(S-RAM), D램(D-RAM) 등의 휘발성 메모리뿐만 아니라 플래시 메모리, 롬(Read Only Memory, ROM), 이피롬(Erasable Programmable Read Only Memory: EPROM) 등의 비휘발성 메모리를 포함할 수 있다.The
도 4는 실시 예에 따른 차량에 마련된 운전자 보조 시스템의 제어 구성도로, 크루즈 컨트롤 모드를 수행하는 운전자 보조 시스템의 제어 구성도이다.4 is a control configuration diagram of a driver assistance system provided in a vehicle according to an embodiment, and is a control configuration diagram of a driver assistance system performing a cruise control mode.
운전자 보조 시스템의 제어 구성은, 도 2와 같이 설계되는 것도 가능하지만, 도 4와 같이 설계되는 것도 가능하다. 본 실시 예에서는 도 4의 제어 구성을 예를 들어 설명하도록 한다. The control configuration of the driver assistance system may be designed as shown in FIG. 2 , but may also be designed as shown in FIG. 4 . In this embodiment, the control configuration of FIG. 4 will be described as an example.
즉 운전자 보조 시스템(200)은, 통신부(200a), 제2프로세서(200b) 및 제2메모리(200c)를 포함할 수 있고, 통신부(200ㅁ)를 통해 차량 내에 마련된 각종 장치와 통신을 수행할 수 있다.That is, the
본 실시 예에 의한 운전자 보조 시스템(200) 내에 마련된 프로세서와 차량(1) 내에 마련된 프로세서 간의 구별을 위해, 본 실시 예에 의한 운전자 보조 시스템(200) 내에 마련된 프로세서를 제2프로세서'로 기재하고 차량(1) 내에 마련된 프로세서를 '제3 프로세서'로 기재하도록 한다.In order to distinguish between the processor provided in the
통신부(200a)는 운전자 보조 시스템(200) 내 각종 전자 장치와 통신을 수행할 수 있고, 차량(1) 내 각종 전자 장치와 통신을 수행할 수도 있다.The
통신부(200a)는 외부 장치와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.The
근거리 통신 모듈은 블루투스 모듈, 적외선 통신 모듈, RFID(Radio Frequency Identification) 통신 모듈, WLAN(Wireless Local Access Network) 통신 모듈, NFC 통신 모듈, 직비(Zigbee) 통신 모듈 등 근거리에서 무선 통신망을 이용하여 신호를 송수신하는 다양한 근거리 통신 모듈을 포함할 수 있다.The short-range communication module uses a wireless communication network such as a Bluetooth module, an infrared communication module, a Radio Frequency Identification (RFID) communication module, a Wireless Local Access Network (WLAN) communication module, an NFC communication module, and a Zigbee communication module to transmit signals at a short distance. It may include various short-range communication modules that transmit and receive.
유선 통신 모듈은 캔(Controller Area Network; CAN) 통신 모듈, 지역 통신(Local Area Network; LAN) 모듈, 광역 통신(Wide Area Network; WAN) 모듈 또는 부가가치 통신(Value Added Network; VAN) 모듈 등 다양한 유선 통신 모듈뿐만 아니라, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), DVI(Digital Visual Interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 다양한 케이블 통신 모듈을 포함할 수 있다. Wired communication modules include various wired communication modules, such as Controller Area Network (CAN) communication modules, Local Area Network (LAN) modules, Wide Area Network (WAN) modules, or Value Added Network (VAN) modules. In addition to communication modules, various cable communications such as USB (Universal Serial Bus), HDMI (High Definition Multimedia Interface), DVI (Digital Visual Interface), RS-232 (recommended standard 232), power line communication, or POTS (plain old telephone service) modules may be included.
무선 통신 모듈은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution) 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.In addition to the WiFi module and the WiBro module, wireless communication modules include global system for mobile communication (GSM), code division multiple access (CDMA), wideband code division multiple access (WCDMA), and universal mobile telecommunications system (UMTS). ), a wireless communication module supporting various wireless communication schemes such as Time Division Multiple Access (TDMA) and Long Term Evolution (LTE).
이러한 통신부(200a)는 운전자 보조 시스템이 아닌 차량에 마련되는 것도 가능하다. 이 경우 차량에 마련된 통신부는 운전자 보조 시스템의 제2프로세서와 통신을 수행할 수 있다.Such a
통신부(200a)는 운전자 보조 시스템과 차량(1) 내에 각각 마련될 수 있고, 운전자 보조 시스템의 통신부와 차량(1) 내에 마련된 통신부는 서로 통신을 수행하는 것도 가능하다.The
제2프로세서(200b)는 통신부를 통해 제3프로세서와 정보 또는 신호를 송신 및 수신할 수 있다.The
제2프로세서(200b)는 제3프로세서(250)로부터 웨이크 업 명령이 수신되면 웨이크 업을 수행한 후 크루즈 컨트롤 모드를 수행하고, 제3프로세서(250)로부터 슬립 명령이 수신되면 크루즈 컨트롤 모드를 종료하고 슬립 모드로 전환할 수 있다.The
제2프로세서(200b)는 크루즈 컨트롤 모드를 수행할 때 통신부(200a)를 통해 제3프로세서에서 전송된 영상 정보, 주행 정보 및 장애물 정보를 수신할 수 있고, 가속 신호, 감속 신호 및 조향 신호 중 적어도 하나를 통신부(200a)를 통해 제3프로세서에 전송할 수 있다.When performing the cruise control mode, the
제2프로세서(200b)는 크루즈 컨트롤 모드를 수행할 때 목표 주행 속도로 주행하도록 제어하고, 장애물 검출부(220)에 의해 검출된 장애물 정보에 기초하여 가속 신호 또는 감속 신호를 생성함으로써 장애물 회피를 위한 차량(1)의 가속 또는 감속이 수행되도록 할 수 있다.The
제2프로세서(200b)는 장애물을 회피하기 위한 조향 신호를 생성하는 것도 가능하고, 충돌 위험 정보의 출력을 제어하는 것도 가능하다. 여기서 충돌 위험 정보는 사용자에 의한 충돌 위험 알림 모드의 선택 여부에 따라 출력되거나, 출력되지 않을 수 있다. The
제2프로세서(200b)는 크루즈 컨트롤 모드의 수행 중 장애물 검출부(220)에서 검출된 장애물 정보에 기초하여 전방에 장애물이 없다고 판단되면 속도 검출부(231)에 의해 검출된 주행 속도 정보에 기초하여 차량(1)이 목표 주행 속도로 주행하도록 제어할 수 있다.When it is determined that there is no obstacle ahead based on the obstacle information detected by the
제2프로세서(200b)는 크루즈 컨트롤 모드의 수행 중 장애물 검출부(220)에서 검출된 장애물 정보에 기초하여 전방에 장애물이 존재한다고 판단되면 장애물의 위치 정보와 장애물의 속도 정보 및 속도 검출부(231)에 의해 검출된 주행 속도 정보에 기초하여 주행 속도를 조절하면서 주행하도록 제어할 수 있다.When the
즉 제2프로세서(200b)는 크루즈 컨트롤 모드의 수행 중 차량(1)의 주행 경로 내의 전방에서 주행하는 하나 또는 두 대 이상의 타 차량의 주행 정보에 기초하여 가속 또는 감속을 제어할 수 있다. 여기서 하나 또는 두 대 이상의 타 차량은, 크루즈 컨트롤 모드의 수행 중 충돌 방지를 위한 타깃 차량일 수 있다.That is, while performing the cruise control mode, the
제2프로세서(200b)는 크루즈 컨트롤 모드의 수행 중 장애물 검출부(220)에서 검출된 장애물 정보에 기초하여 전방의 제1타깃 차량(2)의 주행 정보 및 제2 타깃 차량(3)의 주행 정보를 획득하고 획득한 전방의 제1 타깃 차량(2)의 주행 정보 및 제2 타깃 차량(3)의 주행 정보에 기초하여 감속 신호 또는 가속 신호를 생성할 수 있다. 여기서 전방의 제1, 2 타깃 차량의 주행 정보는 상대 속도 정보 및 상대 거리 정보를 포함할 수 있다.The
좀 더 구체적으로, 제2프로세서(200b)는 크루즈 컨트롤 모드의 수행 중 장애물 검출부(220)에서 검출된 장애물 정보에 기초하여 제1 타깃 차량(2)과의 상대 거리 정보 및 상대 속도 정보를 획득하고, 획득된 제1 타깃 차량(2)과의 상대 거리 정보 및 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성하고, 제1 타깃 차량이 컷 아웃 상태일 때 제2 타깃 차량(3)의 상대 거리 정보 및 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성할 수 있다.More specifically, the
제2프로세서(200b)는 통신부(200a)에 수신된 정보들 중 차량(1)의 주행 경로 상에 존재하는 낙석, 보행자, 자전거나 차단기 등의 장애물에 대한 장애물의 정보에 기초하여 감속 및 제동을 제어하는 것도 가능하다. The
제2프로세서(200b)는 압력 검출부(234)에서 검출된 압력 정보에 기초하여 크루즈 컨트롤 모드의 해제를 제어할 수 있다. 이 경우 제3프로세서는 압력 검출부(234)에서 검출된 압력 정보에 기초하여 차량의 제동을 제어할 수 있다.The
제2프로세서(200b)는 수신된 영상 획득부(240)의 전방 카메라(120)의 전방 도로와 측방 도로의 영상 정보에 기초하여 전방에서 주행하는 제1타깃 차량이 컷 아웃 상태인지를 판단할 수 있다. 이를 도 5a, 도 5b 및 도 5c를 참조하여 설명한다.The
도 5a에 도시된 바와 같이 차량(1)이 주행하고 있는 상태에서, 도 5b에 도시된 바와 같이, 제2프로세서(200b)는 영상 획득부(240)에서 획득된 영상 정보 기초하여 자 차량의 전방 및 측방 도로에 대한 영상(M)을 획득할 수 있다.As shown in FIG. 5A , while the
제2프로세서(200b)는 획득된 영상에 대한 3차원 차량 검출 영상(3D vehicle detection (3DVD) image)을 생성할 수 있다.The
좀 더 구체적으로, 제2프로세서(200b)는 타 차량, 보행자, 자전거, 스쿠터 등 도로 위에서 움직일 수 있는 장애물들을 인식하고, 차선을 인식하며 도로 표면 종류 및 상태, 각도, 높낮이, 각 차선의 종류를 인식하며, 커브, 가드레일 등 주행 가능한 도로에 대한 경계를 구분하고, 도로 위나 주변의 신호등 및 표지판 또는 보행자의 움직임이나 타 차량의 램프 점등 여부를 인식한다.More specifically, the
제2프로세서(200b)는 영상을 픽셀 단위로 차량 및 사물들의 외형(Appearance), 원근감이나 움직임 등을 통해 3차원의 깊이(Geometry)를 인식하고 인식 정보에 기초하여 영상 획득부에서 획득된 2차원(2D) 영상을 3차원(3D) 영상으로 변환한다.The
즉 제2프로세서(200b)는 2차원 영상 정보에 기초하여 장애물을 검색하여 박스화하여 외형(appearance)을 확인한 후 신경망을 통해 학습하고. 학습 정보에 기초하여 3차원의 깊이(Geometry) 정보를 인식할 수 있다. That is, the
제2프로세서(200b)는 영상 정보를 장애물 검출부에서 검출된 장애물 정보에 주입하여 인공지능 신경망 학습을 수행하는 것도 가능하다.The
제2프로세서(200b)는 미리 저장된 고정밀 지도(HD 맵)을 활용하여 도로의 형태나 깊이, 각도, 높낮이 등을 구분해 3차원 영상 정보를 획득하는 것도 가능하다.The
도 5b에 도시된 바와 같이, 제2프로세서(200b)는 3차원 영상 정보에 기초하여 영상(M) 내 차선 오브젝트들(L1, L2, L3, L4, L5)를 인식하고, 인식된 차선 오브젝트들의 위치 정보에 기초하여 차량(1)이 주행하고 있는 자 차로(즉 제1차로라고도 함) 오브젝트(R1)를 인식하고, 영상 정보에 기초하여 장애물 오브젝트를 인식하고 인식된 장애물 오브젝트(2M, 3M, 4M) 중 자 차로를 주행하되 차량의 전방에서 주행하는 제1타킷 차량(2)에 대한 제1타킷 차량 오브젝트(2M)를 인식할 수 있다.As shown in FIG. 5B, the
제2프로세서(200b)는 자 차로를 이루는 양쪽 차선인 제1차선 오브젝트(L1)와 제2차선 오브젝트(L2)를 확인하고 확인한 제1차선 오브젝트(L1)의 위치 정보, 제2차선 오브젝트(L2)의 위치 정보 및 제1타깃 차량 오브젝트(2M)의 위치 정보에 기초하여 제1타깃 차량(2)이 컷 아웃 상태인지를 판단한다.The
여기서 제1타킷 차량의 컷 아웃 상태는, 제1타깃 차량(2)의 일부의 위치 정보와 제1차선의 위치 정보가 동일한 것을 포함한다. 즉, 제1타킷 차량(2)의 컷 아웃 상태는 제1타깃 차량(2)의 일부가 제1차선(L1) 상에 위치하는 상태일 수 있다.Here, the cut-out state of the first target vehicle includes the case where the location information of part of the
또한 제1타킷 차량(2)의 컷 아웃 상태는, 제1타깃 차량(2)의 일부의 위치 정보와 제2차선(L2)의 위치 정보가 동일한 것을 포함한다. 즉, 제1타킷 차량(2)의 컷 아웃 상태는 제1타깃 차량(2)의 일부가 제2차선(L2) 상에 위치하는 상태일 수 있다.In addition, the cut-out state of the
제2프로세서(200b)는 제1타킷 차량(2)이 컷 아웃 상태일 때, 제1타깃 차량 오브젝트(M2)와 오버랩된 차선 오브젝트(L1)를 획득하고 획득한 차선 오브젝트(L1)를 기준으로 제1타깃 차량 오브젝트(2M)의 영역을 자 차로 오브젝트(R1)에 위치하는 제1 영역(A1)과 타 차로 오브젝트(R2)에 위치하는 제2 영역(A2)으로 구분하고, 제1영역(A1)의 면적 정보를 획득하고 획득된 제1 영역(A1)의 면적 정보에 기초하여 제1타킷 차량(2)과의 충돌 위험도을 판단할 수 있다. When the
제2프로세서(200b)는 3차원 차량 검출 영상 정보에 기초하여 제1타깃 차량의 종방향 위치(longitudinal position) 정보, 횡방향 위치(lateral position) 정보, 길이(length) 정보, 폭(width) 정보, 헤딩 각도(heading angle) 정보를 획득하고 획득된 정보들에 기초하여 제1영역의 면적을 획득할 수 있다. The
헤딩 각도(heading angle)는 차선을 기준으로 제1타깃 차량의 프론트 패널이 회전한 각도일 수 있다. The heading angle may be an angle at which the front panel of the first target vehicle is rotated based on the lane.
이러한 3차원 차량 검출 영상 정보는 영상 획득부에서 획득되거나, 제3프로세서에서 획득되는 것도 가능하다. 이 경우, 제2프로세서(200b)는 영상 획득부나 제3프로세서로부터 3차원 차량 검출 영상 정보를 제공받을 수 있다.This 3D vehicle detection image information may be acquired by an image acquisition unit or acquired by a third processor. In this case, the
제2프로세서(200b)는 종방향 위치 정보와 횡방향 위치 정보에 기초하여 제1 타깃 차량의 리어 패널까지의 거리 정보(D)를 획득할 수 있다.The
아울러 제2프로세서(200b)는 제1타킷 차량(2)의 타 차로로의 차로 변경 의지가 존재하는지를 판단하는 것도 가능하다. In addition, the
도 5b에 도시된 바와 같이, 제2프로세서(200b)는 획득된 제1 영역(A1)의 면적 정보에 기초하여 획득된 제1 영역(A1)의 면적이 기준 면적 이하라고 판단되면 충돌 위험도가 기준 위험도 이하라고 판단하여 영상 내에서 제2 타깃 차량 오브젝트(3M)를 인식하고, 영상 정보 및 장애물 검출부에 의해 검출된 장애물 정보에 기초하여 인식한 제2타깃 차량 오브젝트(2M)에 대응하는 제2타킷 차량(2)의 주행 정보를 획득하고, 획득한 제2타킷 차량(2)의 주행 정보에 기초하여 가속 신호 또는 감속 신호를 생성할 수 있다. As shown in FIG. 5B , if the
도 5c에 도시된 바와 같이, 제2프로세서(200b)는 획득된 제1 영역(A1)의 면적 정보에 기초하여 획득된 제1 영역(A1)의 면적이 기준 면적을 초과한다고 판단되면 제1타킷 차량(2)이 컷 아웃 상태이나 제1타킷 차량(2)과의 충돌 위험도가 기준 위험도를 초과한다고 판단하고 제1 타깃 차량(2)의 상대 거리 정보, 상대 속도 정보와 제2타깃 차량(3)의 상대 거리 정보 및 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성할 수 있다.As shown in FIG. 5C , the
여기서 기준 면적은, 제1 타깃 차량의 종류에 따라 상이할 수 있다.Here, the reference area may be different according to the type of the first target vehicle.
제2프로세서(200b)는 제1타킷 차량 오브젝트(2M)의 영역 중 제1영역(A1)의 면적에 기초하여 제1타킷 차량(2)이 컷 아웃 상태인지를 1차로 판단한 후, 제1타깃 차량 오브젝트(2M)에서 리어 패널 오브젝트를 획득하고, 획득한 리어 패널 오브젝트의 위치 정보와 중첩된 차선 오브젝트의 위치 정보를 획득하며, 획득한 리어 패널 오브젝트의 위치 정보와 중첩된 차선 오브젝트의 위치 정보에 기초하여 리어 패널 오브젝트와 중첩된 차선 오브젝트 사이의 거리 정보(D)를 획득하고, 획득된 거리 정보와 장애물 검출부에 의해 검출된 제1타깃 차량(2)의 횡방향 상대 속도 정보에 기초하여 제1타킷 차량(2)이 컷 아웃 상태인지를 2차로 판단할 수 있다.The
제2프로세서(200b)는 종방향 위치 정보와 횡방향 위치 정보에 기초하여 제1 타깃 차량의 리어 패널까지의 거리 정보(D)를 획득할 수 있다.The
제2프로세서(200b)는 제1타킷 차량(2)이 컷 아웃 상태일 때, 제 제1영역(A1)의 면적의 전체 영역(A1+A2)의 면적에 대한 비율(A1/A1+A2)을 획득하고 획득한 비율에 기초하여 제1타킷 차량(2)과의 충돌 위험도를 판단하는 것도 가능하다.The
좀 더 구체적으로, 제2프로세서(200b)는 획득한 비율이 기준 비율 이하라고 판단되면 제1타킷 차량(2)과의 충돌 위험도가 기준 위험도 이하라고 판단하여 영상 내에서 제2 타깃 차량 오브젝트(3M)를 인식하고, 영상 정보 및 장애물 검출부(220)에 의해 검출된 장애물 정보에 기초하여 인식한 제2타깃 차량 오브젝트(3M)에 대응하는 제2타킷 차량(3)의 주행 정보를 획득하고, 획득한 제2타킷 차량(3)의 주행 정보에 기초하여 가속 신호 또는 감속 신호를 생성할 수 있다. More specifically, when the obtained ratio is determined to be less than or equal to the reference ratio, the
제2프로세서(200b)는 획득한 비율이 기준 비율을 초과한다고 판단되면 제1타깃 차량(2)이 컷 아웃 상태이나 제1타깃 차량(2)과의 충돌 위험도가 기준 위험도를 초과한다고 판단하고 제1 타깃 차량(2)의 주행 정보와 제2타깃 차량(3)의 주행 정보에 기초하여 가속 신호 또는 감속 신호를 생성할 수 있다.When it is determined that the obtained ratio exceeds the reference ratio, the
여기서 기준 비율은, 제1 타깃 차량의 종류에 따라 상이할 수 있다.Here, the reference ratio may be different according to the type of the first target vehicle.
제2프로세서(200b)는 영상 내 자 차로의 양쪽 차선 오브젝트를 인식하고 인식한 양쪽 차선 오브젝트 중 어느 하나의 차선 오브젝트와 제3타깃 차량(4)에 대한 제3타깃 차량 오브젝트(4M)가 오버랩된다고 판단되면 제3타깃 차량 오브젝트(4M)의 영역 중 자 차로 오브젝트(R1)에 위치한 제3 타깃 차량 오브젝트(4M)의 영역의 면적을 획득하고 획득한 면적에 기초하여 제3 타깃 차량의 컷 인 상태를 판단하는 것도 가능하다.The
제2프로세서(200b)는 제1타깃 차량(2)에게 차로 변경 의지가 존재한다고 판단되면 장애물 검출부(220)에 의해 검출된 장애물 정보와 영상 획득부(240)에 의해 획득된 영상 정보에 기초하여 제3타깃 차량(3)을 획득하고, 획득한 제3타깃 차량(3)과의 상대 거리 정보 및 상대 속도 거리 정보에 기초하여 가속신호 또는 감속 신호를 생성할 수 있다.When the
제2프로세서(200b)는 획득한 제3타깃 차량(3)과의 상대 거리 정보 및 상대 속도 거리 정보에 기초하여 목표 가속도 또는 목표 감속도를 획득하고 획득한 목표 가속도 또는 목표 감속도에 대응하는 가속신호 또는 감속 신호를 생성할 수 있다.The
제2프로세서(200b)는 제1타깃차량(2)이나 제2타깃 차량(3)과 충돌하기까지의 시간 정보 또는 제1타깃 차량(2)이나 제2타깃차량(3)과의 상대 거리 정보에 기초하여 엔진 시스템(12), 제동 시스템(32) 및 조향 시스템 중 적어도 하나의 동작이 제어되도록 할 수 있다.The
제2프로세서(200b)는 하나의 프로세서로 구현하는 것도 가능하다. The
도 6에 도시된 바와 같이, 제2프로세서(200b)는 복수 개의 프로세서로 구현하는 것도 가능하다.As shown in FIG. 6 , the
제2프로세서(200b)는 영상 획득부(240)에서 획득된 영상 정보를 신호 처리하여 노이즈를 제거하고 오브젝트들을 인식 및 분류하는 전처리 프로세서(b1)와, 영상 내 오브젝트들 중 제1타깃 차량(2)에 대한 제1타깃 차량 오브젝트를 인식하는 제1타깃 오브젝트 인식 프로세서(b2)와, 제1타깃 차량(2)이 컷 아웃 상태인지를 1차적으로 분석 및 판단하는 제1분석 프로세서(b3)와, 제1타깃 차량 오브젝트에 의해 형성되는 영역을 구분으로 구분된 영역들 중 제1영역의 면적 정보를 획득하는 면적 획득 프로세서(b4)와, 제1영역의 면적 정보에 기초하여 제1타깃 차량(2)이 컷 아웃 상태인지를 2차적으로 분석 및 판단하는 제2분석 프로세서(b5)와, 제2분석 프로세서에서의 분석 결과에 기초하여 인식한 오브젝트들 중 제2타깃 차량(2)에 대한 제2타깃 차량 오브젝트를 인식하는 제2타깃 오브젝트 인식 프로세서(b6)를 포함할 수 있다.The
제2분석 프로세서(b5)는 제1타깃 차량 오브젝트에서 제1타킷 차량(2)의 리어 패널에 대한 리어 패널 오브젝트를 인식하고, 인식한 리어 패널 오브젝트(RP)와 차선 오브젝트(L1) 사이의 거리 정보를 획득하고, 획득한 거리 정보와 제1영역의 면적 정보 및 제1타깃 차량(2)의 횡방향 속도 정보에 기초하여 제1타깃 차량(2)이 컷 아웃 상태인지를 2차적으로 분석 및 판단하는 것도 가능하다.The second analysis processor b5 recognizes a rear panel object for the rear panel of the
제2분석 프로세서(b5)는 장애물 검출부(220)에 의해 검출된 제1타깃 차량(2)의 상대 속도 정보 및 상대 거리 정보와, 주행 정보 검출부(230)에 의해 획득된 자 차량의 횡방향의 속도 정보에 기초하여 제1타깃 차량(2)의 횡방향 속도 정보를 획득할 수 있다.The second analysis processor b5 determines the relative speed information and relative distance information of the
오브젝트들은, 차선, 제1, 2 타깃 차량을 포함한 타 차량, 보행자, 가로등, 가로수, 중앙분리대와 같은 장애물에 대한 오브젝트 영상일 수 있다.Objects may be object images of lanes, other vehicles including first and second target vehicles, pedestrians, streetlights, street trees, and obstacles such as median barriers.
제2프로세서(200b)는 운전자 보조 시스템(200) 내 구성부들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리(미도시)를 더 포함할 수 있고 이 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행할 수 있다. The
예를 들어, 메모리(미도시)는 제2프로세서(200b)가 영상 데이터를 처리하기 위한 프로그램 및/또는 데이터와, 레이더 데이터를 처리하기 위한 프로그램 및/또는 데이터와, 제2프로세서(200b)가 가속 신호, 제동 신호 및/또는 조향 신호를 생성하기 위한 프로그램 및/또는 데이터를 저장할 수 있다.For example, a memory (not shown) includes a program and/or data for processing image data by the
메모리(미도시)는 전방 카메라(110)로부터 수신된 영상 데이터 및/또는 레이더들(120, 130)로부터 수신된 레이더 데이터를 임시로 기억하고, 제2프로세서(200b)의 영상 데이터 및/또는 레이더 데이터의 처리 결과를 임시로 기억할 수 있다.The memory (not shown) temporarily stores image data received from the
메모리(미도시)와 제2프로세서(200b)는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리(미도시)와 제2프로세서(200b)는 단일 칩으로 구현될 수도 있다.The memory (not shown) and the
제2메모리(200c)는 목표 주행 속도에 대한 정보를 저장할 수 있다. 여기서 목표 주행 속도는 미리 설정된 주행 속도로, 차량 제조 시에 설정된 주행 속도일 수도 있고, 사용자에 의해 설정된 주행 속도일 수도 있다.The
제2메모리(200c)는 제1타깃 차량의 컷 아웃 상태를 판단하기 위한 기준 면적 정보를 저장하는 것도 가능하고, 기준 비율 정보를 저장하는 것도 가능하다.The
제2메모리(200c)는 제1타깃 차량의 종류 별 기준 면적 정보를 저장하는 것도 가능하다.The
제1타깃 차량의 종류는, 대형 차량, 중형 차량, 소형 차량을 포함할 수 있다. The type of the first target vehicle may include a large vehicle, a medium vehicle, and a small vehicle.
제1타깃 차량의 종류는, 타 차량의 모델 정보 및 타 차량의 차체 사이즈 정보에 의해 획득될 수 있다.The type of the first target vehicle may be obtained based on model information of the other vehicle and body size information of the other vehicle.
제2메모리(200c)는 충돌 위험의 경보에 대응하는 사운드의 종류 및 크기 정보를 저장할 수 있다. The
제2메모리(200c)는 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래시 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(HDD, Hard Disk Drive), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다.The
제2메모리(200c)와 제2프로세서(200b)는 각각 별개의 칩으로 구현될 수 있다. 또는, 제2메모리(200c)는 와 제2프로세서(200b)는 단일 칩으로 구현될 수도 있다.The
차량(1)은 사용자 인터페이스(210), 장애물 검출부(220), 주행 정보 검출부(230), 영상 획득부(240), 제3프로세서(250)를 포함하고, 엔진 시스템(12), 제동 시스템(32) 및 조향 시스템(42)을 더 포함할 수 있다.The
이하 설명에서 차량을 자 차량, 자 차량의 전방에서 주행하는 다른 차량을 제1타깃 차량 및 제2 타깃 차량으로 기재하도록 한다. In the following description, the vehicle will be described as the first target vehicle and the second target vehicle, respectively.
사용자 인터페이스(210)는 사용자 입력을 수신하는 입력부(211)와, 동작 정보를 표시하는 표시부(212)를 포함할 수 있다.The
사용자 인터페이스(210)는 라디오 기능, 오디오 기능, 비디오 기능, 맵 표시 기능, 내비게이션 기능, DMB 기능, 컨텐츠 재생 기능, 인터넷 검색 기능 중 적어도 하나를 수행하는 차량용 단말기(AVN)일 수 있다.The
입력부(211)는 자율 주행 모드 및 크루즈 컨트롤 모드의 온 명령 및 오프 명령을 수신하고 수신된 명령에 대한 신호를 제3프로세서(250)에 전송할 수 있다.The
입력부(211)는 차량(1)에서 수행 가능한 기능 중 어느 하나의 기능에 대한 동작 명령을 수신할 수 있다. 예를 들어, 입력부(211)는 라디오 기능, 오디오 기능, 비디오 기능, 맵 표시 기능, 내비게이션 기능, DMB 기능, 컨텐츠 재생 기능, 인터넷 검색 기능 중 적어도 하나의 동작 명령을 입력받을 수 있다.The
입력부(211)는 자율 주행 모드 및 크루즈 컨트롤 모드를 수행하기 위한 목표 주행 속도를 입력받는 것도 가능하다.The
입력부(211)는 장애물과의 충돌 가능성을 알려주는 충돌 위험 알림 모드의 온 명 및 오프 명령을 수신할 수 있다.The
입력부(211)는 차량(1) 내 헤드유닛 또는 센터페시아에 마련될 수 있고, 차량용 단말기에 마련될 수도 있다. 입력부(211)는 버튼, 키, 스위치, 조작 레버, 조그 다이얼 등으로 마련될 수 있고, 터치 패드로 마련될 수도 있다.The
표시부(212)는 수행 중인 기능에 대한 동작 정보를 표시한다. 예를 들어, 표시부(212)는 전화 통화와 관련된 정보를 표시하거나, 단말기(미도시)를 통해 출력되는 콘텐츠의 정보를 표시하거나, 음악 재생과 관련된 정보를 표시하는 것도 가능하고 외부의 방송 정보를 표시한다.The
표시부(212)는 내비게이션 모드 시 지도 정보를 표시하고, 목적지까지의 경로가 매칭된 지도 정보와 길 안내 정보를 표시하는 것도 가능하다. The
표시부(212)는 충돌 위험 알림 모드의 온오프 정보를 표시할 수 있다. The
표시부(212)는 도로의 영상을 표시하거나, 보행자의 위치 정보 및 타 차량의 위치 정보를 표시하는 것도 가능하다.The
표시부(212)는 장애물과의 충돌을 알리는 충돌 위험 정보를 영상으로 표시할 수 있다.The
표시부(212)는 장애물 회피를 위한 가속 정보, 감속 정보와 조향 정보를 영상으로 표시하는 것도 가능하다. The
표시부(212)는 자율 주행 모드 또는 크루즈 컨트롤 모드에서의 목표 주행 속도와 실제 주행 속도에 대한 주행 정보를 표시하는 것도 가능하다.The
표시부(212)는 LED 등과 같은 램프나 LCD등과 같은 평판 디스플레이 장치일 수 있다.The
입력부(211)가 터치 패널로 이루어진 경우, 표시부(212)는 터치 패널과 일체로 마련된 평판 또는 곡면의 터치 스크린으로 마련될 수 있다.When the
사용자 인터페이스(210)는 클러스터(213)를 더 포함할 수 있다.The
클러스터(213)는 타코미터, 속도계, 냉각수 온도계, 연료계, 방향전환 지시등, 상향등 표시등, 경고등, 안전벨트 경고등, 주행 거리계, 주행 기록계, 변속 레버 표시등, 도어 열림 경고등, 엔진 오일 경고등, 연료부족 경고등을 포함할 수 있다.
클러스터(213)는 충돌 위험 정보를 지시하는 램프 및 디스플레이를 포함할 수 있다. 이러한 클러스터(213)는 제3프로세서(250)의 제어 명령에 대응하여 클러스터의 램프를 점등 또는 소등시킬 수 있고 디스플레이에 영상을 표시할 수 있다.The
예를 들어, 클러스터(213)는 충돌 위험 정보에 대한 영상을 표시할 수 있다.For example, the
클러스터(213)는 자율 주행 모드 또는 크루즈 컨트롤 모드에서의 주행 속도 정보를 표시하는 것도 가능하다.The
클러스터(213)는 가속 요청 정보, 감속 요청 정보 및 조향 요청 정보를 표시할 수 있다.The
사용자 인터페이스는 사운드 출력부(214)를 더 포함할 수 있다.The user interface may further include a
사운드 출력부(214)는 제3프로세서(250)의 제어 명령에 대응하여 사운드를 출력하되, 제3프로세서(250)의 제어 명령에 대응하는 레벨로 사운드를 출력한다.The
사운드 출력부(214)는 장애물과의 충돌에 대해 위험을 알릴 수 있도록 경보 정보를 사운드로 출력할 수 있다. 이러한 사운드 출력부(214)는 하나 또는 둘 이상의 스피커일 수 있다.The
사운드 출력부(214)는 전방의 제 1타깃 차량(2)과 제2타깃 차량(3)과의 충돌 위험 알림에 대한 사운드를 출력하되, 서로 다른 음향의 사운드를 출력하는 것도 가능하다. The
사운드 출력부(214)는 가속 요청 정보, 감속 요청 정보 및 조향 요청 정보를 서로 다른 사운드로 출력할 수 있다.The
장애물 검출부(220)는 차량(1)의 전방 및 좌우 측방의 장애물을 검출하고, 검출된 장애물에 대한 장애물 정보를 제3프로세서(250)에 전송한다. 여기서 장애물 정보는 장애물의 위치 정보를 포함할 수 있고, 장애물의 위치 정보는 장애물과의 거리 정보 및 장애물의 방향 정보를 포함할 수 있다. 장애물과의 거리에 대한 거리 정보는 장애물과의 상대 거리에 대한 거리 정보일 수 있다.The
이러한 장애물 검출부(220)는 전방 레이더(120), 제1, 2 코너 레이더(131, 132)를 포함할 수 있고 전방 카메라를 더 포함할 수 있다.The
아울러 장애물 검출부(220)는 라이더 센서를 포함하는 것도 가능하다. 라이다(LiDAR: Light Detection And Ranging) 센서는 레이저 레이다(Laser Radar) 원리를 이용한 비접촉식 거리 검출 센서이다. 라이다 센서는 레이저를 송신하는 송신부와, 센서 범위 내에 존재하는 물체의 표면에 반사되어 돌아오는 레이저를 수신하는 수신부를 포함할 수 있다.In addition, the
장애물 검출부(220)는 초음파 센서를 포함할 수도 있다.The
초음파 센서는 초음파를 일정시간 발생시킨 뒤 물체에 반사되어 돌아오는 신호를 검출한다. 이러한 초음파 센서는 근거리 범위 내에서 보행자 등의 장애물의 유무를 판별하는데 사용될 수 있다.The ultrasonic sensor generates ultrasonic waves for a certain period of time and then detects a signal that is reflected from an object and returns. Such an ultrasonic sensor may be used to determine the presence or absence of an obstacle such as a pedestrian within a short range.
장애물 검출부(220)는 차량(1)의 후방의 장애물을 검출하는 것도 가능하다.The
차량(1)은 주행 속도 정보, 주행 방향 정보, 가속도 정보, 요레이트 정보, 감속 정보 및 가속 정보와 같은 차량의 주행 정보를 검출하는 주행 정보 검출부(230)를 포함할 수 있다.The
여기서 가속도 정보는 차량의 차체를 기준으로 횡방향의 가속도 정보와 종방향의 가속도 정보를 포함할 수 있다.Here, the acceleration information may include acceleration information in a lateral direction and acceleration information in a longitudinal direction with respect to the body of the vehicle.
이러한 주행 정보 검출부(230)는 속도 검출부(231), 요레이트 검출부(232), 조향각 검출부(233) 및 압력 검출부(234)를 포함할 수 있다.The driving
속도 검출부(231)는 복수 개의 휠 속도 센서를 포함할 수 있다. 속도 검출부(231)는 가속도 센서를 포함할 수 있다. 속도 검출부(231)는 복수 개의 휠 속도 센서와 가속도 센서를 포함할 수 있다.The
속도 검출부(231)가 가속도 센서일 경우, 제3프로세서(250)는 가속도 센서에 의해 검출된 정보에 기초하여 차량(1)의 가속도를 획득하고 획득된 가속도에 기초하여 차량(1)의 주행 속도를 획득하는 것도 가능하다.When the
속도 검출부(231)가 가속도 센서와 복수 개의 휠 속도 센서일 경우, 제3프로세서(250)는 가속도 센서에 의해 검출된 정보에 기초하여 차량(1)의 가속도를 획득하고, 복수 개의 휠 속도 센서에 의해 획득된 속도 정보에 기초하여 차량(1)의 주행 속도를 획득하는 것도 가능하다.When the
요 레이트 검출부(232)는 차량(1)의 요 모멘트를 검출한다. 차량의 수직축 방향의 요 레이트인 회전각 속도를 검출한다.The
요 레이트 검출부(232)는 차량(1)의 차체에 마련될 수 있고, 센터 콘솔 하부나, 운전석 시트 등에 마련되어 있을 수 있으며, 이들 위치에 한정되는 것은 아니다. The
조향각 검출부(233)는 차량(1)의 조향각을 검출하기 위한 스티어링 휠의 각속도를 검출한다. 즉 조향각 검출부(233)는 각속도 검출부를 포함할 수 있다.The steering
차량(1)의 내부에는 주행 방향을 조절하기 위한 스티어링 휠과, 사용자(즉 운전자)의 제동 의지에 따라 사용자에 의해 가압되는 브레이크 페달과, 사용자의 가속 의지에 따라 사용자에 의해 가압되는 액셀러레이터 페달을 포함할 수 있고, 스티어링 휠의 주변에 마련되고 좌회전, 우회전 및 유턴에 대한 회전 방향을 지시하는 주행 방향 지시 레버를 더 포함하는 것도 가능하다. Inside the
압력 검출부(234)는 브레이크 페달에 인가된 압력을 검출한다.The
차량(1)은 액셀러레이터 페달(가속 페달이라고도 함)에 인가된 압력을 검출하는 압력 검출부를 더 포함하는 것도 가능하다.It is also possible that the
영상획득부(240)는 차량(1) 주변의 물체 정보를 검출하여 전기적인 영상 신호로 변환하는 것으로, 차량의 현재 위치에서 차량 외부의 환경, 특히 차량이 주행하는 도로 및 차량의 전방, 좌우의 측방의 물체 정보를 검출하고 검출된 물체 정보의 영상 신호를 제3프로세서(250)로 전송한다.The
즉 영상 획득부(240)는 도로의 영상을 획득하고, 획득된 영상을 제3프로세서(250)에 전송한다. 여기서 도로의 영상은 차량의 주행 방향을 기준으로 전진 방향의 도로와 전진 방향을 기준으로 양쪽 도로의 영상일 수 있다. That is, the
영상 획득부(240)는 차량의 전방뿐만 아니라, 차량의 측방에 대한 영상도 획득함으로써 운전자 보조 시스템(200) 또는 제3프로세서(250)에서 자 차량의 주변의 다른 차량들을 인식하도록 할 수 있고 이로 인해 제1타깃 차량이 컷 아웃 상태인지를 분석 및 판단하도록 할 수 있다.The
영상 획득부(240)는 전방 카메라로, CCD 또는 CMOS 이미지 센서를 포함할 수 있다.The
영상 획득부(240)는 전면의 윈도우 글래스에 마련되되 차량 내부의 윈도 글래스에 마련될 수도 있고, 차량 내부의 룸 미러에 마련될 수도 있으며, 루프 패널의 마련되되 외부로 노출되도록 마련될 수도 있다. The
영상획득부(240)는 후방 카메라, 블랙 박스의 카메라일 수 있고, 자율 주행을 위해 마련된 자율 주행 제어 장치의 카메라일 수 있다.The
제3프로세서(250)는 입력부(211)를 통해 크루즈 컨트롤 모드의 온 명령에 대한 온 신호가 수신되면 운전자 보조 시스템(200)에 웨이크 업 명령을 전송함으로써 운전자 보조 시스템(200)이 웨이크 업 되도록 할 수 있고 입력부(211)를 통해 크루즈 컨트롤 모드의 오프 명령에 대한 오프 신호가 수신되면 운전자 보조 시스템(200)에 슬립 명령을 전송함으로써 운전자 보조 시스템(200)이 슬립 모드를 수행하도록 할 수 있다.The
운전자 보조 시스템(200)을 통해 크루즈 컨트롤 모드의 수행 중, 제3프로세서(250)는 장애물 검출부(220), 주행 정보 검출부(230) 및 영상 획득부(240)의 각종 정보를 운전자 보조 시스템(200)에 전송할 수 있다. While the cruise control mode is being performed through the
운전자 보조 시스템(200)을 통해 크루즈 컨트롤 모드의 수행 중, 제3프로세서(250)는 운전자 보조 시스템(200)을 통해 수신된 가속 신호, 감속 신호 및 조향 신호에 기초하여 엔진 시스템(12), 제동 시스템(32) 및 조향 시스템(42) 중 적어도 하나를 제어할 수 있다.While the cruise control mode is performed through the
제3프로세서(250)는 제2프로세서(200b)와 통합되어 하나의 프로세서로 차량(1)에 마련되는 것도 가능하다. 즉 도 4에 도시된 제2프로세서에서 수행하는 동작들 모두 제3프로세서(250)에서 수행하는 것도 가능하다.The
제3프로세서(250)는 차량(1) 내 구성부들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 제3메모리(미도시)를 포함할 수 있고 제3메모리에 저장된 데이터를 이용하여 전술한 동작을 수행할 수 있다. 이때, 제3메모리와 제3프로세서는 각각 별개의 칩으로 구현될 수 있다. 또는, 제3메모리와 제3프로세서는 단일 칩으로 구현될 수도 있다.The
도 7은 실시 예에 따른 차량의 제어 순서도이다.7 is a control flowchart of a vehicle according to an embodiment.
차량은 영상 획득부(240)를 통해 전방과 좌우 방향의 도로의 영상 정보를 획득(301)한다.The vehicle obtains (301) image information of roads in forward and left-right directions through the
차량은 획득된 영상 정보에 기초하여 3차원 차량 검출 영상(3D vehicle detection (3DVD) image) 정보를 생성할 수 있다.The vehicle may generate 3D vehicle detection (3DVD) image information based on the acquired image information.
좀 더 구체적으로, 차량은 영상 획득부에서 획득된 영상 정보에 기초하여 영상 내 타 차량, 보행자, 자전거, 스쿠터 등 도로 위에서 움직일 수 있는 장애물들을 인식하고, 차선을 인식하며, 도로 표면 종류 및 도로 표면 상태, 도로의 각도, 도로의 높낮이, 각 차선의 종류를 인식하며, 커브, 가드레일 등 주행 가능한 도로에 대한 경계를 구분하고, 도로 위나 주변의 신호등 및 표지판 또는 타 차량의 램프 점등 여부를 인식한다.More specifically, the vehicle recognizes obstacles that can move on the road such as other vehicles, pedestrians, bicycles, and scooters in the image based on the image information acquired by the image acquisition unit, recognizes lanes, and recognizes road surface types and road surfaces. Recognizes the condition, angle of the road, height of the road, and type of each lane, distinguishes boundaries for drivable roads such as curves and guardrails, and recognizes whether traffic lights and signs on or around the road or lamps of other vehicles are on. .
차량은 영상을 픽셀 단위로 장애물들의 외형(Appearance), 원근감이나 움직임 등을 통해 3차원의 깊이(Geometry)를 인식하고 인식 정보에 기초하여 영상 획득부에서 획득된 2차원(2D) 영상을 3차원(3D) 영상으로 변환한다. The vehicle recognizes the 3D depth (Geometry) of the image through the appearance, perspective, or movement of obstacles in pixel units, and converts the 2D image acquired by the image acquisition unit to the 3D image based on the recognition information. Convert to (3D) image.
이를 통해 차량은 3차원(3D) 영상을 통해 타 차량에 대한 정보를 3차원 차량 영상 정보로 획득할 수 있고, 3차원(3D) 영상을 통해 차선 정보를 획득(302)할 수 있다.Through this, the vehicle can acquire information about other vehicles as 3D vehicle image information through a 3D image, and obtain lane information through a 3D image (302).
차량은 영상 획득부에서 획득된 2차원(2D) 영상 정보에 기초하여 차선 정보를 획득할 수도 있다. 여기서 차선 정보는, 차선 종류 정보 및 차선 위치 정보를 포함할 수 있다.The vehicle may obtain lane information based on 2D image information acquired by the image acquisition unit. Here, the lane information may include lane type information and lane location information.
차량은 3차원(3D) 영상에서 노이즈 등을 제거하는 전처리(303)를 수행할 수 있다.The vehicle may perform preprocessing 303 to remove noise from a 3D image.
아울러, 차량은 영상 획득부에서 획득된 2차원 영상을 전처리하는 것도 가능하다.In addition, the vehicle may pre-process the 2D image acquired by the image acquisition unit.
차량은 3차원 영상 정보에 기초하여 영상(M) 내 차선 오브젝트들(L1, L2, L3, L4, L5)를 인식하고, 인식된 차선 오브젝트들의 위치 정보에 기초하여 차량(1)이 주행하고 있는 자 차로(즉 제1차로라고도 함) 오브젝트(R1)를 인식하고, 영상 정보에 기초하여 장애물 오브젝트를 인식하고 인식된 장애물 오브젝트(2M, 3M, 4M) 중 자 차로를 주행하되 차량의 전방에서 주행하는 제1타킷 차량(2)에 대한 제1타킷 차량 오브젝트(2M)를 인식(304)할 수 있다(도 5b참조).The vehicle recognizes lane objects L1, L2, L3, L4, and L5 in the image M based on the 3D image information, and based on the location information of the recognized lane objects, the
차량은 자 차로를 이루는 양쪽 차선인 제1차선 오브젝트(L1)와 제2차선 오브젝트(L2)를 확인하고 확인한 제1차선 오브젝트(L1)의 위치 정보, 제2차선 오브젝트(L2)의 위치 정보 및 제1타깃 차량 오브젝트(2M)의 위치 정보에 기초하여 제1타깃 차량(2)의 상태를 분석하되, 제1타깃 차량이 컷 아웃 상태인지를 1차적으로 분석(305)한다.The vehicle checks the first lane object L1 and the second lane object L2, which are both lanes constituting the own lane, and identifies the checked location information of the first lane object L1, the location information of the second lane object L2, and Based on the location information of the first
차량은 분석 결과에 대응하여 제1타킷 차량(2)이 컷 아웃 상태라고 1차적으로 판단(306)되면 제1타깃 차량 오브젝트(M2)와 오버랩된 차선 오브젝트(L1)를 획득하고 획득한 차선 오브젝트(L1)를 기준으로 제1타깃 차량 오브젝트(2M)의 영역을 자 차로 오브젝트(R1)에 위치하는 제1 영역(A1)과 타 차로 오브젝트(R2)에 위치하는 제2 영역(A2)으로 구분하고, 제1영역(A1)의 면적 정보를 획득(307)한다.When it is first determined (306) that the
좀 더 구체적으로, 차량은 3차원 차량 검출 영상 정보에 기초하여 제1타깃 차량의 종방향 위치(longitudinal position) 정보, 횡방향 위치(lateral position) 정보, 길이(length) 정보, 폭(width) 정보, 헤딩 각도(heading angle) 정보를 획득하고 획득된 정보들에 기초하여 제1영역(A1)의 면적을 획득할 수 있다. More specifically, the vehicle provides longitudinal position information, lateral position information, length information, and width information of the first target vehicle based on the 3D vehicle detection image information. , heading angle information may be obtained, and the area of the first area A1 may be obtained based on the obtained information.
차량은 종방향 위치 정보와 횡방향 위치 정보에 기초하여 제1 타깃 차량의 리어 패널까지의 거리 정보(D)를 획득할 수 있다.The vehicle may acquire distance information D to the rear panel of the first target vehicle based on the longitudinal location information and the lateral location information.
좀 더 구체적으로, 차량은 제1타깃 차량 오브젝트(2M)에서 리어 패널 오브젝트를 획득하고, 획득한 리어 패널 오브젝트의 위치 정보와 중첩된 차선 오브젝트의 위치 정보를 획득하며, 획득한 리어 패널 오브젝트의 위치 정보와 중첩된 차선 오브젝트의 위치 정보에 기초하여 리어 패널 오브젝트와 중첩된 차선 오브젝트 사이의 거리 정보(D)를 획득할 수 있다. More specifically, the vehicle obtains a rear panel object from the first
아울러 차량은 종방향 위치 정보와 횡방향 위치 정보에 기초하여 제1 타깃 차량의 리어 패널까지의 거리 정보(D)를 획득하는 것도 가능하다.In addition, the vehicle may acquire distance information D to the rear panel of the first target vehicle based on the longitudinal location information and the lateral location information.
차량은 장애물 검출부(220)에 의해 검출된 장애물 정보와 차량의 주행 속도 정보에 기초하여 제1타깃 차량(2)의 상대 속도 정보 및 상대 거리 정보를 획득하고, 획득한 제1타깃 차량(2)의 상대 속도 정보, 상대 거리 정보 및 주행 정보 검출부(230)에 의해 획득된 자 차량의 횡방향의 속도 정보에 기초하여 제1타깃 차량(2)의 횡방향 속도 정보를 획득(308)할 수 있다.The vehicle obtains relative speed information and relative distance information of the
차량은 제1영역의 면적 정보, 획득된 거리 정보(D)와 장애물 검출부에 의해 검출된 제1타깃 차량(2)의 횡방향 상대 속도 정보에 기초하여 제1타킷 차량(2)이 컷 아웃 상태인지를 2차로 판단(309)할 수 있다.The vehicle determines that the
차량은 제1타깃 차량이 컷 아웃 상태라고 2차로 판단되면 영상 내에서 제2 타깃 차량 오브젝트(3M)를 인식하고, 영상 내 제2타깃 차량 오브젝트의 위치 정보에 기초하여 주변의 타 차량 중 제2타깃 차량을 인식(310)한다.When the vehicle secondarily determines that the first target vehicle is in a cut-out state, the vehicle recognizes the second
차량은 영상 정보 및 장애물 검출부에 의해 검출된 장애물 정보에 기초하여 제2타킷 차량(2)의 주행 정보를 획득하고, 획득한 제2타킷 차량(2)의 주행 정보에 기초하여 종방향 제어를 수행(311)한다.The vehicle obtains driving information of the
여기서 종방향 제어는 가속 신호 또는 감속 신호를 생성하고 생성된 신호에 기초하여 제동 시스템이나 엔진 시스템을 제어하는 것을 포함한다.Here, the longitudinal control includes generating an acceleration signal or deceleration signal and controlling a braking system or an engine system based on the generated signal.
차량은 제1영역의 면적 정보, 획득된 거리 정보(D)와 장애물 검출부에 의해 검출된 제1타깃 차량(2)의 횡방향 상대 속도 정보에 기초하여 제1타깃 차량과의 충돌 위험도를 판단하는 것도 가능하다.The vehicle determines the risk of collision with the first target vehicle based on the area information of the first area, the obtained distance information (D), and the lateral relative speed information of the
제1영역의 면적 정보, 획득된 거리 정보(D)와 장애물 검출부에 의해 검출된 제1타깃 차량(2)의 횡방향 상대 속도 정보의 상관 관계에 대응하는 충돌 위험도는 룩업 테이블로 미리 저장되어 있을 수 있다.The collision risk corresponding to the correlation between the area information of the first region, the obtained distance information D, and the lateral relative speed information of the
차량은 제1타깃 차량과의 충돌 위험도가 기준 위험도를 초과한다고 판단되면 제1타깃 차량의 상대 거리 정보와 상대 속도 정보에 기초하여 감속을 제어할 수 있다.When it is determined that the risk of collision with the first target vehicle exceeds the reference risk, the vehicle may control deceleration based on the relative distance information and relative speed information of the first target vehicle.
차량은 제1타깃 차량과의 충돌 위험도가 기준 위험도 이하라고 판단되면 제2타깃 차량의 상대 거리 정보와 상대 속도 정보에 기초하여 감속을 제어할 수 있다.When it is determined that the risk of collision with the first target vehicle is less than or equal to the reference risk, the vehicle may control deceleration based on the relative distance information and relative speed information of the second target vehicle.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium storing instructions executable by a computer. Instructions may be stored in the form of program codes, and when executed by a processor, create program modules to perform operations of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. Computer-readable recording media include all types of recording media in which instructions that can be decoded by a computer are stored. For example, there may be read only memory (ROM), random access memory (RAM), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device, and the like.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다.본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.As described above, the disclosed embodiments have been described with reference to the accompanying drawings. A person skilled in the art to which the present invention pertains may change the technical spirit or essential features of the present invention in a different form from the disclosed embodiments. It will be understood that the present invention can be practiced with The disclosed embodiments are illustrative and should not be construed as limiting.
1: 차량
100: 운전자 보조 시스템
110: 전방 카메라
120: 전방 레이더
130: 코너 레이더
131: 제1 코너 레이더
132: 제2 코너 레이더
133: 제3 코너 레이더
134: 제4 코너 레이더
140: 제어부
200: 운전자 보조 시스템
280: 제2제어부
281: 저장부1: vehicle
100: driver assistance system
110: front camera
120: forward radar
130: corner radar
131: first corner radar
132: second corner radar
133: third corner radar
134: 4th corner radar
140: control unit
200: driver assistance system
280: second control unit
281: storage unit
Claims (17)
상기 영상 획득부에서 획득된 영상 정보에 기초하여 자 차로 오브젝트, 차선 오브젝트와 장애물 오브젝트를 인식하고, 상기 인식한 장애물 오브젝트의 깊이 정보에 기초하여 3차원 차량 검출 영상 정보를 획득하고 변환하고 상기 변환한 3차원 차량 검출 영상 정보에 기초하여 타깃 차량에 대한 타깃 차량 오브젝트를 인식하고, 상기 인식한 타깃 차량 오브젝트의 위치 정보와 상기 차선 오브젝트의 위치 정보에 기초하여 상기 타깃 차량 오브젝트의 일부가 상기 차선 오브젝트에 오버랩되는지를 판단하고, 상기 타깃 차량 오브젝트의 일부가 상기 차선 오브젝트에 오버랩된다고 판단되면 상기 타깃 차량 오브젝트의 영역들 중 상기 자 차로 오브젝트 상에 위치하는 영역의 면적 정보에 기초하여 상기 타깃 차량의 컷 아웃 여부를 판단하고 상기 타깃 차량의 컷 아웃 여부에 기초하여 감속 신호 또는 가속 신호를 생성하는 프로세서를 포함하는 운전자 보조 시스템.image acquisition unit; and
Based on the image information acquired by the image acquisition unit, the own lane object, lane object, and obstacle object are recognized, and 3D vehicle detection image information is acquired and converted based on the depth information of the recognized obstacle object, and the converted A target vehicle object for the target vehicle is recognized based on the 3D vehicle detection image information, and a part of the target vehicle object is attached to the lane object based on the recognized location information of the target vehicle object and the location information of the lane object. It is determined whether or not a part of the target vehicle object overlaps with the lane object, and if it is determined that a part of the target vehicle object overlaps with the lane object, the target vehicle is cut out based on area information of an area located on the object by the own vehicle among areas of the target vehicle object. and a processor that determines whether or not the target vehicle is cut out and generates a deceleration signal or an acceleration signal based on whether the target vehicle is cut out.
상기 3차원 차량 검출 영상에 기초하여 상기 타깃 차량의 리어 패널 오브젝트를 인식하고, 상기 3차원 차량 검출 영상에 기초하여 상기 타깃 차량의 횡방향 위치 정보와 종방향 위치 정보를 획득하고, 상기 획득한 타깃 차량의 횡방향 위치 정보와 종방향 위치 정보에 기초하여 상기 차선 오브젝트와 상기 타깃 차량의 리어 패널 오브젝트 사이의 거리 정보를 획득하고, 상기 거리 정보에 기초하여 상기 타깃 차량의 컷 아웃 여부를 판단하는 운전자 보조 시스템.The method of claim 1, wherein the processor,
Recognizing a rear panel object of the target vehicle based on the 3D vehicle detection image, acquiring lateral location information and longitudinal location information of the target vehicle based on the 3D vehicle detection image, and obtaining the target A driver obtaining distance information between the lane object and a rear panel object of the target vehicle based on the lateral location information and the longitudinal location information of the vehicle, and determining whether the target vehicle is cut out based on the distance information auxiliary system.
차량의 주행 정보를 수신하는 통신부; 및
주변의 장애물을 검출하고 검출된 장애물에 대한 장애물 정보를 출력하는 장애물 검출부를 더 포함하고,
상기 프로세서는, 상기 차량의 주행 정보 및 상기 장애물 정보에 기초하여 상기 타깃 차량의 횡방향 속도 정보를 획득하고 상기 획득한 횡방향 속도 정보 및 상기 거리 정보에 기초하여 상기 타깃 차량의 컷 아웃 여부를 추가로 판단하는 운전자 보조 시스템.According to claim 2,
Communication unit for receiving driving information of the vehicle; and
Further comprising an obstacle detection unit for detecting nearby obstacles and outputting obstacle information about the detected obstacles;
The processor obtains lateral speed information of the target vehicle based on the driving information of the vehicle and the obstacle information, and adds whether the target vehicle is cut out based on the obtained lateral speed information and the distance information Driver assistance systems judged by
상기 타깃 차량의 컷 아웃 여부의 추가 판단에 의해 상기 타깃 차량이 컷 아웃 상태라고 판단되면 3차원 차량 검출 영상 정보에 기초하여 다른 타깃 차량에 대한 다른 타깃 차량 오브젝트를 인식하고, 상기 장애물 검출부에 의해 검출된 장애물 정보에 기초하여 상기 인식한 다른 타깃 오브젝트에 대한 다른 타깃 차량의 상대 거리 정보와 상대 속도 정보를 획득하고, 상기 다른 타깃 차량의 상대 거리 정보와 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성하는 운전자 보조 시스템.The method of claim 3, wherein the processor,
When it is determined that the target vehicle is in a cut-out state by additional determination of whether the target vehicle is cut-out, another target vehicle object for another target vehicle is recognized based on 3D vehicle detection image information, and detected by the obstacle detection unit. Based on the obtained obstacle information, relative distance information and relative speed information of another target vehicle to the recognized other target object are obtained, and an acceleration signal or deceleration signal is generated based on the relative distance information and relative speed information of the other target vehicle. driver assistance systems.
상기 면적 정보, 상기 획득한 횡방향 속도 정보 및 상기 거리 정보에 기초하여 상기 타깃 차량과의 충돌 위험도를 인식하고 상기 타깃 차량과의 충돌 위험도가 기준 충돌 위험도를 초과한다고 판단되면 상기 장애물 검출부에 의해 검출된 장애물 정보와 상기 차량의 주행 정보에 기초하여 상기 타깃 차량의 상대 거리 정보 및 상대 속도 정보를 획득하고, 상기 획득한 타깃 차량의 상대 거리 정보 및 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성하는 운전자 보조 시스템.The method of claim 4, wherein the processor,
Recognizing the risk of collision with the target vehicle based on the area information, the obtained lateral speed information, and the distance information, and detecting by the obstacle detection unit when it is determined that the risk of collision with the target vehicle exceeds the reference risk of collision Relative distance information and relative speed information of the target vehicle are obtained based on the obtained obstacle information and driving information of the vehicle, and an acceleration signal or deceleration signal is generated based on the obtained relative distance information and relative speed information of the target vehicle. driver assistance systems.
상기 타깃 차량과의 충돌 위험도가 기준 충돌 위험도 이하라고 판단되면 상기 획득한 타깃 차량의 상대 거리 정보 및 상대 속도 정보, 상기 다른 타깃 차량의 상대 거리 정보 및 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성하는 운전자 보조 시스템.The method of claim 5, wherein the processor,
When it is determined that the risk of collision with the target vehicle is less than or equal to the reference risk of collision, an acceleration signal or deceleration signal is generated based on the obtained relative distance information and relative speed information of the target vehicle and the relative distance information and relative speed information of the other target vehicle. driver assistance systems.
상기 3차원 차량 검출 영상 정보에 기초하여 상기 타깃 차량의 길이 정보, 상기 타깃 차량의 폭 정보, 상기 타깃 차량의 헤딩 각도 정보를 획득하고 상기 타깃 차량의 길이 정보, 상기 타깃 차량의 폭 정보, 상기 타깃 차량의 헤딩 각도 정보에 기초하여 상기 영역의 면적 정보를 획득하는 운전자 보조 시스템.The method of claim 1, wherein the processor,
Based on the 3D vehicle detection image information, length information of the target vehicle, width information of the target vehicle, and heading angle information of the target vehicle are obtained, and the length information of the target vehicle, the width information of the target vehicle, and the target vehicle A driver assistance system for obtaining area information of the area based on heading angle information of the vehicle.
차량에 마련된 차량용 프로세서와 통신을 수행하는 통신부를 더 포함하고,
상기 프로세서는, 상기 통신부를 통해 상기 감속 신호 또는 가속 신호를 상기 차량용 프로세서에 전송하도록 하는 운전자 보조 시스템.According to claim 1,
Further comprising a communication unit for performing communication with a vehicle processor provided in the vehicle,
wherein the processor transmits the deceleration signal or the acceleration signal to the vehicle processor through the communication unit.
주변의 장애물을 검출하고 검출된 장애물에 대한 장애물 정보를 출력하는 장애물 검출부;
전방 및 좌우 측방의 도로에 대한 영상을 획득하는 영상 획득부; 및
상기 영상 획득부에서 획득된 영상 정보에 기초하여 자 차로 오브젝트, 차선 오브젝트와 장애물 오브젝트를 인식하고, 상기 인식한 장애물 오브젝트의 깊이 정보에 기초하여 3차원 차량 검출 영상 정보를 획득하고 변환하고 상기 변환한 3차원 차량 검출 영상 정보에 기초하여 타깃 차량에 대한 타깃 차량 오브젝트를 인식하고, 상기 인식한 타깃 차량 오브젝트의 위치 정보와 상기 차선 오브젝트의 위치 정보에 기초하여 상기 타깃 차량 오브젝트의 일부가 상기 차선 오브젝트에 오버랩되는지를 판단하고, 상기 타깃 차량 오브젝트의 일부가 상기 차선 오브젝트에 오버랩된다고 판단되면 상기 타깃 차량 오브젝트의 영역들 중 상기 자 차로 오브젝트 상에 위치하는 영역의 면적 정보에 기초하여 상기 타깃 차량의 컷 아웃 여부를 판단하고 상기 타깃 차량의 컷 아웃 여부, 상기 주행 정보 및 상기 장애물 정보에 기초하여 감속 신호 또는 가속 신호를 생성하는 프로세서를 포함하는 차량.a driving information detection unit that detects driving information;
an obstacle detection unit that detects nearby obstacles and outputs obstacle information about the detected obstacles;
An image acquisition unit for acquiring images of the front and left and right side roads; and
Based on the image information acquired by the image acquisition unit, the own lane object, lane object, and obstacle object are recognized, and 3D vehicle detection image information is acquired and converted based on the depth information of the recognized obstacle object, and the converted A target vehicle object for the target vehicle is recognized based on the 3D vehicle detection image information, and a part of the target vehicle object is attached to the lane object based on the recognized location information of the target vehicle object and the location information of the lane object. It is determined whether or not a part of the target vehicle object overlaps with the lane object, and if it is determined that a part of the target vehicle object overlaps with the lane object, the target vehicle is cut out based on area information of an area located on the object by the own vehicle among areas of the target vehicle object. and a processor that determines whether or not the target vehicle is cut out, and generates a deceleration signal or an acceleration signal based on the driving information and the obstacle information.
상기 생성된 감속 신호에 기초하여 감속을 수행하는 제동 시스템; 및
상기 생성된 가속 신호에 기초하여 가속을 수행하는 엔진 시스템을 더 포함하는 차량.According to claim 9,
a braking system performing deceleration based on the generated deceleration signal; and
A vehicle further comprising an engine system performing acceleration based on the generated acceleration signal.
상기 3차원 차량 검출 영상에 기초하여 상기 타깃 차량의 리어 패널 오브젝트를 인식하고, 상기 3차원 차량 검출 영상에 기초하여 상기 타깃 차량의 횡방향 위치 정보와 종방향 위치 정보를 획득하고, 상기 획득한 타깃 차량의 횡방향 위치 정보와 종방향 위치 정보에 기초하여 상기 차선 오브젝트와 상기 타깃 차량의 리어 패널 오브젝트 사이의 거리 정보를 획득하고, 상기 거리 정보에 기초하여 상기 타깃 차량의 컷 아웃 여부를 판단하는 차량.The method of claim 1, wherein the processor,
Recognizing a rear panel object of the target vehicle based on the 3D vehicle detection image, acquiring lateral location information and longitudinal location information of the target vehicle based on the 3D vehicle detection image, and obtaining the target A vehicle that obtains distance information between the lane object and a rear panel object of the target vehicle based on the lateral location information and the longitudinal location information of the vehicle, and determines whether the target vehicle is cut out based on the distance information. .
상기 주행 정보 및 상기 장애물 정보에 기초하여 상기 타깃 차량의 횡방향 속도 정보를 획득하고 상기 획득한 횡방향 속도 정보 및 상기 거리 정보에 기초하여 상기 타깃 차량의 컷 아웃 여부를 추가로 판단하는 차량.The method of claim 11, wherein the processor,
A vehicle that acquires lateral speed information of the target vehicle based on the driving information and the obstacle information and further determines whether or not the target vehicle is cut out based on the obtained lateral speed information and the distance information.
상기 타깃 차량의 컷 아웃 여부의 추가 판단에 의해 상기 타깃 차량이 컷 아웃 상태라고 판단되면 3차원 차량 검출 영상 정보에 기초하여 다른 타깃 차량에 대한 다른 타깃 차량 오브젝트를 인식하고, 상기 장애물 검출부에 의해 검출된 장애물 정보에 기초하여 상기 인식한 다른 타깃 오브젝트에 대한 다른 타깃 차량의 상대 거리 정보와 상대 속도 정보를 획득하고, 상기 다른 타깃 차량의 상대 거리 정보와 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성하는 차량.The method of claim 12, wherein the processor,
When it is determined that the target vehicle is in a cut-out state by additional determination of whether the target vehicle is cut-out, another target vehicle object for another target vehicle is recognized based on 3D vehicle detection image information, and detected by the obstacle detection unit. Based on the obtained obstacle information, relative distance information and relative speed information of another target vehicle to the recognized other target object are obtained, and an acceleration signal or deceleration signal is generated based on the relative distance information and relative speed information of the other target vehicle. vehicle to create.
상기 면적 정보, 상기 획득한 횡방향 속도 정보 및 상기 거리 정보에 기초하여 상기 타깃 차량과의 충돌 위험도를 인식하고 상기 타깃 차량과의 충돌 위험도가 기준 충돌 위험도를 초과한다고 판단되면 상기 장애물 검출부에 의해 검출된 장애물 정보와 상기 차량의 주행 정보에 기초하여 상기 타깃 차량의 상대 거리 정보 및 상대 속도 정보를 획득하고, 상기 획득한 타깃 차량의 상대 거리 정보 및 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성하는 차량.The method of claim 13, wherein the processor,
Recognizing the risk of collision with the target vehicle based on the area information, the obtained lateral speed information, and the distance information, and detecting by the obstacle detection unit when it is determined that the risk of collision with the target vehicle exceeds the reference risk of collision Relative distance information and relative speed information of the target vehicle are obtained based on the obtained obstacle information and driving information of the vehicle, and an acceleration signal or deceleration signal is generated based on the obtained relative distance information and relative speed information of the target vehicle. vehicle to do.
상기 타깃 차량과의 충돌 위험도가 기준 충돌 위험도 이하라고 판단되면 상기 획득한 타깃 차량의 상대 거리 정보 및 상대 속도 정보, 상기 다른 타깃 차량의 상대 거리 정보 및 상대 속도 정보에 기초하여 가속 신호 또는 감속 신호를 생성하는 차량.The method of claim 14, wherein the processor,
When it is determined that the risk of collision with the target vehicle is less than or equal to the reference risk of collision, an acceleration signal or deceleration signal is generated based on the obtained relative distance information and relative speed information of the target vehicle and the relative distance information and relative speed information of the other target vehicle. vehicle to create.
상기 3차원 차량 검출 영상 정보에 기초하여 상기 타깃 차량의 길이 정보, 상기 타깃 차량의 폭 정보, 상기 타깃 차량의 헤딩 각도 정보를 획득하고 상기 타깃 차량의 길이 정보, 상기 타깃 차량의 폭 정보, 상기 타깃 차량의 헤딩 각도 정보에 기초하여 상기 영역의 면적 정보를 획득하는 차량.The method of claim 9, wherein the processor,
Based on the 3D vehicle detection image information, length information of the target vehicle, width information of the target vehicle, and heading angle information of the target vehicle are obtained, and the length information of the target vehicle, the width information of the target vehicle, and the target vehicle A vehicle for obtaining area information of the area based on heading angle information of the vehicle.
상기 타깃 차량과의 충돌 알림 정보를 표시하는 표시부; 및
상기 타깃 차량과의 충돌 알림 정보를 출력하는 사운드 출력부를 더 포함하는 차량.
According to claim 9,
a display unit displaying collision notification information with the target vehicle; and
A vehicle further comprising a sound output unit configured to output collision notification information with the target vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220001989A KR20230106768A (en) | 2022-01-06 | 2022-01-06 | Advanced Driver Assistance System, and Vehicle having the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220001989A KR20230106768A (en) | 2022-01-06 | 2022-01-06 | Advanced Driver Assistance System, and Vehicle having the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230106768A true KR20230106768A (en) | 2023-07-14 |
Family
ID=87155341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220001989A KR20230106768A (en) | 2022-01-06 | 2022-01-06 | Advanced Driver Assistance System, and Vehicle having the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230106768A (en) |
-
2022
- 2022-01-06 KR KR1020220001989A patent/KR20230106768A/en not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102588920B1 (en) | Advanced Driver Assistance System, Vehicle having the same and method for controlling the vehicle | |
US10926764B2 (en) | Lane keeping assistance apparatus, vehicle having the same and method for controlling the same | |
US10919525B2 (en) | Advanced driver assistance system, vehicle having the same, and method of controlling the vehicle | |
US11472433B2 (en) | Advanced driver assistance system, vehicle having the same and method for controlling the vehicle | |
KR20180072139A (en) | Vehicle and method for controlling thereof | |
KR20210083462A (en) | Advanced Driver Assistance System, Vehicle having the same and method for controlling the vehicle | |
KR20200094378A (en) | Driver assistance system and controlling method thereof | |
KR20200098774A (en) | Vehicle and method for controlling the same | |
US20220332319A1 (en) | Advanced driver assistance system, and vehicle having the same | |
KR20210083459A (en) | Advanced Driver Assistance System, Vehicle having the same and method for controlling the vehicle | |
KR20210079946A (en) | Vehicle and control method thereof | |
KR20210030529A (en) | Advanced Driver Assistance System, Vehicle having the same and method for controlling the same | |
KR102356612B1 (en) | Collision Avoidance device, Vehicle having the same and method for controlling the same | |
KR20220119229A (en) | Advanced Driver Assistance System, and Vehicle having the same | |
KR20210152602A (en) | driver assistance apparatus and method of thereof | |
KR20200046611A (en) | Driver assistance apparatus | |
KR20230106768A (en) | Advanced Driver Assistance System, and Vehicle having the same | |
KR20220106875A (en) | Driver assistance system and method therof | |
KR20210124586A (en) | Advanced Driver Assistance System, and Vehicle | |
KR20210088117A (en) | Driver assistance system and method therof | |
US20230294682A1 (en) | Driver assistance system and vehicle including the same | |
US20230368543A1 (en) | System and vehicle including the same | |
US20230278552A1 (en) | Driver assistance system and driver assistance method | |
US20240010231A1 (en) | Apparatus for driver assistance and method of controlling the same | |
US20230232107A1 (en) | Infrastructure and Vehicle for Communicating with the Same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |