KR20120063770A - A method for improving detection performance of sensor fusion algorithm and a system thereof - Google Patents
A method for improving detection performance of sensor fusion algorithm and a system thereof Download PDFInfo
- Publication number
- KR20120063770A KR20120063770A KR1020100124896A KR20100124896A KR20120063770A KR 20120063770 A KR20120063770 A KR 20120063770A KR 1020100124896 A KR1020100124896 A KR 1020100124896A KR 20100124896 A KR20100124896 A KR 20100124896A KR 20120063770 A KR20120063770 A KR 20120063770A
- Authority
- KR
- South Korea
- Prior art keywords
- inclination angle
- threshold value
- obtaining
- sensor
- detection performance
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/06—Improving the dynamic response of the control system, e.g. improving the speed of regulation or avoiding hunting or overshoot
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
- B60W40/076—Slope angle of the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Radar Systems Or Details Thereof (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
본 발명은 센서 퓨전 알고리즘의 검지 성능 향상 방법 및 시스템에 관한 것으로, 보다 상세하게는 주행시 경사각이 있는 경우 센서 퓨전 알고리즘의 검지 성능 향상 방법 및 시스템에 관한 것이다.The present invention relates to a method and a system for improving the detection performance of a sensor fusion algorithm, and more particularly, to a method and a system for improving the detection performance of a sensor fusion algorithm when there is an inclination angle during driving.
최근 들어 차량에는 운전자 및 탑승자 보호와 운행 보조 및 승차감의 향상을 위한 다양한 시스템들이 탑재, 내장되고 있으며, 이러한 시스템들은 급속히 개량? 발전되고 있다. Recently, vehicles have been equipped with a variety of systems for driver and passenger protection, driving assistance, and improved ride comfort. It is developing.
그 중 영상 센서(카메라)를 이용하여 차선을 인식하고 자동 조향을 행하는 기술이 실용화되고 있는데, 일반적으로 자동차에 구비되는 영상 인식 처리장치는 운행되는 도로 차선의 영상 정보와 후속 주행하는 자동차에 관한 영상 정보 및 좌우 차선의 영상 정보를 검출한 후 표시수단을 통해 디스플레이하여 운전자에게 편리한 차선의 인식과 운행되는 도로의 상황 및 주변 차량의 운행 정보를 제공하는 것이다. Among them, a technology of recognizing lanes and performing automatic steering using an image sensor (camera) has been put into practical use. In general, an image recognition processing apparatus provided in a vehicle includes image information of a driving lane and an image of a subsequent driving vehicle. After detecting the information and the image information of the left and right lanes and displaying them through the display means to provide the driver with a convenient lane recognition and the driving situation of the road and surrounding vehicles.
또한, 레이더는 차량에 탑재되어 밀리미터파(millimeter wave)를 이용하여 전/후방 및 측방의 주변환경에 관한 정보를 운전자에게 제공하고 필요한 경우에는 차량을 제어하여 운전자의 안전한 주행을 돕는데 이용하는 것이다.In addition, the radar is mounted on a vehicle to provide the driver with information about the front and rear and side surroundings using a millimeter wave, and to control the vehicle when necessary to help the driver to drive safely.
최근, 상기 영상 센서 및 레이더를 통해 수집된 영상 정보 및 레이더 정보를 통합하여 필요한 정보를 추출해서 사용할 수 있는 센서 데이터 퓨전 알고리즘이 소개되고 있다.Recently, a sensor data fusion algorithm for integrating image information and radar information collected through the image sensor and radar has been introduced.
기존의 센서 데이터 퓨전 알고리즘은 영상 정보와 레이더 정보를 일률적으로 통합하여 퓨전 데이터를 가공한다.Conventional sensor data fusion algorithms integrate the image information and radar information to process the fusion data.
한편, 우리나라와 같이 실도로 주행시 오르막 또는 내리막길이 많고 도로 경사각(pitch)이 있는 경우에 있어서 기존의 센서 데이터 퓨전 알고리즘과 같이 영상정보와 레이더 정보를 일률적으로 통합하는 경우에는 영상 처리를 통해 거리 산출을 할 때 영상 정보의 종방향 거리 오차게 커지게 된다.On the other hand, when there are many uphill or downhill roads and road pitches when driving on a real road as in Korea, when the image information and radar information are uniformly integrated as in the conventional sensor data fusion algorithm, the distance calculation is performed through image processing. In this case, the longitudinal distance error of the image information becomes large.
따라서 본 발명은 상기와 같은 문제점을 해결하기 위해 창안된 것으로서, 주행시 경사각이 있는 경우 영상 센서에 대해 보정을 수행하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 방법 및 시스템을 제공하는데 그 목적이 있다.Accordingly, an object of the present invention is to provide a method and a system for improving detection performance of a sensor fusion algorithm, which is characterized by performing correction on an image sensor when there is an inclination angle while driving. .
상기와 같은 목적을 달성하기 위한 본 발명은 자이로 센서로부터 제1 경사각을 획득하는 단계; 영상 센서로부터 제2 경사각을 획득하는 단계; 및 상기 제1 경사각 및 상기 제2 경사각에 기초하여 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈를 결정하는 단계를 포함하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 방법을 제공한다.The present invention for achieving the above object is a step of obtaining a first tilt angle from the gyro sensor; Obtaining a second tilt angle from the image sensor; And determining a combined gate size of radar data and image data based on the first inclination angle and the second inclination angle.
또한, 본 발명은 제1 경사각을 획득하는 자이로 센서; 제2 경사각을 획득하는 영상 센서; 및 상기 제1 경사각 및 상기 제2 경사각에 기초하여 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈를 결정하는 제어부를 포함하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 시스템을 제공한다.In addition, the present invention the gyro sensor for obtaining a first inclination angle; An image sensor obtaining a second tilt angle; And a controller configured to determine a combined gate size of radar data and image data based on the first inclination angle and the second inclination angle.
본 발명에 의하면, 경사각이 있는 도로 주행시에 있어 센서 퓨전 알고리즘에 발생할 수 있는 영상 정보의 종방향 거리 오차를 줄임으로써, 센서 퓨전 알고리즘의 검지 성능을 향상시킬 수 있다.According to the present invention, the detection performance of the sensor fusion algorithm can be improved by reducing the longitudinal distance error of the image information which may occur in the sensor fusion algorithm when driving on a road with an inclination angle.
도 1은 본 발명에 따른 센서 퓨전 알고리즘의 검지 성능 향상 방법을 나타낸 블록도이다.
도 2는 본 발명에 따른 센서 퓨전 알고리즘의 검지 성능 향상 방법의 일예를 나타낸 순서도이다.
도 3은 도로 경사도에 따른 수평선 인식 차이를 설명하기 위한 개략도이다.
도 4 및 도 5는 평지 및 오르막길에 있어서 레이더와 영상 센서의 종방향 거리 산출값 차이를 설명하기 위한 개략도이다.
도 6은 본 발명에 따른 센서 퓨전 알고리즘의 검지 성능 향상 방법을 적용한 경우에 있어서의 효과를 설명하기 위한 개략도이다.
도 7은 본 발명에 따른 센서 퓨전 알고리즘의 검지 성능 향상 시스템을 나타낸 블록도이다. 1 is a block diagram illustrating a method of improving detection performance of a sensor fusion algorithm according to the present invention.
2 is a flowchart illustrating an example of a method for improving detection performance of a sensor fusion algorithm according to the present invention.
3 is a schematic diagram for explaining a horizontal line recognition difference according to a road slope.
4 and 5 are schematic diagrams for explaining the difference in the longitudinal distance calculated value between the radar and the image sensor in the flat and uphill.
6 is a schematic diagram for explaining the effect in the case of applying the detection performance improving method of the sensor fusion algorithm according to the present invention.
7 is a block diagram illustrating a system for improving detection performance of a sensor fusion algorithm according to the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 일 실시예를 상세하게 설명하면 다음과 같다.Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 센서 퓨전 알고리즘의 검지 성능 향상 방법을 나타낸 블록도이다. 1 is a block diagram illustrating a method of improving detection performance of a sensor fusion algorithm according to the present invention.
도 1을 참조하면, 자이로 센서(100)로부터 제1 경사각(Gyro_Pitch_Angle), 영상 센서(120)로부터 제2 경사각(Vision_Pitch_Angle)을 획득하고, 상기 제1 경사각 및 상기 제2 경사각에 기초하여 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈(Association gate size)를 변경할지 여부를 결정한다(S100).Referring to FIG. 1, a first inclination angle Gyro_Pitch_Angle is obtained from the
상기 단계(S100)의 판단 결과, 상기 제1 경사각 및 상기 제2 경사각에 기초하여 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈를 결정하고(S150), 그 결과를 출력할 수 있다(S200).As a result of the determination in step S100, the combined gate size of the radar data and the image data may be determined based on the first inclination angle and the second inclination angle (S150), and the result may be output (S200).
한편, 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈는 바람직하게는 상기 제1 경사각 및 제2 경사각에 따른 결합 게이트 사이즈를 표시한 순람표(Look-up Table)를 이용하여 결정할 수 있다.Meanwhile, the combined gate size of the radar data and the image data may be determined by using a look-up table indicating the combined gate size according to the first inclination angle and the second inclination angle.
도 2는 본 발명에 따른 센서 퓨전 알고리즘의 검지 성능 향상 방법의 일예를 나타낸 순서도이다.2 is a flowchart illustrating an example of a method for improving detection performance of a sensor fusion algorithm according to the present invention.
도 2를 참조하면, 자이로 센서를 이용하여 측정한 제1 경사각(Gyro_Pitch_Angle) 및 영상 센서를 이용하여 측정한 제2 경사각(Vision_Pitch_Angle)을 획득하고, 상기 제1 경사각의 절대값이 제1 임계값보다 큰지를 판단한다(S300). Referring to FIG. 2, a first inclination angle Gyro_Pitch_Angle measured using a gyro sensor and a second inclination angle Vision_Pitch_Angle measured using an image sensor are obtained, and an absolute value of the first inclination angle is greater than a first threshold value. It is determined whether large (S300).
상기 단계(S300)의 판단 결과, 상기 제1 경사각의 절대값이 상기 제1 임계값보다 큰 경우, 상기 제1 경사각과 상기 제2 경사각의 차이를 나타내는 제3 경사각(Gyro_Pitch_Angle-Vision_Pitch_Angle)을 획득하고, 상기 제3 경사각의 절대값이 상기 제2 임계값보다 작은지를 판단한다(S350).As a result of the determination in step S300, when the absolute value of the first inclination angle is greater than the first threshold value, a third inclination angle (Gyro_Pitch_Angle-Vision_Pitch_Angle) representing the difference between the first inclination angle and the second inclination angle is obtained. In operation S350, it is determined whether the absolute value of the third inclination angle is smaller than the second threshold value.
한편, 상기 제1 임계값 및 상기 제2 임계값은 사용자로부터 획득할 수 있고, 바람직하게는 각각 3도(degree) 및 1도를 나타낼 수 있으나, 본 발명은 이에 한정되지 않는다.Meanwhile, the first threshold value and the second threshold value may be obtained from a user, and may preferably represent 3 degrees and 1 degree, respectively, but the present invention is not limited thereto.
상기 단계(S300)의 판단 결과, 상기 제1 경사각의 절대값이 상기 제1 임계값보다 작은 경우, 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈에 초기값(특정 상수)을 할당한다(S400).As a result of the determination in step S300, when the absolute value of the first inclination angle is smaller than the first threshold value, an initial value (a specific constant) is allocated to the combined gate size of the radar data and the image data (S400).
상기 단계(S350)의 판단 결과, 상기 제3 경사각의 절대값이 상기 제2 임계값보다 작은 경우, 상기 제1 경사각 및 상기 제2 경사각에 기초하여 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈를 결정한다(S450).As a result of the determination in step S350, when the absolute value of the third inclination angle is smaller than the second threshold value, the combined gate size of the radar data and the image data is determined based on the first inclination angle and the second inclination angle. (S450).
한편, 상기 결합 게이트 사이즈는 순람표를 이용하여 결정될 수 있으나, 본 발명은 이에 한정되지 않는다.Meanwhile, the coupling gate size may be determined using a look up table, but the present invention is not limited thereto.
도 3은 도로 경사도에 따른 수평선 인식 차이를 설명하기 위한 개략도이다.3 is a schematic diagram for explaining a horizontal line recognition difference according to a road slope.
도 3을 참조하면, 평지에 비해 경사로에서 인식하는 수평선의 위치가 보다 위쪽 부분에 위치하고 있으며, 추가적인 보정이 없을 경우 사진에서의 물체 위치 픽셀 정보를 실제거리로 환산할 경우 경사로에서는 자차에서 물체까지의 실제거리 대비 오차가 커질 수 있다.Referring to FIG. 3, the position of the horizontal line recognized by the ramp is higher than that of the plain, and when there is no additional correction, when the pixel information of the object position in the photograph is converted into the actual distance, the slope from the vehicle to the object The error compared to the actual distance may be large.
도 4 및 도 5는 평지 및 오르막길에 있어서 레이더와 영상 센서의 종방향 거리 산출값 차이를 설명하기 위한 개략도이다.4 and 5 are schematic diagrams for explaining the difference in the longitudinal distance calculated value between the radar and the image sensor in the flat and uphill.
도 4를 참조하면, 피치 모션(pitch-motion)이 없고 경사각이 0도인 평지에 있어서는 레이더와 영상 센서의 종방향 거리 산출값이 거의 일치하며, 레이더와 영상 센서에서 인식하는 각각의 타겟을 하나의 센서 퓨전 타겟으로 인식할 수 있다.Referring to FIG. 4, in a plane having no pitch-motion and having an inclination angle of 0 degrees, the longitudinal distance calculation values of the radar and the image sensor are almost identical, and each target recognized by the radar and the image sensor is one. Can be recognized as a sensor fusion target.
한편, 도 5를 참조하면, 피치 모션 및 경사각이 발생하는 오르막길의 경우에 있어서는, 레이더와 영상 센서의 종방향 거리 산출값의 차가 30% 가까이 발생하며, 레이더와 영상 센서에서 인식하는 타겟이 서로 같은 하나의 물체임에도 불구하고 센서 퓨전에서는 서로 다른 물체로 인식하게 될 수 있다.Meanwhile, referring to FIG. 5, in the case of an uphill road where pitch motion and an inclination angle occur, a difference between the longitudinal distance calculated values of the radar and the image sensor is nearly 30%, and the targets recognized by the radar and the image sensor are the same. In spite of one object, sensor fusion can be recognized as a different object.
도 6은 본 발명에 따른 센서 퓨전 알고리즘의 검지 성능 향상 방법을 적용한 경우에 있어서의 효과를 설명하기 위한 개략도이다.6 is a schematic diagram for explaining the effect in the case of applying the detection performance improving method of the sensor fusion algorithm according to the present invention.
도 6를 참조하면, 레이더와 영상 센서의 종방향 거리 산출값의 차가 10% 가까이 발생하며, 종래의 센서 퓨전 알고리즘에서는 서로 다른 물체로 인식하였으나 본 발명에 따른 센서 퓨전 알고리즘에서는 같은 하나의 물체로 인식할 수 있다.Referring to FIG. 6, the difference in the longitudinal distance calculation value between the radar and the image sensor occurs close to 10%, and the sensor fusion algorithm according to the present invention recognizes the same object but the sensor fusion algorithm according to the present invention recognizes the same object. can do.
도 7은 본 발명에 따른 센서 퓨전 알고리즘의 검지 성능 향상 시스템의 일예를 나타낸다.7 shows an example of a system for improving detection performance of a sensor fusion algorithm according to the present invention.
도 7을 참조하면, 본 발명에 따른 센서 퓨전 알고리즘의 검지 성능 향상 시스템은 제1 경사각을 획득하는 자이로 센서(710), 제2 경사각을 획득하는 영상 센서(720) 및 상기 제1 경사각 및 상기 제2 경사각에 기초하여 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈를 결정하는 제어부(730)를 포함할 수 있다.Referring to FIG. 7, a system for improving detection performance of a sensor fusion algorithm according to the present invention includes a
상기 제어부는 제1 임계값을 획득하고, 상기 제1 경사각의 절대값이 상기 제1 임계값보다 큰 경우, 상기 제1 경사각과 상기 제2 경사각의 차이를 나타내는 제3 경사각을 획득할 수 있고, 상기 제1 경사각의 절대값이 상기 제1 임계값보다 작은 경우, 레이더 데이터 및 영상 데이터의 초기값을 할당할 수 있다.The controller acquires a first threshold value, and when the absolute value of the first tilt angle is greater than the first threshold value, the controller may acquire a third tilt angle indicating a difference between the first tilt angle and the second tilt angle, When the absolute value of the first inclination angle is smaller than the first threshold value, initial values of radar data and image data may be allocated.
이와 같이 경사각이 있는 도로 주행시에 있어 센서 퓨전 알고리즘에 발생할 수 있는 영상 정보의 종방향 거리 오차를 줄임으로써, 센서 퓨전 알고리즘의 검지 성능을 향상시킬 수 있다.In this way, the detection performance of the sensor fusion algorithm can be improved by reducing the longitudinal distance error of the image information that may occur in the sensor fusion algorithm when driving on a road having an inclination angle.
100: 자이로 센서 120: 영상 센서
710: 자이로 센서 720: 영상 센서
730: 제어부100: gyro sensor 120: image sensor
710: gyro sensor 720: image sensor
730: control unit
Claims (11)
영상 센서로부터 제2 경사각을 획득하는 단계; 및
상기 제1 경사각 및 상기 제2 경사각에 기초하여 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈를 결정하는 단계를 포함하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 방법.Obtaining a first tilt angle from the gyro sensor;
Obtaining a second tilt angle from the image sensor; And
And determining a combined gate size of the radar data and the image data based on the first inclination angle and the second inclination angle.
제1 임계값을 획득하는 단계를 더 포함하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 방법.The method of claim 1,
The detection performance improvement method of the sensor fusion algorithm, further comprising the step of obtaining a first threshold value.
상기 제1 임계값은 사용자로부터 획득하는 것을 특징으로 하는 퓨전 알고리즘의 검지 성능 향상 방법.The method of claim 2,
And detecting the first threshold value from a user.
상기 제1 경사각의 절대값이 상기 제1 임계값보다 큰 경우, 상기 제1 경사각과 상기 제2 경사각의 차이를 나타내는 제3 경사각을 획득하는 단계를 더 포함하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 방법.The method of claim 3, wherein
And detecting a third inclination angle indicating a difference between the first inclination angle and the second inclination angle when the absolute value of the first inclination angle is greater than the first threshold value. How to improve performance.
제2 임계값을 획득하는 단계를 더 포함하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 방법.The method of claim 4, wherein
The detection performance improvement method of the sensor fusion algorithm, further comprising the step of obtaining a second threshold value.
상기 제2 임계값은 사용자로부터 획득하는 것을 특징으로 하는 퓨전 알고리즘의 검지 성능 향상 방법.The method of claim 5, wherein
And detecting the second threshold value from a user.
상기 제3 경사각이 상기 제2 임계값보다 작은 경우, 상기 제1 경사각 및 상기 제2 경사각에 기초하여 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈를 결정하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 방법.The method according to claim 6,
And detecting the combined gate size of the radar data and the image data based on the first inclination angle and the second inclination angle when the third inclination angle is smaller than the second threshold value. .
상기 제1 경사각의 절대값이 상기 제1 임계값보다 작은 경우, 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈에 초기값을 할당하는 단계를 더 포함하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 방법.The method of claim 3, wherein
And assigning an initial value to a combined gate size of radar data and image data when the absolute value of the first inclination angle is smaller than the first threshold value.
제2 경사각을 획득하는 영상 센서; 및
상기 제1 경사각 및 상기 제2 경사각에 기초하여 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈를 결정하는 제어부를 포함하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 시스템.A gyro sensor for obtaining a first tilt angle;
An image sensor obtaining a second tilt angle; And
And a controller configured to determine a combined gate size of radar data and image data based on the first inclination angle and the second inclination angle.
상기 제어부는 제1 임계값을 획득하고, 상기 제1 경사각의 절대값이 상기 제1 임계값보다 큰 경우, 상기 제1 경사각과 상기 제2 경사각의 차이를 나타내는 제3 경사각을 획득하며, 상기 제3 경사각이 상기 제2 임계값보다 작은 경우, 상기 제1 경사각 및 상기 제2 경사각에 기초하여 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈를 결정하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 시스템.The method of claim 9,
The control unit obtains a first threshold value, and when the absolute value of the first inclination angle is greater than the first threshold value, obtains a third inclination angle representing a difference between the first inclination angle and the second inclination angle. 3, when the inclination angle is smaller than the second threshold value, the combined gate size of the radar data and the image data is determined based on the first inclination angle and the second inclination angle.
상기 제어부는 제1 임계값을 획득하고, 상기 제1 경사각의 절대값이 상기 제1 임계값보다 작은 경우, 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈에 초기값을 할당하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 시스템.The method of claim 9,
The control unit acquires a first threshold value and, when the absolute value of the first tilt angle is smaller than the first threshold value, assigns an initial value to a combined gate size of radar data and image data. Detection performance improvement system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100124896A KR101262947B1 (en) | 2010-12-08 | 2010-12-08 | A method for improving detection performance of sensor fusion algorithm and a system thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100124896A KR101262947B1 (en) | 2010-12-08 | 2010-12-08 | A method for improving detection performance of sensor fusion algorithm and a system thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120063770A true KR20120063770A (en) | 2012-06-18 |
KR101262947B1 KR101262947B1 (en) | 2013-05-08 |
Family
ID=46684110
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100124896A KR101262947B1 (en) | 2010-12-08 | 2010-12-08 | A method for improving detection performance of sensor fusion algorithm and a system thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101262947B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107031646A (en) * | 2015-09-11 | 2017-08-11 | 罗伯特·博世有限公司 | For determining the method and apparatus in the environment of the motor vehicle in parking lot with the presence or absence of object |
KR20200052589A (en) * | 2018-11-07 | 2020-05-15 | 현대자동차주식회사 | Apparatus and method for removing misrecognition of front vehicle and vehicle including the same |
KR20200075911A (en) * | 2018-12-04 | 2020-06-29 | 현대자동차주식회사 | Apparatus and method for removing false target in vehicle and vehicle including the same |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005258941A (en) | 2004-03-12 | 2005-09-22 | Toyota Central Res & Dev Lab Inc | Device for detecting obstacle |
JP4371366B2 (en) | 2004-07-12 | 2009-11-25 | 株式会社小糸製作所 | Vehicle headlamp device |
JP2010162975A (en) | 2009-01-14 | 2010-07-29 | Fujitsu Ten Ltd | Vehicle control system |
JP2010176592A (en) | 2009-01-30 | 2010-08-12 | Mazda Motor Corp | Driving support device for vehicle |
-
2010
- 2010-12-08 KR KR1020100124896A patent/KR101262947B1/en active IP Right Grant
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107031646A (en) * | 2015-09-11 | 2017-08-11 | 罗伯特·博世有限公司 | For determining the method and apparatus in the environment of the motor vehicle in parking lot with the presence or absence of object |
KR20200052589A (en) * | 2018-11-07 | 2020-05-15 | 현대자동차주식회사 | Apparatus and method for removing misrecognition of front vehicle and vehicle including the same |
KR20200075911A (en) * | 2018-12-04 | 2020-06-29 | 현대자동차주식회사 | Apparatus and method for removing false target in vehicle and vehicle including the same |
Also Published As
Publication number | Publication date |
---|---|
KR101262947B1 (en) | 2013-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11192557B2 (en) | Road profile along a predicted path | |
USRE47559E1 (en) | Parking area detecting apparatus and method thereof | |
US11023788B2 (en) | Systems and methods for estimating future paths | |
US11288833B2 (en) | Distance estimation apparatus and operating method thereof | |
JP7027738B2 (en) | Driving support device | |
US8369577B2 (en) | Vehicle position recognition system | |
US8768576B2 (en) | Undazzled-area map product, and system for determining whether to dazzle person using the same | |
US20090052742A1 (en) | Image processing apparatus and method thereof | |
US9594966B2 (en) | Obstacle detection device and obstacle detection method | |
KR20080109871A (en) | Parking assistance device and parking assistance method | |
US8559727B1 (en) | Temporal coherence in clear path detection | |
JP6552448B2 (en) | Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection | |
JP2015102449A (en) | Vehicle self position estimation apparatus and vehicle self position estimation method | |
JP2016206881A (en) | Lane detection device and method thereof, and lane display device and method thereof | |
JPWO2019031137A1 (en) | Roadside object detection device, roadside object detection method, and roadside object detection system | |
KR101262947B1 (en) | A method for improving detection performance of sensor fusion algorithm and a system thereof | |
KR101641491B1 (en) | Driver assistance apparatus and Vehicle including the same | |
JP2009139324A (en) | Travel road surface detecting apparatus for vehicle | |
KR20170089295A (en) | Method and Apparatus for controlling car speed during changing lane automatically | |
KR101511586B1 (en) | Apparatus and method for controlling vehicle by detection of tunnel | |
JP2010176592A (en) | Driving support device for vehicle | |
US20230150499A1 (en) | Vehicle control system and vehicle driving method using the vehicle control system | |
JP6200780B2 (en) | Lane recognition determination device | |
CN113291229B (en) | Output control system, control method thereof, moving object, and storage medium | |
KR20110128544A (en) | Method and apparatus for controlling head lamp on curved road |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20180427 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20190429 Year of fee payment: 7 |