KR20120063770A - A method for improving detection performance of sensor fusion algorithm and a system thereof - Google Patents

A method for improving detection performance of sensor fusion algorithm and a system thereof Download PDF

Info

Publication number
KR20120063770A
KR20120063770A KR1020100124896A KR20100124896A KR20120063770A KR 20120063770 A KR20120063770 A KR 20120063770A KR 1020100124896 A KR1020100124896 A KR 1020100124896A KR 20100124896 A KR20100124896 A KR 20100124896A KR 20120063770 A KR20120063770 A KR 20120063770A
Authority
KR
South Korea
Prior art keywords
inclination angle
threshold value
obtaining
sensor
detection performance
Prior art date
Application number
KR1020100124896A
Other languages
Korean (ko)
Other versions
KR101262947B1 (en
Inventor
조석환
김종철
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020100124896A priority Critical patent/KR101262947B1/en
Publication of KR20120063770A publication Critical patent/KR20120063770A/en
Application granted granted Critical
Publication of KR101262947B1 publication Critical patent/KR101262947B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/06Improving the dynamic response of the control system, e.g. improving the speed of regulation or avoiding hunting or overshoot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/076Slope angle of the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

PURPOSE: A detection performance improving method and system of the sensor fusion algorithm is provided to proceed a correction process of an image sensor when a vehicle is moving on an inclining track. CONSTITUTION: A detection performance improving method of the sensor fusion algorithm comprises the following steps: obtaining the first inclination angle from a gyro sensor(100); obtaining the second inclination angle from an image sensor(120); setting the size of radar data and a image data-coupled gate based on the obtained first and second inclination angles(S100, S150); obtaining the first critical value from users, and obtaining the third inclination angle showing the difference of the first and second inclination angles when the absolute value of the first inclination angle is bigger than the first critical value; ad obtaining the second critical value from the users, and setting the size of the radar data and the image data-coupled gate based on the first and second inclination angles when the third inclination angle is smaller than the second critical value.

Description

센서 퓨전 알고리즘의 검지 성능 향상 방법 및 시스템{A METHOD FOR IMPROVING DETECTION PERFORMANCE OF SENSOR FUSION ALGORITHM AND A SYSTEM THEREOF}A METHOD FOR IMPROVING DETECTION PERFORMANCE OF SENSOR FUSION ALGORITHM AND A SYSTEM THEREOF}

본 발명은 센서 퓨전 알고리즘의 검지 성능 향상 방법 및 시스템에 관한 것으로, 보다 상세하게는 주행시 경사각이 있는 경우 센서 퓨전 알고리즘의 검지 성능 향상 방법 및 시스템에 관한 것이다.The present invention relates to a method and a system for improving the detection performance of a sensor fusion algorithm, and more particularly, to a method and a system for improving the detection performance of a sensor fusion algorithm when there is an inclination angle during driving.

최근 들어 차량에는 운전자 및 탑승자 보호와 운행 보조 및 승차감의 향상을 위한 다양한 시스템들이 탑재, 내장되고 있으며, 이러한 시스템들은 급속히 개량? 발전되고 있다. Recently, vehicles have been equipped with a variety of systems for driver and passenger protection, driving assistance, and improved ride comfort. It is developing.

그 중 영상 센서(카메라)를 이용하여 차선을 인식하고 자동 조향을 행하는 기술이 실용화되고 있는데, 일반적으로 자동차에 구비되는 영상 인식 처리장치는 운행되는 도로 차선의 영상 정보와 후속 주행하는 자동차에 관한 영상 정보 및 좌우 차선의 영상 정보를 검출한 후 표시수단을 통해 디스플레이하여 운전자에게 편리한 차선의 인식과 운행되는 도로의 상황 및 주변 차량의 운행 정보를 제공하는 것이다. Among them, a technology of recognizing lanes and performing automatic steering using an image sensor (camera) has been put into practical use. In general, an image recognition processing apparatus provided in a vehicle includes image information of a driving lane and an image of a subsequent driving vehicle. After detecting the information and the image information of the left and right lanes and displaying them through the display means to provide the driver with a convenient lane recognition and the driving situation of the road and surrounding vehicles.

또한, 레이더는 차량에 탑재되어 밀리미터파(millimeter wave)를 이용하여 전/후방 및 측방의 주변환경에 관한 정보를 운전자에게 제공하고 필요한 경우에는 차량을 제어하여 운전자의 안전한 주행을 돕는데 이용하는 것이다.In addition, the radar is mounted on a vehicle to provide the driver with information about the front and rear and side surroundings using a millimeter wave, and to control the vehicle when necessary to help the driver to drive safely.

최근, 상기 영상 센서 및 레이더를 통해 수집된 영상 정보 및 레이더 정보를 통합하여 필요한 정보를 추출해서 사용할 수 있는 센서 데이터 퓨전 알고리즘이 소개되고 있다.Recently, a sensor data fusion algorithm for integrating image information and radar information collected through the image sensor and radar has been introduced.

기존의 센서 데이터 퓨전 알고리즘은 영상 정보와 레이더 정보를 일률적으로 통합하여 퓨전 데이터를 가공한다.Conventional sensor data fusion algorithms integrate the image information and radar information to process the fusion data.

한편, 우리나라와 같이 실도로 주행시 오르막 또는 내리막길이 많고 도로 경사각(pitch)이 있는 경우에 있어서 기존의 센서 데이터 퓨전 알고리즘과 같이 영상정보와 레이더 정보를 일률적으로 통합하는 경우에는 영상 처리를 통해 거리 산출을 할 때 영상 정보의 종방향 거리 오차게 커지게 된다.On the other hand, when there are many uphill or downhill roads and road pitches when driving on a real road as in Korea, when the image information and radar information are uniformly integrated as in the conventional sensor data fusion algorithm, the distance calculation is performed through image processing. In this case, the longitudinal distance error of the image information becomes large.

따라서 본 발명은 상기와 같은 문제점을 해결하기 위해 창안된 것으로서, 주행시 경사각이 있는 경우 영상 센서에 대해 보정을 수행하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 방법 및 시스템을 제공하는데 그 목적이 있다.Accordingly, an object of the present invention is to provide a method and a system for improving detection performance of a sensor fusion algorithm, which is characterized by performing correction on an image sensor when there is an inclination angle while driving. .

상기와 같은 목적을 달성하기 위한 본 발명은 자이로 센서로부터 제1 경사각을 획득하는 단계; 영상 센서로부터 제2 경사각을 획득하는 단계; 및 상기 제1 경사각 및 상기 제2 경사각에 기초하여 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈를 결정하는 단계를 포함하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 방법을 제공한다.The present invention for achieving the above object is a step of obtaining a first tilt angle from the gyro sensor; Obtaining a second tilt angle from the image sensor; And determining a combined gate size of radar data and image data based on the first inclination angle and the second inclination angle.

또한, 본 발명은 제1 경사각을 획득하는 자이로 센서; 제2 경사각을 획득하는 영상 센서; 및 상기 제1 경사각 및 상기 제2 경사각에 기초하여 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈를 결정하는 제어부를 포함하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 시스템을 제공한다.In addition, the present invention the gyro sensor for obtaining a first inclination angle; An image sensor obtaining a second tilt angle; And a controller configured to determine a combined gate size of radar data and image data based on the first inclination angle and the second inclination angle.

본 발명에 의하면, 경사각이 있는 도로 주행시에 있어 센서 퓨전 알고리즘에 발생할 수 있는 영상 정보의 종방향 거리 오차를 줄임으로써, 센서 퓨전 알고리즘의 검지 성능을 향상시킬 수 있다.According to the present invention, the detection performance of the sensor fusion algorithm can be improved by reducing the longitudinal distance error of the image information which may occur in the sensor fusion algorithm when driving on a road with an inclination angle.

도 1은 본 발명에 따른 센서 퓨전 알고리즘의 검지 성능 향상 방법을 나타낸 블록도이다.
도 2는 본 발명에 따른 센서 퓨전 알고리즘의 검지 성능 향상 방법의 일예를 나타낸 순서도이다.
도 3은 도로 경사도에 따른 수평선 인식 차이를 설명하기 위한 개략도이다.
도 4 및 도 5는 평지 및 오르막길에 있어서 레이더와 영상 센서의 종방향 거리 산출값 차이를 설명하기 위한 개략도이다.
도 6은 본 발명에 따른 센서 퓨전 알고리즘의 검지 성능 향상 방법을 적용한 경우에 있어서의 효과를 설명하기 위한 개략도이다.
도 7은 본 발명에 따른 센서 퓨전 알고리즘의 검지 성능 향상 시스템을 나타낸 블록도이다.
1 is a block diagram illustrating a method of improving detection performance of a sensor fusion algorithm according to the present invention.
2 is a flowchart illustrating an example of a method for improving detection performance of a sensor fusion algorithm according to the present invention.
3 is a schematic diagram for explaining a horizontal line recognition difference according to a road slope.
4 and 5 are schematic diagrams for explaining the difference in the longitudinal distance calculated value between the radar and the image sensor in the flat and uphill.
6 is a schematic diagram for explaining the effect in the case of applying the detection performance improving method of the sensor fusion algorithm according to the present invention.
7 is a block diagram illustrating a system for improving detection performance of a sensor fusion algorithm according to the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 일 실시예를 상세하게 설명하면 다음과 같다.Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 센서 퓨전 알고리즘의 검지 성능 향상 방법을 나타낸 블록도이다. 1 is a block diagram illustrating a method of improving detection performance of a sensor fusion algorithm according to the present invention.

도 1을 참조하면, 자이로 센서(100)로부터 제1 경사각(Gyro_Pitch_Angle), 영상 센서(120)로부터 제2 경사각(Vision_Pitch_Angle)을 획득하고, 상기 제1 경사각 및 상기 제2 경사각에 기초하여 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈(Association gate size)를 변경할지 여부를 결정한다(S100).Referring to FIG. 1, a first inclination angle Gyro_Pitch_Angle is obtained from the gyro sensor 100 and a second inclination angle Vision_Pitch_Angle is obtained from the image sensor 120. It is determined whether to change the association gate size of the image data (S100).

상기 단계(S100)의 판단 결과, 상기 제1 경사각 및 상기 제2 경사각에 기초하여 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈를 결정하고(S150), 그 결과를 출력할 수 있다(S200).As a result of the determination in step S100, the combined gate size of the radar data and the image data may be determined based on the first inclination angle and the second inclination angle (S150), and the result may be output (S200).

한편, 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈는 바람직하게는 상기 제1 경사각 및 제2 경사각에 따른 결합 게이트 사이즈를 표시한 순람표(Look-up Table)를 이용하여 결정할 수 있다.Meanwhile, the combined gate size of the radar data and the image data may be determined by using a look-up table indicating the combined gate size according to the first inclination angle and the second inclination angle.

도 2는 본 발명에 따른 센서 퓨전 알고리즘의 검지 성능 향상 방법의 일예를 나타낸 순서도이다.2 is a flowchart illustrating an example of a method for improving detection performance of a sensor fusion algorithm according to the present invention.

도 2를 참조하면, 자이로 센서를 이용하여 측정한 제1 경사각(Gyro_Pitch_Angle) 및 영상 센서를 이용하여 측정한 제2 경사각(Vision_Pitch_Angle)을 획득하고, 상기 제1 경사각의 절대값이 제1 임계값보다 큰지를 판단한다(S300). Referring to FIG. 2, a first inclination angle Gyro_Pitch_Angle measured using a gyro sensor and a second inclination angle Vision_Pitch_Angle measured using an image sensor are obtained, and an absolute value of the first inclination angle is greater than a first threshold value. It is determined whether large (S300).

상기 단계(S300)의 판단 결과, 상기 제1 경사각의 절대값이 상기 제1 임계값보다 큰 경우, 상기 제1 경사각과 상기 제2 경사각의 차이를 나타내는 제3 경사각(Gyro_Pitch_Angle-Vision_Pitch_Angle)을 획득하고, 상기 제3 경사각의 절대값이 상기 제2 임계값보다 작은지를 판단한다(S350).As a result of the determination in step S300, when the absolute value of the first inclination angle is greater than the first threshold value, a third inclination angle (Gyro_Pitch_Angle-Vision_Pitch_Angle) representing the difference between the first inclination angle and the second inclination angle is obtained. In operation S350, it is determined whether the absolute value of the third inclination angle is smaller than the second threshold value.

한편, 상기 제1 임계값 및 상기 제2 임계값은 사용자로부터 획득할 수 있고, 바람직하게는 각각 3도(degree) 및 1도를 나타낼 수 있으나, 본 발명은 이에 한정되지 않는다.Meanwhile, the first threshold value and the second threshold value may be obtained from a user, and may preferably represent 3 degrees and 1 degree, respectively, but the present invention is not limited thereto.

상기 단계(S300)의 판단 결과, 상기 제1 경사각의 절대값이 상기 제1 임계값보다 작은 경우, 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈에 초기값(특정 상수)을 할당한다(S400).As a result of the determination in step S300, when the absolute value of the first inclination angle is smaller than the first threshold value, an initial value (a specific constant) is allocated to the combined gate size of the radar data and the image data (S400).

상기 단계(S350)의 판단 결과, 상기 제3 경사각의 절대값이 상기 제2 임계값보다 작은 경우, 상기 제1 경사각 및 상기 제2 경사각에 기초하여 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈를 결정한다(S450).As a result of the determination in step S350, when the absolute value of the third inclination angle is smaller than the second threshold value, the combined gate size of the radar data and the image data is determined based on the first inclination angle and the second inclination angle. (S450).

한편, 상기 결합 게이트 사이즈는 순람표를 이용하여 결정될 수 있으나, 본 발명은 이에 한정되지 않는다.Meanwhile, the coupling gate size may be determined using a look up table, but the present invention is not limited thereto.

도 3은 도로 경사도에 따른 수평선 인식 차이를 설명하기 위한 개략도이다.3 is a schematic diagram for explaining a horizontal line recognition difference according to a road slope.

도 3을 참조하면, 평지에 비해 경사로에서 인식하는 수평선의 위치가 보다 위쪽 부분에 위치하고 있으며, 추가적인 보정이 없을 경우 사진에서의 물체 위치 픽셀 정보를 실제거리로 환산할 경우 경사로에서는 자차에서 물체까지의 실제거리 대비 오차가 커질 수 있다.Referring to FIG. 3, the position of the horizontal line recognized by the ramp is higher than that of the plain, and when there is no additional correction, when the pixel information of the object position in the photograph is converted into the actual distance, the slope from the vehicle to the object The error compared to the actual distance may be large.

도 4 및 도 5는 평지 및 오르막길에 있어서 레이더와 영상 센서의 종방향 거리 산출값 차이를 설명하기 위한 개략도이다.4 and 5 are schematic diagrams for explaining the difference in the longitudinal distance calculated value between the radar and the image sensor in the flat and uphill.

도 4를 참조하면, 피치 모션(pitch-motion)이 없고 경사각이 0도인 평지에 있어서는 레이더와 영상 센서의 종방향 거리 산출값이 거의 일치하며, 레이더와 영상 센서에서 인식하는 각각의 타겟을 하나의 센서 퓨전 타겟으로 인식할 수 있다.Referring to FIG. 4, in a plane having no pitch-motion and having an inclination angle of 0 degrees, the longitudinal distance calculation values of the radar and the image sensor are almost identical, and each target recognized by the radar and the image sensor is one. Can be recognized as a sensor fusion target.

한편, 도 5를 참조하면, 피치 모션 및 경사각이 발생하는 오르막길의 경우에 있어서는, 레이더와 영상 센서의 종방향 거리 산출값의 차가 30% 가까이 발생하며, 레이더와 영상 센서에서 인식하는 타겟이 서로 같은 하나의 물체임에도 불구하고 센서 퓨전에서는 서로 다른 물체로 인식하게 될 수 있다.Meanwhile, referring to FIG. 5, in the case of an uphill road where pitch motion and an inclination angle occur, a difference between the longitudinal distance calculated values of the radar and the image sensor is nearly 30%, and the targets recognized by the radar and the image sensor are the same. In spite of one object, sensor fusion can be recognized as a different object.

도 6은 본 발명에 따른 센서 퓨전 알고리즘의 검지 성능 향상 방법을 적용한 경우에 있어서의 효과를 설명하기 위한 개략도이다.6 is a schematic diagram for explaining the effect in the case of applying the detection performance improving method of the sensor fusion algorithm according to the present invention.

도 6를 참조하면, 레이더와 영상 센서의 종방향 거리 산출값의 차가 10% 가까이 발생하며, 종래의 센서 퓨전 알고리즘에서는 서로 다른 물체로 인식하였으나 본 발명에 따른 센서 퓨전 알고리즘에서는 같은 하나의 물체로 인식할 수 있다.Referring to FIG. 6, the difference in the longitudinal distance calculation value between the radar and the image sensor occurs close to 10%, and the sensor fusion algorithm according to the present invention recognizes the same object but the sensor fusion algorithm according to the present invention recognizes the same object. can do.

도 7은 본 발명에 따른 센서 퓨전 알고리즘의 검지 성능 향상 시스템의 일예를 나타낸다.7 shows an example of a system for improving detection performance of a sensor fusion algorithm according to the present invention.

도 7을 참조하면, 본 발명에 따른 센서 퓨전 알고리즘의 검지 성능 향상 시스템은 제1 경사각을 획득하는 자이로 센서(710), 제2 경사각을 획득하는 영상 센서(720) 및 상기 제1 경사각 및 상기 제2 경사각에 기초하여 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈를 결정하는 제어부(730)를 포함할 수 있다.Referring to FIG. 7, a system for improving detection performance of a sensor fusion algorithm according to the present invention includes a gyro sensor 710 for obtaining a first tilt angle, an image sensor 720 for obtaining a second tilt angle, and the first tilt angle and the first tilt angle. The controller 730 may determine a combined gate size of the radar data and the image data based on the inclination angle.

상기 제어부는 제1 임계값을 획득하고, 상기 제1 경사각의 절대값이 상기 제1 임계값보다 큰 경우, 상기 제1 경사각과 상기 제2 경사각의 차이를 나타내는 제3 경사각을 획득할 수 있고, 상기 제1 경사각의 절대값이 상기 제1 임계값보다 작은 경우, 레이더 데이터 및 영상 데이터의 초기값을 할당할 수 있다.The controller acquires a first threshold value, and when the absolute value of the first tilt angle is greater than the first threshold value, the controller may acquire a third tilt angle indicating a difference between the first tilt angle and the second tilt angle, When the absolute value of the first inclination angle is smaller than the first threshold value, initial values of radar data and image data may be allocated.

이와 같이 경사각이 있는 도로 주행시에 있어 센서 퓨전 알고리즘에 발생할 수 있는 영상 정보의 종방향 거리 오차를 줄임으로써, 센서 퓨전 알고리즘의 검지 성능을 향상시킬 수 있다.In this way, the detection performance of the sensor fusion algorithm can be improved by reducing the longitudinal distance error of the image information that may occur in the sensor fusion algorithm when driving on a road having an inclination angle.

100: 자이로 센서 120: 영상 센서
710: 자이로 센서 720: 영상 센서
730: 제어부
100: gyro sensor 120: image sensor
710: gyro sensor 720: image sensor
730: control unit

Claims (11)

자이로 센서로부터 제1 경사각을 획득하는 단계;
영상 센서로부터 제2 경사각을 획득하는 단계; 및
상기 제1 경사각 및 상기 제2 경사각에 기초하여 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈를 결정하는 단계를 포함하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 방법.
Obtaining a first tilt angle from the gyro sensor;
Obtaining a second tilt angle from the image sensor; And
And determining a combined gate size of the radar data and the image data based on the first inclination angle and the second inclination angle.
제 1 항에 있어서,
제1 임계값을 획득하는 단계를 더 포함하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 방법.
The method of claim 1,
The detection performance improvement method of the sensor fusion algorithm, further comprising the step of obtaining a first threshold value.
제 2 항에 있어서,
상기 제1 임계값은 사용자로부터 획득하는 것을 특징으로 하는 퓨전 알고리즘의 검지 성능 향상 방법.
The method of claim 2,
And detecting the first threshold value from a user.
제 3 항에 있어서,
상기 제1 경사각의 절대값이 상기 제1 임계값보다 큰 경우, 상기 제1 경사각과 상기 제2 경사각의 차이를 나타내는 제3 경사각을 획득하는 단계를 더 포함하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 방법.
The method of claim 3, wherein
And detecting a third inclination angle indicating a difference between the first inclination angle and the second inclination angle when the absolute value of the first inclination angle is greater than the first threshold value. How to improve performance.
제 4 항에 있어서,
제2 임계값을 획득하는 단계를 더 포함하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 방법.
The method of claim 4, wherein
The detection performance improvement method of the sensor fusion algorithm, further comprising the step of obtaining a second threshold value.
제 5 항에 있어서,
상기 제2 임계값은 사용자로부터 획득하는 것을 특징으로 하는 퓨전 알고리즘의 검지 성능 향상 방법.
The method of claim 5, wherein
And detecting the second threshold value from a user.
제 6 항에 있어서,
상기 제3 경사각이 상기 제2 임계값보다 작은 경우, 상기 제1 경사각 및 상기 제2 경사각에 기초하여 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈를 결정하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 방법.
The method according to claim 6,
And detecting the combined gate size of the radar data and the image data based on the first inclination angle and the second inclination angle when the third inclination angle is smaller than the second threshold value. .
제 3 항에 있어서,
상기 제1 경사각의 절대값이 상기 제1 임계값보다 작은 경우, 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈에 초기값을 할당하는 단계를 더 포함하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 방법.
The method of claim 3, wherein
And assigning an initial value to a combined gate size of radar data and image data when the absolute value of the first inclination angle is smaller than the first threshold value.
제1 경사각을 획득하는 자이로 센서;
제2 경사각을 획득하는 영상 센서; 및
상기 제1 경사각 및 상기 제2 경사각에 기초하여 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈를 결정하는 제어부를 포함하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 시스템.
A gyro sensor for obtaining a first tilt angle;
An image sensor obtaining a second tilt angle; And
And a controller configured to determine a combined gate size of radar data and image data based on the first inclination angle and the second inclination angle.
제 9 항에 있어서,
상기 제어부는 제1 임계값을 획득하고, 상기 제1 경사각의 절대값이 상기 제1 임계값보다 큰 경우, 상기 제1 경사각과 상기 제2 경사각의 차이를 나타내는 제3 경사각을 획득하며, 상기 제3 경사각이 상기 제2 임계값보다 작은 경우, 상기 제1 경사각 및 상기 제2 경사각에 기초하여 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈를 결정하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 시스템.
The method of claim 9,
The control unit obtains a first threshold value, and when the absolute value of the first inclination angle is greater than the first threshold value, obtains a third inclination angle representing a difference between the first inclination angle and the second inclination angle. 3, when the inclination angle is smaller than the second threshold value, the combined gate size of the radar data and the image data is determined based on the first inclination angle and the second inclination angle.
제 9 항에 있어서,
상기 제어부는 제1 임계값을 획득하고, 상기 제1 경사각의 절대값이 상기 제1 임계값보다 작은 경우, 레이더 데이터 및 영상 데이터의 결합 게이트 사이즈에 초기값을 할당하는 것을 특징으로 하는 센서 퓨전 알고리즘의 검지 성능 향상 시스템.
The method of claim 9,
The control unit acquires a first threshold value and, when the absolute value of the first tilt angle is smaller than the first threshold value, assigns an initial value to a combined gate size of radar data and image data. Detection performance improvement system.
KR1020100124896A 2010-12-08 2010-12-08 A method for improving detection performance of sensor fusion algorithm and a system thereof KR101262947B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100124896A KR101262947B1 (en) 2010-12-08 2010-12-08 A method for improving detection performance of sensor fusion algorithm and a system thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100124896A KR101262947B1 (en) 2010-12-08 2010-12-08 A method for improving detection performance of sensor fusion algorithm and a system thereof

Publications (2)

Publication Number Publication Date
KR20120063770A true KR20120063770A (en) 2012-06-18
KR101262947B1 KR101262947B1 (en) 2013-05-08

Family

ID=46684110

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100124896A KR101262947B1 (en) 2010-12-08 2010-12-08 A method for improving detection performance of sensor fusion algorithm and a system thereof

Country Status (1)

Country Link
KR (1) KR101262947B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107031646A (en) * 2015-09-11 2017-08-11 罗伯特·博世有限公司 For determining the method and apparatus in the environment of the motor vehicle in parking lot with the presence or absence of object
KR20200052589A (en) * 2018-11-07 2020-05-15 현대자동차주식회사 Apparatus and method for removing misrecognition of front vehicle and vehicle including the same
KR20200075911A (en) * 2018-12-04 2020-06-29 현대자동차주식회사 Apparatus and method for removing false target in vehicle and vehicle including the same

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005258941A (en) 2004-03-12 2005-09-22 Toyota Central Res & Dev Lab Inc Device for detecting obstacle
JP4371366B2 (en) 2004-07-12 2009-11-25 株式会社小糸製作所 Vehicle headlamp device
JP2010162975A (en) 2009-01-14 2010-07-29 Fujitsu Ten Ltd Vehicle control system
JP2010176592A (en) 2009-01-30 2010-08-12 Mazda Motor Corp Driving support device for vehicle

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107031646A (en) * 2015-09-11 2017-08-11 罗伯特·博世有限公司 For determining the method and apparatus in the environment of the motor vehicle in parking lot with the presence or absence of object
KR20200052589A (en) * 2018-11-07 2020-05-15 현대자동차주식회사 Apparatus and method for removing misrecognition of front vehicle and vehicle including the same
KR20200075911A (en) * 2018-12-04 2020-06-29 현대자동차주식회사 Apparatus and method for removing false target in vehicle and vehicle including the same

Also Published As

Publication number Publication date
KR101262947B1 (en) 2013-05-08

Similar Documents

Publication Publication Date Title
US11192557B2 (en) Road profile along a predicted path
USRE47559E1 (en) Parking area detecting apparatus and method thereof
US11023788B2 (en) Systems and methods for estimating future paths
US11288833B2 (en) Distance estimation apparatus and operating method thereof
JP7027738B2 (en) Driving support device
US8369577B2 (en) Vehicle position recognition system
US8768576B2 (en) Undazzled-area map product, and system for determining whether to dazzle person using the same
US20090052742A1 (en) Image processing apparatus and method thereof
US9594966B2 (en) Obstacle detection device and obstacle detection method
KR20080109871A (en) Parking assistance device and parking assistance method
US8559727B1 (en) Temporal coherence in clear path detection
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
JP2015102449A (en) Vehicle self position estimation apparatus and vehicle self position estimation method
JP2016206881A (en) Lane detection device and method thereof, and lane display device and method thereof
JPWO2019031137A1 (en) Roadside object detection device, roadside object detection method, and roadside object detection system
KR101262947B1 (en) A method for improving detection performance of sensor fusion algorithm and a system thereof
KR101641491B1 (en) Driver assistance apparatus and Vehicle including the same
JP2009139324A (en) Travel road surface detecting apparatus for vehicle
KR20170089295A (en) Method and Apparatus for controlling car speed during changing lane automatically
KR101511586B1 (en) Apparatus and method for controlling vehicle by detection of tunnel
JP2010176592A (en) Driving support device for vehicle
US20230150499A1 (en) Vehicle control system and vehicle driving method using the vehicle control system
JP6200780B2 (en) Lane recognition determination device
CN113291229B (en) Output control system, control method thereof, moving object, and storage medium
KR20110128544A (en) Method and apparatus for controlling head lamp on curved road

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180427

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190429

Year of fee payment: 7