KR101887436B1 - Apparatus and method for detecting object - Google Patents
Apparatus and method for detecting object Download PDFInfo
- Publication number
- KR101887436B1 KR101887436B1 KR1020160081385A KR20160081385A KR101887436B1 KR 101887436 B1 KR101887436 B1 KR 101887436B1 KR 1020160081385 A KR1020160081385 A KR 1020160081385A KR 20160081385 A KR20160081385 A KR 20160081385A KR 101887436 B1 KR101887436 B1 KR 101887436B1
- Authority
- KR
- South Korea
- Prior art keywords
- distance information
- sensor
- radar sensor
- rider
- measured
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
- G01S13/581—Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of interrupted pulse modulated waves and based upon the Doppler effect resulting from movement of targets
- G01S13/582—Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of interrupted pulse modulated waves and based upon the Doppler effect resulting from movement of targets adapted for simultaneous range and velocity measurements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G01S17/936—
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/04—Display arrangements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4004—Means for monitoring or calibrating of parts of a radar system
- G01S7/4021—Means for monitoring or calibrating of parts of a radar system of receivers
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명은 물체 탐지 장치에 관한 것으로, 본 발명의 일 실시예에 따른 물체 탐지 장치는 차량에 구비된 물체 탐지 장치에 있어서, 레이저 신호를 방사하여 물체의 정보를 측정하는 라이더(Lidar) 센서; 디지털 빔 신호를 방사하여 상기 물체의 정보를 측정하는 레이더(Radar) 센서; 및 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 비교하고, 비교 결과에 따라 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보의 합성 여부를 판단하는 제어부를 포함한다.The present invention relates to an object detecting apparatus, and an object detecting apparatus according to an embodiment of the present invention includes a lidar sensor for measuring information of an object by emitting a laser signal; A radar sensor for radiating a digital beam signal to measure information of the object; And a controller for comparing the distance information of the object measured by each of the rider sensor and the radar sensor and determining whether the distance information of the object measured by the rider sensor and the radar sensor is synthesized do.
Description
본 발명은 물체 탐지 장치 및 방법에 관한 것으로, 구체적으로 차량에 구비된 라이더 센서와 레이더 센서 각각에서 측정된 물체의 정보를 융합하는 기술에 관한 것이다.TECHNICAL FIELD The present invention relates to an apparatus and method for detecting an object, and more particularly, to a technique for fusing information of an object measured by a rider sensor and a radar sensor provided in a vehicle.
대부분의 운전자는 자신의 시야에 의존하여 자동차의 진행 방향을 예측하면서 운전한다. 그러나, 이러한 경우 운전자가 운전 경험이 풍부하지 못하거나 혹은 운전자가 일시적으로 차량의 진행 방향을 잘못 판단함으로써 사고가 발생할 위험이 있다.Most drivers rely on their field of view to drive and predict the direction of the car. However, in such a case, there is a risk that the driver may not experience a lot of driving experience, or an accident may occur due to the driver erroneously determining the traveling direction of the vehicle.
이에 따라, 최근에는 차량에 레이더(Radar) 또는 라이더(Lidar)와 같은 장치를 장착하고, 이를 이용하여 주변 물체에 대한 거리 및 속도를 측정하여 안전 사고를 미연에 방지하기 위한 기술들이 대두되고 있다.Accordingly, in recent years, techniques have been developed for mounting a device such as a radar or a lidar on a vehicle and measuring the distance and speed to nearby objects using the device to prevent a safety accident.
레이더는 디지털 빔 신호를 소정 범위로 방사하여 물체의 정보를 측정하고, 라이더는 레이저 신호를 특정 각도로 방사하여 물체의 정보를 측정한다. 이와 같은 특성상 물체의 속도 정보는 레이더가 라이더에 비해 정확도가 높고, 물체의 거리 정보는 라이더가 레이더에 비해 정확도가 높다. 따라서, 정확한 물체의 거리 및 속도를 측정하여 물체를 탐지하기 위해서는 레이더 정보와 라이더 정보를 융합할 필요성이 있다.The radar emits a digital beam signal to a predetermined range to measure information of the object, and the rider radiates the laser signal at a certain angle to measure information of the object. Because of this characteristic, the velocity information of the object is higher than that of the radar, and the distance information of the object is more accurate than the radar. Therefore, it is necessary to fuse radar information with rider information in order to detect an object by measuring the distance and speed of an accurate object.
본 발명은 라이더 센서 및 레이더 센서 각각에서 측정한 물체의 정보를 주행 환경에 따라 서로 다른 가중치를 적용하여 합성하여 물체 탐지의 정확도를 향상시키는 데 목적이 있다.An object of the present invention is to improve the accuracy of object detection by combining the information of the object measured by the rider sensor and the radar sensor by applying different weights according to the driving environment.
본 발명의 일 실시예에 따른 물체 탐지 장치는 차량에 구비된 물체 탐지 장치에 있어서, 레이저 신호를 방사하여 물체의 정보를 측정하는 라이더(Lidar) 센서; 디지털 빔 신호를 방사하여 상기 물체의 정보를 측정하는 레이더(Radar) 센서; 및 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 비교하고, 비교 결과에 따라 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보의 합성 여부를 판단하는 제어부를 포함한다.According to an embodiment of the present invention, there is provided an apparatus for detecting an object provided on a vehicle, the apparatus comprising: a lidar sensor for irradiating a laser signal to measure information of an object; A radar sensor for radiating a digital beam signal to measure information of the object; And a controller for comparing the distance information of the object measured by each of the rider sensor and the radar sensor and determining whether the distance information of the object measured by the rider sensor and the radar sensor is synthesized do.
이때, 상기 물체의 정보는 상기 물체의 거리 정보 및 상기 물체의 속도 정보를 포함한다.At this time, the information of the object includes distance information of the object and speed information of the object.
일 실시예에 있어서, 상기 라이더 센서의 방사 각도를 설정하고, 상기 레이더 센서의 조향 범위를 상기 라이더 센서의 방사 각도에 동기화되도록 설정하는 센서 설정부를 더 포함하는 할 수 있다.In one embodiment, the apparatus may further include a sensor setting unit that sets the radial angle of the rider sensor and sets the steering range of the radar sensor to be synchronized with the radial angle of the rider sensor.
일 실시예에 있어서, 상기 제어부는 비교 결과 상기 라이더 센서에서 측정된 상기 물체의 거리 정보를 기준으로 상기 레이더 센서에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 이상인 경우, 상기 레이더 센서의 구동 파라미터를 보정할 수 있다.In one embodiment, when the distance information of the object measured by the radar sensor is greater than or equal to a predetermined error range on the basis of the distance information of the object measured by the rider sensor as a result of the comparison, Can be corrected.
일 실시예에 있어서, 상기 제어부는 비교 결과 상기 라이더 센서에서 측정된 상기 물체의 거리 정보를 기준으로 상기 레이더 센서에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 미만인 경우, 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 합성할 수 있다.In one embodiment, when the distance information of the object measured by the radar sensor is less than a predetermined error range on the basis of the distance information of the object measured by the rider sensor as a result of the comparison, It is possible to combine the distance information of the object measured in each of them.
일 실시예에 있어서, 상기 제어부는 비교 결과 상기 라이더 센서에서 측정된 상기 물체의 거리 정보를 기준으로 상기 레이더 센서에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 미만인 경우, 상기 차량의 주행 환경에 따라 합성 가중치를 산출하고, 상기 합성 가중치를 적용하여 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 합성할 수 있다.In one embodiment, when the distance information of the object measured by the radar sensor is less than a predetermined error range on the basis of the distance information of the object measured by the rider sensor as a result of the comparison, The composite weight is calculated, and the composite weight is applied to synthesize the distance information of the object measured by each of the rider sensor and the radar sensor.
일 실시예에 있어서, 상기 제어부는 상기 합성 가중치를 상기 레이더 센서에서 측정한 거리 정보에 적용할 수 있다.In one embodiment, the controller may apply the composite weight to distance information measured by the radar sensor.
일 실시예에 있어서, 상기 제어부에서 합성한 상기 물체의 거리 정보와 상기 레이더 센서에서 측정한 상기 물체의 속도 정보를 사용자에게 출력하는 출력부를 더 포함할 수 있다.In one embodiment, the control unit may further include an output unit for outputting distance information of the object synthesized by the control unit and speed information of the object measured by the radar sensor to a user.
본 발명의 일 실시예에 따른 물체 탐지 방법은 라이더(Lidar) 센서의 레이저 신호 방사 각도를 설정하는 라이더 센서 설정 단계; 상기 라이더 센서 설정 단계에서 설정된 상기 라이더 센서의 방사 각도에 동기화되도록 레이더(Radar) 센서의 조향 범위를 설정하는 레이더 센서 설정 단계: 상기 라이더 센서 및 상기 레이더 센서 각각에서 물체의 정보를 측정하는 정보 측정 단계; 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 비교하는 비교 단계; 및 상기 비교 단계의 비교 결과에 따라 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보의 합성 여부를 판단하는 판단 단계를 포함한다.An object detecting method according to an embodiment of the present invention includes a lidar sensor setting step of setting a laser signal emitting angle of a lidar sensor; A radar sensor setting step of setting a steering range of a radar sensor so as to be synchronized with an emission angle of the rider sensor set in the rider sensor setting step; an information measuring step of measuring information of an object in each of the rider sensor and the radar sensor ; A comparison step of comparing the distance information of the object measured by each of the rider sensor and the radar sensor; And a determination step of determining whether the distance information of the object measured by the rider sensor and the radar sensor is synthesized according to a comparison result of the comparison step.
일 실시예에 있어서, 상기 비교 단계에서 비교 결과 상기 라이더 센서에서 측정된 상기 물체의 거리 정보를 기준으로 상기 레이더 센서에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 이상인 경우, 상기 레이더 센서의 구동 파라미터를 보정하는 보정 단계를 더 포함할 수 있다.In one embodiment, when the distance information of the object measured by the radar sensor is greater than or equal to a predetermined error range on the basis of the distance information of the object measured by the rider sensor as a result of the comparison in the comparison step, And a correction step of correcting the correction value.
일 실시예에 있어서, 상기 비교 단계에서 비교 결과 상기 라이더 센서에서 측정된 상기 물체의 거리 정보를 기준으로 상기 레이더 센서에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 미만인 경우, 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 합성하는 합성 단계를 더 포함할 수 있다.In one embodiment, when the comparison result indicates that the distance information of the object measured by the radar sensor is less than a predetermined error range based on the distance information of the object measured by the rider sensor, the rider sensor and the radar And synthesizing the distance information of the object measured by each of the sensors.
일 실시예에 있어서, 차량의 주행 환경에 따라 합성 가중치를 산출하는 가중치 산출 단계를 더 포함하고, 상기 합성 단계는 상기 합성 가중치를 적용하여 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 합성할 수 있다.In one embodiment, the method further includes a weight calculating step of calculating a synthetic weight according to the driving environment of the vehicle, wherein the combining step applies the synthetic weight to calculate the distance of the object measured at each of the rider sensor and the radar sensor Information can be synthesized.
일 실시예에 있어서, 상기 합성 단계는 합성 가중치를 상기 레이더 센서에서 측정한 거리 정보에 적용할 수 있다.In one embodiment, the combining step may apply the combining weight to the distance information measured by the radar sensor.
일 실시예에 있어서, 상기 합성 단계에서 합성한 상기 물체의 거리 정보와 상기 레이더 센서에서 측정한 상기 물체의 속도 정보를 사용자에게 출력하는 출력 단계를 더 포함할 수 있다.The method may further include an output step of outputting distance information of the object synthesized in the synthesizing step and speed information of the object measured by the radar sensor to a user.
본 발명은 라이더 센서 및 레이더 센서 각각에서 측정한 물체의 정보를 주행 환경에 따라 서로 다른 가중치를 적용하여 합성하여 물체 탐지의 정확도를 향상시키는 효과가 있다.The present invention has the effect of improving the accuracy of object detection by combining the information of the object measured by the rider sensor and the radar sensor by applying different weights according to the driving environment.
또한, 본 발명은 라이더 센서에서 측정된 값을 통해 레이더 센서의 구동 파라미터를 보정함으로써, 레이더 센서의 센싱 정확도를 향상시키는 효과가 있다.Further, the present invention has an effect of improving the sensing accuracy of the radar sensor by correcting the driving parameter of the radar sensor through the value measured by the rider sensor.
도 1은 본 발명의 일 실시예에 따른 물체 탐지 장치의 블록도이다.
도 2는 본 발명의 일 실시예에 따른 물체 탐지 장치에서 레이더 센서의 조향 범위를 라이더 센서의 방사 각도에 동기화되도록 설정하는 것을 도시한 설명도이다.
도 3은 본 발명의 일 실시예에 따른 물체 탐지 장치의 물체 탐지 방법을 순차적으로 나타낸 흐름도이다.1 is a block diagram of an apparatus for detecting an object according to an embodiment of the present invention.
FIG. 2 is an explanatory view showing setting of the steering range of the radar sensor in the object detecting apparatus according to the embodiment of the present invention so as to be synchronized with the radial angle of the rider sensor.
3 is a flowchart sequentially illustrating an object detecting method of an object detecting apparatus according to an embodiment of the present invention.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to designate the same or similar components throughout the drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In addition, the preferred embodiments of the present invention will be described below, but it is needless to say that the technical idea of the present invention is not limited thereto and can be variously modified by those skilled in the art.
이하, 도 1 및 도 2를 참조하여 본 발명의 일 실시예에 따른 물체 탐지 장치에 대해 설명한다. 본 발명의 일 실시예에 따른 물체 탐지 장치(100)는 차량에 구비되어 주변 물체의 거리 정보 및 속도 정보 등을 탐지한다.Hereinafter, an object detecting apparatus according to an embodiment of the present invention will be described with reference to FIGS. 1 and 2. FIG. The
도 1을 참조하면, 본 발명의 일 실시예에 따른 물체 탐지 장치(100)는 라이더 센서(110), 레이더 센서(120), 센서 설정부(130), 제어부(140) 및 출력부(150)를 포함한다.1, an
라이더 센서(110)는 레이저 신호를 방사하여 물체의 정보를 측정한다. 레이더 센서(120)는 디지털 빔 신호를 방사하여 물체의 정보를 측정한다. 센서 설정부(130)는 레이더 센서(120)의 조향 범위를 설정한다. 제어부(140)는 라이더 센서(110) 및 레이더 센서(120) 각각에서 측정된 상기 물체의 거리 정보를 비교하여 상기 물체의 거리 정보의 합성 여부를 판단한다. 출력부(150)는 제어부(140)에서 합성한 상기 물체의 거리 정보와 레이더 센서(120)에서 측정한 상기 물체의 속도 정보를 사용자에게 출력한다.The
이하, 본 발명의 일 실시예에 따른 물체 탐지 장치(100)의 각 구성에 대해 구체적으로 설명한다. 이때, 상기 물체는 주변 차량과 같은 이동 물체, 가드레일, 벽 등과 같은 고정 물체를 모두 포함하며, 이하의 설명에서 특별한 한정이 없는 한 물체는 이동 물체 및 고정 물체를 모두 포함하는 개념임을 전제한다.Hereinafter, each configuration of the
라이더 센서(110)는 회전하면서 상기 레이저 신호를 특정 각도로 방사하여 상기 물체의 정보를 측정한다. 따라서, 라이더 센서(110)는 상기 레이저 신호를 방사한 곳에 있는 특정 물체의 정보를 측정할 수 있다. 한편, 레이더 센서(120)는 고정되어 상기 디지털 빔 신호를 소정 범위로 방사하여 상기 물체의 정보를 측정한다. 따라서, 레이더 센서(120)는 상기 디지털 빔 신호를 방사한 범위 내에 있는 복수의 물체의 정보를 측정할 수 있다. The
라이더 센서(110) 및 레이더 센서(120) 각각은 주변 물체로 신호를 방사하고, 물체에 반사되어 되돌아오는 반사 신호를 수신하여 상기 물체의 정보를 측정한다. Each of the
이때, 상기 물체의 정보는 상기 물체의 거리 정보 및 상기 물체의 속도 정보를 포함한다. 또한, 상기 물체의 거리 정보는 상기 차량과 상기 물체의 상대 거리를 의미하고, 상기 물체의 속도 정보는 상기 차량과 상기 물체의 상대 속도를 의미한다.At this time, the information of the object includes distance information of the object and speed information of the object. Further, the distance information of the object means the relative distance between the vehicle and the object, and the velocity information of the object means the relative velocity between the vehicle and the object.
라이더 센서(110) 및 레이더 센서(120) 각각은 상기 물체로 방사한 신호와 상기 물체에 반사되어 되돌아오는 반사 신호간의 지연시간 및 주파수 편차를 이용하여 상기 물체의 속도 정보를 측정한다. 또한, 라이더 센서(110) 및 레이더 센서(120) 각각은 상기 물체의 속도 정보와 상기 지연시간을 통해 상기 물체의 거리 정보를 측정한다.Each of the
일반적으로, 라이더 센서(110)가 레이더 신호를 특정 각도로 방사하여 물체의 정보를 측정하므로 물체의 거리 정보는 라이더 센서(110)의 측정값이 정확도가 높다. 반면에, 레이더 센서(120)가 디지털 빔 신호를 소정 범위로 방사하여 물체의 정보를 측정하므로 물체의 속도 정보는 레이더 센서(120)의 측정값이 정보가 정확도가 높다. 따라서, 라이더 센서(110)에서 측정된 물체의 거리 정보와 레이더 센서(120)에서 측정된 물체의 속도 정보를 융합할 필요성이 대두된다.Generally, since the
센서 설정부(130)는 라이더 센서(110)의 방사 각도를 설정한다. 센서 설정부(130)는 레이더 센서(120)의 조향 범위를 라이더 센서(110)의 방사 각도에 동기화되도록 설정한다. 이에 따라, 라이더 센서(110)와 레이더 센서(120)는 동일한 물체의 정보를 측정하게 된다. 이에 대해서는 도 2를 참조하여 상술한다.The
도 2를 참조하면, 레이더 센서(120)는 상기 디지털 빔 신호를 θ1에서 θ4까지의 범위로 방사하므로, θ1에서 θ4까지의 범위에 존재하는 물체의 정보를 측정할 수 있다. 한편, 라이더 센서(110)는 상기 레이저 신호를 θ5로 방사하므로, θ5에 존재하는 물체의 정보만 측정할 수 있다. 이때, 센서 설정부(130)가 레이더 센서(120)의 조향 범위를 θ2에서 θ3까지 범위로 설정함으로써, 라이더 센서(110)와 레이더 센서(120)는 같은 시점에 동일한 물체의 정보를 측정할 수 있게 된다.2, a
제어부(140)는 라이더 센서(110) 및 레이더 센서(120) 각각에서 측정된 상기 물체의 거리 정보를 비교한다. 이는 제어부(140)가 라이더 센서(110)에서 측정된 상기 물체의 거리 정보를 기준으로 레이더 센서(120)에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 이상인지 판단하는 것을 의미한다. 예를 들어, 수식으로 표현하면 다음과 같다.The controller 140 compares the distance information of the object measured by the
이때, D1은 라이더 센서(110)에서 측정된 상기 물체의 거리 정보, D2는 레이더 센서(120)에서 측정된 상기 물체의 거리 정보를 의미한다. TH값은 거리 오차 임계값으로 라이더 센서(110) 및 레이더 센서(120)의 성능에 따라 그 값이 달라질 수 있다.Here, D1 denotes distance information of the object measured by the
이때, 제어부(140)는 상기 차량의 주행 환경을 고려하여 상기 물체의 거리 정보를 비교한다. 상기 차량의 주행 환경은 맑음, 우천 또는 강설 상황과 같은 날씨 환경, 고속 주행(예를 들어, 100 KPH 이상) 또는 저속 주행(예를 들어, 30 KPH 미만)과 같은 차량의 속도 환경 등을 포함하는 의미이다.At this time, the controller 140 compares the distance information of the object in consideration of the traveling environment of the vehicle. The driving environment of the vehicle includes a speed environment of a vehicle such as a weather environment such as a clear, rainy or snowy situation, a high speed driving (for example, 100 KPH or more) or a low speed driving (for example, less than 30 KPH) It means.
구체적으로, 제어부(140)는 상기 차량의 주행 환경이 우천 또는 강설 상황이 아니고 상기 차량이 고속 주행을 하지 않는 상황인 경우에만 상기 물체의 거리 정보를 비교한다. 이는 우천 또는 강설 상황이거나 상기 차량이 고속 주행을 하는 상황의 경우에는 라이더 센서(110)에서 측정된 물체의 거리 정보가 오차가 클 수 있음을 고려한 것이다.Specifically, the control unit 140 compares the distance information of the object only when the driving environment of the vehicle is not a rainy or snowy situation and the vehicle is not traveling at a high speed. This takes into account that the distance information of the object measured by the
제어부(140)는 비교결과 라이더 센서(110)에서 측정된 상기 물체의 거리 정보를 기준으로 레이더 센서(120)에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 이상인 경우, 레이더 센서(120)의 구동 파라미터를 보정한다. 예를 들어, 레이더 구동시 사용되는 Band Width, Timing 값 등을 보정하는 것을 예로 들 수 있다.When the distance information of the object measured by the
제어부(140)는 비교결과 라이더 센서(110)에서 측정된 상기 물체의 거리 정보를 기준으로 레이더 센서(120)에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 미만인 경우, 라이더 센서(110) 및 레이더 센서(120) 각각에서 측정된 상기 물체의 거리 정보를 합성한다.When the distance information of the object measured by the
이때, 제어부(140)는 상기 차량의 주행 환경에 따라 합성 가중치를 산출하고, 상기 합성 가중치를 적용하여 라이더 센서(110) 및 레이더 센서(120) 각각에서 측정된 상기 물체의 거리 정보를 합성할 수 있다. 구체적으로, 제어부(140)는 상기 합성 가중치를 레이더 센서(120)에서 측정한 거리 정보에 적용하여 상기 물체의 거리 정보를 합성한다. 상기 차량의 주행 환경은 맑음, 우천 또는 강설 상황과 같은 날씨 환경, 고속 주행(예를 들어, 100 KPH 이상) 또는 저속 주행(예를 들어, 30 KPH 미만)과 같은 차량의 속도 환경 등을 포함하는 의미이다.At this time, the control unit 140 calculates composite weights according to the traveling environment of the vehicle, and synthesizes the distance information of the object measured by the
예를 들어, 제어부(140)는 우천 또는 강설 상황인 경우, 라이더 센서(110)에서 측정된 물체의 거리 정보보다 레이더 센서(120)에서 측정된 물체의 거리 정보가 3배 큰 비중으로 고려되도록 상기 합성 가중치를 산출하여 상기 물체의 거리 정보를 합성할 수 있다. 즉, 라이더 센서(110)에서 측정된 물체의 거리 정보가 100m, 레이더 센서(120)에서 측정된 물체의 거리 정보가 90m인 경우, 상기 합성 가중치를 3으로 산출하여, (100m + 3*90m) / 4 = 92.5m 로 합성 거리 정보를 산출할 수 있다.For example, when the vehicle is in a rainy or snowy situation, the control unit 140 determines that the distance information of the object measured by the
다른 예로, 제어부(140)는 상기 차량이 고속 주행 중인 경우, 라이더 센서(110)에서 측정된 물체의 거리 정보와 레이더 센서(120)에서 측정된 물체의 거리 정보가 같은 비중으로 고려되도록 상기 합성 가중치를 산출하여 상기 물체의 거리 정보를 합성할 수 있다. 즉, 라이더 센서(110)에서 측정된 물체의 거리 정보가 100m, 레이더 센서(120)에서 측정된 물체의 거리 정보가 90m인 경우, 상기 합성 가중치를 1으로 산출하여, (100m + 1*90m) / 2 = 95m 로 합성 거리 정보를 산출할 수 있다.As another example, when the vehicle is traveling at a high speed, the control unit 140 may control the weighting factors such that the distance information of the object measured by the
또 다른 예로, 제어부(140)는 우천 또는 강설 상황이 아니고, 상기 차량의 고속 주행 중도 아닌 경우에는 라이더 센서(110)에서 측정된 물체의 거리 정보만 고려되도록 상기 합성 가중치를 산출하여 상기 물체의 거리 정보를 합성할 수 있다. 즉, 라이더 센서(110)에서 측정된 물체의 거리 정보가 100m, 레이더 센서(120)에서 측정된 물체의 거리 정보가 90m인 경우, 상기 합성 가중치를 0으로 산출하여, (100m + 0*90m) / 1 = 100m 로 합성 거리 정보를 산출할 수 있다.As another example, the control unit 140 may calculate the composite weight so as to take into consideration only the distance information of the object measured by the
출력부(150)는 제어부(140)에서 합성한 상기 물체의 거리 정보와 레이더 센서(120)에서 측정한 상기 물체의 속도 정보를 사용자에게 출력한다. 출력부(150)는 차량에 구비된 영상을 표시할 수 있는 장치를 의미한다.The output unit 150 outputs the distance information of the object synthesized by the control unit 140 and the velocity information of the object measured by the
이하, 도 3을 참조하여 본 발명의 일 실시예에 따른 물체 탐지 방법에 대해 설명한다. 이때, 도 1 및 도 2를 참조하여 설명한 부분과 중복되는 부분은 생략한다.Hereinafter, an object detecting method according to an embodiment of the present invention will be described with reference to FIG. Here, the parts overlapping with those described with reference to Figs. 1 and 2 are omitted.
도 3을 참조하면, 먼저, 센서 설정부(130)는 라이더 센서(110)의 레이저 신호 방사 각도를 설정한다(S101).Referring to FIG. 3, first, the
이후, 센서 설정부(130)는 S101 단계에서 설정된 레이더 센서(120)의 방사 각도에 동기화되도록 레이더 센서(120)의 조향 범위를 설정한다(S103).Then, the
이후, 라이더 센서(110) 및 레이더 센서(120) 각각에서 물체의 정보를 측정한다(S105).Then, the information of the object is measured by the
이후, 제어부(140)는 라이더 센서(110)에서 측정된 상기 물체의 거리 정보를 기준으로 레이더 센서(120)에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 이상인지 판단한다(S107). 이때, 제어부(140)는 차량의 주행 환경을 고려하여 상기 물체의 거리 정보를 비교한다. The control unit 140 determines whether the distance information of the object measured by the
이후, 제어부(140)는 라이더 센서(110)에서 측정된 상기 물체의 거리 정보를 기준으로 레이더 센서(120)에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 이상인 경우, 레이더 센서(120)의 구동 파라미터를 보정한다(S109).When the distance information of the object measured by the
한편, 제어부(140)는 라이더 센서(110)에서 측정된 상기 물체의 거리 정보를 기준으로 레이더 센서(120)에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 미만인 경우, 상기 차량의 주행 환경에 따라 합성 가중치를 산출한다(S111).On the other hand, when the distance information of the object measured by the
이후, 제어부(140)는 S111 단계에서 산출한 상기 합성 가중치를 적용하여 라이더 센서(110) 및 레이더 센서(120) 각각에서 측정된 상기 물체의 거리 정보를 합성한다(S113).In step S113, the control unit 140 synthesizes the distance information of the object measured by the
이후, 출력부(150)는 S113 단계에서 합성한 상기 물체의 거리 정보와 레이더 센서(120)에서 측정한 상기 물체의 속도 정보를 사용자에게 출력한다(S115).Then, the output unit 150 outputs the distance information of the object synthesized in the step S113 and the velocity information of the object measured by the
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are intended to illustrate and not to limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings . The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
100 : 물체 탐지 장치 110 : 라이더 센서
120 : 레이더 센서 130 : 센서 설정부
140 : 제어부 150 : 출력부100: object detection device 110: rider sensor
120: Radar sensor 130: Sensor setting unit
140: control unit 150: output unit
Claims (14)
레이저 신호를 방사하여 물체의 제 1 거리 정보를 측정하는 라이더(Lidar) 센서;
제 2 거리 정보를 얻기 위하여 디지털 빔 신호를 방사하여 상기 물체의 속도 정보를 측정하는 레이더(Radar) 센서;
상기 라이더 센서의 방사 각도를 설정하고, 상기 레이더 센서의 조향 범위를 상기 라이더 센서의 방사 각도에 동기화되도록 설정하는 센서 설정부; 및
상기 라이더 센서 및 상기 레이더 센서 각각에서 출력된 상기 제 1 및 제 2 거리 정보를 비교하고, 비교 결과에 따라 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보의 합성 여부를 판단하는 제어부를 포함하고,
상기 제어부는 상기 차량의 주행 환경 혹은 상기 차량의 속도 환경에 따라 상기 제 1 거리 정보 및 상기 제 2 거리 정보의 합성 가중치를 다르게 함으로써, 합성 거리 정보를 계산하는 것을 특징으로 하는 물체 탐지 장치.An object detecting apparatus provided in a vehicle,
A lidar sensor for measuring a first distance information of an object by emitting a laser signal;
A radar sensor for radiating a digital beam signal to measure velocity information of the object to obtain second distance information;
A sensor setting unit for setting the radial angle of the rider sensor and setting the steering range of the radar sensor to be synchronized with the radial angle of the rider sensor; And
A controller for comparing the first and second distance information outputted from each of the rider sensor and the radar sensor and determining whether the distance information of the object measured by the rider sensor and the radar sensor is synthesized according to a result of the comparison, Lt; / RTI >
Wherein the control unit calculates synthesis distance information by making composite weights of the first distance information and the second distance information different according to the traveling environment of the vehicle or the speed environment of the vehicle.
상기 차량의 주행 환경이 우천 혹은 강설일 때, 상기 레이더 센서의 합성 가중치는 상기 라이더 센서의 합성 가중치보다 큰 것을 특징으로 하는 물체 탐지 장치.The method according to claim 1,
Wherein the synthetic weight of the radar sensor is larger than the synthetic weight of the rider sensor when the running environment of the vehicle is rainy or snowy.
상기 제어부는 비교 결과 상기 라이더 센서에서 측정된 상기 물체의 거리 정보를 기준으로 상기 레이더 센서에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 이상인 경우, 상기 레이더 센서의 구동 파라미터를 보정하는 것을 특징으로 하는 물체 탐지 장치.The method according to claim 1,
Wherein the control unit corrects the driving parameter of the radar sensor when the distance information of the object measured by the radar sensor is greater than or equal to a predetermined error range based on the distance information of the object measured by the rider sensor as a result of the comparison Object detection device.
상기 제어부는 비교 결과 상기 라이더 센서에서 측정된 상기 물체의 거리 정보를 기준으로 상기 레이더 센서에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 미만인 경우, 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 합성하는 것을 특징으로 하는 물체 탐지 장치.The method according to claim 1,
The control unit determines that the distance information of the object measured by the radar sensor is less than a predetermined error range on the basis of the distance information of the object measured by the rider sensor, And the distance information of the object.
상기 제어부는 비교 결과 상기 라이더 센서에서 측정된 상기 물체의 거리 정보를 기준으로 상기 레이더 센서에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 미만인 경우, 상기 차량의 주행 환경에 따라 합성 가중치를 산출하고, 상기 합성 가중치를 적용하여 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 합성하는 것을 특징으로 하는 물체 탐지 장치.The method according to claim 1,
Wherein the control unit calculates the synthetic weight according to the traveling environment of the vehicle when the distance information of the object measured by the radar sensor is less than a predetermined error range on the basis of the distance information of the object measured by the rider sensor, And combines the distance information of the object measured by each of the rider sensor and the radar sensor by applying the composite weight.
상기 제어부는 상기 합성 가중치를 상기 레이더 센서에서 측정한 거리 정보에 적용하는 것을 특징으로 하는 물체 탐지 장치.The method according to claim 6,
Wherein the controller applies the composite weight to distance information measured by the radar sensor.
상기 제어부에서 합성한 상기 물체의 거리 정보와 상기 레이더 센서에서 측정한 상기 물체의 속도 정보를 사용자에게 출력하는 출력부를 더 포함하는 물체 탐지 장치.8. The method according to any one of claims 5 to 7,
And an output unit for outputting distance information of the object synthesized by the control unit and speed information of the object measured by the radar sensor to a user.
상기 라이더 센서 설정 단계에서 설정된 상기 라이더 센서의 방사 각도에 동기화되도록 레이더(Radar) 센서의 조향 범위를 설정하는 레이더 센서 설정 단계:
상기 라이더 센서 및 상기 레이더 센서 각각에서 물체의 정보를 측정하는 정보 측정 단계;
상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 비교하는 비교 단계;
상기 비교 단계의 비교 결과에 따라 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보의 합성 여부를 판단하는 판단 단계; 및
상기 물체의 거리 정보를 합성할 때, 차량의 주행 환경 혹은 상기 차량의 속도 환경에 따라 상기 라이더 센서의 거리 정보 및 상기 레이더 센서의 거리 정보의 합성 가중치를 다르게 함으로써, 합성 거리 정보를 계산하는 단계를 포함하는 물체 탐지 방법.A lidar sensor setting step of setting a laser signal emission angle of a lidar sensor;
A radar sensor setting step of setting a steering range of a radar sensor so as to be synchronized with an emission angle of the rider sensor set in the rider sensor setting step;
An information measuring step of measuring information of an object in each of the rider sensor and the radar sensor;
A comparison step of comparing the distance information of the object measured by each of the rider sensor and the radar sensor;
A determination step of determining whether the distance information of the object measured by the rider sensor and the radar sensor is synthesized according to a comparison result of the comparison step; And
Calculating composite distance information by making composite weights of the distance information of the rider sensor and the distance information of the radar sensor different according to the traveling environment of the vehicle or the speed environment of the vehicle when synthesizing the distance information of the object Including methods of object detection.
상기 비교 단계에서 비교 결과 상기 라이더 센서에서 측정된 상기 물체의 거리 정보를 기준으로 상기 레이더 센서에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 이상인 경우, 상기 레이더 센서의 구동 파라미터를 보정하는 보정 단계를 더 포함하는 물체 탐지 방법.10. The method of claim 9,
A correction step of correcting the driving parameter of the radar sensor when the distance information of the object measured by the radar sensor is greater than or equal to a predetermined error range on the basis of the distance information of the object measured by the rider sensor in the comparison step Further comprising detecting the object.
상기 비교 단계에서 비교 결과 상기 라이더 센서에서 측정된 상기 물체의 거리 정보를 기준으로 상기 레이더 센서에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 미만인 경우, 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 합성하는 합성 단계를 더 포함하는 물체 탐지 방법.10. The method of claim 9,
When the distance information of the object measured by the radar sensor is less than a predetermined error range on the basis of the distance information of the object measured by the rider sensor in the comparison step, And a synthesizing step of synthesizing the distance information of the object.
상기 차량의 주행 환경에 따라 합성 가중치를 산출하는 가중치 산출 단계를 더 포함하고,
상기 합성 단계는 상기 합성 가중치를 적용하여 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 합성하는 것을 특징으로 하는 물체 탐지 방법.12. The method of claim 11,
Further comprising: a weight calculation step of calculating a synthetic weight according to the driving environment of the vehicle,
Wherein the synthesizing step combines the distance information of the object measured by each of the rider sensor and the radar sensor by applying the composite weight.
상기 합성 단계는 합성 가중치를 상기 레이더 센서에서 측정한 거리 정보에 적용하는 것을 특징으로 하는 물체 탐지 방법.13. The method of claim 12,
Wherein the combining step applies the combining weight to the distance information measured by the radar sensor.
상기 합성 단계에서 합성한 상기 물체의 거리 정보와 상기 레이더 센서에서 측정한 상기 물체의 속도 정보를 사용자에게 출력하는 출력 단계를 더 포함하는 물체 탐지 방법.14. The method according to any one of claims 11 to 13,
And an output step of outputting distance information of the object synthesized in the synthesis step and speed information of the object measured by the radar sensor to a user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160081385A KR101887436B1 (en) | 2016-06-29 | 2016-06-29 | Apparatus and method for detecting object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160081385A KR101887436B1 (en) | 2016-06-29 | 2016-06-29 | Apparatus and method for detecting object |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180002205A KR20180002205A (en) | 2018-01-08 |
KR101887436B1 true KR101887436B1 (en) | 2018-09-06 |
Family
ID=61003425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160081385A KR101887436B1 (en) | 2016-06-29 | 2016-06-29 | Apparatus and method for detecting object |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101887436B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11790555B2 (en) | 2020-01-17 | 2023-10-17 | Electronics And Telecommunications Research Institute | System and method for fusion recognition using active stick filter |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102016592B1 (en) * | 2018-02-28 | 2019-09-02 | (주)지오스캔 | Method and apparatus for geologic structure analysis |
WO2020092953A1 (en) * | 2018-11-02 | 2020-05-07 | Waymo Llc | Synchronization of multiple rotating sensors of a vehicle |
KR102367277B1 (en) * | 2020-04-28 | 2022-02-24 | 김수찬 | System for detection, tracking and identification |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000219110A (en) * | 1999-01-29 | 2000-08-08 | Daimlerchrysler Ag | Braking method and device for vehicle |
JP2003510578A (en) * | 1999-09-21 | 2003-03-18 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | State identification method and apparatus in an automatic longitudinal and / or lateral control system of a vehicle |
JP2015205691A (en) * | 2008-10-24 | 2015-11-19 | サムスン エレクトロニクス カンパニー リミテッド | Control and system for autonomously driven vehicle |
US20160018524A1 (en) * | 2012-03-15 | 2016-01-21 | GM Global Technology Operations LLC | SYSTEM AND METHOD FOR FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102027771B1 (en) * | 2013-01-31 | 2019-10-04 | 한국전자통신연구원 | Obstacle detecting apparatus and method for adaptation to vehicle velocity |
KR20160066854A (en) * | 2014-12-03 | 2016-06-13 | 한국건설기술연구원 | Apparatus and method for meteorological observation of autonomous vehicle |
-
2016
- 2016-06-29 KR KR1020160081385A patent/KR101887436B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000219110A (en) * | 1999-01-29 | 2000-08-08 | Daimlerchrysler Ag | Braking method and device for vehicle |
JP2003510578A (en) * | 1999-09-21 | 2003-03-18 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | State identification method and apparatus in an automatic longitudinal and / or lateral control system of a vehicle |
JP2015205691A (en) * | 2008-10-24 | 2015-11-19 | サムスン エレクトロニクス カンパニー リミテッド | Control and system for autonomously driven vehicle |
US20160018524A1 (en) * | 2012-03-15 | 2016-01-21 | GM Global Technology Operations LLC | SYSTEM AND METHOD FOR FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11790555B2 (en) | 2020-01-17 | 2023-10-17 | Electronics And Telecommunications Research Institute | System and method for fusion recognition using active stick filter |
Also Published As
Publication number | Publication date |
---|---|
KR20180002205A (en) | 2018-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101887436B1 (en) | Apparatus and method for detecting object | |
US9390624B2 (en) | Vehicle-installation intersection judgment apparatus and program | |
US10012722B2 (en) | Monitoring apparatus and non-transitory computer-readable medium | |
US20140297170A1 (en) | Driving support system | |
US20160377701A1 (en) | System and method for detecting mounting angle of blind spot detection sensor | |
JP6645254B2 (en) | Object recognition device | |
JP2008082974A (en) | Object detector, object detecting method, and program executed by computer | |
KR20130113102A (en) | Calibration method and device for horizontal alignment of vehicle radar | |
JPWO2006016445A1 (en) | Radar | |
KR101558660B1 (en) | Apparatus for correcting beam angle of multi-layer lidar | |
US11713039B2 (en) | Driving support system and method | |
JP6140755B2 (en) | Distance determination apparatus and method | |
KR20150106200A (en) | System for Correcting Misalignment of Radar Installment Angle and Method thereof | |
US7557907B2 (en) | Object-detection device for vehicle | |
US6683533B1 (en) | Inter-vehicle distance measuring system and apparatus measuring time difference between each detection time of same road surface condition | |
KR102356480B1 (en) | Apparatus and method for detecting vehicle's lind spot | |
JP6396647B2 (en) | Obstacle detection device and obstacle detection method | |
JP5436652B1 (en) | Vehicle periphery monitoring device and vehicle periphery monitoring method | |
US10114108B2 (en) | Positioning apparatus | |
US10829097B2 (en) | Speed control device | |
KR101704635B1 (en) | Method and apparatus for detecting target using radar and image raster data | |
JP7152884B2 (en) | Vehicle object detection device | |
JP2008026030A (en) | Vehicle obstacle detector and vehicle control system | |
KR102402088B1 (en) | Device for detecting a moving object using a plurality of radar and method thereof | |
JP2009018680A (en) | Relative relationship measuring system and on-vehicle relative relationship measuring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |