KR101887436B1 - Apparatus and method for detecting object - Google Patents

Apparatus and method for detecting object Download PDF

Info

Publication number
KR101887436B1
KR101887436B1 KR1020160081385A KR20160081385A KR101887436B1 KR 101887436 B1 KR101887436 B1 KR 101887436B1 KR 1020160081385 A KR1020160081385 A KR 1020160081385A KR 20160081385 A KR20160081385 A KR 20160081385A KR 101887436 B1 KR101887436 B1 KR 101887436B1
Authority
KR
South Korea
Prior art keywords
distance information
sensor
radar sensor
rider
measured
Prior art date
Application number
KR1020160081385A
Other languages
Korean (ko)
Other versions
KR20180002205A (en
Inventor
이호원
박영순
이용환
장범순
조항복
Original Assignee
현대오트론 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대오트론 주식회사 filed Critical 현대오트론 주식회사
Priority to KR1020160081385A priority Critical patent/KR101887436B1/en
Publication of KR20180002205A publication Critical patent/KR20180002205A/en
Application granted granted Critical
Publication of KR101887436B1 publication Critical patent/KR101887436B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/581Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of interrupted pulse modulated waves and based upon the Doppler effect resulting from movement of targets
    • G01S13/582Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of interrupted pulse modulated waves and based upon the Doppler effect resulting from movement of targets adapted for simultaneous range and velocity measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S17/936
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4021Means for monitoring or calibrating of parts of a radar system of receivers

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 물체 탐지 장치에 관한 것으로, 본 발명의 일 실시예에 따른 물체 탐지 장치는 차량에 구비된 물체 탐지 장치에 있어서, 레이저 신호를 방사하여 물체의 정보를 측정하는 라이더(Lidar) 센서; 디지털 빔 신호를 방사하여 상기 물체의 정보를 측정하는 레이더(Radar) 센서; 및 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 비교하고, 비교 결과에 따라 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보의 합성 여부를 판단하는 제어부를 포함한다.The present invention relates to an object detecting apparatus, and an object detecting apparatus according to an embodiment of the present invention includes a lidar sensor for measuring information of an object by emitting a laser signal; A radar sensor for radiating a digital beam signal to measure information of the object; And a controller for comparing the distance information of the object measured by each of the rider sensor and the radar sensor and determining whether the distance information of the object measured by the rider sensor and the radar sensor is synthesized do.

Description

물체 탐지 장치 및 방법{APPARATUS AND METHOD FOR DETECTING OBJECT}[0001] APPARATUS AND METHOD FOR DETECTING OBJECT [0002]

본 발명은 물체 탐지 장치 및 방법에 관한 것으로, 구체적으로 차량에 구비된 라이더 센서와 레이더 센서 각각에서 측정된 물체의 정보를 융합하는 기술에 관한 것이다.TECHNICAL FIELD The present invention relates to an apparatus and method for detecting an object, and more particularly, to a technique for fusing information of an object measured by a rider sensor and a radar sensor provided in a vehicle.

대부분의 운전자는 자신의 시야에 의존하여 자동차의 진행 방향을 예측하면서 운전한다. 그러나, 이러한 경우 운전자가 운전 경험이 풍부하지 못하거나 혹은 운전자가 일시적으로 차량의 진행 방향을 잘못 판단함으로써 사고가 발생할 위험이 있다.Most drivers rely on their field of view to drive and predict the direction of the car. However, in such a case, there is a risk that the driver may not experience a lot of driving experience, or an accident may occur due to the driver erroneously determining the traveling direction of the vehicle.

이에 따라, 최근에는 차량에 레이더(Radar) 또는 라이더(Lidar)와 같은 장치를 장착하고, 이를 이용하여 주변 물체에 대한 거리 및 속도를 측정하여 안전 사고를 미연에 방지하기 위한 기술들이 대두되고 있다.Accordingly, in recent years, techniques have been developed for mounting a device such as a radar or a lidar on a vehicle and measuring the distance and speed to nearby objects using the device to prevent a safety accident.

레이더는 디지털 빔 신호를 소정 범위로 방사하여 물체의 정보를 측정하고, 라이더는 레이저 신호를 특정 각도로 방사하여 물체의 정보를 측정한다. 이와 같은 특성상 물체의 속도 정보는 레이더가 라이더에 비해 정확도가 높고, 물체의 거리 정보는 라이더가 레이더에 비해 정확도가 높다. 따라서, 정확한 물체의 거리 및 속도를 측정하여 물체를 탐지하기 위해서는 레이더 정보와 라이더 정보를 융합할 필요성이 있다.The radar emits a digital beam signal to a predetermined range to measure information of the object, and the rider radiates the laser signal at a certain angle to measure information of the object. Because of this characteristic, the velocity information of the object is higher than that of the radar, and the distance information of the object is more accurate than the radar. Therefore, it is necessary to fuse radar information with rider information in order to detect an object by measuring the distance and speed of an accurate object.

대한민국 공개특허공보 제10-1997-0039558호Korean Patent Publication No. 10-1997-0039558

본 발명은 라이더 센서 및 레이더 센서 각각에서 측정한 물체의 정보를 주행 환경에 따라 서로 다른 가중치를 적용하여 합성하여 물체 탐지의 정확도를 향상시키는 데 목적이 있다.An object of the present invention is to improve the accuracy of object detection by combining the information of the object measured by the rider sensor and the radar sensor by applying different weights according to the driving environment.

본 발명의 일 실시예에 따른 물체 탐지 장치는 차량에 구비된 물체 탐지 장치에 있어서, 레이저 신호를 방사하여 물체의 정보를 측정하는 라이더(Lidar) 센서; 디지털 빔 신호를 방사하여 상기 물체의 정보를 측정하는 레이더(Radar) 센서; 및 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 비교하고, 비교 결과에 따라 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보의 합성 여부를 판단하는 제어부를 포함한다.According to an embodiment of the present invention, there is provided an apparatus for detecting an object provided on a vehicle, the apparatus comprising: a lidar sensor for irradiating a laser signal to measure information of an object; A radar sensor for radiating a digital beam signal to measure information of the object; And a controller for comparing the distance information of the object measured by each of the rider sensor and the radar sensor and determining whether the distance information of the object measured by the rider sensor and the radar sensor is synthesized do.

이때, 상기 물체의 정보는 상기 물체의 거리 정보 및 상기 물체의 속도 정보를 포함한다.At this time, the information of the object includes distance information of the object and speed information of the object.

일 실시예에 있어서, 상기 라이더 센서의 방사 각도를 설정하고, 상기 레이더 센서의 조향 범위를 상기 라이더 센서의 방사 각도에 동기화되도록 설정하는 센서 설정부를 더 포함하는 할 수 있다.In one embodiment, the apparatus may further include a sensor setting unit that sets the radial angle of the rider sensor and sets the steering range of the radar sensor to be synchronized with the radial angle of the rider sensor.

일 실시예에 있어서, 상기 제어부는 비교 결과 상기 라이더 센서에서 측정된 상기 물체의 거리 정보를 기준으로 상기 레이더 센서에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 이상인 경우, 상기 레이더 센서의 구동 파라미터를 보정할 수 있다.In one embodiment, when the distance information of the object measured by the radar sensor is greater than or equal to a predetermined error range on the basis of the distance information of the object measured by the rider sensor as a result of the comparison, Can be corrected.

일 실시예에 있어서, 상기 제어부는 비교 결과 상기 라이더 센서에서 측정된 상기 물체의 거리 정보를 기준으로 상기 레이더 센서에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 미만인 경우, 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 합성할 수 있다.In one embodiment, when the distance information of the object measured by the radar sensor is less than a predetermined error range on the basis of the distance information of the object measured by the rider sensor as a result of the comparison, It is possible to combine the distance information of the object measured in each of them.

일 실시예에 있어서, 상기 제어부는 비교 결과 상기 라이더 센서에서 측정된 상기 물체의 거리 정보를 기준으로 상기 레이더 센서에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 미만인 경우, 상기 차량의 주행 환경에 따라 합성 가중치를 산출하고, 상기 합성 가중치를 적용하여 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 합성할 수 있다.In one embodiment, when the distance information of the object measured by the radar sensor is less than a predetermined error range on the basis of the distance information of the object measured by the rider sensor as a result of the comparison, The composite weight is calculated, and the composite weight is applied to synthesize the distance information of the object measured by each of the rider sensor and the radar sensor.

일 실시예에 있어서, 상기 제어부는 상기 합성 가중치를 상기 레이더 센서에서 측정한 거리 정보에 적용할 수 있다.In one embodiment, the controller may apply the composite weight to distance information measured by the radar sensor.

일 실시예에 있어서, 상기 제어부에서 합성한 상기 물체의 거리 정보와 상기 레이더 센서에서 측정한 상기 물체의 속도 정보를 사용자에게 출력하는 출력부를 더 포함할 수 있다.In one embodiment, the control unit may further include an output unit for outputting distance information of the object synthesized by the control unit and speed information of the object measured by the radar sensor to a user.

본 발명의 일 실시예에 따른 물체 탐지 방법은 라이더(Lidar) 센서의 레이저 신호 방사 각도를 설정하는 라이더 센서 설정 단계; 상기 라이더 센서 설정 단계에서 설정된 상기 라이더 센서의 방사 각도에 동기화되도록 레이더(Radar) 센서의 조향 범위를 설정하는 레이더 센서 설정 단계: 상기 라이더 센서 및 상기 레이더 센서 각각에서 물체의 정보를 측정하는 정보 측정 단계; 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 비교하는 비교 단계; 및 상기 비교 단계의 비교 결과에 따라 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보의 합성 여부를 판단하는 판단 단계를 포함한다.An object detecting method according to an embodiment of the present invention includes a lidar sensor setting step of setting a laser signal emitting angle of a lidar sensor; A radar sensor setting step of setting a steering range of a radar sensor so as to be synchronized with an emission angle of the rider sensor set in the rider sensor setting step; an information measuring step of measuring information of an object in each of the rider sensor and the radar sensor ; A comparison step of comparing the distance information of the object measured by each of the rider sensor and the radar sensor; And a determination step of determining whether the distance information of the object measured by the rider sensor and the radar sensor is synthesized according to a comparison result of the comparison step.

일 실시예에 있어서, 상기 비교 단계에서 비교 결과 상기 라이더 센서에서 측정된 상기 물체의 거리 정보를 기준으로 상기 레이더 센서에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 이상인 경우, 상기 레이더 센서의 구동 파라미터를 보정하는 보정 단계를 더 포함할 수 있다.In one embodiment, when the distance information of the object measured by the radar sensor is greater than or equal to a predetermined error range on the basis of the distance information of the object measured by the rider sensor as a result of the comparison in the comparison step, And a correction step of correcting the correction value.

일 실시예에 있어서, 상기 비교 단계에서 비교 결과 상기 라이더 센서에서 측정된 상기 물체의 거리 정보를 기준으로 상기 레이더 센서에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 미만인 경우, 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 합성하는 합성 단계를 더 포함할 수 있다.In one embodiment, when the comparison result indicates that the distance information of the object measured by the radar sensor is less than a predetermined error range based on the distance information of the object measured by the rider sensor, the rider sensor and the radar And synthesizing the distance information of the object measured by each of the sensors.

일 실시예에 있어서, 차량의 주행 환경에 따라 합성 가중치를 산출하는 가중치 산출 단계를 더 포함하고, 상기 합성 단계는 상기 합성 가중치를 적용하여 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 합성할 수 있다.In one embodiment, the method further includes a weight calculating step of calculating a synthetic weight according to the driving environment of the vehicle, wherein the combining step applies the synthetic weight to calculate the distance of the object measured at each of the rider sensor and the radar sensor Information can be synthesized.

일 실시예에 있어서, 상기 합성 단계는 합성 가중치를 상기 레이더 센서에서 측정한 거리 정보에 적용할 수 있다.In one embodiment, the combining step may apply the combining weight to the distance information measured by the radar sensor.

일 실시예에 있어서, 상기 합성 단계에서 합성한 상기 물체의 거리 정보와 상기 레이더 센서에서 측정한 상기 물체의 속도 정보를 사용자에게 출력하는 출력 단계를 더 포함할 수 있다.The method may further include an output step of outputting distance information of the object synthesized in the synthesizing step and speed information of the object measured by the radar sensor to a user.

본 발명은 라이더 센서 및 레이더 센서 각각에서 측정한 물체의 정보를 주행 환경에 따라 서로 다른 가중치를 적용하여 합성하여 물체 탐지의 정확도를 향상시키는 효과가 있다.The present invention has the effect of improving the accuracy of object detection by combining the information of the object measured by the rider sensor and the radar sensor by applying different weights according to the driving environment.

또한, 본 발명은 라이더 센서에서 측정된 값을 통해 레이더 센서의 구동 파라미터를 보정함으로써, 레이더 센서의 센싱 정확도를 향상시키는 효과가 있다.Further, the present invention has an effect of improving the sensing accuracy of the radar sensor by correcting the driving parameter of the radar sensor through the value measured by the rider sensor.

도 1은 본 발명의 일 실시예에 따른 물체 탐지 장치의 블록도이다.
도 2는 본 발명의 일 실시예에 따른 물체 탐지 장치에서 레이더 센서의 조향 범위를 라이더 센서의 방사 각도에 동기화되도록 설정하는 것을 도시한 설명도이다.
도 3은 본 발명의 일 실시예에 따른 물체 탐지 장치의 물체 탐지 방법을 순차적으로 나타낸 흐름도이다.
1 is a block diagram of an apparatus for detecting an object according to an embodiment of the present invention.
FIG. 2 is an explanatory view showing setting of the steering range of the radar sensor in the object detecting apparatus according to the embodiment of the present invention so as to be synchronized with the radial angle of the rider sensor.
3 is a flowchart sequentially illustrating an object detecting method of an object detecting apparatus according to an embodiment of the present invention.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to designate the same or similar components throughout the drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In addition, the preferred embodiments of the present invention will be described below, but it is needless to say that the technical idea of the present invention is not limited thereto and can be variously modified by those skilled in the art.

이하, 도 1 및 도 2를 참조하여 본 발명의 일 실시예에 따른 물체 탐지 장치에 대해 설명한다. 본 발명의 일 실시예에 따른 물체 탐지 장치(100)는 차량에 구비되어 주변 물체의 거리 정보 및 속도 정보 등을 탐지한다.Hereinafter, an object detecting apparatus according to an embodiment of the present invention will be described with reference to FIGS. 1 and 2. FIG. The object detecting apparatus 100 according to an embodiment of the present invention is provided in a vehicle and detects distance information and speed information of surrounding objects.

도 1을 참조하면, 본 발명의 일 실시예에 따른 물체 탐지 장치(100)는 라이더 센서(110), 레이더 센서(120), 센서 설정부(130), 제어부(140) 및 출력부(150)를 포함한다.1, an object detecting apparatus 100 according to an exemplary embodiment of the present invention includes a rider sensor 110, a radar sensor 120, a sensor setting unit 130, a control unit 140, and an output unit 150, .

라이더 센서(110)는 레이저 신호를 방사하여 물체의 정보를 측정한다. 레이더 센서(120)는 디지털 빔 신호를 방사하여 물체의 정보를 측정한다. 센서 설정부(130)는 레이더 센서(120)의 조향 범위를 설정한다. 제어부(140)는 라이더 센서(110) 및 레이더 센서(120) 각각에서 측정된 상기 물체의 거리 정보를 비교하여 상기 물체의 거리 정보의 합성 여부를 판단한다. 출력부(150)는 제어부(140)에서 합성한 상기 물체의 거리 정보와 레이더 센서(120)에서 측정한 상기 물체의 속도 정보를 사용자에게 출력한다.The rider sensor 110 emits a laser signal to measure information of an object. The radar sensor 120 emits a digital beam signal to measure information of an object. The sensor setting unit 130 sets the steering range of the radar sensor 120. The control unit 140 compares the distance information of the object measured by the rider sensor 110 and the radar sensor 120 to determine whether the distance information of the object is synthesized. The output unit 150 outputs the distance information of the object synthesized by the control unit 140 and the velocity information of the object measured by the radar sensor 120 to the user.

이하, 본 발명의 일 실시예에 따른 물체 탐지 장치(100)의 각 구성에 대해 구체적으로 설명한다. 이때, 상기 물체는 주변 차량과 같은 이동 물체, 가드레일, 벽 등과 같은 고정 물체를 모두 포함하며, 이하의 설명에서 특별한 한정이 없는 한 물체는 이동 물체 및 고정 물체를 모두 포함하는 개념임을 전제한다.Hereinafter, each configuration of the object detecting apparatus 100 according to an embodiment of the present invention will be described in detail. At this time, the object includes all of fixed objects such as a moving object such as a nearby vehicle, a guardrail, a wall, and the like, and unless otherwise specified in the following description, the object is assumed to include both moving objects and fixed objects.

라이더 센서(110)는 회전하면서 상기 레이저 신호를 특정 각도로 방사하여 상기 물체의 정보를 측정한다. 따라서, 라이더 센서(110)는 상기 레이저 신호를 방사한 곳에 있는 특정 물체의 정보를 측정할 수 있다. 한편, 레이더 센서(120)는 고정되어 상기 디지털 빔 신호를 소정 범위로 방사하여 상기 물체의 정보를 측정한다. 따라서, 레이더 센서(120)는 상기 디지털 빔 신호를 방사한 범위 내에 있는 복수의 물체의 정보를 측정할 수 있다. The rider sensor 110 radiates the laser signal at a specific angle while rotating to measure information of the object. Accordingly, the rider sensor 110 can measure information of a specific object at which the laser signal is emitted. Meanwhile, the radar sensor 120 is fixed, and radiates the digital beam signal to a predetermined range to measure information of the object. Accordingly, the radar sensor 120 can measure information of a plurality of objects within a range of emitting the digital beam signal.

라이더 센서(110) 및 레이더 센서(120) 각각은 주변 물체로 신호를 방사하고, 물체에 반사되어 되돌아오는 반사 신호를 수신하여 상기 물체의 정보를 측정한다. Each of the rider sensor 110 and the radar sensor 120 emits a signal to the surrounding object, receives the reflected signal reflected by the object, and measures the information of the object.

이때, 상기 물체의 정보는 상기 물체의 거리 정보 및 상기 물체의 속도 정보를 포함한다. 또한, 상기 물체의 거리 정보는 상기 차량과 상기 물체의 상대 거리를 의미하고, 상기 물체의 속도 정보는 상기 차량과 상기 물체의 상대 속도를 의미한다.At this time, the information of the object includes distance information of the object and speed information of the object. Further, the distance information of the object means the relative distance between the vehicle and the object, and the velocity information of the object means the relative velocity between the vehicle and the object.

라이더 센서(110) 및 레이더 센서(120) 각각은 상기 물체로 방사한 신호와 상기 물체에 반사되어 되돌아오는 반사 신호간의 지연시간 및 주파수 편차를 이용하여 상기 물체의 속도 정보를 측정한다. 또한, 라이더 센서(110) 및 레이더 센서(120) 각각은 상기 물체의 속도 정보와 상기 지연시간을 통해 상기 물체의 거리 정보를 측정한다.Each of the rider sensor 110 and the radar sensor 120 measures the velocity information of the object using a delay time and a frequency deviation between a signal radiated to the object and a reflected signal reflected back to the object. Each of the rider sensor 110 and the radar sensor 120 measures the distance information of the object through the speed information of the object and the delay time.

일반적으로, 라이더 센서(110)가 레이더 신호를 특정 각도로 방사하여 물체의 정보를 측정하므로 물체의 거리 정보는 라이더 센서(110)의 측정값이 정확도가 높다. 반면에, 레이더 센서(120)가 디지털 빔 신호를 소정 범위로 방사하여 물체의 정보를 측정하므로 물체의 속도 정보는 레이더 센서(120)의 측정값이 정보가 정확도가 높다. 따라서, 라이더 센서(110)에서 측정된 물체의 거리 정보와 레이더 센서(120)에서 측정된 물체의 속도 정보를 융합할 필요성이 대두된다.Generally, since the rider sensor 110 emits a radar signal at a specific angle to measure information of the object, the measured value of the rider sensor 110 is high in accuracy of the distance information of the object. On the other hand, since the radar sensor 120 radiates the digital beam signal to a predetermined range to measure the information of the object, the information about the velocity information of the object is high in the measured value of the radar sensor 120. Therefore, there is a need to fuse the distance information of the object measured by the rider sensor 110 with the velocity information of the object measured by the radar sensor 120. [

센서 설정부(130)는 라이더 센서(110)의 방사 각도를 설정한다. 센서 설정부(130)는 레이더 센서(120)의 조향 범위를 라이더 센서(110)의 방사 각도에 동기화되도록 설정한다. 이에 따라, 라이더 센서(110)와 레이더 센서(120)는 동일한 물체의 정보를 측정하게 된다. 이에 대해서는 도 2를 참조하여 상술한다.The sensor setting unit 130 sets the radiation angle of the rider sensor 110. The sensor setting unit 130 sets the steering range of the radar sensor 120 to be synchronized with the radial angle of the rider sensor 110. Accordingly, the rider sensor 110 and the radar sensor 120 measure information of the same object. This will be described in detail with reference to FIG.

도 2를 참조하면, 레이더 센서(120)는 상기 디지털 빔 신호를 θ1에서 θ4까지의 범위로 방사하므로, θ1에서 θ4까지의 범위에 존재하는 물체의 정보를 측정할 수 있다. 한편, 라이더 센서(110)는 상기 레이저 신호를 θ5로 방사하므로, θ5에 존재하는 물체의 정보만 측정할 수 있다. 이때, 센서 설정부(130)가 레이더 센서(120)의 조향 범위를 θ2에서 θ3까지 범위로 설정함으로써, 라이더 센서(110)와 레이더 센서(120)는 같은 시점에 동일한 물체의 정보를 측정할 수 있게 된다.2, a radar sensor 120, so the radiation in the range of the digital beam signals from θ 1 to θ 4, it is possible to measure information of the object present in the range of from 4 to θ 1 θ. On the other hand, since the rider sensor 110 radiates the laser signal at? 5 , it can measure only the information of the object existing at? 5 . At this time, the sensor setting unit 130 sets the steering range of the radar sensor 120 in the range from? 2 to? 3 , so that the rider sensor 110 and the radar sensor 120 measure the information of the same object at the same time .

제어부(140)는 라이더 센서(110) 및 레이더 센서(120) 각각에서 측정된 상기 물체의 거리 정보를 비교한다. 이는 제어부(140)가 라이더 센서(110)에서 측정된 상기 물체의 거리 정보를 기준으로 레이더 센서(120)에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 이상인지 판단하는 것을 의미한다. 예를 들어, 수식으로 표현하면 다음과 같다.The controller 140 compares the distance information of the object measured by the rider sensor 110 and the radar sensor 120, respectively. This means that the controller 140 determines whether the distance information of the object measured by the radar sensor 120 is equal to or greater than a predetermined error range on the basis of the distance information of the object measured by the rider sensor 110. [ For example, the expression is as follows.

Figure 112016062808386-pat00001
Figure 112016062808386-pat00001

이때, D1은 라이더 센서(110)에서 측정된 상기 물체의 거리 정보, D2는 레이더 센서(120)에서 측정된 상기 물체의 거리 정보를 의미한다. TH값은 거리 오차 임계값으로 라이더 센서(110) 및 레이더 센서(120)의 성능에 따라 그 값이 달라질 수 있다.Here, D1 denotes distance information of the object measured by the rider sensor 110, and D2 denotes distance information of the object measured by the radar sensor 120. [ The TH value is a distance error threshold value, which may vary depending on the performance of the rider sensor 110 and the radar sensor 120.

이때, 제어부(140)는 상기 차량의 주행 환경을 고려하여 상기 물체의 거리 정보를 비교한다. 상기 차량의 주행 환경은 맑음, 우천 또는 강설 상황과 같은 날씨 환경, 고속 주행(예를 들어, 100 KPH 이상) 또는 저속 주행(예를 들어, 30 KPH 미만)과 같은 차량의 속도 환경 등을 포함하는 의미이다.At this time, the controller 140 compares the distance information of the object in consideration of the traveling environment of the vehicle. The driving environment of the vehicle includes a speed environment of a vehicle such as a weather environment such as a clear, rainy or snowy situation, a high speed driving (for example, 100 KPH or more) or a low speed driving (for example, less than 30 KPH) It means.

구체적으로, 제어부(140)는 상기 차량의 주행 환경이 우천 또는 강설 상황이 아니고 상기 차량이 고속 주행을 하지 않는 상황인 경우에만 상기 물체의 거리 정보를 비교한다. 이는 우천 또는 강설 상황이거나 상기 차량이 고속 주행을 하는 상황의 경우에는 라이더 센서(110)에서 측정된 물체의 거리 정보가 오차가 클 수 있음을 고려한 것이다.Specifically, the control unit 140 compares the distance information of the object only when the driving environment of the vehicle is not a rainy or snowy situation and the vehicle is not traveling at a high speed. This takes into account that the distance information of the object measured by the rider sensor 110 may have a large error in a rainy or snowy situation or in a situation where the vehicle is traveling at a high speed.

제어부(140)는 비교결과 라이더 센서(110)에서 측정된 상기 물체의 거리 정보를 기준으로 레이더 센서(120)에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 이상인 경우, 레이더 센서(120)의 구동 파라미터를 보정한다. 예를 들어, 레이더 구동시 사용되는 Band Width, Timing 값 등을 보정하는 것을 예로 들 수 있다.When the distance information of the object measured by the radar sensor 120 is greater than or equal to a predetermined error range on the basis of the distance information of the object measured by the rider sensor 110, Correct the parameter. For example, it is possible to compensate for the Band Width, Timing value, etc. used in radar driving.

제어부(140)는 비교결과 라이더 센서(110)에서 측정된 상기 물체의 거리 정보를 기준으로 레이더 센서(120)에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 미만인 경우, 라이더 센서(110) 및 레이더 센서(120) 각각에서 측정된 상기 물체의 거리 정보를 합성한다.When the distance information of the object measured by the radar sensor 120 is less than a predetermined error range on the basis of the distance information of the object measured by the rider sensor 110 as a result of the comparison, the control unit 140 controls the rider sensor 110 and the radar And synthesizes the distance information of the object measured by each of the sensors 120.

이때, 제어부(140)는 상기 차량의 주행 환경에 따라 합성 가중치를 산출하고, 상기 합성 가중치를 적용하여 라이더 센서(110) 및 레이더 센서(120) 각각에서 측정된 상기 물체의 거리 정보를 합성할 수 있다. 구체적으로, 제어부(140)는 상기 합성 가중치를 레이더 센서(120)에서 측정한 거리 정보에 적용하여 상기 물체의 거리 정보를 합성한다. 상기 차량의 주행 환경은 맑음, 우천 또는 강설 상황과 같은 날씨 환경, 고속 주행(예를 들어, 100 KPH 이상) 또는 저속 주행(예를 들어, 30 KPH 미만)과 같은 차량의 속도 환경 등을 포함하는 의미이다.At this time, the control unit 140 calculates composite weights according to the traveling environment of the vehicle, and synthesizes the distance information of the object measured by the rider sensor 110 and the radar sensor 120 by applying the composite weight have. Specifically, the control unit 140 applies the composite weight to the distance information measured by the radar sensor 120 to synthesize the distance information of the object. The driving environment of the vehicle includes a speed environment of a vehicle such as a weather environment such as a clear, rainy or snowy situation, a high speed driving (for example, 100 KPH or more) or a low speed driving (for example, less than 30 KPH) It means.

예를 들어, 제어부(140)는 우천 또는 강설 상황인 경우, 라이더 센서(110)에서 측정된 물체의 거리 정보보다 레이더 센서(120)에서 측정된 물체의 거리 정보가 3배 큰 비중으로 고려되도록 상기 합성 가중치를 산출하여 상기 물체의 거리 정보를 합성할 수 있다. 즉, 라이더 센서(110)에서 측정된 물체의 거리 정보가 100m, 레이더 센서(120)에서 측정된 물체의 거리 정보가 90m인 경우, 상기 합성 가중치를 3으로 산출하여, (100m + 3*90m) / 4 = 92.5m 로 합성 거리 정보를 산출할 수 있다.For example, when the vehicle is in a rainy or snowy situation, the control unit 140 determines that the distance information of the object measured by the radar sensor 120 is three times greater than the distance information of the object measured by the rider sensor 110 It is possible to synthesize the distance information of the object by calculating the synthetic weight. That is, when the distance information of the object measured by the rider sensor 110 is 100 m and the distance information of the object measured by the radar sensor 120 is 90 m, the composite weight is calculated as 3, and (100 m + 3 * 90 m) / 4 = 92.5m, the synthesis distance information can be calculated.

다른 예로, 제어부(140)는 상기 차량이 고속 주행 중인 경우, 라이더 센서(110)에서 측정된 물체의 거리 정보와 레이더 센서(120)에서 측정된 물체의 거리 정보가 같은 비중으로 고려되도록 상기 합성 가중치를 산출하여 상기 물체의 거리 정보를 합성할 수 있다. 즉, 라이더 센서(110)에서 측정된 물체의 거리 정보가 100m, 레이더 센서(120)에서 측정된 물체의 거리 정보가 90m인 경우, 상기 합성 가중치를 1으로 산출하여, (100m + 1*90m) / 2 = 95m 로 합성 거리 정보를 산출할 수 있다.As another example, when the vehicle is traveling at a high speed, the control unit 140 may control the weighting factors such that the distance information of the object measured by the rider sensor 110 and the distance information of the object measured by the radar sensor 120 are considered as the same weight, And the distance information of the object can be synthesized. That is, when the distance information of the object measured by the rider sensor 110 is 100 m and the distance information of the object measured by the radar sensor 120 is 90 m, the composite weight is calculated as 1, and (100 m + 1 * 90 m) / 2 = 95 m, it is possible to calculate the synthesis distance information.

또 다른 예로, 제어부(140)는 우천 또는 강설 상황이 아니고, 상기 차량의 고속 주행 중도 아닌 경우에는 라이더 센서(110)에서 측정된 물체의 거리 정보만 고려되도록 상기 합성 가중치를 산출하여 상기 물체의 거리 정보를 합성할 수 있다. 즉, 라이더 센서(110)에서 측정된 물체의 거리 정보가 100m, 레이더 센서(120)에서 측정된 물체의 거리 정보가 90m인 경우, 상기 합성 가중치를 0으로 산출하여, (100m + 0*90m) / 1 = 100m 로 합성 거리 정보를 산출할 수 있다.As another example, the control unit 140 may calculate the composite weight so as to take into consideration only the distance information of the object measured by the rider sensor 110 when the vehicle is not in the rainy or snowy situation, Information can be synthesized. That is, when the distance information of the object measured by the rider sensor 110 is 100 m and the distance information of the object measured by the radar sensor 120 is 90 m, the composite weight is calculated as 0, and (100 m + 0 * 90 m) / 1 = 100 m, it is possible to calculate the synthesis distance information.

출력부(150)는 제어부(140)에서 합성한 상기 물체의 거리 정보와 레이더 센서(120)에서 측정한 상기 물체의 속도 정보를 사용자에게 출력한다. 출력부(150)는 차량에 구비된 영상을 표시할 수 있는 장치를 의미한다.The output unit 150 outputs the distance information of the object synthesized by the control unit 140 and the velocity information of the object measured by the radar sensor 120 to the user. The output unit 150 means an apparatus capable of displaying an image provided in the vehicle.

이하, 도 3을 참조하여 본 발명의 일 실시예에 따른 물체 탐지 방법에 대해 설명한다. 이때, 도 1 및 도 2를 참조하여 설명한 부분과 중복되는 부분은 생략한다.Hereinafter, an object detecting method according to an embodiment of the present invention will be described with reference to FIG. Here, the parts overlapping with those described with reference to Figs. 1 and 2 are omitted.

도 3을 참조하면, 먼저, 센서 설정부(130)는 라이더 센서(110)의 레이저 신호 방사 각도를 설정한다(S101).Referring to FIG. 3, first, the sensor setting unit 130 sets the laser signal emission angle of the rider sensor 110 (S101).

이후, 센서 설정부(130)는 S101 단계에서 설정된 레이더 센서(120)의 방사 각도에 동기화되도록 레이더 센서(120)의 조향 범위를 설정한다(S103).Then, the sensor setting unit 130 sets the steering range of the radar sensor 120 to be synchronized with the radial angle of the radar sensor 120 set in step S101 (S103).

이후, 라이더 센서(110) 및 레이더 센서(120) 각각에서 물체의 정보를 측정한다(S105).Then, the information of the object is measured by the rider sensor 110 and the radar sensor 120, respectively (S105).

이후, 제어부(140)는 라이더 센서(110)에서 측정된 상기 물체의 거리 정보를 기준으로 레이더 센서(120)에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 이상인지 판단한다(S107). 이때, 제어부(140)는 차량의 주행 환경을 고려하여 상기 물체의 거리 정보를 비교한다. The control unit 140 determines whether the distance information of the object measured by the radar sensor 120 is equal to or greater than a predetermined error range based on the distance information of the object measured by the rider sensor 110 at step S107. At this time, the controller 140 compares the distance information of the object in consideration of the traveling environment of the vehicle.

이후, 제어부(140)는 라이더 센서(110)에서 측정된 상기 물체의 거리 정보를 기준으로 레이더 센서(120)에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 이상인 경우, 레이더 센서(120)의 구동 파라미터를 보정한다(S109).When the distance information of the object measured by the radar sensor 120 is greater than or equal to a predetermined error range on the basis of the distance information of the object measured by the rider sensor 110, the controller 140 controls the operation of the radar sensor 120 The parameter is corrected (S109).

한편, 제어부(140)는 라이더 센서(110)에서 측정된 상기 물체의 거리 정보를 기준으로 레이더 센서(120)에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 미만인 경우, 상기 차량의 주행 환경에 따라 합성 가중치를 산출한다(S111).On the other hand, when the distance information of the object measured by the radar sensor 120 is less than a predetermined error range on the basis of the distance information of the object measured by the rider sensor 110, The synthetic weight is calculated (S111).

이후, 제어부(140)는 S111 단계에서 산출한 상기 합성 가중치를 적용하여 라이더 센서(110) 및 레이더 센서(120) 각각에서 측정된 상기 물체의 거리 정보를 합성한다(S113).In step S113, the control unit 140 synthesizes the distance information of the object measured by the lidar sensor 110 and the radar sensor 120 by applying the composite weight calculated in step S111.

이후, 출력부(150)는 S113 단계에서 합성한 상기 물체의 거리 정보와 레이더 센서(120)에서 측정한 상기 물체의 속도 정보를 사용자에게 출력한다(S115).Then, the output unit 150 outputs the distance information of the object synthesized in the step S113 and the velocity information of the object measured by the radar sensor 120 to the user (S115).

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are intended to illustrate and not to limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings . The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

100 : 물체 탐지 장치 110 : 라이더 센서
120 : 레이더 센서 130 : 센서 설정부
140 : 제어부 150 : 출력부
100: object detection device 110: rider sensor
120: Radar sensor 130: Sensor setting unit
140: control unit 150: output unit

Claims (14)

차량에 구비된 물체 탐지 장치에 있어서,
레이저 신호를 방사하여 물체의 제 1 거리 정보를 측정하는 라이더(Lidar) 센서;
제 2 거리 정보를 얻기 위하여 디지털 빔 신호를 방사하여 상기 물체의 속도 정보를 측정하는 레이더(Radar) 센서;
상기 라이더 센서의 방사 각도를 설정하고, 상기 레이더 센서의 조향 범위를 상기 라이더 센서의 방사 각도에 동기화되도록 설정하는 센서 설정부; 및
상기 라이더 센서 및 상기 레이더 센서 각각에서 출력된 상기 제 1 및 제 2 거리 정보를 비교하고, 비교 결과에 따라 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보의 합성 여부를 판단하는 제어부를 포함하고,
상기 제어부는 상기 차량의 주행 환경 혹은 상기 차량의 속도 환경에 따라 상기 제 1 거리 정보 및 상기 제 2 거리 정보의 합성 가중치를 다르게 함으로써, 합성 거리 정보를 계산하는 것을 특징으로 하는 물체 탐지 장치.
An object detecting apparatus provided in a vehicle,
A lidar sensor for measuring a first distance information of an object by emitting a laser signal;
A radar sensor for radiating a digital beam signal to measure velocity information of the object to obtain second distance information;
A sensor setting unit for setting the radial angle of the rider sensor and setting the steering range of the radar sensor to be synchronized with the radial angle of the rider sensor; And
A controller for comparing the first and second distance information outputted from each of the rider sensor and the radar sensor and determining whether the distance information of the object measured by the rider sensor and the radar sensor is synthesized according to a result of the comparison, Lt; / RTI >
Wherein the control unit calculates synthesis distance information by making composite weights of the first distance information and the second distance information different according to the traveling environment of the vehicle or the speed environment of the vehicle.
삭제delete 제 1항에 있어서,
상기 차량의 주행 환경이 우천 혹은 강설일 때, 상기 레이더 센서의 합성 가중치는 상기 라이더 센서의 합성 가중치보다 큰 것을 특징으로 하는 물체 탐지 장치.
The method according to claim 1,
Wherein the synthetic weight of the radar sensor is larger than the synthetic weight of the rider sensor when the running environment of the vehicle is rainy or snowy.
제 1항에 있어서,
상기 제어부는 비교 결과 상기 라이더 센서에서 측정된 상기 물체의 거리 정보를 기준으로 상기 레이더 센서에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 이상인 경우, 상기 레이더 센서의 구동 파라미터를 보정하는 것을 특징으로 하는 물체 탐지 장치.
The method according to claim 1,
Wherein the control unit corrects the driving parameter of the radar sensor when the distance information of the object measured by the radar sensor is greater than or equal to a predetermined error range based on the distance information of the object measured by the rider sensor as a result of the comparison Object detection device.
제 1항에 있어서,
상기 제어부는 비교 결과 상기 라이더 센서에서 측정된 상기 물체의 거리 정보를 기준으로 상기 레이더 센서에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 미만인 경우, 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 합성하는 것을 특징으로 하는 물체 탐지 장치.
The method according to claim 1,
The control unit determines that the distance information of the object measured by the radar sensor is less than a predetermined error range on the basis of the distance information of the object measured by the rider sensor, And the distance information of the object.
제 1항에 있어서,
상기 제어부는 비교 결과 상기 라이더 센서에서 측정된 상기 물체의 거리 정보를 기준으로 상기 레이더 센서에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 미만인 경우, 상기 차량의 주행 환경에 따라 합성 가중치를 산출하고, 상기 합성 가중치를 적용하여 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 합성하는 것을 특징으로 하는 물체 탐지 장치.
The method according to claim 1,
Wherein the control unit calculates the synthetic weight according to the traveling environment of the vehicle when the distance information of the object measured by the radar sensor is less than a predetermined error range on the basis of the distance information of the object measured by the rider sensor, And combines the distance information of the object measured by each of the rider sensor and the radar sensor by applying the composite weight.
제 6항에 있어서,
상기 제어부는 상기 합성 가중치를 상기 레이더 센서에서 측정한 거리 정보에 적용하는 것을 특징으로 하는 물체 탐지 장치.
The method according to claim 6,
Wherein the controller applies the composite weight to distance information measured by the radar sensor.
제 5항 내지 제 7항 중 어느 한 항에 있어서,
상기 제어부에서 합성한 상기 물체의 거리 정보와 상기 레이더 센서에서 측정한 상기 물체의 속도 정보를 사용자에게 출력하는 출력부를 더 포함하는 물체 탐지 장치.
8. The method according to any one of claims 5 to 7,
And an output unit for outputting distance information of the object synthesized by the control unit and speed information of the object measured by the radar sensor to a user.
라이더(Lidar) 센서의 레이저 신호 방사 각도를 설정하는 라이더 센서 설정 단계;
상기 라이더 센서 설정 단계에서 설정된 상기 라이더 센서의 방사 각도에 동기화되도록 레이더(Radar) 센서의 조향 범위를 설정하는 레이더 센서 설정 단계:
상기 라이더 센서 및 상기 레이더 센서 각각에서 물체의 정보를 측정하는 정보 측정 단계;
상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 비교하는 비교 단계;
상기 비교 단계의 비교 결과에 따라 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보의 합성 여부를 판단하는 판단 단계; 및
상기 물체의 거리 정보를 합성할 때, 차량의 주행 환경 혹은 상기 차량의 속도 환경에 따라 상기 라이더 센서의 거리 정보 및 상기 레이더 센서의 거리 정보의 합성 가중치를 다르게 함으로써, 합성 거리 정보를 계산하는 단계를 포함하는 물체 탐지 방법.
A lidar sensor setting step of setting a laser signal emission angle of a lidar sensor;
A radar sensor setting step of setting a steering range of a radar sensor so as to be synchronized with an emission angle of the rider sensor set in the rider sensor setting step;
An information measuring step of measuring information of an object in each of the rider sensor and the radar sensor;
A comparison step of comparing the distance information of the object measured by each of the rider sensor and the radar sensor;
A determination step of determining whether the distance information of the object measured by the rider sensor and the radar sensor is synthesized according to a comparison result of the comparison step; And
Calculating composite distance information by making composite weights of the distance information of the rider sensor and the distance information of the radar sensor different according to the traveling environment of the vehicle or the speed environment of the vehicle when synthesizing the distance information of the object Including methods of object detection.
제 9항에 있어서,
상기 비교 단계에서 비교 결과 상기 라이더 센서에서 측정된 상기 물체의 거리 정보를 기준으로 상기 레이더 센서에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 이상인 경우, 상기 레이더 센서의 구동 파라미터를 보정하는 보정 단계를 더 포함하는 물체 탐지 방법.
10. The method of claim 9,
A correction step of correcting the driving parameter of the radar sensor when the distance information of the object measured by the radar sensor is greater than or equal to a predetermined error range on the basis of the distance information of the object measured by the rider sensor in the comparison step Further comprising detecting the object.
제 9항에 있어서,
상기 비교 단계에서 비교 결과 상기 라이더 센서에서 측정된 상기 물체의 거리 정보를 기준으로 상기 레이더 센서에서 측정된 상기 물체의 거리 정보가 소정 오차 범위 미만인 경우, 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 합성하는 합성 단계를 더 포함하는 물체 탐지 방법.
10. The method of claim 9,
When the distance information of the object measured by the radar sensor is less than a predetermined error range on the basis of the distance information of the object measured by the rider sensor in the comparison step, And a synthesizing step of synthesizing the distance information of the object.
제 11항에 있어서,
상기 차량의 주행 환경에 따라 합성 가중치를 산출하는 가중치 산출 단계를 더 포함하고,
상기 합성 단계는 상기 합성 가중치를 적용하여 상기 라이더 센서 및 상기 레이더 센서 각각에서 측정된 상기 물체의 거리 정보를 합성하는 것을 특징으로 하는 물체 탐지 방법.
12. The method of claim 11,
Further comprising: a weight calculation step of calculating a synthetic weight according to the driving environment of the vehicle,
Wherein the synthesizing step combines the distance information of the object measured by each of the rider sensor and the radar sensor by applying the composite weight.
제 12항에 있어서,
상기 합성 단계는 합성 가중치를 상기 레이더 센서에서 측정한 거리 정보에 적용하는 것을 특징으로 하는 물체 탐지 방법.
13. The method of claim 12,
Wherein the combining step applies the combining weight to the distance information measured by the radar sensor.
제 11항 내지 제 13항 중 어느 한 항에 있어서,
상기 합성 단계에서 합성한 상기 물체의 거리 정보와 상기 레이더 센서에서 측정한 상기 물체의 속도 정보를 사용자에게 출력하는 출력 단계를 더 포함하는 물체 탐지 방법.
14. The method according to any one of claims 11 to 13,
And an output step of outputting distance information of the object synthesized in the synthesis step and speed information of the object measured by the radar sensor to a user.
KR1020160081385A 2016-06-29 2016-06-29 Apparatus and method for detecting object KR101887436B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160081385A KR101887436B1 (en) 2016-06-29 2016-06-29 Apparatus and method for detecting object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160081385A KR101887436B1 (en) 2016-06-29 2016-06-29 Apparatus and method for detecting object

Publications (2)

Publication Number Publication Date
KR20180002205A KR20180002205A (en) 2018-01-08
KR101887436B1 true KR101887436B1 (en) 2018-09-06

Family

ID=61003425

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160081385A KR101887436B1 (en) 2016-06-29 2016-06-29 Apparatus and method for detecting object

Country Status (1)

Country Link
KR (1) KR101887436B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11790555B2 (en) 2020-01-17 2023-10-17 Electronics And Telecommunications Research Institute System and method for fusion recognition using active stick filter

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102016592B1 (en) * 2018-02-28 2019-09-02 (주)지오스캔 Method and apparatus for geologic structure analysis
WO2020092953A1 (en) * 2018-11-02 2020-05-07 Waymo Llc Synchronization of multiple rotating sensors of a vehicle
KR102367277B1 (en) * 2020-04-28 2022-02-24 김수찬 System for detection, tracking and identification

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000219110A (en) * 1999-01-29 2000-08-08 Daimlerchrysler Ag Braking method and device for vehicle
JP2003510578A (en) * 1999-09-21 2003-03-18 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング State identification method and apparatus in an automatic longitudinal and / or lateral control system of a vehicle
JP2015205691A (en) * 2008-10-24 2015-11-19 サムスン エレクトロニクス カンパニー リミテッド Control and system for autonomously driven vehicle
US20160018524A1 (en) * 2012-03-15 2016-01-21 GM Global Technology Operations LLC SYSTEM AND METHOD FOR FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102027771B1 (en) * 2013-01-31 2019-10-04 한국전자통신연구원 Obstacle detecting apparatus and method for adaptation to vehicle velocity
KR20160066854A (en) * 2014-12-03 2016-06-13 한국건설기술연구원 Apparatus and method for meteorological observation of autonomous vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000219110A (en) * 1999-01-29 2000-08-08 Daimlerchrysler Ag Braking method and device for vehicle
JP2003510578A (en) * 1999-09-21 2003-03-18 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング State identification method and apparatus in an automatic longitudinal and / or lateral control system of a vehicle
JP2015205691A (en) * 2008-10-24 2015-11-19 サムスン エレクトロニクス カンパニー リミテッド Control and system for autonomously driven vehicle
US20160018524A1 (en) * 2012-03-15 2016-01-21 GM Global Technology Operations LLC SYSTEM AND METHOD FOR FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11790555B2 (en) 2020-01-17 2023-10-17 Electronics And Telecommunications Research Institute System and method for fusion recognition using active stick filter

Also Published As

Publication number Publication date
KR20180002205A (en) 2018-01-08

Similar Documents

Publication Publication Date Title
KR101887436B1 (en) Apparatus and method for detecting object
US9390624B2 (en) Vehicle-installation intersection judgment apparatus and program
US10012722B2 (en) Monitoring apparatus and non-transitory computer-readable medium
US20140297170A1 (en) Driving support system
US20160377701A1 (en) System and method for detecting mounting angle of blind spot detection sensor
JP6645254B2 (en) Object recognition device
JP2008082974A (en) Object detector, object detecting method, and program executed by computer
KR20130113102A (en) Calibration method and device for horizontal alignment of vehicle radar
JPWO2006016445A1 (en) Radar
KR101558660B1 (en) Apparatus for correcting beam angle of multi-layer lidar
US11713039B2 (en) Driving support system and method
JP6140755B2 (en) Distance determination apparatus and method
KR20150106200A (en) System for Correcting Misalignment of Radar Installment Angle and Method thereof
US7557907B2 (en) Object-detection device for vehicle
US6683533B1 (en) Inter-vehicle distance measuring system and apparatus measuring time difference between each detection time of same road surface condition
KR102356480B1 (en) Apparatus and method for detecting vehicle's lind spot
JP6396647B2 (en) Obstacle detection device and obstacle detection method
JP5436652B1 (en) Vehicle periphery monitoring device and vehicle periphery monitoring method
US10114108B2 (en) Positioning apparatus
US10829097B2 (en) Speed control device
KR101704635B1 (en) Method and apparatus for detecting target using radar and image raster data
JP7152884B2 (en) Vehicle object detection device
JP2008026030A (en) Vehicle obstacle detector and vehicle control system
KR102402088B1 (en) Device for detecting a moving object using a plurality of radar and method thereof
JP2009018680A (en) Relative relationship measuring system and on-vehicle relative relationship measuring device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant