KR102535590B1 - Object detection apparatus and method based on sensor fusion - Google Patents
Object detection apparatus and method based on sensor fusion Download PDFInfo
- Publication number
- KR102535590B1 KR102535590B1 KR1020180113415A KR20180113415A KR102535590B1 KR 102535590 B1 KR102535590 B1 KR 102535590B1 KR 1020180113415 A KR1020180113415 A KR 1020180113415A KR 20180113415 A KR20180113415 A KR 20180113415A KR 102535590 B1 KR102535590 B1 KR 102535590B1
- Authority
- KR
- South Korea
- Prior art keywords
- detection information
- detection
- reliability index
- detection device
- information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
본 발명은 물체 검출 기술에 관한 것으로, 본 발명의 실시 예에 따른 센서 융합 기반 물체 검출장치는 제 1 감시 영역 내 물체를 검출하여 제 1 검출 정보를 생성하는 제 1 검출장치, 제 2 감시 영역 내 물체를 검출하여 제 2 검출 정보를 생성하는 제 2 검출장치 및 상기 제 1 검출 정보 및 상기 제 2 검출 정보에 기초하여 융합 검출정보를 생성하는 융합 검출장치를 포함한다.The present invention relates to an object detection technology, and an object detection device based on sensor fusion according to an embodiment of the present invention includes a first detection device generating first detection information by detecting an object within a first monitoring area and a second monitoring area. and a second detection device that detects an object and generates second detection information, and a fusion detection device that generates fusion detection information based on the first detection information and the second detection information.
Description
본 발명은 물체 검출 기술에 관한 것으로, 상세하게는 차량 주변의 물체를 검출하는 센서 융합 기반 물체 검출장치 및 검출방법에 관한 것이다.
The present invention relates to object detection technology, and more particularly, to a sensor fusion-based object detection device and method for detecting an object around a vehicle.
최근에는 운전자 보조 시스템인 ADAS(Advanced Driver Assisted System)뿐만 아니라, 자율주행자동차 개발 및 상용화를 위해 많은 연구가 이루어지고 있다.Recently, many studies have been conducted for the development and commercialization of self-driving cars as well as advanced driver assisted systems (ADAS), which are driver assistance systems.
이러한 ADAS 등과 같은 운전 보조 장치는 운전자가 인지 못하는 순간에도 차량 주변의 물체를 검출하여 상황을 인지하고 사고 위험성을 판단하여 위험성이 존재하는 경우, 운전자에게 경보를 제공하거나 위험성이 고조되는 경우 자동으로 브레이크 또는 조향장치를 제어하여 충돌사고를 예방하는 기능을 수행한다.Driving assistance devices such as ADAS detect objects around the vehicle even when the driver is not aware of it, recognize the situation, determine the risk of an accident, and provide a warning to the driver when the risk exists or automatically brakes when the risk increases. Alternatively, it performs a function of preventing a collision accident by controlling the steering system.
이러한 기능을 제공하기 위하여, 운전 보조 장치는 카메라, 레이다, 라이다 같은 다양한 센서를 활용하여 주위의 상황을 인지하고 고성능의 프로세서를 활용하여 판단 및 제어를 수행한다.In order to provide these functions, the driving assistance device recognizes the surrounding situation using various sensors such as a camera, radar, and lidar, and performs judgment and control using a high-performance processor.
레이다 장치는 날씨 등 외부 환경과 상관없이 물체를 검출하기 위한 성능은 우수하나 물체의 식별이 불가능하고, 카메라는 물체의 식별이 가능하나 열악한 환경(ex, 비 내리는 상황 등)에서는 성능이 떨어지는 문제점이 있으며, 라이다는 우수한 성능을 가지기는 하나 고가여서 상용화에 적절하지 못하다는 문제점이 있다.The radar device has excellent performance for detecting objects regardless of the external environment such as weather, but it is impossible to identify objects, and the camera can identify objects, but its performance is poor in poor environments (eg, raining conditions). In addition, lidar has excellent performance, but there is a problem that it is not suitable for commercialization because it is expensive.
이에 따라, 카메라, 레이다 및 라이다를 융합한 융합형 검출 장치가 자율주행 자동차에 많이 활용되고 있다.Accordingly, a convergence type detection device in which a camera, radar, and lidar are converged is widely used in autonomous vehicles.
하지만, 현재의 융합형 검출 장치 대부분은 카메라 장치에 우선권이 주어지기 때문에, 카메라가 검출하지 못하는 상황에서 심각한 오류가 발생할 수 있다는 문제점이 있다.
However, since most of the current converged detection devices give priority to the camera device, there is a problem in that a serious error may occur in a situation where the camera cannot detect the device.
본 발명은 상기와 같은 종래 기술의 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은, 서로 다른 종류의 센서에 의해 검출되는 검출정보의 신뢰도 지수를 생성하고, 신뢰도 지수를 기반으로 하여 물체에 대한 검출을 수행함으로써, 신뢰성을 향상시킬 수 있는 센서 융합 기반 물체 검출장치 및 검출방법을 제공함에 있다.The present invention has been made to solve the problems of the prior art as described above, and an object of the present invention is to generate a reliability index of detection information detected by different types of sensors, and based on the reliability index, to an object It is an object of the present invention to provide a sensor fusion-based object detection device and detection method capable of improving reliability by performing detection on the object.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
The object of the present invention is not limited to the object mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the description below.
상기와 같은 해결하고자 하는 과제의 목적을 달성하기 위한 본 발명의 실시 예에 따른 센서 융합 기반 물체 검출장치는, 제 1 감시 영역 내 물체를 검출하여 제 1 검출 정보를 생성하는 제 1 검출장치; 제 2 감시 영역 내 물체를 검출하여 제 2 검출 정보를 생성하는 제 2 검출장치; 및 상기 제 1 검출 정보, 상기 제 1 검출 정보 내 물체에 대한 제 1 신뢰 지수, 상기 제 2 검출 정보, 상기 제 2 검출 정보 내 물체에 대한 제 2 신뢰 지수를 바탕으로 융합 검출정보를 생성하는 융합 검출장치를 포함하고, 상기 제 1 검출장치는 상기 제 1 검출정보에 포함된 물체에 대한 위치 추적을 수행하고, 상기 제 1 검출정보에 포함된 물체에 대한 추적 개수를 도출해서 상기 제 1 신뢰 지수로 생성하고, 상기 제 2 검출장치는 상기 제 2 검출정보에 포함된 물체에 대한 위치 추적을 수행하고, 상기 제 2 검출정보에 포함된 물체에 대한 추적 개수를 도출해서 상기 제 2 신뢰 지수로 생성하고, 상기 제 1 검출장치는 상기 제 1 감시 영역 내 물체를 검출에 성공하면 상기 제 1 신뢰 지수와 연관된 추적 개수를 증가시키고, 상기 제 1 감시 영역 내 물체 검출에 실패하면 상기 제 1 신뢰 지수와 연관된 추적 개수를 감소시켜 가면서 추적 개수를 설정하고, 상기 제 2 검출장치는 상기 제 2 감시 영역 내 물체를 검출에 성공하면 상기 제 2 신뢰 지수와 연관된 추적 개수를 증가시키고, 상기 제 2 감시 영역 내 물체 검출에 실패하면 상기 제 2 신뢰 지수와 연관된 추적 개수를 감소시켜 가면서 추적 개수를 설정한다.An object detection device based on sensor fusion according to an embodiment of the present invention for achieving the object to be solved as described above includes: a first detection device generating first detection information by detecting an object within a first monitoring area; a second detection device generating second detection information by detecting an object within the second monitoring area; and fusion generating fusion detection information based on the first detection information, a first reliability index for an object in the first detection information, the second detection information, and a second reliability index for an object in the second detection information. a detecting device, wherein the first detecting device tracks the location of an object included in the first detection information, derives the number of traces of the object included in the first detection information, and determines the first reliability index. , and the second detection device performs position tracking on the object included in the second detection information, derives the number of tracking objects included in the second detection information, and generates the second reliability index. and if the first detection device succeeds in detecting the object within the first surveillance region, increases the tracking number associated with the first reliability index, and if it fails to detect the object within the first surveillance region, the first reliability index and The number of traces is set while decreasing the number of associated traces, and when the second detection device succeeds in detecting an object within the second monitoring area, the number of traces associated with the second reliability index is increased, and within the second surveillance area If object detection fails, the number of traces associated with the second reliability index is decreased and the number of traces is set.
상기 제 1 검출장치는 상기 제 1 검출 정보 내 물체에 대한 상기 제 1 신뢰 지수를 생성하여 상기 융합 검출장치로 제공하고, 상기 제 2 검출장치는 상기 제 2 검출 정보 내 물체에 대한 상기 제 2 신뢰 지수를 생성하여 상기 융합 검출장치로 제공한다.The first detection device generates the first reliability index for the object in the first detection information and provides it to the convergence detection device, and the second detection device generates the second reliability index for the object in the second detection information. An index is generated and provided to the fusion detection device.
상기 제 1 검출장치는 일례로 영상 기반 검출장치이고, 상기 제 2 검출장치는 일례로 레이다(radar) 기반 검출장치 혹은 라이다(laser radar) 기반 검출장치이다.The first detection device is, for example, an image-based detection device, and the second detection device is, for example, a radar-based detection device or a laser radar-based detection device.
삭제delete
상기 융합 검출장치는 상기 제 1 및 제 2 신뢰 지수를 바탕으로 통합 신뢰지수를 생성하고, 상기 통합 신뢰지수가 임계치 이상이면, 검출된 물체에 대한 상기 융합 검출정보를 생성한다.
상기와 같은 해결하고자 하는 과제의 목적을 달성하기 위한 본 발명의 다른 실시 예에 따른 센서 융합 기반 물체 검출장치는, 제 1 감시 영역 내 물체를 검출하여 제 1 검출 정보를 생성하는 제 1 검출장치, 제 2 감시 영역 내 물체를 검출하여 제 2 검출 정보를 생성하는 제 2 검출장치 및 상기 제 1 검출 정보 및 상기 제 2 검출 정보에 기초하여 융합 검출정보를 생성하는 융합 검출장치를 포함한다.
상기와 같은 해결하고자 하는 과제의 목적을 달성하기 위한 본 발명의 또 다른 실시 예에 따른 센서 융합 기반 물체 검출장치는, 기 설정된 감시 영역 내 물체를 검출하여 검출 정보를 각각 생성하는 다수의 검출장치 및 상기 다수의 검출장치 각각에 의해 생성되는 상기 검출 정보와, 상기 검출 정보 내 물체에 대한 신뢰 지수를 바탕으로 융합 검출정보를 생성하는 융합 검출장치를 포함한다.
상기와 같은 해결하고자 하는 과제의 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 센서 융합 기반 물체 검출방법은, 제 1 감시 영역 내 물체를 검출하여 제 1 검출 정보 및 상기 제 1 검출 정보에 대한 제 1 신뢰 지수를 생성하는 단계, 제 2 감시 영역 내 물체를 검출하여 제 2 검출 정보 및 상기 제 2 검출 정보에 대한 제 2 신뢰 지수를 생성하는 단계, 및 생성된 상기 제 1 검출 정보, 제 2 검출 정보, 제 1 신뢰 지수, 및 제2 신뢰 지수에 기초하여 융합 검출정보를 생성하는 단계를 포함하고, 상기 제 1 검출 정보 내 물체에 대한 제 1 신뢰 지수를 생성하는 단계는 상기 제 1 검출정보에 포함된 물체에 대한 위치 추적을 수행하고, 상기 제 1 검출정보에 포함된 물체에 대한 추적 개수를 도출해서 상기 제 1 신뢰 지수를 생성하는 단계를 포함하고, 상기 제 1 검출정보에 포함된 물체에 대한 추적 개수를 도출해서 상기 제 1 신뢰 지수를 생성하는 단계는 상기 제 1 감시 영역 내 물체를 검출에 성공하면 상기 제 1 신뢰 지수와 연관된 추적 개수를 증가시키고, 상기 제 1 감시 영역 내 물체 검출에 실패하면 상기 제 1 신뢰 지수와 연관된 추적 개수를 감소시켜 가면서 추적 개수를 도출하는 단계를 포함하고, 상기 제 2 검출 정보 내 물체에 대한 제 2 신뢰 지수를 생성하는 단계는 상기 제 2 검출정보에 포함된 물체에 대한 위치 추적을 수행하고, 상기 제 2 검출정보에 포함된 물체에 대한 추적 개수를 도출해서 상기 제 2 신뢰 지수를 생성하는 단계를 포함하고, 상기 제 2 검출정보에 포함된 물체에 대한 추적 개수를 도출해서 상기 제 2 신뢰 지수를 생성하는 단계는 상기 제 2 감시 영역 내 물체를 검출에 성공하면 상기 제 2 신뢰 지수와 연관된 추적 개수를 증가시키고, 상기 제 2 감시 영역 내 물체 검출에 실패하면 상기 제 2 신뢰 지수와 연관된 추적 개수를 감소시켜 가면서 추적 개수를 도출하는 단계를 포함한다.The convergence detection device generates an integrated reliability index based on the first and second reliability indexes, and generates the convergence detection information for the detected object when the integrated reliability index is greater than or equal to a threshold value.
A sensor fusion-based object detection device according to another embodiment of the present invention for achieving the object to be solved as described above includes a first detection device generating first detection information by detecting an object within a first monitoring area; and a second detection device generating second detection information by detecting an object within a second monitoring area and a fusion detection device generating fusion detection information based on the first detection information and the second detection information.
A sensor fusion-based object detection device according to another embodiment of the present invention for achieving the object to be solved as described above is a plurality of detection devices for generating detection information by detecting an object within a preset monitoring area, and and a fusion detection device generating fusion detection information based on the detection information generated by each of the plurality of detection devices and a reliability index for an object in the detection information.
A sensor fusion-based object detection method according to an embodiment of the present invention for achieving the object to be solved as described above is to detect an object within a first monitoring area and to obtain first detection information and information about the first detection information. generating a first reliability index, generating second detection information and a second reliability index for the second detection information by detecting an object within a second surveillance area, and generating the first detection information and the second detection information; generating fusion detection information based on the detection information, a first reliability index, and a second reliability index, wherein generating a first reliability index for an object in the first detection information performing location tracking on an object included in the first detection information and generating the first reliability index by deriving the tracking number of the object included in the first detection information; Deriving the number of traces for the step of generating the first reliability index increases the number of traces associated with the first reliability index if the object in the first surveillance area is successfully detected, and detects the object in the first surveillance area. fails, deriving the number of traces while decreasing the number of traces associated with the first reliability index, and generating a second confidence index for an object in the second detection information. performing location tracking on an object included in the second detection information and generating the second reliability index by deriving a tracking number for the object included in the second detection information; In the step of deriving the tracking number for and generating the second reliability index, if the object within the second surveillance area is successfully detected, the tracking number associated with the second reliability index is increased, and the detection of the object within the second surveillance area is successful. If it fails, deriving the number of traces while decreasing the number of traces associated with the second reliability index.
상기와 같은 본 발명의 실시 예에 따르면, 차량 주변의 물체를 검출하는 센서 융합 기반 물체 검출 기술이 제안된다.According to an embodiment of the present invention as described above, a sensor fusion-based object detection technology for detecting an object around a vehicle is proposed.
본 발명에서 제안되는 센서 융합 기반 물체 검출 기술은 서로 다른 종류의 센서에 의해 검출되는 검출정보의 신뢰도 지수를 생성하고, 신뢰도 지수를 기반으로 하여 물체에 대한 검출을 수행하기 때문에, 물체 검출에 대한 신뢰성을 향상시킬 수 있다.
Since the sensor fusion-based object detection technology proposed in the present invention generates a reliability index of detection information detected by different types of sensors and performs object detection based on the reliability index, the reliability of object detection is improved. can improve
도 1은 본 발명의 바람직한 실시 예에 따른 센서 융합 기반 물체 검출장치의 일례를 도시한 도면이다.
도 2는 본 발명의 바람직한 실시 예에 따른 센서 융합 기반 물체 검출장치의 제 1 검출장치의 일례를 도시한 도면이다.
도 3은 본 발명의 바람직한 실시 예에 따른 센서 융합 기반 물체 검출장치의 제 2 검출장치의 일례를 도시한 도면이다.
도 4는 본 발명의 바람직한 실시 예에 따른 센서 융합 기반 물체 검출장치의 융합 검출장치를 도시한 일례의 구성도이다.
도 5는 본 발명의 바람직한 실시 예에 따른 센서 융합 기반 물체 검출장치에 의해 생성되는 검출 정보의 일례를 도시한 도면이다.
도 6은 본 발명의 바람직한 실시 예에 따른 센서 융합 기반 물체 검출장치에 의해 생성되는 통합 정보의 일례를 도시한 도면이다.
도 7은 본 발명의 바람직한 실시 예에 따른 센서 융합 기반 물체 검출장치에 의한 융합 기반 물체 검출방법에 대해서 설명하기 위한 도면이다.1 is a diagram showing an example of an object detection device based on sensor fusion according to a preferred embodiment of the present invention.
2 is a diagram showing an example of a first detection device of a sensor fusion-based object detection device according to a preferred embodiment of the present invention.
3 is a diagram showing an example of a second detection device of a sensor fusion-based object detection device according to a preferred embodiment of the present invention.
4 is a configuration diagram illustrating an example of a fusion detection device of a sensor fusion-based object detection device according to a preferred embodiment of the present invention.
5 is a diagram showing an example of detection information generated by a sensor fusion-based object detection apparatus according to a preferred embodiment of the present invention.
6 is a diagram showing an example of integrated information generated by the sensor fusion-based object detection apparatus according to a preferred embodiment of the present invention.
7 is a diagram for explaining a fusion-based object detection method using a sensor fusion-based object detection apparatus according to a preferred embodiment of the present invention.
본문에 개시되어 있는 본 발명의 실시 예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 실시 예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 실시 예들은 다양한 형태로 실시될 수 있으며 본문에 설명된 실시 예들에 한정되는 것으로 해석되어서는 안 된다.For the embodiments of the present invention disclosed in the text, specific structural or functional descriptions are only exemplified for the purpose of describing the embodiments of the present invention, and the embodiments of the present invention can be implemented in various forms, and It should not be construed as limited to the described embodiments.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the present invention can have various changes and various forms, specific embodiments will be illustrated in the drawings and described in detail in the text. However, it should be understood that this is not intended to limit the present invention to the specific disclosed form, and includes all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.
어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 “~사이에”와 “바로 ~사이에” 또는 “~에 이웃하는”과 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.It is understood that when an element is referred to as being “connected” or “connected” to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when a component is referred to as “directly connected” or “directly connected” to another component, it should be understood that no other component exists in the middle. Other expressions describing the relationship between components, such as "between" and "directly between" or "adjacent to" and "directly adjacent to", etc., should be interpreted similarly.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, “포함하다” 또는 “가지다” 등의 용어는 개시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “have” are intended to indicate that the disclosed feature, number, step, operation, component, part, or combination thereof exists, but that one or more other features or numbers, It should be understood that the presence or addition of steps, operations, components, parts, or combinations thereof is not precluded.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't
한편, 어떤 실시 예가 달리 구현 가능한 경우에 특정 블록 내에 명기된 기능 또는 동작이 순서도에 명기된 순서와 다르게 일어날 수도 있다. 예를 들어, 연속하는 두 블록이 실제로는 실질적으로 동시에 수행될 수도 있고, 관련된 기능 또는 동작에 따라서는 상기 블록들이 거꾸로 수행될 수도 있다.
Meanwhile, when a certain embodiment can be implemented differently, functions or operations specified in a specific block may occur in a different order from the order specified in the flowchart. For example, two successive blocks may actually be performed substantially concurrently, or the blocks may be performed backwards depending on the function or operation involved.
이하에서는 본 발명에서 제안하고자 하는 센서 융합 기반 물체 검출장치 및 검출방법에 대해서 첨부된 도면들을 참조하여 상술한다.
Hereinafter, a sensor fusion-based object detection device and detection method to be proposed in the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 바람직한 실시 예에 따른 센서 융합 기반 물체 검출장치의 일례를 도시한 도면이고, 도 2는 본 발명의 바람직한 실시 예에 따른 센서 융합 기반 물체 검출장치의 제 1 검출장치의 일례를 도시한 도면이고, 도 3은 본 발명의 바람직한 실시 예에 따른 센서 융합 기반 물체 검출장치의 제 2 검출장치의 일례를 도시한 도면이다.
1 is a diagram showing an example of an object detection device based on sensor fusion according to a preferred embodiment of the present invention, and FIG. 2 shows an example of a first detection device of the object detection device based on sensor fusion according to a preferred embodiment of the present invention. FIG. 3 is a diagram showing an example of a second detection device of a sensor fusion-based object detection device according to a preferred embodiment of the present invention.
도 1을 참조하면, 본 발명의 바람직한 실시 예에 따른 센서 융합 기반 물체 검출장치(1)는 적어도 2개 이상의 검출장치로부터 각각 획득되는 검출 정보에 대한 신뢰 지수를 생성하고, 검출 정보 및 신뢰 지수를 기반으로 융합 검출정보를 생성 및 제공할 수 있도록 구현된다.Referring to FIG. 1 , a sensor fusion-based
이를 위해, 상기 센서 융합 기반 물체 검출장치(1)는 적어도 2개 이상의 검출장치(10, 20)와 융합 검출장치(30)를 포함하고, 제어 장치(40)를 더 포함할 수 있다.To this end, the sensor fusion-based
설명의 편의를 위하여, 이하에서는 센서 융합 기반 물체 검출장치(1)가 두 개의 검출장치, 즉 제 1 검출장치(10)와 제 2 검출장치(20)를 포함하는 것을 예로 들어 설명한다.For convenience of description, hereinafter, an example in which the sensor fusion-based
상기 제 1 검출장치(10)는 물체 검출을 위해 감시 영역으로 기 설정되는 영역(제 1 감시 영역, S1) 내 물체를 검출하기 위한 구성으로, 예를 들면 영상 기반 검출장치일 수 있다.The
상기 제 2 검출장치(20)는 물체 검출을 위해 감시 영역으로 기 설정되는 영역(제 2 감시 영역, S2) 내 물체를 검출하기 위한 구성으로, 예를 들면 레이다(radar) 기반 검출장치 혹은 라이다(lidar) 기반 검출장치일 수 있다.The
상기 제 1 감시 영역(S1)과 제 2 감시 영역(S2)은 서로 중첩되어 공통 감시 영역(C)이 형성된다.The first surveillance region S1 and the second surveillance region S2 overlap each other to form a common surveillance region C.
그리고, 상기 제 1 및 제 2 검출장치(10, 20)는 시간적 그리고 공간적으로 동기화가 되어 있는 것으로 가정한다.And, it is assumed that the first and
상기 제 1 검출장치(10)는 제 1 감시 영역(S1)에 대한 촬영 영상에서 물체를 검출하여 제 1 검출 정보를 생성 및 제공한다.The
예를 들어, 상기 제 1 검출장치(10)는 검출된 물체와 관련된 위치 정보, 종류 정보, 위치 추적 정보 등 하나 이상의 정보를 포함하는 제 1 검출정보를 생성할 수 있다.For example, the
이에 더하여, 상기 제 1 검출장치(10)는 제 1 검출정보가 어느 정도의 신뢰성이 있는지를 나타내는 제 1 신뢰 지수를 추가적으로 제공할 수 있다.In addition to this, the
즉, 상기 제 1 검출장치(10)는 제 1 검출정보를 제공하거나, 제 1 검출정보 및 제 1 신뢰 지수를 생성 및 제공할 수 있다.That is, the
이를 위해, 상기 제 1 검출장치(10)는 도 2에 도시된 바와 같이, 이미지 센서(11), 제 1 검출 모듈(12), 제 1 위치 추적 모듈(13) 및 제 1 처리부(14)를 포함할 수 있다.To this end, as shown in FIG. 2, the
상기 이미지 센서(11)는 제 1 감시 영역(S1)에 대한 영상을 획득하며, 기 공지된 다양한 종류의 이미지 센서 중 선택될 수 있다.The
상기 제 1 검출 모듈(12)은 이미지 센서(11)에 의해 획득된 영상에 대한 영상처리를 수행하여 물체를 검출한다.The
상기 제 1 검출 모듈(12)은 영상에 대한 영상처리를 수행하여 물체를 검출하는 한편, 검출된 물체와 관련된 위치 정보, 종류 정보 등을 생성할 수 있다.The
상기 제 1 위치 추적 모듈(13)은 제 1 검출 모듈(12)에 의해 검출되는 물체에 대해 위치 추적 알고리즘을 적용하여 물체에 대한 위치 추적을 수행하여 위치 추적 정보를 생성할 수 있다.The first
상기 제 1 처리부(14)는 제 1 검출 모듈(12)로부터의 정보, 제 1 위치 추적 모듈(13)로부터의 정보를 종합하여 제 1 검출정보를 생성 및 제공한다.The
또한, 상기 제 1 처리부(14)는 제 1 검출정보가 어느 정도의 신뢰성이 있는지를 나타내는 제 1 신뢰 지수를 생성하여 제공할 수 있다.In addition, the
예를 들어, 상기 제 1 처리부(14)는 제 1 검출정보에 포함된 물체에 대한 위치 추적을 수행하여, 제 1 검출정보에 포함된 물체에 대한 추적 개수를 도출하고, 도출된 추적 개수(tracking_cnt1)를 제 1 신뢰 지수로 생성할 수 있다.For example, the
이때, 상기 제 1 처리부(14)는 물체 검출에 성공하면 추적 개수(tracking_cnt1)를 1 증가시키고, 물체 검출에 실패하면 추적 개수(tracking_cnt1)를 1 감소시켜 가면서 추적 개수를 설정할 수 있다.At this time, the
예를 들어, 상기 제 1 처리부(14)는 도 5에 도시된 바와 같은 포맷의 제 1 검출 정보를 생성할 수 있으나, 도 5에 도시된 제 1 검출정보에 대한 포맷은 본 발명의 이해를 위한 일 예로서 다양하게 변경될 수 있음은 당연하다.For example, the
도 5를 참조하면, 상기 제 1 처리부(14)는 검출된 물체별 위치 정보를 기초로 하여 제 1 검출정보를 생성할 수 있다.Referring to FIG. 5 , the
또한, 상기 제 1 처리부(14)는 검출된 물체에 대한 신뢰 지수를 제 1 검출정보에 기록할 수 있다.In addition, the
상기 제 2 검출장치(20)는 제 2 감시 영역(21)에 대해 출력된 레이저 신호 혹은 전파 신호가 물체에 의해 반사되어 수신된 신호를 바탕으로 물체를 검출하여 제 2 검출 정보를 생성 및 제공한다.The
예를 들어, 상기 제 2 검출장치(20)는 검출된 물체에 대한 위치 정보, 반사 강도 정보, 종류 정보, 위치 추적 정보 등 하나 이상의 정보를 포함하는 제 2 검출정보를 생성할 수 있다.For example, the
이에 더하여, 상기 제 2 검출장치(20)는 제 2 검출정보가 어느 정도의 신뢰성이 있는지를 나타내는 제 2 신뢰 지수를 추가적으로 제공할 수 있다.In addition to this, the
즉, 상기 제 2 검출장치(20)는 제 2 검출정보를 제공하거나, 제 2 검출정보 및 제 2 신뢰 지수를 생성 및 제공할 수 있다.That is, the
이를 위해, 상기 제 2 검출장치(20)는 도 3에 도시된 바와 같이, 신호 송수신부(21), 제 2 검출 모듈(22), 제 2 위치 추적 모듈(23) 및 제 2 처리부(24)를 포함할 수 있다.To this end, as shown in FIG. 3, the
상기 신호 송수신부(21)는 제 1 감시 영역(S2)에 대해 신호(레이저 신호 혹은 전파 신호)를 송신하고, 물체에 의해 반사되어 되돌아오는 신호(‘반사 신호’)를 수신한다.The signal transmission/
상기 제 2 검출 모듈(22)은 신호 송수신부(21)에 의해 수신된 반사 신호에 대한 신호처리를 수행하여 물체를 검출한다.The
상기 제 2 검출 모듈(22)은 반사 신호에 대한 신호처리를 수행하여 물체를 검출하는 한편, 검출된 물체와 관련된 위치 정보, 종류 정보, 반사 강도 정보 등을 생성할 수 있다.The
상기 제 2 위치 추적 모듈(23)은 제 2 검출 모듈(22)에 의해 검출되는 물체에 대해 위치 추적 알고리즘을 적용하여 물체에 대한 위치 추적을 수행하여 위치 추적 정보를 생성할 수 있다.The second
상기 제 2 처리부(24)는 제 2 검출 모듈(22)로부터의 정보, 제 2 위치 추적 모듈(23)로부터의 정보를 종합하여 제 2 검출정보를 생성 및 제공한다.The
또한, 상기 제 2 처리부(24)는 제 2 검출정보가 어느 정도의 신뢰성이 있는지를 나타내는 제 2 신뢰 지수를 생성하여 제공할 수 있다.In addition, the
예를 들어, 상기 제 2 처리부(24)는 제 2 검출정보에 포함된 물체에 대한 위치 추적을 수행하여, 제 2 검출정보에 포함된 물체에 대한 추적 개수를 도출하고, 도출된 추적 개수(tracking_cnt2)를 제 2 신뢰 지수로 생성할 수 있다.For example, the
이때, 상기 제 2 처리부(24)는 물체 검출에 성공하면 추적 개수(tracking_cnt2)를 1 증가시키고, 물체 검출에 실패하면 추적 개수(tracking_cnt2)를 1 감소시켜 가면서 추적 개수를 설정할 수 있다.At this time, the
예를 들어, 상기 제 2 처리부(24)는 도 5에 도시된 바와 같은 포맷의 제 2 검출 정보를 생성할 수 있으나, 도 5에 도시된 제 2 검출정보에 대한 포맷은 본 발명의 이해를 위한 일 예로서 다양하게 변경될 수 있음은 당연하다.For example, the
도 5를 참조하면, 상기 제 2 처리부(24)는 검출된 물체별 위치 정보를 기초로 하여 제 2 검출정보를 생성할 수 있다.Referring to FIG. 5 , the
또한, 상기 제 2 처리부(24)는 검출된 물체에 대한 신뢰 지수를 제 2 검출정보에 기록할 수 있다.
상기 융합 검출장치(30)는 제 1 검출장치(10)로부터의 제 1 검출정보와 제 1 신뢰 지수, 제 2 검출장치(20)로부터의 제 2 검출정보와 제 2 신뢰 지수를 기반으로, 융합 검출정보를 생성 및 제공할 수 있다.In addition, the
The
혹은, 상기 융합 검출장치(30)는 제 1 검출장치(10)로부터의 제 1 검출정보와, 제 2 검출장치(20)로부터의 제 2 검출정보를 기반으로, 융합 검출정보를 생성 및 제공한다.Alternatively, the
상기 융합 검출장치(30)는 제 1 검출정보를 이용하여 제 1 신뢰 지수를 생성하고, 제 2 검출정보를 이용하여 제 2 신뢰 지수를 생성하고, 제 1 검출정보, 제 1 신뢰 지수, 제 2 검출정보 및 제 2 신뢰 지수를 기반으로, 융합 검출정보를 생성 및 제공할 수 있다.The
삭제delete
상기 융합 검출장치(30)의 구체적인 구성에 대해서는 도 4를 참조하여 후술하도록 한다.A detailed configuration of the
상기 제어 장치(40)는 융합 검출장치(30)로부터의 융합 검출정보를 바탕으로 위험을 판단하고, 판단 결과에 따른 제어 동작(ex, 경보, 브레이크 제어, 조향장치 제어 등)을 수행한다.
The
도 4는 본 발명의 바람직한 실시 예에 따른 센서 융합 기반 물체 검출장치의 융합 검출장치를 도시한 일례의 구성도이다. 4 is a configuration diagram illustrating an example of a fusion detection device of a sensor fusion-based object detection device according to a preferred embodiment of the present invention.
도 4에 도시된 융합 검출장치(400)는 도 1의 융합 검출장치(30)에 적용될 수 있는 것으로서, 상기 융합 검출장치(400)는 제 1 검출장치(10)로부터의 제 1 검출정보와 제 1 신뢰 지수, 및 제 2 검출장치(20)로부터의 제 2 검출정보와 제 2 신뢰 지수를 바탕으로 물체 검출에 대한 최종 판단을 하고, 융합 검출정보를 생성할 수 있다.
혹은, 융합 검출장치(400)는 제 1 검출장치(10)로부터의 제 1 검출정보와 제 2 검출장치(20)로부터의 제 2 검출정보를 바탕으로 제 1 신뢰 지수와 제 2 신뢰 지수를 생성하고, 제 1 및 제 2 검출정보와, 제 1 및 제 2 신뢰 지수를 바탕으로 물체 검출에 대한 최종 판단을 하고, 융합 검출정보를 생성할 수 있다.The
Alternatively, the
삭제delete
이때, 상기 융합 검출장치(400)는 제 1 신뢰 지수와 제 2 신뢰 지수를 바탕으로 통합 신뢰지수를 생성하고, 통합 신뢰지수를 물체 검출에 대한 최종 판단에 이용할 수 있다.In this case, the
구체적으로, 상기 융합 검출장치(400)는 수신부(410), 신뢰지수 생성부(420), 통합부(430), 검출부(440), 추적부(450) 및 제어부(460)를 포함할 수 있다.Specifically, the
상기 수신부(410)는 제 1 검출장치(10)로부터의 제 1 검출정보 및 제 2 검출장치(20)로부터의 제 2 검출정보를 수신한다.The
이에 더하여, 상기 수신부(410)는 제 1 검출장치(10)로부터의 제 1 신뢰 지수 및 제 2 검출장치(20)로부터의 제 2 신뢰 지수를 추가적으로 수신할 수 있다.In addition, the receiving
상기 신뢰지수 생성부(420)는 수신부(410)로부터의 제 1 검출정보를 바탕으로 제 1 검출정보에 대한 제 1 신뢰 지수를 생성하고, 수신부(410)로부터의 제 2 검출정보를 바탕으로 제 2 검출정보에 대한 제 2 신뢰 지수를 생성할 수 있다.The
예를 들어, 상기 신뢰지수 생성부(420)는 제 1 및 제 2 검출정보에 포함된 물체에 대한 위치 추적을 수행하여, 제 1 검출정보에 포함된 물체에 대한 추적 개수(tracking_cnt1)와 제 2 검출정보에 포함된 물체에 대한 추적 개수(tracking_cnt2)를 도출하고, 도출된 정보(tracking_cnt2, tracking_cnt2)를 제 1 및 제 2 신뢰 지수로 할 수 있다.For example, the reliability
이때, 상기 신뢰지수 생성부(420)는 물체 검출에 성공하면 추적 개수(tracking_cnt)를 1 증가시키고, 물체 검출에 실패하면 추적 개수(tracking_cnt)를 1 감소시켜 가면서 추적 개수를 설정할 수 있다.In this case, the reliability
다른 예로, 상기 신뢰지수 생성부(420)는 제 1 및 제 2 검출정보를 이용하여 검출영역을 파악하고, 지수 영역을 설정하고, 지수 영역에 대한 신뢰 지수를 계산할 수 있다.As another example, the reliability
이때, 지수 영역은 물체의 이동성 정보(ex, 속도, 방향 등)에 기반하여 설정될 수 있다.At this time, the index area may be set based on the object's mobility information (eg, speed, direction, etc.).
또한, 영상 기반 검출장치에 의해 생성된 검출정보인 경우, 신뢰 지수는 지수 영역의 히스토그램 분포도를 바탕으로 계산될 수 있으며, 딥러닝 기반의 검출정보인 경우에는 딥러닝 부분에서 제공하는 검출 확룔정보를 바탕으로 계산될 수 있다.In addition, in the case of detection information generated by an image-based detection device, the reliability index can be calculated based on the histogram distribution of the exponential area, and in the case of deep learning-based detection information, the detection confirmation information provided by the deep learning part can be calculated based on
그리고, 라이다(lidar) 기반 검출장치에 의해 생성된 검출정보인 경우에 대해서는, 신뢰 지수는 지수 영역의 거리의 분산값 혹은 지수 영역 내 반사계수의 크기로 설정될 수 있다.And, in the case of detection information generated by a lidar-based detection device, the reliability index may be set to a variance value of a distance in an index region or a size of a reflection coefficient in an index region.
상기 통합부(430)는 입력되는 정보들인 제 1 검출정보, 제 1 신뢰 지수, 제 2 검출정보 및 제 2 신뢰 지수를 바탕으로 통합 정보를 생성한다.The
실시 예에 따라, 상기 통합부(430)는 수신부(410)로부터의 제 1 검출정보, 제 1 신뢰 지수, 제 2 검출정보 및 제 2 신뢰 지수를 바탕으로 통합 정보를 생성할 수 있다.Depending on the embodiment, the
실시 예에 따라, 상기 통합부(430)는 수신부(410)로부터의 제 1 및 제 2 검출정보와 신뢰지수 설정부(420)로부터의 제 1 및 제 2 신뢰 지수를 바탕으로 통합 정보를 생성할 수 있다.Depending on the embodiment, the
상기 통합부(430)는 예를 들어 도 6에 도시된 바와 같은 포맷의 통합 정보를 생성할 수 있다.The
다만, 도 6에 도시된 통합 정보의 포맷은 본 발명의 이해를 위한 일 예로서 다양하게 변경될 수 있음은 당연하다.However, it is natural that the format of integrated information shown in FIG. 6 can be variously changed as an example for understanding the present invention.
도 6을 참조하면, 상기 통합부(430)는 제 1 및 제 2 검출정보에 포함되어 있는 물체별 위치 정보를 기초로 하여, 검출된 물체에 대한 통합 정보를 생성할 수 있다.Referring to FIG. 6 , the
또한, 상기 통합부(430)는 통합 정보에 포함된 물체에 대해 타입을 정의하여 기록할 수 있다.Also, the
예를 들어, 상기 통합부(430)는 제 1 및 제 2 검출정보에 모두 포함되어 있는 물체에 대해서는 ‘타입 A’로 정의하고, 제 1 검출정보에는 포함되나 제 2 검출정보에는 포함되지 않는 물체에 대해서는 ‘타입 B’로 정의하고, 제 1 검출정보에는 포함되지 않으나 제 2 검출정보에는 포함되는 물체에 대해서는 ‘타입 C’로 정의하고, 제 1 및 제 2 검출정보에는 포함되지 않으나, 이전 검출정보에는 포함되어 통합 정보에서 관리되던 물체에 대해서는 ‘타입 D’로 정의하도록 구현될 수 있다.For example, the
그리고, 상기 통합부(430)는 검출된 물체에 대한 각각의 신뢰 지수를 통합 정보에 기록할 수 있다.In addition, the
즉, 상기 통합부(430)는 현재 검출된 그리고 이전에 검출된 물체에 대한 위치 정보, 타입 정보 및 신뢰 지수를 포함하는 통합 정보를 생성할 수 있다.That is, the
상기 검출부(440)는 통합부(430)로부터의 통합 정보를 바탕으로 물체 검출에 대한 최종 판단을 하고, 검출된 물체에 대한 융합 검출정보를 생성한다.The
따라서, 상기 융합 검출정보에는 제 1 검출장치(10)에 의해 검출된 물체에 대한 정보 및 제 2 검출장치(20)에 의해 검출된 물체에 대한 정보가 포함되어 있다.Accordingly, the fusion detection information includes information about the object detected by the
그리고, 상기 검출부(440)는 제 1 신뢰 지수 및 제 2 신뢰 지수를 바탕으로 통합 신뢰지수를 생성하고, 통합 신뢰지수를 바탕으로 물체 검출에 대한 최종 판단하여 융합 검출정보를 생성할 수 있다.In addition, the
예를 들어, 상기 검출부(440)는 하기의 수학식 1 혹은 수학식 2 따라 통합 신뢰지수를 산정할 수 있다.For example, the
[수학식 1][Equation 1]
통합 신뢰지수 = 제 1 신뢰 지수 + 제 2 신뢰 지수Integrated Reliability Index = 1st Reliability Index + 2nd Reliability Index
[수학식 2][Equation 2]
통합 신뢰지수 = MAX{제 1 신뢰 지수, 제 2 신뢰 지수}Integrated Reliability Index = MAX{First Reliability Index, Second Reliability Index}
즉, 상기 검출부(440)는 제 1 신뢰 지수와 제 2 신뢰 지수의 합을 통합 신뢰지수로 산정하거나, 제 1 신뢰 지수와 제 2 신뢰 지수 중 높은 신뢰 지수를 통합 신뢰지수로 산정할 수 있다.That is, the
또 다른 예로, 상기 검출부(440)는 하기의 수학식 3에 따라 통합 신뢰지수를 산정할 수 있다.As another example, the
[수학식 3][Equation 3]
통합 신뢰지수 = Integrated Confidence Index =
여기서, tracking_cnt1은 제 1 검출정보 내 물체에 대한 추적 개수로서 검출 성공 회수와 검출 실패 회수의 차이이고, tracking_cnt2는 제 2 검출정보 내 물체에 대한 추적 개수로서 검출 성공 회수와 검출 실패 회수의 차이이고, MAX_CNT는 tracking_cnt1 및 tracking_cnt2의 최대 임계치이다.Here, tracking_cnt1 is the number of tracking objects in the first detection information, which is the difference between the number of successful detection and the number of detection failures, and tracking_cnt2 is the number of tracking objects in the second detection information, which is the difference between the number of successful detection and the number of detection failures, MAX_CNT is the maximum threshold of tracking_cnt1 and tracking_cnt2.
상기 검출부(440)가 수학식 1 혹은 수학식 2에 따라 산정되는 통합 신뢰지수를 바탕으로 물체 검출에 대한 최종 판단을 하는 경우, 통합 신뢰지수가 소정 임계치(ex, 3) 이상이면 해당 물체가 검출된 것으로 판단할 수 있다.When the
그리고, 상기 검출부(440)가 수학식 3에 따라 산정되는 통합 신뢰지수를 바탕으로 물체 검출에 대한 최종 판단을 하는 경우, 통합 신뢰지수가 소정 임계치(ex, 0.5) 이상이면 해당 물체가 검출된 것을 판단할 수 있다.And, when the
상기 추적부(450)는 검출부(440)로부터의 융합 검출정보를 바탕으로, 융합 검출정보에 포함되어 있는 물체별 추적 정보를 생성할 수 있다.The
상기 제어부(460)는 통합 검출부(400)에 대한 전반적인 제어를 수행하는 한편, 검출부(440)로부터의 융합 검출정보 및 추적부(450)로부터의 추정 정보를 수신 및 통합하여 출력한다.
The
이상에서는 본 발명의 바람직한 실시 예에 따른 센서 융합 기반 물체 검출장치의 구성 및 구성별 기능에 대해서 살펴보았다. 이하에서는 본 발명의 바람직한 실시 예에 따른 센서 융합 기반 물체 검출방법에 대해서 설명한다.
In the above, the configuration and functions of each component of the sensor fusion-based object detection device according to a preferred embodiment of the present invention have been reviewed. Hereinafter, a sensor fusion-based object detection method according to a preferred embodiment of the present invention will be described.
도 7은 본 발명의 바람직한 실시 예에 따른 센서 융합 기반 물체 검출장치에 의한 융합 기반 물체 검출방법에 대해서 설명하기 위한 도면이다.7 is a diagram for explaining a fusion-based object detection method using a sensor fusion-based object detection apparatus according to a preferred embodiment of the present invention.
도 7에 도시된 단계별 동작은 도 1 내지 6을 참조하여 살펴본 센서 융합 기반 물체 검출장치(1)에 의해 수행될 수 있는 것으로서, 제 1 검출장치(10)가 제 1 감시 영역(S1) 내 물체를 검출하여 제 1 검출 정보를 생성하고(S700), 제 2 검출장치(20)가 제 2 감시 영역(S2) 내 물체를 검출하여 제 2 검출 정보를 생성한다(S710).The step-by-step operation shown in FIG. 7 can be performed by the sensor fusion-based
물론, 도 1의 센서 융합 기반 물체 검출장치(1)가 더 많은 수의 검출장치를 포함한다면, 단계 S710에서 생성되는 검출 정보는 더 많아질 수 있다.Of course, if the sensor fusion-based
상기 제 1 및 제 2 검출 정보는, 검출된 물체와 관련된 위치 정보, 종류 정보, 위치 추적 정보를 포함할 수 있다.The first and second detection information may include location information, type information, and location tracking information related to the detected object.
이에 더하여, 상기 제 1 검출장치(10)는 제 1 검출 정보 내 물체에 대한 제 1 신뢰 지수를 생성하고, 제 2 검출장치(20)는 제 2 검출 정보 내 물체에 대한 제 2 신뢰 지수를 생성할 수 있다.In addition, the
예를 들어, 상기 제 1 검출장치(10)는 영상 기반 검출장치이고, 제 2 검출장치(20)는 레이다(radar) 기반 검출장치 혹은 라이다(laser radar) 기반 검출장치일 수 있다.For example, the
상기 단계 S710 이후, 융합 검출장치(30)가 제 1 검출 정보와 제 2 검출 정보를 기반으로 융합 검출정보를 생성한다(S720).After the step S710, the
상기 단계 S720 이후, 제어 장치(40)가 융합 검출정보를 바탕으로 위험을 판단하고, 판단 결과에 따른 제어 동작을 수행한다(S730).
After the step S720, the
이상에서 설명한 본 발명의 실시 예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 기능 혹은 모든 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 기록매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.
Even though all components constituting the embodiments of the present invention described above are described as being combined or operated as one, the present invention is not necessarily limited to these embodiments. That is, within the scope of the object of the present invention, all of the components may be selectively combined with one or more to operate. In addition, although all of the components may be implemented as a single independent piece of hardware, some or all of the components are selectively combined to perform some or all of the functions combined in one or a plurality of pieces of hardware. It may be implemented as a computer program having. In addition, such a computer program can implement an embodiment of the present invention by being stored in a computer readable medium such as a USB memory, a CD disk, a flash memory, etc. and read and executed by a computer. A recording medium of a computer program may include a magnetic recording medium, an optical recording medium, a carrier wave medium, and the like.
한편, 본 발명의 센서 융합 기반 물체 검출장치 및 검출방법을 실시 예에 따라 설명하였지만, 본 발명의 범위는 특정 실시 예에 한정되는 것은 아니며, 본 발명과 관련하여 통상의 지식을 가진 자에게 자명한 범위 내에서 여러 가지의 대안, 수정 및 변경하여 실시할 수 있다.On the other hand, although the sensor fusion-based object detection device and detection method of the present invention have been described according to embodiments, the scope of the present invention is not limited to specific embodiments, and will be apparent to those skilled in the art in relation to the present invention. Various alternatives, modifications, and changes can be implemented within the scope.
따라서, 본 발명에 기재된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.
Therefore, the embodiments described in the present invention and the accompanying drawings are not intended to limit the technical idea of the present invention, but to explain, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings. . The protection scope of the present invention should be construed according to the claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.
1 : 센서 융합 기반 물체 검출장치
10 : 제 1 검출장치 11 : 센서
12 : 제 1 검출 모듈 13 : 제 1 위치 추적 모듈
14 : 제 1 처리부 20 : 제 2 검출장치
21 : 신호 송수신부 22 : 제 2 검출 모듈
23 : 제 2 위치 추적 모듈 24 : 제 2 처리부
30, 400 : 융합 검출장치 40 : 제어 장치
410 : 수신부 420 : 신뢰지수 생성부
430 : 통합부 440 : 검출부
450 : 추적부 460 : 제어부1: sensor fusion based object detection device
10: first detection device 11: sensor
12: first detection module 13: first location tracking module
14: first processing unit 20: second detection device
21: signal transmission and reception unit 22: second detection module
23: second location tracking module 24: second processing unit
30, 400: fusion detection device 40: control device
410: receiving unit 420: reliability index generating unit
430: integration unit 440: detection unit
450: tracking unit 460: control unit
Claims (10)
제 2 감시 영역 내 물체를 검출하여 제 2 검출 정보를 생성하는 제 2 검출장치; 및
상기 제 1 검출 정보, 상기 제 1 검출 정보에 대한 제 1 신뢰 지수, 상기 제 2 검출 정보, 및 상기 제 2 검출 정보에 대한 제 2 신뢰 지수에 기초하여 융합 검출정보를 생성하는 융합 검출장치를 포함하고,
상기 제 1 검출장치는 상기 제 1 검출정보에 포함된 물체에 대한 위치 추적을 수행하고, 상기 제 1 검출정보에 포함된 물체에 대한 추적 개수를 도출해서 상기 제 1 신뢰 지수로 생성하고,
상기 제 2 검출장치는 상기 제 2 검출정보에 포함된 물체에 대한 위치 추적을 수행하고, 상기 제 2 검출정보에 포함된 물체에 대한 추적 개수를 도출해서 상기 제 2 신뢰 지수로 생성하고,
상기 제 1 검출장치는 상기 제 1 감시 영역 내 물체를 검출에 성공하면 상기 제 1 신뢰 지수와 연관된 추적 개수를 증가시키고, 상기 제 1 감시 영역 내 물체 검출에 실패하면 상기 제 1 신뢰 지수와 연관된 추적 개수를 감소시켜 가면서 추적 개수를 설정하고,
상기 제 2 검출장치는 상기 제 2 감시 영역 내 물체를 검출에 성공하면 상기 제 2 신뢰 지수와 연관된 추적 개수를 증가시키고, 상기 제 2 감시 영역 내 물체 검출에 실패하면 상기 제 2 신뢰 지수와 연관된 추적 개수를 감소시켜 가면서 추적 개수를 설정하는 것인 센서 융합 기반 물체 검출장치.a first detection device generating first detection information by detecting an object within the first surveillance area;
a second detection device generating second detection information by detecting an object within the second monitoring area; and
A fusion detection device for generating fusion detection information based on the first detection information, a first reliability index for the first detection information, the second detection information, and a second reliability index for the second detection information. do,
The first detection device performs position tracking on an object included in the first detection information, derives the number of tracking objects included in the first detection information, and generates it as the first reliability index;
The second detection device performs location tracking on an object included in the second detection information, derives the number of tracking objects included in the second detection information, and generates it as the second reliability index;
If the first detection device succeeds in detecting an object within the first surveillance area, it increases the number of traces associated with the first reliability index, and if it fails to detect an object within the first surveillance region, the number of traces associated with the first reliability index increases. Set the number of traces while decreasing the number,
If the second detection device succeeds in detecting an object within the second surveillance area, it increases the number of traces associated with the second reliability index, and if it fails to detect an object within the second surveillance area, the number of traces associated with the second reliability index increases. A sensor fusion-based object detection device that sets the tracking number while decreasing the number.
상기 융합 검출장치로부터의 상기 융합 검출정보에 기초하여 위험을 판단하고, 상기 판단의 결과에 따라 제어 동작을 수행하는 제어장치를 더 포함하는 센서 융합 기반 물체 검출장치.According to claim 1,
A sensor fusion-based object detection device further comprising a control device that determines a risk based on the fusion detection information from the fusion detection device and performs a control operation according to a result of the determination.
상기 제 1 검출장치는 영상 기반 검출장치이고, 상기 제 2 검출장치는 레이다(radar) 기반 검출장치 및 라이다(laser radar) 기반 검출장치 중 어느 하나에 해당하는 것인 센서 융합 기반 물체 검출장치.According to claim 1,
The first detection device is an image-based detection device, and the second detection device corresponds to any one of a radar-based detection device and a laser radar-based detection device.
상기 융합 검출장치는 상기 제 1 신뢰 지수 및 제 2 신뢰 지수에 기초하여 생성된 통합 신뢰지수가 소정의 임계치 이상일 때 검출된 물체에 대한 상기 융합 검출정보를 생성하는 것인 센서 융합 기반 물체 검출장치.According to claim 1,
wherein the fusion detection device generates the fusion detection information for the detected object when an integrated reliability index generated based on the first reliability index and the second reliability index is equal to or greater than a predetermined threshold value.
제 2 감시 영역 내 물체를 검출하여 제 2 검출 정보 및 상기 제 2 검출 정보에 대한 제 2 신뢰 지수를 생성하는 단계; 및
생성된 상기 제 1 검출 정보, 제 1 신뢰 지수, 제 2 검출 정보, 및 제 2 신뢰 지수에 기초하여 융합 검출정보를 생성하는 단계를 포함하고,
상기 제 1 검출 정보 내 물체에 대한 제 1 신뢰 지수를 생성하는 단계는 상기 제 1 검출정보에 포함된 물체에 대한 위치 추적을 수행하고, 상기 제 1 검출정보에 포함된 물체에 대한 추적 개수를 도출해서 상기 제 1 신뢰 지수를 생성하는 단계를 포함하고,
상기 제 1 검출정보에 포함된 물체에 대한 추적 개수를 도출해서 상기 제 1 신뢰 지수를 생성하는 단계는 상기 제 1 감시 영역 내 물체를 검출에 성공하면 상기 제 1 신뢰 지수와 연관된 추적 개수를 증가시키고, 상기 제 1 감시 영역 내 물체 검출에 실패하면 상기 제 1 신뢰 지수와 연관된 추적 개수를 감소시켜 가면서 추적 개수를 도출하는 단계를 포함하고,
상기 제 2 검출 정보 내 물체에 대한 제 2 신뢰 지수를 생성하는 단계는 상기 제 2 검출정보에 포함된 물체에 대한 위치 추적을 수행하고, 상기 제 2 검출정보에 포함된 물체에 대한 추적 개수를 도출해서 상기 제 2 신뢰 지수를 생성하는 단계를 포함하고,
상기 제 2 검출정보에 포함된 물체에 대한 추적 개수를 도출해서 상기 제 2 신뢰 지수를 생성하는 단계는 상기 제 2 감시 영역 내 물체를 검출에 성공하면 상기 제 2 신뢰 지수와 연관된 추적 개수를 증가시키고, 상기 제 2 감시 영역 내 물체 검출에 실패하면 상기 제 2 신뢰 지수와 연관된 추적 개수를 감소시켜 가면서 추적 개수를 도출하는 단계를 포함하는
센서 융합 기반 물체 검출방법.generating first detection information and a first reliability index for the first detection information by detecting an object within a first monitoring area;
generating second detection information and a second reliability index for the second detection information by detecting an object within a second monitoring area; and
Generating fusion detection information based on the generated first detection information, first reliability index, second detection information, and second reliability index,
Generating a first reliability index for an object in the first detection information may include tracking the location of an object included in the first detection information and deriving the number of tracking objects included in the first detection information. And generating the first reliability index by doing so,
Deriving the number of traces of the object included in the first detection information and generating the first reliability index increases the number of traces associated with the first reliability index when the object within the first monitoring area is successfully detected. , deriving the number of traces while decreasing the number of traces associated with the first reliability index when the object detection in the first surveillance area fails,
Generating a second reliability index for an object in the second detection information may include tracking the location of an object included in the second detection information and deriving the number of tracking objects included in the second detection information. And generating the second reliability index by doing so,
In the step of generating the second reliability index by deriving the number of traces of the object included in the second detection information, the number of traces associated with the second reliability index is increased if the object within the second surveillance area is successfully detected. , deriving the number of traces while decreasing the number of traces associated with the second reliability index when the detection of an object within the second surveillance area fails.
Sensor fusion based object detection method.
생성된 상기 융합 검출정보에 기초하여 위험을 판단하고, 판단된 상기 위험에 기초해서 제어 동작을 수행하는 단계를 더 포함하는 센서 융합 기반 물체 검출방법.According to claim 6,
The sensor fusion-based object detection method further comprising determining danger based on the generated fusion detection information and performing a control operation based on the determined danger.
상기 생성된 상기 제 1 검출 정보, 제 1 신뢰 지수, 제 2 검출 정보, 및 제 2 신뢰 지수에 기초하여 융합 검출정보를 생성하는 단계는
생성된 상기 제 1 신뢰 지수 및 제 2 신뢰 지수에 기초하여 통합 신뢰지수를 생성하는 단계; 및
생성된 상기 통합 신뢰지수가 소정의 임계치 이상일 때 검출된 물체에 대한 상기 융합 검출정보를 생성하는 단계를 포함하는 것인 센서 융합 기반 물체 검출방법.According to claim 6,
Generating fusion detection information based on the generated first detection information, first reliability index, second detection information, and second reliability index
generating an integrated reliability index based on the generated first and second reliability scores; and
and generating the fusion detection information for the detected object when the generated integrated reliability index is greater than or equal to a predetermined threshold value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180113415A KR102535590B1 (en) | 2018-09-21 | 2018-09-21 | Object detection apparatus and method based on sensor fusion |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180113415A KR102535590B1 (en) | 2018-09-21 | 2018-09-21 | Object detection apparatus and method based on sensor fusion |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200034118A KR20200034118A (en) | 2020-03-31 |
KR102535590B1 true KR102535590B1 (en) | 2023-05-23 |
Family
ID=70002564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180113415A KR102535590B1 (en) | 2018-09-21 | 2018-09-21 | Object detection apparatus and method based on sensor fusion |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102535590B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101848312B1 (en) | 2017-03-28 | 2018-04-13 | (주) 모토텍 | Sensor fusion system for autonomous emergency braking system in car |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101644370B1 (en) * | 2014-10-23 | 2016-08-01 | 현대모비스 주식회사 | Object detecting apparatus, and method for operating the same |
KR101875922B1 (en) * | 2015-12-28 | 2018-08-02 | 자동차부품연구원 | Apparatus for controlling autonomous emergency braking system and method thereof |
KR20170119059A (en) * | 2016-04-18 | 2017-10-26 | 현대자동차주식회사 | Sensor convergence system in autonomous emergency braking |
-
2018
- 2018-09-21 KR KR1020180113415A patent/KR102535590B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101848312B1 (en) | 2017-03-28 | 2018-04-13 | (주) 모토텍 | Sensor fusion system for autonomous emergency braking system in car |
Also Published As
Publication number | Publication date |
---|---|
KR20200034118A (en) | 2020-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7222854B2 (en) | Relative position and orientation determination method, apparatus, equipment and medium | |
US8471692B2 (en) | Driving support system, driving support apparatus, method, and computer-readable medium | |
US10688927B2 (en) | Intelligent ultrasonic system and rear collision warning apparatus for vehicle | |
JP2018530825A (en) | System and method for non-obstacle area detection | |
KR102569900B1 (en) | Apparatus and method for performing omnidirectional sensor-fusion and vehicle including the same | |
CN110874925A (en) | Intelligent road side unit and control method thereof | |
US11126875B2 (en) | Method and device of multi-focal sensing of an obstacle and non-volatile computer-readable storage medium | |
US20130265175A1 (en) | Parking control apparatus and method for providing an alarm thereof | |
JP2018072105A (en) | Object detection device | |
WO2017122086A1 (en) | Systems and methods for augmenting upright object detection | |
KR102428660B1 (en) | Vehicle and control method for the same | |
CN113743228B (en) | Obstacle existence detection method and device based on multi-data fusion result | |
KR20140124145A (en) | Apparatus and Method for compensating installment angle of multi radar for vehicle | |
KR102535590B1 (en) | Object detection apparatus and method based on sensor fusion | |
JPWO2018220784A1 (en) | Object detection apparatus, object detection method, and object detection program | |
KR102504225B1 (en) | Apparatus and method for calculating distance between vehicles using 3-channel camera | |
KR101197865B1 (en) | Method and apparatus for recognizing parking space | |
JP2022537557A (en) | Method and apparatus for determining drivable area information | |
KR102132115B1 (en) | Method and Apparatus for Relative Vehicle State Estimation with V2V and Radar | |
US20210065553A1 (en) | Information processing device, information processing method, and computer readable medium | |
KR20120035325A (en) | Method and system for avoiding pedestrian collision | |
EP3217357B1 (en) | Estimation of movement of a target object | |
US11027732B2 (en) | Apparatus and method for controlling reverse driving | |
KR102075831B1 (en) | Method and Apparatus for Object Matching between V2V and Radar Sensor | |
US20200225342A1 (en) | Object recognition device and object recognition method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |