KR101813790B1 - Apparatus and Method for multi-sensor information fusion based on feature information - Google Patents

Apparatus and Method for multi-sensor information fusion based on feature information Download PDF

Info

Publication number
KR101813790B1
KR101813790B1 KR1020160045486A KR20160045486A KR101813790B1 KR 101813790 B1 KR101813790 B1 KR 101813790B1 KR 1020160045486 A KR1020160045486 A KR 1020160045486A KR 20160045486 A KR20160045486 A KR 20160045486A KR 101813790 B1 KR101813790 B1 KR 101813790B1
Authority
KR
South Korea
Prior art keywords
target
information
sensor
feature information
position information
Prior art date
Application number
KR1020160045486A
Other languages
Korean (ko)
Other versions
KR20170117723A (en
Inventor
김창재
권보준
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020160045486A priority Critical patent/KR101813790B1/en
Publication of KR20170117723A publication Critical patent/KR20170117723A/en
Application granted granted Critical
Publication of KR101813790B1 publication Critical patent/KR101813790B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63GOFFENSIVE OR DEFENSIVE ARRANGEMENTS ON VESSELS; MINE-LAYING; MINE-SWEEPING; SUBMARINES; AIRCRAFT CARRIERS
    • B63G9/00Other offensive or defensive arrangements on vessels against submarines, torpedoes, or mines
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/74Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems
    • G01S13/76Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems wherein pulse-type signals are transmitted
    • G01S13/78Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems wherein pulse-type signals are transmitted discriminating between different kinds of targets, e.g. IFF-radar, i.e. identification of friend or foe
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63GOFFENSIVE OR DEFENSIVE ARRANGEMENTS ON VESSELS; MINE-LAYING; MINE-SWEEPING; SUBMARINES; AIRCRAFT CARRIERS
    • B63G1/00Arrangements of guns or missile launchers; Vessels characterised thereby
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63GOFFENSIVE OR DEFENSIVE ARRANGEMENTS ON VESSELS; MINE-LAYING; MINE-SWEEPING; SUBMARINES; AIRCRAFT CARRIERS
    • B63G13/00Other offensive or defensive arrangements on vessels; Vessels characterised thereby
    • B64D2700/62184
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

본 발명은 표적의 특징 정보를 이용하여 표적을 추적하는 기술에 관한 것으로서, 보다 상세하게는 센서가 측정하는 표적의 거리, 각도등과 같은 표적의 위치 정보뿐만 아니라 표적의 크기, 표적의 밝기 등과 같은 특징 정보를 이용함으로써 표적 주변에 표적과 유사하거나 더 강한 신호를 내는 기만체가 존재하는 상황에서 표적과 기만체를 식별하고 표적을 추적하는 방법 및 장치에 관한 것이다.The present invention relates to a technique of tracking a target using feature information of a target, and more particularly, to a technique of tracking a target using characteristic information of a target, such as a target size, And more particularly, to a method and apparatus for identifying a target and a defacement object and tracking the target in a situation in which there is a deaf object that gives a similar or stronger signal to the target around the target by using the feature information.

Description

특징 기반 다중 센서 정보 융합 장치 및 방법{Apparatus and Method for multi-sensor information fusion based on feature information}TECHNICAL FIELD [0001] The present invention relates to a multi-sensor information fusion apparatus,

본 발명은 표적의 특징 정보를 이용하여 표적을 추적하는 기술에 관한 것으로서, 보다 상세하게는 센서가 측정하는 표적의 거리, 각도등과 같은 표적의 위치 정보뿐만 아니라 표적의 크기, 표적의 밝기 등과 같은 특징 정보를 이용함으로써 표적 주변에 표적과 유사하거나 더 강한 신호를 내는 기만체가 존재하는 상황에서 표적과 기만체를 식별하고 표적을 추적하는 방법 및 장치에 관한 것이다.The present invention relates to a technique of tracking a target using feature information of a target, and more particularly, to a technique of tracking a target using characteristic information of a target, such as a target size, And more particularly, to a method and apparatus for identifying a target and a defacement object and tracking the target in a situation in which there is a deaf object that gives a similar or stronger signal to the target around the target by using the feature information.

함정 및/또는 전투기는 위협으로부터 자신의 생존성을 향상시키기 위하여 능동형 마이크로파 센서를 기만하기 위한 채프, 적외선 센서를 기만하기 위한 플레어와 같은 다양한 형태의 기만체를 운용한다. 또한 채프와 플레어를 동시에 운용하는 복합 기만체를 운용하기도 한다. Traps and / or fighters operate various forms of dexterity such as chaff to deceive active microwave sensors and flare to deceive infrared sensors to enhance their survivability from threats. In addition, it also manages a compound device that operates chaff and flare at the same time.

기만체는 표적에 아주 가까이 그리고 더 큰 신호의 세기로 운용되기 때문에 표적의 위치정보(거리, 각도)만을 이용하는 다중센서 정보융합 방법으로는 표적과 기만체를 효과적으로 구분할 수 없다.Because the dexterity is operated with a very close and larger signal intensity to the target, the multi-sensor information fusion method using only the position information (distance, angle) of the target can not effectively distinguish the target from the dexterity.

1. 한국등록특허번호 제 10-1051716호(2011.07.19)1. Korean Registered Patent No. 10-1051716 (July 19, 2011)

1. 나정현, "위치 추정을 위한 영상 특징점 정보 검출 방법"조선대학교 2013년 1. Nah, JH, "Image minutia information detection method for position estimation" Chosun University 2013 2. 한두희외, "클러터 환경에서 다중센서 정보융합을 통한 유도성능 개선 연구"제어ㅇ로봇ㅇ시스템학회논문지 제16권 제2호 (2010년 2월) pp.177-187 2. Han, Doohee, et al., "Improvement of Induction Performance by Multi-sensor Information Fusion in Clutter Environment" Control ㅇ Robot ㅇ Systems Journal Vol 16 No.2 (Feb. 2010) pp.177-187

본 발명은 위 배경기술에 따른 문제점을 해소하기 위해 제안된 것으로서, 표적 주변에 다양한 형태의 기만체가 운용되는 상황에서도 표적과 기만체를 식별하여 안정적으로 표적을 추적할 수 있는 특징 기반 다중 센서 정보 융합 장치 및 방법을 제공하는 데 그 목적이 있다.The present invention has been proposed in order to solve the problems according to the above background art, and it is an object of the present invention to provide a multi-sensor information fusion system capable of tracking a target in a stable manner by identifying a target and a defacement even in the case where various types of de- And an object of the present invention is to provide an apparatus and a method.

본 발명은 위에서 제시된 과제를 달성하기 위해, 표적 주변에 다양한 형태의 기만체가 운용되는 상황에서도 표적과 기만체를 식별하여 안정적으로 표적을 추적할 수 있는 특징 기반 다중 센서 정보 융합 장치를 제공한다.The present invention provides a feature-based multi-sensor information fusion device capable of reliably tracking a target by identifying a target and a defacement even in the case where various types of dexterous objects are operated around the target.

상기 다중 센서 정보 융합 장치는,The multi-sensor information fusion apparatus includes:

표적에 대한 위치 정보를 갖는 표적 위치 정보 및 상기 표적에 대한 특징점을 갖는 표적 특징 정보를 생성하는 다수의 센싱부; 및A plurality of sensing units for generating target position information having positional information on a target and target characteristic information having a characteristic point for the target; And

상기 표적 위치 정보 및 표적 특징 정보를 입력받고, 상기 표적 위치 정보 및 표적 특징 정보 중 미리 설정되는 표적 유효 영역내에 있는 표적 위치 정보 및 표적 특징 정보만을 통해 상기 표적에 가까운 측정치들을 선택하고, 선택된 측정치들을 이용하여 다음 시간대의 표적 예측 중심점을 산출하여 정보 융합 필터를 갱신하는 데이터 처리기;를 포함하는 것을 특징으로 한다.The target position information and the target feature information, selects the measurement values closest to the target only through the target position information and the target feature information within the target effective area set in advance among the target position information and the target feature information, And a data processor for calculating a target predicted center point in the next time zone using the information fusion filter to update the information fusion filter.

이때, 상기 표적 위치 정보는 상기 표적의 거리, 각도, 및 SNR(Signal To Noise Ratio: 신호대 잡음비) 중 적어도 어느 하나 이상인 것을 특징으로 할 수 있다.In this case, the target location information may be at least one of a distance, an angle, and a signal to noise ratio (SNR) of the target.

또한, 상기 표적 특징 정보는 상기 표적의 크기, 형상, 밝기 중 적어도 어느 하나 이상인 것을 특징으로 할 수 있다.The target feature information may be at least one of a size, a shape, and a brightness of the target.

또한, 상기 데이터 처리기는, 상기 표적 위치 정보 및 표적 특징 정보를 이용하여 표적을 식별하는 표적 식별부; 및 상기 측정치들 중 하나의 중심 예측치를 산출하며, 상기 하나의 중심 예측치로부터의 거리에 따라 차이를 두고 상기 측정치들에 가중치를 적용하고, 적용 결과 산출되는 가장 큰 가중치를 갖는 측정치를 이용하여 정보 융합 필터를 갱신하고 갱신된 정보 융합 필터를 통해 다음 시간대의 표적 예측 중심점을 추정하여 상기 다수의 센싱부에 대한 운용 모드 및 상기 표적 유효 영역의 크기를 변경하는 추적창 제어를 통해 표적 추적을 수행하는 다중 센서 정보 융합 필터부;를 포함하는 것을 특징으로 할 수 있다.The data processor may further include: a target identifying unit that identifies a target using the target location information and the target feature information; And applying a weight to the measurements with a difference according to the distance from the one central predictor and using a measure having the largest weight calculated as a result of the application, A target tracking unit for tracking a target through a tracking window control for updating a filter and estimating a target prediction center point of a next time zone through an updated information fusion filter to change an operation mode for the plurality of sensing units and a size of the target effective area, And a sensor information fusion filter unit.

또한, 상기 표적 식별부는, 상기 표적 위치 정보 및 표적 특징 정보를 항법 좌표계로 변환하여 상기 표적이 표적 유효영역 내에 존재하는 지를 판단하는 것을 특징으로 할 수 있다.The target identifying unit may convert the target position information and the target feature information into a navigation coordinate system to determine whether the target exists within the target effective area.

또한, 상기 다수의 센싱부는 제 1 센서 및 제 2 센서로 이루어지며, 상기 제 1 센서는 적외선/가시광선 센서이고, 상기 제 2 센서는 마이크로파 센서이며, 상기 적외선/가시광선 센서의 위치정보는 각도이고, 상기 적외선/가시광선 센서의 특징정보는 표적의 가로, 세로 크기, 표적의 밝기이며, 상기 마이크로 센서의 위치정보는 거리와 각도이고, 상기 마이크로 센서의 특징정보는 표적의 길이, 높이인 것을 특징으로 할 수 있다.The plurality of sensing units may include a first sensor and a second sensor, wherein the first sensor is an infrared ray / visible ray sensor, the second sensor is a microwave sensor, and the position information of the infrared ray / And the feature information of the infrared / visible light sensor is a width, a length, and a brightness of a target, the position information of the micro sensor is a distance and an angle, and the feature information of the micro sensor is a length and height of a target .

또한, 상기 정보 융합은 상기 데이터 처리기에 입력되는 상기 표적 위치 정보 및 표적 특징 정보를 타임 스탬프 순서대로 정렬하여 시간순으로 처리되는 것을 특징으로 할 수 있다.The information fusion may be performed in order of the target position information and the target feature information, which are input to the data processor, in a time stamp order.

다른 한편으로, 본 발명의 다른 일실시예는, 다수의 센싱부가 표적에 대한 위치 정보를 갖는 표적 위치 정보 및 상기 표적에 대한 특징점을 갖는 표적 특징 정보를 생성하는 단계; 데이터 처리기가 상기 표적 위치 정보 및 표적 특징 정보를 입력받는 단계; 상기 데이터 처리기가 입력받은 상기 표적 위치 정보 및 표적 특징 정보 중 미리 설정되는 표적 유효 영역내에 있는 표적 위치 정보 및 표적 특징 정보만을 선택하는 단계; 상기 데이터 처리가 상기 미리 설정되는 표적 유효 영역내에 있는 표적 위치 정보 및 표적 특징 정보만을 이용하여 상기 표적에 가까운 측정치들을 선택하는 단계; 및 상기 데이터 처리기가 선택된 측정치들을 이용하여 정보 융합 필터를 갱신하는 단계;를 포함하는 것을 특징으로 하는 특징 기반 다중 센서 정보 융합 방법을 제공할 수 있다.On the other hand, another embodiment of the present invention provides a method of generating target position information, the method comprising: generating target position information having position information for a plurality of sensing unit targets and target feature information having characteristic points for the target; The data processor receiving the target position information and the target feature information; Selecting only the target location information and the target feature information in the target valid area that is set in advance among the target location information and the target feature information received by the data processor; Selecting the measurements closest to the target using only the target location information and the target feature information that are within the predetermined target effective area; And a step of the data processor updating the information fusion filter using the selected measurement values.

본 발명에 따르면, 종래의 표적 위치 정보 기반의 표적추적 방법에 표적의 특징정보를 이용하는 방법을 추가하여 각 센서의 표적 위치정보뿐만 아니라 표적의 크기, 세기 및/또는 밝기 등과 같은 특징정보를 이용함으로써 표적 가까이 다양한 형태의 기만체가 운용되는 상황에서 표적과 기만체를 식별하여 표적을 안정적으로 추적할 수 있다.According to the present invention, a method of using target feature information is added to a conventional target position-based target tracking method to use not only target position information of each sensor but also feature information such as size, intensity, and / A target can be stably traced by identifying the target and the deceit in situations where various forms of dexterity are operated near the target.

또한, 본 발명의 다른 효과로서는 이러한 안정적인 추적을 통해 표적 추적 성능을 향상시킬 수 있다는 점을 들 수 있다. Another advantage of the present invention is that the target tracking performance can be improved through such stable tracking.

도 1은 본 발명의 일실시예에 따른 특징 기반 다중 센서 정보 융합 장치의 구성도이다.
도 2는 본 발명의 다른 일실시예에 따른 다중 센서 정보 융합 처리 과정을 설명하기 위한 흐름도이다.
도 3은 본 발명의 또 다른 일실시예에 따른 다중 센서 정보 융합 시간 정렬을 설명하기 위한 개념도이다.
1 is a configuration diagram of a feature-based multi-sensor information fusion device according to an embodiment of the present invention.
FIG. 2 is a flowchart illustrating a multi-sensor information fusion process according to another embodiment of the present invention.
FIG. 3 is a conceptual diagram for explaining multi-sensor information fusion time alignment according to another embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 구체적으로 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용한다.Like reference numerals are used for similar elements in describing each drawing.

제 1, 제 2등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. "및/또는" 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. The term "and / or" includes any combination of a plurality of related listed items or any of a plurality of related listed items.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Should not.

이하 첨부된 도면을 참조하여 본 발명의 일실시예에 따른 특징 기반 다중 센서 정보 융합 장치 및 방법을 상세하게 설명하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a feature-based multi-sensor information fusion apparatus and method according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 특징 기반 다중 센서 정보 융합 장치의 구성도이다. 도 1을 참조하면, 다중센서 정보융합 처리를 위한 특징 기반 다중 센서 정보 융합 장치(100)는 표적(미도시)에 대한 표적 위치 정보, 표적 특징 정보 등을 측정하는 제 1 및 제 2 센싱부(110-1,110-2), 이들 표적 위치 정보, 표적 특징 정보 등을 입력받아 정보 융합을 수행하는 데이터 처리기(120) 등으로 구성된다. 여기서, 표적 위치 정보는 상기 표적의 거리, 각도, 및 SNR(Signal to Noise Ratio) 등이 될 수 있다. 또한, 표적 특징 정보는 상기 표적의 크기, 형상, 밝기 등이 될 수 있다.1 is a configuration diagram of a feature-based multi-sensor information fusion device according to an embodiment of the present invention. Referring to FIG. 1, a feature-based multiple sensor information fusion apparatus 100 for multi-sensor information fusion processing includes first and second sensing units (not shown) for measuring target position information, 110-1 and 110-2, a data processor 120 for receiving the target position information and the target feature information, and performing information fusion. Here, the target position information may be a distance, an angle, and a signal to noise ratio (SNR) of the target. Also, the target feature information may be the size, shape, brightness, etc. of the target.

제 1 및 제 2 센싱부(110-1,110-2)는 표적(미도시)을 검출하여 이 표적(미도시)에 대한 위치를 갖는 표적 위치 정보, 표적에 대한 특징점들을 갖는 표적 특징 정보를 생성한다.The first and second sensing units 110-1 and 110-2 detect the target (not shown) and generate target feature information having the target position information having the position for the target (not shown) and the target feature points .

부연하면, 제 1 센싱부(110-1)는 표적의 위치 및/또는 특징점들을 검출하는 제 1 센서(111-1), 검출된 위치 및/또는 특징점들을 디지털 신호로 처리하는 제 1 신호 처리기(112-1) 등으로 구성된다. 이러한 위치, 특징점들을 생성하기 위해 제 1 센서(111-1)는 적외선 센서, 가시광 센서, 조도 센서, 각도 센서, 온도 센서, 마이크로퍼 센서 등으로 구성될 수 있다. In addition, the first sensing unit 110-1 includes a first sensor 111-1 for detecting the position and / or the characteristic points of the target, a first signal processor (for example, a first sensor 111-1 for processing the detected position and / 112-1). The first sensor 111-1 may be an infrared sensor, a visible light sensor, an illuminance sensor, an angle sensor, a temperature sensor, a microper sensor, or the like, in order to generate such positions and minutiae.

제 1 신호 처리기(112-1)는 제 1 센서(111-1)를 통해 측정되는 아날로그의 측정 정보를 디지털 측정 정보로 변환하는 기능을 수행한다. 이를 위해 제 1 신호 처리기(112-1)에는 DSP(Digital Signal Processor), 메모리 등이 구성될 수 있다. 메모리는 제 1 신호 처리기(112-1) 내에 구비되는 메모리일 수 있고, 별도의 메모리가 될 수 있다. 따라서 플래시 메모리 디스크(SSD: Solid State Disk), 하드 디스크 드라이브, 플래시 메모리, EEPROM(Electrically erasable programmable read-only memory), SRAM(Static RAM), FRAM (Ferro-electric RAM), PRAM (Phase-change RAM), MRAM(Magnetic RAM) 등과 같은 비휘발성 메모리 및/또는 DRAM(Dynamic Random Access Memory), SDRAM(Synchronous Dynamic Random Access Memory), DDR-SDRAM(Double Date Rate-SDRAM) 등과 같은 휘발성 메모리의 조합으로 구성될 수 있다.The first signal processor 112-1 performs a function of converting analog measurement information measured through the first sensor 111-1 into digital measurement information. For this purpose, a DSP (Digital Signal Processor), a memory, and the like may be configured in the first signal processor 112-1. The memory may be a memory provided in the first signal processor 112-1 or may be a separate memory. Accordingly, a flash memory (SSD), a hard disk drive, a flash memory, an electrically erasable programmable read-only memory (EEPROM), a static random access memory (SRAM), a ferro- Volatile memory such as a magnetic random access memory (MRAM) and / or a volatile memory such as a dynamic random access memory (DRAM), a synchronous dynamic random access memory (SDRAM), or a double date rate (SDRAM) .

제 2 센싱부(110-2)도 제 1 센싱부(110-1)와 유사하게 제 2 센서(111-2) 및 제 2 신호 처리기(112-2)로 구성된다. 제 2 센서(111-2)는 위치, 특징점들을 생성하기 위해 적외선 센서, 가시광 센서, 조도 센서, 각도 센서, 온도 센서, 마이크로퍼 센서 등으로 구성될 수 있다. 제 2 신호 처리기(112-2)는 제 2 센서(111-2)에 의해 생성되는 아날로그의 측정 정보를 디지털 측정 정보로 변환하는 기능을 수행한다.Similarly to the first sensing unit 110-1, the second sensing unit 110-2 includes a second sensor 111-2 and a second signal processor 112-2. The second sensor 111-2 may be an infrared sensor, a visible light sensor, an illuminance sensor, an angle sensor, a temperature sensor, a microper sensor, or the like, in order to generate position and characteristic points. The second signal processor 112-2 performs a function of converting analog measurement information generated by the second sensor 111-2 into digital measurement information.

물론, 도 1에서는 이해를 위해 2개의 제 1 및 제 2 센싱부(110-1,110-2)를 도시하였으나, 이에 한정되는 것은 아니며 2개 이상의 센싱부로 구성될 수 있다. Although two first and second sensing units 110-1 and 110-2 are illustrated in FIG. 1 for the sake of understanding, the present invention is not limited thereto and may include two or more sensing units.

데이터 처리기(120)는 제 1 및 제 2 센싱부(110-1,110-2)에 의해 생성되는 표적 위치 정보 및/또는 표적 특징 정보를 입력받아 정보융합을 수행한다. 이러한 정보융합을 보여주는 도면이 도 2에 도시된다. 도 2에 대하여는 후술하기로 한다.The data processor 120 receives the target position information and / or the target feature information generated by the first and second sensing units 110-1 and 110-2 and performs information fusion. A diagram showing this information fusion is shown in FIG. 2 will be described later.

도 1을 계속 참조하면, 데이터 처리기(120)는 표적 위치 정보 및/또는 표적 특징 정보를 이용하여 표적을 식별하는 표적 식별부(121)와 식별된 표적에 가까운 표적 위치 정보 및 표적 특징 정보를 이용하여 하나의 중심 예측치를 산출하며, 이 하나의 중심 예측치를 기준으로 일정한 경계(boundary)인 미리 설정되는 표적 유효영역(validation gate)내 다수의 측정치들에 중심 예측치로부터의 거리에 따라 차이를 두고 가중치를 주에 가장 큰 가중치를 이용하여 정보융합 필터를 갱신하여 상기 다수의 센싱부(110-1,110-2)에 대한 운용 모드 및 추적창 제어를 통해 표적 추적을 수행하는 다중 센서 정보 융합 필터부(122) 등을 포함하여 구성된다. 여기서, 운용 모드는 제 1 및 제 2 센서(111-1,111-2)의 운용 모드가 되며, 다중 센서 정보 융합 필터부(1220)에 의해 변경된다.With continued reference to Figure 1, the data processor 120 uses the target location information and / or the target feature information to identify the target and the target location information and the target feature information close to the identified target using the target location information and / A plurality of measured values in a predetermined target validation gate having a predetermined boundary with respect to the one central predicted value are divided by a distance from the center predicted value, A multi-sensor information fusion filter unit 122 for performing target tracking through an operation mode and a tracking window control for the plurality of sensing units 110-1 and 110-2 by updating the information fusion filter using the largest weight in the week And the like. Here, the operation mode becomes an operation mode of the first and second sensors 111-1 and 111-2, and is changed by the multiple sensor information fusion filter unit 1220. [

도 2는 본 발명의 다른 일실시예에 따른 다중 센서 정보 융합 처리 과정을 설명하기 위한 흐름도이다. 도 2를 참조하면, 표적(미도시)이 움직임에 따라 제 2 센서(111-2)로부터 표적에 대한 표적 위치 정보인 거리, 각도 등과 표적의 크기와 같은 표적 특징 정보를 입력받아 항법센서의 출력을 이용하여 이를 항법좌표계로 좌표변환한다(단계 S210,S220,S221,S230,S250). FIG. 2 is a flowchart illustrating a multi-sensor information fusion process according to another embodiment of the present invention. Referring to FIG. 2, target feature information such as a distance, an angle, and a target size, which are target position information on a target, are input from the second sensor 111-2 in accordance with the movement of the target (not shown) (Step S210, S220, S221, S230, S250).

이와 함께, 제 1 센서(111-1)로부터 표적에 대한 표적 위치 정보인 각도와 표적의 크기, 밝기와 같은 표적 특징 정보를 입력받아 항법센서(INS: Inertial Navigation System)의 출력을 이용하여 이를 항법 좌표계로 좌표변환한다(단계 S210,S220,S221,S240,S260).In addition, the first sensor 111-1 receives the target feature information such as the angle of the target position information, the size of the target, and the brightness of the target, and uses the output of the INS (Inertial Navigation System) (Step S210, S220, S221, S240, S260).

변환된 각 표적 위치 정보 및 표적 특징 정보에 따른 표적이 표적 유효영역(validation gate)안에 존재하는지 그리고 표적 특징 정보가 특정 표적인지를 판별하여 표적에 가장 가까운 센서 입력정보인 표적 위치 정보 및 표적 특징 정보를 이용하여 정보융합 필터를 갱신하여 표적 추적을 수행한다(단계 S251,S261,S270,S281,S291,S292). The target position information and the target feature information, which are the sensor input information closest to the target, are determined by determining whether the target according to each of the converted target position information and the target feature information exists in the validation gate and whether the target feature information is a specific target. The information fusion filter is updated to perform target tracking (steps S251, S261, S270, S281, S291, S292).

부연하면, 각 센서(도 1의 111-1,111-2)의 유효영역 안에 m개의 측정치가 존재하면 각 측정치에 대하여 가중치를 계산한다(단계 S251,S261). Further, if there are m measurement values in the effective area of each sensor (111-1, 111-2 in FIG. 1), a weight is calculated for each measurement value (steps S251, S261).

추적중인 표적의 예측위치 및 특징에 가장 가까운 측정치가 가장 큰 가중치를 갖는다. 가중치가 가장 큰 측정치를 이용하여 정보융합 필터를 갱신하여 표적을 추적한다(단계 S270,S281). 즉, 식별된 표적에 가까운 표적 위치 정보 및 표적 특징 정보를 이용하여 하나의 중심 예측치를 산출한다. The closest measure to the predicted position and feature of the target being tracked has the largest weight. The information fusion filter is updated using the measurement value having the largest weight to track the target (steps S270 and S281). That is, one central predicted value is calculated using the target position information and the target feature information close to the identified target.

이후, 이 하나의 중심 예측치를 기준으로 일정한 경계(boundary)인 미리 설정되는 표적 유효영역(validation gate)내 다수의 측정치들에 중심 예측치(표적 유효역의 중심점)로부터의 거리에 따라 차이를 두고 가중치를 적용한다. 이러한 가중치 적용후, 가장 큰 가중치를 갖는 측정치를 이용하여 정보융합 필터를 갱신한다.Thereafter, a plurality of measured values in a predetermined target validation gate, which is a constant boundary based on the one central predicted value, are weighted by a distance from a center predicted value (center point of the target effective station) Is applied. After applying the weight, the information fusion filter is updated using the measurement having the largest weight.

이후, 갱신된 정보융합 필터를 통해 다음 시간대의 표적 예측 중심점을 추정하여 제 1 및 제 2 센서(111-1,111-2)가 탐지 및/또는 추적을 수행하도록 한다(단계 S291,S292,S230,S240). 부연하면, 기만체는 표적에 아주 가깝고 더 큰 신호의 세기로 운용되기 때문에 가장 큰 가중치를 이용하여 기만체와 표적을 분리하고, 다시 탐지/추적을 위해 표적 예측 중심점을 산출하여 제 1 및 제 2 센싱부(110-1,110-2)의 운용모드 및 표적 유효 영역의 크기를 변경한다. 즉 추적창 제어를 수행한다.Thereafter, the target prediction center point of the next time zone is estimated through the updated information fusion filter so that the first and second sensors 111-1 and 111-2 perform detection and / or tracking (steps S291, S292, S230, S240 ). In other words, since the defacement object is very close to the target and operates with a larger signal intensity, the largest weight is used to separate the dexterity object from the target, and the target prediction center point is again calculated for detection / tracking, The operating modes of the sensing units 110-1 and 110-2 and the size of the target effective area are changed. In other words, it performs tracking window control.

마이크로파 센서의 위치정보는 거리와 각도이고 특징정보는 표적의 크기(즉 길이, 높이)이다. 적외선/가시광 센서의 위치정보는 각도이고 특징정보는 표적의 가로(즉 길이), 세로(즉 높이) 크기, 표적의 밝기(평균, 최대, 최소, 분산)이다. The location information of the microwave sensor is distance and angle, and the characteristic information is the size of the target (length, height). The position information of the infrared / visible light sensor is an angle, and the characteristic information is the width (i.e., length), the height (i.e., height) size of the target, and the brightness (average, maximum, minimum, variance) of the target.

도 3은 본 발명의 또 다른 일실시예에 따른 다중 센서 정보 융합 시간 정렬을 설명하기 위한 개념도이다. 도 3을 참조하면, 센서간 표적 정보 획득시간이 다르기 때문에 각 센서에서 표적 정보를 획득하는 순간 시간을 획득하여 센서 정보(즉, 표적 위치 정보 및 표적 특징 정보)에 타임 스탬프(time stamp)를 붙인다. 데이터 처리기(120)에 입력된 각 센서 정보를 time stamp 순서대로 정렬하여 시간순으로 센서 정보를 처리한다.FIG. 3 is a conceptual diagram for explaining multi-sensor information fusion time alignment according to another embodiment of the present invention. Referring to FIG. 3, since the acquisition time of target information between sensors is different, each sensor obtains the instantaneous time to acquire the target information, and attaches a time stamp to the sensor information (i.e., the target position information and the target feature information) . And processes the sensor information in chronological order by arranging each sensor information inputted to the data processor 120 in time stamp order.

100: 다중 센서 정보 융합 장치
110-1: 제 1 센싱부
111-1: 제 1 센서 112-1: 제 1 신호 처리기
110-2: 제 2 센싱부
111-2: 제 2 센서 112-2: 제 2 신호 처리기
120: 데이터 처리기
121: 표적 식별부
122: 다중 센서 정보 융합 필터부
100: Multi-sensor information fusion device
110-1: first sensing unit
111-1: first sensor 112-1: first signal processor
110-2: second sensing unit
111-2: second sensor 112-2: second signal processor
120: Data processor
121: target identification unit
122: multiple sensor information fusion filter unit

Claims (8)

표적에 대한 위치 정보를 갖는 표적 위치 정보 및 상기 표적에 대한 특징점을 갖는 표적 특징 정보를 생성하는 다수의 센싱부; 및
상기 표적 위치 정보 및 표적 특징 정보를 입력받고, 상기 표적 위치 정보 및 표적 특징 정보 중 미리 설정되는 표적 유효 영역내에 있는 표적 위치 정보 및 표적 특징 정보만을 통해 상기 표적에 대하여 측정치들을 선택하고, 선택된 측정치들을 이용하여 다음 시간대의 표적 예측 중심점을 산출하여 정보 융합 필터를 갱신하는 데이터 처리기;를 포함하며,
상기 데이터 처리기는,
상기 표적 위치 정보 및 표적 특징 정보를 이용하여 표적을 식별하는 표적 식별부; 및
상기 측정치들 중 하나의 중심 예측치를 산출하며, 상기 하나의 중심 예측치로부터의 거리에 따라 차이를 두고 상기 측정치들에 가중치를 적용하고, 적용 결과 산출되는 가장 큰 가중치를 갖는 측정치를 이용하여 정보 융합 필터를 갱신하고 갱신된 정보 융합 필터를 통해 다음 시간대의 표적 예측 중심점을 추정하여 상기 다수의 센싱부에 대한 운용 모드 및 상기 표적 유효 영역의 크기를 변경하는 추적창 제어를 통해 표적 추적을 수행하는 다중 센서 정보 융합 필터부;를 포함하는 것을 특징으로 하는 특징 기반 다중 센서 정보 융합 장치.
A plurality of sensing units for generating target position information having positional information on a target and target characteristic information having a characteristic point for the target; And
Receiving the target position information and the target feature information, selecting the measurement values for the target only through the target position information and the target feature information within the target effective area set in advance among the target position information and the target feature information, And a data processor for calculating a target prediction center point of the next time zone using the information fusion filter to update the information fusion filter,
The data processor includes:
A target identifying unit for identifying the target using the target position information and the target feature information; And
Calculating a central predicted value of one of the measured values, applying a weight to the measured values with a difference according to a distance from the one central predicted value, and using a measured value having the largest weight calculated as an application result, For performing a target tracking through a tracking window control for updating an operation mode for the plurality of sensing units and a size of the target effective area by estimating a target prediction center point of the next time zone through an updated information fusion filter, And an information fusion filter unit.
제 1 항에 있어서,
상기 표적 위치 정보는 상기 표적의 거리, 각도, 및 SNR(Signal To Noise Ratio: 신호대 잡음비) 중 적어도 어느 하나 이상인 것을 특징으로 하는 특징 기반 다중 센서 정보 융합 장치.
The method according to claim 1,
Wherein the target location information is at least one of a distance, an angle, and a SNR (Signal To Noise Ratio) of the target.
제 1 항에 있어서,
상기 표적 특징 정보는 상기 표적의 크기, 형상, 밝기 중 적어도 어느 하나 이상인 것을 특징으로 하는 특징 기반 다중 센서 정보 융합 장치.
The method according to claim 1,
Wherein the target feature information is at least one of size, shape, and brightness of the target.
삭제delete 제 1 항에 있어서,
상기 표적 식별부는, 상기 표적 위치 정보 및 표적 특징 정보를 항법 좌표계로 변환하여 상기 표적이 표적 유효영역 내에 존재하는 지를 판단하는 것을 특징으로 하는 특징 기반 다중 센서 정보 융합 장치.
The method according to claim 1,
Wherein the target identifying unit converts the target position information and the target feature information into a navigation coordinate system to determine whether the target exists within the target effective area.
제 3 항에 있어서,
상기 다수의 센싱부는 제 1 센서 및 제 2 센서로 이루어지며, 상기 제 1 센서는 적외선/가시광선 센서이고, 상기 제 2 센서는 마이크로파 센서이며, 상기 적외선/가시광선 센서의 위치정보는 각도이고, 상기 적외선/가시광선 센서의 특징정보는 표적의 가로, 세로 크기, 표적의 밝기이며, 상기 마이크로 센서의 위치정보는 거리와 각도이고, 상기 마이크로 센서의 특징정보는 표적의 길이, 높이인 것을 특징으로 하는 특징 기반 다중 센서 정보 융합 장치.
The method of claim 3,
Wherein the plurality of sensing units comprise a first sensor and a second sensor, wherein the first sensor is an infrared / visible light sensor, the second sensor is a microwave sensor, the position information of the infrared / visible light sensor is an angle, Wherein the feature information of the infrared / visible light sensor is a width, a length, and a brightness of a target, the position information of the micro sensor is distance and angle, and the feature information of the micro sensor is a length and height of the target Based multi-sensor information fusion device.
제 1 항에 있어서,
상기 정보 융합은 상기 데이터 처리기에 입력되는 상기 표적 위치 정보 및 표적 특징 정보를 타임 스탬프 순서대로 정렬하여 시간순으로 처리되는 것을 특징으로 하는 특징 기반 다중 센서 정보 융합 장치.
The method according to claim 1,
Wherein the information fusion is processed in a chronological order by arranging the target position information and the target feature information inputted to the data processor in a time stamp order.
다수의 센싱부가 표적에 대한 위치 정보를 갖는 표적 위치 정보 및 상기 표적에 대한 특징점을 갖는 표적 특징 정보를 생성하는 단계;
데이터 처리기가 상기 표적 위치 정보 및 표적 특징 정보를 입력받는 단계;
상기 데이터 처리기가 입력받은 상기 표적 위치 정보 및 표적 특징 정보 중 미리 설정되는 표적 유효 영역내에 있는 표적 위치 정보 및 표적 특징 정보만을 선택하는 단계;
상기 데이터 처리가 상기 미리 설정되는 표적 유효 영역내에 있는 표적 위치 정보 및 표적 특징 정보만을 이용하여 상기 표적에 대하여 측정치들을 선택하는 단계; 및
상기 데이터 처리기가 선택된 측정치들을 이용하여 정보 융합 필터를 갱신하는 단계;를 포함하며,
상기 표적 위치 정보 및 표적 특징 정보만을 선택하는 단계는,
표적 식별부가 상기 표적 위치 정보 및 표적 특징 정보를 이용하여 표적을 식별하는 단계;를 포함하며,
상기 갱신하는 단계는,
다중 센서 정보 융합 필터부가 상기 측정치들 중 하나의 중심 예측치를 산출하며, 상기 하나의 중심 예측치로부터의 거리에 따라 차이를 두고 상기 측정치들에 가중치를 적용하고, 적용 결과 산출되는 가장 큰 가중치를 갖는 측정치를 이용하여 정보 융합 필터를 갱신하고 갱신된 정보 융합 필터를 통해 다음 시간대의 표적 예측 중심점을 추정하여 상기 다수의 센싱부에 대한 운용 모드 및 상기 표적 유효 영역의 크기를 변경하는 추적창 제어를 통해 표적 추적을 수행하는 단계;를 포함하는 것을 특징으로 하는 특징 기반 다중 센서 정보 융합 방법.
Generating target feature information having target location information having location information for a plurality of sensing unit targets and feature points for the target;
The data processor receiving the target position information and the target feature information;
Selecting only the target location information and the target feature information in the target valid area that is set in advance among the target location information and the target feature information received by the data processor;
Selecting the measurements for the target using only the target location information and the target feature information within the predetermined target effective area; And
And the data processor updating the information fusion filter using the selected measurements,
Wherein the step of selecting only the target location information and the target feature information comprises:
And identifying the target using the target location information and the target feature information,
Wherein the updating comprises:
Wherein the multiple sensor information fusion filter unit calculates a center predicted value of one of the measurements and applies a weight to the measurements with a difference according to the distance from the one center predicted value, And a tracking window control unit that estimates a target prediction center point of the next time zone by using the updated information fusion filter to change the operation mode of the plurality of sensing units and the size of the target effective area, And performing tracking based on the feature information.
KR1020160045486A 2016-04-14 2016-04-14 Apparatus and Method for multi-sensor information fusion based on feature information KR101813790B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160045486A KR101813790B1 (en) 2016-04-14 2016-04-14 Apparatus and Method for multi-sensor information fusion based on feature information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160045486A KR101813790B1 (en) 2016-04-14 2016-04-14 Apparatus and Method for multi-sensor information fusion based on feature information

Publications (2)

Publication Number Publication Date
KR20170117723A KR20170117723A (en) 2017-10-24
KR101813790B1 true KR101813790B1 (en) 2017-12-29

Family

ID=60299505

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160045486A KR101813790B1 (en) 2016-04-14 2016-04-14 Apparatus and Method for multi-sensor information fusion based on feature information

Country Status (1)

Country Link
KR (1) KR101813790B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102592830B1 (en) * 2018-12-05 2023-10-23 현대자동차주식회사 Apparatus and method for predicting sensor fusion target in vehicle and vehicle including the same
KR102456018B1 (en) * 2020-10-05 2022-10-18 엘아이지넥스원 주식회사 Method for infrared counter countermeasure using dual-band infrared images
CN113671483B (en) * 2021-08-19 2024-02-20 上海无线电设备研究所 Satellite-borne composite data fusion method based on second pulse
CN113790759B (en) * 2021-09-16 2023-09-29 滁州职业技术学院 Multi-sensor fusion type building measurement robot and control method thereof
CN117574314A (en) * 2023-11-28 2024-02-20 东风柳州汽车有限公司 Information fusion method, device and equipment of sensor and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005310043A (en) * 2004-04-26 2005-11-04 Mitsubishi Heavy Ind Ltd Obstacle avoiding method for moving object and moving object thereof
JP2009031299A (en) * 2008-09-01 2009-02-12 Fujitsu Ten Ltd Peripheral monitoring sensor
WO2013065220A1 (en) 2011-11-02 2013-05-10 パナソニック株式会社 Image recognition device, image recognition method, and integrated circuit

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005310043A (en) * 2004-04-26 2005-11-04 Mitsubishi Heavy Ind Ltd Obstacle avoiding method for moving object and moving object thereof
JP2009031299A (en) * 2008-09-01 2009-02-12 Fujitsu Ten Ltd Peripheral monitoring sensor
WO2013065220A1 (en) 2011-11-02 2013-05-10 パナソニック株式会社 Image recognition device, image recognition method, and integrated circuit

Also Published As

Publication number Publication date
KR20170117723A (en) 2017-10-24

Similar Documents

Publication Publication Date Title
KR101813790B1 (en) Apparatus and Method for multi-sensor information fusion based on feature information
Tian et al. Human body shadowing effect on UWB-based ranging system for pedestrian tracking
AU2005216169B2 (en) Component association tracker system and method
EP2495583B1 (en) Target tracking system and target tracking method
US9291698B2 (en) Wireless communication device, wireless communication method, and computer program product
JP2017156219A (en) Tracking device, tracking method, and program
EP3807674B1 (en) Motion assisted leakage removal for radar applications
EP4050460A1 (en) Radar-based object tracking using a neural network
CN108882169B (en) WiFi position fingerprint data acquisition method and device and robot
CN112381853A (en) Apparatus and method for person detection, tracking and identification using wireless signals and images
CN110398735A (en) A kind of perception data processing method and system based on more radars
US10386238B2 (en) Motion detection method and motion detection device
US10605607B2 (en) Two step pruning in a PHD filter
KR101726677B1 (en) Wireless sensor network device and method for controlling the same
CN107665495B (en) Object tracking method and object tracking device
US20210365039A1 (en) Target tracking method and device
Berkvens et al. Asynchronous, electromagnetic sensor fusion in RatSLAM
Dakhlallah et al. Type-2 Fuzzy Kalman Hybrid Application for Dynamic Security Monitoring Systems based on Multiple Sensor Fusion
US9851437B2 (en) Adjusting weight of intensity in a PHD filter based on sensor track ID
KR101134316B1 (en) Active localization of robot using spatial semantics of objects
KR102211844B1 (en) Method and apparatus for estimating behind wall Multi-target in an IR-UWB Radar system
US20190164297A1 (en) Controlling system comprising one or more cameras
Milan et al. Privacy preserving multi-target tracking
US20230118390A1 (en) Method and device for providing tracking data for recognizing the movement of persons and hands for controlling at least one function of a technical system, and sensor system
KR20190090604A (en) Method and Apparatus for Object Matching between V2V and Radar Sensor

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant