KR20170117723A - 특징 기반 다중 센서 정보 융합 장치 및 방법 - Google Patents

특징 기반 다중 센서 정보 융합 장치 및 방법 Download PDF

Info

Publication number
KR20170117723A
KR20170117723A KR1020160045486A KR20160045486A KR20170117723A KR 20170117723 A KR20170117723 A KR 20170117723A KR 1020160045486 A KR1020160045486 A KR 1020160045486A KR 20160045486 A KR20160045486 A KR 20160045486A KR 20170117723 A KR20170117723 A KR 20170117723A
Authority
KR
South Korea
Prior art keywords
target
information
sensor
feature information
position information
Prior art date
Application number
KR1020160045486A
Other languages
English (en)
Other versions
KR101813790B1 (ko
Inventor
김창재
권보준
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020160045486A priority Critical patent/KR101813790B1/ko
Publication of KR20170117723A publication Critical patent/KR20170117723A/ko
Application granted granted Critical
Publication of KR101813790B1 publication Critical patent/KR101813790B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63GOFFENSIVE OR DEFENSIVE ARRANGEMENTS ON VESSELS; MINE-LAYING; MINE-SWEEPING; SUBMARINES; AIRCRAFT CARRIERS
    • B63G9/00Other offensive or defensive arrangements on vessels against submarines, torpedoes, or mines
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/74Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems
    • G01S13/76Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems wherein pulse-type signals are transmitted
    • G01S13/78Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems wherein pulse-type signals are transmitted discriminating between different kinds of targets, e.g. IFF-radar, i.e. identification of friend or foe
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63GOFFENSIVE OR DEFENSIVE ARRANGEMENTS ON VESSELS; MINE-LAYING; MINE-SWEEPING; SUBMARINES; AIRCRAFT CARRIERS
    • B63G1/00Arrangements of guns or missile launchers; Vessels characterised thereby
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63GOFFENSIVE OR DEFENSIVE ARRANGEMENTS ON VESSELS; MINE-LAYING; MINE-SWEEPING; SUBMARINES; AIRCRAFT CARRIERS
    • B63G13/00Other offensive or defensive arrangements on vessels; Vessels characterised thereby
    • B64D2700/62184
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

본 발명은 표적의 특징 정보를 이용하여 표적을 추적하는 기술에 관한 것으로서, 보다 상세하게는 센서가 측정하는 표적의 거리, 각도등과 같은 표적의 위치 정보뿐만 아니라 표적의 크기, 표적의 밝기 등과 같은 특징 정보를 이용함으로써 표적 주변에 표적과 유사하거나 더 강한 신호를 내는 기만체가 존재하는 상황에서 표적과 기만체를 식별하고 표적을 추적하는 방법 및 장치에 관한 것이다.

Description

특징 기반 다중 센서 정보 융합 장치 및 방법{Apparatus and Method for multi-sensor information fusion based on feature information}
본 발명은 표적의 특징 정보를 이용하여 표적을 추적하는 기술에 관한 것으로서, 보다 상세하게는 센서가 측정하는 표적의 거리, 각도등과 같은 표적의 위치 정보뿐만 아니라 표적의 크기, 표적의 밝기 등과 같은 특징 정보를 이용함으로써 표적 주변에 표적과 유사하거나 더 강한 신호를 내는 기만체가 존재하는 상황에서 표적과 기만체를 식별하고 표적을 추적하는 방법 및 장치에 관한 것이다.
함정 및/또는 전투기는 위협으로부터 자신의 생존성을 향상시키기 위하여 능동형 마이크로파 센서를 기만하기 위한 채프, 적외선 센서를 기만하기 위한 플레어와 같은 다양한 형태의 기만체를 운용한다. 또한 채프와 플레어를 동시에 운용하는 복합 기만체를 운용하기도 한다.
기만체는 표적에 아주 가까이 그리고 더 큰 신호의 세기로 운용되기 때문에 표적의 위치정보(거리, 각도)만을 이용하는 다중센서 정보융합 방법으로는 표적과 기만체를 효과적으로 구분할 수 없다.
1. 한국등록특허번호 제 10-1051716호(2011.07.19)
1. 나정현, "위치 추정을 위한 영상 특징점 정보 검출 방법"조선대학교 2013년 2. 한두희외, "클러터 환경에서 다중센서 정보융합을 통한 유도성능 개선 연구"제어ㅇ로봇ㅇ시스템학회논문지 제16권 제2호 (2010년 2월) pp.177-187
본 발명은 위 배경기술에 따른 문제점을 해소하기 위해 제안된 것으로서, 표적 주변에 다양한 형태의 기만체가 운용되는 상황에서도 표적과 기만체를 식별하여 안정적으로 표적을 추적할 수 있는 특징 기반 다중 센서 정보 융합 장치 및 방법을 제공하는 데 그 목적이 있다.
본 발명은 위에서 제시된 과제를 달성하기 위해, 표적 주변에 다양한 형태의 기만체가 운용되는 상황에서도 표적과 기만체를 식별하여 안정적으로 표적을 추적할 수 있는 특징 기반 다중 센서 정보 융합 장치를 제공한다.
상기 다중 센서 정보 융합 장치는,
표적에 대한 위치 정보를 갖는 표적 위치 정보 및 상기 표적에 대한 특징점을 갖는 표적 특징 정보를 생성하는 다수의 센싱부; 및
상기 표적 위치 정보 및 표적 특징 정보를 입력받고, 상기 표적 위치 정보 및 표적 특징 정보 중 미리 설정되는 표적 유효 영역내에 있는 표적 위치 정보 및 표적 특징 정보만을 통해 상기 표적에 가까운 측정치들을 선택하고, 선택된 측정치들을 이용하여 다음 시간대의 표적 예측 중심점을 산출하여 정보 융합 필터를 갱신하는 데이터 처리기;를 포함하는 것을 특징으로 한다.
이때, 상기 표적 위치 정보는 상기 표적의 거리, 각도, 및 SNR(Signal To Noise Ratio: 신호대 잡음비) 중 적어도 어느 하나 이상인 것을 특징으로 할 수 있다.
또한, 상기 표적 특징 정보는 상기 표적의 크기, 형상, 밝기 중 적어도 어느 하나 이상인 것을 특징으로 할 수 있다.
또한, 상기 데이터 처리기는, 상기 표적 위치 정보 및 표적 특징 정보를 이용하여 표적을 식별하는 표적 식별부; 및 상기 측정치들 중 하나의 중심 예측치를 산출하며, 상기 하나의 중심 예측치로부터의 거리에 따라 차이를 두고 상기 측정치들에 가중치를 적용하고, 적용 결과 산출되는 가장 큰 가중치를 갖는 측정치를 이용하여 정보 융합 필터를 갱신하고 갱신된 정보 융합 필터를 통해 다음 시간대의 표적 예측 중심점을 추정하여 상기 다수의 센싱부에 대한 운용 모드 및 상기 표적 유효 영역의 크기를 변경하는 추적창 제어를 통해 표적 추적을 수행하는 다중 센서 정보 융합 필터부;를 포함하는 것을 특징으로 할 수 있다.
또한, 상기 표적 식별부는, 상기 표적 위치 정보 및 표적 특징 정보를 항법 좌표계로 변환하여 상기 표적이 표적 유효영역 내에 존재하는 지를 판단하는 것을 특징으로 할 수 있다.
또한, 상기 다수의 센싱부는 제 1 센서 및 제 2 센서로 이루어지며, 상기 제 1 센서는 적외선/가시광선 센서이고, 상기 제 2 센서는 마이크로파 센서이며, 상기 적외선/가시광선 센서의 위치정보는 각도이고, 상기 적외선/가시광선 센서의 특징정보는 표적의 가로, 세로 크기, 표적의 밝기이며, 상기 마이크로 센서의 위치정보는 거리와 각도이고, 상기 마이크로 센서의 특징정보는 표적의 길이, 높이인 것을 특징으로 할 수 있다.
또한, 상기 정보 융합은 상기 데이터 처리기에 입력되는 상기 표적 위치 정보 및 표적 특징 정보를 타임 스탬프 순서대로 정렬하여 시간순으로 처리되는 것을 특징으로 할 수 있다.
다른 한편으로, 본 발명의 다른 일실시예는, 다수의 센싱부가 표적에 대한 위치 정보를 갖는 표적 위치 정보 및 상기 표적에 대한 특징점을 갖는 표적 특징 정보를 생성하는 단계; 데이터 처리기가 상기 표적 위치 정보 및 표적 특징 정보를 입력받는 단계; 상기 데이터 처리기가 입력받은 상기 표적 위치 정보 및 표적 특징 정보 중 미리 설정되는 표적 유효 영역내에 있는 표적 위치 정보 및 표적 특징 정보만을 선택하는 단계; 상기 데이터 처리가 상기 미리 설정되는 표적 유효 영역내에 있는 표적 위치 정보 및 표적 특징 정보만을 이용하여 상기 표적에 가까운 측정치들을 선택하는 단계; 및 상기 데이터 처리기가 선택된 측정치들을 이용하여 정보 융합 필터를 갱신하는 단계;를 포함하는 것을 특징으로 하는 특징 기반 다중 센서 정보 융합 방법을 제공할 수 있다.
본 발명에 따르면, 종래의 표적 위치 정보 기반의 표적추적 방법에 표적의 특징정보를 이용하는 방법을 추가하여 각 센서의 표적 위치정보뿐만 아니라 표적의 크기, 세기 및/또는 밝기 등과 같은 특징정보를 이용함으로써 표적 가까이 다양한 형태의 기만체가 운용되는 상황에서 표적과 기만체를 식별하여 표적을 안정적으로 추적할 수 있다.
또한, 본 발명의 다른 효과로서는 이러한 안정적인 추적을 통해 표적 추적 성능을 향상시킬 수 있다는 점을 들 수 있다.
도 1은 본 발명의 일실시예에 따른 특징 기반 다중 센서 정보 융합 장치의 구성도이다.
도 2는 본 발명의 다른 일실시예에 따른 다중 센서 정보 융합 처리 과정을 설명하기 위한 흐름도이다.
도 3은 본 발명의 또 다른 일실시예에 따른 다중 센서 정보 융합 시간 정렬을 설명하기 위한 개념도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 구체적으로 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용한다.
제 1, 제 2등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. "및/또는" 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.
이하 첨부된 도면을 참조하여 본 발명의 일실시예에 따른 특징 기반 다중 센서 정보 융합 장치 및 방법을 상세하게 설명하기로 한다.
도 1은 본 발명의 일실시예에 따른 특징 기반 다중 센서 정보 융합 장치의 구성도이다. 도 1을 참조하면, 다중센서 정보융합 처리를 위한 특징 기반 다중 센서 정보 융합 장치(100)는 표적(미도시)에 대한 표적 위치 정보, 표적 특징 정보 등을 측정하는 제 1 및 제 2 센싱부(110-1,110-2), 이들 표적 위치 정보, 표적 특징 정보 등을 입력받아 정보 융합을 수행하는 데이터 처리기(120) 등으로 구성된다. 여기서, 표적 위치 정보는 상기 표적의 거리, 각도, 및 SNR(Signal to Noise Ratio) 등이 될 수 있다. 또한, 표적 특징 정보는 상기 표적의 크기, 형상, 밝기 등이 될 수 있다.
제 1 및 제 2 센싱부(110-1,110-2)는 표적(미도시)을 검출하여 이 표적(미도시)에 대한 위치를 갖는 표적 위치 정보, 표적에 대한 특징점들을 갖는 표적 특징 정보를 생성한다.
부연하면, 제 1 센싱부(110-1)는 표적의 위치 및/또는 특징점들을 검출하는 제 1 센서(111-1), 검출된 위치 및/또는 특징점들을 디지털 신호로 처리하는 제 1 신호 처리기(112-1) 등으로 구성된다. 이러한 위치, 특징점들을 생성하기 위해 제 1 센서(111-1)는 적외선 센서, 가시광 센서, 조도 센서, 각도 센서, 온도 센서, 마이크로퍼 센서 등으로 구성될 수 있다.
제 1 신호 처리기(112-1)는 제 1 센서(111-1)를 통해 측정되는 아날로그의 측정 정보를 디지털 측정 정보로 변환하는 기능을 수행한다. 이를 위해 제 1 신호 처리기(112-1)에는 DSP(Digital Signal Processor), 메모리 등이 구성될 수 있다. 메모리는 제 1 신호 처리기(112-1) 내에 구비되는 메모리일 수 있고, 별도의 메모리가 될 수 있다. 따라서 플래시 메모리 디스크(SSD: Solid State Disk), 하드 디스크 드라이브, 플래시 메모리, EEPROM(Electrically erasable programmable read-only memory), SRAM(Static RAM), FRAM (Ferro-electric RAM), PRAM (Phase-change RAM), MRAM(Magnetic RAM) 등과 같은 비휘발성 메모리 및/또는 DRAM(Dynamic Random Access Memory), SDRAM(Synchronous Dynamic Random Access Memory), DDR-SDRAM(Double Date Rate-SDRAM) 등과 같은 휘발성 메모리의 조합으로 구성될 수 있다.
제 2 센싱부(110-2)도 제 1 센싱부(110-1)와 유사하게 제 2 센서(111-2) 및 제 2 신호 처리기(112-2)로 구성된다. 제 2 센서(111-2)는 위치, 특징점들을 생성하기 위해 적외선 센서, 가시광 센서, 조도 센서, 각도 센서, 온도 센서, 마이크로퍼 센서 등으로 구성될 수 있다. 제 2 신호 처리기(112-2)는 제 2 센서(111-2)에 의해 생성되는 아날로그의 측정 정보를 디지털 측정 정보로 변환하는 기능을 수행한다.
물론, 도 1에서는 이해를 위해 2개의 제 1 및 제 2 센싱부(110-1,110-2)를 도시하였으나, 이에 한정되는 것은 아니며 2개 이상의 센싱부로 구성될 수 있다.
데이터 처리기(120)는 제 1 및 제 2 센싱부(110-1,110-2)에 의해 생성되는 표적 위치 정보 및/또는 표적 특징 정보를 입력받아 정보융합을 수행한다. 이러한 정보융합을 보여주는 도면이 도 2에 도시된다. 도 2에 대하여는 후술하기로 한다.
도 1을 계속 참조하면, 데이터 처리기(120)는 표적 위치 정보 및/또는 표적 특징 정보를 이용하여 표적을 식별하는 표적 식별부(121)와 식별된 표적에 가까운 표적 위치 정보 및 표적 특징 정보를 이용하여 하나의 중심 예측치를 산출하며, 이 하나의 중심 예측치를 기준으로 일정한 경계(boundary)인 미리 설정되는 표적 유효영역(validation gate)내 다수의 측정치들에 중심 예측치로부터의 거리에 따라 차이를 두고 가중치를 주에 가장 큰 가중치를 이용하여 정보융합 필터를 갱신하여 상기 다수의 센싱부(110-1,110-2)에 대한 운용 모드 및 추적창 제어를 통해 표적 추적을 수행하는 다중 센서 정보 융합 필터부(122) 등을 포함하여 구성된다. 여기서, 운용 모드는 제 1 및 제 2 센서(111-1,111-2)의 운용 모드가 되며, 다중 센서 정보 융합 필터부(1220)에 의해 변경된다.
도 2는 본 발명의 다른 일실시예에 따른 다중 센서 정보 융합 처리 과정을 설명하기 위한 흐름도이다. 도 2를 참조하면, 표적(미도시)이 움직임에 따라 제 2 센서(111-2)로부터 표적에 대한 표적 위치 정보인 거리, 각도 등과 표적의 크기와 같은 표적 특징 정보를 입력받아 항법센서의 출력을 이용하여 이를 항법좌표계로 좌표변환한다(단계 S210,S220,S221,S230,S250).
이와 함께, 제 1 센서(111-1)로부터 표적에 대한 표적 위치 정보인 각도와 표적의 크기, 밝기와 같은 표적 특징 정보를 입력받아 항법센서(INS: Inertial Navigation System)의 출력을 이용하여 이를 항법 좌표계로 좌표변환한다(단계 S210,S220,S221,S240,S260).
변환된 각 표적 위치 정보 및 표적 특징 정보에 따른 표적이 표적 유효영역(validation gate)안에 존재하는지 그리고 표적 특징 정보가 특정 표적인지를 판별하여 표적에 가장 가까운 센서 입력정보인 표적 위치 정보 및 표적 특징 정보를 이용하여 정보융합 필터를 갱신하여 표적 추적을 수행한다(단계 S251,S261,S270,S281,S291,S292).
부연하면, 각 센서(도 1의 111-1,111-2)의 유효영역 안에 m개의 측정치가 존재하면 각 측정치에 대하여 가중치를 계산한다(단계 S251,S261).
추적중인 표적의 예측위치 및 특징에 가장 가까운 측정치가 가장 큰 가중치를 갖는다. 가중치가 가장 큰 측정치를 이용하여 정보융합 필터를 갱신하여 표적을 추적한다(단계 S270,S281). 즉, 식별된 표적에 가까운 표적 위치 정보 및 표적 특징 정보를 이용하여 하나의 중심 예측치를 산출한다.
이후, 이 하나의 중심 예측치를 기준으로 일정한 경계(boundary)인 미리 설정되는 표적 유효영역(validation gate)내 다수의 측정치들에 중심 예측치(표적 유효역의 중심점)로부터의 거리에 따라 차이를 두고 가중치를 적용한다. 이러한 가중치 적용후, 가장 큰 가중치를 갖는 측정치를 이용하여 정보융합 필터를 갱신한다.
이후, 갱신된 정보융합 필터를 통해 다음 시간대의 표적 예측 중심점을 추정하여 제 1 및 제 2 센서(111-1,111-2)가 탐지 및/또는 추적을 수행하도록 한다(단계 S291,S292,S230,S240). 부연하면, 기만체는 표적에 아주 가깝고 더 큰 신호의 세기로 운용되기 때문에 가장 큰 가중치를 이용하여 기만체와 표적을 분리하고, 다시 탐지/추적을 위해 표적 예측 중심점을 산출하여 제 1 및 제 2 센싱부(110-1,110-2)의 운용모드 및 표적 유효 영역의 크기를 변경한다. 즉 추적창 제어를 수행한다.
마이크로파 센서의 위치정보는 거리와 각도이고 특징정보는 표적의 크기(즉 길이, 높이)이다. 적외선/가시광 센서의 위치정보는 각도이고 특징정보는 표적의 가로(즉 길이), 세로(즉 높이) 크기, 표적의 밝기(평균, 최대, 최소, 분산)이다.
도 3은 본 발명의 또 다른 일실시예에 따른 다중 센서 정보 융합 시간 정렬을 설명하기 위한 개념도이다. 도 3을 참조하면, 센서간 표적 정보 획득시간이 다르기 때문에 각 센서에서 표적 정보를 획득하는 순간 시간을 획득하여 센서 정보(즉, 표적 위치 정보 및 표적 특징 정보)에 타임 스탬프(time stamp)를 붙인다. 데이터 처리기(120)에 입력된 각 센서 정보를 time stamp 순서대로 정렬하여 시간순으로 센서 정보를 처리한다.
100: 다중 센서 정보 융합 장치
110-1: 제 1 센싱부
111-1: 제 1 센서 112-1: 제 1 신호 처리기
110-2: 제 2 센싱부
111-2: 제 2 센서 112-2: 제 2 신호 처리기
120: 데이터 처리기
121: 표적 식별부
122: 다중 센서 정보 융합 필터부

Claims (8)

  1. 표적에 대한 위치 정보를 갖는 표적 위치 정보 및 상기 표적에 대한 특징점을 갖는 표적 특징 정보를 생성하는 다수의 센싱부; 및
    상기 표적 위치 정보 및 표적 특징 정보를 입력받고, 상기 표적 위치 정보 및 표적 특징 정보 중 미리 설정되는 표적 유효 영역내에 있는 표적 위치 정보 및 표적 특징 정보만을 통해 상기 표적에 가까운 측정치들을 선택하고, 선택된 측정치들을 이용하여 다음 시간대의 표적 예측 중심점을 산출하여 정보 융합 필터를 갱신하는 데이터 처리기;
    를 포함하는 것을 특징으로 하는 특징 기반 다중 센서 정보 융합 장치.
  2. 제 1 항에 있어서,
    상기 표적 위치 정보는 상기 표적의 거리, 각도, 및 SNR(Signal To Noise Ratio: 신호대 잡음비) 중 적어도 어느 하나 이상인 것을 특징으로 하는 특징 기반 다중 센서 정보 융합 장치.
  3. 제 1 항에 있어서,
    상기 표적 특징 정보는 상기 표적의 크기, 형상, 밝기 중 적어도 어느 하나 이상인 것을 특징으로 하는 특징 기반 다중 센서 정보 융합 장치.
  4. 제 1 항에 있어서,
    상기 데이터 처리기는,
    상기 표적 위치 정보 및 표적 특징 정보를 이용하여 표적을 식별하는 표적 식별부; 및
    상기 측정치들 중 하나의 중심 예측치를 산출하며, 상기 하나의 중심 예측치로부터의 거리에 따라 차이를 두고 상기 측정치들에 가중치를 적용하고, 적용 결과 산출되는 가장 큰 가중치를 갖는 측정치를 이용하여 정보 융합 필터를 갱신하고 갱신된 정보 융합 필터를 통해 다음 시간대의 표적 예측 중심점을 추정하여 상기 다수의 센싱부에 대한 운용 모드 및 상기 표적 유효 영역의 크기를 변경하는 추적창 제어를 통해 표적 추적을 수행하는 다중 센서 정보 융합 필터부;를 포함하는 것을 특징으로 하는 특징 기반 다중 센서 정보 융합 장치.
  5. 제 4 항에 있어서,
    상기 표적 식별부는, 상기 표적 위치 정보 및 표적 특징 정보를 항법 좌표계로 변환하여 상기 표적이 표적 유효영역 내에 존재하는 지를 판단하는 것을 특징으로 하는 특징 기반 다중 센서 정보 융합 장치.
  6. 제 3 항에 있어서,
    상기 다수의 센싱부는 제 1 센서 및 제 2 센서로 이루어지며, 상기 제 1 센서는 적외선/가시광선 센서이고, 상기 제 2 센서는 마이크로파 센서이며, 상기 적외선/가시광선 센서의 위치정보는 각도이고, 상기 적외선/가시광선 센서의 특징정보는 표적의 가로, 세로 크기, 표적의 밝기이며, 상기 마이크로 센서의 위치정보는 거리와 각도이고, 상기 마이크로 센서의 특징정보는 표적의 길이, 높이인 것을 특징으로 하는 특징 기반 다중 센서 정보 융합 장치.
  7. 제 1 항에 있어서,
    상기 정보 융합은 상기 데이터 처리기에 입력되는 상기 표적 위치 정보 및 표적 특징 정보를 타임 스탬프 순서대로 정렬하여 시간순으로 처리되는 것을 특징으로 하는 특징 기반 다중 센서 정보 융합 장치.
  8. 다수의 센싱부가 표적에 대한 위치 정보를 갖는 표적 위치 정보 및 상기 표적에 대한 특징점을 갖는 표적 특징 정보를 생성하는 단계;
    데이터 처리기가 상기 표적 위치 정보 및 표적 특징 정보를 입력받는 단계;
    상기 데이터 처리기가 입력받은 상기 표적 위치 정보 및 표적 특징 정보 중 미리 설정되는 표적 유효 영역내에 있는 표적 위치 정보 및 표적 특징 정보만을 선택하는 단계;
    상기 데이터 처리가 상기 미리 설정되는 표적 유효 영역내에 있는 표적 위치 정보 및 표적 특징 정보만을 이용하여 상기 표적에 가까운 측정치들을 선택하는 단계; 및
    상기 데이터 처리기가 선택된 측정치들을 이용하여 정보 융합 필터를 갱신하는 단계;
    를 포함하는 것을 특징으로 하는 특징 기반 다중 센서 정보 융합 방법.
KR1020160045486A 2016-04-14 2016-04-14 특징 기반 다중 센서 정보 융합 장치 및 방법 KR101813790B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160045486A KR101813790B1 (ko) 2016-04-14 2016-04-14 특징 기반 다중 센서 정보 융합 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160045486A KR101813790B1 (ko) 2016-04-14 2016-04-14 특징 기반 다중 센서 정보 융합 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20170117723A true KR20170117723A (ko) 2017-10-24
KR101813790B1 KR101813790B1 (ko) 2017-12-29

Family

ID=60299505

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160045486A KR101813790B1 (ko) 2016-04-14 2016-04-14 특징 기반 다중 센서 정보 융합 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101813790B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200180646A1 (en) * 2018-12-05 2020-06-11 Hyundai Motor Company Sensor fusion target prediction device and method for vehicles and vehicle including the device
CN113671483A (zh) * 2021-08-19 2021-11-19 上海无线电设备研究所 一种基于秒脉冲的星载复合数据融合方法
CN113790759A (zh) * 2021-09-16 2021-12-14 滁州职业技术学院 一种多传感器融合式建筑测量机器人及其控制方法
KR20220045441A (ko) * 2020-10-05 2022-04-12 엘아이지넥스원 주식회사 이중 대역 적외선 영상을 활용한 적외선 기만체 대응 방법
CN117574314A (zh) * 2023-11-28 2024-02-20 东风柳州汽车有限公司 传感器的信息融合方法、装置、设备及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4256812B2 (ja) * 2004-04-26 2009-04-22 三菱重工業株式会社 移動体の障害物回避方法及び該移動体
JP4823282B2 (ja) * 2008-09-01 2011-11-24 富士通テン株式会社 周辺監視センサ
CN103189897B (zh) 2011-11-02 2016-06-15 松下电器(美国)知识产权公司 图像识别装置、图像识别方法和集成电路

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200180646A1 (en) * 2018-12-05 2020-06-11 Hyundai Motor Company Sensor fusion target prediction device and method for vehicles and vehicle including the device
CN111267860A (zh) * 2018-12-05 2020-06-12 现代自动车株式会社 用于车辆的传感器融合目标预测装置和方法、以及车辆
KR20200068258A (ko) * 2018-12-05 2020-06-15 현대자동차주식회사 차량용 센서퓨전 타겟 예측 장치 및 그의 센서 퓨전 타겟 예측 방법과 그를 포함하는 차량
US11748593B2 (en) 2018-12-05 2023-09-05 Hyundai Motor Company Sensor fusion target prediction device and method for vehicles and vehicle including the device
KR20220045441A (ko) * 2020-10-05 2022-04-12 엘아이지넥스원 주식회사 이중 대역 적외선 영상을 활용한 적외선 기만체 대응 방법
CN113671483A (zh) * 2021-08-19 2021-11-19 上海无线电设备研究所 一种基于秒脉冲的星载复合数据融合方法
CN113671483B (zh) * 2021-08-19 2024-02-20 上海无线电设备研究所 一种基于秒脉冲的星载复合数据融合方法
CN113790759A (zh) * 2021-09-16 2021-12-14 滁州职业技术学院 一种多传感器融合式建筑测量机器人及其控制方法
CN113790759B (zh) * 2021-09-16 2023-09-29 滁州职业技术学院 一种多传感器融合式建筑测量机器人及其控制方法
CN117574314A (zh) * 2023-11-28 2024-02-20 东风柳州汽车有限公司 传感器的信息融合方法、装置、设备及存储介质

Also Published As

Publication number Publication date
KR101813790B1 (ko) 2017-12-29

Similar Documents

Publication Publication Date Title
KR101813790B1 (ko) 특징 기반 다중 센서 정보 융합 장치 및 방법
AU2005216169B2 (en) Component association tracker system and method
EP2495583B1 (en) Target tracking system and target tracking method
CN108230352B (zh) 目标对象的检测方法、装置和电子设备
US20180348023A1 (en) Sensor Calibration Based On Environmental Factors
EP4050460A1 (en) Radar-based object tracking using a neural network
US11993289B2 (en) Vehicle control system and vehicle control method
CN108882169B (zh) 一种WiFi位置指纹数据的获取方法及装置和机器人
Henriques Abreu et al. Using Kalman filters to reduce noise from RFID location system
CN112381853A (zh) 用于利用无线信号和图像来进行人员检测、跟踪和标识的装置和方法
CN110398735A (zh) 一种基于多雷达的感知数据处理方法及系统
US10180319B2 (en) Device and method to determine height of a panel using elevation determination
KR101726677B1 (ko) 무선 센서 네트워크 장치 및 그 제어방법
US20160033281A1 (en) Updating intensities in a phd filter based on a sensor track id
CN107665495B (zh) 对象跟踪方法及对象跟踪装置
US20210365039A1 (en) Target tracking method and device
Dakhlallah et al. Type-2 Fuzzy Kalman Hybrid Application for Dynamic Security Monitoring Systems based on Multiple Sensor Fusion
Yang et al. Location ambiguity resolution and tracking method of human targets in wireless infrared sensor network
US9851437B2 (en) Adjusting weight of intensity in a PHD filter based on sensor track ID
US20190164297A1 (en) Controlling system comprising one or more cameras
US10303841B1 (en) Automatic peak interval, relative volatility, and relative amplitude detection in high-volume temporal data
Milan et al. Privacy preserving multi-target tracking
US20230118390A1 (en) Method and device for providing tracking data for recognizing the movement of persons and hands for controlling at least one function of a technical system, and sensor system
Abd Rahman et al. Dynamic track management in MHT for pedestrian tracking using laser range finder
KR20190090604A (ko) V2v 통신과 레이다 센서 객체 번호 일치 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant