KR102217510B1 - Image visualization apparatus using ultra wide band ground penetrating radar - Google Patents

Image visualization apparatus using ultra wide band ground penetrating radar Download PDF

Info

Publication number
KR102217510B1
KR102217510B1 KR1020190060606A KR20190060606A KR102217510B1 KR 102217510 B1 KR102217510 B1 KR 102217510B1 KR 1020190060606 A KR1020190060606 A KR 1020190060606A KR 20190060606 A KR20190060606 A KR 20190060606A KR 102217510 B1 KR102217510 B1 KR 102217510B1
Authority
KR
South Korea
Prior art keywords
data
scan image
image
present disclosure
edge
Prior art date
Application number
KR1020190060606A
Other languages
Korean (ko)
Other versions
KR20200114938A (en
Inventor
김동현
최순호
Original Assignee
한화시스템 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화시스템 주식회사 filed Critical 한화시스템 주식회사
Priority to KR1020190060606A priority Critical patent/KR102217510B1/en
Publication of KR20200114938A publication Critical patent/KR20200114938A/en
Application granted granted Critical
Publication of KR102217510B1 publication Critical patent/KR102217510B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/0209Systems with very large relative bandwidth, i.e. larger than 10 %, e.g. baseband, pulse, carrier-free, ultrawideband
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Processing (AREA)

Abstract

본 개시의 실시 예에 따른 방법은, 초광대역 지면 투과 레이다(Ultra Wide Band Ground Penetrating Radar) 기반 영상 가시화 방법에 있어서, 상기 초광대역 지면 투과 레이다를 이용하여 데이터를 획득하는 과정; 상기 획득한 데이터에 이동 평균 필터링 및 이득 보상을 적용하여 제1 값을 출력하는 과정; 상기 제1 값에 미분 연산자를 적용하여 영상의 에지(Edge)를 검출하는 과정; 및 상기 검출된 에지를 기반으로 하여 상기 영상을 보정하는 과정을 포함한다.A method according to an embodiment of the present disclosure may include: a method for visualizing an image based on an ultra wide band ground penetrating radar, comprising: obtaining data using the ultra wide band ground penetrating radar; Outputting a first value by applying moving average filtering and gain compensation to the acquired data; Detecting an edge of an image by applying a differential operator to the first value; And correcting the image based on the detected edge.

Description

초광대역 지면 투과 레이다 기반 영상 가시화 장치{IMAGE VISUALIZATION APPARATUS USING ULTRA WIDE BAND GROUND PENETRATING RADAR}Ultra-wide band ground penetration radar based image visualization device {IMAGE VISUALIZATION APPARATUS USING ULTRA WIDE BAND GROUND PENETRATING RADAR}

본 개시는 초광대역 지면 투과 레이다 기반 영상 가시화 방법 및 장치에 관한 것이다.The present disclosure relates to a method and apparatus for visualizing an image based on an ultra-wideband ground-transmitting radar.

GPR(Ground Penetrating Radar) 시스템은 표적(target)을 영상화하기 위한 초광대역 레이더 시스템으로, 일반적으로 안테나를 스캔하여 포물선 형태의 표적 신호를 가시화한다. 이때 표적 신호는 다중 반사에 의한 링잉 현상으로 포물선이 아래로 여러 개 생기는 현상과 토양의 유전율, 수분 등에 의해 전파가 약해진다. 따라서 이를 보상하기 위해서 방안들이 요구된다.The GPR (Ground Penetrating Radar) system is an ultra-wideband radar system for imaging a target. In general, a target signal in a parabolic shape is visualized by scanning an antenna. At this time, the target signal is a ringing phenomenon caused by multiple reflections, and the propagation is weakened by the phenomenon that several parabolas are generated downwards, the dielectric constant of the soil, and moisture. Therefore, measures are required to compensate for this.

땅의 불균일함, 센서의 흔들림과 잡음 신호와 같이 표적 이외의 신호(주변 환경 및 시스템 구조적 잡음)에 강인하지 못하다는 단점이 있다. 따라서 배경 신호를 지뢰 신호로 인식하는 오경보 발생 확률과 지뢰 신호를 배경 신호로 인식하여 실제 매설된 지뢰를 탐지하지 못할 확률이 높게 나타나는 문제가 발생한다.The disadvantage is that it is not robust to signals other than the target (surrounding environment and system structural noise) such as unevenness of the ground, vibration of the sensor and noise signals. Therefore, there is a problem that the probability of generating a false alarm in which the background signal is recognized as a mine signal and the probability of not detecting an actual buried mine by recognizing the mine signal as a background signal are high.

또한 GPR 시스템은 지뢰 신호를 빠르고 정확하게 탐지할 수 있어야 한다. 따라서 연산 속도가 빠르고, 지뢰 이외의 신호에 대하여 강인한 성능을 나타내는 지뢰 탐지 가시화 방법이 요구된다.In addition, the GPR system must be able to quickly and accurately detect landmine signals. Therefore, there is a need for a method for detecting and visualizing landmines, which has a high computational speed and exhibits robust performance for signals other than mines.

본 개시는 연산 속도가 빠르고, 지뢰 이외의 신호에 대하여 강인한 성능을 나타낼 수 있는 방법 및 장치를 제공한다.The present disclosure provides a method and apparatus capable of having a high computational speed and exhibiting robust performance with respect to signals other than landmines.

본 개시는 땅의 불균일함, 센서의 흔들림과 잡음 신호와 같이 표적 이외의 신호에 강인할 수 있는 방법 및 장치를 제공한다.The present disclosure provides a method and apparatus capable of being robust to non-target signals, such as ground irregularities, sensor shake and noise signals.

본 개시의 실시 예에 따른 방법은, 초광대역 지면 투과 레이다(Ultra Wide Band Ground Penetrating Radar) 기반 영상 가시화 방법에 있어서, 상기 초광대역 지면 투과 레이다를 이용하여 데이터를 획득하는 과정; 상기 획득한 데이터에 이동 평균 필터링 및 이득 보상을 적용하여 제1 값을 출력하는 과정; 상기 제1 값에 미분 연산자를 적용하여 영상의 에지(Edge)를 검출하는 과정; 및 상기 검출된 에지를 기반으로 하여 상기 영상을 보정하는 과정을 포함한다.A method according to an embodiment of the present disclosure may include: a method for visualizing an image based on an ultra wide band ground penetrating radar, comprising: obtaining data using the ultra wide band ground penetrating radar; Outputting a first value by applying moving average filtering and gain compensation to the acquired data; Detecting an edge of an image by applying a differential operator to the first value; And correcting the image based on the detected edge.

본 개시의 실시 예에 따른 장치는, 초광대역 지면 투과 레이다(Ultra Wide Band Ground Penetrating Radar) 기반 영상 가시화 장치에 있어서, 데이터를 송수신하는 송/수신부; 및 상기 초광대역 지면 투과 레이다를 이용하여 상기 데이터를 획득하고, 상기 획득한 데이터에 이동 평균 필터링 및 이득 보상을 적용하여 제1 값을 출력하고, 상기 제1 값에 미분 연산자를 적용하여 영상의 에지(Edge)를 검출하고, 상기 검출된 에지를 기반으로 하여 상기 영상을 보정하는 제어부를 포함한다.An apparatus according to an embodiment of the present disclosure is an image visualization apparatus based on an Ultra Wide Band Ground Penetrating Radar, comprising: a transmitter/receiver for transmitting and receiving data; And obtaining the data using the ultra-wide band ground-transmitting radar, outputting a first value by applying a moving average filtering and gain compensation to the obtained data, and applying a differential operator to the first value And a controller for detecting (Edge) and correcting the image based on the detected edge.

본 개시의 실시 예에 따른 방법은, 초광대역 지면 투과 레이다(Ultra Wide Band Ground Penetrating Radar) 기반 영상 가시화 방법에 있어서, 상기 초광대역 지면 투과 레이다를 이용하여 데이터를 획득하는 과정; 상기 획득한 데이터에 이동 평균 필터링 및 이득 보상을 적용하여 제1 값을 출력하는 과정; 상기 제1 값에 영상의 로컬 거리를 적용하여 상기 영상의 에지(Edge)를 검출하는 과정; 및 상기 검출된 에지를 기반으로 하여 상기 영상을 보정하는 과정을 포함한다.A method according to an embodiment of the present disclosure may include: a method for visualizing an image based on an ultra wide band ground penetrating radar, comprising: obtaining data using the ultra wide band ground penetrating radar; Outputting a first value by applying moving average filtering and gain compensation to the acquired data; Detecting an edge of the image by applying a local distance of the image to the first value; And correcting the image based on the detected edge.

본 개시의 실시 예에 따른 장치는, 초광대역 지면 투과 레이다(Ultra Wide Band Ground Penetrating Radar) 기반 영상 가시화 장치에 있어서, 데이터를 송수신하는 송/수신부; 및 상기 초광대역 지면 투과 레이다를 이용하여 상기 데이터를 획득하고, 상기 획득한 데이터에 이동 평균 필터링 및 이득 보상을 적용하여 제1 값을 출력하고, 상기 제1 값에 영상의 로컬 거리를 적용하여 에지(Edge)를 검출하고, 및 상기 검출된 에지를 기반으로 하여 상기 영상을 보정하는 제어부를 포함한다.An apparatus according to an embodiment of the present disclosure is an image visualization apparatus based on an Ultra Wide Band Ground Penetrating Radar, comprising: a transmitter/receiver for transmitting and receiving data; And obtaining the data using the ultra-wideband ground-transmitting radar, outputting a first value by applying a moving average filtering and gain compensation to the obtained data, and applying a local distance of the image to the first value. And a control unit for detecting (Edge) and correcting the image based on the detected edge.

본 개시의 실시 예에 따른 방법은, 초광대역 지면 투과 레이다(Ultra Wide Band Ground Penetrating Radar) 기반 영상 가시화 방법에 있어서, 상기 초광대역 지면 투과 레이다를 이용하여 데이터를 획득하는 과정; 상기 획득한 데이터에 이동 평균 필터링 및 이득 보상을 적용하여 제1 값을 출력하는 과정; 상기 제1 값에 영상과 관련된 포물선의 특징점을 기반으로 하여 상기 영상의 에지(Edge)를 검출하는 과정; 및 상기 검출된 에지를 기반으로 하여 상기 영상을 보정하는 과정을 포함한다.A method according to an embodiment of the present disclosure may include: a method for visualizing an image based on an ultra wide band ground penetrating radar, comprising: obtaining data using the ultra wide band ground penetrating radar; Outputting a first value by applying moving average filtering and gain compensation to the acquired data; Detecting an edge of the image based on the first value and a feature point of a parabola related to the image; And correcting the image based on the detected edge.

본 개시의 실시 예에 따른 장치는, 초광대역 지면 투과 레이다(Ultra Wide Band Ground Penetrating Radar) 기반 영상 가시화 장치에 있어서, 데이터를 송수신하는 송/수신부; 및 상기 초광대역 지면 투과 레이다를 이용하여 상기 데이터를 획득하고, 상기 획득한 데이터에 이동 평균 필터링 및 이득 보상을 적용하여 제1 값을 출력하고, 상기 제1 값에 영상과 관련된 포물선의 특징점을 기반으로 하여 상기 영상의 에지(Edge)를 검출하고, 및 상기 검출된 에지를 기반으로 하여 상기 영상을 보정하는 제어부를 포함한다.An apparatus according to an embodiment of the present disclosure is an image visualization apparatus based on an Ultra Wide Band Ground Penetrating Radar, comprising: a transmitter/receiver for transmitting and receiving data; And obtaining the data using the ultra-wideband ground-transmitting radar, applying a moving average filtering and gain compensation to the obtained data to output a first value, and based on the first value a feature point of a parabola related to an image. And a controller configured to detect an edge of the image and correct the image based on the detected edge.

본 개시는 연산 속도가 빠르고, 지뢰 이외의 신호에 대하여 강인한 성능을 나타낼 수 있다.The present disclosure has a high computational speed and can exhibit robust performance with respect to signals other than landmines.

본 개시는 땅의 불균일함, 센서의 흔들림과 잡음 신호와 같이 표적 이외의 신호에 강인할 수 있다.The present disclosure can be robust to signals other than the target, such as ground irregularities, sensor shake and noise signals.

본 개시는 지뢰의 존재 유무뿐만 아니라 매설 위치를 효과적으로 사용자에게 제공할 수 있다.The present disclosure can effectively provide a user with a buried location as well as the presence or absence of a landmine.

도 1은 일반적인 영상 가시화 방법을 나타낸 흐름도;
도 2는 GPR 시스템의 블록 구성도;
도 3은 지뢰(물체)를 땅 속에 매설 한 후, 지면 투과 레이더를 활용하여 획득한 데이터의 예시도;
도 4는 본 개시의 실시 예에 따른 GPR 시스템의 블록 구성도;
도 5는 본 개시의 실시 예에 따른 초광대역 지면 투과 레이다 기반 영상 가시화 방법을 나타낸 흐름도;
도 6은 본 개시의 제1 실시 예에 따른 초대역 지면 투과 레이다 기반 영상의 일 예를 나타낸 도면;
도 7은 본 개시의 제1 실시 예에 따라 마스크별 Edge 검출 결과를 나타낸 도면;
도 8은 본 개시의 제1 실시 예에 따라 Edge 전/후 가시화 화면을 나타낸 도면;
도 9는 본 개시의 제2 실시 예에 따른 초대역 지면 투과 레이다 기반 영상을 나타낸 도면;
도 10은 본 개시의 제3 실시 예에 따른 초대역 지면 투과 레이다 기반 영상을 나타낸 도면;
도 11은 본 개시의 제3 실시 예에 따른 FAST 방법을 적용한 초대역 지면 투과 레이다 기반 영상을 나타낸 도면;
도 12는 본 개시의 실시 예에 따른 초광대역 지면 투과 레이다 기반 영상 가시화 방법을 적용한 영상을 나타낸 도면;
도 13은 본 개시의 제1 실시 예에 따른 초광대역 지면 투과 레이다 기반 영상 가시화 방법을 나타낸 흐름도;
도 14는 본 개시의 제2 실시 예에 따른 초광대역 지면 투과 레이다 기반 영상 가시화 방법을 나타낸 흐름도; 및
도 15는 본 개시의 제3 실시 예에 따른 초광대역 지면 투과 레이다 기반 영상 가시화 방법을 나타낸 흐름도.
1 is a flow chart showing a general image visualization method;
2 is a block diagram of a GPR system;
3 is an exemplary view of data acquired by using a ground-transmitting radar after buriing a mine (object) in the ground;
4 is a block diagram of a GPR system according to an embodiment of the present disclosure;
5 is a flowchart illustrating a method of visualizing an image based on an ultra-wideband ground-transmitting radar according to an embodiment of the present disclosure;
6 is a diagram illustrating an example of a super-band ground-transmitting radar-based image according to the first embodiment of the present disclosure;
7 is a diagram illustrating a result of edge detection for each mask according to the first embodiment of the present disclosure;
8 is a diagram illustrating a visualization screen before/after an edge according to the first embodiment of the present disclosure;
9 is a diagram showing a super-band ground-transmitting radar-based image according to a second embodiment of the present disclosure;
10 is a diagram illustrating a super-band ground-transmitting radar-based image according to a third embodiment of the present disclosure;
11 is a diagram showing a super-band ground-transmitting radar-based image to which a FAST method according to a third embodiment of the present disclosure is applied;
12 is a diagram showing an image to which an ultra-wideband ground-transmitting radar-based image visualization method is applied according to an embodiment of the present disclosure;
13 is a flowchart illustrating a method for visualizing an image based on an ultra-wideband ground-transmitting radar according to the first embodiment of the present disclosure;
14 is a flowchart illustrating a method for visualizing an image based on an ultra-wide band ground-transmitting radar according to a second embodiment of the present disclosure; And
15 is a flowchart illustrating a method for visualizing an image based on an ultra-wideband ground-transmitting radar according to a third embodiment of the present disclosure.

이하, 본 개시의 다양한 실시예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 개시에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 실시예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Hereinafter, various embodiments of the present disclosure will be described with reference to the accompanying drawings. However, this is not intended to limit the technology described in the present disclosure to a specific embodiment, it is to be understood as including various modifications, equivalents, and/or alternatives of the embodiments of the present disclosure. . In connection with the description of the drawings, similar reference numerals may be used for similar elements.

본 개시에서, "가진다", "가질 수 있다", "포함한다", 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In the present disclosure, expressions such as "have", "may have", "include", or "may include" are the presence of corresponding features (eg, elements such as numbers, functions, actions, or parts). And does not exclude the presence of additional features.

본 개시에서, "A 또는 B", "A 또는/및 B 중 적어도 하나", 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B", "A 및 B 중 적어도 하나", 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this disclosure, expressions such as "A or B", "at least one of A or/and B", or "one or more of A or/and B" may include all possible combinations of items listed together. . For example, “A or B”, “at least one of A and B”, or “at least one of A or B” includes (1) at least one A, (2) at least one B, Or (3) it may refer to all cases including both at least one A and at least one B.

본 개시에서 사용된 "제 1", "제 2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제 1 사용자 기기와 제 2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 개시에 기재된 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 바꾸어 명명될 수 있다.Expressions such as "first", "second", "first", or "second" used in the present disclosure may modify various elements regardless of order and/or importance, and one element may be converted to another. It is used to distinguish it from the component, but does not limit the component. For example, a first user device and a second user device may represent different user devices regardless of order or importance. For example, without departing from the scope of the rights described in the present disclosure, a first component may be referred to as a second component, and similarly, a second component may be renamed to a first component.

어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상술한 어떤 구성요소가 상술한 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 어떤 구성요소와 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.Some component (eg, a first component) is "(functionally or communicatively) coupled with/to)" to another component (eg, a second component) or " When referred to as "connected to", it should be understood that any of the above-described components may be directly connected to the other components described above, or may be connected through other components (eg, a third component). On the other hand, when a component (eg, a first component) is referred to as being “directly connected” or “directly connected” to another component (eg, a second component), a component different from a component It may be understood that no other component (eg, a third component) exists between the elements.

본 개시에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)", "~하는 능력을 가지는(having the capacity to)", "~하도록 설계된(designed to)", "~하도록 변경된(adapted to)", "~하도록 만들어진(made to)", 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 AP(application processor))를 의미할 수 있다.The expression "configured to (configured to)" used in the present disclosure is, for example, "suitable for", "having the capacity to" depending on the situation. It can be used interchangeably with ", "designed to", "adapted to", "made to", or "capable of". The term "configured to (or set)" may not necessarily mean only "specifically designed to" in hardware. Instead, in some situations, the expression "a device configured to" may mean that the device "can" along with other devices or parts. For example, the phrase “a processor configured (or configured) to perform A, B, and C” means a dedicated processor (eg, an embedded processor) for performing the operation, or by executing one or more software programs stored in a memory device. , May mean a generic-purpose processor (eg, a CPU or an application processor (AP)) capable of performing corresponding operations.

본 개시에서 사용된 용어들은 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 개시에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 개시에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 개시에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 개시에서 정의된 용어일지라도 본 개시의 실시예들을 배제하도록 해석될 수 없다.Terms used in the present disclosure are used only to describe a specific embodiment, and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions unless the context clearly indicates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by one of ordinary skill in the technical field described in the present disclosure. Among the terms used in the present disclosure, terms defined in a general dictionary may be interpreted as having the same or similar meaning as the meaning in the context of the related technology, and unless explicitly defined in the present disclosure, an ideal or excessively formal meaning Is not interpreted as. In some cases, even terms defined in the present disclosure cannot be interpreted to exclude embodiments of the present disclosure.

본 개시의 다양한 실시예들에 따른 초광대역 지면 투과 레이다 기반 영상 가시화 장치는 예를 들면, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있다.An ultra-wideband ground-transmitting radar-based image visualization apparatus according to various embodiments of the present disclosure includes, for example, a smartphone, a tablet personal computer, a mobile phone, a video phone, and an e-book reader. (e-book reader), desktop personal computer (desktop personal computer), laptop personal computer (laptop personal computer), netbook computer, workstation, server, personal digital assistant (PDA), portable multimedia player (PMP) ), an MP3 player, a mobile medical device, a camera, or a wearable device.

도 1은 종래의 영상 가시화 방법을 나타낸 흐름도이다.1 is a flow chart showing a conventional image visualization method.

GPR 시스템은 101 단계에서 GPR 데이터에 대해 A Scan한다. A scan은 거리나 시간을 나타내는 횡축과 진폭을 나타내는 종축을 이용하여 자료를 1차원으로 표현하는 방법이고, B scan은 신호의 단면적을 나타내는 데이터의 2차원 표현 방법을 의미한다.In step 101, the GPR system A scans the GPR data. A scan is a method of expressing data in one dimension using a horizontal axis representing distance or time and a vertical axis representing amplitude, and B scan is a two-dimensional representation of data representing the cross-sectional area of a signal.

GPR 시스템은 103 단계에서 보상 이전에 전처리 과정(정합 필터, 이동 평균 필터, 선형 이득 곡선 등)을 수행한다.In step 103, the GPR system performs pre-processing (matched filter, moving average filter, linear gain curve, etc.) before compensation.

GPR 시스템은 105 단계에서 영상을 형성하여 표적을 탐지한다.The GPR system detects the target by forming an image in step 105.

정합 필터, 이동 평균 필터, 선형 이득 곡선을 이용하여 레이다 신호를 보상한 후 영상을 형성하여 표적을 탐지한다.The radar signal is compensated using a matched filter, a moving average filter, and a linear gain curve, and then an image is formed to detect the target.

GPR 시스템은 크게 차량형과 휴대용으로 나누어진다. 휴대용은 차량형과 다르게 적은 전력으로 지뢰 탐지를 수행해야하는 제약이 있다. 따라서, 휴대용은 빠른 데이터 처리를 위해 간단하고 연산량이 적은 알고리즘을 많이 이용했다. 그러나 해당 알고리즘들은 땅의 불균일함, 센서의 흔들림과 잡음 신호와 같이 표적 이외의 신호에 강인하지 못하다는 단점이 있다. 즉, 배경 신호를 지뢰 신호로 인식하는 오경보 발생 확률과 지뢰 신호를 배경 신호로 인식하여 실제 매설된 지뢰를 탐지하지 못할 확률이 높게 나타나는 문제가 발생한다.The GPR system is largely divided into vehicle type and portable type. Unlike the vehicle type, the portable has a limitation in that it must perform landmine detection with less power. Therefore, the portable has a lot of simple and computationally small algorithms for fast data processing. However, these algorithms have the disadvantage that they are not robust to signals other than the target such as unevenness of the ground, vibration of the sensor and noise signals. That is, there is a problem in that the probability of generating a false alarm in which the background signal is recognized as a landmine signal and the probability of not detecting an actual buried mine by recognizing the mine signal as a background signal are high.

도 2는 GPR 시스템의 블록 구성도를 나타낸다.2 shows a block diagram of a GPR system.

GPR 시스템(200)은 송수신 제어 및 신호 처리부(210), 송신부(212), 송신 안테나(214), 수신부(216), 수신 안테나(218) 등을 포함한다.The GPR system 200 includes a transmission/reception control and signal processing unit 210, a transmission unit 212, a transmission antenna 214, a reception unit 216, a reception antenna 218, and the like.

송수신 제어 및 신호 처리부(210)는 초광대역의 펄스를 발생시키고 송신부(212)로 전달한다. 또한 송수신 제어 및 신호 처리부(210)는 수신부(216)로부터 수신된 신호를 수신한다.The transmission/reception control and signal processing unit 210 generates ultra-wideband pulses and transmits them to the transmission unit 212. In addition, the transmission/reception control and signal processing unit 210 receives a signal received from the reception unit 216.

송신부(212)는 송수신 제어 및 신호 처리부(210)로부터 수신된 초광대역의 펄스 신호를 송신 안테나(214)로 전달한다.The transmission unit 212 transmits the ultra-wideband pulse signal received from the transmission/reception control and signal processing unit 210 to the transmission antenna 214.

송신 안테나(214)는 송수신 제어 및 신호 처리부(210)에서 발생한 초광대역의 펄스 신호를 매설 물체(220)로 방사한다. 여기서, 매설 물체(220)는 지뢰(물체)를 땅 속에 매설한 물체를 의미한다.The transmission antenna 214 radiates the ultra-wideband pulse signal generated by the transmission/reception control and signal processing unit 210 to the buried object 220. Here, the buried object 220 refers to an object in which a landmine (object) is buried in the ground.

수신 안테나(218)는 매설 물체(220)를 통과한 후 매설 물체(220)에서 반사되어 돌아오는 신호를 받아들이는 역할을 수행한다.The receiving antenna 218 serves to receive a signal reflected from the buried object 220 after passing through the buried object 220 and returned.

수신부(216)는 수신 안테나(218)로부터 입력된 신호를 증폭하여 송수신 제어 및 신호 처리부(210)로 전달한다.The receiving unit 216 amplifies the signal input from the receiving antenna 218 and transmits the amplified signal to the transmission/reception control and signal processing unit 210.

도 3은 지뢰(물체)를 땅 속에 매설 한 후, 지면 투과 레이더를 활용하여 획득한 데이터의 예시도이다.3 is an exemplary diagram of data obtained by using a ground-transmitting radar after buriing a mine (object) in the ground.

콘크리트 내부 철근, 터널 라이닝 강지보재 및 지하 매설물과 같이 인위적으로 매질 내에 설치된 대상체의 표면에서는 반사파가 발생되고 획득된 반사파의 영상은 도 3과 같이, 포물선(310) 형태로 나타난다. 즉, 지하에 표적이 있다면 안테나가 이동하는 방향으로 포물선(310) 형태의 신호가 획득된다.Reflected waves are generated on the surface of an object artificially installed in a medium such as reinforcement inside concrete, tunnel linings, and underground burials, and the acquired reflected wave image is shown in the form of a parabola 310 as shown in FIG. 3. That is, if there is a target underground, a signal in the form of a parabola 310 is obtained in the direction in which the antenna moves.

B-scan 데이터에는 포물선(310) 형태로 나타나는 지뢰 신호, 지표면 반사 신호, 깊이 방향으로 주기적으로 나타나는 신호와 같이 다양한 신호가 포함되어 있다. GPR 시스템은 이러한 신호들 중 지뢰 신호를 빠르고 정확하게 탐지할 수 있어야 한다. 따라서 연산 속도가 빠르고, 지뢰 이외의 신호에 대하여 강인한 성능을 나타내는 지뢰 탐지 가시화 방법이 요구된다.The B-scan data includes various signals such as a landmine signal that appears in the form of a parabola 310, a reflection signal on the ground surface, and a signal that appears periodically in the depth direction. The GPR system must be able to quickly and accurately detect landmine signals among these signals. Therefore, there is a need for a method for detecting and visualizing landmines, which has a high computational speed and exhibits robust performance for signals other than mines.

도 4는 본 개시의 실시 예에 따른 GPR 시스템의 블록 구성도를 나타낸다.4 is a block diagram of a GPR system according to an embodiment of the present disclosure.

GPR 시스템 또는 GPR 장치(이하에서는 GPR 시스템으로 칭함)는 GPR 데이터 획득부(401), Constant 신호 제거부(402), 정합 필터부(403), 이동 평균 필터부(404), 선형 이득 보상부(405), 비선형 이득 보상부(406), 시간별 평균 적용부(407), 깊이별 평균 적용부(408), 컴퓨터 비전부(410), 에너지 합 처리부(420), 영상 보정부(430) 등을 포함한다.The GPR system or GPR device (hereinafter referred to as a GPR system) includes a GPR data acquisition unit 401, a constant signal removal unit 402, a matched filter unit 403, a moving average filter unit 404, and a linear gain compensation unit ( 405), a nonlinear gain compensation unit 406, a time average application unit 407, a depth average application unit 408, a computer vision unit 410, an energy sum processing unit 420, an image correction unit 430, etc. Include.

GPR 데이터 획득부(401)는 GPR 데이터를 획득한다. 즉, GPR 데이터 획득부(401)는 지뢰 또는 물체가 묻혀있는 위치에서 GPR을 이용하여 데이터를 획득한다.The GPR data acquisition unit 401 acquires GPR data. That is, the GPR data acquisition unit 401 acquires data by using the GPR at a location where a landmine or an object is buried.

Constant 신호 제거부(402)는 획득된 GPR 데이터에서 Constant 신호를 제거한다.The constant signal removing unit 402 removes the constant signal from the acquired GPR data.

정합 필터부(403) 및 이동 평균 필터부(404)는 Constant 신호 제거부(402)에서 출력된 신호에서 배경신호를 제거하기 위해 필터링한다.The matched filter unit 403 and the moving average filter unit 404 filter to remove the background signal from the signal output from the constant signal removing unit 402.

시간별 평균 적용부(407) 및 깊이별 평균 적용부(408)는 컴퓨터 비전 알고리즘을 적용하기 전에 포물선 선 강조를 위하여 시간별 평균 및 깊이별 평균을 각각 적용한다.The time average application unit 407 and the depth average application unit 408 respectively apply the time average and the depth average to emphasize the parabolic line before applying the computer vision algorithm.

본 개시의 실시 예에 따른 컴퓨터 비전부(410)는 컴퓨터 비전 알고리즘을 적용하는 역할을 수행하고, 미분 마스크 처리부(411), Edge 검출부(412), 사각 윈도우 세그먼트 처리부(413), 로컬(local) 거리 계산부(414), 원 윈도우 세그먼트 처리부(415), 특징점 추출부(416) 등을 포함한다.The computer vision unit 410 according to an embodiment of the present disclosure serves to apply a computer vision algorithm, and a differential mask processing unit 411, an edge detection unit 412, a rectangular window segment processing unit 413, and a local A distance calculation unit 414, a one window segment processing unit 415, a feature point extraction unit 416, and the like are included.

미분 마스크 처리부(411)는 후술될 도 6에서 나타낸 바와 같이, 1차 미분 값에서 그래프 기울기의 크기로 영상에서 윤곽선의 존재 여부를 확인하고, 2차 미분 값에서 그래프 기울기의 부호로 윤곽선의 픽셀의 밝고 어두운 부분의 위치를 확인한다. GPR 신호 처리에서는 마스크 필터를 이용하여 미분 연산자의 역할을 수행한다. 이때 마스크 내의 모든 픽셀의 합은 0이 되도록 한다.As shown in FIG. 6 to be described later, the differential mask processing unit 411 checks whether an outline exists in the image by the magnitude of the graph slope at the first derivative value, and determines whether the pixel of the outline by the sign of the graph slope at the second derivative value. Check the location of the bright and dark areas. In GPR signal processing, a mask filter is used to play the role of a differential operator. At this time, the sum of all pixels in the mask is set to 0.

미분 마스크 처리부(411)에서 사용되는 마스크는 Canny, Log, Prewitt, Roberts, Sobel, Zero-cross 등을 포함할 수 있다.Masks used in the differential mask processing unit 411 may include Canny, Log, Prewitt, Roberts, Sobel, Zero-cross, and the like.

Edge 검출부(412)는 본 개시의 실시 예에 따라서 미분 마스크 처리부(411)의 확인 결과를 기반으로 하여 영상의 Edge를 검출한다. Edge란 이미지의 세기가 작은 값에서 높은 값으로, 또는 이와 반대로 변하는 지점에 존재하는 부분을 나타내는 것으로, 이미지 안에 있는 객체의 경계(Boundary)를 의미한다. Edge는 모양(Shape), 방향성(Direction)을 탐지할 수 있는 등 여러 정보가 담겨 있으며. 이러한 정보를 운용자에게 제공함으로써 영상의 선명도를 올리고 탐지율을 향상 시킬 수 있다.The edge detection unit 412 detects an edge of an image based on the confirmation result of the differential mask processing unit 411 according to an embodiment of the present disclosure. Edge refers to a part that exists at a point where the intensity of an image changes from a small value to a high value, or vice versa, and refers to the boundary of an object in the image. Edge contains a number of information, such as the ability to detect the shape and direction. By providing this information to the operator, the clarity of the image can be improved and the detection rate can be improved.

사각 윈도우 세그먼트 처리부(413)는 3by3 윈도우를 형성하여 최소값(min) 및 최대값(max)을 추출한다.The rectangular window segment processing unit 413 extracts the minimum value min and the maximum value max by forming a 3by3 window.

로컬(local) 거리 계산부(414)는 상기 사각 윈도우 세그먼트 처리부(413)에서 추출한 최소값 및 최대값의 차이로 로컬 거리를 계산한다. 예컨대, 거리는 3(min=1, max=4)이다. 로컬(local) 거리 계산부(414)는 상기 계산된 로컬 거리를 기반으로 하여 영상의 edge를 검출한다.The local distance calculation unit 414 calculates the local distance based on the difference between the minimum value and the maximum value extracted by the rectangular window segment processing unit 413. For example, the distance is 3 (min=1, max=4). The local distance calculator 414 detects an edge of an image based on the calculated local distance.

원 윈도우 세그먼트 처리부(415)는 특징점(keypoint)을 추출하고, 원 윈도우를 형성하여 코너점을 생성한다.The one window segment processing unit 415 extracts keypoints and forms a circle window to generate a corner point.

특징점 추출부(416)는 상기 원 윈도우 세그먼트 처리부(415)에서 생성된 코너점을 기반으로 하여 특징점을 추출한다. 그리고 특징점 추출부(416)는 추출된 특징점을 기반으로 하여 영상의 Edge를 검출한다.The feature point extracting unit 416 extracts a feature point based on the corner point generated by the original window segment processing unit 415. In addition, the feature point extraction unit 416 detects an edge of the image based on the extracted feature point.

에너지 합 처리부(420)는 상기 컴퓨터 비전부(410)에서 검출된 Edge를 기반으로 하여 에너지 합을 결정하고, 결정된 에너지 합을 기반으로 하여 표적 세기 정보를 얻는다.The energy sum processing unit 420 determines an energy sum based on the edge detected by the computer vision unit 410, and obtains target intensity information based on the determined energy sum.

영상 보정부(430)는 상기 컴퓨터 비전부(410)에서 검출된 Edge 또는 상기 에너지 합 처리부(420)의 결과값을 기반으로 하여 영상을 보정한다.The image correction unit 430 corrects an image based on the edge detected by the computer vision unit 410 or a result value of the energy sum processing unit 420.

도 5는 본 개시의 실시 예에 따른 초광대역 지면 투과 레이다 기반 영상 가시화 방법을 나타낸 흐름도이다.5 is a flowchart illustrating a method for visualizing an image based on an ultra-wide band ground-transmitting radar according to an embodiment of the present disclosure.

참조번호 510은 GPR 탐사를 수행하여 획득한 GPR 데이터를 나타낸다. 즉, GPR 데이터 획득부(401)의 결과값을 나타낸다.Reference numeral 510 denotes GPR data obtained by performing GPR exploration. That is, it represents the result value of the GPR data acquisition unit 401.

참조번호 520은 GPR 데이터에 이동 평균 필터를 적용한 결과값을 나타낸다. 즉, 도 4의 이동 평균 필터부(404)의 결과값을 나타낸다.Reference number 520 denotes a result of applying a moving average filter to GPR data. That is, it shows the result value of the moving average filter unit 404 of FIG. 4.

참조번호 530은 선형 또는 비선형 이득 보상을 수행한 결과값을 나타낸다. 즉, 도 4의 선형 이득 보상부(405) 또는 비선형 이득 보상부(406)의 결과값을 나타낸다.Reference numeral 530 denotes a result of performing linear or nonlinear gain compensation. That is, the result of the linear gain compensation unit 405 or the nonlinear gain compensation unit 406 of FIG. 4 is shown.

참조번호 540은 본 개시의 실시 예에 따라서 영상을 보정한 후의 결과값을 나타낸다. 즉, 도 4의 영상 보정부(430)의 결과값을 나타낸다.Reference numeral 540 denotes a result value after correcting an image according to an embodiment of the present disclosure. That is, the result value of the image correction unit 430 of FIG. 4 is shown.

본 개시의 실시 예에서는 기존의 초광대역 지면 투과 레이더로 획득한 데이터에 정합 필터부(403), 이동 평균 필터부(404), 선형 이득 보상부(405), 비선형 이득 보상부(406)의 동작을 적용하고, 추가적으로 도 4와 같은 컴퓨터 비전 알고리즘(도 4의 컴퓨터 비전부(410)의 동작)을 추가로 적용하여 SNR(Signal to noise ratio)을 개선함으로써 포물선을 뚜렷하게 하고 영상의 정확한 위치를 파악할 수 있다. 컴퓨터 비전 알고리즘에서 Edge 검출, 로컬 거리 계산, 영상의 특징점 추출 등을 사용한다.In an embodiment of the present disclosure, the operation of the matched filter unit 403, the moving average filter unit 404, the linear gain compensation unit 405, and the nonlinear gain compensation unit 406 on data acquired by an existing ultra-wideband ground-transmitting radar And, additionally, a computer vision algorithm (operation of the computer vision unit 410 of FIG. 4) as shown in FIG. 4 is additionally applied to improve the signal to noise ratio (SNR), thereby making the parabola clear and identifying the exact position of the image. I can. In computer vision algorithms, edge detection, local distance calculation, and feature point extraction of images are used.

도 6은 본 개시의 제1 실시 예에 따른 초대역 지면 투과 레이다 기반 영상의 일 예를 나타낸 도면이다.6 is a diagram illustrating an example of a super-band ground-transmitting radar-based image according to the first embodiment of the present disclosure.

참조번호 610은 밝기 변화에 대한 X축의 기울기 변화량 파형을 나타낸다.Reference numeral 610 denotes a waveform of the amount of change in the slope of the X-axis with respect to the change in brightness.

참조번호 620은 1차 미분한 파형을 나타내고, 참조번호 630은 2차 미분한 파형을 나타낸다.Reference numeral 620 denotes a first-order differential waveform, and reference numeral 630 denotes a second-order differential waveform.

GPR 시스템은 Edge 검출을 위해 참조번호 620과 같이 1차 미분 값에서 그래프 기울기의 크기로 영상에서 윤곽선의 존재 여부를 확인한다. 이후, GPR 시스템은 참조번호 630과 같이, 2차 미분 값에서 그래프 기울기의 부호로 윤곽선의 픽셀의 밝고 어두운 부분의 위치를 확인한다. GPR 신호 처리에서는 마스크 필터를 이용하여 미분 연산자의 역할을 수행한다. 이때 마스크 내의 모든 픽셀의 합은 0이 되도록 한다. For edge detection, the GPR system checks the existence of an outline in the image by the magnitude of the slope of the graph from the first derivative value as shown in reference number 620. Thereafter, the GPR system checks the positions of the bright and dark portions of the pixels of the outline with the sign of the slope of the graph from the second derivative value, as shown by reference number 630. In GPR signal processing, a mask filter is used to play the role of a differential operator. At this time, the sum of all pixels in the mask is set to 0.

도 7은 본 개시의 제1 실시 예에 따라 마스크별 Edge 검출 결과를 나타낸 도면이다.7 is a diagram illustrating a result of edge detection for each mask according to the first embodiment of the present disclosure.

본 개시의 제1 실시 예에 따라 사용되는 마스크는 Canny 마스크, Log 마스크, Prewitt 마스크, Roberts 마스크, Sobel 마스크, Zero-cross 마스크 등을 포함하고, 마스크를 적용한 이후의 영상은 도 7과 같다. Masks used according to the first embodiment of the present disclosure include a Canny mask, a Log mask, a Prewitt mask, a Roberts mask, a Sobel mask, a zero-cross mask, and the like, and an image after applying the mask is shown in FIG. 7.

참조번호 701은 Sobel 마스크를 적용한 Edge 검출 결과값을 나타낸다.Reference number 701 denotes an edge detection result value to which a Sobel mask is applied.

참조번호 703은 Canny 마스크를 적용한 Edge 검출 결과값을 나타낸다.Reference numeral 703 denotes an edge detection result value to which a Canny mask is applied.

참조번호 705은 Log 마스크를 적용한 Edge 검출 결과값을 나타낸다.Reference numeral 705 denotes an edge detection result value to which a log mask is applied.

참조번호 707은 Prewitt 마스크를 적용한 Edge 검출 결과값을 나타낸다.Reference numeral 707 denotes an edge detection result value to which a Prewitt mask is applied.

참조번호 709은 Roberts 마스크를 적용한 Edge 검출 결과값을 나타낸다.Reference numeral 709 denotes an edge detection result value applying a Roberts mask.

참조번호 711은 Zero-cross 마스크를 적용한 Edge 검출 결과값을 나타낸다.Reference number 711 denotes the edge detection result value applying the zero-cross mask.

Canny 마스크, Log 마스크, Zero-cross 마스크를 사용할 경우 Edge의 범위가 광범위해 사용자가 표적의 중심을 찾기 어렵다. 그래서 매우 분명한 Edge만을 검출하는 마스크인 Sobel 마스크, Prewitt 마스크, Roberts 마스크를 고려하며, 연산량이 빠르고 잡음에 상대적으로 덜 민감한 Prewitt 마스크 사용을 고려한다.When using a canny mask, log mask, or zero-cross mask, the range of the edge is wide, making it difficult for the user to find the center of the target. So, we consider the Sobel mask, Prewitt mask, and Roberts mask, which are masks that detect only very clear edges, and consider using a Prewitt mask that has a fast computational load and is relatively less sensitive to noise.

도 8은 본 개시의 제1 실시 예에 따라 Edge 전/후 가시화 화면을 나타낸 도면이다.8 is a diagram illustrating a visualization screen before/after an edge according to the first embodiment of the present disclosure.

참조번호 801은 본 개시의 제1 실시 예를 적용하기 전의 가시화 화면을 나타낸 것이고, 참조번호 803은 본 개시의 제1 실시 예를 적용하기 전의 가시화 화면을 나타낸 것이다. 본 개시의 제1 실시 예를 적용하면, 참조번호 803과 같이 영상의 선명도가 높아질 수 있다.Reference numeral 801 denotes a visualization screen before applying the first embodiment of the present disclosure, and reference numeral 803 denotes a visualization screen before applying the first embodiment of the present disclosure. When the first embodiment of the present disclosure is applied, as shown by reference numeral 803, the sharpness of an image may be increased.

도 9는 본 개시의 제2 실시 예에 따른 초대역 지면 투과 레이다 기반 영상을 나타낸 도면이다.9 is a diagram illustrating a super-band ground-transmitting radar-based image according to a second embodiment of the present disclosure.

본 개시의 제2 실시 예에서 GPR 시스템은 영상의 로컬 거리를 이용하여 Edge를 추출하는 Rangefilt 알고리즘을 적용한다. Rangefilt 알고리즘은 도 9의 910과 같이 3by3 윈도우를 형성하여 최소값 및 최대값을 추출한 후 최대값과 최소값의 차이를 추출하는 알고리즘이다. 도 9에서 거리는 3(min=1, max=4)이며, 이러한 원리로 영상의 edge(참조번호 920)를 검출한다. 도 9의 참조번호 920은 본 개시의 제2 실시 예를 적용한 초대역 지면 투과 레이다 기반 영상을 나타낸다.In the second embodiment of the present disclosure, the GPR system applies a Rangefilt algorithm for extracting an edge using a local distance of an image. The Rangefilt algorithm is an algorithm that extracts a minimum value and a maximum value by forming a 3by3 window as shown in 910 of FIG. 9 and then extracts the difference between the maximum value and the minimum value. In FIG. 9, the distance is 3 (min=1, max=4), and an edge (reference number 920) of the image is detected by this principle. Reference numeral 920 of FIG. 9 denotes a super-band ground-transmitting radar-based image to which the second embodiment of the present disclosure is applied.

도 10은 본 개시의 제3 실시 예에 따른 초대역 지면 투과 레이다 기반 영상을 나타낸 도면이다. 도 11은 본 개시의 제3 실시 예에 따른 FAST 방법을 적용한 초대역 지면 투과 레이다 기반 영상을 나타낸 도면이다.10 is a diagram illustrating a super-band ground-transmitting radar-based image according to a third embodiment of the present disclosure. FIG. 11 is a diagram showing a super-band ground-transmitting radar-based image to which the FAST method according to the third embodiment of the present disclosure is applied.

본 개시의 제3 실시 예에서 GPR 시스템은 영상 특징점 추출 알고리즘을 적용한다. 상기 영상 특징점 추출 알고리즘은 영상에서 표적을 추적하거나 인식할 때 가장 일반적으로 사용하는 방법으로 영상에서 주요 특징점(keypoint)을 추출하여 인식하는 것이다.In the third embodiment of the present disclosure, the GPR system applies an image feature point extraction algorithm. The image feature point extraction algorithm is the most commonly used method when tracking or recognizing a target in an image, and recognizes by extracting a key point from an image.

좋은 영상 특징점의 장점은 표적의 형태나 크기, 위치가 변해도 쉽게 식별이 가능하고, 세기나 밝기가 변해도 영상에서 해당 지점을 쉽게 찾아 낼 수 있다. 이러한 조건을 만족하는 가장 좋은 특징점은 바로 코너점(Corner Point)이다. 대부분의 특징점 추출 알고리즘은 이러한 코너점 검출을 바탕으로 하고 있다. 지뢰 영상 가시화에서는 코너점을 형성하기 위하여 마스크를 적용하여 경계점을 두드러지게 한 후 영상 특징점 추출 알고리즘을 수행하였다. 영상 특징점 추출 알고리즘은 Harris Corner, Shi-Tomasi, SIFT-Dog, FAST 방법을 포함한다. 일반적으로 영상 특징점 추출 알고리즘은 연산량이 많아 실시간 처리에 문제가 발생할 수 있다. 그러나 2006년에 영국 캠브리지 대학의 Edward Rosten이 개발한 방법인 FAST 방법은 극도의 빠름을 추구한 특징점 추출 알고리즘으로 실시간 처리가 가능하다. 또한 FAST 가 아주 우수한 알고리즘인 이유는 속도에 최적화되어 있는 기술임에도 불구하고 그 특징점의 품질(Repeatability: 다양한 영상 변화에서도 동일한 특징점이 반복되어 검출되는 정도) 또한 기존의 방법들(Harris, DoG 등)보다 우수하다. 따라서 휴대형 지뢰탐지기에는 FAST 방법을 이용하여 특징점을 추출하였다.The advantage of a good image feature is that it can be easily identified even if the shape, size, or location of the target changes, and the corresponding point in the image can be easily found even if the intensity or brightness changes. The best feature that satisfies these conditions is the Corner Point. Most feature point extraction algorithms are based on this corner point detection. In land mine image visualization, image feature point extraction algorithm was performed after making the boundary point prominent by applying a mask to form a corner point. Image feature point extraction algorithms include Harris Corner, Shi-Tomasi, SIFT-Dog, and FAST methods. In general, image feature point extraction algorithms have a large amount of computation and may cause problems in real-time processing. However, the FAST method, a method developed by Edward Rosten of the University of Cambridge in England, in 2006, is a feature point extraction algorithm that pursues extremely fast and can be processed in real time. In addition, the reason FAST is a very excellent algorithm is that the quality of the feature points (repeatability: the degree to which the same feature points are repeatedly detected even in various image changes) is also better than that of the existing methods (Harris, DoG, etc.). great. Therefore, feature points were extracted using the FAST method for portable mine detectors.

FAST 알고리즘에서는 영상에서 참조번호 1010과 같은 픽셀 p를 선택한다. 픽셀 p 주위에 16개의 픽셀로 이루어진 원을 가정한다.In the FAST algorithm, a pixel p equal to 1010 is selected from an image. Assume a circle of 16 pixels around pixel p.

FAST 알고리즘에서는 도 10과 같이 어떤 점 p가 코너(Corner)인지 여부를 p를 중심으로 하는 반지름 3인 원 상에서 16개 픽셀 값을 보고 판단한다. 그래서 p보다 일정 값 이상 밝은(>p+t) 픽셀들이 n개 이상 연속되어 있거나 또는 일정 값 이상 어두운(<p-t) 픽셀들이 n개 이상 연속되어 있으면 p를 코너 점으로 판단한다. FAST 방법을 이용한 휴대형 지뢰 탐지기의 가시화된 영상은 도 11과 같다.In the FAST algorithm, as shown in FIG. 10, whether a point p is a corner is determined by looking at the value of 16 pixels on a circle having a radius of 3 around p. So, if n or more pixels are consecutively brighter than p (>p+t) or n or more dark (<p-t) pixels are consecutively more than a certain value, p is determined as a corner point. The visualized image of the portable mine detector using the FAST method is shown in FIG. 11.

도 12는 본 개시의 실시 예에 따른 초광대역 지면 투과 레이다 기반 영상 가시화 방법을 적용한 영상을 나타낸 도면이다.12 is a diagram illustrating an image to which an ultra-wideband ground-transmitting radar-based image visualization method is applied according to an embodiment of the present disclosure.

도 12는 컴퓨터 비전 알고리즘을 적용한 가시화 영상으로, 3개의 컴퓨터 비전 알고리즘(Edge 검출, 로컬 거리 계산, 영상 특징점 추출 알고리즘)을 이용하여 포물선 영상을 선명하게 만듬으로써, SNR을 개선할 수 있다.12 is a visualized image to which a computer vision algorithm is applied, and SNR can be improved by sharpening a parabolic image using three computer vision algorithms (edge detection, local distance calculation, and image feature point extraction algorithm).

도 13은 본 개시의 제1 실시 예에 따른 초광대역 지면 투과 레이다 기반 영상 가시화 방법을 나타낸 흐름도이다.13 is a flowchart illustrating a method of visualizing an image based on an ultra-wide band ground-transmitting radar according to the first embodiment of the present disclosure.

GPR 시스템은 1301 단계에서 GPR 데이터를 획득한다,.The GPR system acquires GPR data in step 1301.

GPR 시스템은 1303 단계에서 획득한 GPR 데이터에 이동 평균 필터를 적용하여 지표 반사를 제거한다.The GPR system removes ground reflection by applying a moving average filter to the GPR data acquired in step 1303.

GPR 시스템은 1305 단계에서 매질 감쇄 보상하기 위해서 이동 평균 필터가 적용된 결과값에 대해 이득을 보상한다.In step 1305, the GPR system compensates the gain for the result value to which the moving average filter is applied to compensate for attenuation of the medium.

GPR 시스템은 1307 단계에서 컴퓨터 비전 알고리즘을 적용하기 이전에 포물선 선 강조를 위하여 시간별 또는 깊이별 평균을 취한다. 1307 단계의 동작은 생략 가능함은 물론이다.In step 1307, the GPR system takes an average by time or by depth to emphasize the parabolic line before applying the computer vision algorithm. It goes without saying that the operation of step 1307 can be omitted.

GPR 시스템은 1309 단계에서 제1 실시 예에 따라서 미분 마스크를 적용한다. 미분 마스크에 대한 상세한 설명은 도 4의 미분 마스크 처리부(411)의 동작 설명을 기반으로 한다.The GPR system applies a differential mask according to the first embodiment in step 1309. A detailed description of the differential mask is based on an operation description of the differential mask processing unit 411 of FIG. 4.

GPR 시스템은 1311 단계에서 제1 실시 예에 따라서 영상의 Edge를 검출한다. Edge 검출에 대한 상세한 설명은 도 4의 Edge 검출부(412)의 동작 설명을 기반으로 한다.In step 1311, the GPR system detects an edge of an image according to the first embodiment. A detailed description of edge detection is based on an operation description of the edge detection unit 412 of FIG. 4.

GPR 시스템은 1313 단계에서 컴퓨터 비전 알고리즘을 적용한 결과를 기반으로 하여 영상을 보정한다. 영상 보정에 대한 상세한 설명은 도 4의 영상 보정부(430)의 동작 설명을 기반으로 한다. The GPR system corrects the image based on the result of applying the computer vision algorithm in step 1313. A detailed description of the image correction is based on the operation description of the image correction unit 430 of FIG. 4.

도 14는 본 개시의 제2 실시 예에 따른 초광대역 지면 투과 레이다 기반 영상 가시화 방법을 나타낸 흐름도이다.14 is a flowchart illustrating a method for visualizing an image based on an ultra-wide band ground-transmitting radar according to a second embodiment of the present disclosure.

GPR 시스템은 1401 단계에서 GPR 데이터를 획득한다,.The GPR system acquires GPR data in step 1401.

GPR 시스템은 1403 단계에서 획득한 GPR 데이터에 이동 평균 필터를 적용하여 지표 반사를 제거한다.The GPR system removes ground reflection by applying a moving average filter to the GPR data acquired in step 1403.

GPR 시스템은 1405 단계에서 매질 감쇄 보상하기 위해서 이동 평균 필터가 적용된 결과값에 대해 이득을 보상한다.In step 1405, the GPR system compensates the gain for the result of applying the moving average filter in order to compensate for attenuation of the medium.

GPR 시스템은 1407 단계에서 컴퓨터 비전 알고리즘을 적용하기 이전에 포물선 선 강조를 위하여 시간별 또는 깊이별 평균을 취한다. 1407 단계의 동작은 생략 가능함은 물론이다.In step 1407, the GPR system takes an average by time or by depth to emphasize the parabolic line before applying the computer vision algorithm. It goes without saying that the operation of step 1407 can be omitted.

GPR 시스템은 1409 단계에서 제2 실시 예에 따라서 사각 윈도우 세그먼트 처리한다. 사각 윈도우 세그먼트 처리에 대한 상세한 설명은 도 4의 사각 윈도우 세그먼트 처리부(413)의 동작 설명을 기반으로 한다.In step 1409, the GPR system processes the rectangular window segment according to the second embodiment. A detailed description of the rectangular window segment processing is based on the operation description of the rectangular window segment processing unit 413 of FIG. 4.

GPR 시스템은 1411 단계에서 제2 실시 예에 따라서 Edge를 검출한다. Edge 검출에 대한 상세한 설명은 도 4의 로컬 거리 계산부(414)의 동작 설명을 기반으로 한다.The GPR system detects the edge according to the second embodiment in step 1411. A detailed description of edge detection is based on an operation description of the local distance calculator 414 of FIG. 4.

GPR 시스템은 1413 단계에서 컴퓨터 비전 알고리즘을 적용한 결과를 기반으로 하여 영상을 보정한다. 영상 보정에 대한 상세한 설명은 도 4의 영상 보정부(430)의 동작 설명을 기반으로 한다. The GPR system corrects the image based on the result of applying the computer vision algorithm in step 1413. A detailed description of the image correction is based on the operation description of the image correction unit 430 of FIG. 4.

도 15는 본 개시의 제3 실시 예에 따른 초광대역 지면 투과 레이다 기반 영상 가시화 방법을 나타낸 흐름도이다.15 is a flowchart illustrating a method for visualizing an image based on an ultra-wide band ground-transmitting radar according to a third embodiment of the present disclosure.

GPR 시스템은 1501 단계에서 GPR 데이터를 획득한다,.The GPR system acquires GPR data in step 1501.

GPR 시스템은 1503 단계에서 획득한 GPR 데이터에 이동 평균 필터를 적용하여 지표 반사를 제거한다.The GPR system removes ground reflection by applying a moving average filter to the GPR data acquired in step 1503.

GPR 시스템은 1505 단계에서 매질 감쇄 보상하기 위해서 이동 평균 필터가 적용된 결과값에 대해 이득을 보상한다.In step 1505, the GPR system compensates the gain for the result of applying the moving average filter to compensate for the attenuation of the medium.

GPR 시스템은 1507 단계에서 컴퓨터 비전 알고리즘을 적용하기 이전에 포물선 선 강조를 위하여 시간별 또는 깊이별 평균을 취한다. 1507 단계의 동작은 생략 가능함은 물론이다.In step 1507, the GPR system takes an average by time or by depth to emphasize the parabolic line before applying the computer vision algorithm. It goes without saying that the operation of step 1507 can be omitted.

GPR 시스템은 1509 단계에서 제3 실시 예에 따라서 원 윈도우 세그먼트 처리한다. 원 윈도우 세그먼트 처리에 대한 상세한 설명은 도 4의 원 윈도우 세그먼트 처리부(415)의 동작 설명을 기반으로 한다.In step 1509, the GPR system processes the original window segment according to the third embodiment. A detailed description of the one window segment processing is based on the operation description of the one window segment processing unit 415 of FIG. 4.

GPR 시스템은 1511 단계에서 제3 실시 예에 따라서 Edge를 검출한다. Edge 검출에 대한 상세한 설명은 도 4의 특징점 추출부(416)의 동작 설명을 기반으로 한다.The GPR system detects the edge according to the third embodiment in step 1511. A detailed description of edge detection is based on the operation description of the feature point extraction unit 416 of FIG. 4.

GPR 시스템은 1513 단계에서 컴퓨터 비전 알고리즘을 적용한 결과를 기반으로 하여 영상을 보정한다. 영상 보정에 대한 상세한 설명은 도 4의 영상 보정부(430)의 동작 설명을 기반으로 한다.The GPR system corrects the image based on the result of applying the computer vision algorithm in step 1513. A detailed description of the image correction is based on the operation description of the image correction unit 430 of FIG. 4.

본 개시의 실시 예에서 적용된 컴퓨터 비전 알고리즘은 Edge 검출, 로컬 거리 계산(Rangfilt), 영상 특징점 추출 알고리즘을 포함한다. 그 효과는 다음과 같다. Computer vision algorithms applied in an embodiment of the present disclosure include edge detection, local distance calculation (Rangfilt), and image feature point extraction algorithms. Its effect is as follows.

먼저 Prewitt 마스크를 이용한 Edge 검출은 연산량이 빠르고 잡음에 상대적으로 강건하여 체계시제 가시화 알고리즘으로 구현할 경우 실시간으로 포물선의 Edge를 강조해줌으로써 선명한 영상을 얻을 수 있다. First, edge detection using a Prewitt mask has a fast computational load and is relatively robust to noise. When implemented with a systematic tense visualization algorithm, a clear image can be obtained by emphasizing the edge of a parabolic in real time.

또한 Rangefilt 알고리즘 역시 영상의 로컬 거리를 이용하여 포물선의 Edge를 강조해줌으로써 작은 RCS(Radar Cross Section)를 가진 표적이더라도 사용자가 이를 쉽게 발견할 수 있어 탐지 성능을 향상시킬 수 있다. In addition, the Rangefilt algorithm also emphasizes the edge of the parabolic using the local distance of the image, so that even a target with a small RCS (Radar Cross Section) can be easily detected by the user, the detection performance can be improved.

또한 표적의 형태나 크기, 위치가 변해도 포물선의 특징점을 찾아 추출하는 특정점 추출 알고리즘을 휴대용 지뢰 탐지기에 적용할 경우 지뢰의 존재 유무뿐만 아니라 매설 위치를 매우 효과적인 시각적 방법으로 사용자에게 제공해줄 수 있다. 이는 결과적으로 지뢰 유무에 대한 판단력을 향상시켜 탐지율이 상승될 수 있다. 이와 같이 클러터(clutter) 제거 후 3개의 컴퓨터 비전 알고리즘을 이용하여 포물선 영상을 선명하게 만듬으로써 SNR이 개선될 수 있다.In addition, when a specific point extraction algorithm, which finds and extracts feature points of a parabolic line even when the shape, size, and location of the target changes, is applied to a portable mine detector, it is possible to provide the user with a very effective visual method of not only the existence of a mine, but also the buried location. As a result, the detection rate can be increased by improving the judgment of the presence or absence of a landmine. As described above, after removing the clutter, the SNR can be improved by making the parabolic image clear using three computer vision algorithms.

전술된 내용은 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 개시의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 개시의 실시 예들은 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 개시의 기술 사상의 범위가 한정되는 것은 아니다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above-described contents may be modified and modified without departing from the essential characteristics of the present disclosure by those of ordinary skill in the technical field to which the present disclosure belongs. Accordingly, the embodiments of the present disclosure are not intended to limit the technical idea, but to describe it, and the scope of the technical idea of the present disclosure is not limited by these embodiments. The scope of protection of the present disclosure should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present disclosure.

Claims (8)

초광대역 지면 투과 레이다(Ultra Wide Band Ground Penetrating Radar) 기반 영상 가시화 장치에 있어서,
데이터를 송수신하는 송/수신부; 및
상기 송/수신부를 통해 상기 초광대역 지면 투과 레이다를 이용하여 B-스캔 영상 데이터를 획득하며, 상기 B-스캔 영상 데이터에 이동 평균 필터링 및 이득 보상을 적용하여 B-스캔 영상 보상 데이터를 출력하며, 상기 B-스캔 영상 보상 데이터에서 지뢰를 나타내는 포물선 신호를 강조하기 위해 상기 B-스캔 영상 보상 데이터에 시간별 평균 및 깊이별 평균을 적용하여 B-스캔 영상 강조 데이터를 출력하고, 상기 B-스캔 영상 강조 데이터에 미분 연산자를 적용하여 상기 B-스캔 영상 강조 데이터에서 에지(Edge)를 검출하며, 상기 검출된 에지를 기반으로 상기 B-스캔 영상 강조 데이터를 보정하고, 상기 보정된 B-스캔 영상 강조 데이터에 상기 포물선 신호가 존재하는 경우, 상기 지뢰가 탐지된 것으로 결정하는 제어부를 포함하며,
상기 제어부는 제1미분 연산자를 이용하여 상기 B-스캔 영상 강조 데이터에서 밝기 변화에 대한 X축의 기울기 변화량 파형을 1차 미분하여 1차 미분 파형을 생성하며, 상기 1차 미분 파형의 기울기 크기를 기반으로 상기 B-스캔 영상 강조 데이터에서 상기 에지의 존재 여부를 확인하며, 제2미분 연산자를 이용하여 상기 1차 미분 파형을 2차 미분하여 2차 미분 파형을 생성하고, 상기 2차 미분 파형의 기울기 부호를 기반으로 상기 에지에서 밝거나 어두운 부분의 위치를 확인하는 것을 특징으로 하며,
상기 B-스캔 영상 데이터는 신호의 표면적을 2차원적으로 나타내는 데이터인 것을 특징으로 하는 초광대역 지면 투과 레이다 기반 영상 가시화 장치.
In an ultra wide band ground penetrating radar-based image visualization device,
Transmitting/receiving unit for transmitting and receiving data; And
Acquires B-scan image data using the ultra-wideband ground-transmitting radar through the transmitter/receiver, and outputs B-scan image compensation data by applying moving average filtering and gain compensation to the B-scan image data, In order to emphasize a parabolic signal representing a land mine in the B-scan image compensation data, a B-scan image enhancement data is output by applying a time average and a depth average to the B-scan image compensation data, and the B-scan image enhancement By applying a differential operator to data, an edge is detected in the B-scan image enhancement data, the B-scan image enhancement data is corrected based on the detected edge, and the corrected B-scan image enhancement data In the case where the parabolic signal is present, a control unit for determining that the landmine has been detected,
The control unit generates a first differential waveform by first differentiating the waveform of the amount of change in the slope of the X-axis relative to the change in brightness from the B-scan image enhancement data using a first differential operator, and based on the magnitude of the slope of the first differential waveform. To check the existence of the edge in the B-scan image emphasis data, and generate a second differential waveform by second differentiating the first differential waveform using a second differential operator, and the slope of the second differential waveform It characterized in that the position of the light or dark part at the edge is checked based on the sign,
The B-scan image data is data representing a surface area of a signal in two dimensions.
삭제delete 제1항에 있어서,
상기 미분 연산자는 마스크 필터를 이용하며,
상기 마스크 필터는 Sobel 마스크 필터, Prewitt 마스크 필터 및 Roberts 마스크 필터 중에서 하나인 것을 특징으로 하는 초광대역 지면 투과 레이다 기반 영상 가시화 장치.
The method of claim 1,
The differentiation operator uses a mask filter,
The mask filter is one of a Sobel mask filter, a Prewitt mask filter, and a Roberts mask filter.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020190060606A 2019-05-23 2019-05-23 Image visualization apparatus using ultra wide band ground penetrating radar KR102217510B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190060606A KR102217510B1 (en) 2019-05-23 2019-05-23 Image visualization apparatus using ultra wide band ground penetrating radar

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190060606A KR102217510B1 (en) 2019-05-23 2019-05-23 Image visualization apparatus using ultra wide band ground penetrating radar

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020190035645A Division KR102217507B1 (en) 2019-03-28 2019-03-28 Image visualization method and apparatus using ultra wide band ground penetrating radar

Publications (2)

Publication Number Publication Date
KR20200114938A KR20200114938A (en) 2020-10-07
KR102217510B1 true KR102217510B1 (en) 2021-02-19

Family

ID=72883868

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190060606A KR102217510B1 (en) 2019-05-23 2019-05-23 Image visualization apparatus using ultra wide band ground penetrating radar

Country Status (1)

Country Link
KR (1) KR102217510B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101892105B1 (en) * 2018-03-30 2018-08-27 한화시스템 주식회사 Data analysis method in ground penetrating measure

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102087681B1 (en) * 2015-09-17 2020-03-11 삼성전자주식회사 Image processing device, method for processing image and computer-readable recording medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101892105B1 (en) * 2018-03-30 2018-08-27 한화시스템 주식회사 Data analysis method in ground penetrating measure

Also Published As

Publication number Publication date
KR20200114938A (en) 2020-10-07

Similar Documents

Publication Publication Date Title
US8248296B2 (en) Method and program for displaying radar image, and target object detection signal processing device
Nasiri et al. Infrared small target enhancement based on variance difference
CN109829858B (en) Ship-borne radar image oil spill monitoring method based on local adaptive threshold
KR101207220B1 (en) Accurate extraction method of boundary line in high-resolution sar amplitude images
Dehghani et al. Small target detection and tracking based on the background elimination and Kalman filter
Kumar et al. Vehicle speed detection using corner detection
Liu et al. The target detection for GPR images based on curve fitting
He et al. Multiscale local gray dynamic range method for infrared small-target detection
KR102217510B1 (en) Image visualization apparatus using ultra wide band ground penetrating radar
KR102217507B1 (en) Image visualization method and apparatus using ultra wide band ground penetrating radar
Kim et al. GPR image enhancement based on frequency shifting and histogram dissimilarity
CN113435230B (en) Abnormal region detection method, device, system and computer readable storage medium
Liu et al. Temporal noise suppression for small target detection in infrared image sequences
Tian et al. Joint spatio-temporal features and sea background prior for infrared dim and small target detection
CN109816683B (en) Preprocessing method for inversion of sea wave information in marine radar image
Wu et al. Sea-clutter region extraction based on image segmentation methods for over-the-horizon radar
KR101698985B1 (en) Image processing apparatus of radar system and method thereof
Jia et al. A piecewise nonlinear enhancement method of side scan sonar images
CN112230198A (en) Laser radar echo waveform denoising method based on gradient window width weight correction
Sharma et al. Development of Adaptive Threshold and Data Smoothening Algorithm for GPR Imaging.
Priyadarshini et al. Buried object discrimination in a ground penetrating radar radargram
Quintero-Zea et al. RASCAN type radar image resolution enhancement for non-metallic landmine detection
Ai et al. A Priori-Knowledge Based Ship Cfar Detection and Determination Algorithm in Sar Imagery
Sezgin A novel detection warning signal creation method for hand-held GPR applications
Wang et al. Object detection in side scan sonar

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant