KR20240021670A - 미확인 객체들의 종류를 기초로 학습된 인공지능 모델을 사용한 미확인 객체 모니터링 방법 - Google Patents

미확인 객체들의 종류를 기초로 학습된 인공지능 모델을 사용한 미확인 객체 모니터링 방법 Download PDF

Info

Publication number
KR20240021670A
KR20240021670A KR1020220177172A KR20220177172A KR20240021670A KR 20240021670 A KR20240021670 A KR 20240021670A KR 1020220177172 A KR1020220177172 A KR 1020220177172A KR 20220177172 A KR20220177172 A KR 20220177172A KR 20240021670 A KR20240021670 A KR 20240021670A
Authority
KR
South Korea
Prior art keywords
radar
unidentified
image
processing unit
camera
Prior art date
Application number
KR1020220177172A
Other languages
English (en)
Inventor
황조연
Original Assignee
주식회사 희망에어텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 희망에어텍 filed Critical 주식회사 희망에어텍
Priority to KR1020220177172A priority Critical patent/KR20240021670A/ko
Publication of KR20240021670A publication Critical patent/KR20240021670A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 개시의 기술적 사상에 따른 인공지능 기반 통합 경계 방법은, 관심 영역에 대한 복수의 레이더 영상들을 획득하는 단계, 복수의 레이더 영상들을 중첩시킴으로써 중첩 영상을 생성하는 단계, 복수의 중첩 영상들 및 복수의 표적들을 기초로 학습된 인공지능 모델을 사용하여 중첩 영상에 포함되는 표적에 대한 실허상 확률을 획득하는 단계, 관심 영역 내에 포함되는 객체들에 대한 위치 정보를 기초로 표적이 미확인 객체인지 식별하는 단계 및 표적이 미확인 객체로 식별되면 실허상 확률을 기초로 미확인 객체를 선택적으로 감시하는 단계, 상기 실허상 확률이 설정 범위 내에 포함되는 경우, 상기 표적에 대한 위치 정보를 사용하여 상기 미확인 객체의 이동 경로를 획득하는 단계, 상기 이동 경로에 따른 상기 미확인 객체에 대한 카메라 영상을 획득하는 단계, 및 복수의 카메라 영상들과 복수의 미확인 객체들의 종류를 기초로 학습된 인공지능 모델을 사용하여 상기 미확인 객체의 종류를 획득하는 단계를 포함한다.

Description

미확인 객체들의 종류를 기초로 학습된 인공지능 모델을 사용한 미확인 객체 모니터링 방법{Method for monitoring unidentified object using an artificial intelligence model learned based on the type of unidentified objects}
본 개시의 기술적 사상은 인공 지능을 사용한 통합 경계 시스템에 관한 것으로서, 자세하게는 인공 지능을 사용한 레이더 영상 분석 및 카메라 영상 분석을 기초로 미확인 객체를 검출하는 통합 경계 시스템에 관한 것이다.
일반적으로 해안 부근에 침입자가 발생하는 것을 방지하기 위해서 해안 부근을 감시하기 위한 해안감시 레이더가 설치된다. 해안 감시 레이더는 지상에 설치되어 해안을 감시하는 장비로서 해상을 통해 침투하는 적을 조기에 탐지하는 것을 목적으로 운용된다. 레이더 운용 시 레이더 운용병은 레이더를 통해 식별되지 않는 선박을 결정권자에게 보고한다.
레이더 운용 시 많은 병력 및 예산이 소요되며, 격오지로 인한 근무환경의 취약점을 가지고 있으므로, 군병력 감소 시 해안 감시에 문제점이 발생할 수 있다.
본 개시의 기술적 사상은 레이더와 카메라를 통해 획득되는 레이더 영상과 카메라 영상을 기초로 인공 지능 분석을 수행함으로써 미확인 객체를 자동적으로 감시하는 통합 경계 시스템을 제공한다.
상기와 같은 목적을 달성하기 위하여, 본 개시의 일 측면에 따른 인공지능 기반 통합 경계 방법은, 관심 영역에 대한 복수의 레이더 영상들을 획득하는 단계, 복수의 레이더 영상들을 중첩시킴으로써 중첩 영상을 생성하는 단계, 복수의 중첩 영상들 및 복수의 표적들을 기초로 학습된 인공지능 모델을 사용하여 중첩 영상에 포함되는 표적에 대한 실허상 확률을 획득하는 단계, 관심 영역 내에 포함되는 객체들에 대한 위치 정보를 기초로 표적이 미확인 객체인지 식별하는 단계 및 표적이 미확인 객체로 식별되면 실허상 확률을 기초로 미확인 객체를 선택적으로 감시하는 단계를 포함한다.
본 개시의 다른 측면에 따른 객체 모니터링 장치는, 복수의 레이더 영상들 및 각 레이더 영상 내 표적이 실상인지 여부를 기초로 학습되는 인공지능 모델을 사용하여, 레이더에서 획득된 레이더 영상들을 중첩하고 중첩된 영상에 포함된 표적의 실허상 확률을 산출하는 레이더 신호 처리부 및 확인 객체에 대한 정보를 제공하는 장치로부터 수신되는 신호들을 기초로 표적이 미확인 객체인지 식별하고, 미확인 객체로 식별된 표적의 위치 정보를 실허상 확률을 기초로 관제 센터에 선택적으로 출력하는 레이더 정보 처리부를 포함한다.
본 개시의 실시예에 따르면, 통합 경계 시스템은, 레이더를 통해 획득되는 레이더 영상에 대한 인공지능 분석을 통해 레이더 영상 내 객체의 실상 확률을 산출하므로 정밀한 해안 감시 기능을 제공할 수 있다.
또한, 본 개시의 실시예에 따르면, 통합 경계 시스템은, 카메라를 통해 획득되는 카메라 영상에 대한 인공지능 분석을 통해 카메라 영상 내 객체의 의아 객체 확률을 산출하므로 우선순위에 따라 신속한 해안 감시 기능을 제공할 수 있다.
도 1는 본 발명의 일 실시예에 따른 통합 경계 시스템의 주요 구성도이다.
도 2는 본 개시의 예시적 실시예에 따른 통합 경계 시스템(10)의 동작을 설명하는 블록도이다.
도 3은 본 개시의 예시적 실시예에 따른 레이더 신호 처리부의 동작을 설명하는 흐름도이다.
도 4는 본 개시의 예시적 실시예에 따른 레이더 정보 처리부의 동작을 설명하는 흐름도이다.
도 5는 본 개시의 예시적 실시예에 따른 통합 경계 시스템(10)의 동작을 설명하는 블록도이다.
도 6은 본 개시의 예시적 실시예에 따른 카메라 정보 처리부의 동작을 설명하는 흐름도이다.
도 7은 본 개시의 예시적 실시예에 따른 TOD 및 카메라의 동작을 설명하는 흐름도이다.
도 8은 본 개시의 예시적 실시예에 따른 카메라 정보 처리부의 동작을 설명하는 흐름도이다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다.
도 1는 본 발명의 일 실시예에 따른 통합 경계 시스템의 주요 구성도이다.
도 1을 참고하면, 본 발명의 일실시예에 의한 통합 경계 시스템(10)은 제어 장치(110), 표시 장치(120), TOD(Thermal Observation Device)(130), 카메라(140), 객체 정보 제공 장치(150), 레이더(160) 및 관제 센터(200)를 포함할 수 있다.
제어 장치(110)는 레이더(160) 및 객체 정보 제공 장치(150)로부터 객체와 관련된 레이더 정보 및 외부 정보를 각각 수신하여 표시 장치(120)에 표시하고, 이벤트가 발생한 경우(예를 들어, 미확인 객체가 감지된 경우) 관제 센터(200)로 관련 정보를 전송할 수 있다. 본 명세서에서, 객체는 표적, 어선, 선박, 미사일, 발사체, 항공기 또는 이동체를 의미할 수 있다. 제어 장치(110)는 객체 모니터링 장치로 지칭될 수 있다.
제어 장치(110)는 TOD(130)와 카메라(140)로부터 데이터를 수신하여 객체에 대한 보다 상세한 정보를 표시 장치(120)에 표시할 수 있고, 이벤트 발생 여부를 정밀하게 모니터링할 수 있다.
TOD(130)는 열상 감지 장비로서, 객체의 열을 감지해서 영상으로 보여 주는 장비일 수 있다. TOD(130)는 원거리 관측을 위해 원적외선을 이용할 수 있다. TOD(130)는 빛을 증폭해서 보는 야간투시경보다 긴 관측 거리를 가질 수 있다. 레이더(151)는 장거리용 감지 장비로서 동작할 수 있고, TOD(130)는 중거리용 감시 장비로서 동작할 수 있고, 카메라(140)는 단거리용 감시 장비로서 동작할 수도 있다. 본 개시의 예시적 실시예에 따르면, 카메라(140), TOD(130) 및 레이더(151)를 종합적으로 사용함으로써 미확인 객체를 감지할 수 있다.
객체 정보 제공 장치(150)는 외부 정보를 제어장치(110)로 전송할 수 있다. 구체적으로, 객체 정보 제공 장치(150)는 선박패스 장치(V-PASS)(151), 선박자동식별시스템(AIS)(152) 및 해상 내비게이션(e-NAVI)(153)을 포함할 수 있다.
레이더(160)는 장거리를 탐지하는 해안 감시 레이더일 수 있다. 레이더(160)는 주요 해안과 도서지역에 배치돼 해상에서 이동하는 선박, 항공기 등을 탐지할 수 있다. 레이더(160)는 해군전술C4I체계, 항만감시체계 등과 연동해 한반도 주변 해역의 탐지 정보를 공유할 수 있다. 일부 실시예들에서, 레이더(160)는 항공기, 미사일 등을 감지하기 위한 대공 레이더일 수 있다.
레이더(160)는 해안에서 비교적 장거리인 20km이내 객체를 탐지하도록 동작하여 탐지 물체의 거리, 방위각, 속도, 좌표 등을 측정하여 레이더 신호 정보로 제어 장치(110)로 출력하도록 동작한다. 예를 들어, 레이더(151)는 탐지 물체까지의 거리 및 탐지 물체의 방위각을 나타내는 B-scope 신호를 제어 장치(110)에 출력할 수 있다. 레이더(160)는 설정 경계 지역내 물체 침입시 자동알람발생기능을 갖을 수도 있으며, 모든 탐지 물체의 항적을 표시할 수도 있다. 레이더(160)가 출력하는 신호는 레이더 신호로 지칭될 수 있다.
V-PASS(151)는 어선의 위치 및 긴급구조신호를 제어 장치(110)에 제공할 수 있다. V-PASS(151)는 자동어선위치발신장치(Vessel-Pass)로서 어선의 안전운항을 확보하고 해양사고 발생 시 신속한 대응을 위해 어선의 위치 및 긴급구조신호를 발신할 수 있다. V-PASS(151)가 출력하는 신호는 V-PASS 신호로 지칭될 수 있다.
AIS(152)은 선박의 종류, 위치, 침로 등의 관련 정보들을 자동으로 인근의 항로표지관리소나 항로표지로 전달할 수 있다. AIS(152)는 선박자동식별장치(Automatic Identification System)로 선박의 위치를 통한 항해정보를 파악할 수 있고, 망망대해에서 선박끼리 서로 충돌하는 것을 방지하기 위한 목적으로 무선신호를 통해서 주변 선박끼리 식별장치의 정보를 공유할 수 있다. AIS(152)에서 발신되는 정보의 내용은 선교로 들어오는 여러 정보와 함께 선박의 블랙박스라 할 수 있는 선박항해기록장치(VDR)에도 함께 기록될 수 있다. 운항 중에 수신되는 모든 AIS 데이터(타 선박 포함)가 VDR에 기록될 수 있다. 일부 실시예들에서, AIS 신호는 항로표지관리소나 항로표지를 통해 제어 장치(110)를 포함하는 선박에 제공될 수 있다. AIS(152)가 출력하는 신호는 AIS 신호로 지칭될 수 있다.
e-NAVI(153)는 해상항로정보, 선박의 충돌, 좌초 자동예측 경보, 전자해도 실시간 정보, 해사안전정보, 해양기상정보 등을 계속적으로 제어 장치(110)에 제공할 수 있다. e-NAVI(153)가 출력하는 신호는 e-NAVI 신호로 지칭될 수 있다. 본 명세서에서, V-PASS 신호, AIS 신호 및 e-NAVI 신호는 외부 정보로 지칭될 수 있다.
도시되지 않았으나, 객체 정보 제공 장치(150)는 운행 중인 항공기 또는 발사된 미사일에 대한 실시간 정보를 제공하는 시스템을 포함할 수도 있다. 제어 장치(110)는 해당 시스템으로부터 항공기 또는 미사일의 종류, 위치, 속도, 방향, 출발지, 목적지 등에 대한 정보를 수신할 수 있고, 해당 시스템이 출력하는 신호도 마찬가지로 외부 정보로 지칭될 수 있다. 즉, 객체 정보 제공 장치(150)는 제어 장치(110)에 외부 정보를 제공할 수 있고, 외부 정보는 확인된 객체에 대한 실시간 정보를 의미할 수 있다.
제어 장치(110)를 포함하는 장치에서 송신된 신호는 육지의 항로표지관리소와 인근의 무인등대를 통해서 최종적으로 해상교통관제소(VTS)를 포함하는 관제센터(200)로 전달될 수 있다.
제어부(110)는 객체 정보 제공 장치(150)로부터 레이더 신호 및 외부 정보를 수신하여 표시장치(120)에 확인 객체 및 미확인 객체 표시할 수 있다. 예를 들어, 외부 정보 처리부(114)는 외부 정보(V-Pass 신호, AIS 신호 및 e-NAVI 신호 등)를 이용하여 확인된 객체에 고유식별번호를 부여할 수 있다. 외부 정보 처리부(114)는 표시 장치(120)에 고유식별번호가 부여된 확인 객체와 미확인객체로 표시하여 추적이 용이하게 하고, 동시에 이벤트가 발생한 경우에 관제센터(200)로 관련 정보를 전송하여 후속 처리가 이루어지도록 동작한다.
이를 위하여 제어장치(110)는 레이더 신호 처리부(111), 레이더 정보 처리부(112), 카메라 정보 처리부(113), 저장부(114) 및 통신부(115)를 포함할 수 있다.
레이더 신호 처리부(111)는 레이더(151)로부터 수신되는 레이더 영상을 기초로 레이더에 감지된 객체의 실상과 허상을 구별할 수 있다.
구체적으로, 레이더 신호 처리부(111)는 복수의 레이더 영상들을 중첩시킴으로써 중첩 영상을 생성할 수 있다. 이때, 복수의 레이더 영상은 기설정된 시간 간격으로 획득된 영상일 수 있다. 레이더 영상에 포함된 객체가 이동체인 경우, 중첩 영상에는 이동체의 이동 경로의 반대 방향에 트레이스(Trace)가 형성될 수 있다.
레이더 신호 처리부(111)는 기학습된 인공지능 모델을 기초로 중첩 영상에 포함된 객체에 대한 실상 확률 또는 허상 확률을 출력할 수 있다. 이때, 기설정된 인공지능 모델은 중첩 영상(또는 후술할 다채널 영상)을 입력데이터로 트레이스, 객체의 형상, 객체의 크기 등을 기초로 영상 내 객체의 실상 확률 또는 허상 확률을 출력하도록 학습된 모델일 수 있으나, 이에 한정하지 않는다. 중첩 영상 내 객체가 실상인 경우, 중첩 영상의 객체는 이동체일 수 있고, 허상인 경우, 중첩 영상의 객체는 이동체가 아닐 수 있다. 실상 확률 또는 허상 확률은 실허상 확률로 지칭될 수 있다.
또 다른 실시예에 따르면, 레이더 신호 처리부(111)는 복수의 레이더 영상을 통한 중첩 영상을 이용하는 것 외에도 복수의 레이더 영상을 별도의 채널(다채널)로 인공지능 모델에 입력하고, 실허상 확률을 획득할 수 있다.
본 개시의 일 실시예에 따른 레이더 신호 처리부(111)는 레이더(151)로부터 수신된 레이더 영상의 ROI(관심영역; Region of Interest)를 설정할 수 있다. 레이더 신호 처리부(111)는 레이더 영상에 포함된 객체들의 중심점을 기초로 ROI를 설정할 수 있으며, ROI 내 객체의 실허상 확률을 출력할 수 있다.
구체적으로, 레이더 신호 처리부(111)는 수신되는 제1 레이더 영상 내 포함된 복수의 객체들에 대하여 중심점 필터링을 통해 각각 중심점을 추출할 수 있고, 중심점을 기준로 기설정된 크기 영역을 ROI로 획득할 수 있다. 레이더 신호 처리부(111)는 제1 레이더 영상 내 복수의 ROI 를 클립핑할 수 있다.
마찬가지로, 레이더 신호 처리부(111)는 수신되는 제2 레이더 영상에 포함된 복수의 객체들에 대하여 각각 중심점을 추출할 수 있고, 중심점을 기준로 기설정된 크기 영역을 ROI로 획득할 수 있다
이후 레이더 신호 처리부(111)는 제1 레이더 영상에서 클립핑된 ROI 와 대응하는 제2 레이더 영상에서 클립핑된 ROI 를 식별하여, 대응되는 ROI끼리 중첩할 수 있다. 구체적으로, 레이더 신호 처리부(111)는 제1 레이더 영상 내 객체 중심점의 위치 정보를 획득할 수 있고, 기설정된 거리 이내에 위치하는 제2 레이더 영상 내 객체 중심점을 동일한 객체에 대한 중심점으로 판단할 수 있다. 레이더 신호 처리부(111)는 동일한 객체로 판단된 중심점에 대응하는 ROI를 중첩할 수 있다.
B-scope와 같은 레이더 영상은 데이터 크기가 크고 객체가 포함되지 않는 영역이 대부분이라는 점에서 실시간으로 중첩 및 분석하는 것에 불필요한 시간 및 공간 낭비가 있어왔다. 위와 같은 실시예에 따르면, 중심점을 기준으로 원하는 ROI만을 인공지능 모델에 입력함으로서 실시간으로 분석할 수 있다는 효과가 있다.
*레이더 정보 처리부(112)는 외부 정보를 기초로 객체를 확인 객체과 미확인 객체로 구분할 수 있다. 즉, 레이더 영상의 객체가, 외부 정보를 기초로 식별되는 객체인 경우 확인 객체로 판단하고, 외부 정보를 기초로 식별되지 않는 객체인 경우 미확인 객체로 판단할 수 있다. 미확인 객체는 단순객체, 관심객체, 의아객체 등으로 분류될 수 있다. 단순객체은 초기 확인되지 않은 미확인 객체를 의미할 수 있고, 관심객체는 일정시간 이상 확인되지 않은 미확인 객체를 의미할 수 있고, 의아객체는 간첩선, 미상 발사체 등과 같은 정체 불명 객체를 의미할 수 있다.
저장부(115)는 레이더 신호 처리부(111) 및 레이더 정보 처리부(112)의 객체에 대한 모든 정보를 추적이 가능하도록 DB로 축적하여 자동으로 저장할 수 있다. 저장부(115)는 제어장치(110)에서 분석하고 추적한 모든 데이터를 DB로 저장하는 장치일 수 있으며, 고유식별번호별 추적내용과 레이더(151)의 감시화면과 TOD(130)와 카메라(140)를 이용한 감시화면 등을 저장하여 이력을 관리할 수 있도록 한다.
카메라 정보 처리부(113)는 카메라(140)와 TOD(130) 같은 장비와 유관기관을 포함하는 협조기관들에 대한 정보를 관리함과 동시에 연동하여 설정한 객체를 식별하고 추적하도록 동작한다.
예를 들면, 카메라 정보 처리부(113)는 레이더 정보 처리부(112)에서 설정된 미확인 객체 또는 확인 객체를, TOD(130)와 해안복합감시카메라(140)를 이용하여 보다 상세하게 감시할 수 있다. 카메라 정보 처리부(113)는 카메라 영상을 기초로 인공지능 분석을 수행함으로써 미확인 객체가 의아 객체(또는, 의아 선박)일 확률을 산출할 수 있다. 의아 객체(또는, 의아 선박)는 적선 또는 간첩선과 유사한 선박을 의미할 수 있다.
통신부(116)는 제어장치(110)가 객체 정보 제공 장치(150), 카메라(140)와 TOD(130), 그리고 표시장치(120)와 데이터송수신이 가능하게 하고 관제센터(200)로 감시 데이터를 전송하는 통신장치를 의미할 수 있다.
표시장치(120)는 제어장치(110)와 유무선으로 연결된 디스플레이 장치일 수도 있으나, 관리자가 소지한 어플리케이션이 설치된 단말기일 수 있다.
도 2는 본 개시의 예시적 실시예에 따른 통합 경계 시스템(10)의 동작을 설명하는 블록도이다.
도 2를 참조하면, 레이더 신호 처리부(111)는 레이더 영상을 기초로 레이더 영상에 포함된 객체의 실허상 확률을 산출할 수 있다.
구체적으로, 레이더 신호 처리부(111)는 인공지능 학습된 모델을 기초로 레이더 영상에 포함된 객체의 실허상 확률을 산출할 수 있다. 인공지능 모델은, 복수의 학습 레이더 영상들과, 각 학습 레이더 영상에 포함되는 객체의 실상 여부를 기초로 학습될 수 있다. 레이더 신호 처리부(111)는 객체 위치 정보(방위, 거리 등) 및 실허상 확률을 출력할 수 있다.
레이더 정보 처리부(112)는 객체 위치 정보, 실허상 확률 및 외부 정보를 기초로 미확인 객체 정보를 출력할 수 있다. 미확인 객체 정보는 설정 확률 이상의 실허상 확률을 갖는 미확인 객체에 대한 정보일 수 있다.
구체적으로, 레이더 정보 처리부(112)는 외부 정보를 기초로 고유식별번호가 부여된 객체의 리스트를 관리할 수 있다. 고유식별번호가 부여된 객체는 확인 객체일 수 있다. 레이더 정보 처리부(112)는 레이더 영상에 포함된 객체가 외부 정보에 의해 식별되는 확인 객체과 동일한지 판단할 수 있다. 레이더 영상에 포함된 객체가 확인 객체와 상이한 경우, 레이더 정보 처리부(112)는 레이더 영상에 포함된 객체를 미확인 객체로 판단할 수 있다. 레이더 정보 처리부(112)는 미확인 객체에 대한 실허상 확률이 설정된 확률 이상인 경우, 해당 미확인 객체에 대한 정보를 출력할 수 있다.
레이더 정보 처리부(112)는 미확인 객체에 대한 정보를 관제 센터(200)에 제공할 수 있다. 관제 센터(200)는 미확인 객체에 대한 정보를 기초로 후속 처리를 수행할 수 있다. 예를 들어, 관제 센터(200)는 미확인 객체를 화면에 전시하고, 지속적으로 모니터링할 수 있다.
도 3은 본 개시의 예시적 실시예에 따른 레이더 신호 처리부의 동작을 설명하는 흐름도이다. 도 3은 도 1을 참조하여 설명될 수 있다.
도 3을 참조하면, S310 단계에서, 레이더 신호 처리부(111)는 레이더(151)로부터 복수의 레이더 영상들을 수신할 수 있다.
S320 단계에서, 레이더 신호 처리부(111)는 복수의 레이더 영상들을 가공할 수 있다. 구체적으로, 레이더 신호 처리부(111)는 레이더(151)로부터 객체까지의 거리 및 객체의 방위각을 나타내는 레이더 영상으로 복수의 레이더 영상들 각각을 가공할 수 있다.
S330 단계에서, 레이더 신호 처리부(111)는 가공된 복수의 레이더 영상들을 중첩시킬 수 있다. 구체적으로, 레이더 신호 처리부(111)는 가공된 복수의 레이더 영상들을 ROI 내 중심점을 기준으로 중첩시킴으로써 중첩 영상을 생성할 수 있다.
S340 단계에서, 레이더 신호 처리부(111)는 기학습된 인공지능 모델을 사용하여 중첩 영상을 기초로 객체의 위치 정보 및 실허상 확률을 획득할 수 있다. 인공지능 모델은, 복수의 학습 레이더 영상들과, 각 학습 영상 내 객체의 위치 및 객체의 실허상 여부를 기초로 학습될 수 있다.
본 개시의 예시적 실시예에 따르면, 인공지능 모델을 기초로 레이더 영상을 분석함으로써 레이더 영상 내 객체의 위치 정보 및 실허상 확률을 획득할 수 있다. 통합 경계 시스템(10)은, 미확인 객체를 식별하기 위해 실허상 확률을 사용함으로써 인공 지능 분석을 통한 자동적이고 정밀한 경계 기능을 제공할 수 있다.
도 4는 본 개시의 예시적 실시예에 따른 레이더 정보 처리부의 동작을 설명하는 흐름도이다. 도 4는 도 1을 참조하여 설명될 수 있다.
도 4를 참조하면, S410 단계에서, 레이더 정보 처리부(112)는 레이더 신호 처리부(111)로부터 객체의 위치 정보, 실허상 확률를 수신하고, 객체 정보 제공 장치(150)로부터 외부 정보를 수신할 수 있다.
S420 단계에서, 레이더 정보 처리부(112)는 중첩 영상 내 객체가 미확인 객체인지 확인할 수 있다. 구체적으로, 레이더 정보 처리부(112)는 객체의 위치 정보를 기초로 객체의 위치를 특정하고, 외부 정보에 의해 고유식별번호가 부여된 객체의 위치와 실질적으로 동일한지 판단함으로써 중첩 영상 내 객체가 미확인 객체인지 확인할 수 있다.
중첩 영상 내 객체가 미확인 객체인 경우, S430 단계에서, 레이더 정보 처리부(112)는 실허상 확률을 기초로 미확인 객체를 필터링할 수 있다. 즉, 레이더 정보 처리부(112)는 실허상 확률을 기초로 미확인 객체에 대한 처리를 상이하게 할 수 있다. 예를 들어, 레이더 정보 처리부(112)는 실상 확률이 설정 값 미만 경우 객체가 허상인 것으로 판단하고 미확인 객체 감시 절차를 중단할 수 있으며, 실상 확률이 설정 값 이상인 경우 객체가 실상인 것으로 판단하고 후속 절차를 수행할 수 있다.
S440 단계에서, 레이더 정보 처리부(112)는 미확인 객체에 대한 정보를 출력할 수 있다. 예를 들어, 레이더 정보 처리부(112)는 미확인 객체의 종류, 미확인 객체의 위치 정보, 실허상 확률, 미확인 객체의 진행방향, 미확인 객체의 속도 등을 출력할 수 있다.
본 개시의 일 실시예에 따르면, 레이더 정보 처리부(112)는 미확인 객체에 대한 우선순위를 부여할 수 있다. 구체적으로, 레이더 정보 처리부(112)는 실상 확률, 미확인 객체와의 거리를 기초로 우선순위를 부여할 수 있다. 일 예로, 레이더 정보 처리부(112)는 실상 확률이 제1 값 이상이고, 제어 장치(110) 또는 관제 센터(200)와 미확인 객체와의 거리가 제2 값 이하인 경우, 위험도가 높은 것으로 판단하고 우선순위를 높게 부여할 수 있다.
또 다른 예로, 레이더 정보 처리부(112)는 실상 확률, 미확인 객체와의 거리, 미확인 객체의 방향, 미확인 객체의 속도 중 적어도 하나를 기초로 우선순위를 부여할 수 있다. 구체적으로, 레이더 정보 처리부(112)는 실상 확률, 미확인 객체와의 거리, 미확인 객체의 방향, 미확인 객체의 속도에 각각 가중치를 상이하게 설정하여 우선순위를 부여할 수 있다. 일 예로, 미확인 객체의 방향이 제어 장치(110) 또는 관제 센터(200)와 가까워지는 방향이라고 판단된 경우, 미확인 객체의 속도 및 미확인 객체와의 거리에 가중치를 높게 재설정하여 우선순위를 부여할 수 있다. 반면, 미확인 객체의 방향이 제어 장치(110) 또는 관제 센터(200)와 가까워지는 방향이 아닌 경우, 실상 확률에 가중치를 높게 재설정하여 우선순위를 부여할 수 있다. 위와 같이 미확인 객체의 진행 방향에 따라 가중치를 재설정하여 우선순위를 부여으로써, 위험도가 높은 미확인 객체를 실시간으로 식별할 수 있다는 효과가 있다.
즉, 레이더 정보 처리부(112)는 우선순위 별로 미확인 객체를 리스트화하고, 우선순위가 상대적으로 높은 미확인 객체에 대한 정보를 출력할 수 있다.
관제 센터(200)는 미확인 객체에 대한 정보를 수신하고, 의심되는 미확인 객체를 지속적으로 모니터링할 수 있다. 따라서, 본 개시의 예시적 실시예에 따른 통합 경계 시스템(10)는 인공지능 모델을 통해 레이더 영상의 객체에 대한 실허상 확률을 산출함으로써 자동으로 미확인 객체를 검출하고, 검출된 미확인 객체를 모니터링하는 기능을 제공할 수 있다.
도 5는 본 개시의 예시적 실시예에 따른 통합 경계 시스템(10)의 동작을 설명하는 블록도이다. 도 5를 참조하면, 레이더 신호 처리부(111), 외부 정보 연동부(150) 및 레이더 정보 처리부(112)의 동작은 도 2에서 전술된 바 생략될 수 있다.
카메라 정보 처리부(113)는 미확인 객체에 대한 정보를 수신할 수 있다. 카메라 정보 처리부(113)는 미확인 객체를 촬영할 수 있는 TOD(130) 및 카메라(140)에 대한 정보를 확인할 수 있다. 예를 들어, 카메라 정보 처리부(113)는 TOD(130) 및 카메라(140)의 위치 및 개수 등에 대한 정보를 획득할 수 있다. 카메라 정보 처리부(113)는 미확인 객체의 위치 정보를 기초로 TOD(130) 및 카메라(140)가 촬영할 장소를 식별할 수 있다. 즉, 카메라 정보 처리부(113)는 미확인 객체의 위치를 따라 TOD(130) 및 카메라(140)가 촬영을 하도록 촬영 경로를 생성할 수 있다. 카메라 정보 처리부(113)는 촬영 경로를 TOD(130) 및 카메라(140)에 제공할 수 있다.
TOD(130) 및 카메라(140)는 촬영 경로를 수신하고, 촬영 경로를 따라 미확인 객체에 대한 영상을 촬영할 수 있다. TOD(130) 및 카메라(140)는 객체 영상을 카메라 정보 처리부(110)에 제공할 수 있다.
카메라 정보 처리부(110)는 미리 학습된 인공지능 모델을 사용하여 객체 영상을 기초로 미확인객체의 의아 객체 확률을 산출할 수 있다. 인공지능 모델은, 복수의 학습 영상들과, 각 학습 영상 내의 객체가 의아 객체인지 여부를 기초로 학습될 수 있다.
관제 센터(200)는 의아 객체 정보, 실허상 확률, 외부 정보 등 미확인 객체와 관련된 정보를 종합하여 미확인 객체에 대한 조치를 취할 수 있다. 본 개시의 예시적 실시예에 따르면, 실상 확률이 높은 객체에 대해 카메라 이미지를 통한 2차적인 인공지능 분석을 수행함으로써 의아 객체 확률을 획득할 수 있고, 이에 따라 우선순위 별 신속한 조치가 가능해질 수 있다. 즉, 관제 센터(200)는 의아 객체 확률이 높은 미확인 객체에 대해 적극적인 조치를 취할 수 있고, 의아 객체 확률이 낮은 미확인 객체에 대해 상대적으로 소극적인 조치를 취할 수 있다.
도 6은 본 개시의 예시적 실시예에 따른 카메라 정보 처리부의 동작을 설명하는 흐름도이다. 도 6은 도 1 및 5를 참조하여 설명될 수 있다.
S610 단계에서, 카메라 정보 처리부(113)는 미확인 객체에 대한 정보를 수신할 수 있다. 일부 실시예들에서, 카메라 정보 처리부(113)는 설정 확률보다 높은 실상 확률에 대응하는 미확인 객체에 대한 정보를 수신할 수 있다. 예를 들어, 카메라 정보 처리부(113)는 미확인 객체의 위치 정보를 수신할 수 있다.
S620 단계에서, 카메라 정보 처리부(113)는 TOD(130) 및 카메라(140)의 가용 여부를 판단할 수 있다. 구체적으로, 카메라 정보 처리부(113)는 TOD(130)를 포함하는 복수의 TOD들, 및 카메라(140)를 포함하는 복수의 카메라들(140) 중 동작 가능한 TOD(130) 및 카메라(140)를 제어할 수 있다.
S620 단계에서, 카메라 정보 처리부(113)는 미확인 객체의 경로를 식별할 수 있다. 구체적으로, 카메라 정보 처리부(113)는 미확인 객체의 위치 정보를 기초로 미확인 객체의 이동 경로를 산출할 수 있다.
S640 단계에서, 카메라 정보 처리부(113)는 미확인 객체의 이동 경로에 따라 촬영이 수행되도록 촬영 경로를 산출하고, 촬영 경로를 출력할 수 있다.
일부 실시예들에서, 카메라 정보 처리부(113)는 실허상 확률이 설정 범위 내인 경우 동작할 수 있다. 구체적으로, 카메라 정보 처리부(113)는 실허상 확률이 설정 범위 내인 경우 미확인 객체의 종류를 식별하기 위해 TOD(130) 및 카메라(140)를 제어할 수 있다. 더 구체적으로, 카메라 정보 처리부(113)는 TOD(130) 및 카메라(140)로부터 촬영 영상을 수신하고, 복수의 촬영 영상들과, 촬영 영상에 포함되는 객체의 종류를 기초로 학습된 인공지능 모델을 사용하여, 촬영 영상에 포함된 미확인 객체의 종류를 식별할 수 있다.
도 7은 본 개시의 예시적 실시예에 따른 TOD 및 카메라의 동작을 설명하는 흐름도이다. 도 7은 도 1 및 6을 참조하여 설명될 수 있다.
S710 단계에서, TOD(130) 및 카메라(140)는 촬영 경로를 수신할 수 있다.
S720 단계에서, TOD(130) 및 카메라(140)는 촬영 경로를 따라 영상을 촬영할 수 있다. 구체적으로, TOD(130) 및 카메라(140)는 촬영 경로를 따라 시야(Field of View)를 조절함으로써 이동하는 미확인 객체에 대한 복수의 영상들을 촬영할 수 있다. 예를 들어, TOD(130)는 미확인 객체에 대한 적외선 영상을 촬영할 수 있고, 카메라(140)는 미확인 객체에 대한 가시광선 영상을 촬영할 수 있다.
S730 단계에서, TOD(130) 및 카메라(140)는 촬영한 영상들을 출력할 수 있다.
본 개시의 예시적 실시예에 따르면, 미확인 객체로 추정되는 객체에 대한 예상 경로를 따라 TOD(130) 및 카메라(140)에 촬영을 수행함으로써, 미확인 객체에 대한 정밀한 모니터링이 가능해질 수 있다.
도 8은 본 개시의 예시적 실시예에 따른 카메라 정보 처리부의 동작을 설명하는 흐름도이다. 도 8은 도 1, 6 및 7을 참조하여 설명될 수 있다.
S810 단계에서, 카메라 정보 처리부(113)는 TOD(130) 및 카메라(140)로부터 미확인 객체에 대한 영상을 수신할 수 있다.
S820 단계에서, 카메라 정보 처리부(113)는 기학습된 인공지능 모델을 사용하여 미확인 객체에 대한 영상을 기초로 미확인 객체에 대한 의아 객체 확률을 획득할 수 있다. 인공지능 모델은, 학습 영상인 TOD 촬영 영상 또는 카메라 촬영 영상과, 각 촬영 영상에 대응하는 미확인 객체가 의아 객체인지 여부를 기초로 학습될 수 있다.
S830 단계에서, 카메라 정보 처리부(113)는 의아 객체 확률을 기초로 미확인 객체의 위험도를 산출할 수 있다. 구체적으로, 카메라 정보 처리부(113)는 의심 객체 확률이 높을수록 높은 위험도를 출력할 수 있다.
일부 실시예들에서, 관제 센터(200)는 높은 위험도를 갖는 미확인 객체에 대해 정밀한 감시 또는 적극적인 조치를 취할 수 있고, 낮은 위험도를 갖는 미확인 객체에 대해 상대적으로 소극적인 조치를 취할 수 있다.
본 개시의 예시적 실시예에 따르면, 인공지능 모델을 사용하여 TOD 촬영 영상 또는 카메라 촬영 영상을 기초로 의아 객체 확률 및 미확인 객체 위험도가 산출되므로, 미확인 객체를 자동적으로 감시하는 시스템이 제공될 수 있다.
이상에서와 같이 도면과 명세서에서 예시적인 실시 예들이 개시되었다. 본 명세서에서 특정한 용어를 사용하여 실시 예들을 설명되었으나, 이는 단지 본 개시의 기술적 사상을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 개시의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 개시의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.

Claims (1)

  1. 관심 영역에 대한 복수의 레이더 영상들을 획득하는 단계;
    상기 복수의 레이더 영상들을 중첩시킴으로써 중첩 영상을 생성하는 단계;
    복수의 중첩 영상들 및 복수의 표적들을 기초로 학습된 인공지능 모델을 사용하여 상기 중첩 영상에 포함되는 표적에 대한 실허상 확률을 획득하는 단계;
    상기 관심 영역 내에 포함되는 객체들에 대한 위치 정보를 기초로 상기 표적이 미확인 객체인지 식별하는 단계;
    상기 표적이 미확인 객체로 식별되면 상기 실허상 확률을 기초로 상기 미확인 객체를 선택적으로 감시하는 단계;
    상기 실허상 확률이 설정 범위 내에 포함되는 경우, 상기 표적에 대한 위치 정보를 사용하여 상기 미확인 객체의 이동 경로를 획득하는 단계;
    상기 이동 경로에 따른 상기 미확인 객체에 대한 카메라 영상을 획득하는 단계; 및
    복수의 카메라 영상들과 복수의 미확인 객체들의 종류를 기초로 학습된 인공지능 모델을 사용하여 상기 미확인 객체의 종류를 획득하는 단계를 포함하는 인공지능 기반 통합 경계 방법.

KR1020220177172A 2022-08-10 2022-12-16 미확인 객체들의 종류를 기초로 학습된 인공지능 모델을 사용한 미확인 객체 모니터링 방법 KR20240021670A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220177172A KR20240021670A (ko) 2022-08-10 2022-12-16 미확인 객체들의 종류를 기초로 학습된 인공지능 모델을 사용한 미확인 객체 모니터링 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220100019A KR102479959B1 (ko) 2022-08-10 2022-08-10 인공지능 기반 통합 경계 방법 및 객체 모니터링 장치
KR1020220177172A KR20240021670A (ko) 2022-08-10 2022-12-16 미확인 객체들의 종류를 기초로 학습된 인공지능 모델을 사용한 미확인 객체 모니터링 방법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020220100019A Division KR102479959B1 (ko) 2022-08-10 2022-08-10 인공지능 기반 통합 경계 방법 및 객체 모니터링 장치

Publications (1)

Publication Number Publication Date
KR20240021670A true KR20240021670A (ko) 2024-02-19

Family

ID=84547807

Family Applications (5)

Application Number Title Priority Date Filing Date
KR1020220100019A KR102479959B1 (ko) 2022-08-10 2022-08-10 인공지능 기반 통합 경계 방법 및 객체 모니터링 장치
KR1020220177173A KR20240021671A (ko) 2022-08-10 2022-12-16 실허상 확률에 기초한 의아 객체 모니터링 장치
KR1020220177175A KR20240021673A (ko) 2022-08-10 2022-12-16 미확인 객체에 대한 정보를 제공하는 객체 모니터링 장치
KR1020220177174A KR20240021672A (ko) 2022-08-10 2022-12-16 우선순위에 따라 미확인 객체를 감시하는 객체 모니터링 장치
KR1020220177172A KR20240021670A (ko) 2022-08-10 2022-12-16 미확인 객체들의 종류를 기초로 학습된 인공지능 모델을 사용한 미확인 객체 모니터링 방법

Family Applications Before (4)

Application Number Title Priority Date Filing Date
KR1020220100019A KR102479959B1 (ko) 2022-08-10 2022-08-10 인공지능 기반 통합 경계 방법 및 객체 모니터링 장치
KR1020220177173A KR20240021671A (ko) 2022-08-10 2022-12-16 실허상 확률에 기초한 의아 객체 모니터링 장치
KR1020220177175A KR20240021673A (ko) 2022-08-10 2022-12-16 미확인 객체에 대한 정보를 제공하는 객체 모니터링 장치
KR1020220177174A KR20240021672A (ko) 2022-08-10 2022-12-16 우선순위에 따라 미확인 객체를 감시하는 객체 모니터링 장치

Country Status (1)

Country Link
KR (5) KR102479959B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102559135B1 (ko) * 2023-02-23 2023-07-25 주식회사 유투에스알 Ai 융합 무인비행기 탐지시스템

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101258950B1 (ko) * 2011-12-23 2013-05-07 한국해양과학기술원 미확인 선박을 모니터링하는 선박 모니터링 장치, 이를 구비한 선박 모니터링 시스템 및 선박 모니터링 방법
KR101901939B1 (ko) * 2016-06-14 2018-09-27 한국전자통신연구원 해상 교통 정보 관제 시스템 및 방법
KR102477569B1 (ko) * 2020-05-28 2022-12-14 주식회사 월드텍 해안 감시 레이더 기반 통합 경계 시스템 및 통합 경계 방법

Also Published As

Publication number Publication date
KR102479959B1 (ko) 2022-12-26
KR20240021671A (ko) 2024-02-19
KR20240021672A (ko) 2024-02-19
KR20240021673A (ko) 2024-02-19

Similar Documents

Publication Publication Date Title
Yuan et al. Fire detection using infrared images for UAV-based forest fire surveillance
CN109409283B (zh) 一种海面舰船跟踪和监控的方法、系统和存储介质
AU2012221159B2 (en) A surveillance system and a method for detecting a foreign object, debris, or damage in an airfield
CN112068111A (zh) 一种基于多传感器信息融合的无人机目标侦测方法
CN106709498A (zh) 一种无人机拦截系统
WO2017115947A1 (ko) 해양 감시 시스템
Bloisi et al. Camera based target recognition for maritime awareness
Kastek et al. Multisensor system for the protection of critical infrastructure of a seaport
KR20150003893U (ko) 레이더와 드론을 이용한 경계 및 경비 자동화 시스템
CN109323624A (zh) 一种岛礁基地警戒防御系统及方法
CN108802742A (zh) 异常物体监测方法、装置及系统
KR20240021670A (ko) 미확인 객체들의 종류를 기초로 학습된 인공지능 모델을 사용한 미확인 객체 모니터링 방법
Octavian et al. Designing intelligent coastal surveillance based on big maritime data
CN112346078B (zh) 船舶超高检测方法、装置及电子设备和存储介质
KR102477569B1 (ko) 해안 감시 레이더 기반 통합 경계 시스템 및 통합 경계 방법
CN103942979A (zh) 探测目标的预警方法及装置
Bloisi et al. Integrated visual information for maritime surveillance
CN112489338A (zh) 一种报警方法、系统、装置、设备及存储介质
JP6934386B2 (ja) 動体追尾装置及びそのプログラム
US20190065850A1 (en) Optical surveillance system
KR101865835B1 (ko) 비행체 감시 장치
KR102222165B1 (ko) 복수의 카메라를 이용한 드론탐지시스템
EP4363877A1 (en) Methods and systems for detecting vessels
Schoonmaker et al. Spectral detection and monitoring of marine mammals
JP2018008574A (ja) 表示装置、探索システム、表示方法、およびプログラム