KR20240021671A - Suspicious object monitoring device based on false image probability - Google Patents

Suspicious object monitoring device based on false image probability Download PDF

Info

Publication number
KR20240021671A
KR20240021671A KR1020220177173A KR20220177173A KR20240021671A KR 20240021671 A KR20240021671 A KR 20240021671A KR 1020220177173 A KR1020220177173 A KR 1020220177173A KR 20220177173 A KR20220177173 A KR 20220177173A KR 20240021671 A KR20240021671 A KR 20240021671A
Authority
KR
South Korea
Prior art keywords
radar
unidentified
image
probability
processing unit
Prior art date
Application number
KR1020220177173A
Other languages
Korean (ko)
Inventor
황조연
Original Assignee
주식회사 희망에어텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 희망에어텍 filed Critical 주식회사 희망에어텍
Priority to KR1020220177173A priority Critical patent/KR20240021671A/en
Publication of KR20240021671A publication Critical patent/KR20240021671A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

본 개시의 기술적 사상에 따른 인공지능 기반 통합 경계 방법은, 관심 영역에 대한 복수의 레이더 영상들을 획득하는 단계, 복수의 레이더 영상들을 중첩시킴으로써 중첩 영상을 생성하는 단계, 복수의 중첩 영상들 및 복수의 표적들을 기초로 학습된 인공지능 모델을 사용하여 중첩 영상에 포함되는 표적에 대한 실허상 확률을 획득하는 단계, 관심 영역 내에 포함되는 객체들에 대한 위치 정보를 기초로 표적이 미확인 객체인지 식별하는 단계 및 표적이 미확인 객체로 식별되면 실허상 확률을 기초로 미확인 객체를 선택적으로 감시하는 단계, 상기 표적이 미확인 객체로 식별되면 상기 실허상 확률을 기초로 상기 미확인 객체를 선택적으로 감시하는 단계, 상기 실허상 확률이 설정 범위 내에 포함되는 경우, 상기 표적에 대한 위치 정보를 사용하여 상기 미확인 객체의 이동 경로를 획득하는 단계, 상기 이동 경로에 따른 상기 미확인 객체에 대한 카메라 영상을 획득하는 단계, 및 복수의 카메라 영상들과 복수의 미확인 객체들을 기초로 학습된 인공지능 모델을 사용하여 상기 미확인 객체가 의아 객체일 확률을 획득하는 단계를 포함한다.The artificial intelligence-based integrated boundary method according to the technical idea of the present disclosure includes the steps of acquiring a plurality of radar images for an area of interest, generating an overlapping image by overlapping the plurality of radar images, a plurality of overlapping images, and a plurality of overlapping images. Obtaining a real image probability for a target included in an overlapping image using an artificial intelligence model learned based on the targets, and identifying whether the target is an unidentified object based on location information about objects included in the area of interest. and selectively monitoring the unidentified object based on the real probability when the target is identified as an unidentified object. When the target is identified as an unidentified object, selectively monitoring the unidentified object based on the real probability. When the virtual image probability is within the setting range, obtaining a movement path of the unidentified object using location information about the target, acquiring a camera image of the unidentified object according to the movement path, and a plurality of It includes obtaining a probability that the unidentified object is a suspicious object using an artificial intelligence model learned based on camera images and a plurality of unidentified objects.

Description

실허상 확률에 기초한 의아 객체 모니터링 장치{Suspicious object monitoring device based on false image probability}Suspicious object monitoring device based on false image probability}

본 개시의 기술적 사상은 인공 지능을 사용한 통합 경계 시스템에 관한 것으로서, 자세하게는 인공 지능을 사용한 레이더 영상 분석 및 카메라 영상 분석을 기초로 미확인 객체를 검출하는 통합 경계 시스템에 관한 것이다.The technical idea of the present disclosure relates to an integrated perimeter system using artificial intelligence, and more specifically, to an integrated perimeter system that detects unidentified objects based on radar image analysis and camera image analysis using artificial intelligence.

일반적으로 해안 부근에 침입자가 발생하는 것을 방지하기 위해서 해안 부근을 감시하기 위한 해안감시 레이더가 설치된다. 해안 감시 레이더는 지상에 설치되어 해안을 감시하는 장비로서 해상을 통해 침투하는 적을 조기에 탐지하는 것을 목적으로 운용된다. 레이더 운용 시 레이더 운용병은 레이더를 통해 식별되지 않는 선박을 결정권자에게 보고한다.In general, coastal surveillance radars are installed to monitor the coastal area to prevent intruders from occurring near the coast. Coastal surveillance radar is equipment installed on the ground to monitor the coast and is operated for the purpose of early detection of enemies infiltrating through the sea. When operating a radar, the radar operator reports vessels not identified through the radar to the decision maker.

레이더 운용 시 많은 병력 및 예산이 소요되며, 격오지로 인한 근무환경의 취약점을 가지고 있으므로, 군병력 감소 시 해안 감시에 문제점이 발생할 수 있다.A large amount of manpower and budget are required to operate the radar, and the working environment is vulnerable due to remote locations, so problems may arise in coastal surveillance when military forces are reduced.

본 개시의 기술적 사상은 레이더와 카메라를 통해 획득되는 레이더 영상과 카메라 영상을 기초로 인공 지능 분석을 수행함으로써 미확인 객체를 자동적으로 감시하는 통합 경계 시스템을 제공한다.The technical idea of the present disclosure provides an integrated perimeter system that automatically monitors unidentified objects by performing artificial intelligence analysis based on radar images and camera images acquired through radar and cameras.

상기와 같은 목적을 달성하기 위하여, 본 개시의 일 측면에 따른 인공지능 기반 통합 경계 방법은, 관심 영역에 대한 복수의 레이더 영상들을 획득하는 단계, 복수의 레이더 영상들을 중첩시킴으로써 중첩 영상을 생성하는 단계, 복수의 중첩 영상들 및 복수의 표적들을 기초로 학습된 인공지능 모델을 사용하여 중첩 영상에 포함되는 표적에 대한 실허상 확률을 획득하는 단계, 관심 영역 내에 포함되는 객체들에 대한 위치 정보를 기초로 표적이 미확인 객체인지 식별하는 단계 및 표적이 미확인 객체로 식별되면 실허상 확률을 기초로 미확인 객체를 선택적으로 감시하는 단계를 포함한다.In order to achieve the above object, the artificial intelligence-based integrated boundary method according to an aspect of the present disclosure includes the steps of acquiring a plurality of radar images for an area of interest, and generating an overlapping image by overlapping the plurality of radar images. , obtaining a real image probability for a target included in the overlapping image using an artificial intelligence model learned based on a plurality of overlapping images and a plurality of targets, based on location information about objects included in the area of interest. It includes a step of identifying whether the target is an unidentified object, and a step of selectively monitoring the unidentified object based on real probability when the target is identified as an unidentified object.

본 개시의 다른 측면에 따른 객체 모니터링 장치는, 복수의 레이더 영상들 및 각 레이더 영상 내 표적이 실상인지 여부를 기초로 학습되는 인공지능 모델을 사용하여, 레이더에서 획득된 레이더 영상들을 중첩하고 중첩된 영상에 포함된 표적의 실허상 확률을 산출하는 레이더 신호 처리부 및 확인 객체에 대한 정보를 제공하는 장치로부터 수신되는 신호들을 기초로 표적이 미확인 객체인지 식별하고, 미확인 객체로 식별된 표적의 위치 정보를 실허상 확률을 기초로 관제 센터에 선택적으로 출력하는 레이더 정보 처리부를 포함한다.An object monitoring device according to another aspect of the present disclosure uses an artificial intelligence model that is learned based on a plurality of radar images and whether the target in each radar image is real, to overlap radar images obtained from the radar and overlap the overlapped radar images. Based on the signals received from the radar signal processor that calculates the probability of the real image of the target included in the image and the device that provides information on the identified object, the target is identified as an unidentified object, and the location information of the target identified as an unidentified object is provided. It includes a radar information processing unit that selectively outputs information to the control center based on the real image probability.

본 개시의 실시예에 따르면, 통합 경계 시스템은, 레이더를 통해 획득되는 레이더 영상에 대한 인공지능 분석을 통해 레이더 영상 내 객체의 실상 확률을 산출하므로 정밀한 해안 감시 기능을 제공할 수 있다.According to an embodiment of the present disclosure, the integrated surveillance system can provide a precise coastal surveillance function by calculating the actual probability of objects in the radar image through artificial intelligence analysis of the radar image acquired through radar.

또한, 본 개시의 실시예에 따르면, 통합 경계 시스템은, 카메라를 통해 획득되는 카메라 영상에 대한 인공지능 분석을 통해 카메라 영상 내 객체의 의아 객체 확률을 산출하므로 우선순위에 따라 신속한 해안 감시 기능을 제공할 수 있다.In addition, according to an embodiment of the present disclosure, the integrated surveillance system calculates the probability of a suspicious object in the camera image through artificial intelligence analysis of the camera image acquired through the camera, thereby providing a rapid coastal surveillance function according to priority. can do.

도 1는 본 발명의 일 실시예에 따른 통합 경계 시스템의 주요 구성도이다.
도 2는 본 개시의 예시적 실시예에 따른 통합 경계 시스템(10)의 동작을 설명하는 블록도이다.
도 3은 본 개시의 예시적 실시예에 따른 레이더 신호 처리부의 동작을 설명하는 흐름도이다.
도 4는 본 개시의 예시적 실시예에 따른 레이더 정보 처리부의 동작을 설명하는 흐름도이다.
도 5는 본 개시의 예시적 실시예에 따른 통합 경계 시스템(10)의 동작을 설명하는 블록도이다.
도 6은 본 개시의 예시적 실시예에 따른 카메라 정보 처리부의 동작을 설명하는 흐름도이다.
도 7은 본 개시의 예시적 실시예에 따른 TOD 및 카메라의 동작을 설명하는 흐름도이다.
도 8은 본 개시의 예시적 실시예에 따른 카메라 정보 처리부의 동작을 설명하는 흐름도이다.
Figure 1 is a main configuration diagram of an integrated border system according to an embodiment of the present invention.
Figure 2 is a block diagram illustrating the operation of the integrated border system 10 according to an exemplary embodiment of the present disclosure.
Figure 3 is a flowchart explaining the operation of a radar signal processor according to an exemplary embodiment of the present disclosure.
Figure 4 is a flowchart explaining the operation of the radar information processing unit according to an exemplary embodiment of the present disclosure.
Figure 5 is a block diagram illustrating the operation of the integrated border system 10 according to an exemplary embodiment of the present disclosure.
Figure 6 is a flowchart illustrating the operation of a camera information processing unit according to an exemplary embodiment of the present disclosure.
Figure 7 is a flowchart illustrating the operation of a TOD and a camera according to an exemplary embodiment of the present disclosure.
Figure 8 is a flowchart explaining the operation of the camera information processing unit according to an exemplary embodiment of the present disclosure.

이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다.Hereinafter, various embodiments of the present invention are described with reference to the accompanying drawings.

도 1는 본 발명의 일 실시예에 따른 통합 경계 시스템의 주요 구성도이다.Figure 1 is a main configuration diagram of an integrated border system according to an embodiment of the present invention.

도 1을 참고하면, 본 발명의 일실시예에 의한 통합 경계 시스템(10)은 제어 장치(110), 표시 장치(120), TOD(Thermal Observation Device)(130), 카메라(140), 객체 정보 제공 장치(150), 레이더(160) 및 관제 센터(200)를 포함할 수 있다.Referring to FIG. 1, the integrated border system 10 according to an embodiment of the present invention includes a control device 110, a display device 120, a Thermal Observation Device (TOD) 130, a camera 140, and object information. It may include a provision device 150, a radar 160, and a control center 200.

제어 장치(110)는 레이더(160) 및 객체 정보 제공 장치(150)로부터 객체와 관련된 레이더 정보 및 외부 정보를 각각 수신하여 표시 장치(120)에 표시하고, 이벤트가 발생한 경우(예를 들어, 미확인 객체가 감지된 경우) 관제 센터(200)로 관련 정보를 전송할 수 있다. 본 명세서에서, 객체는 표적, 어선, 선박, 미사일, 발사체, 항공기 또는 이동체를 의미할 수 있다. 제어 장치(110)는 객체 모니터링 장치로 지칭될 수 있다.The control device 110 receives radar information and external information related to the object from the radar 160 and the object information providing device 150, respectively, and displays it on the display device 120, and when an event occurs (for example, an unidentified If an object is detected), related information may be transmitted to the control center 200. In this specification, an object may mean a target, fishing boat, ship, missile, projectile, aircraft, or moving object. The control device 110 may be referred to as an object monitoring device.

제어 장치(110)는 TOD(130)와 카메라(140)로부터 데이터를 수신하여 객체에 대한 보다 상세한 정보를 표시 장치(120)에 표시할 수 있고, 이벤트 발생 여부를 정밀하게 모니터링할 수 있다.The control device 110 can receive data from the TOD 130 and the camera 140 to display more detailed information about the object on the display device 120 and precisely monitor whether an event has occurred.

TOD(130)는 열상 감지 장비로서, 객체의 열을 감지해서 영상으로 보여 주는 장비일 수 있다. TOD(130)는 원거리 관측을 위해 원적외선을 이용할 수 있다. TOD(130)는 빛을 증폭해서 보는 야간투시경보다 긴 관측 거리를 가질 수 있다. 레이더(151)는 장거리용 감지 장비로서 동작할 수 있고, TOD(130)는 중거리용 감시 장비로서 동작할 수 있고, 카메라(140)는 단거리용 감시 장비로서 동작할 수도 있다. 본 개시의 예시적 실시예에 따르면, 카메라(140), TOD(130) 및 레이더(151)를 종합적으로 사용함으로써 미확인 객체를 감지할 수 있다.The TOD 130 is a thermal image detection device and may be a device that detects the heat of an object and displays it as an image. TOD (130) can use far-infrared rays for long-distance observation. TOD (130) can have a longer observation distance than night vision goggles that amplify light. The radar 151 may operate as a long-distance detection device, the TOD 130 may operate as a mid-range surveillance device, and the camera 140 may operate as a short-range surveillance device. According to an exemplary embodiment of the present disclosure, an unidentified object may be detected by comprehensively using the camera 140, TOD 130, and radar 151.

객체 정보 제공 장치(150)는 외부 정보를 제어장치(110)로 전송할 수 있다. 구체적으로, 객체 정보 제공 장치(150)는 선박패스 장치(V-PASS)(151), 선박자동식별시스템(AIS)(152) 및 해상 내비게이션(e-NAVI)(153)을 포함할 수 있다. The object information providing device 150 may transmit external information to the control device 110. Specifically, the object information providing device 150 may include a vessel pass device (V-PASS) 151, an automatic vessel identification system (AIS) 152, and a maritime navigation (e-NAVI) 153.

레이더(160)는 장거리를 탐지하는 해안 감시 레이더일 수 있다. 레이더(160)는 주요 해안과 도서지역에 배치돼 해상에서 이동하는 선박, 항공기 등을 탐지할 수 있다. 레이더(160)는 해군전술C4I체계, 항만감시체계 등과 연동해 한반도 주변 해역의 탐지 정보를 공유할 수 있다. 일부 실시예들에서, 레이더(160)는 항공기, 미사일 등을 감지하기 위한 대공 레이더일 수 있다.Radar 160 may be a coastal surveillance radar that detects long distances. Radar 160 is deployed in major coastal and island areas and can detect ships and aircraft moving at sea. Radar 160 can share detection information in the waters surrounding the Korean Peninsula by linking with the naval tactical C4I system and port surveillance system. In some embodiments, radar 160 may be an air defense radar for detecting aircraft, missiles, etc.

레이더(160)는 해안에서 비교적 장거리인 20km이내 객체를 탐지하도록 동작하여 탐지 물체의 거리, 방위각, 속도, 좌표 등을 측정하여 레이더 신호 정보로 제어 장치(110)로 출력하도록 동작한다. 예를 들어, 레이더(151)는 탐지 물체까지의 거리 및 탐지 물체의 방위각을 나타내는 B-scope 신호를 제어 장치(110)에 출력할 수 있다. 레이더(160)는 설정 경계 지역내 물체 침입시 자동알람발생기능을 갖을 수도 있으며, 모든 탐지 물체의 항적을 표시할 수도 있다. 레이더(160)가 출력하는 신호는 레이더 신호로 지칭될 수 있다.The radar 160 operates to detect objects within a relatively long distance of 20 km from the coast, measures the distance, azimuth, speed, coordinates, etc. of the detected object and outputs it to the control device 110 as radar signal information. For example, the radar 151 may output a B-scope signal indicating the distance to the detection object and the azimuth of the detection object to the control device 110. The radar 160 may have an automatic alarm generation function when an object intrudes into a set boundary area, and may display the tracks of all detected objects. The signal output by the radar 160 may be referred to as a radar signal.

V-PASS(151)는 어선의 위치 및 긴급구조신호를 제어 장치(110)에 제공할 수 있다. V-PASS(151)는 자동어선위치발신장치(Vessel-Pass)로서 어선의 안전운항을 확보하고 해양사고 발생 시 신속한 대응을 위해 어선의 위치 및 긴급구조신호를 발신할 수 있다. V-PASS(151)가 출력하는 신호는 V-PASS 신호로 지칭될 수 있다.V-PASS 151 can provide the location of the fishing boat and emergency rescue signals to the control device 110. V-PASS (151) is an automatic fishing vessel location transmitting device (Vessel-Pass) that can transmit the location of fishing vessels and emergency rescue signals to ensure safe operation of fishing vessels and to respond quickly in the event of a marine accident. The signal output by the V-PASS 151 may be referred to as a V-PASS signal.

AIS(152)은 선박의 종류, 위치, 침로 등의 관련 정보들을 자동으로 인근의 항로표지관리소나 항로표지로 전달할 수 있다. AIS(152)는 선박자동식별장치(Automatic Identification System)로 선박의 위치를 통한 항해정보를 파악할 수 있고, 망망대해에서 선박끼리 서로 충돌하는 것을 방지하기 위한 목적으로 무선신호를 통해서 주변 선박끼리 식별장치의 정보를 공유할 수 있다. AIS(152)에서 발신되는 정보의 내용은 선교로 들어오는 여러 정보와 함께 선박의 블랙박스라 할 수 있는 선박항해기록장치(VDR)에도 함께 기록될 수 있다. 운항 중에 수신되는 모든 AIS 데이터(타 선박 포함)가 VDR에 기록될 수 있다. 일부 실시예들에서, AIS 신호는 항로표지관리소나 항로표지를 통해 제어 장치(110)를 포함하는 선박에 제공될 수 있다. AIS(152)가 출력하는 신호는 AIS 신호로 지칭될 수 있다. AIS (152) can automatically transmit related information such as the type, location, and course of the vessel to a nearby navigation beacon management office or navigation beacon. AIS (152) is an Automatic Identification System that can determine navigation information through the location of a ship, and is an identification device for nearby ships through wireless signals for the purpose of preventing ships from colliding with each other in open seas. information can be shared. The contents of the information transmitted from AIS (152) can be recorded together with various information coming from the bridge and in the Vessel Voyage Recording Device (VDR), which can be called the black box of the ship. All AIS data (including from other ships) received during navigation can be recorded in the VDR. In some embodiments, the AIS signal may be provided to the vessel including the control device 110 through a navigational beacon management station or navigational beacon. The signal output by the AIS 152 may be referred to as an AIS signal.

e-NAVI(153)는 해상항로정보, 선박의 충돌, 좌초 자동예측 경보, 전자해도 실시간 정보, 해사안전정보, 해양기상정보 등을 계속적으로 제어 장치(110)에 제공할 수 있다. e-NAVI(153)가 출력하는 신호는 e-NAVI 신호로 지칭될 수 있다. 본 명세서에서, V-PASS 신호, AIS 신호 및 e-NAVI 신호는 외부 정보로 지칭될 수 있다.e-NAVI (153) can continuously provide maritime route information, ship collision, automatic stranding prediction warning, electronic chart real-time information, maritime safety information, marine weather information, etc. to the control device (110). The signal output by the e-NAVI 153 may be referred to as an e-NAVI signal. In this specification, the V-PASS signal, AIS signal, and e-NAVI signal may be referred to as external information.

도시되지 않았으나, 객체 정보 제공 장치(150)는 운행 중인 항공기 또는 발사된 미사일에 대한 실시간 정보를 제공하는 시스템을 포함할 수도 있다. 제어 장치(110)는 해당 시스템으로부터 항공기 또는 미사일의 종류, 위치, 속도, 방향, 출발지, 목적지 등에 대한 정보를 수신할 수 있고, 해당 시스템이 출력하는 신호도 마찬가지로 외부 정보로 지칭될 수 있다. 즉, 객체 정보 제공 장치(150)는 제어 장치(110)에 외부 정보를 제공할 수 있고, 외부 정보는 확인된 객체에 대한 실시간 정보를 의미할 수 있다.Although not shown, the object information providing device 150 may include a system that provides real-time information about an aircraft in operation or a launched missile. The control device 110 can receive information about the type, location, speed, direction, origin, destination, etc. of the aircraft or missile from the system, and signals output by the system can also be referred to as external information. That is, the object information providing device 150 may provide external information to the control device 110, and the external information may mean real-time information about the identified object.

제어 장치(110)를 포함하는 장치에서 송신된 신호는 육지의 항로표지관리소와 인근의 무인등대를 통해서 최종적으로 해상교통관제소(VTS)를 포함하는 관제센터(200)로 전달될 수 있다.The signal transmitted from the device including the control device 110 may be transmitted to the control center 200 including the maritime traffic control center (VTS) through a navigational beacon management center on land and a nearby unmanned lighthouse.

제어부(110)는 객체 정보 제공 장치(150)로부터 레이더 신호 및 외부 정보를 수신하여 표시장치(120)에 확인 객체 및 미확인 객체 표시할 수 있다. 예를 들어, 외부 정보 처리부(114)는 외부 정보(V-Pass 신호, AIS 신호 및 e-NAVI 신호 등)를 이용하여 확인된 객체에 고유식별번호를 부여할 수 있다. 외부 정보 처리부(114)는 표시 장치(120)에 고유식별번호가 부여된 확인 객체와 미확인객체로 표시하여 추적이 용이하게 하고, 동시에 이벤트가 발생한 경우에 관제센터(200)로 관련 정보를 전송하여 후속 처리가 이루어지도록 동작한다.The control unit 110 may receive radar signals and external information from the object information providing device 150 and display confirmed and unconfirmed objects on the display device 120. For example, the external information processing unit 114 may assign a unique identification number to the identified object using external information (V-Pass signal, AIS signal, e-NAVI signal, etc.). The external information processing unit 114 displays confirmed and unconfirmed objects with unique identification numbers on the display device 120 to facilitate tracking, and at the same time transmits related information to the control center 200 when an event occurs. It operates so that subsequent processing takes place.

이를 위하여 제어장치(110)는 레이더 신호 처리부(111), 레이더 정보 처리부(112), 카메라 정보 처리부(113), 저장부(114) 및 통신부(115)를 포함할 수 있다.To this end, the control device 110 may include a radar signal processing unit 111, a radar information processing unit 112, a camera information processing unit 113, a storage unit 114, and a communication unit 115.

레이더 신호 처리부(111)는 레이더(151)로부터 수신되는 레이더 영상을 기초로 레이더에 감지된 객체의 실상과 허상을 구별할 수 있다.The radar signal processing unit 111 can distinguish between a real image and a virtual image of an object detected by the radar based on the radar image received from the radar 151.

구체적으로, 레이더 신호 처리부(111)는 복수의 레이더 영상들을 중첩시킴으로써 중첩 영상을 생성할 수 있다. 이때, 복수의 레이더 영상은 기설정된 시간 간격으로 획득된 영상일 수 있다. 레이더 영상에 포함된 객체가 이동체인 경우, 중첩 영상에는 이동체의 이동 경로의 반대 방향에 트레이스(Trace)가 형성될 수 있다. Specifically, the radar signal processing unit 111 may generate an overlapping image by overlapping a plurality of radar images. At this time, the plurality of radar images may be images acquired at preset time intervals. If the object included in the radar image is a moving object, a trace may be formed in the overlapping image in the opposite direction of the moving path of the moving object.

레이더 신호 처리부(111)는 기학습된 인공지능 모델을 기초로 중첩 영상에 포함된 객체에 대한 실상 확률 또는 허상 확률을 출력할 수 있다. 이때, 기설정된 인공지능 모델은 중첩 영상(또는 후술할 다채널 영상)을 입력데이터로 트레이스, 객체의 형상, 객체의 크기 등을 기초로 영상 내 객체의 실상 확률 또는 허상 확률을 출력하도록 학습된 모델일 수 있으나, 이에 한정하지 않는다. 중첩 영상 내 객체가 실상인 경우, 중첩 영상의 객체는 이동체일 수 있고, 허상인 경우, 중첩 영상의 객체는 이동체가 아닐 수 있다. 실상 확률 또는 허상 확률은 실허상 확률로 지칭될 수 있다.The radar signal processing unit 111 may output a real image probability or a virtual image probability for an object included in an overlapping image based on a pre-learned artificial intelligence model. At this time, the preset artificial intelligence model uses overlapping images (or multi-channel images, which will be described later) as input data, and is a model learned to output the real or virtual probability of the object in the image based on the trace, shape of the object, size of the object, etc. It may be, but it is not limited to this. If the object in the overlapping image is a real image, the object in the overlapping image may be a moving object, and if it is a virtual image, the object in the overlapping image may not be a moving object. Real probability or imaginary probability may be referred to as real probability.

또 다른 실시예에 따르면, 레이더 신호 처리부(111)는 복수의 레이더 영상을 통한 중첩 영상을 이용하는 것 외에도 복수의 레이더 영상을 별도의 채널(다채널)로 인공지능 모델에 입력하고, 실허상 확률을 획득할 수 있다.According to another embodiment, the radar signal processing unit 111, in addition to using an overlapping image through a plurality of radar images, inputs the plurality of radar images into an artificial intelligence model through separate channels (multi-channel) and calculates the probability of a real image. It can be obtained.

본 개시의 일 실시예에 따른 레이더 신호 처리부(111)는 레이더(151)로부터 수신된 레이더 영상의 ROI(관심영역; Region of Interest)를 설정할 수 있다. 레이더 신호 처리부(111)는 레이더 영상에 포함된 객체들의 중심점을 기초로 ROI를 설정할 수 있으며, ROI 내 객체의 실허상 확률을 출력할 수 있다. The radar signal processing unit 111 according to an embodiment of the present disclosure may set a ROI (Region of Interest) of the radar image received from the radar 151. The radar signal processing unit 111 can set an ROI based on the center point of objects included in the radar image and output the real image probability of the object within the ROI.

구체적으로, 레이더 신호 처리부(111)는 수신되는 제1 레이더 영상 내 포함된 복수의 객체들에 대하여 중심점 필터링을 통해 각각 중심점을 추출할 수 있고, 중심점을 기준로 기설정된 크기 영역을 ROI로 획득할 수 있다. 레이더 신호 처리부(111)는 제1 레이더 영상 내 복수의 ROI 를 클립핑할 수 있다. Specifically, the radar signal processing unit 111 can extract the center point of a plurality of objects included in the received first radar image through center point filtering, and obtain an area of a preset size as an ROI based on the center point. You can. The radar signal processing unit 111 may clip a plurality of ROIs in the first radar image.

마찬가지로, 레이더 신호 처리부(111)는 수신되는 제2 레이더 영상에 포함된 복수의 객체들에 대하여 각각 중심점을 추출할 수 있고, 중심점을 기준로 기설정된 크기 영역을 ROI로 획득할 수 있다 Likewise, the radar signal processing unit 111 can extract the center point for each of the plurality of objects included in the received second radar image, and obtain an area of a preset size as an ROI based on the center point.

이후 레이더 신호 처리부(111)는 제1 레이더 영상에서 클립핑된 ROI 와 대응하는 제2 레이더 영상에서 클립핑된 ROI 를 식별하여, 대응되는 ROI끼리 중첩할 수 있다. 구체적으로, 레이더 신호 처리부(111)는 제1 레이더 영상 내 객체 중심점의 위치 정보를 획득할 수 있고, 기설정된 거리 이내에 위치하는 제2 레이더 영상 내 객체 중심점을 동일한 객체에 대한 중심점으로 판단할 수 있다. 레이더 신호 처리부(111)는 동일한 객체로 판단된 중심점에 대응하는 ROI를 중첩할 수 있다. Thereafter, the radar signal processing unit 111 may identify the ROI clipped in the first radar image and the ROI clipped in the second radar image corresponding to the ROI clipped in the first radar image, and overlap the corresponding ROIs. Specifically, the radar signal processing unit 111 may acquire location information of the center point of the object in the first radar image, and determine the center point of the object in the second radar image located within a preset distance as the center point for the same object. . The radar signal processing unit 111 may overlap ROIs corresponding to the center point determined to be the same object.

B-scope와 같은 레이더 영상은 데이터 크기가 크고 객체가 포함되지 않는 영역이 대부분이라는 점에서 실시간으로 중첩 및 분석하는 것에 불필요한 시간 및 공간 낭비가 있어왔다. 위와 같은 실시예에 따르면, 중심점을 기준으로 원하는 ROI만을 인공지능 모델에 입력함으로서 실시간으로 분석할 수 있다는 효과가 있다. Radar images such as B-scope have large data sizes and most areas do not contain objects, so overlapping and analyzing them in real time has been an unnecessary waste of time and space. According to the above embodiment, there is an effect of being able to analyze in real time by inputting only the desired ROI based on the center point into the artificial intelligence model.

*레이더 정보 처리부(112)는 외부 정보를 기초로 객체를 확인 객체과 미확인 객체로 구분할 수 있다. 즉, 레이더 영상의 객체가, 외부 정보를 기초로 식별되는 객체인 경우 확인 객체로 판단하고, 외부 정보를 기초로 식별되지 않는 객체인 경우 미확인 객체로 판단할 수 있다. 미확인 객체는 단순객체, 관심객체, 의아객체 등으로 분류될 수 있다. 단순객체은 초기 확인되지 않은 미확인 객체를 의미할 수 있고, 관심객체는 일정시간 이상 확인되지 않은 미확인 객체를 의미할 수 있고, 의아객체는 간첩선, 미상 발사체 등과 같은 정체 불명 객체를 의미할 수 있다.*The radar information processing unit 112 can classify objects into confirmed objects and unconfirmed objects based on external information. That is, if the object in the radar image is an object identified based on external information, it may be determined as a confirmed object, and if it is an object not identified based on external information, it may be determined as an unidentified object. Unidentified objects can be classified into simple objects, objects of interest, and suspicious objects. A simple object may refer to an unidentified object that has not been initially identified, an object of interest may refer to an unidentified object that has not been identified for a certain period of time, and a suspicious object may refer to an unidentified object such as a spy ship, an unknown projectile, etc.

저장부(115)는 레이더 신호 처리부(111) 및 레이더 정보 처리부(112)의 객체에 대한 모든 정보를 추적이 가능하도록 DB로 축적하여 자동으로 저장할 수 있다. 저장부(115)는 제어장치(110)에서 분석하고 추적한 모든 데이터를 DB로 저장하는 장치일 수 있으며, 고유식별번호별 추적내용과 레이더(151)의 감시화면과 TOD(130)와 카메라(140)를 이용한 감시화면 등을 저장하여 이력을 관리할 수 있도록 한다.The storage unit 115 can automatically store all information about the objects of the radar signal processing unit 111 and the radar information processing unit 112 by accumulating them in a DB to enable tracking. The storage unit 115 may be a device that stores all data analyzed and tracked by the control device 110 in a DB, including tracking contents by unique identification number, surveillance screen of the radar 151, TOD 130, and camera ( 140) to save monitoring screens, etc. to manage history.

카메라 정보 처리부(113)는 카메라(140)와 TOD(130) 같은 장비와 유관기관을 포함하는 협조기관들에 대한 정보를 관리함과 동시에 연동하여 설정한 객체를 식별하고 추적하도록 동작한다.The camera information processing unit 113 manages information on cooperative organizations including equipment such as the camera 140 and TOD 130 and related organizations, and operates in conjunction to identify and track set objects.

예를 들면, 카메라 정보 처리부(113)는 레이더 정보 처리부(112)에서 설정된 미확인 객체 또는 확인 객체를, TOD(130)와 해안복합감시카메라(140)를 이용하여 보다 상세하게 감시할 수 있다. 카메라 정보 처리부(113)는 카메라 영상을 기초로 인공지능 분석을 수행함으로써 미확인 객체가 의아 객체(또는, 의아 선박)일 확률을 산출할 수 있다. 의아 객체(또는, 의아 선박)는 적선 또는 간첩선과 유사한 선박을 의미할 수 있다.For example, the camera information processing unit 113 can monitor unconfirmed or confirmed objects set in the radar information processing unit 112 in more detail using the TOD 130 and the coastal complex surveillance camera 140. The camera information processing unit 113 may calculate the probability that the unidentified object is a suspicious object (or a suspicious ship) by performing artificial intelligence analysis based on the camera image. A suspicious object (or a suspicious ship) may mean a ship similar to an enemy ship or spy ship.

통신부(116)는 제어장치(110)가 객체 정보 제공 장치(150), 카메라(140)와 TOD(130), 그리고 표시장치(120)와 데이터송수신이 가능하게 하고 관제센터(200)로 감시 데이터를 전송하는 통신장치를 의미할 수 있다.The communication unit 116 enables the control device 110 to transmit and receive data with the object information providing device 150, the camera 140, the TOD 130, and the display device 120, and sends monitoring data to the control center 200. It may refer to a communication device that transmits .

표시장치(120)는 제어장치(110)와 유무선으로 연결된 디스플레이 장치일 수도 있으나, 관리자가 소지한 어플리케이션이 설치된 단말기일 수 있다.The display device 120 may be a display device connected to the control device 110 by wire or wirelessly, or may be a terminal on which an application owned by an administrator is installed.

도 2는 본 개시의 예시적 실시예에 따른 통합 경계 시스템(10)의 동작을 설명하는 블록도이다.Figure 2 is a block diagram illustrating the operation of the integrated border system 10 according to an exemplary embodiment of the present disclosure.

도 2를 참조하면, 레이더 신호 처리부(111)는 레이더 영상을 기초로 레이더 영상에 포함된 객체의 실허상 확률을 산출할 수 있다.Referring to FIG. 2, the radar signal processing unit 111 may calculate the probability of a real image of an object included in the radar image based on the radar image.

구체적으로, 레이더 신호 처리부(111)는 인공지능 학습된 모델을 기초로 레이더 영상에 포함된 객체의 실허상 확률을 산출할 수 있다. 인공지능 모델은, 복수의 학습 레이더 영상들과, 각 학습 레이더 영상에 포함되는 객체의 실상 여부를 기초로 학습될 수 있다. 레이더 신호 처리부(111)는 객체 위치 정보(방위, 거리 등) 및 실허상 확률을 출력할 수 있다.Specifically, the radar signal processing unit 111 may calculate the probability of a real image of an object included in a radar image based on an artificial intelligence learned model. The artificial intelligence model can be learned based on a plurality of learning radar images and whether the object included in each learning radar image is real. The radar signal processing unit 111 may output object location information (azimuth, distance, etc.) and real image probability.

레이더 정보 처리부(112)는 객체 위치 정보, 실허상 확률 및 외부 정보를 기초로 미확인 객체 정보를 출력할 수 있다. 미확인 객체 정보는 설정 확률 이상의 실허상 확률을 갖는 미확인 객체에 대한 정보일 수 있다.The radar information processing unit 112 may output unidentified object information based on object location information, real image probability, and external information. Unidentified object information may be information about an unidentified object that has a real probability greater than a set probability.

구체적으로, 레이더 정보 처리부(112)는 외부 정보를 기초로 고유식별번호가 부여된 객체의 리스트를 관리할 수 있다. 고유식별번호가 부여된 객체는 확인 객체일 수 있다. 레이더 정보 처리부(112)는 레이더 영상에 포함된 객체가 외부 정보에 의해 식별되는 확인 객체과 동일한지 판단할 수 있다. 레이더 영상에 포함된 객체가 확인 객체와 상이한 경우, 레이더 정보 처리부(112)는 레이더 영상에 포함된 객체를 미확인 객체로 판단할 수 있다. 레이더 정보 처리부(112)는 미확인 객체에 대한 실허상 확률이 설정된 확률 이상인 경우, 해당 미확인 객체에 대한 정보를 출력할 수 있다.Specifically, the radar information processing unit 112 can manage a list of objects assigned unique identification numbers based on external information. An object assigned a unique identification number may be a confirmed object. The radar information processing unit 112 may determine whether the object included in the radar image is the same as the confirmed object identified by external information. If the object included in the radar image is different from the confirmed object, the radar information processing unit 112 may determine the object included in the radar image to be an unconfirmed object. If the actual probability of an unidentified object is greater than or equal to a set probability, the radar information processing unit 112 may output information about the unidentified object.

레이더 정보 처리부(112)는 미확인 객체에 대한 정보를 관제 센터(200)에 제공할 수 있다. 관제 센터(200)는 미확인 객체에 대한 정보를 기초로 후속 처리를 수행할 수 있다. 예를 들어, 관제 센터(200)는 미확인 객체를 화면에 전시하고, 지속적으로 모니터링할 수 있다.The radar information processing unit 112 may provide information about unidentified objects to the control center 200. The control center 200 may perform follow-up processing based on information about the unidentified object. For example, the control center 200 can display unidentified objects on the screen and continuously monitor them.

도 3은 본 개시의 예시적 실시예에 따른 레이더 신호 처리부의 동작을 설명하는 흐름도이다. 도 3은 도 1을 참조하여 설명될 수 있다.Figure 3 is a flowchart explaining the operation of a radar signal processor according to an exemplary embodiment of the present disclosure. FIG. 3 can be explained with reference to FIG. 1 .

도 3을 참조하면, S310 단계에서, 레이더 신호 처리부(111)는 레이더(151)로부터 복수의 레이더 영상들을 수신할 수 있다.Referring to FIG. 3, in step S310, the radar signal processing unit 111 may receive a plurality of radar images from the radar 151.

S320 단계에서, 레이더 신호 처리부(111)는 복수의 레이더 영상들을 가공할 수 있다. 구체적으로, 레이더 신호 처리부(111)는 레이더(151)로부터 객체까지의 거리 및 객체의 방위각을 나타내는 레이더 영상으로 복수의 레이더 영상들 각각을 가공할 수 있다.In step S320, the radar signal processing unit 111 may process a plurality of radar images. Specifically, the radar signal processing unit 111 may process each of the plurality of radar images into a radar image representing the distance from the radar 151 to the object and the azimuth of the object.

S330 단계에서, 레이더 신호 처리부(111)는 가공된 복수의 레이더 영상들을 중첩시킬 수 있다. 구체적으로, 레이더 신호 처리부(111)는 가공된 복수의 레이더 영상들을 ROI 내 중심점을 기준으로 중첩시킴으로써 중첩 영상을 생성할 수 있다.In step S330, the radar signal processing unit 111 may overlap a plurality of processed radar images. Specifically, the radar signal processing unit 111 may generate an overlapping image by overlapping a plurality of processed radar images based on the center point within the ROI.

S340 단계에서, 레이더 신호 처리부(111)는 기학습된 인공지능 모델을 사용하여 중첩 영상을 기초로 객체의 위치 정보 및 실허상 확률을 획득할 수 있다. 인공지능 모델은, 복수의 학습 레이더 영상들과, 각 학습 영상 내 객체의 위치 및 객체의 실허상 여부를 기초로 학습될 수 있다.In step S340, the radar signal processing unit 111 may obtain location information and real image probability of the object based on the overlapping image using a pre-trained artificial intelligence model. The artificial intelligence model can be learned based on a plurality of learning radar images, the location of the object in each learning image, and whether the object is a real image.

본 개시의 예시적 실시예에 따르면, 인공지능 모델을 기초로 레이더 영상을 분석함으로써 레이더 영상 내 객체의 위치 정보 및 실허상 확률을 획득할 수 있다. 통합 경계 시스템(10)은, 미확인 객체를 식별하기 위해 실허상 확률을 사용함으로써 인공 지능 분석을 통한 자동적이고 정밀한 경계 기능을 제공할 수 있다.According to an exemplary embodiment of the present disclosure, location information and real image probability of an object in the radar image can be obtained by analyzing the radar image based on an artificial intelligence model. The integrated perimeter system 10 can provide an automatic and precise perimeter function through artificial intelligence analysis by using real probability to identify unidentified objects.

도 4는 본 개시의 예시적 실시예에 따른 레이더 정보 처리부의 동작을 설명하는 흐름도이다. 도 4는 도 1을 참조하여 설명될 수 있다.Figure 4 is a flowchart explaining the operation of the radar information processing unit according to an exemplary embodiment of the present disclosure. FIG. 4 can be explained with reference to FIG. 1 .

도 4를 참조하면, S410 단계에서, 레이더 정보 처리부(112)는 레이더 신호 처리부(111)로부터 객체의 위치 정보, 실허상 확률를 수신하고, 객체 정보 제공 장치(150)로부터 외부 정보를 수신할 수 있다.Referring to FIG. 4, in step S410, the radar information processing unit 112 may receive location information and real image probability of an object from the radar signal processing unit 111, and may receive external information from the object information providing device 150. .

S420 단계에서, 레이더 정보 처리부(112)는 중첩 영상 내 객체가 미확인 객체인지 확인할 수 있다. 구체적으로, 레이더 정보 처리부(112)는 객체의 위치 정보를 기초로 객체의 위치를 특정하고, 외부 정보에 의해 고유식별번호가 부여된 객체의 위치와 실질적으로 동일한지 판단함으로써 중첩 영상 내 객체가 미확인 객체인지 확인할 수 있다. In step S420, the radar information processing unit 112 may check whether the object in the overlapping image is an unidentified object. Specifically, the radar information processing unit 112 determines the location of the object based on the location information of the object and determines whether the location of the object is substantially the same as the location of the object to which a unique identification number has been assigned by external information, so that the object in the overlapping image is unidentified. You can check whether it is an object.

중첩 영상 내 객체가 미확인 객체인 경우, S430 단계에서, 레이더 정보 처리부(112)는 실허상 확률을 기초로 미확인 객체를 필터링할 수 있다. 즉, 레이더 정보 처리부(112)는 실허상 확률을 기초로 미확인 객체에 대한 처리를 상이하게 할 수 있다. 예를 들어, 레이더 정보 처리부(112)는 실상 확률이 설정 값 미만 경우 객체가 허상인 것으로 판단하고 미확인 객체 감시 절차를 중단할 수 있으며, 실상 확률이 설정 값 이상인 경우 객체가 실상인 것으로 판단하고 후속 절차를 수행할 수 있다. If the object in the overlapping image is an unidentified object, in step S430, the radar information processing unit 112 may filter the unidentified object based on the real image probability. That is, the radar information processing unit 112 may perform different processing for unidentified objects based on the probability of a real image. For example, if the reality probability is less than a set value, the radar information processing unit 112 may determine that the object is an illusion and stop the unidentified object monitoring procedure, and if the reality probability is more than a set value, it may determine that the object is an illusion and follow up. The procedure can be performed.

S440 단계에서, 레이더 정보 처리부(112)는 미확인 객체에 대한 정보를 출력할 수 있다. 예를 들어, 레이더 정보 처리부(112)는 미확인 객체의 종류, 미확인 객체의 위치 정보, 실허상 확률, 미확인 객체의 진행방향, 미확인 객체의 속도 등을 출력할 수 있다. In step S440, the radar information processing unit 112 may output information about the unidentified object. For example, the radar information processing unit 112 may output the type of unidentified object, location information of the unidentified object, probability of a real image, direction of travel of the unidentified object, speed of the unidentified object, etc.

본 개시의 일 실시예에 따르면, 레이더 정보 처리부(112)는 미확인 객체에 대한 우선순위를 부여할 수 있다. 구체적으로, 레이더 정보 처리부(112)는 실상 확률, 미확인 객체와의 거리를 기초로 우선순위를 부여할 수 있다. 일 예로, 레이더 정보 처리부(112)는 실상 확률이 제1 값 이상이고, 제어 장치(110) 또는 관제 센터(200)와 미확인 객체와의 거리가 제2 값 이하인 경우, 위험도가 높은 것으로 판단하고 우선순위를 높게 부여할 수 있다. According to an embodiment of the present disclosure, the radar information processing unit 112 may give priority to unidentified objects. Specifically, the radar information processing unit 112 may assign priority based on actual probability and distance to an unidentified object. For example, when the actual probability is greater than the first value and the distance between the control device 110 or the control center 200 and the unidentified object is less than or equal to the second value, the radar information processing unit 112 determines that the risk is high and takes priority. A higher ranking can be given.

또 다른 예로, 레이더 정보 처리부(112)는 실상 확률, 미확인 객체와의 거리, 미확인 객체의 방향, 미확인 객체의 속도 중 적어도 하나를 기초로 우선순위를 부여할 수 있다. 구체적으로, 레이더 정보 처리부(112)는 실상 확률, 미확인 객체와의 거리, 미확인 객체의 방향, 미확인 객체의 속도에 각각 가중치를 상이하게 설정하여 우선순위를 부여할 수 있다. 일 예로, 미확인 객체의 방향이 제어 장치(110) 또는 관제 센터(200)와 가까워지는 방향이라고 판단된 경우, 미확인 객체의 속도 및 미확인 객체와의 거리에 가중치를 높게 재설정하여 우선순위를 부여할 수 있다. 반면, 미확인 객체의 방향이 제어 장치(110) 또는 관제 센터(200)와 가까워지는 방향이 아닌 경우, 실상 확률에 가중치를 높게 재설정하여 우선순위를 부여할 수 있다. 위와 같이 미확인 객체의 진행 방향에 따라 가중치를 재설정하여 우선순위를 부여으로써, 위험도가 높은 미확인 객체를 실시간으로 식별할 수 있다는 효과가 있다.As another example, the radar information processing unit 112 may assign priority based on at least one of the actual probability, the distance to the unidentified object, the direction of the unidentified object, and the speed of the unidentified object. Specifically, the radar information processing unit 112 may assign priorities by setting different weights to the actual probability, the distance to the unidentified object, the direction of the unidentified object, and the speed of the unidentified object. For example, if it is determined that the direction of the unidentified object is a direction approaching the control device 110 or the control center 200, priority can be given by resetting the weight to the speed of the unidentified object and the distance to the unidentified object to be high. there is. On the other hand, if the direction of the unidentified object is not in a direction that approaches the control device 110 or the control center 200, priority may be given by resetting the weight to the actual probability to be high. As shown above, by resetting the weight and assigning priority according to the direction of progress of the unidentified object, there is an effect of identifying high-risk unidentified objects in real time.

즉, 레이더 정보 처리부(112)는 우선순위 별로 미확인 객체를 리스트화하고, 우선순위가 상대적으로 높은 미확인 객체에 대한 정보를 출력할 수 있다.That is, the radar information processing unit 112 can list unidentified objects by priority and output information about unidentified objects with relatively high priorities.

관제 센터(200)는 미확인 객체에 대한 정보를 수신하고, 의심되는 미확인 객체를 지속적으로 모니터링할 수 있다. 따라서, 본 개시의 예시적 실시예에 따른 통합 경계 시스템(10)는 인공지능 모델을 통해 레이더 영상의 객체에 대한 실허상 확률을 산출함으로써 자동으로 미확인 객체를 검출하고, 검출된 미확인 객체를 모니터링하는 기능을 제공할 수 있다.The control center 200 may receive information about unidentified objects and continuously monitor suspected unidentified objects. Therefore, the integrated perimeter system 10 according to an exemplary embodiment of the present disclosure automatically detects unidentified objects by calculating the real image probability for objects in the radar image through an artificial intelligence model, and monitors the detected unidentified objects. function can be provided.

도 5는 본 개시의 예시적 실시예에 따른 통합 경계 시스템(10)의 동작을 설명하는 블록도이다. 도 5를 참조하면, 레이더 신호 처리부(111), 외부 정보 연동부(150) 및 레이더 정보 처리부(112)의 동작은 도 2에서 전술된 바 생략될 수 있다.Figure 5 is a block diagram illustrating the operation of the integrated border system 10 according to an exemplary embodiment of the present disclosure. Referring to FIG. 5, the operations of the radar signal processing unit 111, the external information linking unit 150, and the radar information processing unit 112 as described above in FIG. 2 may be omitted.

카메라 정보 처리부(113)는 미확인 객체에 대한 정보를 수신할 수 있다. 카메라 정보 처리부(113)는 미확인 객체를 촬영할 수 있는 TOD(130) 및 카메라(140)에 대한 정보를 확인할 수 있다. 예를 들어, 카메라 정보 처리부(113)는 TOD(130) 및 카메라(140)의 위치 및 개수 등에 대한 정보를 획득할 수 있다. 카메라 정보 처리부(113)는 미확인 객체의 위치 정보를 기초로 TOD(130) 및 카메라(140)가 촬영할 장소를 식별할 수 있다. 즉, 카메라 정보 처리부(113)는 미확인 객체의 위치를 따라 TOD(130) 및 카메라(140)가 촬영을 하도록 촬영 경로를 생성할 수 있다. 카메라 정보 처리부(113)는 촬영 경로를 TOD(130) 및 카메라(140)에 제공할 수 있다.The camera information processing unit 113 may receive information about unidentified objects. The camera information processing unit 113 can check information about the TOD 130 and the camera 140 that can photograph an unidentified object. For example, the camera information processing unit 113 may obtain information about the location and number of the TOD 130 and the camera 140. The camera information processing unit 113 may identify a location where the TOD 130 and the camera 140 will take pictures based on the location information of the unidentified object. That is, the camera information processing unit 113 can create a shooting path so that the TOD 130 and the camera 140 take photos according to the location of the unidentified object. The camera information processing unit 113 may provide a shooting path to the TOD 130 and the camera 140.

TOD(130) 및 카메라(140)는 촬영 경로를 수신하고, 촬영 경로를 따라 미확인 객체에 대한 영상을 촬영할 수 있다. TOD(130) 및 카메라(140)는 객체 영상을 카메라 정보 처리부(110)에 제공할 수 있다.The TOD 130 and the camera 140 may receive a photographing path and capture an image of an unidentified object along the photographing path. The TOD 130 and the camera 140 may provide object images to the camera information processing unit 110.

카메라 정보 처리부(110)는 미리 학습된 인공지능 모델을 사용하여 객체 영상을 기초로 미확인객체의 의아 객체 확률을 산출할 수 있다. 인공지능 모델은, 복수의 학습 영상들과, 각 학습 영상 내의 객체가 의아 객체인지 여부를 기초로 학습될 수 있다.The camera information processing unit 110 may calculate the probability of an unidentified object as a suspicious object based on the object image using a pre-trained artificial intelligence model. An artificial intelligence model can be learned based on a plurality of learning images and whether an object in each learning image is a suspicious object.

관제 센터(200)는 의아 객체 정보, 실허상 확률, 외부 정보 등 미확인 객체와 관련된 정보를 종합하여 미확인 객체에 대한 조치를 취할 수 있다. 본 개시의 예시적 실시예에 따르면, 실상 확률이 높은 객체에 대해 카메라 이미지를 통한 2차적인 인공지능 분석을 수행함으로써 의아 객체 확률을 획득할 수 있고, 이에 따라 우선순위 별 신속한 조치가 가능해질 수 있다. 즉, 관제 센터(200)는 의아 객체 확률이 높은 미확인 객체에 대해 적극적인 조치를 취할 수 있고, 의아 객체 확률이 낮은 미확인 객체에 대해 상대적으로 소극적인 조치를 취할 수 있다.The control center 200 can take action on the unidentified object by combining information related to the unconfirmed object, such as suspicious object information, probability of a real image, and external information. According to an exemplary embodiment of the present disclosure, the probability of a suspicious object can be obtained by performing secondary artificial intelligence analysis through a camera image for an object with a high actual probability, thereby enabling rapid action by priority. there is. That is, the control center 200 can take active measures against unidentified objects with a high probability of being suspicious objects, and can take relatively passive measures with respect to unidentified objects with a low probability of being suspicious objects.

도 6은 본 개시의 예시적 실시예에 따른 카메라 정보 처리부의 동작을 설명하는 흐름도이다. 도 6은 도 1 및 5를 참조하여 설명될 수 있다.Figure 6 is a flowchart illustrating the operation of a camera information processing unit according to an exemplary embodiment of the present disclosure. Figure 6 can be explained with reference to Figures 1 and 5.

S610 단계에서, 카메라 정보 처리부(113)는 미확인 객체에 대한 정보를 수신할 수 있다. 일부 실시예들에서, 카메라 정보 처리부(113)는 설정 확률보다 높은 실상 확률에 대응하는 미확인 객체에 대한 정보를 수신할 수 있다. 예를 들어, 카메라 정보 처리부(113)는 미확인 객체의 위치 정보를 수신할 수 있다.In step S610, the camera information processing unit 113 may receive information about the unidentified object. In some embodiments, the camera information processing unit 113 may receive information about an unidentified object corresponding to an actual probability higher than a set probability. For example, the camera information processing unit 113 may receive location information of an unidentified object.

S620 단계에서, 카메라 정보 처리부(113)는 TOD(130) 및 카메라(140)의 가용 여부를 판단할 수 있다. 구체적으로, 카메라 정보 처리부(113)는 TOD(130)를 포함하는 복수의 TOD들, 및 카메라(140)를 포함하는 복수의 카메라들(140) 중 동작 가능한 TOD(130) 및 카메라(140)를 제어할 수 있다.In step S620, the camera information processing unit 113 may determine whether the TOD 130 and the camera 140 are available. Specifically, the camera information processing unit 113 selects the operable TOD 130 and the camera 140 among the plurality of TODs including the TOD 130 and the plurality of cameras 140 including the camera 140. You can control it.

S620 단계에서, 카메라 정보 처리부(113)는 미확인 객체의 경로를 식별할 수 있다. 구체적으로, 카메라 정보 처리부(113)는 미확인 객체의 위치 정보를 기초로 미확인 객체의 이동 경로를 산출할 수 있다.In step S620, the camera information processing unit 113 may identify the path of the unidentified object. Specifically, the camera information processing unit 113 may calculate the movement path of the unidentified object based on the location information of the unidentified object.

S640 단계에서, 카메라 정보 처리부(113)는 미확인 객체의 이동 경로에 따라 촬영이 수행되도록 촬영 경로를 산출하고, 촬영 경로를 출력할 수 있다.In step S640, the camera information processing unit 113 may calculate a photographing path and output the photographing path so that photographing is performed according to the movement path of the unidentified object.

일부 실시예들에서, 카메라 정보 처리부(113)는 실허상 확률이 설정 범위 내인 경우 동작할 수 있다. 구체적으로, 카메라 정보 처리부(113)는 실허상 확률이 설정 범위 내인 경우 미확인 객체의 종류를 식별하기 위해 TOD(130) 및 카메라(140)를 제어할 수 있다. 더 구체적으로, 카메라 정보 처리부(113)는 TOD(130) 및 카메라(140)로부터 촬영 영상을 수신하고, 복수의 촬영 영상들과, 촬영 영상에 포함되는 객체의 종류를 기초로 학습된 인공지능 모델을 사용하여, 촬영 영상에 포함된 미확인 객체의 종류를 식별할 수 있다.In some embodiments, the camera information processing unit 113 may operate when the real image probability is within a set range. Specifically, the camera information processing unit 113 may control the TOD 130 and the camera 140 to identify the type of unidentified object when the real image probability is within a set range. More specifically, the camera information processing unit 113 receives captured images from the TOD 130 and the camera 140, and an artificial intelligence model learned based on a plurality of captured images and the types of objects included in the captured images. Using , you can identify the type of unidentified object included in the captured image.

도 7은 본 개시의 예시적 실시예에 따른 TOD 및 카메라의 동작을 설명하는 흐름도이다. 도 7은 도 1 및 6을 참조하여 설명될 수 있다.Figure 7 is a flowchart illustrating the operation of a TOD and a camera according to an exemplary embodiment of the present disclosure. FIG. 7 can be explained with reference to FIGS. 1 and 6 .

S710 단계에서, TOD(130) 및 카메라(140)는 촬영 경로를 수신할 수 있다.In step S710, the TOD 130 and the camera 140 may receive a shooting path.

S720 단계에서, TOD(130) 및 카메라(140)는 촬영 경로를 따라 영상을 촬영할 수 있다. 구체적으로, TOD(130) 및 카메라(140)는 촬영 경로를 따라 시야(Field of View)를 조절함으로써 이동하는 미확인 객체에 대한 복수의 영상들을 촬영할 수 있다. 예를 들어, TOD(130)는 미확인 객체에 대한 적외선 영상을 촬영할 수 있고, 카메라(140)는 미확인 객체에 대한 가시광선 영상을 촬영할 수 있다.In step S720, the TOD 130 and the camera 140 may capture images along the capturing path. Specifically, the TOD 130 and the camera 140 can capture a plurality of images of a moving unidentified object by adjusting the field of view along the capturing path. For example, the TOD 130 may capture an infrared image of an unidentified object, and the camera 140 may capture a visible light image of an unidentified object.

S730 단계에서, TOD(130) 및 카메라(140)는 촬영한 영상들을 출력할 수 있다.In step S730, the TOD 130 and the camera 140 may output captured images.

본 개시의 예시적 실시예에 따르면, 미확인 객체로 추정되는 객체에 대한 예상 경로를 따라 TOD(130) 및 카메라(140)에 촬영을 수행함으로써, 미확인 객체에 대한 정밀한 모니터링이 가능해질 수 있다.According to an exemplary embodiment of the present disclosure, precise monitoring of an unidentified object may be possible by performing photography with the TOD 130 and the camera 140 along an expected path for an object presumed to be an unidentified object.

도 8은 본 개시의 예시적 실시예에 따른 카메라 정보 처리부의 동작을 설명하는 흐름도이다. 도 8은 도 1, 6 및 7을 참조하여 설명될 수 있다.Figure 8 is a flowchart explaining the operation of the camera information processing unit according to an exemplary embodiment of the present disclosure. FIG. 8 can be explained with reference to FIGS. 1, 6, and 7.

S810 단계에서, 카메라 정보 처리부(113)는 TOD(130) 및 카메라(140)로부터 미확인 객체에 대한 영상을 수신할 수 있다.In step S810, the camera information processing unit 113 may receive an image of an unidentified object from the TOD 130 and the camera 140.

S820 단계에서, 카메라 정보 처리부(113)는 기학습된 인공지능 모델을 사용하여 미확인 객체에 대한 영상을 기초로 미확인 객체에 대한 의아 객체 확률을 획득할 수 있다. 인공지능 모델은, 학습 영상인 TOD 촬영 영상 또는 카메라 촬영 영상과, 각 촬영 영상에 대응하는 미확인 객체가 의아 객체인지 여부를 기초로 학습될 수 있다.In step S820, the camera information processing unit 113 may obtain a suspicious object probability for the unidentified object based on the image of the unidentified object using a pre-trained artificial intelligence model. The artificial intelligence model can be learned based on TOD captured images or camera captured images, which are learning images, and whether the unidentified object corresponding to each captured image is a suspicious object.

S830 단계에서, 카메라 정보 처리부(113)는 의아 객체 확률을 기초로 미확인 객체의 위험도를 산출할 수 있다. 구체적으로, 카메라 정보 처리부(113)는 의심 객체 확률이 높을수록 높은 위험도를 출력할 수 있다.In step S830, the camera information processing unit 113 may calculate the risk of the unidentified object based on the probability of a suspicious object. Specifically, the camera information processing unit 113 may output a higher risk level as the probability of a suspicious object increases.

일부 실시예들에서, 관제 센터(200)는 높은 위험도를 갖는 미확인 객체에 대해 정밀한 감시 또는 적극적인 조치를 취할 수 있고, 낮은 위험도를 갖는 미확인 객체에 대해 상대적으로 소극적인 조치를 취할 수 있다.In some embodiments, the control center 200 may closely monitor or take active action against unidentified objects with a high risk and take relatively passive actions with respect to unidentified objects with a low risk.

본 개시의 예시적 실시예에 따르면, 인공지능 모델을 사용하여 TOD 촬영 영상 또는 카메라 촬영 영상을 기초로 의아 객체 확률 및 미확인 객체 위험도가 산출되므로, 미확인 객체를 자동적으로 감시하는 시스템이 제공될 수 있다.According to an exemplary embodiment of the present disclosure, the probability of a suspicious object and the risk of an unidentified object are calculated based on a TOD captured image or a camera captured image using an artificial intelligence model, so a system for automatically monitoring an unidentified object can be provided. .

이상에서와 같이 도면과 명세서에서 예시적인 실시 예들이 개시되었다. 본 명세서에서 특정한 용어를 사용하여 실시 예들을 설명되었으나, 이는 단지 본 개시의 기술적 사상을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 개시의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 개시의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다. As above, exemplary embodiments are disclosed in the drawings and specifications. In this specification, embodiments have been described using specific terms, but this is only used for the purpose of explaining the technical idea of the present disclosure and is not used to limit the meaning or scope of the present disclosure as set forth in the patent claims. . Therefore, those skilled in the art will understand that various modifications and other equivalent embodiments are possible. Therefore, the true technical protection scope of the present disclosure should be determined by the technical spirit of the attached patent claims.

Claims (1)

관심 영역에 대한 복수의 레이더 영상들을 획득하는 단계;
상기 복수의 레이더 영상들을 중첩시킴으로써 중첩 영상을 생성하는 단계;
복수의 중첩 영상들 및 복수의 표적들을 기초로 학습된 인공지능 모델을 사용하여 상기 중첩 영상에 포함되는 표적에 대한 실허상 확률을 획득하는 단계;
상기 관심 영역 내에 포함되는 객체들에 대한 위치 정보를 기초로 상기 표적이 미확인 객체인지 식별하는 단계;
상기 표적이 미확인 객체로 식별되면 상기 실허상 확률을 기초로 상기 미확인 객체를 선택적으로 감시하는 단계;
상기 실허상 확률이 설정 범위 내에 포함되는 경우, 상기 표적에 대한 위치 정보를 사용하여 상기 미확인 객체의 이동 경로를 획득하는 단계;
상기 이동 경로에 따른 상기 미확인 객체에 대한 카메라 영상을 획득하는 단계; 및
복수의 카메라 영상들과 복수의 미확인 객체들을 기초로 학습된 인공지능 모델을 사용하여 상기 미확인 객체가 의아 객체일 확률을 획득하는 단계를 포함하는 인공지능 기반 통합 경계 방법.

Obtaining a plurality of radar images for an area of interest;
generating an overlapping image by overlapping the plurality of radar images;
Obtaining a real image probability for a target included in the overlapping images using an artificial intelligence model learned based on a plurality of overlapping images and a plurality of targets;
identifying whether the target is an unidentified object based on location information about objects included in the area of interest;
When the target is identified as an unidentified object, selectively monitoring the unidentified object based on the real image probability;
If the actual image probability is within a set range, obtaining a movement path of the unidentified object using location information about the target;
Obtaining a camera image of the unidentified object along the movement path; and
An artificial intelligence-based integrated boundary method comprising obtaining a probability that the unidentified object is a suspicious object using an artificial intelligence model learned based on a plurality of camera images and a plurality of unidentified objects.

KR1020220177173A 2022-08-10 2022-12-16 Suspicious object monitoring device based on false image probability KR20240021671A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220177173A KR20240021671A (en) 2022-08-10 2022-12-16 Suspicious object monitoring device based on false image probability

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220100019A KR102479959B1 (en) 2022-08-10 2022-08-10 Artificial intelligence based integrated alert method and object monitoring device
KR1020220177173A KR20240021671A (en) 2022-08-10 2022-12-16 Suspicious object monitoring device based on false image probability

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020220100019A Division KR102479959B1 (en) 2022-08-10 2022-08-10 Artificial intelligence based integrated alert method and object monitoring device

Publications (1)

Publication Number Publication Date
KR20240021671A true KR20240021671A (en) 2024-02-19

Family

ID=84547807

Family Applications (5)

Application Number Title Priority Date Filing Date
KR1020220100019A KR102479959B1 (en) 2022-08-10 2022-08-10 Artificial intelligence based integrated alert method and object monitoring device
KR1020220177173A KR20240021671A (en) 2022-08-10 2022-12-16 Suspicious object monitoring device based on false image probability
KR1020220177174A KR20240021672A (en) 2022-08-10 2022-12-16 Object monitoring device monitoring unidentified objects according to priority
KR1020220177175A KR20240021673A (en) 2022-08-10 2022-12-16 Object monitoring device providing information about unidentified objects
KR1020220177172A KR20240021670A (en) 2022-08-10 2022-12-16 Method for monitoring unidentified object using an artificial intelligence model learned based on the type of unidentified objects

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020220100019A KR102479959B1 (en) 2022-08-10 2022-08-10 Artificial intelligence based integrated alert method and object monitoring device

Family Applications After (3)

Application Number Title Priority Date Filing Date
KR1020220177174A KR20240021672A (en) 2022-08-10 2022-12-16 Object monitoring device monitoring unidentified objects according to priority
KR1020220177175A KR20240021673A (en) 2022-08-10 2022-12-16 Object monitoring device providing information about unidentified objects
KR1020220177172A KR20240021670A (en) 2022-08-10 2022-12-16 Method for monitoring unidentified object using an artificial intelligence model learned based on the type of unidentified objects

Country Status (1)

Country Link
KR (5) KR102479959B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240108298A (en) * 2022-12-30 2024-07-09 주식회사 아비커스 Method and apparatus for filtering false object by using plurality sensors
KR102559135B1 (en) * 2023-02-23 2023-07-25 주식회사 유투에스알 AI convergence drone detection system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101258950B1 (en) * 2011-12-23 2013-05-07 한국해양과학기술원 Vessel monitoring apparatus for unidentified vessel, vessel monitoring system having the same and method for monitoring vessel
KR101901939B1 (en) * 2016-06-14 2018-09-27 한국전자통신연구원 System and method for monitoring vessel traffic information
KR102477569B1 (en) * 2020-05-28 2022-12-14 주식회사 월드텍 Ai-based integrated boundary system centered on coastal surveillance radar and the method thereof

Also Published As

Publication number Publication date
KR20240021672A (en) 2024-02-19
KR102479959B1 (en) 2022-12-26
KR20240021673A (en) 2024-02-19
KR20240021670A (en) 2024-02-19

Similar Documents

Publication Publication Date Title
KR102112000B1 (en) System for Warning Collision with Marine Bridge and Seaside Facilities based on Radar
CN109409283B (en) Method, system and storage medium for tracking and monitoring sea surface ship
KR102479959B1 (en) Artificial intelligence based integrated alert method and object monitoring device
AU2012221159B2 (en) A surveillance system and a method for detecting a foreign object, debris, or damage in an airfield
US7889232B2 (en) Method and system for surveillance of vessels
CN112068111A (en) Unmanned aerial vehicle target detection method based on multi-sensor information fusion
US20150104064A1 (en) Method and system for detection of foreign objects in maritime environments
KR102477569B1 (en) Ai-based integrated boundary system centered on coastal surveillance radar and the method thereof
CN106709498A (en) Unmanned aerial vehicle intercept system
WO2017115947A1 (en) Maritime surveillance system
KR102231343B1 (en) Marine warning system for the protection of bridge facilities
Bloisi et al. Camera based target recognition for maritime awareness
Kastek et al. Multisensor system for the protection of critical infrastructure of a seaport
KR102530847B1 (en) Method and device for monitoring harbor and ship
KR20150003893U (en) An Automated System for Military Surveillance and Security utilizing RADAR and DRONE
CN109323624A (en) A kind of islands and reefs base alarm-defense system and method
CN108802742A (en) Abnormal object monitoring method, apparatus and system
GB2608378A (en) Methods and systems for detecting vessels
CN112346078B (en) Ship ultrahigh detection method and device, electronic equipment and storage medium
CN111681399A (en) Multi-dimensional three-dimensional safety prevention and control method, device and system
CN112489338A (en) Alarm method, system, device, equipment and storage medium
Bloisi et al. Integrated visual information for maritime surveillance
CN103942979A (en) Early warning method and device of detection target
JP6934386B2 (en) Moving object tracking device and its program
KR102222165B1 (en) Drone Detection System with Multiple Cameras