KR102312932B1 - Situation monitoring apparatus and situation monitoring method for 360-degree panoramic image acquisition using target handover - Google Patents

Situation monitoring apparatus and situation monitoring method for 360-degree panoramic image acquisition using target handover Download PDF

Info

Publication number
KR102312932B1
KR102312932B1 KR1020200095861A KR20200095861A KR102312932B1 KR 102312932 B1 KR102312932 B1 KR 102312932B1 KR 1020200095861 A KR1020200095861 A KR 1020200095861A KR 20200095861 A KR20200095861 A KR 20200095861A KR 102312932 B1 KR102312932 B1 KR 102312932B1
Authority
KR
South Korea
Prior art keywords
target
cameras
axis
image
angle
Prior art date
Application number
KR1020200095861A
Other languages
Korean (ko)
Inventor
박장한
김재관
김준원
곽재섭
Original Assignee
한화시스템 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화시스템 주식회사 filed Critical 한화시스템 주식회사
Priority to KR1020200095861A priority Critical patent/KR102312932B1/en
Application granted granted Critical
Publication of KR102312932B1 publication Critical patent/KR102312932B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/23238
    • H04N5/23299
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

A situation monitoring apparatus according to an embodiment of the present invention comprises: a primary photographing process of acquiring a primary image by using a camera; a primary detection process of detecting whether a target is present by using the acquired primary image; a first position detection process of detecting the position of the target detected in the primary image; a secondary photographing process of acquiring a secondary image when the camera moves; a secondary detection process of detecting whether a target is present by using the acquired secondary image; a second position detection process of detecting the position of the target detected in the secondary image; and a determination process of comparing the first position and the second position to determine whether the targets detected in the first and second detection processes are the same. According to the present invention, the method can prevent that the target detected before rotation and the target detected after the rotation are recognized as different targets while being actually the same target, that is, the method can prevent that the same target is erroneously recognized as different targets. Accordingly, the method can increase situation recognition capability for a monitoring area.

Description

표적 핸드오버를 활용한 360도 파노라마 영상 획득용 상황 감시장치 및 상황 감시방법{Situation monitoring apparatus and situation monitoring method for 360-degree panoramic image acquisition using target handover}Situation monitoring apparatus and situation monitoring method for 360-degree panoramic image acquisition using target handover

본 발명은 표적 핸드오버를 활용한 360도 파노라마 영상 획득용 상황 감시장치 및 상황 감시방법에 관한 것으로, 감시지역에 대한 상황 인지 능력을 향상시킬 수 있는 표적 핸드오버를 활용한 360도 파노라마 영상 획득용 상황 감시장치 및 상황 감시방법에 관한 것이다.The present invention relates to a situation monitoring apparatus and a situation monitoring method for obtaining a 360-degree panoramic image using a target handover, and to obtain a 360-degree panoramic image using a target handover that can improve situational awareness for a monitoring area It relates to a situation monitoring device and a situation monitoring method.

지상의 감시지역을 감시하기 위한 수단인 감시기는 전차, 장갑차, 자주포 등과 같이 이동 가능한 차량 및 차량에 설치된 복수의 카메라를 포함한다. 또한, 감시기는 차량에 설치되어 적(敵)으로 인식된 표적을 공격하는 포(砲)를 포함한다.A monitor, which is a means for monitoring a surveillance area on the ground, includes a movable vehicle such as a tank, an armored vehicle, a self-propelled artillery, and a plurality of cameras installed in the vehicle. In addition, the monitor includes a cannon installed in the vehicle to attack a target recognized as an enemy.

포(砲)는 조준 위치를 변경할 수 있도록 또는 방위각이 변경되도록 회전 가능하게 차량에 설치된다. 즉, 차량 상에 회전 가능한 구동부가 설치되고, 구동부에 포가 지지된다. 그리고, 일반적으로 복수의 카메라는 포의 회전시에 또는 구동부의 회전 동작시에 함께 회전되도록 상기 구동부에 연결되게 설치된다. 즉, 포를 회전시키면 복수의 카메라도 함께 회전되며, 이에 복수의 카메라 각각의 시야가 바뀌게 된다.The cannon is rotatably installed on the vehicle so that the aiming position can be changed or the azimuth can be changed. That is, a rotatable driving unit is installed on the vehicle, and the fabric is supported by the driving unit. And, in general, a plurality of cameras are installed to be connected to the driving unit so as to rotate together when the cloth is rotated or the driving unit is rotated. That is, when the cannon is rotated, the plurality of cameras are also rotated, and thus the field of view of each of the plurality of cameras is changed.

감시기의 카메라 각각을 동작시켜 상기 감시기 주위를 촬영한 후, 촬영된 영상을 통해 표적의 존재 여부를 탐지할 수 있다. After each camera of the monitor is operated to photograph the surroundings of the monitor, the presence or absence of a target may be detected through the captured image.

한편, 표적이 탐지된 상태에서 포를 회전시키는 경우가 있다. 예컨대, 그 이전에 탐지된 표적을 공격해야 하는 경우에, 공격하고자 하는 표적을 향하도록 하기 위해 포를 회전시켜야 한다. 그런데, 포를 회전시키면 상술한 바와 같이 카메라도 함께 회전하며, 이에 카메라에서 보이는 시야 즉, 카메라의 전방의 위치가 변경된다.On the other hand, there are cases in which the gun is rotated while the target is detected. For example, if it is necessary to attack a previously detected target, the gun must be rotated to point it toward the target to be attacked. However, when the gun is rotated, the camera also rotates as described above, and accordingly, the field of view seen from the camera, that is, the position of the front of the camera is changed.

예컨대, 포를 회전시키기 전에 복수의 카메라 중 제1카메라로부터 촬영된 영상에서 표적이 탐지되었다고 하면, 포가 회전된 후에는 제1카메라의 영상에서는 포가 보이지 않고, 다른 카메라 예를 들어 제2카메라로부터 촬영된 영상에서 표적이 탐지될 수 있다. 즉, 제1카메라의 영상에서 탐지되었던 표적은 이동하지 않았으나, 포의 회전에 의해 제2카메라의 영상에서 탐지된 것이다. 다른 말로 설명하면, 포의 회전 전에 제1카메라의 영상에서 탐지되었던 표적과 포의 회전 후에 제2카메라에서 탐지된 표적은 동일한 표적이다.For example, if the target is detected in the image taken from the first camera among the plurality of cameras before the cannon is rotated, the cannon is not visible in the image of the first camera after the gun is rotated, and the gun is photographed from another camera, for example, the second camera. A target can be detected from the image. That is, the target detected in the image of the first camera did not move, but was detected in the image of the second camera by the rotation of the gun. In other words, the target detected in the image of the first camera before the rotation of the gun and the target detected by the second camera after the rotation of the gun are the same target.

그런데, 이때 회전 전에 제1카메라의 영상에서 탐지된 표적과 회전후에 제2카메라의 영상에서 탐지된 표적을 서로 다른 표적으로 인식한다. 이는 감시지역의 상황을 인지 또는 인식하는데 있어서 혼동을 주게 되며, 표적의 식별 능력을 저하시키는 원인이 된다.However, at this time, the target detected in the image of the first camera before rotation and the target detected in the image of the second camera after rotation are recognized as different targets. This causes confusion in recognizing or recognizing the situation in the surveillance area, and causes deterioration of the target identification ability.

한국등록특허 KR1572896Korean Patent KR1572896

본 발명은 감시지역에 대한 상황 인지 능력 및 표적의 식별 능력을 향상시킬 수 있는 표적 핸드오버를 활용한 360도 파노라마 영상 획득용 상황 감시장치 및 상황 감시방법을 제공한다.The present invention provides a situation monitoring device and a situation monitoring method for obtaining a 360-degree panoramic image using a target handover that can improve situation recognition ability for a monitoring area and target identification ability.

본 발명의 실시예에 따른 상황 감시방법은 카메라를 이용하여, 1차 영상을 획득하는 1차 촬영과정; 획득된 1차 영상을 이용하여, 표적의 존재 여부를 탐지하는 1차 탐지과정; 1차 영상에서 탐지된 표적의 위치를 검출하는 제1위치 검출과정;카메라가 이동하는 경우, 2차 영상을 획득하는 2차 촬영과정; 획득된 2차 영상을 이용하여, 표적의 존재 여부를 탐지하는 2차 탐지과정; 2차 영상에서 탐지된 표적의 위치를 검출하는 제2위치 검출과정; 상기 제1위치와 상기 제2위치를 비교하여, 상기 1 및 2차 탐지과정에서 탐지된 표적이 동일한지를 판단하는 판단과정;을 포함한다.A situation monitoring method according to an embodiment of the present invention includes a primary photographing process of acquiring a primary image using a camera; a primary detection process of detecting the presence or absence of a target by using the acquired primary image; A first position detection process of detecting the position of the target detected in the primary image; When the camera moves, a secondary photographing process of acquiring a secondary image; a secondary detection process of detecting the presence or absence of a target using the acquired secondary image; a second position detection process of detecting the position of the target detected in the secondary image; and a determination process of comparing the first position with the second position to determine whether the targets detected in the first and second detection processes are the same.

본 발명의 실시예에 따른 상황 감시방법은 카메라의 이동 전과 후에 서로 다른 카메라를 이용하여 촬영하는 과정; 상기 서로 다른 카메라를 이용하여 촬영된 각각의 영상을 이용하여, 표적의 존재 여부를 탐지하는 탐지과정; 상기 서로 다른 카메라에서 촬영된 각 영상에서 탐지된 표적의 위치를 검출하는 위치 검출과정; 상기 각 영상에서 검출된 표적의 위치를 비교하여, 이동 전에 카메라로부터 촬영된 영상에서 탐지된 표적과, 이동 후에 카메라로부터 촬영된 영상에서 탐지된 표적이 동일한지를 판단하는 판단과정;을 포함한다.A situation monitoring method according to an embodiment of the present invention includes the steps of photographing using different cameras before and after moving the camera; a detection process of detecting the presence of a target by using each image captured by the different cameras; a position detection process of detecting a position of a target detected in each image captured by the different cameras; and a determination process of comparing the positions of the targets detected in the respective images to determine whether the target detected in the image captured by the camera before movement and the target detected in the image photographed by the camera after movement are the same.

상기 탐지과정은, 이동 전에 카메라로부터 촬영된 1차 영상에서의 표적의 존재 여부를 탐지하는 1차 탐지과정; 및 이동 후에 카메라로부터 촬영된 2차 영상에서의 표적의 존재 여부를 탐지하는 2차 탐지과정;을 포함하고, 상기 1차 및 2차 탐지과정에서 표적의 존재 여부를 탐지하는데 활용된 영상을 생성한 카메라가 서로 다르며, 상기 위치 검출 과정은, 상기 1차 탐지과정에서 검출된 표적의 위치를 검출하는 제1위치 검출과정; 및 상기 2차 탐지과정에서 검출된 표적의 위치를 검출하는 제2위치 검출과정;을 포함하며, 상기 판단과정은, 상기 제1위치와 상기 제2위치를 비교하여, 상기 1 및 2차 탐지과정에서 탐지된 표적이 동일한지를 판단하는 판단 과정;을 포함한다.The detection process may include: a primary detection process of detecting the presence of a target in a primary image taken from a camera before movement; and a secondary detection process of detecting the presence or absence of a target in the secondary image taken from the camera after movement; The cameras are different, and the position detection process includes: a first position detection process of detecting the position of the target detected in the first detection process; and a second position detection process of detecting the position of the target detected in the secondary detection process, wherein the determination process compares the first position with the second position, and the first and second detection processes and a determination process of determining whether the detected targets are the same.

상기 제1위치 검출 과정 및 제2위치 검출 과정은, 표적을 포함하는 영상이 전시된 영상화면의 폭 방향 중심 위치와, 영상화면 상에서의 표적 간의 위치 차이를 검출하는 과정; 상기 위치 차이를 표적의 위치로 결정하는 과정;을 포함한다.The first position detection process and the second position detection process may include: detecting a position difference between a center position in a width direction of an image screen on which an image including a target is displayed and a position difference between the target on the image screen; and determining the position difference as the position of the target.

카메라는 복수개로 마련되고, 복수의 카메라는 일 축을 중심으로 이동 가능하며, 상기 복수의 카메라 중, 어느 하나의 카메라의 폭 방향 중심과, 상기 일 축을 지나가는 가상선을 기준선으로 결정하는 과정; 상기 기준선의 양 끝단 중, 상기 일 축과 반대 끝단의 각도 값을 0°로 설정하는 과정; 상기 복수의 카메라 각각에 있어서, 폭 방향 중심과 상기 일 축을 지나는 축선에 각도를, 상기 0°를 기준으로 부여하는 과정; 및 상기 복수의 카메라 각각으로부터 획득된 복수의 영상화면 각각에 있어서, 영상화면의 폭 방향 중심인 축선에, 상기 복수의 카메라 각각의 축선에 대한 각도를 부여하는 과정;을 포함하고,a process of determining, as a reference line, a plurality of cameras, the plurality of cameras being movable about one axis, and a center of a width direction of any one of the plurality of cameras and a virtual line passing through the one axis; setting an angle value of an end opposite to the one axis among both ends of the reference line to 0°; in each of the plurality of cameras, a process of giving an angle to an axis passing through a center in a width direction and the one axis, based on the 0°; And in each of the plurality of image screens obtained from each of the plurality of cameras, the process of giving an angle with respect to the axis of each of the plurality of cameras to the axis that is the center of the image screen in the width direction;

표적을 포함하는 영상화면의 폭 방향 중심 위치와, 상기 영상화면 상에서의 표적 간의 위치 차이를 검출하는 과정은, 표적을 포함하는 영상화면의 축선의 각도와 상기 영상화면 상에서의 표적의 각도 차이를 산출하는 과정을 포함하며, 상기 제1위치 검출 과정에서 산출된 제1각도 차이를 상기 제1위치, 상기 제2위치 검출 과정에서 산출된 제2각도 차이를 상기 제2위치로 한다.The process of detecting a position difference between the center position in the width direction of the video screen including the target and the target on the video screen calculates the difference between the angle of the axis of the video screen including the target and the angle of the target on the video screen and setting the first angle difference calculated in the first position detection process as the first position and the second angle difference calculated in the second position detection process as the second position.

상기 판단과정은, 상기 제1각도 차이와 제2각도 차이가 동일한 경우, 상기 1 및 2차 탐지과정에서 탐지된 표적이 동일한 것으로 판단한다.In the determination process, when the first angle difference and the second angle difference are the same, it is determined that the targets detected in the first and second detection processes are the same.

상기 제1위치 검출 과정 및 제2위치 검출 과정은, 표적을 포함하는 영상화면을 X-Y 좌표로 나타내는 과정; 및 표적을 포함하는 영상화면의 축선의 각도와 상기 영상화면 상에서의 표적의 각도 차이를, 상기 영상화면 상에서의 X-Y 좌표 위치값으로 변환시키는 과정; 을 포함하고,The first position detection process and the second position detection process may include: displaying an image screen including a target in X-Y coordinates; and converting the difference between the angle of the axis of the video screen including the target and the angle of the target on the video screen into an X-Y coordinate position value on the video screen. including,

상기 제1위치 검출 과정에서 변환된 제1위치값(X1 Y1)을 상기 제1위치, 상기 제2위치 검출 과정에서 변환된 제2위치값(X2 Y2)을 상기 제2위치로 한다. The first position value (X 1 Y 1 ) converted in the first position detection process is the first position, and the second position value (X 2 Y 2 ) converted in the second position detection process is used as the second position do.

상기 판단과정은, 상기 제1위치값(X1 Y1)과 제2위치값(X2 Y2)이 동일한 경우, 상기 1 및 2차 탐지과정에서 탐지된 표적이 동일한 것으로 판단한다.In the determination process, when the first location value (X 1 Y 1 ) and the second location value (X 2 Y 2 ) are the same, it is determined that the targets detected in the first and second detection steps are the same.

상기 복수의 카메라가 이동하는데 있어서, 상기 복수의 카메라에 대한 축선 간의 각도 차이만큼 회전한다.As the plurality of cameras move, they rotate by an angle difference between axes with respect to the plurality of cameras.

상기 1차 촬영시 카메라의 시야각과 상기 2차 촬영시 카메라의 시야각이 동일하다.The viewing angle of the camera during the first photographing and the viewing angle of the camera during the second photographing are the same.

본 발명의 실시예에 따른 상황 감시장치는 카메라 및 상기 카메라로부터 획득된 영상을 이용하여 표적의 존재여부를 탐지하는 탐지부를 구비하며, 이동 가능한 감시기를 포함하고, 상기 탐지부는 상기 카메라가 이동되는 경우, 상기 카메라의 이동 전과 이동 후에 서로 다른 카메라로부터 획득된 영상을 전시한 영상화면 상에서의 표적의 위치 차이에 따라, 회전 전에 탐지된 표적과 회전 후에 탐지된 표적이 동일한 표적인지 여부를 판단한다.A situation monitoring apparatus according to an embodiment of the present invention includes a camera and a detection unit for detecting the presence of a target using an image obtained from the camera, and includes a movable monitor, wherein the detection unit is when the camera is moved , it is determined whether a target detected before rotation and a target detected after rotation are the same target according to a difference in position of a target on a video screen displaying images obtained from different cameras before and after the movement of the camera.

상기 탐지부에서 영상화면 상에서의 표적의 위치를 검출하는데 있어서, 표적을 포함하는 영상화면의 폭 방향 중심 위치와 상기 영상화면 상에서의 표적 간의 위치 차이를 검출하고, 상기 위치 차이를 표적의 위치로 결정하는 과정을 포함한다.In detecting the position of the target on the image screen by the detection unit, the position difference between the center position in the width direction of the image screen including the target and the target on the image screen is detected, and the position difference is determined as the position of the target includes the process of

상기 카메라는 복수개로 마련되며, 상기 복수의 카메라 중, 어느 하나의 카메라의 폭 방향 중심과, 상기 일 축을 지나가는 가상선을 기준선으로 결정하고, 상기 기준선의 양 끝단 중, 상기 일 축과 반대 끝단의 각도 값을 0°로 설정하며, 상기 0°를 기준으로, 상기 복수의 카메라 각각에 있어서, 폭 방향 중심과 상기 일 축을 지나는 축선에 각도를 부여하고, 상기 탐지부는 상기 복수의 카메라 각각으로부터 획득된 영상화면 각각에 대해, 영상화면의 폭 방향 중심인 축선에, 상기 복수의 카메라 각각의 축선에 대한 각도를 부여하며, 상기 탐지부는 표적을 포함하는 영상화면의 축선의 각도와 상기 영상화면 상에서의 표적 간의 각도 차이를 표적의 위치로 검출한다.The camera is provided in plurality, and an imaginary line passing through the width direction center of any one of the plurality of cameras and the one axis is determined as a reference line, and among both ends of the reference line, the end opposite to the one axis The angle value is set to 0°, and in each of the plurality of cameras based on the 0°, an angle is given to an axis passing through the width direction center and the one axis, and the detection unit is obtained from each of the plurality of cameras. For each video screen, an angle with respect to the respective axes of the plurality of cameras is given to an axis that is the center of the video screen in the width direction, and the detector includes an angle of an axis of a video screen including a target and a target on the video screen The angular difference between the two is detected as the position of the target.

상기 탐지부는, 상기 회전 전에 검출된 각도 차이와 상기 회전 후에 검출된 각도 차이가 동일한 경우, 상기 회전 전에 탐지된 표적과 상기 회전 후에 탐지된 표적이 동일한 표적인 것으로 판단한다.The detector determines that the target detected before the rotation and the target detected after the rotation are the same target when the angle difference detected before the rotation and the angle difference detected after the rotation are the same.

상기 탐지부는, 상기 영상화면을 X-Y 좌표로 나타내고, 표적을 포함하는 영상화면의 축선의 각도와 상기 영상화면 상에서의 표적의 각도 차이를 상기 영상화면 상에서의 X-Y 좌표 위치값으로 변환시켜, 표적의 위치로 검출한다.The detection unit represents the video screen in XY coordinates, converts the difference between the angle of the axis of the video screen including the target and the angle of the target on the video screen into an XY coordinate position value on the video screen, the position of the target detected with

상기 탐지부는, 상기 회전 전에 검출된 위치값과 상기 회전 후에 검출된 위치값이 동일한 경우, 상기 회전 전에 탐지된 표적과 상기 회전 후에 탐지된 표적이 동일한 표적인 것으로 판단한다.When the position value detected before the rotation and the position value detected after the rotation are the same, the detection unit determines that the target detected before the rotation and the target detected after the rotation are the same target.

상기 복수의 카메라로부터 획득된 영상들을 합성하여 합성영상을 생성하는 합성부를 포함한다.and a synthesizing unit for synthesizing the images obtained from the plurality of cameras to generate a synthesized image.

상기 감시기로부터 송신되는 상기 합성영상을 수신하는 통제기를 포함한다.and a controller for receiving the composite image transmitted from the monitor.

본 발명의 실시예에 따른 상황 감시장치에 의하면, 복수의 카메라로부터 촬영된 영상으로부터 표적이 탐지된 후, 복수의 카메라가 그 수평 방향 위치가 변경되도록 회전축을 중심으로 회전되는 경우에, 회전 전에 탐지된 표적과 회전 후에 탐지된 표적이 동일한 표적인 여부를 판단한다.According to the situation monitoring apparatus according to an embodiment of the present invention, after a target is detected from an image captured by a plurality of cameras, when the plurality of cameras are rotated about a rotation axis to change their horizontal position, detection is performed before rotation It is judged whether the detected target and the detected target after rotation are the same target.

이에, 회전 전에 탐지된 표적과 회전 후에 탐지된 표적이 실제로는 동일한 표적이나, 서로 다른 표적으로 인지하는 것을 방지할 수 있다. 즉, 동일한 표적을 서로 다른 표적으로 잘못 인지하는 것을 방지할 수 있다. 이에, 감시지역에 대한 상황 인지 능력을 향상시킬 수 있다.Accordingly, it is possible to prevent recognition that the target detected before the rotation and the target detected after the rotation are actually the same target, but different from each other. That is, it is possible to prevent erroneous recognition of the same target as different targets. Accordingly, it is possible to improve the situational awareness of the monitoring area.

도 1은 본 발명의 실시예에 따른 상황 감시장치의 감시기와 통제기를 개념적으로 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 탐지기의 차량에 설치된 복수의 카메라의 배치 상태를 설명하기 위해, 차량의 상측에서 바라본 평면도이다.
도 3은 본 발명의 실시예에 따른 감시기와 통제기를 도시한 블록도이다.
도 4는 복수의 카메라 각각의 시야 및 360도로 영상이 촬영되는 것을 개념적으로 도시한 도면이다.
도 5는 본 발명의 실시예에 따른 제1 내지 제6카메라 각각의 제1 내지 제6시야를 및 제1 내지 제6영상을 360°로 나열하여 개념적으로 나타낸 것이다.
도 6은 도 5 (a)의 제1 내지 제6카메라 각각의 제1 내지 제6시야에 의해 촬영된 제1 내지 제6영상을 개별적으로 나열하여 나타낸 것이다.
도 7은 본 발명의 실시예에 따른 제1 내지 제6카메라 각각의 제1 내지 제6시야를 및 영상을 X-Y 좌표 평면 상에 나타낸 것을 예시하고 있는 도면이다.
도 8 내지 도 10은 카메라의 회전 전에 탐지된 표적과 카메라의 회전 후에 탐지된 표적이 동일 표적인지 판단하는 방법에 대한 설명을 위해 도시된 도면이다.
도 11은 본 발명의 실시예에 따른 방법으로 감시지역을 설정하고, 종심지역을 이용하여 감시지역을 중심지역 및 원거리 지역으로 분할하는 방법을 설명하기 위한 개념도이다.
도 12는 본 발명의 실시예에 따른 상황 감시방법을 나타낸 순서도이다.
1 is a diagram conceptually showing a monitor and a controller of a situation monitoring device according to an embodiment of the present invention.
2 is a plan view viewed from the top of the vehicle in order to explain the arrangement state of the plurality of cameras installed in the vehicle of the detector according to the embodiment of the present invention.
3 is a block diagram illustrating a monitor and a controller according to an embodiment of the present invention.
FIG. 4 is a diagram conceptually illustrating that an image is captured in a 360 degree field of view and 360 degrees of each of a plurality of cameras.
5 is a conceptual diagram illustrating first to sixth fields of view and first to sixth images of each of the first to sixth cameras arranged at 360° according to an embodiment of the present invention.
FIG. 6 is a view showing the first to sixth images taken by the first to sixth fields of view of each of the first to sixth cameras of FIG.
FIG. 7 is a diagram illustrating first to sixth fields of view and images of each of the first to sixth cameras according to an embodiment of the present invention displayed on an XY coordinate plane.
8 to 10 are diagrams for explaining a method of determining whether a target detected before camera rotation and a target detected after camera rotation are the same target.
11 is a conceptual diagram for explaining a method of setting a monitoring area by a method according to an embodiment of the present invention, and dividing the monitoring area into a central area and a remote area using the deep area.
12 is a flowchart illustrating a situation monitoring method according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 더욱 상세히 설명하기로 한다. 그러나 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 본 발명의 실시예를 설명하기 위하여 도면은 과장될 수 있고, 도면상의 동일한 부호는 동일한 구성요소를 지칭한다.Hereinafter, embodiments of the present invention will be described in more detail with reference to the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and the scope of the invention to those of ordinary skill in the art will be completely It is provided to inform you. The drawings may be exaggerated in order to explain the embodiment of the present invention, and like reference numerals in the drawings refer to the same components.

본 발명은 감시지역에 대한 상황 인지 능력을 향상시킬 수 있는 표적 핸드오버를 활용한 360도 파노라마 영상 획득용 상황 감시장치 및 상황 감시방법을 제공한다.The present invention provides a situation monitoring device and a situation monitoring method for obtaining a 360-degree panoramic image using a target handover capable of improving situational awareness in a monitoring area.

보다 상세하게는 카메라의 회전 또는 이동 전에 탐지된 표적과 회전 후에 탐지된 표적이 동일한 표적인지 여부를 판단할 수 있는 표적 핸드오버를 활용한 360도 파노라마 영상 획득용 상황 감시장치 및 상황 감시방법을 제공한다.More specifically, it provides a situation monitoring device and situation monitoring method for obtaining 360-degree panoramic images using target handover that can determine whether a target detected before rotation or movement of a camera and a target detected after rotation are the same target do.

즉, 표적이 탐지된 후 카메라가 회전 이동되는 경우 또는 움직이는 경우, 회전 전과 다른 카메라에 의해 탐지된 표적이 회전 전에 탐지된 표적과 동일한 표적인지 여부를 판단할 수 있는 표적 핸드오버를 활용한 360도 파노라마 영상 획득용 상황 감시장치 및 상황 감시방법에 관한 것이다.That is, when the camera is rotated or moved after the target is detected, 360 degrees using target handover that can determine whether a target detected by a different camera than before rotation is the same target as a target detected before rotation It relates to a situation monitoring apparatus for acquiring a panoramic image and a situation monitoring method.

이하, 본 발명의 실시예에 따른 표적 핸드오버를 활용한 360도 파노라마 영상 획득용 상황 감시장치 및 상황 감시방법에 대해 설명한다. 이때, 이하에서는 설명의 편의를 위하여, 표적 핸드오버를 활용한 360도 파노라마 영상 획득용 상황 감시장치를 '상황 감시장치'로 명명한다. 또한, 표적 핸드오버를 활용한 360도 파노라마 영상 획득용 상황 감시방법을 '상황 감시방법'으로 명명한다.Hereinafter, a situation monitoring apparatus and a situation monitoring method for obtaining a 360-degree panoramic image using target handover according to an embodiment of the present invention will be described. Hereinafter, for convenience of explanation, a situation monitoring device for obtaining a 360-degree panoramic image using a target handover is referred to as a 'situation monitoring device'. In addition, a situation monitoring method for obtaining a 360-degree panoramic image using a target handover is called a 'situation monitoring method'.

실시예에 따른 상황 감시장치가 감시하거나, 상황을 인지 또는 파악하고자 하는 감시지역 또는 감시영역은 지상일 수 있다. 그리고, 본 발명의 실시예에 따른 상황 감시장치가 동작 또는 상황 감시방법이 적용되는 상황은 우리의 영토(領土)로 적(敵), 적(敵)의 장갑차, 전술차 등의 전차가 침입한 상황이거나, 전쟁이 발발한 상황일 수 있다. 이러한 상황은 사전에 위성 또는 항공기를 통해 파악되어 인지된 상태이거나, 다른 정보들을 통해 인지된 상태일 수 있다. The monitoring area or monitoring area for which the situation monitoring apparatus according to the embodiment monitors, recognizes or grasps the situation may be on the ground. In addition, the situation in which the situation monitoring device according to the embodiment of the present invention operates or the situation monitoring method is applied is a situation in which an enemy, an enemy's armored vehicle, a tactical vehicle, etc., has invaded our territory. It could be a situation, or it could be a situation where a war broke out. This situation may be a state recognized by being identified through a satellite or an aircraft in advance, or a state recognized through other information.

이에, 감시지역은 적(敵) 또는 적(敵)의 전차가 있거나, 적(敵)이 작전을 수행하고 있는 작전지역인 적의 종심(縱深)지역에 따라 설정되는 지역일 수 있다. 다른 말로 설명하면, 감시지역은 종심(縱深)지역 밖으로 설정될 수 있는데, 상기 종심지역을 기준으로 설정될 수 있다. 그리고, 감시지역은 종심지역보다 넓은 면적을 가지도록 설정될 수 있다. 감시지역을 설정하는 방법에 대해서는 이후에 다시 설명한다.Accordingly, the monitoring area may be an area set according to the enemy's deep area, which is an operational area in which the enemy or the enemy's tank is present, or in which the enemy is conducting an operation. In other words, the monitoring area may be set outside the depth area, and may be set based on the depth area. And, the monitoring area may be set to have a larger area than the depth area. The method of setting the monitoring area will be described later.

도 1은 본 발명의 실시예에 따른 상황 감시장치의 감시기와 통제기를 개념적으로 나타낸 도면이다. 도 2는 본 발명의 실시예에 따른 탐지기의 차량에 설치된 복수의 카메라의 배치 상태를 설명하기 위해, 차량의 상측에서 바라본 평면도이다. 도 3은 본 발명의 실시예에 따른 감시기와 통제기를 도시한 블록도이다. 도 4는 복수의 카메라 각각의 시야 및 360도로 영상이 촬영되는 것을 개념적으로 도시한 도면이다. 1 is a diagram conceptually showing a monitor and a controller of a situation monitoring device according to an embodiment of the present invention. 2 is a plan view viewed from the upper side of the vehicle in order to explain the arrangement state of the plurality of cameras installed in the vehicle of the detector according to the embodiment of the present invention. 3 is a block diagram illustrating a monitor and a controller according to an embodiment of the present invention. FIG. 4 is a diagram conceptually illustrating that an image is captured in a 360 degree field of view and 360 degrees of each of a plurality of cameras.

도 1 내지 도 3을 참조하면, 본 발명의 실시예에 따른 상황 감시장치(1000)는 복수의 카메라(1120; 1121 내지 1126)를 구비하고, 합성영상의 생성이 가능하며, 이동이 가능한 감시기(1100), 감시기(1100)에서 생성된 합성영상을 수신하고, 감시기(1100)의 동작을 원격 또는 무선통신을 통해 통제하는 통제기(1200)를 포함한다.1 to 3 , a situation monitoring apparatus 1000 according to an embodiment of the present invention includes a plurality of cameras 1120; 1121 to 1126, a composite image can be generated, and a movable monitor ( 1100), and a controller 1200 that receives the synthesized image generated by the monitor 1100, and controls the operation of the monitor 1100 through remote or wireless communication.

먼저, 통제기(1200)에 대해 설명한다. First, the controller 1200 will be described.

도 3을 참조하면, 통제기(1200)는 감시기(1100)의 이동을 제어하는 조종부(1210), 감시기(1100)와 송수신하기 위한 수단인 통신부(이하, 통제 통신부(1230)), 감시기(1100)로부터 통제 통신부(1230)로 전달된 합성영상을 화면에 전시(display)하는 전시부(1240), 조종부(1210), 통제 통신부(1230) 및 전시부(1240)의 동작을 제어하는 제어 처리부(이하, 통제 제어 처리부(1220))를 포함한다. 이와 같은 통제기(1200)는 이동 가능한 차량에 탑재되도록 설치될 수 있다.Referring to FIG. 3 , the controller 1200 includes a control unit 1210 that controls the movement of the monitor 1100 , a communication unit that is a means for transmitting and receiving with the monitor 1100 (hereinafter, a control communication unit 1230 ), and a monitor 1100 . . , a control control processing unit 1220). Such a controller 1200 may be installed to be mounted on a movable vehicle.

조종부(1210)는 감시기(1100)가 감시지역으로 이동하거나, 감시지역 내에서 이동하거나, 감시지역 밖으로 이동할 수 있도록 상기 감시기(1100)의 이동을 제어한다. 이를 위해, 조종부(1210)에는 사전에 만들어진 주행경로가 입력 또는 저장되고, 이는 통제 통제 통신부(1230)를 통해 감시기(1100)로 전달될 수 있다. 이에, 감시기(1100)는 입력된 주행경로에 의해 이동할 수 있다. 물론, 이에 한정되지 않고, 운용자가 조종부(1210)에 실시간으로 주행경로를 바꿔 입력할 수 있고, 이에 운용자가 조종부(1210)를 통해 감시기(1100)의 이동을 실시간으로 조종할 수도 있다.The control unit 1210 controls the movement of the monitor 1100 so that the monitor 1100 can move to the monitoring area, move within the monitoring area, or move out of the monitoring area. To this end, a pre-made driving route is input or stored in the control unit 1210 , which may be transmitted to the monitor 1100 through the control communication unit 1230 . Accordingly, the monitor 1100 may move according to the input travel route. Of course, the present invention is not limited thereto, and the operator may change and input the driving route to the control unit 1210 in real time, and accordingly, the operator may control the movement of the monitor 1100 through the control unit 1210 in real time.

그리고, 조종부(1210)를 통해 감시기(1100)의 이동을 제어하기 때문에, 조종부(1210)로부터 감시기(1100)의 현 위치를 추적 또는 파악할 수 있다. 물론 이에 한정되지 않고, GPS와 같은 위치센서를 이용하여 감시기(1100)의 현재 위치를 추적할 수도 있다. 그리고, 추적된 감시기(1100)의 현 위치는 통제 제어 처리부(1220)로 실시간으로 전달되고, 이는 감시기(1100)로 전달될 수 있다. 또한, 감시기(1100)의 현 위치는 통제기(1200) 또는 통제 제어 처리부(1220)를 거치지 않고, 감시기(1100) 자체에서 추적될 수도 있다.And, since the movement of the monitor 1100 is controlled through the control unit 1210 , the current position of the monitor 1100 can be tracked or grasped from the control unit 1210 . Of course, the present invention is not limited thereto, and the current position of the monitor 1100 may be tracked using a position sensor such as GPS. And, the current position of the tracked monitor 1100 is transmitted to the control control processing unit 1220 in real time, which may be transmitted to the monitor 1100 . In addition, the current position of the monitor 1100 may be tracked by the monitor 1100 itself, without going through the controller 1200 or the control control processing unit 1220 .

감시기(1100)의 위치를 추적하는 방법은 상술한 예들에 한정되지 않고, 상기 감시기(1100)의 위치를 추적할 수 있다면 어떠한 방법 및 수단이 사용되어도 무방하다.The method for tracking the location of the monitor 1100 is not limited to the above-described examples, and any method and means may be used as long as the location of the monitor 1100 can be tracked.

도 1 내지 도 3을 참조하면, 감시기(1100)는 이동 가능한 차량(1110), 차량(1110)에 설치되며, 각각에서 영상의 촬영이 가능하고, 일 위치를 중심으로 나열 배치되어 상기 일 위치를 중심으로 회전 가능한 복수의 카메라(1120: 1121 내지 1126), 복수의 카메라(1120: 1121 내지 1126)로부터 촬영된 영상 또는 영상 데이터를 이용하여, 감시지역 내 표적을 탐지하는 탐지부(1130), 복수의 카메라(1121 내지 1126) 각각으로부터 촬영된 영상을 합성하여 합성영상을 생성하는 합성부(1140)를 포함한다.1 to 3, the monitor 1100 is installed in the movable vehicle 1110 and the vehicle 1110, it is possible to take an image in each, and is arranged around one location to determine the one location. A plurality of cameras (1120: 1121 to 1126) rotatable around the center, a detector (1130) for detecting a target in a surveillance area using images or image data captured from a plurality of cameras (1120: 1121 to 1126), a plurality of and a synthesizing unit 1140 for generating a composite image by synthesizing images taken from each of the cameras 1121 to 1126 of the .

또한, 감시기(1100)는 복수의 카메라(1121 내지 1126)가 지지되도록 차량(1110) 상에 설치되며, 회전 가능한 지지부(이하, 제1지지부(1120a)), 제1지지부(1120a)를 회전시키도록 상기 제1지지부(1120a)에 연결된 구동부(1180)를 포함한다.In addition, the monitor 1100 is installed on the vehicle 1110 so that the plurality of cameras 1121 to 1126 are supported, and rotates the rotatable support (hereinafter, the first support part 1120a) and the first support part 1120a. and a driving unit 1180 connected to the first support unit 1120a to

그리고, 감시기(1100)는 통제기(1200)와 송수신하기 위한 수단인 통신부(이하, 감시 통신부(1160)) 및 합성부(1140)에서 합성된 영상을 화면에 전시(display)하는 전시부(1170)를 포함한다.And, the monitor 1100 is a display unit 1170 that displays the image synthesized by the communication unit (hereinafter, the monitoring communication unit 1160) and the synthesis unit 1140, which is a means for transmitting and receiving with the controller 1200, on the screen. include

또한, 감시기(1100)는 차량(1110)에 설치되어 탐지된 표적을 공격하는 무기 예컨대 포(砲)(1190), 포(1190)가 지지되도록 차량(1110) 상에 설치되며, 회전 가능한 지지부(이하, 제2지지부(1190a)) 및 복수의 카메라(1120) 각각으로부터 촬영된 영상을 표시하는 복수의 표시부(1150; 1151 내지 1156)를 포함할 수 있다.In addition, the monitor 1100 is installed on the vehicle 1110 and installed on the vehicle 1110 so that a weapon that attacks a detected target, such as a cannon 1190 and a gun 1190 is supported, and a rotatable support ( Hereinafter, the second support unit 1190a) and a plurality of display units 1150 ( 1151 to 1156 ) for displaying images photographed from each of the plurality of cameras 1120 may be included.

차량(1110)은 감시지역을 향해 이동하거나, 감시지역 내에서 이동하거나, 감시지역 밖으로 이동할 수 있도록 이동 가능하며, 통제기(1200)에 의해 원격으로 이동될 수 있는 차량일 수 있다. 즉, 차량(1110)은 통제기(1200) 또는 조종부(1210)로부터 전달된 신호에 의해 무인으로 주행이 가능하도록, 자율주행 처리부를 구비하는 수단일 수 있다. 보다 구체적으로 설명하면, 차량(1110)은 통제기(1200)로부터 사전에 입력된 주행경로에 의해 자율주행이 가능한 수단일 수 있다. 즉, 통제기(1200)에 차량(1110)을 이동시킬 주행경로를 만들어 입력하고, 이를 차량(1110)으로 전달하면, 차량(1110)은 입력된 주행경로를 따라 이동 가능하도록 마련될 수단일 수 있다. 물론, 이에 한정되지 않고, 통제기(1200)의 운용자가 실시간으로 차량(1110)의 이동을 조정할 수도 있다. 또한, 운용자가 차량(1110)에 탑승하여 차량(1110)의 주행을 직접 조정할 수도 있다. 이러한 차량(1110)은 포, 기관총 등이 무장된 차량일 수 있다.The vehicle 1110 may be a vehicle capable of moving toward the monitoring area, moving within the monitoring area, or moving out of the monitoring area, and may be remotely moved by the controller 1200 . That is, the vehicle 1110 may be a means having an autonomous driving processing unit so that the vehicle 1110 can be driven unattended by a signal transmitted from the controller 1200 or the control unit 1210 . More specifically, the vehicle 1110 may be a means capable of autonomous driving according to a driving route input in advance from the controller 1200 . That is, when a driving path for moving the vehicle 1110 is created and input to the controller 1200 and transmitted to the vehicle 1110, the vehicle 1110 may be a means provided to be movable along the input driving path. . Of course, the present invention is not limited thereto, and the operator of the controller 1200 may adjust the movement of the vehicle 1110 in real time. Also, the operator may directly control the driving of the vehicle 1110 by riding on the vehicle 1110 . The vehicle 1110 may be a vehicle armed with a gun, a machine gun, or the like.

카메라는(1120) 차량(1110)에 설치되어, 영상을 획득하는 촬영 수단이다. 이러한 카메라(1120)는 예컨대 적외선 영상 센서 및 가시광 영상 센서를 구비하는 카메라일 수 있다. 다른 말로 설명하면, 카메라(1120)는 동일한 지역 또는 위치에 대해 적외선 영상 센서를 이용하여 적외선 영상을 센싱 또는 획득하고, 가시광 영상 센서를 이용하여 가시광선 영상을 센싱 또는 획득하는 수단일 수 있다.The camera 1120 is installed in the vehicle 1110 and is a photographing means for acquiring an image. The camera 1120 may be, for example, a camera including an infrared image sensor and a visible light image sensor. In other words, the camera 1120 may be a means for sensing or acquiring an infrared image using an infrared image sensor for the same region or location, and sensing or acquiring a visible ray image using the visible light image sensor.

카메라(1120)는 복수개로 마련되며, 복수의 카메라(1120; 1121 내지 1126)는 차량(1110) 주변의 전체 상황을 인지 또는 파악할 수 있는 영상이 획득되도록, 차량(1110) 상의 일 위치를 중심으로 나열 배치된다. 즉, 복수의 카메라(1121 내지 1126)는 차량(1110) 상의 일 위치를 중심으로 360도(360°)에 대한 영상의 획득이 가능하도록 설치된다. 예컨대, 복수의 카메라(1121 내지 1126)는 도 2 및 도 4에 도시된 바와 같이, 차량(1110) 상에서 그 나열된 형태가 원형이 되도록 배치될 수 있다. 다른 말로 설명하면, 차량(1110)의 일 위치를 중심으로, 복수의 카메라(1121 내지 1126)가 방사형으로 배치되며, 각 카메라(1120)와 상기 일 위치간의 이격거리가 동일하도록 배치될 수 있다. 또한, 복수의 카메라(1121 내지 1126) 간의 이격거리가 동일하도록 즉, 등간격으로 배치된다. A plurality of cameras 1120 are provided, and the plurality of cameras 1120 ( 1121 to 1126 ) focus on one location on the vehicle 1110 so that an image capable of recognizing or comprehending the entire situation around the vehicle 1110 is acquired. are placed in a list. That is, the plurality of cameras 1121 to 1126 are installed to enable the acquisition of an image of 360 degrees (360 degrees) with respect to one location on the vehicle 1110 . For example, as shown in FIGS. 2 and 4 , the plurality of cameras 1121 to 1126 may be arranged so that their arranged shape becomes a circle on the vehicle 1110 . In other words, a plurality of cameras 1121 to 1126 may be radially disposed with respect to one location of the vehicle 1110 , and may be disposed such that the separation distance between each camera 1120 and the one location is the same. In addition, the plurality of cameras 1121 to 1126 are arranged so that the distance between them is the same, that is, at equal intervals.

보다 구체적으로, 복수의 카메라는 도 2 및 도 4에 도시된 바와 같이 제1지지부(1120a)의 둘레방향으로 나열 배치된다. 이에, 복수의 카메라(1121 내지 1126)는 차량(1110) 상에 설치된 제1지지부(1120a)를 중심으로 360도(360°)로 나열 배치된다. 이와 같은 경우, 복수의 카메라(1121 내지 1126)가 차량(1110) 상의 '일 위치'를 중심으로 나열 배치되는 설명은, 복수의 카메라(1121 내지 1126)가 제1지지부(1120a)를 중심으로 나열 배치되는 것으로 설명될 수 있다. 또한, 제1지지부(1120a)는 구동부(1180)에 의해 회전되고, 제1지지부(1120a)의 회전에 의해 복수의 카메라(1121 내지 1126)가 회전한다. 이에, 복수의 카메라(1121 내지 1126)가 차량(1110) 상의 '일 위치'를 중심으로 회전한다는 것은, 복수의 카메라(1121 내지 1126)가 제1지지부(1120a)를 회전축(AX)으로 하여 또는 제1지지부(1120a)의 폭 방향 중심을 회전축(AX)으로 하여 회전한다는 의미일 수 있다. 또한, 복수의 카메라(1121 내지 1126)가 원형으로 배치되므로, 상기 복수의 카메라(1121 내지 1126)의 중심이 회전축(AX)을 의미할 수 있다. 그리고, 이렇게 복수의 카메라(1121 내지 1126)가 회전한다는 것은 복수의 카메라(1121 내지 1126) 각각의 위치가 바뀌도록 이동한다는 의미이다.More specifically, the plurality of cameras are arranged in a row in the circumferential direction of the first support portion 1120a as shown in FIGS. 2 and 4 . Accordingly, the plurality of cameras 1121 to 1126 are arranged in a row at a 360 degree (360°) centering on the first support unit 1120a installed on the vehicle 1110 . In this case, the description in which the plurality of cameras 1121 to 1126 are arranged in a row around 'one location' on the vehicle 1110 is that the plurality of cameras 1121 to 1126 are arranged around the first support part 1120a. It can be described as being deployed. Also, the first support unit 1120a is rotated by the driving unit 1180 , and the plurality of cameras 1121 to 1126 are rotated by the rotation of the first support unit 1120a. Accordingly, the plurality of cameras 1121 to 1126 rotating about a 'one position' on the vehicle 1110 means that the plurality of cameras 1121 to 1126 use the first support part 1120a as the rotation axis AX or This may mean that the first support part 1120a rotates with the center of the width direction as the rotation axis AX. In addition, since the plurality of cameras 1121 to 1126 are arranged in a circle, the center of the plurality of cameras 1121 to 1126 may mean the rotation axis AX. And, the rotation of the plurality of cameras 1121 to 1126 means that the plurality of cameras 1121 to 1126 move to change the positions of each.

카메라(1120)는 6 개 이상으로 마련되는 것이 바람직하다. 이때, 복수의 카메라(1121 내지 1126)는 서로 60 °간격으로 배치될 수 있다. 그리고 이때, 도 2 및 도 4에 도시된 바와 같이 제1카메라(1121)와 제4카메라(112)가 마주보고, 제2카메라(1122)와 제5카메라(1125)가 마주보며, 제3카메라(1123)와 제6카메라(1126)가 마주보도록 배치될 수 있다.It is preferable that six or more cameras 1120 are provided. In this case, the plurality of cameras 1121 to 1126 may be disposed at intervals of 60° from each other. And at this time, as shown in FIGS. 2 and 4 , the first camera 1121 and the fourth camera 112 face each other, the second camera 1122 and the fifth camera 1125 face each other, and the third camera 1123 and the sixth camera 1126 may be disposed to face each other.

복수의 카메라(1121 내지 1126)는 도 4와 같이 각각이 마주보는 또는 전방영역을 촬영하며, 각각에서 영상이 획득된다. 즉, 복수의 카메라(1121 내지 1126)는 그 각각의 시야(F1 내지 F6)가 다르고, 각각에서 영상이 획득된다. 이때, 복수의 카메라(1121 내지 1126)는 그 설치 위치 또는 시야(F1 내지 F6)가 모두 다르므로, 촬영된 위치가 모두 다를 수 있다. 이에, 카메라(1120)가 나열된 방향으로의 영상을 얻을 수 있는데, 복수의 카메라(1121 내지 1126)가 차량(1110) 상의 일 위치 또는 제1지지부(1120a)를 중심으로 하여 원형으로 배치되므로, 도 4와 같이 차량(1110) 주변의 영상을 얻을 수 있다. 즉, 차량(1110)을 중심으로 360도(360°) 방향으로의 영상을 얻을 수 있고, 이들 영상을 합성하면 360도(360°) 파노라마 또는 파노라믹 영상을 생성할 수 있다.The plurality of cameras 1121 to 1126 photograph each facing or front area as shown in FIG. 4 , and an image is obtained from each. That is, the plurality of cameras 1121 to 1126 have different fields of view F1 to F6 respectively, and images are obtained from each. In this case, since the plurality of cameras 1121 to 1126 have different installation positions or fields of view F1 to F6, all of the photographed positions may be different. Accordingly, it is possible to obtain an image in the direction in which the cameras 1120 are arranged, and since the plurality of cameras 1121 to 1126 are arranged in a circle with respect to one position on the vehicle 1110 or the first support unit 1120a as the center, FIG. 4, an image around the vehicle 1110 can be obtained. That is, it is possible to obtain an image in a 360-degree (360°) direction centered on the vehicle 1110 , and by synthesizing these images, a 360-degree (360°) panoramic or panoramic image can be generated.

구동부(1180)는 복수의 카메라(1121 내지 1126)가 장착 또는 지지된 제1지지부(1120a)를 회전시키는 수단이다. 이러한 구동부(1180)는 차량(1110)의 상부에 설치될 수 있고, 구동부(1180)의 상부에 제1지지부(1120a)가 설치될 수 있다. 그리고, 실시예에 따른 구동부(1180)는 복수의 카메라(1121 내지 1126)를 지지하는 제1지지부(1120a) 뿐만 아니라, 포(1190)가 지지된 제2지지부(1190a)를 회전시킬 수 있도록 마련된다. 즉, 구동부(1180)의 동작시에 제1 및 제2지지부(1120a, 1190a)가 함께 회전될 수 있도록 마련된다.The driving unit 1180 is a means for rotating the first support unit 1120a on which the plurality of cameras 1121 to 1126 are mounted or supported. The driving unit 1180 may be installed on the upper portion of the vehicle 1110 , and the first support unit 1120a may be installed on the driving unit 1180 . And, the driving unit 1180 according to the embodiment is provided to rotate the first support part 1120a supporting the plurality of cameras 1121 to 1126 as well as the second support part 1190a on which the cloth 1190 is supported. do. That is, the first and second support units 1120a and 1190a are provided to rotate together when the driving unit 1180 is operated.

표시부(1150)는 카메라(1120)에서 촬영된 영상을 표시 또는 전시하는 수단이다. 이러한 표시부(1150)는 복수의 카메라(1120) 각각으로부터 촬영된 영상을 전시할 수 있도록 복수개로 마련된다. 예컨대, 6 개의 카메라(1121 내지 1126)가 마련되는 경우, 6 개의 표시부(1150; 1151 내지 1156)가 마련된다. 그리고, 복수의 표시부(1151 내지 1156)는 동일한 크기의 화면상에 영상을 전시한다.The display unit 1150 is a means for displaying or displaying an image captured by the camera 1120 . The display unit 1150 is provided in plurality to display images captured by each of the plurality of cameras 1120 . For example, when six cameras 1121 to 1126 are provided, six display units 1150 ( 1151 to 1156 ) are provided. In addition, the plurality of display units 1151 to 1156 displays images on screens of the same size.

예컨대, 도 1에 도시된 바와 같이, 차량(1110)의 상부에 구동부(1180)가 설치되고, 구동부(1180) 상에 제2지지부(1190a), 제2지지부(1190a) 상에 제1지지부(1120a)가 연결되도록 설치될 수 있다. 이에, 제1지지부(1120a)와 제2지지부(1190a)가 상호 연결되도록 설치된다. 이에, 구동부(1180)가 동작하면 제2지지부(1190a)가 회전하고, 제2지지부(1190a)의 회전에 의해 제1지지부(1120a)가 회전될 수 있다. 따라서, 구동부(1180)가 동작하면 제2지지부(1190a)의 회전에 의해 포(1190)가 회전하며, 이때 제1지지부(1120a)가 회전함에 따라 복수의 카메라(1121 내지 1126)도 함께 회전한다. For example, as shown in FIG. 1 , the driving unit 1180 is installed on the upper portion of the vehicle 1110 , the second support unit 1190a on the driving unit 1180 , and the first support unit 1190a on the second support unit 1190a . 1120a) may be installed to be connected. Accordingly, the first support part 1120a and the second support part 1190a are installed to be interconnected. Accordingly, when the driving unit 1180 is operated, the second supporting unit 1190a may be rotated, and the first supporting unit 1120a may be rotated by the rotation of the second supporting unit 1190a. Accordingly, when the driving unit 1180 operates, the cloth 1190 is rotated by the rotation of the second support unit 1190a. .

이때, 구동부의 동작에 의해 복수의 카메라 각각이 회전되는데 있어서, 60°단위로 회전될 수 있다. 즉, 60°, 120°등으로 회전될 수 있다.In this case, when each of the plurality of cameras is rotated by the operation of the driving unit, it may be rotated in units of 60°. That is, it can be rotated by 60°, 120°, or the like.

물론 이에 한정되지 않고, 카메라가 마련되는 개수, 등간격으로 배치된 카메라들 간의 각도 차이에 따라 복수의 카메라 각각이 회전되는 단위각이 바뀔 수 있다.Of course, the present invention is not limited thereto, and the unit angle at which each of the plurality of cameras is rotated may be changed according to the number of cameras provided and an angle difference between cameras arranged at equal intervals.

포(1190) 또는 복수의 카메라(1121 내지 1126)가 회전한다는 것은 그 수평방향 위치가 바뀌도록 회전한다는 의미이다. 즉, 포(1190)의 경우, 포(1190)의 연장 방향의 양 끝단 중, 제2지지부(1190a)에 연결된 일단의 반대 끝단인 타단이 바라보는 수평방향 위치가 바뀌도록 회전한다는 의미이다. 또한, 복수의 카메라(1121 내지 1126)의 경우, 각각이 수평방향으로 그 전방 위치가 변경되도록 회전한다는 의미이다.The rotation of the gun 1190 or the plurality of cameras 1121 to 1126 means that the gun 1190 rotates so as to change its horizontal position. That is, in the case of the fabric 1190, the other end, which is the opposite end of one end connected to the second support unit 1190a, among both ends in the extending direction of the fabric 1190, rotates to change the position in the horizontal direction viewed. In addition, in the case of the plurality of cameras 1121 to 1126, it means that each rotates to change its front position in the horizontal direction.

상술한 바와 같이, 복수의 카메라(1121 내지 1126)는 구동부(1180) 또는 제1지지부(1120a)의 동작에 의해, 차량(1110) 상의 일 위치를 중심으로 회전하는 동작을 한다. 이때, 복수의 카메라(1121 내지 1126)는 제1지지부(1120a) 또는 제1지지부(1120a)의 폭 방향 중심을 중심으로 하여 나열 배치되어 회전하므로, 상기 차량(1110) 상의 일 위치란, 제1지지부(1120a) 또는 제1지지부(1120a)의 폭 방향 중심일 수 있다. 또한, 제1지지부(1120a) 또는 제1지지부(1120a)의 폭 방향 중심이 원형으로 배치된 복수의 카메라(1121 내지 1126)의 중심이 될 수 있고, 이 중심의 회전축일 수 있다. 따라서, 복수의 카메라(1121 내지 1126)가 연결된 제1지지부(1120a) 또는 제1지지부(1120a)의 중심 또는 원형으로 나열 배치된 복수의 카메라(1121 내지 1126)의 중심을 '회전축(AX)'이라 명명한다.As described above, the plurality of cameras 1121 to 1126 rotates around one position on the vehicle 1110 by the operation of the driving unit 1180 or the first support unit 1120a. At this time, since the plurality of cameras 1121 to 1126 are arranged and rotated in a row around the width direction center of the first support part 1120a or the first support part 1120a, one position on the vehicle 1110 is the first It may be the center of the support part 1120a or the first support part 1120a in the width direction. In addition, the first support part 1120a or the width direction center of the first support part 1120a may be the center of the plurality of cameras 1121 to 1126 arranged in a circle, and may be a rotation axis of the first support part 1120a. Accordingly, the center of the first support part 1120a or the first support part 1120a to which the plurality of cameras 1121 to 1126 are connected, or the center of the plurality of cameras 1121 to 1126 arranged in a circle, is referred to as the 'rotation axis (AX)'. name it

또한, 이하에서는, 설명의 편의를 위하여 구동부(1180)의 동작에 의해 각각의 수평방향 위치가 바뀌도록 복수의 카메라(1121 내지 1126)가 회전하는 것을 '카메라가 회전' 하는 것으로 기재하여 설명한다. 즉, 이하에서의 '카메라가 회전' 한다는 것은, 각각의 수평방향 위치 또는 시야가 바뀌도록 복수의 카메라(1121 내지 1126)가 회전축(AX)을 중심으로 회전한다는 의미이다.In addition, hereinafter, for convenience of explanation, the rotation of the plurality of cameras 1121 to 1126 so that the respective horizontal positions are changed by the operation of the driving unit 1180 will be described as 'the camera rotates'. That is, 'the camera rotates' in the following means that the plurality of cameras 1121 to 1126 rotate about the rotation axis AX so that each horizontal position or field of view is changed.

도 5는 본 발명의 실시예에 따른 제1 내지 제6카메라 각각의 제1 내지 제6시야(F1 내지 F6)를 및 제1 내지 제6영상(I1 내지 I6)을 360°로 나열하여 개념적으로 나타낸 것이다.5 is a conceptual diagram of the first to sixth fields of view (F1 to F6) and the first to sixth images (I1 to I6) of the first to sixth cameras according to an embodiment of the present invention arranged at 360°. it has been shown

여기서, 도 5의 (a)는 본 발명의 실시예에 따른 제1 내지 제6카메라(1121 내지 1126) 각각의 제1 내지 제6시야(F1 내지 F6)를 360°로 나열한 도면이다. 실시예에 따른 상황 감시방법을 실행하기 위해, 복수의 카메라(1121 내지 1126)의 중심 즉, 회전축(AX)을 이용하여 기준선(Ls)을 결정한다. 구체적으로 설명하면, 복수의 카메라(1121 내지 1126)가 회전하는 축의 중심 즉, 회전축(AX)과 상기 복수의 카메라(1121 내지 1126) 중 어느 하나 예컨대 제2카메라(1122)의 폭 방향 중심을 지나는 가성선을 기준선(Ls)으로 한다.Here, FIG. 5A is a view in which the first to sixth fields of view F1 to F6 of each of the first to sixth cameras 1121 to 1126 are arranged at 360° according to an embodiment of the present invention. In order to execute the situation monitoring method according to the embodiment, the reference line L s is determined using the center of the plurality of cameras 1121 to 1126 , that is, the rotation axis AX. Specifically, the center of the axis on which the plurality of cameras 1121 to 1126 rotate, that is, the rotation axis AX and any one of the plurality of cameras 1121 to 1126, for example, the width direction center of the second camera 1122. Let the false line be the reference line (L s ).

그리고, 회전축(AX)을 지나는 기준선에 있어서, 회전축(AX)과 연결된 일단의 반대 끝단인 타단을 0°(360°)로 한다. 또한, 회전축(AX)을 중심으로 기준선(Ls)을 360°로 회전시킨다고 할 때, 0°에서부터 시계방향을 기준으로 30°, 60°, 90°, 120°, 150°, 180°로 설정한다. 또한, 180°에서부터 시계방향을 기준으로 210°, 240°, 270°, 300°, 360°(0°)로 설정한다. 이에, 회전축(AX)을 중심으로 360°의 각도가 생성된다. 이때, 제2카메라(1122)와 회전축(AX)을 연결하는 기준선(Ls)의 타단의 각도는 항상 0°(360°)이다. 즉, 카메라가 회전하더라도, 제2카메라(1122)와 회전축(AX)을 연결하는 기준선(Ls)의 타단의 각도는 항상 0°(360°)이다. And, in the reference line passing through the rotation axis AX, the other end, which is the opposite end of one end connected to the rotation axis AX, is 0° (360°). In addition, assuming that the reference line Ls is rotated by 360° around the rotation axis AX, it is set to 30°, 60°, 90°, 120°, 150°, 180° from 0° clockwise. . In addition, it is set to 210°, 240°, 270°, 300°, 360° (0°) from 180° in the clockwise direction. Accordingly, an angle of 360° is generated around the rotation axis AX. In this case, the angle of the other end of the reference line L s connecting the second camera 1122 and the rotation axis AX is always 0° (360°). That is, even when the camera rotates, the angle of the other end of the reference line L s connecting the second camera 1122 and the rotation axis AX is always 0° (360°).

또한, 회전축(AX)과 카메라의 폭 방향 중심을 지나도록 연장한 가상선을 축선이라고 할 때, 제2카메라(1122)의 제2축선(A2)이 기준선(Ls)이 된다. In addition, when an imaginary line extending through the rotation axis AX and the center of the camera in the width direction is referred to as an axis, the second axis A 2 of the second camera 1122 becomes the reference line L s .

이러한 경우, 제2카메라(1122)의 시야 즉, 제2시야(F2)는 그 폭 방향 중심(즉, 시야폭 중심)의 각도가 0°이다. 그리고, 제3, 제4, 제5, 제6, 제1카메라(1123, 1124, 1125, 1126, 1121)의 시야(제3, 제4, 제5, 제6, 제1시야(F3, F4, F5, F6, F1)는 그 시야폭 중심 위치 또는 축선(A3, A4, A5, A6, A1)이 60°씩 차이가 나게 그 각도가 증가되는 것으로 설명될 수 있다.In this case, the angle of the field of view of the second camera 1122, that is, the second field of view F2, in the width direction (ie, the center of the field of view) is 0°. And, the third, fourth, fifth, sixth, and first camera (1123, 1124, 1125, 1126, 1121) of the field of view (third, fourth, fifth, sixth, first field of view F3, F4) , F5, F6, F1) can be described as increasing the angle so that the central position or axis of the viewing width (A3, A4, A5, A6, A1) differs by 60°.

보다 구체적으로 설명하면, 제2카메라(1122)의 제2시야(F2)는 그 폭 방향 중심(이하, 시야폭 중심) 및 제2축선(A2)이 0°, 제3카메라(1123)의 제3시야(F3)는 그 시야폭 중심 및 제3축선(A3)이 60°, 제4카메라(1124)의 제4시야(F4)는 그 시야폭 중심 및 제4축선(A4)이 120°, 제5카메라(1125)의 제5시야(F5)는 그 시야폭 중심 및 제5축선(A5)이 180°, 제6카메라(1126)의 제6시야(F6)는 그 시야폭 중심 및 제6축선(A6)이 240°, 제1카메라(1121)의 제1시야(F1)는 그 시야폭 중심이 제1축선(A1)이 300°이다.More specifically, the second field of view F2 of the second camera 1122 has its width direction center (hereinafter, the center of the field of view) and the second axis A 2 of 0°, and of the third camera 1123 . The third field of view F3 has the center of the field of view width and the third axis A 3 of 60°, and the fourth field of view F4 of the fourth camera 1124 has the center of the field of view width and the fourth axis A 4 . 120°, the fifth field of view F5 of the fifth camera 1125 has the center of its field of view width and the fifth axis A 5 of 180°, and the sixth field of view F6 of the sixth camera 1126 has its field of view width The center and the sixth axis A 6 are 240°, and the first field of view F1 of the first camera 1121 has a center of the viewing width and the first axis A 1 is 300°.

도 5 (b)는 도 5 (a)의 제1 내지 제6카메라(1121 내지 1126) 각각의 제1 내지 제6시야(F1 내지 F6)에 의해 촬영된 제1 내지 제6영상(I1 내지 I6)을 펼쳐서 나타낸 것이다. 도 6은 도 5 (a)의 제1 내지 제6카메라(1121 내지 1126) 각각의 제1 내지 제6시야(F1 내지 F6)에 의해 촬영된 제1 내지 제6영상(I1 내지 I6)을 개별적으로 나열하여 나타낸 것이다.5 (b) is a view showing the first to sixth images I1 to I6 captured by the first to sixth fields of view F1 to F6 of the first to sixth cameras 1121 to 1126 of FIG. 5 (a), respectively. ) is shown expanded. FIG. 6 shows the first to sixth images I1 to I6 photographed by the first to sixth fields of view F1 to F6 of each of the first to sixth cameras 1121 to 1126 of FIG. are listed as shown.

여기서, 도 5 (b) 및 도 6의 (b) 각각의 제1 내지 제6영상(I1 내지 I6)은 제1 내지 제6카메라(1121 내지 1126) 각각으로부터 촬영된 영상을 화면에 전시한 영상화면을 의미할 수 있다.Here, each of the first to sixth images I1 to I6 of FIGS. 5 (b) and 6 (b) is an image in which images captured by each of the first to sixth cameras 1121 to 1126 are displayed on a screen. It can mean screen.

이와 같이, 본 발명의 실시예에 따른 감시장치는 도 5의 (b) 및 도 6과 같이 제1 내지 제6카메라(1121 내지 1126)에서 촬영된 제1 내지 제6영상(I1 내지 I6)이 0°에서 360° 각도로 나타낼 수 있다. 즉, 제1 내지 제6카메라(1121 내지 1126)에서 촬영된 제1 내지 제6영상을 전시한 제1 내지 제6영상화면(I1 내지 I6)에 대해 0°에서 360° 각도로 나타낼 수 있다.As described above, in the monitoring apparatus according to an embodiment of the present invention, the first to sixth images I1 to I6 captured by the first to sixth cameras 1121 to 1126 as shown in FIGS. 5 (b) and 6 are displayed. It can be expressed as an angle from 0° to 360°. That is, the first to sixth images captured by the first to sixth cameras 1121 to 1126 may be displayed at an angle of 0° to 360° with respect to the first to sixth image screens I1 to I6.

보다 구체적으로 설명하면, 제1 내지 제6영상화면(I1 내지 I6) 상에서의 폭 방향 중심을 축선이라 할 때(도 5의 (b), 도 6의 (b) 참조), 제1 내지 제6카메라(1121 내지 1126) 각각의 축선(A1 내지 A6)에 대한 각도를, 상기 제1 내지 제6영상화면(I1 내지 I6) 상에서의 폭 방향 중심을 축선에 부여한다.More specifically, when the center of the width direction on the first to sixth image screens I1 to I6 is an axis (refer to FIGS. 5 (b) and 6 (b)), the first to sixth An angle with respect to each of the axes A 1 to A 6 of the cameras 1121 to 1126 is given to the axis in the width direction on the first to sixth image screens I1 to I6 .

이하, 설명의 편의를 위하여, 제1 내지 제6영상화면(I1 내지 I6) 각각의 축선의 도면부호를 복수의 카메라 각각의 축선의 도면부호 A1 내지 A6와 동일하게 지칭하여 설명한다.Hereinafter, for convenience of description, the reference numerals of the respective axes of the first to sixth image screens I1 to I6 will be described with the same reference numerals A 1 to A 6 of the respective axes of the plurality of cameras.

제1 내지 제6영상화면(I1 내지 I6) 축선(A1 내지 A6)에 각도가 부여됨에 따라, 제1 내지 제6영상화면(I1 내지 I6)에 대해 0°에서 360° 각도로 나타낼 수 있다. 즉, 제1 내지 제6영상화면(I1 내지 I6) 각각의 축선(A1 내지 A6)의 각도가 결정되므로, 도 5의 (b) 및 도 6의 (b)와 같이 상기 축선(A1 내지 A6)을 기준으로 제1 내지 제6영상화면(I1 내지 I6) 전체에 대해 각도를 부여하여 나타낼 수 있다.As an angle is given to the first to sixth video screens (I1 to I6) axis lines (A 1 to A 6 ), it can be expressed at an angle of 0° to 360° with respect to the first to sixth video screens (I1 to I6). have. That is, since the angle of each of the axes A 1 to A 6 of the first to sixth image screens I1 to I6 is determined, as shown in FIGS. 5 (b) and 6 (b), the axis A 1 to A 6 ) can be represented by giving an angle to the entire first to sixth image screens I1 to I6 ).

따라서, 복수의 카메라(1121 내지 1126) 중 적어도 어느 하나의 영상에 표적이 표시되도록 탐지되면, 영상 내에서의 상기 표적의 위치를 알 수 있는데, 각도값으로 알 수 있다. 보다 구체적으로, 표적이 나타난 영상화면의 축선과 표적(M)이 위치된 각도 간의 차이(DA)로부터 상기 표적의 위치를 알 수 있다.Accordingly, when a target is detected to be displayed on at least one image among the plurality of cameras 1121 to 1126 , the position of the target in the image can be known, and it can be known as an angle value. More specifically, the position of the target may be known from the difference DA between the axis of the image screen on which the target is displayed and the angle at which the target M is located.

예컨대, 도 5의 (a)와 같이 제2카메라(1122)의 제2축선(0°)으로부터 -15°(345°)위치에 표적(M)이 위치되어 있는 경우, 도 5의 (b)와 같이 제2영상화면(I2)의 제2축선(A2)(0°)으로부터 -15°(345°)위치에 표적(M) 표시될 수 있다. 이러한 경우, 제2영상화면(I2) 상에서 표적(M)의 위치(P)는 제2축선(A2)으로부터 -15°떨어진 지점으로 검출될 수 있다.For example, when the target M is located at a position of -15° (345°) from the second axis (0°) of the second camera 1122 as shown in FIG. 5(a), FIG. 5(b) As shown, the target M may be displayed at a position of -15° (345°) from the second axis A2 (0°) of the second image screen I2. In this case, the position P of the target M on the second image screen I2 may be detected as a point -15° away from the second axis A 2 .

이러한 표적(M)의 위치(P)는 카메라의 회전 전 탐지된 표적과 카메라의 회전 후 탐지된 표적이 동일한 표적인지 여부를 판단하는데 사용된다.The position P of the target M is used to determine whether a target detected before camera rotation and a target detected after camera rotation are the same target.

도 7은 본 발명의 실시예에 따른 제1 내지 제6카메라 각각의 제1 내지 제6시야(F1 내지 F6)를 및 제1 내지 제6영상화면(I1 내지 I6)을 X-Y 좌표 평면 상에 나타낸 것을 예시하고 있는 도면이다.7 is a view showing the first to sixth fields of view (F1 to F6) and the first to sixth image screens (I1 to I6) of each of the first to sixth cameras on the XY coordinate plane according to an embodiment of the present invention; It is a drawing illustrating that.

상기에서는 복수의 카메라(1121 내지 1126)로부터 촬영된 영상화면 내 표적의 위치를 각도로 나타내는 방법에 대해 설명하였다. 하지만, 이에 한정되지 않고, 복수의 카메라(1121 내지 1126) 각각으로부터 획득되는 영상화면(I1 내지 I6)은 도 7과 같이 X-Y 좌표 평면 상에 나타낼 수 있도록 또는 표시될 수 있도록 마련된 영상일 수 있다.In the above, a method of indicating the position of the target in the image screen photographed from the plurality of cameras 1121 to 1126 as an angle has been described. However, the present invention is not limited thereto, and the image screens I1 to I6 obtained from each of the plurality of cameras 1121 to 1126 may be images provided to be displayed or displayed on the X-Y coordinate plane as shown in FIG. 7 .

이에, 복수의 카메라(1121 내지 1126) 중 적어도 어느 하나의 영상화면에 표적이 표시되도록 탐지되면, 영상화면 내에서의 상기 표적(M)의 위치를 알 수 있는데, 영상화면의 X-Y 좌표 상에서의 위치(P)를 알 수 있다. Accordingly, when the target is detected to be displayed on at least one of the plurality of cameras 1121 to 1126 on the image screen, the position of the target M in the image screen can be known, and the position on the XY coordinates of the image screen (P) can be found.

이때, 영상화면 상에 표적이 표시되는데 있어서, 축선을 중심으로 한 표적의 각도에 따라 X 축 방향의 위치가 다르게 표시된다. 그리고 Y 축 방향(높이방향)의 위치는 고정되게 표시된다. 이때, 각 영상화면의 축선으로부터의 이격방향 및 이격거리에 따라 표적의 위치 즉, X 축 방향 위치를 검출할 수 있다.At this time, when the target is displayed on the image screen, the position in the X-axis direction is displayed differently depending on the angle of the target with respect to the axis. And the position in the Y-axis direction (height direction) is displayed to be fixed. At this time, the position of the target, that is, the position in the X-axis direction, may be detected according to the separation direction and the separation distance from the axis of each image screen.

예컨대, 도 5의 (a)와 같이 제2카메라(1122)의 제2축선(0°)으로부터 -15°(345°) 위치에 표적(M)이 위치되어 있는 경우, 도 7의 (b)와 같이 제2영상화면(I2)의 중심이 되는 제2축선(A2)(0°)으로부터 좌측으로(X 축 방향) 소정 거리 이격된 위치에 표적(M)이 위치된다. 이때, 소정 거리는 제2축선(A2)과 표적(M) 간의 각도 차이가 증가할수록 증가한다. 이러한 경우, 표적(M)의 위치(P)는 제2축선(A2)으로부터 -15°각도 차이를 거리로 변환한 거리만큼 떨어진 지점으로 검출될 수 있다.For example, when the target M is located at a position of -15° (345°) from the second axis (0°) of the second camera 1122 as shown in FIG. 5(a), FIG. 7(b) As shown, the target M is positioned at a position spaced a predetermined distance from the second axis A2 (0°), which is the center of the second image screen I2, to the left (X-axis direction). At this time, the predetermined distance increases as the angle difference between the second axis A 2 and the target M increases. In this case, the position P of the target M may be detected as a point separated from the second axis A 2 by a distance obtained by converting a -15° angle difference into a distance.

상술한 도 5 내지 도 7과 같은 영상화면은, 각 카메라(1121 내지 1126) 자체에서 표시되거나, 별도로 표시부(1150)에서 표시될 수 있다.The image screens shown in FIGS. 5 to 7 described above may be displayed on the respective cameras 1121 to 1126 itself, or may be separately displayed on the display unit 1150 .

탐지부(1130)는 감시기(1100)가 감시지역 내에 위치하는 신호가 입력되면, 복수의 카메라를 동작시키는 수단일 수 있다. 또한, 탐지부(1130)는 복수의 카메라(1121 내지 1126)로부터 획득된 복수의 영상을 이용하여 표적을 탐지한다. 예컨대, 탐지부(1130)는 이전 시점에 촬영된 복수의 영상과 현 시점에 촬영된 복수의 영상을 비교하여 표적의 존재여부를 탐지할 수 있다. 탐지부(1130)에서 복수의 카메라(1121 내지 1126) 각각으로부터 촬영된 영상을 이용하여 표적의 존재 여부 및 표적의 개수를 탐지하는 방법은 상술한 예에 한정되지 않고, 다양한 방법의 적용이 가능하다.The detector 1130 may be a means for operating a plurality of cameras when a signal is input to the monitor 1100 located within the monitoring area. Also, the detector 1130 detects a target by using a plurality of images obtained from the plurality of cameras 1121 to 1126 . For example, the detector 1130 may detect the presence of a target by comparing a plurality of images captured at a previous time point with a plurality of images captured at a current time point. A method of detecting the presence of a target and the number of targets by using the images captured by each of the plurality of cameras 1121 to 1126 by the detector 1130 is not limited to the above-described example, and various methods may be applied. .

또한, 탐지부(1130)는 탐지된 표적의 종류를 식별할 수도 있다. 즉, 탐지부(1130)는 탐지된 표적이 어떤 종류인지, 예컨대 장갑차, 자주포, 전술차 등 중 어느 것인지 식별 또는 분류할 수 있다. 이는, 탐지부(1130)에 미리 저장되어 있는 표적에 대한 데이터와, 탐지된 표적에 대한 데이터 간을 비교하는 방법으로, 표적의 종류를 식별 또는 분류할 수 있다. 탐지부(1130)에 저장되는 표적에 대한 데이터란, 예컨대, 적(敵)의 장갑차, 자주포, 전술차 등의 형상, 크기 등과 같은 정보일 수 있다.Also, the detector 1130 may identify the type of the detected target. That is, the detection unit 1130 may identify or classify the type of the detected target, for example, an armored vehicle, a self-propelled artillery, a tactical vehicle, or the like. This is a method of comparing data on a target previously stored in the detection unit 1130 with data on a detected target, and the type of target may be identified or classified. The data on the target stored in the detector 1130 may be, for example, information such as the shape and size of an enemy's armored vehicle, self-propelled artillery, tactical vehicle, and the like.

그리고, 실시예에 따른 탐지부(1130)는, 카메라(1120)의 회전 전에 탐지된 표적과 회전 후에 탐지된 표적이 동일한 표적인지 여부를 판단할 수 있다. 즉, 복수의 카메라(1121 내지 1126) 중 적어도 어느 하나에서 촬영된 영상으로부터 표적이 탐지된 후에, 감시기(1100)가 이동하지 않은 상태에서 구동부(1180)를 동작시켜 카메라(1120)가 회전축을 중심으로 회전된 경우, 회전 전에 탐지된 표적과 회전 후에 탐지된 표적이 동일한 표적인지 여부를 판단한다.In addition, the detector 1130 according to an embodiment may determine whether a target detected before rotation of the camera 1120 and a target detected after rotation of the camera 1120 are the same target. That is, after a target is detected from an image captured by at least one of the plurality of cameras 1121 to 1126 , the driver 1180 is operated in a state in which the monitor 1100 does not move so that the camera 1120 rotates around the axis of rotation. When rotated to , it is determined whether the target detected before the rotation and the target detected after the rotation are the same target.

해당 기술분야에서는 카메라 회전 전 표적의 위치와 카메라 회전 후 표적의 위치가 동일한 경우, 회전 전 표적과 회전 후 표적이 동일한 표적인 것으로 판단하는 것을 통상 핸드오버라고 한다.In the related art, when the position of the target before camera rotation and the position of the target after camera rotation are the same, determining that the target before rotation and the target after rotation are the same is generally referred to as handover.

이하, 도 1 내지 도 6, 도 8 내지 도 10을 참조하여, 본 발명의 실시예에 따른 탐지부에서 카메라의 회전 전에 탐지된 표적과 카메라의 회전 후에 탐지된 표적이 동일 표적인지 판단하는 방법에 대해 설명한다.Hereinafter, with reference to FIGS. 1 to 6 and 8 to 10 , in the detection unit according to an embodiment of the present invention, a method for determining whether a target detected before camera rotation and a target detected after camera rotation is the same target explain about

이때, 감시기(1100)는 6 개의 카메라를 포함하는 것을 예를 들어 설명한다. 또한, 6 개의 카메라에 대해 제1 내지 제6카메라(1121 내지 1126)로 명명하고, 제1 내지 제6카메라(1121 내지 1126) 각각에서의 시야를 제1 내지 제6시야(F1 내지 F6)이라 명명한다. 또한, 제1 내지 제6카메라(1121 내지 1126) 각각에서 촬영 또는 획득되어 화면에 전시된 영상을 제1 내지 제6영상화면(I1 내지 I6)으로 명명한다.In this case, the monitor 1100 will be described as an example including six cameras. In addition, the six cameras are named first to sixth cameras 1121 to 1126 , and the fields of view from each of the first to sixth cameras 1121 to 1126 are called first to sixth fields of view F1 to F6 . name In addition, images captured or acquired by each of the first to sixth cameras 1121 to 1126 and displayed on the screen are called first to sixth image screens I1 to I6 .

도 8 내지 도 10은 카메라의 회전 전에 탐지된 표적과 카메라의 회전 후에 탐지된 표적이 동일 표적인지 판단하는 방법에 대한 설명을 위해 도시된 도면이다.8 to 10 are diagrams for explaining a method of determining whether a target detected before camera rotation and a target detected after camera rotation are the same target.

여기서, 도 8은 회전 전에 제2카메라(1122)로부터 획득된 제2영상화면(I2)으로부터 표적(M)이 탐지된 경우를 나타낸 도면이다. 그리고, 도 9 및 도 10은 회전 후에 제3카메라(1123)로부터 획득된 제3영상화면(I3)으로부터 표적(M)이 탐지된 경우를 나타낸 도면이다.Here, FIG. 8 is a diagram illustrating a case in which the target M is detected from the second image screen I2 obtained from the second camera 1122 before rotation. 9 and 10 are diagrams illustrating a case in which the target M is detected from the third image screen I3 obtained from the third camera 1123 after rotation.

이때, 도 8(a), 도 9(a), 도 10(a)는 제1 내지 제6카메라(1121 내지 1126) 각각에 대한 제1 내지 제6시야(F1 내지 F6)를 도 5의 (a)에서 설명한 바와 같이, 나열하여 개념적으로 도시한 것이다. 그리고, 도 8(b), 도 9(b), 도 10(b)는 도 8(a), 도 9(a), 도 10(a) 각각의 제1 내지 제6카메라(1121 내지 1126) 각각의 제1 내지 제6시야(F1 내지 F6)에 의해 촬영된 제1 내지 제6영상화면(I1 내지 I6)을 펼쳐서 나타낸 것이다.At this time, FIGS. 8(a), 9(a), and 10(a) show the first to sixth fields of view F1 to F6 for each of the first to sixth cameras 1121 to 1126 in FIG. 5( As described in a), it is conceptually illustrated in a row. And, FIGS. 8(b), 9(b), and 10(b) are the first to sixth cameras 1121 to 1126 of FIGS. 8(a), 9(a), and 10(a), respectively. The first to sixth image screens I1 to I6 photographed by each of the first to sixth fields of view F1 to F6 are unfolded.

예를 들어, 복수의 카메라(1121 내지 1126) 중 예컨대, 도 8의 (a)와 같이 제2카메라(1122)의 제2시야(F2)에 표적(M)이 있는 경우, 도 8의 (b)와 같이 제2카메라(1122)로부터 촬영된 제2영상화면(I2)에 표적(M)이 표시된다. 이에 탐지부(1130)는 제2영상화면(I2)으로부터 감시지역에 표적(M)이 존재하는 것으로 인지 또는 탐지한다. 그리고 탐지부(1130)는, 제2영상화면(I2) 상에서 표적(M)의 위치를 검출한다.For example, among the plurality of cameras 1121 to 1126 , for example, when there is a target M in the second field of view F2 of the second camera 1122 as shown in FIG. ), the target M is displayed on the second image screen I2 photographed from the second camera 1122 . Accordingly, the detection unit 1130 recognizes or detects that the target M is present in the monitoring area from the second image screen I2 . And the detector 1130 detects the position of the target M on the second image screen I2.

이를 위해, 탐지부(1130)는 표적(M)이 표시된 영상화면의 축선과 상기 표적 간의 각도 차이를 산출한다. 예컨대, 도 8의 (b)의 제2영상화면(I2)을 보면, 제2축선(A2) 0°(360°)를 기준으로, 표적(M)이 345°각도에 위치된다. 즉, 제2축선(A2)(0°)과 표적(345°)의 각도 차이(제1 각도 차이)는 -15°이다. 다른 말로 설명하면, 제2축선(A2)(0°)으로부터 -15°위치에 표적이 있으며, 이것이 표적의 위치(P1)이다. To this end, the detector 1130 calculates an angle difference between the axis of the image screen on which the target M is displayed and the target. For example, looking at the second image screen I2 of FIG. 8B , the target M is positioned at an angle of 345° with respect to the second axis A 2 0° (360°). That is, the angular difference (the first angular difference) between the second axis A 2 (0°) and the target 345° is -15°. In other words, there is a target at a position of -15° from the second axis A 2 (0°), which is the position of the target P 1 .

한편, 이렇게 복수의 카메라(1121 내지 1126)로부터 영상이 촬영되고, 획득된 영상으로부터 표적(M)이 탐지된 상태에서, 이를 합성부(1140)로 송신하기 전에 카메라가 회전되는 경우가 있다.On the other hand, in a state in which images are taken from the plurality of cameras 1121 to 1126 and the target M is detected from the acquired images, the cameras are rotated before transmitting them to the synthesizing unit 1140 .

예를 들어, 그 이전에 탐지된 표적이 적(敵)의 전차, 장갑차, 자주포 등과 같은 표적으로 식별되어, 긴급하게 상기 표적을 공격해야 하는 경우, 공격하고자 하는 표적을 향하도록 하기 위해 포를 회전시켜야 한다. 이를 위해, 구동부(1180)를 동작시키면, 제2지지부(1190a) 및 이에 지지된 포(1190)가 회전한다. 이렇게, 구동부(1180)가 동작되어 포(1190)가 회전될 때, 상기 구동부(1180)에 함께 연결되어 있는 제2지지부(1190a) 및 이에 지지된 복수의 카메라(1121 내지 1126)가 함께 회전한다. 즉, 복수의 카메라(1121 내지 1126)가 회전축(AX)을 중심으로 회전한다.For example, if a previously detected target is identified as a target such as an enemy tank, armored vehicle, self-propelled gun, etc., and it is urgent to attack the target, the gun is rotated to point it at the target to be attacked. have to do To this end, when the driving unit 1180 is operated, the second support unit 1190a and the fabric 1190 supported thereon rotate. In this way, when the driving unit 1180 is operated and the cloth 1190 is rotated, the second support unit 1190a connected together to the driving unit 1180 and the plurality of cameras 1121 to 1126 supported thereon rotate together. . That is, the plurality of cameras 1121 to 1126 rotates about the rotation axis AX.

도 8의 (a)의 상태에서 구동부(1180)의 동작에 의해 포(1190)가 예컨대 반시계 방향으로 60°회전되며, 이는 예컨대 도 9의 (a)과 같을 수 있다.In the state of (a) of FIG. 8 , the fabric 1190 is rotated counterclockwise by, for example, 60° by the operation of the driving unit 1180, which may be the same as, for example, (a) of FIG. 9 .

이와 같이 카메라가 회전하더라도, 기준선(Ls)은 제2카메라(1122)를 기준으로 설정되었기 때문에, 각 카메라의 축선의 각도는 회전 전과 동일하다. 즉, 카메라의 회전 전 및 회전 후 각각에서 제1축선(A1)의 각도는 300°, 제2축선(A2)의 각도는 0°(360°), 제3축선(A3)의 각도는 60°, 제4축선(A4)의 각도는 120°, 제5축선(A5)의 각도는 180°, 제6축선(A6)의 각도는 240°이다(도 8 내지 도 10 참조).Even when the camera is rotated as described above, since the reference line L s is set with respect to the second camera 1122, the angle of the axis of each camera is the same as before the rotation. That is, before and after rotation of the camera , the angle of the first axis (A 1 ) is 300°, the angle of the second axis (A 2 ) is 0° (360°), and the angle of the third axis (A 3 ) is respectively before and after the rotation of the camera. is 60 °, the angle of the fourth axis (A 4 ) is 120 °, the angle of the fifth axis (A 5 ) is 180 °, the angle of the sixth axis (A 6 ) is 240 ° (see FIGS. 8 to 10 ) ).

그러나, 이렇게 카메라가 회전하면 각 카메라가 보는 방향 즉, 시야가 바뀐다. 이에, 도 9의 (a)와 같이 제2카메라(1122)의 제2시야(F2)에는 표적(M)이 보이지 않고, 다른 카메라 예컨대 제3카메라(1123)의 제3시야(F3)에 표적(M)이 보일 수 있다. 따라서, 도 9의 (b)와 같이 제3카메라(1123)로부터 촬영된 제3영상화면(I3) 상에 표적(M)이 표시될 수 있다.However, when the cameras are rotated in this way, the direction each camera sees, that is, the field of view changes. Accordingly, the target M is not visible in the second field of view F2 of the second camera 1122 as shown in FIG. (M) can be seen. Accordingly, the target M may be displayed on the third image screen I3 photographed by the third camera 1123 as shown in FIG. 9B .

이렇게 카메라가 회전된 후에 표적이 탐지되었을 때, 탐지부(1130)는 회전 후에 탐지된 표적(M)의 위치를 검출한다. 즉, 표적(M)이 탐지된 영상화면 상에서의 상기 표적의 위치를 검출한다. When the target is detected after the camera is rotated, the detection unit 1130 detects the position of the detected target M after the rotation. That is, the position of the target on the image screen in which the target M is detected is detected.

이를 위해, 탐지부(1130)는 표적(M)이 표시된 영상화면의 축선과 상기 표적 간의 각도 차이(제2각도 차이)를 산출한다. 예컨대, 도 9의 (b)의 제2영상화면(I2)을 보면, 제3축선(A3) 60°를 기준으로, 표적(M)이 45°각도에 위치된다. 즉, 제3축선(A3)(60°)과 표적(45°)의 각도 차이(제2각도 차이)는 -15°이다. 다른 말로 설명하면, 제3축선(A2)(60°)으로부터 -15°위치에 표적이 있으며, 이것이 표적의 위치(P2)이다. To this end, the detector 1130 calculates an angle difference (second angle difference) between the axis of the image screen on which the target M is displayed and the target. For example, looking at the second image screen I2 of FIG. 9B , the target M is positioned at an angle of 45° with respect to the third axis A 3 60°. That is, the angle difference (second angle difference) between the third axis A 3 (60°) and the target 45° is -15°. In other words, there is a target at a position of -15° from the third axis A 2 (60°), which is the position of the target P 2 .

이후, 탐지부(1130)는 회전 전에 검출된 표적(M)의 위치인 제1위치(P1)와 회전 후에 검출된 표적(M)의 위치인 제2위치(P)를 비교한다. 그리고, 제1위치(P1)와 제2위치(P2)가 동일한 경우, 탐지부(1130)는 회전 전에 제2카메라(1122)의 제2영상(I2)에 의해 탐지된 표적(M)과, 회전 후에 제3카메라(1123)의 제3영상(I3)에 의해 탐지된 표적(M)이 동일한 표적인 것으로 판단한다.Thereafter, the detection unit 1130 compares the first position P 1 , which is the position of the target M detected before the rotation, with the second position P, which is the position of the target M detected after the rotation. And, when the first position (P 1 ) and the second position (P 2 ) are the same, the detection unit 1130 detects the target M detected by the second image I2 of the second camera 1122 before rotation. And, it is determined that the target M detected by the third image I3 of the third camera 1123 after rotation is the same target.

도 8과 도 9를 비교하여 설명하면, 회전 전 상태인 도 8의 (b)에서 표적(M)은 제2영상(I2)의 제2축선(A2)으로부터 -15°위치(P1)에 있고, 회전 후 상태인 도 9의 (b)에서 표적(M)은 제3영상(I3)의 제3축선(A3)으로부터 -15°위치(P2)에 있다. 이에, 탐지부(1130)는 제1위치(P1)과 제2위치(P2)가 동일한 것으로 판단하고, 이에 탐지부(1130)는 회전 전 표적과 회전 후 표적이 동일한 표적인 것으로 판단한다.8 and 9, the target (M) in FIG. 8 (b) before the rotation is a -15° position (P 1 ) from the second axis (A 2 ) of the second image (I2). In (b) of FIG. 9 (b), which is in a state after rotation, the target M is at a -15° position (P 2 ) from the third axis A 3 of the third image I3. Accordingly, the detection unit 1130 determines that the first position P 1 and the second position P 2 are the same, and the detection unit 1130 determines that the target before rotation and the target after rotation are the same target. .

이렇게 동일한 표적인 것으로 판단되고 나면, 이 판단 신호는 감시 통신부(1160)를 통해 통제기(1200)로 전달될 수 있다. 그리고, 통제기(1200)는 회전 전에 탐지된 표적과 회전 후에 탐지된 표적이 동일한 표적임을 인지하고, 별도의 추가 조치를 위한 명령을 생성하지 않을 수 있다.After it is determined to be the same target, this determination signal may be transmitted to the controller 1200 through the monitoring communication unit 1160 . And, the controller 1200 may recognize that the target detected before the rotation and the target detected after the rotation are the same target, and may not generate a command for a separate additional action.

그리고, 회전 후에 제1 내지 제6카메라(1121 내지 1126) 각각으로부터 2차 촬영된 2차 영상들을 합성하여 합성부(1140)로 전달한다. 그리고, 합성부(1140)는 제1 내지 제6카메라(1121 내지 1126)로부터로부터 전달된 2차 영상들을 합성하여 합성영상을 생성한다.Then, after rotation, the secondary images photographed secondarily from each of the first to sixth cameras 1121 to 1126 are synthesized and transmitted to the synthesizing unit 1140 . In addition, the synthesizing unit 1140 generates a synthesized image by synthesizing the secondary images transmitted from the first to sixth cameras 1121 to 1126 .

하지만, 제1위치(P1)와 제2위치(P2)가 다른 경우, 탐지부(1130)는 회전 전에 제2카메라(1122)의 제2영상(I2)에 의해 탐지된 표적(M)과, 회전 후에 제3카메라(1123)의 제3영상(I3)에 의해 탐지된 표적(M)이 다른 표적인 것으로 판단한다. However, when the first position (P 1 ) and the second position (P 2 ) are different, the detection unit 1130 detects the target M detected by the second image I2 of the second camera 1122 before rotation. And, it is determined that the target M detected by the third image I3 of the third camera 1123 after rotation is another target.

도 8과 도 10을 비교하여 설명하면, 회전 전 상태인 도 8의 (b)에서 표적(M)은 제2영상화면(I2)의 제2축선(A2)으로부터 -15°위치(P1)에 있고, 회전 후 상태인 도 10의 (b)에서 표적(M)은 제3영상화면(I3)의 제3축선(A3)의 위치(60°)(P2)에 있다. 이에, 제3영상화면(I3) 상에서 표적은 제3축선(A3)과의 각도 차이(DA)(제2각도 차이)가 0°이다. 이는 표적(M)이 제3영상화면(I3) 상에서 제3축선(A3)으로부터 0°이격된 지점에 위치하고 있는 것으로 설명될 수 있고, 이는 즉, 제3축선(A3) 상에 위치된 것으로 설명될 수 있다. 이에, 탐지부(1130)는 제1위치(P1)과 제2위치(P2)가 다른 것으로 판단하고, 이에 탐지부(1130)는 회전 전 표적과 회전 후 표적이 다른 표적인 것으로 판단한다.Comparing FIGS. 8 and 10, in FIG. 8 (b) before the rotation, the target M is at a -15° position (P 1 ) from the second axis A 2 of the second image screen I2. ), and in FIG. 10 (b) after rotation, the target M is at the position (60°) (P 2 ) of the third axis A 3 of the third image screen I3. Accordingly, on the third image screen I3 , the angle difference DA (second angle difference) of the target from the third axis line A3 is 0°. This can be described as that the target M is located at a point 0° apart from the third axis A 3 on the third image screen I3, that is, located on the third axis A 3 . can be described as Accordingly, the detection unit 1130 determines that the first position P 1 and the second position P 2 are different, and the detection unit 1130 determines that the target before rotation and the target after rotation are different targets. .

이후, 회전 후에 제1 내지 제6카메라(1121 내지 1126)로부터 각각으로부터 2차 촬영된 2차 영상들을 합성부(1140)로 전달한다. 그리고, 합성부(1140)는 제1 내지 제6카메라(1121 내지 1126)로부터로부터 전달된 2차 영상들을 합성하여 합성영상을 생성한다.Thereafter, after rotation, the secondary images photographed secondarily from the first to sixth cameras 1121 to 1126 are transmitted to the synthesizing unit 1140 . In addition, the synthesizing unit 1140 generates a synthesized image by synthesizing the secondary images transmitted from the first to sixth cameras 1121 to 1126 .

또한, 이렇게 회전 전에 탐지된 표적과 회전 후에 탐지된 표적이 서로 다른 표적인 것으로 판단되고 나면, 탐지부(1130)는 회전 후 탐지된 표적 외에 회전 전에 탐지되었던 표적이 있는 것으로 인지, 판단한다. 그리고 이 판단 신호는 통제기로 전달될 수 있고, 통제기(1200)는 그 후속 조치 명령을 취할 수 있다. 예컨대, 회전 전에 탐지되었던 표적을 수색하는 작업을 실시할 수 있다.In addition, when it is determined that the target detected before rotation and the target detected after rotation are different targets, the detection unit 1130 recognizes and determines whether there is a target detected before rotation in addition to the target detected after rotation. And this determination signal may be transmitted to the controller, and the controller 1200 may take a follow-up action command. For example, a search for a target that was detected prior to rotation may be performed.

상기에서는 영상 상의 표적의 위치를 각도값을 검출하여 회전 전에 탐지된 표적과 회전 후에 탐지된 표적이 동일한 표적인지 여부를 판단하는 것을 설명하였다. 하지만, 이에 한정되지 않고, 도 7에서 설명한 바와 같이, 복수의 카메라(1121 내지 1126) 각각으로부터 획득되는 영상(I1 내지 I6)을 X-Y 좌표 평면 상에 나타내고, 영상 상에서의 표적의 위치를 X-Y 좌표 위치로 검출할 수 있다.In the above, it has been described whether the target detected before the rotation and the target detected after the rotation are the same target by detecting the angle value of the position of the target on the image. However, the present invention is not limited thereto, and as described with reference to FIG. 7 , the images I1 to I6 obtained from each of the plurality of cameras 1121 to 1126 are displayed on the XY coordinate plane, and the position of the target on the image is the XY coordinate position. can be detected with

도 8과 도 9를 비교하여 설명하면, 회전 전 상태인 도 8의 (a)에서 표적(M)은 제2카메라(1122)의 제2축선(A2)으로부터 -15°위치(P1)에 있고, 회전 후 상태인 도 9의 (a)에서 표적(M)은 제3카메라(1123)의 제3축선(A3)으로부터 -15°위치(P2)에 있다. 8 and 9, the target M in the state before rotation of FIG. 8 (a) is -15° from the second axis A 2 of the second camera 1122 (P 1 ) In (a) of FIG. 9 (a) which is in a state after rotation, the target M is at a -15° position (P 2 ) from the third axis A 3 of the third camera 1123 .

이러한 축선으로부터 표적의 각도 차이를 위치값으로 변환하여 영상화면의 X-Y 좌표 상에 표시된다. 보다 구체적으로 축선으로부터 표적의 각도 차이는 영상화면의 X 좌표 상의 위치에 반영되고, Y 좌표의 위치는 고정되어 있다. 이에, 회전 전 제2영상화면(I2) 상에서의 표적(M)의 위치(P1)인 X1, Y1와, 회전 후 제3영상화면(I3) 상에서의 표적(M)의 위치(P2)인 X2, Y2가 동일하다. 따라서, 탐지부(1130)는 제1위치(P1)과 제2위치(P2)가 동일한 것으로 판단하고, 이에 탐지부(1130)는 회전 전 표적과 회전 후 표적이 동일한 표적인 것으로 판단한다.The angular difference of the target from this axis is converted into a position value and displayed on the XY coordinates of the video screen. More specifically, the angle difference of the target from the axis is reflected in the position on the X coordinate of the image screen, and the position of the Y coordinate is fixed. Accordingly, the position (P 1 ) of the target (M) on the second image screen (I2) before rotation X 1 , Y 1 , and the position (P) of the target (M) on the third image screen (I3) after rotation 2 ), which is X 2 , Y 2 is the same. Accordingly, the detection unit 1130 determines that the first position P 1 and the second position P 2 are the same, and the detection unit 1130 determines that the target before rotation and the target after rotation are the same target. .

하지만, 도 8과 도 10을 비교하여 설명하면, 회전 전 상태인 도 8의 (a)에서 표적(M)은 제2카메라(1122)의 제2축선(A2)으로부터 -15°위치(P1)에 있고, 회전 후 상태인 도 10의 (a)에서 표적(M)은 제3카메라(1123)의 제3축선(A3)의 위치(60°)(P2)에 있다. However, comparing FIGS. 8 and 10, the target M in the state before rotation of FIG. 8 (a) is -15° from the second axis A 2 of the second camera 1122 (P) 1 ), and in FIG. 10 ( a ) after rotation, the target M is at a position ( 60° ) ( P 2 ) of the third axis A 3 of the third camera 1123 .

이러한 축선으로부터 표적의 각도 차이가 반영되도록 영상화면의 X-Y 좌표 상에 표시된다. 이에, 회전 전 제2영상화면(I2) 상에서의 표적(M)의 위치(P1)인 X1, Y1와, 회전 후 제3영상화면(I3) 상에서의 표적(M)의 위치(P2)인 X2, Y2가 다르다. 보다 구체적으로는 X 축 방향의 위치(X1, X2)가 다르다. 따라서, 탐지부(1130)는 제1위치(P1)과 제2위치(P2)가 다른 것으로 판단하고, 이에 탐지부(1130)는 회전 전 표적과 회전 후 표적이 다른 것으로 판단한다.It is displayed on the XY coordinates of the video screen so that the angle difference of the target from this axis is reflected. Accordingly, the position (P 1 ) of the target (M) on the second image screen (I2) before rotation X 1 , Y 1 , and the position (P) of the target (M) on the third image screen (I3) after rotation 2 ), X 2 , Y 2 is different. More specifically, the positions (X 1 , X 2 ) in the X-axis direction are different. Accordingly, the detection unit 1130 determines that the first position P 1 and the second position P 2 are different, and accordingly, the detection unit 1130 determines that the target before rotation and the target after rotation are different.

도 11은 본 발명의 실시예에 따른 방법으로 감시지역을 설정하고, 종심지역을 이용하여 감시지역을 중심지역 및 원거리 지역으로 분할하는 방법을 설명하기 위한 개념도이다.11 is a conceptual diagram for explaining a method of setting a monitoring area by a method according to an embodiment of the present invention, and dividing the monitoring area into a central area and a remote area using the deep area.

감시기(1100)는 종심지역을 이용하여 설정된 감시지역에서 본 발명의 실시예에 따른 방법으로 상기 감시지역을 감시한다.The monitor 1100 monitors the monitoring area by the method according to the embodiment of the present invention in the monitoring area set using the depth area.

이하, 도 11을 참조하여, 감시지역(MA) 및 감시지역(MA)을 복수의 지역으로 분할하는 방법에 대해 설명한다.Hereinafter, the monitoring area MA and a method of dividing the monitoring area MA into a plurality of areas will be described with reference to FIG. 11 .

먼저, 적의 종심(縱深)지역(DA)을 파악한다. 이때, 위성 또는 항공기를 통해 적의 종심지역(DA)을 파악할 수 있다. 파악된 적의 종심지역(DA)은 통제기(1200)의 통제 제어 처리부(1220)로 전달된다.First, figure out the enemy's depth area (DA). At this time, it is possible to determine the enemy's depth area (DA) through a satellite or an aircraft. The identified enemy depth area DA is transmitted to the control control processing unit 1220 of the controller 1200 .

운용자 또는 통제 제어 처리부(1220)는 전달된 종심지역(DA)을 이용하여 현 상황을 인지 또는 파악하기 위한 감시지역(MA)을 설정한다. 감시지역(MA)은 도 11에 도시된 바와 같이 중심지역(CA) 및 원거리 지역(LA)으로 분할된다. 다른 말로 설명하면, 감시지역(MA)은 중심지역(CA), 원거리 지역(LA)을 포함한다. 이때, 중심지역(CA)은 종심지역(DA)과 원거리 지역(LA) 사이에 있는 지역으로 설명될 수 있다.The operator or control control processing unit 1220 sets the monitoring area MA for recognizing or understanding the current situation using the delivered deep area DA. The monitoring area MA is divided into a central area CA and a remote area LA as shown in FIG. 11 . In other words, the monitoring area MA includes a central area CA and a remote area LA. In this case, the central area CA may be described as an area between the deep area DA and the remote area LA.

이하에서는 감시지역(MA)을 설정하고, 감시지역(MA)을 중심지역(CA) 및 원거리 지역(LA)으로 분할하는 방법에 대해 보다 구체적으로 설명한다.Hereinafter, a method of setting the monitoring area MA and dividing the monitoring area MA into a central area CA and a remote area LA will be described in more detail.

도 11에 도시된 바와 같이, 설정된 종심지역(DA) 중 통제기(1200)와 가장 멀리 떨어진 지점을 제1지점(P1), 설정된 종심지역(DA) 중 통제기(1200)와 가장 인접한 지점을 제2지점(P2)이라고 하고, 제2지점(P1)으로부터 통제기(1200)쪽으로 제1거리(L1) 만큼 떨어진 지점을 제3지점(P3)라고 할 때, 제2지점(P2)과 제3지점(P3) 사이의 지역을 감시지역(MA)으로 설정한다. 이때, 제1거리(L1)는 운용자가 제2지점(P1)의 위치, 종심지역(DA)의 면적 등에 따라 조절하여 설정할 수 있다.As shown in FIG. 11 , a first point P1 is a point farthest from the controller 1200 among the set deep areas DA, and a point closest to the controller 1200 among the set deep areas DA is a second point. When the point P2 is referred to as the third point P3 and the point separated by the first distance L 1 toward the controller 1200 from the second point P1 is referred to as the third point P3, the second point P2 and the third point Set the area between (P3) as the monitoring area (MA). In this case, the first distance L1 can be set by the operator by adjusting the position of the second point P1, the area of the deep area DA, and the like.

그리고, 제2지점(P2)으로부터 통제기(1200)쪽으로 제2거리(L2)만큼 떨어진 지점을 제4지점(P4)이라고 할 때, 제2지점(P2)과 제4지점(P4) 사이 지역을 중심지역(CA), 제4지점(P4)과 제3지점(P3) 사이 지역을 원거리 지역(LA)으로 설정한다. 이때, 제4지점(P4)과 제3지점(P3)은 제3거리(L3) 만큼 이격된 것으로 설명될 수 있다. 그리고, 제2거리(L2)는 제1지점(L1) 및 제2지점(L2)의 위치, 종심지역(DA)의 면적 등에 따라 조절하여 설정할 수 있다.And, when a point separated by a second distance L2 from the second point P2 toward the controller 1200 is referred to as a fourth point P4, the area between the second point P2 and the fourth point P4 is The central area (CA), the area between the fourth point (P4) and the third point (P3) is set as the remote area (LA). In this case, the fourth point P4 and the third point P3 may be described as being spaced apart by the third distance L3. In addition, the second distance L2 may be adjusted and set according to the positions of the first and second points L1 and L2, the area of the deep area DA, and the like.

이와 같은 방법으로 도 11에 도시된 바와 같이 감시지역(MA)이 설정되고, 감시지역(MA)이 중심지역(CA) 및 원거리 지역(LA)으로 분할 또는 구분된다.In this way, as shown in FIG. 11, the monitoring area MA is set, and the monitoring area MA is divided or divided into a central area CA and a remote area LA.

원거리 지역(LA)은 적의 작전지역으로 파악된 종심지역(DA)과 멀리 떨어진 지역을 의미하는 것으로서, 현재까지 적의 작전수행이 이루어지지 않은 것으로 파악되거나, 이루어질 가능성이 낮은 지역일 수 있다. 다른 말로 설명하면, 원거리 지역(LA)은 중심지역(CA) 및 종심지역(DA)에 비해 위험도가 상대적으로 낮은 지역일 수 있다. 그리고, 종심지역(DA)과 원거리 지역(LA) 사이에 위치된 중심지역(CA)은, 원거리 지역(LA)에 비해 종심지역(DA)과 상대적으로 인접한 지역으로서, 원거리 지역(LA)에 비해서는 상대적으로 위험도가 높고, 종심지역(DA)에 비해서는 상대적으로 위험도가 낮은 지역일 수 있다.The remote area (LA) refers to an area far from the depth area (DA) identified as the enemy's operational area, and may be an area where the enemy's operation has not been performed or is unlikely to be performed. In other words, the remote area LA may be an area having a relatively low risk compared to the central area CA and the deep area DA. And, the central area CA located between the deep area DA and the remote area LA is a region relatively adjacent to the deep area DA compared to the distant area LA, and compared to the remote area LA. may be a relatively high-risk area, and a relatively low-risk area compared to the depth area (DA).

도 12는 본 발명의 실시예에 따른 상황 감시방법을 나타낸 순서도이다.12 is a flowchart illustrating a situation monitoring method according to an embodiment of the present invention.

이하, 도 1 내지 도 6, 도 8 내지 도 12를 참조하여, 본 발명의 실시예에 따른 상황 감시방법에 대해 설명한다. 이때, 앞에서 설명한 내용과 중복되는 내용은 생략하거나 간략히 설명한다.Hereinafter, a situation monitoring method according to an embodiment of the present invention will be described with reference to FIGS. 1 to 6 and FIGS. 8 to 12 . In this case, the content overlapping with the previously described content will be omitted or briefly described.

이때, 감시기(1100)가 6 개의 카메라(1121 내지 1126)를 포함하는 것으로 설명한다.In this case, the monitor 1100 will be described as including six cameras 1121 to 1126 .

종심지역(DA)이 결정 또는 설정되면, 통제기(1200)는 상기 종심지역(DA)을 이용하여 감시지역(MA)을 설정한다(S110). 그리고, 감시지역(MA)을 중심지역(CA) 및 원거리 지역(LA)으로 분할한다(S120). 다음으로, 감시기(1100)를 이동시킨다(S130). 감시기(1100)는 통제기(1200)의 조종부(1210)로부터 전달된 주행경로에 따라 자율주행될 수 있다. 물론, 감시기(1100)의 차량에 운용자가 직접 탑승하고, 운용자가 직접 차량을 직접 주행시킬 수도 있다.When the depth area (DA) is determined or set, the controller 1200 sets the monitoring area (MA) using the depth area (DA) (S110). Then, the monitoring area MA is divided into a central area CA and a remote area LA (S120). Next, the monitor 1100 is moved (S130). The monitor 1100 may autonomously drive according to the driving path transmitted from the control unit 1210 of the controller 1200 . Of course, the operator may directly board the vehicle of the monitor 1100, and the operator may directly drive the vehicle.

감시기(1100)의 이동이 시작되면, 감시기(1100)의 위치를 추적하여 상기 감시기(1100)가 감시지역(MA) 내에 있는지를 판단한다(S140). 즉, 감시기(1100)의 이동이 시작된 후부터, 감시기(1100)가 현재 감시지역(MA) 내에 있는지 여부를 실시간으로 파악한다. 이때, 감시기(1100)의 위치는 통제기(1200)의 조종부(1210)를 통해 추적하거나, 감시기(1100) 자체에서 추적될 수 있다.When the movement of the monitor 1100 is started, it is determined whether the monitor 1100 is within the monitoring area MA by tracking the position of the monitor 1100 (S140). That is, after the movement of the monitor 1100 starts, it is determined in real time whether the monitor 1100 is within the current monitoring area MA. In this case, the position of the monitor 1100 may be tracked through the control unit 1210 of the controller 1200 or tracked by the monitor 1100 itself.

이때, 감시기(1100)가 감시지역(MA) 내에 있지 않은 것으로 감지 또는 판단되면(아니오), 탐지부(1130)는 제1 내지 제6카메라(1121 내지 1126)로 동작 신호를 보내지 않을 수 있다. 그리고 감시기(1100)는 계속 이동한다(S130).At this time, if it is detected or determined that the monitor 1100 is not within the monitoring area MA (No), the detection unit 1130 may not send an operation signal to the first to sixth cameras 1121 to 1126 . And the monitor 1100 continues to move (S130).

그러나, 감시기(1100)가 감시지역(MA) 내에 있는 것으로 감지 또는 판단되면(예), 탐지부(1130)는 제1 내지 제6카메라(1121 내지 1126) 각각으로 동작 신호를 송신한다. 이에 제1 내지 제6카메라(1121 내지 1126) 각각이 동작되어, 각 카메라(1121 내지 1126)로부터 영상이 촬영된다(S210)(1차 촬영). 이에, 복수의 카메라 각각으로부터 1차 영상인 제1 내지 제6영상이 획득된다.However, when it is detected or determined that the monitor 1100 is within the monitoring area MA (Yes), the detection unit 1130 transmits an operation signal to each of the first to sixth cameras 1121 to 1126 . Accordingly, each of the first to sixth cameras 1121 to 1126 is operated, and images are captured from the respective cameras 1121 to 1126 (S210) (primary photographing). Accordingly, first to sixth images, which are primary images, are obtained from each of the plurality of cameras.

그리고 제1 내지 제6카메라(1121 내지 1126) 각각으로부터 촬영된 제1 내지 제6영상은 탐지부(1130)로 전달되며, 탐지부(1130)는 전달된 영상을 이용 또는 분석하여 표적의 존재 여부를 판단 또는 탐지한다(S220).In addition, the first to sixth images photographed from each of the first to sixth cameras 1121 to 1126 are transmitted to the detector 1130 , and the detector 1130 uses or analyzes the transmitted images to determine whether a target is present. to determine or detect (S220).

제1 내지 제6카메라(1121 내지 1126)로부터 촬영된 제1 내지 제6영상들 중 적어도 하나의 영상에서 표적 있는 건으로 감지 또는 판단된 경우(예), 탐지부(1130)는 영상화면 상에서의 표적의 위치(P1)를 검출한다(230). 예컨대, 제1 내지 제6카메라(1121 내지 1126) 중 제2카메라(1122)로부터 획득된 1차 영상인 제2영상화면(I2)으로부터 표적이 탐지된 경우, 제2영상화면(I2) 상에서의 표적(M)의 위치를 검출한다.When it is detected or determined as a gun with a target in at least one of the first to sixth images captured by the first to sixth cameras 1121 to 1126 (eg), the detection unit 1130 is a target on the image screen. A position (P 1 ) of is detected ( 230 ). For example, when a target is detected from the second image screen I2 that is the primary image obtained from the second camera 1122 among the first to sixth cameras 1121 to 1126 , the target is detected on the second image screen I2 . The position of the target M is detected.

예컨대, 도 8의 (b)와 같이 제2영상화면(I2) 상에서 표적이 제2축선(A2)으로부터 -15°위치(P1)에 있을 수 있다. 다른 말로 설명하면, 제2축선(A2)과 표적 간의 각도 차이(제1각도 차이)가 -15°이다. 이러한 경우, 탐지부(1130)는 표적(M)의 위치(P1)는 제2축선(A2)으로부터 -15°떨어진 지점으로 검출한다.For example, as shown in (b) of FIG. 8 , the target on the second image screen I2 may be at a -15° position (P 1 ) from the second axis (A 2 ). In other words, the angular difference (the first angular difference) between the second axis A 2 and the target is -15°. In this case, the detection unit 1130 detects the position P 1 of the target M as a point -15° away from the second axis A 2 .

한편, 이렇게 표적이 탐지된 후, 합성부(1140)로 영상들을 전달하기 전에 복수의 카메라(1121 내지 1126)가 지지되어 있는 제1지지부(1120a)가 회전될 수 있다. 예를 들어 적(敵)의 전차, 장갑차, 자주포 등과 같은 표적으로 식별되어, 긴급하게 상기 표적을 공격해야 하는 경우에, 공격하고자 하는 표적을 향하도록 하기 위해 포(1190)를 회전시켜야 한다. 이를 위해, 구동부(1180)를 동작시키면, 포(1190)가 지지되어 있는 제2지지부(1190a) 뿐만 아니라, 상기 구동부(1180)에 연결되어 있는 제1지지부(1120a)도 함께 회전한다. 이에, 제1지지부(1120a)에 연결되어 있는 복수의 카메라(1121 내지 1126)가 회전한다(S310). 다른 말로 설명하면, 복수의 카메라(1121 내지 1126)가 제1지지부(1120a)의 회전축(AX)을 중심으로 회전한다(S310). 이때, 회전각도는 예컨대 60°일 수 있다.Meanwhile, after the target is detected in this way, the first support unit 1120a on which the plurality of cameras 1121 to 1126 are supported may be rotated before images are transferred to the synthesis unit 1140 . For example, when it is identified as a target such as an enemy's tank, an armored vehicle, a self-propelled gun, and the like and urgently needs to attack the target, the gun 1190 must be rotated to point it toward the target to be attacked. To this end, when the driving unit 1180 is operated, the first supporting unit 1120a connected to the driving unit 1180 as well as the second supporting unit 1190a on which the fabric 1190 is supported rotates together. Accordingly, the plurality of cameras 1121 to 1126 connected to the first support unit 1120a rotates (S310). In other words, the plurality of cameras 1121 to 1126 rotates around the rotation axis AX of the first support unit 1120a ( S310 ). In this case, the rotation angle may be, for example, 60°.

이렇게 카메라가 회전하면, 다시 촬영을 실시하여(2차 촬영)(S320), 복수의 카메라(1121 내지 1126) 각각으로부터 2차 영상인 제1 내지 제6영상을 획득한다. 제1 내지 제6카메라(1121 내지 1126) 각각으로부터 획득된 2차 영상인 제1 내지 제6영상은 탐지부(1130)로 전달되며, 탐지부(1130)는 전달된 영상들을 이용 또는 분석하여 표적의 존재 여부를 판단 또는 탐지한다(S330).When the camera rotates in this way, shooting is performed again (secondary shooting) (S320), and first to sixth images, which are secondary images, are obtained from each of the plurality of cameras 1121 to 1126. The first to sixth images, which are secondary images obtained from each of the first to sixth cameras 1121 to 1126 , are transmitted to the detection unit 1130 , and the detection unit 1130 uses or analyzes the transmitted images to target the target. is determined or detected (S330).

제1 내지 제6카메라(1121 내지 1126)로부터 촬영된 제1 내지 제6영상 중 적어도 하나에서 표적(M)이 있는 것으로 감지 또는 판단된 경우(예), 탐지부(1130)는 영상화면 상에서의 표적의 위치 즉, 제2위치(X2, Y2)를 검출한다(340). 예컨대, 제1 내지 제6카메라(1121 내지 1126) 중 제3카메라(1123)로부터 획득된 2차 영상인 제3영상화면(I3)으로부터 표적(M)이 탐지된 경우, 제3영상화면(I3) 상에서의 표적(M)의 위치를 검출한다. 이때, 예를 들어 도 9의 (b)와 같이 제3영상화면(I3) 상에서 표적이 제3축선(A3)으로부터 -15°위치(P2)에 있을 수 있다. 즉, 제2축선(A2)과 표적 간의 각도 차이(제2각도 차이)가 -15°이다. 이러한 경우, 탐지부(1130)는 표적(M)의 제2위치(P2)는 제3축선(A3)으로부터 -15°떨어진 지점으로 검출한다.When it is detected or determined that there is a target M in at least one of the first to sixth images captured by the first to sixth cameras 1121 to 1126 (eg), the detection unit 1130 is The position of the target, that is, the second position (X 2 , Y 2 ) is detected ( 340 ). For example, when the target M is detected from the third image screen I3 that is the secondary image obtained from the third camera 1123 among the first to sixth cameras 1121 to 1126 , the third image screen I3 ) to detect the position of the target M on the At this time, for example, as shown in (b) of FIG. 9 , on the third image screen I3 , the target may be at a -15° position (P 2 ) from the third axis line (A 3 ). That is, the angular difference (second angular difference) between the second axis A 2 and the target is -15°. In this case, the detection unit 1130 detects the second position (P 2 ) of the target (M) as a point -15° away from the third axis (A 3 ).

그리고, 탐지부(1130)는 회전 전에 탐지된 표적의 위치인 제1위치(P1)와 회전 후에 탐지된 표적의 위치인 제2위치(P2)가 동일한지 여부를 판단한다(S350). 이때, 상술한 예시와 같이, 표적(M)은 회전 전 상태에서 제2영상화면(I2)의 제2축선(A2)으로부터 -15°위치(P1)에 있고(도 8 참조), 회전 후 상태 상태에서 제3영상화면(I3)의 제3축선(A3)으로부터 -15°위치(P2)에 있다(도 9 참조). 이에, 탐지부(1130)는 제1위치(P1)과 제2위치(P2)가 동일한 것으로 판단하고, 이에 탐지부(1130)는 회전 전 표적과 회전 후 표적이 동일한 표적인 것으로 판단한다(S361).Then, the detector 1130 determines whether the first position P 1 , which is the position of the target detected before the rotation, and the second position P 2 , which is the position of the target detected after the rotation, are the same ( S350 ). At this time, as in the above example, the target M is at a -15° position (P 1 ) from the second axis A 2 of the second image screen I2 in the pre-rotation state (see FIG. 8 ), and rotates In the post state, it is at a position P 2 of -15° from the third axis A 3 of the third image screen I3 (see FIG. 9 ). Accordingly, the detection unit 1130 determines that the first position P 1 and the second position P 2 are the same, and the detection unit 1130 determines that the target before rotation and the target after rotation are the same target. (S361).

이후, 탐지부(1130)는 판단신호를 감시 통신부(1160)를 통해 통제기(1200)로 송신한다. 이에, 통제기(1200)는 회전 전에 탐지된 표적과 회전 후에 탐지된 표적이 동일한 표적임을 인지한다.Thereafter, the detection unit 1130 transmits the determination signal to the controller 1200 through the monitoring communication unit 1160 . Accordingly, the controller 1200 recognizes that the target detected before the rotation and the target detected after the rotation are the same target.

그리고, 회전 후에 제1 내지 제6카메라(1121 내지 1126)로부터 각각으로부터 2차 촬영에 의해 획득된 2차 영상인 제1 내지 제6영상을 합성부(1140)로 전달한다. 그러면, 합성부(1140)는 2차 영상인 제1 내지 제6영상들을 합성하여 합성영상을 생성하고(S500), 이는 감시 통신부(1160)를 통해 통제기로 전달된다.Then, after rotation, the first to sixth images, which are secondary images obtained by secondary imaging, from each of the first to sixth cameras 1121 to 1126 are transmitted to the synthesizing unit 1140 . Then, the synthesizer 1140 generates a synthesized image by synthesizing the first to sixth images, which are secondary images ( S500 ), which is transmitted to the controller through the monitoring communication unit 1160 .

다른 예로, 도 10의 (b)와 같이 제3영상화면(I3) 상에서 표적이 제3축선(A3)의 위치(P2)(60°)에 있을 수 있다. 이에, 제3영상화면(I3) 상에서 표적은 제3축선(A3)과의 각도 차이(DA)가 0°이다. 이에, 탐지부(1130)는 표적(M)의 제2위치(P2)는 제3축선(A3)으로부터 0°떨어진 지점으로 검출한다.As another example, as shown in (b) of FIG. 10 , the target on the third image screen I3 may be at a position P 2 (60°) of the third axis A 3 . Accordingly, on the third image screen I3, the angle difference DA of the target with the third axis A3 is 0°. Accordingly, the detection unit 1130 detects the second position (P 2 ) of the target (M) as a point 0° away from the third axis (A 3 ).

그리고, 탐지부(1130)는 회전 전에 탐지된 표적의 위치인 제1위치(P1)와 회전 후에 탐지된 표적의 위치인 제2위치(P2)가 동일한지 여부를 판단한다(S350). 이때, 상술한 예시와 같이, 표적(M)은 회전 전 상태에서 제2영상화면(I2)의 제2축선(A2)으로부터 -15°위치(P1)에 있고(도 8 참조), 회전 후 상태 상태에서 제3영상화면(I3)의 제3축선(A3)으로부터 0°떨어진 지점에 위치(P2)(O°)에 있다. 즉, 제2영상화면(I2)에서 제2축선(A2)과 표적의 각도 차이(제1각도 차이)는 -15°이고, 제3영상화면(I3)에서 제3축선(A3)과 표적의 각도 차이(제2각도 차이)는 0°이다. 이에, 탐지부(1130)는 제1위치(P1)과 제2위치(P2)가 다른 것으로 판단하고, 이에 탐지부(1130)는 회전 전 표적과 회전 후 표적이 다른 표적인 것으로 판단한다(S362).Then, the detector 1130 determines whether the first position P 1 , which is the position of the target detected before the rotation, and the second position P 2 , which is the position of the target detected after the rotation, are the same ( S350 ). At this time, as in the above example, the target M is at a -15° position (P 1 ) from the second axis A 2 of the second image screen I2 in the pre-rotation state (see FIG. 8 ), and rotates It is at a position P 2 (O°) at a point 0° away from the third axis A 3 of the third image screen I3 in the post-state state. That is, in the second image screen I2, the angle difference between the second axis A 2 and the target (the first angle difference) is -15°, and in the third image screen I3, the third axis A 3 and The target angle difference (second angle difference) is 0°. Accordingly, the detection unit 1130 determines that the first position P 1 and the second position P 2 are different, and the detection unit 1130 determines that the target before rotation and the target after rotation are different targets. (S362).

그리고, 마찬가지로 회전 후에 제1 내지 제6카메라(1121 내지 1126)로부터 각각으로부터 2차 촬영에 의해 획득된 2차 영상인 제1 내지 제6영상을 합성부(1140)로 전달한다. 그러면, 합성부(1140)는 2차 영상인 제1 내지 제6영상들을 합성하여 합성영상을 생성하고(S500), 이는 감시 통신부(1160)를 통해 통제기로 전달된다.Also, after rotation, the first to sixth images, which are secondary images obtained by secondary imaging, from each of the first to sixth cameras 1121 to 1126 are transmitted to the synthesizing unit 1140 . Then, the synthesizer 1140 generates a synthesized image by synthesizing the first to sixth images, which are secondary images ( S500 ), which is transmitted to the controller through the monitoring communication unit 1160 .

또한, 탐지부(1130)에서 회전 전 탐지된 표적과 회전 후 탐지된 표적이 다른 표적임을 판단한 판단신호는 감시 통신부(1160)를 통해 통제기(1200)로 전달한다. 이에, 통제기(1200)는 회전 전에 탐지된 표적과 회전 후에 탐지된 표적이 다른 표적 임을 인지한다. 그리고, 통제기(1200)는 그 후속 조치 명령을 취할 수 있다. 예컨대, 회전 전에 탐지되었던 표적(M)을 수색하는 작업 명령을 감시기로 송신할 수 있다.In addition, the determination signal that the detection unit 1130 determines that the target detected before rotation and the target detected after rotation are different targets is transmitted to the controller 1200 through the monitoring communication unit 1160 . Accordingly, the controller 1200 recognizes that the target detected before the rotation and the target detected after the rotation are different targets. Then, the controller 1200 may take the follow-up action command. For example, it is possible to send a work command to the monitor to search for the target M that was detected before the rotation.

상기에서는 복수의 카메라(1121 내지 1126)의 1차 촬영에 의해 획득된 1차 영상으로부터 표적이 탐지된 후, 합성 전에 복수의 카메라(1121 내지 1126)가 회전축(AX)을 중심으로 회전된 경우를 설명하였다. 하지만, 1차 영상들로부터 표적이 탐지된 후에 또는 합성 전에 복수의 카메라(1121 내지 1126)가 회전축(AX)을 중심으로 회전하지 않을 수 있다(S400). 즉, 예를 들어, 1차 영상들로부터 표적이 탐지된 후에 또는 합성 전에 긴급하게 표적을 공격해야 하는 일이 없을 수 있다. 이러한 경우, 카메라가 회전하지 않는다. 이러한 경우, 복수의 카메라(1121 내지 1126)의 1차 촬영시에 획득된 1차 영상들을 합성부(1140)로 보내 합성영상을 생성한다(S500).In the above case, after the target is detected from the primary image obtained by the primary shooting of the plurality of cameras 1121 to 1126, the plurality of cameras 1121 to 1126 are rotated about the rotation axis AX before synthesis. explained. However, after a target is detected from the primary images or before synthesis, the plurality of cameras 1121 to 1126 may not rotate about the rotation axis AX ( S400 ). That is, for example, there may be no need to urgently attack the target after the target is detected from the primary images or before synthesis. In this case, the camera does not rotate. In this case, the primary images obtained during the primary photographing of the plurality of cameras 1121 to 1126 are sent to the synthesizing unit 1140 to generate a synthesized image (S500).

이와 같이 실시예에 따른 상황 감시장치(1000)는, 복수의 카메라(1121 내지 1126)로부터 촬영된 영상으로부터 표적(M)이 탐지된 후, 복수의 카메라(1121 내지 1126)가 그 수평 방향 위치가 변경되도록 회전축(AX)을 중심으로 회전되는 경우에, 회전 전에 탐지된 표적과 회전 후에 탐지된 표적이 동일한 표적인 여부를 판단한다.As described above, in the situation monitoring apparatus 1000 according to the embodiment, after the target M is detected from the images captured by the plurality of cameras 1121 to 1126 , the plurality of cameras 1121 to 1126 are positioned in the horizontal direction. When the rotation axis AX is rotated to be changed, it is determined whether a target detected before rotation and a target detected after rotation are the same target.

이에, 회전 전에 탐지된 표적과 회전 후에 탐지된 표적이 실제로는 동일한 표적이나, 서로 다른 표적으로 인지하는 것을 방지할 수 있다. 즉, 동일한 표적을 서로 다른 표적으로 잘못 인지하는 것을 방지할 수 있다. 이에, 감시지역(MA)에 대한 상황 인지 능력을 향상시킬 수 있다.Accordingly, it is possible to prevent recognition that the target detected before the rotation and the target detected after the rotation are actually the same target, but different from each other. That is, it is possible to prevent erroneous recognition of the same target as different targets. Accordingly, it is possible to improve the situational awareness of the monitoring area (MA).

1100: 감시기 1200: 통제기
1110: 차량
1121 내지 1126: 제1 내지 제6카메라
1100: monitor 1200: controller
1110: vehicle
1121 to 1126: first to sixth cameras

Claims (18)

카메라를 이용하여, 1차 영상을 획득하는 1차 촬영과정;
획득된 1차 영상을 이용하여, 표적의 존재 여부를 탐지하는 1차 탐지과정;
1차 영상에서 탐지된 표적의 위치를 검출하는 제1위치 검출과정;
카메라가 이동하는 경우, 2차 영상을 획득하는 2차 촬영과정;
획득된 2차 영상을 이용하여, 표적의 존재 여부를 탐지하는 2차 탐지과정;
2차 영상에서 탐지된 표적의 위치를 검출하는 제2위치 검출과정;
상기 제1위치와 상기 제2위치를 비교하여, 상기 1 및 2차 탐지과정에서 탐지된 표적이 동일한지를 판단하는 판단과정;
을 포함하고,
상기 제1위치 검출과정 및 제2위치 검출과정은,
표적을 포함하는 영상이 전시된 영상화면의 폭 방향 중심 위치와, 영상화면 상에서의 표적 간의 위치 차이를 검출하는 과정;
상기 위치 차이를 표적의 위치로 결정하는 과정;을 포함하며,
카메라는 복수개로 마련되고, 복수의 카메라는 일 축을 중심으로 이동 가능하며,
상기 복수의 카메라 중, 어느 하나의 카메라의 폭 방향 중심과, 상기 일 축을 지나가는 가상선을 기준선으로 결정하는 과정;
상기 기준선의 양 끝단 중, 상기 일 축과 반대 끝단의 각도 값을 0°로 설정하는 과정;
상기 복수의 카메라 각각에 있어서, 폭 방향 중심과 상기 일 축을 지나는 축선에 각도를, 상기 0°를 기준으로 부여하는 과정; 및
상기 복수의 카메라 각각으로부터 획득된 복수의 영상화면 각각에 있어서, 영상화면의 폭 방향 중심인 축선에, 상기 복수의 카메라 각각의 축선에 대한 각도를 부여하는 과정; 을 포함하고,
상기 복수의 영상화면 각각의 축선은, 상기 0°에서부터 360°까지 서로 다른 각도로 부여되며,
표적을 포함하는 영상화면의 폭 방향 중심 위치와, 상기 영상화면 상에서의 표적 간의 위치 차이를 검출하는 과정은, 표적을 포함하는 영상화면의 축선의 각도와 상기 영상화면 상에서의 표적의 각도 차이를 산출하는 과정을 포함하며,
상기 제1위치 검출과정에서 산출된 제1각도 차이를 상기 제1위치, 상기 제2위치 검출과정에서 산출된 제2각도 차이를 상기 제2위치로 하며,
상기 판단과정은,
상기 제1각도 차이와 제2각도 차이가 동일한 경우, 상기 제1위치와 제2위치가 동일하며, 상기 1차 및 2차 탐지과정에서 탐지된 표적이 동일한 것으로 판단하는 과정;
상기 제1각도 차이와 제2각도 차이가 다른 경우, 상기 제1위치와 제2위치가 상이하며, 상기 1차 및 2차 탐지과정에서 탐지된 표적이 다른 것으로 판단하는 과정; 을 포함하는 상황 감시방법.
A primary photographing process of acquiring a primary image using a camera;
a primary detection process of detecting the presence or absence of a target by using the acquired primary image;
a first position detection process of detecting the position of the target detected in the primary image;
a secondary photographing process of acquiring a secondary image when the camera is moved;
a secondary detection process of detecting the presence or absence of a target using the acquired secondary image;
a second position detection process of detecting the position of the target detected in the secondary image;
a determination process of comparing the first position with the second position and determining whether the targets detected in the first and second detection processes are the same;
including,
The first position detection process and the second position detection process are,
detecting a position difference between a center position in a width direction of an image screen on which an image including a target is displayed and a target on the image screen;
The process of determining the position difference as the position of the target; includes,
A plurality of cameras are provided, and the plurality of cameras are movable about one axis,
determining, as a reference line, a center of one camera among the plurality of cameras in a width direction and an imaginary line passing through the one axis;
setting an angle value of an end opposite to the one axis among both ends of the reference line to 0°;
in each of the plurality of cameras, a process of giving an angle to an axis passing through a center in a width direction and the one axis, based on the 0°; and
in each of the plurality of video screens obtained from each of the plurality of cameras, giving an angle with respect to the axis of each of the plurality of cameras to an axis that is a center of the video screen in the width direction; including,
The axes of each of the plurality of image screens are provided at different angles from 0° to 360°,
The process of detecting a position difference between the center position in the width direction of the video screen including the target and the target on the video screen calculates the difference between the angle of the axis of the video screen including the target and the angle of the target on the video screen including the process of
Let the first angle difference calculated in the first position detection process be the first position, and the second angle difference calculated in the second position detection process be the second position,
The judgment process is
determining that the first and second positions are the same and the targets detected in the first and second detection processes are the same when the first angle difference and the second angle difference are the same;
determining that the first and second positions are different from each other and the targets detected in the first and second detection processes are different when the first angle difference is different from the second angle difference; Situation monitoring method including.
카메라의 이동 전과 후에 서로 다른 카메라를 이용하여 촬영하는 과정;
이동 전에 카메라로부터 촬영된 1차 영상에서의 표적의 존재 여부를 탐지하는 1차 탐지과정; 및
이동 후에 카메라로부터 촬영된 2차 영상에서의 표적의 존재 여부를 탐지하는 2차 탐지과정;
상기 1차 탐지과정에서 검출된 표적의 위치를 검출하는 제1위치 검출과정; 및
상기 2차 탐지과정에서 검출된 표적의 위치를 검출하는 제2위치 검출과정;
상기 제1위치와 상기 제2위치를 비교하여, 상기 1차 및 2차 탐지과정에서 탐지된 표적이 동일한지를 판단하는 판단과정; 을 포함하며,
상기 제1위치 검출과정 및 제2위치 검출과정은,
표적을 포함하는 영상이 전시된 영상화면의 폭 방향 중심 위치와, 영상화면 상에서의 표적 간의 위치 차이를 검출하는 과정;
상기 위치 차이를 표적의 위치로 결정하는 과정;을 포함하고,
카메라는 복수개로 마련되고, 복수의 카메라는 일 축을 중심으로 이동 가능하며,
상기 복수의 카메라 중, 어느 하나의 카메라의 폭 방향 중심과, 상기 일 축을 지나가는 가상선을 기준선으로 결정하는 과정;
상기 기준선의 양 끝단 중, 상기 일 축과 반대 끝단의 각도 값을 0°로 설정하는 과정;
상기 복수의 카메라 각각에 있어서, 폭 방향 중심과 상기 일 축을 지나는 축선에 각도를, 상기 0°를 기준으로 부여하는 과정; 및
상기 복수의 카메라 각각으로부터 획득된 복수의 영상화면 각각에 있어서, 영상화면의 폭 방향 중심인 축선에, 상기 복수의 카메라 각각의 축선에 대한 각도를 부여하는 과정; 을 포함하고,
영상화면의 폭 방향 중심인 축선에, 상기 복수의 카메라 각각의 축선에 대한 각도를 부여하는데 있어서, 상기 0°에서부터 360°까지 서로 다른 각도로 부여되며,
표적을 포함하는 영상화면의 폭 방향 중심 위치와, 상기 영상화면 상에서의 표적 간의 위치 차이를 검출하는 과정은, 표적을 포함하는 영상화면의 축선의 각도와 상기 영상화면 상에서의 표적의 각도 차이를 산출하는 과정을 포함하며,
상기 제1위치 검출과정에서 산출된 제1각도 차이를 상기 제1위치, 상기 제2위치 검출과정에서 산출된 제2각도 차이를 상기 제2위치로 하며,
상기 판단과정은,
상기 제1각도 차이와 제2각도 차이가 동일한 경우, 상기 제1위치와 제2위치가 동일하며, 상기 1차 및 2차 탐지과정에서 탐지된 표적이 동일한 것으로 판단하는 과정;
상기 제1각도 차이와 제2각도 차이가 다른 경우, 상기 제1위치와 제2위치가 상이하며, 상기 1차 및 2차 탐지과정에서 탐지된 표적이 다른 것으로 판단하는 과정; 을 포함하는 상황 감시방법.
A process of photographing using different cameras before and after moving the camera;
A primary detection process of detecting the presence of a target in the primary image taken from the camera before moving; and
a secondary detection process of detecting the presence of a target in the secondary image taken from the camera after movement;
a first position detection process of detecting the position of the target detected in the first detection process; and
a second position detection process of detecting the position of the target detected in the secondary detection process;
a determination process of comparing the first position with the second position and determining whether the targets detected in the first and second detection processes are the same; includes,
The first position detection process and the second position detection process are,
detecting a position difference between a center position in a width direction of an image screen on which an image including a target is displayed and a target on the image screen;
The process of determining the position difference as the position of the target; including,
A plurality of cameras are provided, and the plurality of cameras are movable about one axis,
determining, as a reference line, a center of one camera among the plurality of cameras in a width direction and an imaginary line passing through the one axis;
setting an angle value of an end opposite to the one axis among both ends of the reference line to 0°;
in each of the plurality of cameras, a process of giving an angle to an axis passing through a center in a width direction and the one axis, based on the 0°; and
in each of the plurality of video screens obtained from each of the plurality of cameras, giving an angle with respect to the axis of each of the plurality of cameras to an axis that is a center of the video screen in the width direction; including,
In giving an angle to the axis of each of the plurality of cameras to the axis that is the center of the width direction of the video screen, different angles are given from 0° to 360°,
The process of detecting a position difference between the center position in the width direction of the video screen including the target and the target on the video screen calculates the difference between the angle of the axis of the video screen including the target and the angle of the target on the video screen including the process of
Let the first position difference calculated in the first position detection process be the first position, and the second angle difference calculated in the second position detection process be the second position,
The judgment process is
determining that the first position and the second position are the same and the targets detected in the first and second detection processes are the same when the first angle difference and the second angle difference are the same;
determining that the first and second positions are different from each other and the targets detected in the first and second detection processes are different when the first angle difference is different from the second angle difference; Situation monitoring method including.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 청구항 1 또는 청구항 2에 있어서,
상기 복수의 카메라가 이동하는데 있어서,
상기 복수의 카메라에 대한 축선 간의 각도 차이만큼 회전하는 상황 감시방법.
The method according to claim 1 or 2,
In moving the plurality of cameras,
A situation monitoring method that rotates by an angle difference between the axes of the plurality of cameras.
청구항 9에 있어서,
상기 1차 영상을 획득하는 1차 촬영시 카메라의 시야각과 상기 2차 영상을 획득하는 2차 촬영시 카메라의 시야각이 동일한 상황 감시방법.
10. The method of claim 9,
A method for monitoring a situation in which the viewing angle of the camera during the primary photographing for acquiring the primary image is the same as the viewing angle of the camera during the secondary photographing for acquiring the secondary image.
카메라 및 상기 카메라로부터 획득된 영상을 이용하여 표적의 존재여부를 탐지하는 탐지부를 구비하며, 회전 이동 가능한 감시기를 포함하고,
상기 탐지부는 상기 카메라가 회전 이동되는 경우, 상기 카메라의 회전 전과 회전 후에 서로 다른 카메라로부터 획득된 영상을 전시한 영상화면 상에서의 표적의 위치 차이에 따라, 회전 전에 탐지된 표적과 회전 후에 탐지된 표적이 동일한 표적인지 여부를 판단하고
상기 카메라는 복수개로 마련되며,
상기 복수의 카메라는 일 축을 중심으로 회전 이동하고,
상기 복수의 카메라 중, 어느 하나의 카메라의 폭 방향 중심과, 상기 일 축을 지나가는 가상선을 기준선으로 결정하고,
상기 기준선의 양 끝단 중, 상기 일 축과 반대 끝단의 각도 값을 0°로 설정하며,
상기 0°를 기준으로, 상기 복수의 카메라 각각에 있어서, 폭 방향 중심과 상기 일 축을 지나는 축선에 각도를 부여하고,
상기 탐지부는 상기 복수의 카메라 각각으로부터 획득된 영상화면 각각에 대해, 영상화면의 폭 방향 중심인 축선에, 상기 복수의 카메라 각각의 축선에 대한 각도를 부여하며,
상기 탐지부는 표적을 포함하는 영상화면의 축선의 각도와 상기 영상화면 상에서의 표적 간의 각도 차이를 표적의 위치로 검출하고,
영상화면의 폭 방향 중심인 축선에, 상기 복수의 카메라 각각의 축선에 대한 각도를 부여하는데 있어서, 상기 0°에서부터 360°까지 서로 다른 각도로 부여하며,
상기 탐지부는,
상기 회전 전에 검출된 각도 차이와 상기 회전 후에 검출된 각도 차이가 동일한 경우, 상기 회전 전에 탐지된 표적과 상기 회전 후에 탐지된 표적이 동일한 표적인 것으로 판단하고,
상기 회전 전에 검출된 각도 차이와 상기 회전 후에 검출된 각도 차이가 다른 경우, 상기 회전 전에 탐지된 표적과 상기 회전 후에 탐지된 표적이 다른 표적인 것으로 판단하는 상황 감시장치.
A camera and a detector for detecting the presence or absence of a target using the image obtained from the camera, including a rotatable monitor,
When the camera is rotationally moved, the detection unit determines whether the target detected before rotation and the target detected after rotation according to a difference in position of the target on a video screen displaying images obtained from different cameras before and after rotation of the camera. to determine whether these are the same targets, and
The camera is provided in plurality,
The plurality of cameras are rotated and moved about one axis,
Among the plurality of cameras, the width direction center of any one camera and an imaginary line passing through the one axis are determined as a reference line,
Among both ends of the reference line, an angle value of an end opposite to the one axis is set to 0°,
Based on the 0°, in each of the plurality of cameras, an angle is given to an axis passing through the center of the width direction and the one axis,
For each of the video screens obtained from each of the plurality of cameras, the detection unit gives an angle with respect to the axis of each of the plurality of cameras to an axis that is the center of the video screen in the width direction,
The detection unit detects the difference in angle between the angle of the axis of the image screen including the target and the target on the image screen as the position of the target,
In giving an angle to the axis of each of the plurality of cameras to the axis, which is the center of the width direction of the video screen, different angles are given from 0° to 360°,
The detection unit,
If the angle difference detected before the rotation and the angle difference detected after the rotation are the same, it is determined that the target detected before the rotation and the target detected after the rotation are the same target;
When the angle difference detected before the rotation is different from the angle difference detected after the rotation, the situation monitoring apparatus determines that the target detected before the rotation and the target detected after the rotation are different targets.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 청구항 11에 있어서,
상기 복수의 카메라로부터 획득된 영상들을 합성하여 합성영상을 생성하는 합성부를 포함하는 상황 감시장치.
12. The method of claim 11,
and a synthesizing unit for synthesizing images obtained from the plurality of cameras to generate a synthesized image.
청구항 17에 있어서,
상기 감시기로부터 송신되는 상기 합성영상을 수신하는 통제기를 포함하는 상황 감시장치.
18. The method of claim 17,
Situation monitoring device including a controller for receiving the composite image transmitted from the monitor.
KR1020200095861A 2020-07-31 2020-07-31 Situation monitoring apparatus and situation monitoring method for 360-degree panoramic image acquisition using target handover KR102312932B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200095861A KR102312932B1 (en) 2020-07-31 2020-07-31 Situation monitoring apparatus and situation monitoring method for 360-degree panoramic image acquisition using target handover

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200095861A KR102312932B1 (en) 2020-07-31 2020-07-31 Situation monitoring apparatus and situation monitoring method for 360-degree panoramic image acquisition using target handover

Publications (1)

Publication Number Publication Date
KR102312932B1 true KR102312932B1 (en) 2021-10-14

Family

ID=78116065

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200095861A KR102312932B1 (en) 2020-07-31 2020-07-31 Situation monitoring apparatus and situation monitoring method for 360-degree panoramic image acquisition using target handover

Country Status (1)

Country Link
KR (1) KR102312932B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004135208A (en) * 2002-10-15 2004-04-30 Hitachi Ltd Video shooting apparatus and method
KR20120025718A (en) * 2010-09-08 2012-03-16 중앙대학교 산학협력단 Apparatus and method for detecting abnormal behavior
JP2012198857A (en) * 2011-03-23 2012-10-18 Denso It Laboratory Inc Approaching object detector and approaching object detection method
KR101572896B1 (en) 2014-01-20 2015-12-11 현대로템 주식회사 Tank around the battlefield situational awareness system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004135208A (en) * 2002-10-15 2004-04-30 Hitachi Ltd Video shooting apparatus and method
KR20120025718A (en) * 2010-09-08 2012-03-16 중앙대학교 산학협력단 Apparatus and method for detecting abnormal behavior
JP2012198857A (en) * 2011-03-23 2012-10-18 Denso It Laboratory Inc Approaching object detector and approaching object detection method
KR101572896B1 (en) 2014-01-20 2015-12-11 현대로템 주식회사 Tank around the battlefield situational awareness system

Similar Documents

Publication Publication Date Title
US10237478B2 (en) System and method for correlating camera views
EP2284814A1 (en) Systems and methods for night time surveillance
JP3644668B2 (en) Image monitoring device
EP3019968B1 (en) System and method for processing of tactical information in combat vehicles
US5964432A (en) System for searching for, detecting and tracking flying targets
KR101508290B1 (en) Day-night vision machine and water monitoring system thereof
JP4056777B2 (en) Autonomous mobile object traveling system and autonomous mobile object position correction method
JP6001914B2 (en) Target position specifying device, target position specifying system, and target position specifying method
KR101821159B1 (en) System for tracking moving path of objects using multi-camera
JP4301051B2 (en) Harbor monitoring system
KR101452342B1 (en) Surveillance Camera Unit And Method of Operating The Same
KR102312932B1 (en) Situation monitoring apparatus and situation monitoring method for 360-degree panoramic image acquisition using target handover
JP2014006188A (en) Radar monitoring system, image acquiring method, image acquiring program
KR102441349B1 (en) Situation monitoring apparatus and situation monitoring method for acquiring 360-degree short and medium distance panoramic images
KR101621396B1 (en) Armament system and method for operating the same
JP6660192B2 (en) Flying object monitoring system
KR102312933B1 (en) Situation monitoring apparatus for 360 degree panoramic image acquisition and situation monitoring method
JP4168591B2 (en) Infrared imaging device
RU2563557C2 (en) Multispectral system and method for electro-optical surveillance of protected area
KR20220052765A (en) Remote Controlled Weapon System in Moving Platform and Tracking Method of Moving Target thereof
US20230215185A1 (en) Unmanned combat vehicle and target detection method thereof
KR102467366B1 (en) System and method for managing moving object with multiple wide angle cameras
KR102357263B1 (en) Holder device for supporting camera and method, computer-readable storage medium and computer program for controlling the holder device
KR101279371B1 (en) Attack system and method for controlling thereof
KR20220059590A (en) Operating method of fire control system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant