KR20220154473A - System of peventing external intrusion using virtulal detection line in image - Google Patents

System of peventing external intrusion using virtulal detection line in image Download PDF

Info

Publication number
KR20220154473A
KR20220154473A KR1020210062062A KR20210062062A KR20220154473A KR 20220154473 A KR20220154473 A KR 20220154473A KR 1020210062062 A KR1020210062062 A KR 1020210062062A KR 20210062062 A KR20210062062 A KR 20210062062A KR 20220154473 A KR20220154473 A KR 20220154473A
Authority
KR
South Korea
Prior art keywords
image
detection line
module
virtual detection
intrusion
Prior art date
Application number
KR1020210062062A
Other languages
Korean (ko)
Inventor
임지수
임지현
Original Assignee
주식회사 이산기술
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이산기술 filed Critical 주식회사 이산기술
Priority to KR1020210062062A priority Critical patent/KR20220154473A/en
Publication of KR20220154473A publication Critical patent/KR20220154473A/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • B64C2201/127
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed is an external intrusion prevention system using a virtual detection line in an image. The system comprises: a fixed camera device generating an image for intrusion detection; a user terminal displaying an image generated by the fixed camera device; and an image analysis server for detecting intrusion detection by analyzing the image generated by the fixed camera device. According to the external intrusion prevention system using a virtual detection line in an image, an arbitrary virtual detection line can be set in the image to detect whether there is an intruder in a danger zone or a warning zone, thereby detecting an intrusion through image analysis without installing a separate sensor. In particular, a semantic segmentation algorithm and an object detection/tracking algorithm can be used to automatically set a virtual detection line. Even if the direction of the camera module is freely changed, the virtual detection line can be automatically adjusted within the image by the above algorithm, thereby accurately detecting and tracking the intruder by capturing images in various directions. In addition, the virtual detection line is automatically set for a group of objects, and an object which has left the group can be detected and tracked using the virtual detection line, thereby accurately detecting and identifying the deviant object in a wide area.

Description

영상 내 가상 검지선을 이용한 외부 침입 방지 시스템{SYSTEM OF PEVENTING EXTERNAL INTRUSION USING VIRTULAL DETECTION LINE IN IMAGE}External intrusion prevention system using virtual detection line in image {SYSTEM OF PEVENTING EXTERNAL INTRUSION USING VIRTULAL DETECTION LINE IN IMAGE}

본 발명은 외부 침입 방지 시스템에 관한 것으로서, 구체적으로는 영상 내 가상 검지선을 이용한 외부 침입 방지 시스템에 관한 것이다.The present invention relates to an external intrusion prevention system, and more specifically, to an external intrusion prevention system using a virtual detection line in an image.

외부 침입을 방지하기 위해서는 CCTV가 많이 활용되고 있다.CCTV is widely used to prevent outside intrusion.

그런데, CCTV 영상에서는 침입자 여부를 정확하게 파악하기 어렵고, 특정 위험 구역에 침입하였는지 여부를 영상만으로는 파악하기가 어렵다.However, it is difficult to accurately determine whether or not an intruder exists in CCTV images, and it is difficult to determine whether an intruder has entered a specific dangerous area using only the image.

영상 내에서 위험 구역이나 경고 구역 등을 파악하여 실제로 침입해서는 안될 구역에 침입하였는지 여부를 알 수가 없다. 특히, 카메라의 촬영 방향이나 각도를 변경하는 경우에는 더더욱 침입 금지 구역의 침입 여부를 알 수가 없게 된다.It is not possible to determine whether or not a person has actually entered a zone that should not be entered by identifying a danger zone or a warning zone in the video. In particular, in the case of changing the shooting direction or angle of the camera, it becomes impossible to know whether or not the trespassing zone is intruded.

일반적인 CCTV나 카메라를 이용하여 위험 구역과 경고 구역 그 외 구역을 촬영하여 생성한 영상에서 침입자의 특정 구역의 침입 여부를 알 수 있는 경우, 특정 센서의 설치없이도 쉽게 알 수 있게 되어 매우 유용할 수 있다.If it is possible to know whether an intruder has invaded a specific area from the video generated by filming the danger zone, warning zone, and other zones using a general CCTV or camera, it can be easily identified without the installation of a specific sensor, which can be very useful. .

등록특허공보 10-1217611Registered Patent Publication 10-1217611 공개특허공보 10-2011-0013724Publication of Patent Publication 10-2011-0013724

본 발명의 목적은 영상 내 가상 검지선을 이용한 외부 침입 방지 시스템을 제공하는 데 있다.An object of the present invention is to provide an external intrusion prevention system using a virtual detection line in an image.

상술한 본 발명의 목적에 따른 영상 내 가상 검지선을 이용한 외부 침입 방지 시스템은, 침입 감지를 위한 영상을 생성하는 고정 카메라 장치; 상기 고정 카메라 장치에 의해 생성되는 영상을 표시하는 사용자 단말; 상기 고정 카메라 장치에 의해 생성되는 영상을 분석하여 침입 감지를 감지하는 상기 영상 분석 서버를 포함하도록 구성될 수 있다.An external intrusion prevention system using a virtual detection line in an image according to the object of the present invention described above includes a fixed camera device generating an image for intrusion detection; a user terminal displaying an image generated by the fixed camera device; It may be configured to include the video analysis server for detecting intrusion detection by analyzing the video generated by the fixed camera device.

여기서, 영상을 생성하는 드론을 더 포함하도록 구성될 수 있다.Here, it may be configured to further include a drone that generates an image.

그리고 상기 영상 분석 서버는, 상기 드론에 의해 생성되는 영상을 분석하여 침입을 감지하도록 구성될 수 있다.The video analysis server may be configured to detect an intrusion by analyzing an image generated by the drone.

상술한 영상 내 가상 검지선을 이용한 외부 침입 방지 시스템에 의하면, 영상 내에서 임의의 가상 검지선을 설정하여 위험 구역이나 경고 구역에의 침입자가 있는지 여부를 감지할 수 있도록 구성됨으로써, 별도의 센서를 설치하지 않고도 영상 분석만으로 침입 여부를 알 수 있는 효과가 있다.According to the above-mentioned external intrusion prevention system using the virtual detection line in the image, it is configured to detect whether there is an intruder in the danger zone or warning zone by setting an arbitrary virtual detection line in the image, so that a separate sensor is not installed. It has the effect of knowing whether an intrusion has occurred only through video analysis without the presence of an attacker.

특히, 시맨틱 분할 알고리즘과 객체 탐지/추적 알고리즘을 이용하여 가상 검지선을 자동 설정할 수 있도록 구성되며, 카메라 모듈의 방향을 자유롭게 변경하여도 위 알고리즘에 의해 가상 검지선을 영상 내에서 자동으로 조정할 수 있도록 구성됨으로써, 다양한 방향의 영상을 촬영하여 침입자를 정확하게 감지하고 추적할 수 있는 효과가 있다.In particular, it is configured to automatically set the virtual detection line using the semantic segmentation algorithm and object detection/tracking algorithm, and is configured to automatically adjust the virtual detection line within the image by the above algorithm even when the direction of the camera module is freely changed. , there is an effect of accurately detecting and tracking an intruder by taking images in various directions.

또한, 한 그룹의 객체들에 대해 가상 검지선을 자동 설정하고, 가상 검지선을 이용하여 그룹을 이탈한 객체를 탐지하고 추적할 수 있도록 구성됨으로써, 광역의 영역에서 이탈 객체를 정확하게 감지하고 알 수 있는 효과가 있다.In addition, by automatically setting a virtual detection line for a group of objects and using the virtual detection line to detect and track an object that has departed from the group, the effect of accurately detecting and knowing the object that has left the group in a wide area there is

도 1은 본 발명의 일 실시예에 따른 영상 내 가상 검지선을 이용한 외부 침입 방지 시스템의 블록 구성도이다.
도 2는 본 발명의 일 실시예에 따른 영상 내 가상 감지선을 나타내는 예시도이다.
도 3은 본 발명의 실시예에 따른 다양한 가상 감지선의 예시도이다.
도 4는 본 발명의 일 실시예에 따른 영상 내 객체를 감지하는 알고리즘을 나타내는 영상의 예시도이다.
도 5는 본 발명의 일 실시예에 따른 영상 내 가상 감지선을 넘는 객체를 추적하는 영상의 예시도이다.
1 is a block diagram of an external intrusion prevention system using a virtual detection line in an image according to an embodiment of the present invention.
2 is an exemplary diagram illustrating a virtual detection line in an image according to an embodiment of the present invention.
3 is an exemplary diagram of various virtual sensing lines according to an embodiment of the present invention.
4 is an exemplary view of an image showing an algorithm for detecting an object in an image according to an embodiment of the present invention.
5 is an exemplary view of an image tracking an object crossing a virtual detection line in an image according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 발명을 실시하기 위한 구체적인 내용에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in specific contents for practicing the invention. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. Like reference numerals have been used for like elements throughout the description of each figure.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The terms and/or include any combination of a plurality of related recited items or any of a plurality of related recited items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 영상 내 가상 검지선을 이용한 외부 침입 방지 시스템의 블록 구성도이다. 그리고 도 2는 본 발명의 일 실시예에 따른 영상 내 가상 감지선을 나타내는 예시도이고, 도 3은 본 발명의 실시예에 따른 다양한 가상 감지선의 예시도이고, 도 4는 본 발명의 일 실시예에 따른 영상 내 객체를 감지하는 알고리즘을 나타내는 영상의 예시도이고, 도 5는 본 발명의 일 실시예에 따른 영상 내 가상 감지선을 넘는 객체를 추적하는 영상의 예시도이다.1 is a block diagram of an external intrusion prevention system using a virtual detection line in an image according to an embodiment of the present invention. 2 is an exemplary view showing a virtual detection line in an image according to an embodiment of the present invention, FIG. 3 is an exemplary view of various virtual detection lines according to an embodiment of the present invention, and FIG. 4 is an example of an embodiment of the present invention. 5 is an exemplary view of an image showing an algorithm for detecting an object in an image according to , and FIG. 5 is an example of an image tracking an object crossing a virtual detection line in an image according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 영상 내 가상 검지선을 이용한 외부 침입 방지 시스템은, 고정 카메라 장치(100), 드론(200), 사용자 단말(300), 영상 분석 서버(400)를 포함하도록 구성될 수 있다.Referring to FIG. 1, an external intrusion prevention system using a virtual detection line in an image according to an embodiment of the present invention includes a fixed camera device 100, a drone 200, a user terminal 300, and an image analysis server 400 It can be configured to include.

이하, 세부적인 구성에 대하여 설명한다.Hereinafter, a detailed configuration will be described.

고정 카메라 장치(100)는 침입 감지를 위한 영상을 생성하도록 구성될 수 있다.The fixed camera device 100 may be configured to generate images for intrusion detection.

고정 카메라 장치(100)는 제1 카메라 모듈(101), 레이더 모듈(102), 카메라 방향 변경 모듈(103)을 포함하도록 구성될 수 있다.The fixed camera device 100 may include a first camera module 101 , a radar module 102 , and a camera direction changing module 103 .

이하, 세부적인 구성에 대하여 설명한다.Hereinafter, a detailed configuration will be described.

제1 카메라 모듈(101)은 특정 구역으로의 침입 감지를 위한 영상을 수평 측면 방향, 수직 방향 또는 대각선 방향 등에서 촬영하여 생성하도록 구성될 수 있다. 도 2는 수평 측면 방향에서 객체(사람)을 촬영하는 것을 예시하고 있다.The first camera module 101 may be configured to capture and generate an image for detecting an intrusion into a specific area in a horizontal lateral direction, a vertical direction, or a diagonal direction. 2 illustrates photographing an object (person) in a horizontal lateral direction.

레이더 모듈(102)은 주변의 객체를 감지하도록 구성될 수 있다.The radar module 102 may be configured to detect objects in the surroundings.

카메라 방향 변경 모듈(103)은 레이더 모듈(102)의 감지에 따라 제1 카메라(101) 모듈의 촬영 방향을 변경하도록 구성될 수 있다.The camera direction change module 103 may be configured to change the photographing direction of the first camera 101 module according to the detection of the radar module 102 .

드론(200)은 객체들로 구성되느 특정 그룹에서 객체의 이탈 방지를 위한 영상을 생성하도록 구성될 수 있다.The drone 200 may be configured to generate an image for preventing an object from escaping from a specific group composed of objects.

드론(200)은 제2 카메라 모듈(201), 드론 구동 모듈(202)을 포함하도록 구성될 수 있다.The drone 200 may be configured to include a second camera module 201 and a drone driving module 202 .

이하, 세부적인 구성에 대하여 설명한다.Hereinafter, a detailed configuration will be described.

제2 카메라 모듈(201)은 이탈 방지를 위한 영상을 수직 방향에서 촬영하여 생성하도록 구성될 수 있다. 즉, 드론(200)은 위에서 객체들의 그룹을 촬영할 수 있다. 예를 들어, 드론(200)은 양떼, 소떼 등의 무리의 움직임을 위에서 촬영할 수 있다. 이탈이 발생되면 안되는 양떼나 소떼를 상공에서 촬영하여 이탈을 감지하는 데 이용될 수 있다.The second camera module 201 may be configured to capture and generate an image for separation prevention in a vertical direction. That is, the drone 200 may photograph a group of objects from above. For example, the drone 200 may photograph the movement of a herd, such as a herd of sheep or cattle, from above. It can be used to detect departure by photographing a herd of sheep or cattle in which the departure should not occur.

드론 구동 모듈(202)은 제2 카메라 모듈(201)에서 생성된 영상에 기반하여 드론(200)을 구동하도록 구성될 수 있다. 드론 구동 모듈(202)은 드론의 비행과 자세, 고도 등을 조정할 수 있다.The drone driving module 202 may be configured to drive the drone 200 based on an image generated by the second camera module 201 . The drone driving module 202 may adjust the flight, posture, and altitude of the drone.

사용자 단말(300)는 고정 카메라 장치(100) 또는 드론(200)에 의해 생성되는 영상을 표시하도록 구성될 수 있다.The user terminal 300 may be configured to display an image generated by the fixed camera device 100 or the drone 200 .

영상 분석 서버(400)는 고정 카메라 장치(100) 또는 드론(200)에 의해 생성되는 영상을 분석하여 침입 감지 또는 이탈 방지를 위한 가상 검지선을 생성하여 침입 또는 이탈을 감지하도록 구성될 수 있다.The video analysis server 400 may be configured to analyze an image generated by the fixed camera device 100 or the drone 200 to detect intrusion or departure by generating a virtual detection line for intrusion detection or separation prevention.

영상 분석 서버(400)는 시맨틱 분할 실행 모듈(401), 경고 구역 가상 검지선 설정 모듈(402), 위험 구역 가상 검지선 설정 모듈(403), 경고 구역 수평 방향 카메라 각도 설정 모듈(404), 위험 구역 수평 방향 카메라 각도 설정 모듈(405), 카메라 각도 감지 모듈(406), 카메라 각도 기반 경고 구역 가상 검지선 설정 모듈(407), 카메라 각도 기반 위험 구역 가상 검지선 설정 모듈(408), 딥러닝 객체 탐지 모듈(409), 뼈대 분석 모듈(410), 객체 추적 모듈(411), 동일 객체 판단 모듈(412), 월선 판단 모듈(413), 경고 구역 진입 알람 모듈(414), 위험 구역 진입 알람 모듈(415), 침입 도주 객체 추적 모듈(416), 동적 객체 그룹 가상 검지선 자동 설정 모듈(417), 드론 구동 제어 모듈(418), 근거리 객체 간 평균 거리 산출 모듈(419), 평균 거리 편차 산출 모듈(420), 이탈 객체 포착 모듈(421), 이탈 객체 추적 모듈(422)을 포함하도록 구성될 수 있다.The image analysis server 400 includes a semantic segmentation execution module 401, a warning zone virtual detection line setting module 402, a danger zone virtual detection line setting module 403, a warning zone horizontal direction camera angle setting module 404, a danger zone horizontal Direction camera angle setting module 405, camera angle detection module 406, camera angle-based warning zone virtual detection line setting module 407, camera angle-based danger zone virtual detection line setting module 408, deep learning object detection module 409 ), skeleton analysis module 410, object tracking module 411, identical object determination module 412, crossing line determination module 413, warning zone entry alarm module 414, danger zone entry alarm module 415, intrusion Runaway object tracking module 416, automatic setting of dynamic object group virtual detection line module 417, drone driving control module 418, average distance calculation module 419 between short-range objects, average distance deviation calculation module 420, stray object It may be configured to include a capture module 421 and a stray object tracking module 422 .

이하, 세부적인 구성에 대하여 설명한다.Hereinafter, a detailed configuration will be described.

시맨틱 분할 실행 모듈(401)은 제1 카메라 모듈(101)에서 생성된 영상에 대해 시맨틱 분할 알고리즘을 실행하여 제1객체를 구별할 수 있다.The semantic segmentation execution module 401 may distinguish the first object by executing a semantic segmentation algorithm on the image generated by the first camera module 101 .

그리고 시맨틱 분할 실행 모듈(401)은 제2 카메라 모듈(201)에서 생성된 영상에 대해 시맨틱 분할 알고리즘을 실행하여 제2 객체를 구별하도록 구성될 수 있다.Also, the semantic segmentation execution module 401 may be configured to distinguish the second object by executing a semantic segmentation algorithm on the image generated by the second camera module 201 .

시맨틱 분할 실행 모듈(401)은 영상을 픽셀 단위에서 분석하여 객체들을 분할할 수 있다. 각각의 사람과 사물과 배경을 모두 분할하여 구별할 수 있다.The semantic segmentation execution module 401 may segment objects by analyzing the image in units of pixels. Each person, object, and background can be divided and distinguished.

경고 구역 가상 검지선 설정 모듈(402)은 시맨틱 분할 실행 모듈(401)에서 구별된 제1객체에 기반하여 경고 구역 가상 검지선을 설정하도록 구성될 수 있다.The warning zone virtual detection line setting module 402 may be configured to set a warning zone virtual detection line based on the first object distinguished in the semantic segmentation execution module 401 .

그리고 위험 구역 가상 검지선 설정 모듈(403)은 시맨틱 분할 실행 모듈(401)에서 구별된 제1객체에 기반하여 위험 구역 가상 검지선을 설정하도록 구성될 수 있다.Also, the danger zone virtual detection line setting module 403 may be configured to set a danger zone virtual detection line based on the first object distinguished by the semantic segmentation execution module 401 .

도 2에서 보듯이 노란색의 가상 검지선을 설정하여 경고 구역을 설정하고 빨간색의 가상 검지선을 설정하여 위험 구역을 설정할 수 있다. 이를 통해 도 2의 영상에서 사람이 경고 구역에 있는지 위험 구역에 침입하였는지 판단할 수 있다.As shown in FIG. 2 , a warning zone may be set by setting a yellow virtual detection line, and a danger zone may be set by setting a red virtual detection line. Through this, in the image of FIG. 2 , it is possible to determine whether a person is in a warning zone or has entered a danger zone.

한편, 가상 검지선은 도 3에서와 같이 직선이나 다양한 모양의 다각형으로 설정될 수도 있다.Meanwhile, the virtual detection line may be set as a straight line or a polygon of various shapes as shown in FIG. 3 .

그리고 이러한 경고 구역 가상 검지선과 위험 구역 가상 검지선은 사용자 단말(300) 상의 영상 내에서 터치 입력을 통해 설정될 수도 있다.Also, the warning zone virtual detection line and the danger zone virtual detection line may be set through a touch input within the image on the user terminal 300 .

경고 구역 수평 방향 카메라 각도 설정 모듈(404)은 경고 구역 가상 검지선이 설정된 영상에 대한 고정 카메라 장치(100)의 수평 방향 카메라 각도를 설정하도록 구성될 수 있다. 고정 카메라 장치(100)는 수평 방향 즉, 좌우로 카메라 각도를 변경할 수 있도록 구성될 수 있는데, 고정 카메라 장치(100)의 현재 수평 방향 카메라 각도를 변경할 때마다 각각의 수평 방향 카메라 각도에서의 경고 구역 가상 검지선을 설정하여 매핑할 수 있다.The warning zone horizontal direction camera angle setting module 404 may be configured to set a horizontal direction camera angle of the fixed camera device 100 for an image in which a warning zone virtual detection line is set. The fixed camera device 100 may be configured to change the camera angle in the horizontal direction, that is, left and right. Whenever the current horizontal camera angle of the fixed camera device 100 is changed, a warning zone at each horizontal camera angle You can map by setting a virtual detection line.

위험 구역 수평 방향 카메라 각도 설정 모듈(405)은 위험 구역 가상 검지선이 설정된 영상에 대한 고정 카메라 장치(100)의 수평 방향 카메라 각도를 설정하도록 구성될 수 있다. 마찬가지로 고정 카메라 장치(100)의 현재 수평 방향 카메라 각도를 변경할 때마다 각각의 수평 방향 카메라 각도에서의 위험 구역 가상 검지선을 설정하여 매핑할 수 있다.The danger zone horizontal direction camera angle setting module 405 may be configured to set a horizontal direction camera angle of the fixed camera device 100 for an image in which a danger zone virtual detection line is set. Similarly, each time the current horizontal camera angle of the fixed camera device 100 is changed, a virtual detection line of the danger zone at each horizontal camera angle may be set and mapped.

앞서 설정된 현재 수평 방향 카메라 각도와 그 각도에서의 경고 구역 가상 검지선과 위험 구역 가상 검지선을 알고 있으면, 그 각도에서의 고정 카메라 장치(100)를 수평 좌우 방향으로 수시로 변경하여도 가상 검지선을 정확하게 복원할 수 있다. 이러한 경우, 시맨틱 분할 알고리즘을 실행하여 객체를 파악하고 일일이 가상 검지선을 설정할 필요가 없으며, 가상 검지선의 설정에 오류가 생기지 않고 그 가상 검지선 산출에 시간이 걸리지도 않는다.If the current horizontal direction camera angle set previously and the warning zone virtual detection line and the danger zone virtual detection line at that angle are known, even if the fixed camera device 100 at that angle is frequently changed in the horizontal left and right directions, the virtual detection line can be accurately restored. can In this case, there is no need to identify objects by executing the semantic segmentation algorithm and set virtual detection lines individually, and errors do not occur in setting virtual detection lines and it does not take time to calculate the virtual detection lines.

카메라 각도 감지 모듈(406)은 고정 카메라 장치(100)의 수평 방향 카메라 각도를 감지하도록 구성될 수 있다. 수직 방향 또는 대각선 방향에서 침입을 감지하는 경우에는 수직 방향 카메라 각도 또는 대각선 방향 카메라 각도를 감지할 수 있다.The camera angle detection module 406 may be configured to detect a horizontal camera angle of the fixed camera device 100 . In the case of detecting an intrusion in a vertical or diagonal direction, a vertical camera angle or a diagonal camera angle may be detected.

카메라 각도 기반 경고 구역 가상 검지선 설정 모듈(407)은 경고 구역 수평 방향 카메라 각도 설정 모듈(404)에서 설정된 각각의 수평 방향 카메라 각도에서의 경고 구역 가상 검지선을 카메라 각도 감지 모듈(406)에서 감지된 수평 방향 카메라 각도의 변화에 따라 동적으로 실시간 변경 설정하도록 구성될 수 있다.The camera angle-based warning zone virtual detection line setting module 407 sets the warning zone virtual detection line at each horizontal camera angle set in the warning zone horizontal camera angle setting module 404 to the horizontal direction detected by the camera angle detection module 406. It can be configured to dynamically change in real time according to the change of the direction camera angle.

카메라 각도 기반 위험 구역 가상 검지선 설정 모듈(408)은 위험 구역 수평 방향 카메라 각도 설정 모듈(405)에서 설정된 각각의 수평 방향 카메라 각도에서 위험 구역 가상 검지선을 카메라 각도 감지 모듈(406)에서 감지된 수평 방향 카메라 각도의 변화에 따라 동적으로 실시간 변경 설정하도록 구성될 수 있다.The camera angle-based danger zone virtual detection line setting module 408 sets the danger zone virtual detection line from each horizontal camera angle set in the danger zone horizontal direction camera angle setting module 405 to the horizontal direction detected by the camera angle detection module 406. It can be configured to dynamically change in real time according to a change in camera angle.

이와 같이, 카메라 각도와 검지선을 매핑하는 기법은 카메라 모듈(101)의 각도를 변경할 때마다 시맨틱 분할 알고리즘과 객체 탐지 알고리즘을 매번 계산할 필요가 없고, 계산 시간이 오래 걸리거나 계산 오류가 발생할 소지가 없게 되는 장점이 있다.In this way, the technique of mapping the camera angle and the detection line eliminates the need to calculate the semantic segmentation algorithm and the object detection algorithm each time the angle of the camera module 101 is changed, and does not take a long calculation time or cause calculation errors. There is an advantage to being

딥러닝 객체 탐지 모듈(409)은 시맨틱 분할 모듈(401)에서 구별된 제1객체 또는 제2 객체를 딥러닝 기술에 의해 탐지하도록 구성될 수 있다.The deep learning object detection module 409 may be configured to detect the first object or the second object distinguished by the semantic segmentation module 401 by deep learning technology.

뼈대 분석 모듈(410)은 딥러닝 객체 탐지 모듈(409)에 의해 탐지된 제1객체에서 뼈대 분석을 실행하도록 구성될 수 있다. 도 4에서와 같이 뼈대 분석에 의해 사람 내지는 침입자를 탐지할 수 있다.The bone analysis module 410 may be configured to perform bone analysis on the first object detected by the deep learning object detection module 409 . As shown in FIG. 4, a person or an intruder may be detected by bone analysis.

객체 추적 모듈(411)은 딥러닝 객체 탐지 모듈(409)에 의해 탐지된 제1객체 중 뼈대 분석 모듈(410)에 의해 뼈대 분석이 실행된 제1객체 및 딥러닝 객체 탐지 모듈(409)에 의해 탐지된 제2 객체를 광학 흐름(optical tracking) 알고리즘을 이용하여 추적하도록 구성될 수 있다. 영상 속의 객체의 이동 내지는 흐름을 이용하여 객체의 이동 방향을 추적할 수 있다. 도 5는 영상 내 가상 감지선을 넘는 객체를 추적하여 월선을 판단하는 영상을 예시하고 있다.The object tracking module 411 uses the first object for which skeleton analysis has been performed by the skeleton analysis module 410 among the first objects detected by the deep learning object detection module 409 and the deep learning object detection module 409. It may be configured to track the detected second object using an optical tracking algorithm. The movement direction of the object may be tracked using the movement or flow of the object in the image. 5 illustrates an image in which a crossing line is determined by tracking an object crossing a virtual detection line in the image.

동일 객체 판단 모듈(412)은 객체 추적 모듈(411)에서 추적되는 제1객체가 동일 객체인지 판단하도록 구성될 수 있다.The same object determination module 412 may be configured to determine whether the first object tracked by the object tracking module 411 is the same object.

월선 판단 모듈(413)은 객체 추적 모듈(411)에서 추적되는 제1객체가 동일 객체 판단 모듈(412)에서 동일 객체로 판단되는 경우, 해당 객체가 경고 구역 가상 검지선 또는 위험 구역 가상 검지선을 월선하는지 판단하도록 구성될 수 있다.When the first object tracked by the object tracking module 411 is determined to be the same object by the same object determination module 412, the crossing line determination module 413 determines whether the object crosses the warning zone virtual detection line or the danger zone virtual detection line. It can be configured to judge.

경고 구역 진입 알람 모듈(414)은 월선 판단 모듈(413)에서 객체가 경고 구역 가상 검지선을 월선하는 것으로 판단되는 경우, 경고 구역 진입 알람을 출력하도록 구성될 수 있다. 도 2에서 침입자가 경고 구역에 존재하면 경고 구역 진입 알람을 출력할 수 있다.The warning zone entry alarm module 414 may be configured to output a warning zone entry alarm when the crossing line determination module 413 determines that an object crosses the warning zone virtual detection line. In FIG. 2 , if an intruder exists in the warning zone, an alarm for entering the warning zone may be output.

위험 구역 진입 알람 모듈(415)은 월선 판단 모듈(413)에서 객체가 위험 구역 가상 검지선을 월선하는 것으로 판단되는 경우, 위험 구역 진입 알람을 출력하도록 구성될 수 있다. 도 2에서 침입자가 위험 구역에 존재하면 위험 구역 진입 알람을 출력할 수 있다.The danger zone entry alarm module 415 may be configured to output a danger zone entry alarm when the crossing line determination module 413 determines that an object crosses the danger zone virtual detection line. In FIG. 2 , if an intruder exists in the danger zone, an alarm for entering the danger zone may be output.

침입 도주 객체 추적 모듈(416)은 월선 판단 모듈(413)에서 제1객체가 위험 구역 가상 검지선 및 경고 구역 가상 검지선을 순차적으로 월선하는 경우, 해당 제1객체를 침입 도주 객체로 판단하여 광학 흐름(optical tracking) 알고리즘을 이용하여 영상 추적하도록 구성될 수 있다. 즉, 침입자가 경고 구역을 거쳐 위험 구역에 침입한 후 도주하는 경우, 다시 위험 구역 가상 검지선을 월선하고 경고 구역 가상 검지선을 월선하게 되는데 이러한 도주하는 침입자를 영상 추적할 수 있다.The trespassing object tracking module 416 determines that the first object is an intruding/flighting object when the first object sequentially crosses the danger zone virtual detection line and the warning zone virtual detection line in the crossing determination module 413, thereby determining the optical flow ( It may be configured to track an image using an optical tracking algorithm. That is, when an intruder enters the danger zone through the warning zone and then escapes, the danger zone virtual detection line is crossed again, and the warning zone virtual detection line is crossed again.

동적 객체 그룹 가상 검지선 자동 설정 모듈(417)은 드론(200)에 의해 생성되는 영상에서 시맨틱 분할 모듈(401)에서 구별된 제2 객체에 대해 동적 객체 그룹 가상 검지선을 자동 설정하도록 구성될 수 있다. 즉, 드론(200)에서 수직 방향에서 영상을 촬영하면, 양떼가 한 무리의 그룹으로 인식될 수 있고, 그 양떼 그룹을 하나의 동적 객체 그룹으로 파악하여 그 외곽에 동적 객체 그룹 가상 검지선을 설정할 수 있다. 양떼의 이동 중에도 실시간 영상 분석에 의해 동적 객체 그룹 가상 검지선을 실시간 설정할 수 있다.The dynamic object group virtual detection line automatic setting module 417 may be configured to automatically set the dynamic object group virtual detection line for the second object distinguished by the semantic segmentation module 401 in the image generated by the drone 200. That is, when the drone 200 captures an image in the vertical direction, the flock can be recognized as a group, and the flock group can be identified as one dynamic object group and a dynamic object group virtual detection line can be set on the periphery. have. Dynamic object group virtual detection lines can be set in real time by real-time video analysis even during the movement of the flock.

드론 구동 제어 모듈(418)은 객체 추적 모듈(411)에 의해 추적되는 제2 객체를 촬영할 수 있도록 드론(200)을 구동 제어하도록 구성될 수 있다. 즉, 객체를 추적하면서 드론(200)이 양떼를 따라 비행하도록 구동 제어할 수 있다.The drone driving control module 418 may be configured to drive and control the drone 200 so as to capture a second object tracked by the object tracking module 411 . That is, the drone 200 may be driven and controlled to fly along the flock while tracking the object.

근거리 객체 간 평균 거리 산출 모듈(419)은 객체 추적 모듈(411)에 의해 추적되는 제2 객체에 대해 소정 기준에 기반한 근거리 객체 간 평균 거리를 산출하도록 구성될 수 있다. 예를 들어, 각각의 양이라는 제2 객체는 주변의 인접 양들과 어느 정도의 거리를 유지할 수 있다. 하나의 양이 주변의 5마리의 양과 어느 정도의 각각의 거리를 유지할 수 있고, 그 각각의 거리의 평균 거리를 산출할 수 있다. 대부분의 양은 떼로 지어 이동하는 경우 평균 거리가 비슷할 수 있다.The average distance between short distance objects calculation module 419 may be configured to calculate the average distance between short distance objects based on a predetermined criterion for the second object tracked by the object tracking module 411 . For example, the second object, each sheep, may maintain some distance from adjacent sheep around it. One sheep can maintain a certain distance from each of the five sheep around it, and the average distance of each distance can be calculated. Most sheep can have similar average distances if traveling in packs.

평균 거리 편차 산출 모듈(420)은 근거리 객체 간 평균 거리 산출 모듈(419)에서 산출된 근거리 객체 간 평균 거리의 편차를 산출하도록 구성될 수 있다.The average distance deviation calculation module 420 may be configured to calculate the deviation of the average distance between short distance objects calculated in the average distance between short distance objects calculation module 419 .

이탈 객체 포착 모듈(421)은 평균 거리 편차 산출 모듈(420)에서 산출된 편차를 기반으로 제2 객체의 동적 객체 그룹을 이탈하는 이탈 객체를 포착하도록 구성될 수 있다. 양이 그룹에서 이탈하고 있는 경우에는 그 양은 무리 중의 양들의 평균 거리보다 훨씬 큰 평균 거리를 가질 수 있다. 이에, 그 평균 거리의 편차가 큰 양을 이탈 객체로 판단할 수 있다.The escaped object capturing module 421 may be configured to capture an escaped object leaving the dynamic object group of the second object based on the deviation calculated by the average distance deviation calculation module 420 . If a sheep is straying from its group, it may have an average distance much greater than the average distance of the sheep in the herd. Accordingly, an amount having a large deviation in the average distance may be determined as an escaped object.

이탈 객체 추적 모듈(422)은 이탈 객체 포착 모듈(421)에서 포착된 이탈 객체를 영상 추적하도록 구성될 수 있다. 이를 통해 이탈한 양을 추적하여 찾을 수 있다.The escaped object tracking module 422 may be configured to track the image of the escaped object captured by the escaped object capture module 421 . This allows you to track and find the amount that strayed.

이와 같이 본 발명은 영상 속의 가상 검지선을 이용하여 외부 침입은 물론 무리 중의 이탈을 감지할 수 있으며, 넓은 국경 영역에서 무단으로 국경을 넘는지를 감시하는 데에도 활용될 수 있다.As described above, the present invention can detect external intrusion as well as departure from a group by using the virtual detection line in the image, and can also be used to monitor unauthorized crossing of the border in a wide border area.

또한, 도 3에서 보듯이 가상 검지선은 특정 영역의 유동 인구를 카운트(count)하는 데에도 활용될 수 있다. 유동 인구 카운트 모듈(미도시)이 객체 추적을 통해 이러한 유동 인구의 카운트를 할 수 있으며, 해당 지역의 상권 파악, 유동 인구 파악 등에 활용할 수 있다.Also, as shown in FIG. 3 , the virtual detection line can be used to count the floating population of a specific area. A floating population counting module (not shown) can count such a floating population through object tracking, and can be used to identify commercial districts and floating population in a corresponding region.

특히, 드론(200)이 수직 방향에서 아래로 넓은 영역 상의 여러 거리를 촬영하는 경우, 유동 인구 검지선 설정 모듈(미도시)이 각각의 거리 별로 유동 인구 검지선을 설정하고, 유동 인구 카운트 모듈(미도시)이 거리 별 및 시간대 별 유동 인구를 카운트할 수 있도록 구성될 수 있다. 이러한 경우, 각각의 거리 별로 시간 대별 유동 인구를 파악하여 상권 파악에 활용할 수 있다. 특히, 각 거리의 상점에 대한 임대료 산정의 객관적 기준이 될 수도 있다.In particular, when the drone 200 shoots several streets on a wide area downward in the vertical direction, a floating population detection line setting module (not shown) sets a floating population detection line for each distance, and a floating population count module (not shown) ) may be configured to count the floating population by distance and by time zone. In this case, it is possible to identify the floating population for each time zone for each street and use it to identify the commercial district. In particular, it can be an objective criterion for calculating rent for shops on each street.

이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described with reference to the above embodiments, those skilled in the art can understand that the present invention can be variously modified and changed without departing from the spirit and scope of the present invention described in the claims below. There will be.

100: 고정 카메라 장치
101: 제1 카메라 모듈
102: 레이더 모듈
103: 카메라 방향 변경 모듈
200: 드론
201: 제2 카메라 모듈
202: 드론 구동 모듈
300: 사용자 단말
400: 영상 분석 서버
401: 시맨틱 분할 실행 모듈
402: 경고 구역 가상 검지선 설정 모듈
403: 위험 구역 가상 검지선 설정 모듈
404: 경고 구역 수평 방향 카메라 각도 설정 모듈
405: 위험 구역 수평 방향 카메라 각도 설정 모듈
406: 카메라 각도 감지 모듈
407: 카메라 각도 기반 경고 구역 가상 검지선 설정 모듈
408: 카메라 각도 기반 위험 구역 가상 검지선 설정 모듈
409: 딥러닝 객체 탐지 모듈
410: 뼈대 분석 모듈
411: 객체 추적 모듈
412: 동일 객체 판단 모듈
413: 월선 판단 모듈
414: 경고 구역 진입 알람 모듈
415: 위험 구역 진입 알람 모듈
416: 침입 도주 객체 추적 모듈
417: 동적 객체 그룹 가상 검지선 자동 설정 모듈
418: 드론 구동 제어 모듈
419: 근거리 객체 간 평균 거리 산출 모듈
420: 평균 거리 편차 산출 모듈
421: 이탈 객체 포착 모듈
422: 이탈 객체 추적 모듈
100: fixed camera device
101: first camera module
102: radar module
103: camera direction change module
200: drone
201: second camera module
202: drone drive module
300: user terminal
400: video analysis server
401: semantic segmentation execution module
402: warning zone virtual detection line setting module
403: Danger zone virtual detection line setting module
404: Warning zone horizontal direction camera angle setting module
405: Danger zone horizontal direction camera angle setting module
406: camera angle detection module
407: Camera angle-based warning zone virtual detection line setting module
408: Camera angle-based danger zone virtual detection line setting module
409: deep learning object detection module
410: skeleton analysis module
411: object tracking module
412: identical object determination module
413: cross-line determination module
414: warning zone entry alarm module
415: Danger zone entry alarm module
416: intrusion escape object tracking module
417: dynamic object group virtual detection line automatic setting module
418: drone driving control module
419: Average distance calculation module between near objects
420: average distance deviation calculation module
421: escape object capture module
422: exit object tracking module

Claims (3)

침입 감지를 위한 영상을 생성하는 고정 카메라 장치;
상기 고정 카메라 장치에 의해 생성되는 영상을 표시하는 사용자 단말;
상기 고정 카메라 장치에 의해 생성되는 영상을 분석하여 침입 감지를 감지하는 상기 영상 분석 서버를 포함하는 영상 내 가상 검지선을 이용한 외부 침입 방지 시스템.
A fixed camera device generating an image for intrusion detection;
a user terminal displaying an image generated by the fixed camera device;
An external intrusion prevention system using a virtual detection line in an image including the video analysis server that analyzes the video generated by the fixed camera device to detect intrusion detection.
제1항에 있어서,
영상을 생성하는 드론을 더 포함하도록 구성되는 것을 특징으로 하는 영상 내 가상 검지선을 이용한 외부 침입 방지 시스템.
According to claim 1,
External intrusion prevention system using a virtual detection line in the image, characterized in that configured to further include a drone that generates an image.
제1항에 있어서, 상기 영상 분석 서버는,
상기 드론에 의해 생성되는 영상을 분석하여 침입을 감지하도록 구성되는 것을 특징으로 하는 영상 내 가상 검지선을 이용한 외부 침입 방지 시스템.
The method of claim 1, wherein the video analysis server,
An external intrusion prevention system using a virtual detection line in the image, characterized in that configured to detect intrusion by analyzing the image generated by the drone.
KR1020210062062A 2021-05-13 2021-05-13 System of peventing external intrusion using virtulal detection line in image KR20220154473A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210062062A KR20220154473A (en) 2021-05-13 2021-05-13 System of peventing external intrusion using virtulal detection line in image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210062062A KR20220154473A (en) 2021-05-13 2021-05-13 System of peventing external intrusion using virtulal detection line in image

Publications (1)

Publication Number Publication Date
KR20220154473A true KR20220154473A (en) 2022-11-22

Family

ID=84236412

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210062062A KR20220154473A (en) 2021-05-13 2021-05-13 System of peventing external intrusion using virtulal detection line in image

Country Status (1)

Country Link
KR (1) KR20220154473A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117470029A (en) * 2023-12-28 2024-01-30 陕西山利科技发展有限责任公司 Unmanned aerial vehicle driving-away method based on accurate target position guidance

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110013724A (en) 2009-08-03 2011-02-10 케이티텔레캅 주식회사 Image data sending system over wireless internet
KR101217611B1 (en) 2011-01-31 2013-01-02 국방과학연구소 Method of image registration based on sub-image and method for detecting of tresspassing using thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110013724A (en) 2009-08-03 2011-02-10 케이티텔레캅 주식회사 Image data sending system over wireless internet
KR101217611B1 (en) 2011-01-31 2013-01-02 국방과학연구소 Method of image registration based on sub-image and method for detecting of tresspassing using thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117470029A (en) * 2023-12-28 2024-01-30 陕西山利科技发展有限责任公司 Unmanned aerial vehicle driving-away method based on accurate target position guidance
CN117470029B (en) * 2023-12-28 2024-03-12 陕西山利科技发展有限责任公司 Unmanned aerial vehicle driving-away method based on accurate target position guidance

Similar Documents

Publication Publication Date Title
US10755108B2 (en) Movement state estimation device, movement state estimation method and program recording medium
US6404455B1 (en) Method for tracking entering object and apparatus for tracking and monitoring entering object
US20160019427A1 (en) Video surveillence system for detecting firearms
JP4984575B2 (en) Intruder detection device by image processing
KR102195706B1 (en) Method and Apparatus for Detecting Intruder
JP2008252519A (en) Image processing apparatus
US10719717B2 (en) Scan face of video feed
US20220351515A1 (en) Method for perceiving event tagging-based situation and system for same
JPWO2008035411A1 (en) Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program
KR101840042B1 (en) Multi-Imaginary Fence Line Setting Method and Trespassing Sensing System
KR20220154473A (en) System of peventing external intrusion using virtulal detection line in image
CN103152558A (en) Intrusion detection method based on scene recognition
RU2534827C2 (en) Method for video surveillance of open space with fire hazard monitoring
CN111144260A (en) Detection method, device and system of crossing gate
JPH07134767A (en) Monitoring device for intrusion of suspicious person
JP2018192844A (en) Monitoring device, monitoring system, monitoring program, and storage medium
KR102445971B1 (en) Video surveillance method and system using radar and camera
CN110827316A (en) Crowd panic scatter detection method and system, readable storage medium and electronic equipment
Foresti et al. Vehicle detection and tracking for traffic monitoring
KR20240036367A (en) Video surveillance method and system using radar and camera
KR102544042B1 (en) Method for providing information of moving object in transportation platform and system thereof
Mosca et al. Human Walking Behavior detection with a RGB-D Sensors Network for Ambient Assisted Living Applications.
Costache et al. Multi-camera video surveillance
Devi et al. Multiple view surveillance using image registration
WO2021059385A1 (en) Space sensing system and space sensing method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right