KR102391852B1 - Method for detecting motion, camera and surveillance system adopting the method - Google Patents

Method for detecting motion, camera and surveillance system adopting the method Download PDF

Info

Publication number
KR102391852B1
KR102391852B1 KR1020150012845A KR20150012845A KR102391852B1 KR 102391852 B1 KR102391852 B1 KR 102391852B1 KR 1020150012845 A KR1020150012845 A KR 1020150012845A KR 20150012845 A KR20150012845 A KR 20150012845A KR 102391852 B1 KR102391852 B1 KR 102391852B1
Authority
KR
South Korea
Prior art keywords
image
pixel
information
screen
width
Prior art date
Application number
KR1020150012845A
Other languages
Korean (ko)
Other versions
KR20160092338A (en
Inventor
송무경
배순민
홍하나
정동환
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020150012845A priority Critical patent/KR102391852B1/en
Publication of KR20160092338A publication Critical patent/KR20160092338A/en
Priority to KR1020220050624A priority patent/KR20220061923A/en
Application granted granted Critical
Publication of KR102391852B1 publication Critical patent/KR102391852B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

감시 대상 화면상에서 특정 대상의 영상의 움직임 영역을 검출하는 움직임 검출 방법으로서, 단계들 (a) 내지 (c)를 포함한다. 단계 (a)에서는, 감시 대상 화면의 각각의 화소에 대하여 특정 대상의 영상의 기준 높이와 기준 폭의 정보가 구해진다. 단계 (b)에서는, 감시 대상 화면상에서 움직임 영역이 검출되면, 특정 대상의 영상의 기준 높이와 기준 폭의 정보에 따라 상기 움직임 영역 내에 상기 특정 대상이 있는지의 여부가 판단된다. 단계 (c)에서는, 상기 움직임 영역 내에 상기 특정 대상이 있다고 판단되면, 검출된 움직임 영역이 감시 대상 화면상에 표시된다.A motion detection method for detecting a motion region of an image of a specific target on a screen to be monitored, including steps (a) to (c). In step (a), information on the reference height and reference width of the image of the specific object is obtained for each pixel of the screen to be monitored. In step (b), when a moving area is detected on the screen to be monitored, it is determined whether the specific object is in the moving area according to the reference height and reference width of the image of the specific object. In step (c), if it is determined that the specific object is in the movement area, the detected movement area is displayed on the monitoring target screen.

Description

움직임 검출 방법, 이 방법을 채용한 카메라 및 감시 시스템{Method for detecting motion, camera and surveillance system adopting the method} Method for detecting motion, camera and surveillance system adopting the method}

본 발명은, 움직임 검출 방법, 이 방법을 채용한 카메라 및 감시 시스템에 관한 것으로서, 보다 상세하게는, 감시 대상 화면상에서 특정 대상의 영상의 움직임 영역을 검출하는 움직임 검출 방법, 이 방법을 채용한 카메라 및 감시 시스템에 관한 것이다.The present invention relates to a motion detection method, a camera and a monitoring system employing the method, and more particularly, to a motion detection method for detecting a motion region of an image of a specific target on a monitoring target screen, and a camera employing the method and to a monitoring system.

카메라 또는 감시 시스템의 호스트 장치는 감시 대상 화면상에서 특정 대상의 영상의 움직임 영역을 검출할 수 있다. 여기에서, 특정 대상의 예로서 사람 또는 자동차 등을 들 수 있다. 움직임 영역이 검출되면, 검출 결과의 움직임 영역이 감시 대상 화면상에서 표시되는 한편, 경보 신호가 출력된다. A camera or a host device of a monitoring system may detect a movement region of an image of a specific target on a screen to be monitored. Here, as an example of a specific object, a person or a vehicle may be mentioned. When a motion area is detected, the motion area of the detection result is displayed on the screen to be monitored, while an alarm signal is output.

이와 같은 움직임 검출 방법으로서, 전후 영상들의 비교 또는 확률적인 모델링 등의 다양한 방법들이 있다. 그럼에도 불구하고 아직까지 검출 오류의 문제점이 남아 있다.As such a motion detection method, there are various methods such as comparison of before and after images or probabilistic modeling. Nevertheless, the problem of detection error still remains.

예를 들어, 감시 대상 화면상에 표시된 움직임 영역은 움직이는 사람의 전체를 포함하지 못하고 일부만을 포함할 수 있다. 또한, 특정 대상으로서 사람의 움직임만을 검출하는 경우, 사람뿐만 아니라 자동차의 움직임도 검출해버리는 오류가 발생하였다.For example, the movement area displayed on the screen to be monitored may include only a part of the moving person, not the whole. In addition, when only the motion of a person is detected as a specific object, an error occurs in that not only the person but also the motion of the vehicle is detected.

상기 배경 기술의 문제점은, 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 내용으로서, 반드시 본 발명의 출원 전에 일반 공중에게 공지된 내용이라 할 수는 없다.The problem with the background art is that the inventor possessed for the purpose of derivation of the present invention or acquired during the derivation process of the present invention, and it cannot necessarily be said that the content is known to the general public prior to the filing of the present invention.

대한민국 공개특허공보 제2014-0106362호 (공개일 : 2014년 9월 3일, 출원인 : 삼성테크윈 주식회사, 서울대학교 산학협력단, 발명의 명칭 : 비정상 움직임 탐지 장치 및 방법).Republic of Korea Patent Publication No. 2014-0106362 (published on September 3, 2014, Applicant: Samsung Techwin Co., Ltd., Seoul National University Industry-Academic Cooperation Foundation, Title of Invention: Abnormal Motion Detection Apparatus and Method).

본 발명의 실시예는, 움직임 검출 오류의 발생 횟수를 줄일 수 있는 움직임 검출 방법, 카메라, 및 감시 시스템을 제공하고자 한다. An embodiment of the present invention is to provide a motion detection method, camera, and monitoring system capable of reducing the number of occurrences of motion detection errors.

본 발명의 일 측면에 따르면, 감시 대상 화면상에서 특정 대상의 영상의 움직임 영역을 검출하는 움직임 검출 방법으로서, 단계들 (a) 내지 (c)를 포함한다.According to one aspect of the present invention, there is provided a motion detection method for detecting a motion region of an image of a specific target on a screen to be monitored, including steps (a) to (c).

상기 단계 (a)에서는, 상기 감시 대상 화면의 각각의 화소에 대하여 상기 특정 대상의 영상의 기준 높이와 기준 폭의 정보가 구해진다. In step (a), information on the reference height and reference width of the image of the specific object is obtained for each pixel of the screen to be monitored.

상기 단계 (b)에서는, 상기 감시 대상 화면상에서 상기 움직임 영역이 검출되면, 상기 특정 대상의 영상의 기준 높이와 기준 폭의 정보에 따라 상기 움직임 영역 내에 상기 특정 대상이 있는지의 여부가 판단된다.In step (b), when the moving area is detected on the monitoring target screen, it is determined whether the specific object is in the moving area according to information on the reference height and reference width of the image of the specific object.

상기 단계 (c)에서는, 상기 움직임 영역 내에 상기 특정 대상이 있다고 판단되면, 상기 검출된 움직임 영역이 상기 감시 대상 화면상에 표시된다.In step (c), if it is determined that the specific target is in the moving area, the detected moving area is displayed on the monitoring target screen.

본 발명의 제2 측면에 따르면, 감시 대상 화면상에서 특정 대상의 영상의 움직임 영역을 검출하는 카메라가 제공될 수 있다. 이 카메라는 상기 움직임 검출 방법을 채용한다. According to the second aspect of the present invention, there may be provided a camera that detects a movement region of an image of a specific target on a screen to be monitored. This camera adopts the above motion detection method.

본 발명의 제3 측면에 따르면, 카메라에 호스트 장치가 연결되고, 상기 호스트 장치가 감시 대상 화면상에서 특정 대상의 영상의 움직임 영역을 검출하는 감시 시스템이 제공될 수 있다. 상기 호스트 장치는 상기 움직임 검출 방법을 채용한다.According to a third aspect of the present invention, there may be provided a monitoring system in which a host device is connected to a camera, and the host device detects a movement region of an image of a specific target on a screen to be monitored. The host device employs the motion detection method.

본 발명의 실시예의 움직임 검출 방법, 이 방법을 채용한 카메라 및 감시 시스템에 의하면, 상기 감시 대상 화면의 각각의 화소에 대하여 상기 특정 대상의 영상의 기준 높이와 기준 폭의 정보가 적용된다. According to the motion detection method of the embodiment of the present invention, the camera and the monitoring system employing the method, information on the reference height and reference width of the image of the specific object is applied to each pixel of the screen to be monitored.

따라서, 카메라와 상기 특정 대상 사이의 거리에 따른 영상의 크기 변화가 움직임 검출 오류의 원인으로 작용할 수 없다. 따라서, 움직임 검출 오류의 발생 횟수가 줄어들 수 있다.Accordingly, a change in the size of an image according to a distance between the camera and the specific object cannot act as a cause of a motion detection error. Accordingly, the number of occurrences of a motion detection error may be reduced.

예를 들어, 움직이는 사람의 일부만을 검출하는 오류의 발생 횟수가 줄어들 수 있다. 또한, 특정 대상으로서 사람의 움직임만을 검출하는 경우, 사람 외의 대상을 검출하는 오류의 발생 횟수가 줄어들 수 있다.For example, the number of occurrences of an error of detecting only a part of a moving person may be reduced. In addition, when only the movement of a person is detected as a specific object, the number of occurrences of an error of detecting an object other than the person may be reduced.

도 1은 본 발명의 일 실시예의 방법을 채용한 카메라 또는 감시 시스템을 보여주는 도면이다.
도 2는 본 발명의 일 실시예의 방법을 설명하기 위한 감시 대상 화면의 도면이다.
도 3은, 본 발명의 일 실시예의 방법에 따라, 도 1의 각각의 카메라 또는 감시 시스템의 호스트 장치에서 수행되는 정보 획득 방법을 보여주는 흐름도이다.
도 4는 도 3의 단계 a2a를 설명하기 위한 도면이다.
도 5는 감시 대상 화면의 각각의 화소에 대하여 특정 대상의 영상의 기준 높이와 기준 폭의 정보가 저장됨을 보여주는 도면이다.
도 6은, 도 1의 각각의 카메라 또는 감시 시스템의 호스트 장치가 도 5의 정보에 따라 움직임을 검출함을 보여주는 흐름도이다.
도 7은 도 5의 정보를 이용하지 않고 움직임을 검출하였을 때에 나타날 수 있는 검출 오류의 제1 예를 보여주는 도면이다.
도 8은 도 5의 정보를 이용함에 따라 도 7의 검출 오류가 발생하지 않음을 보여주는 도면이다.
도 9는 도 5의 정보를 이용하지 않고 움직임을 검출하였을 때에 나타날 수 있는 검출 오류의 제2 예를 보여주는 도면이다.
도 10은 도 5의 정보를 이용함에 따라 도 9의 검출 오류가 발생하지 않음을 보여주는 도면이다.
1 is a diagram showing a camera or surveillance system employing a method according to an embodiment of the present invention.
2 is a diagram of a screen to be monitored for explaining a method according to an embodiment of the present invention.
3 is a flowchart illustrating an information acquisition method performed by each camera or a host device of the surveillance system of FIG. 1 according to a method according to an embodiment of the present invention.
FIG. 4 is a diagram for explaining step a2a of FIG. 3 .
5 is a diagram showing that information on a reference height and reference width of an image of a specific object is stored for each pixel of a screen to be monitored.
6 is a flowchart showing that each camera of FIG. 1 or a host device of the surveillance system detects motion according to the information of FIG. 5 .
FIG. 7 is a diagram illustrating a first example of a detection error that may appear when motion is detected without using the information of FIG. 5 .
FIG. 8 is a diagram showing that the detection error of FIG. 7 does not occur by using the information of FIG. 5 .
9 is a diagram illustrating a second example of a detection error that may appear when motion is detected without using the information of FIG. 5 .
FIG. 10 is a diagram showing that the detection error of FIG. 9 does not occur by using the information of FIG. 5 .

하기의 설명 및 첨부된 도면은 본 발명에 따른 동작을 이해하기 위한 것이며, 본 기술 분야의 통상의 기술자가 용이하게 구현할 수 있는 부분은 생략될 수 있다. 즉, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.The following description and accompanying drawings are for understanding the operation according to the present invention, and parts that can be easily implemented by those skilled in the art may be omitted. That is, in describing the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

또한, 본 명세서 및 도면은 본 발명을 제한하기 위한 목적으로 제공된 것은 아니고, 본 발명의 범위는 청구의 범위에 의하여 정해져야 한다. 본 명세서에서 사용된 용어들은, 본 발명을 가장 적절하게 표현할 수 있도록, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.In addition, the specification and drawings are not provided for the purpose of limiting the present invention, and the scope of the present invention should be defined by the claims. The terms used in this specification should be interpreted with meanings and concepts consistent with the technical idea of the present invention so that the present invention can be most appropriately expressed.

이하 첨부된 도면들을 참조하여 본 발명의 실시예가 상세히 설명된다. 물론, 본 실시예의 움직임 검출 방법은 종래의 다양한 검출 알고리즘과 함께 사용될 수 있다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Of course, the motion detection method of this embodiment can be used together with various conventional detection algorithms.

도 1은 본 발명의 일 실시예의 방법을 채용한 카메라(101a 내지 101n) 또는 감시 시스템(10)을 보여준다.1 shows a camera 101a to 101n or a surveillance system 10 employing the method of an embodiment of the present invention.

도 1을 참조하면, 카메라들(101a 내지 101n)은, 통신 신호들(Sco)을 교환하면서 호스트 장치(102)와 통신하면서, 라이브-뷰(live-view)의 비디오 신호(Svid)를 호스트 장치(102)에 전송한다. Referring to FIG. 1 , cameras 101a to 101n communicate with a host device 102 while exchanging communication signals Sco, and transmit a live-view video signal Svid to the host device. Send to 102.

호스트 장치(102)에서 수신된 비디오 신호(Svid)는, 디스플레이 장치를 통하여 디스플레이되는 한편, 기록 장치 예를 들어, 하드 디스크 드라이브(Hard Disk Drive)에 저장된다. The video signal Svid received by the host device 102 is displayed through a display device and stored in a recording device, for example, a hard disk drive.

여기에서, 본 발명의 일 실시예에 의한 방법은 카메라들(101a 내지 101n) 각각에 의하여 수행되거나, 호스트 장치(102)에 의하여 수행될 수 있다. 즉, 각각의 카메라(101a 내지 101n) 또는 호스트 장치(102)는 감시 대상 화면상에서 특정 대상의 영상의 움직임 영역을 검출한다.Here, the method according to an embodiment of the present invention may be performed by each of the cameras 101a to 101n or may be performed by the host device 102 . That is, each of the cameras 101a to 101n or the host device 102 detects a movement region of an image of a specific target on the monitoring target screen.

이와 관련된 내용이 도 2 내지 10을 참조하여 상세히 설명될 것이다.Contents related thereto will be described in detail with reference to FIGS. 2 to 10 .

도 2는 본 발명의 일 실시예의 방법을 설명하기 위한 감시 대상 화면(201)의 도면이다. 도 2에서 참조 부호 202는 화면상에서의 지평선을, X는 화면상에서의 수평 방향을, Y는 화면상에서의 수직 방향을, 203은 제1 위치에 있는 사람의 영상을, 203e는 지면 착지 지점에 대응하는 화소를, 203b는 화소에 상응하는 기준 대상 영역을, H는 기준 높이를, W는 기준 폭을, D는 지평선과의 거리를, 204는 제2 위치에 있는 사람의 영상을, 204e는 지면 착지 지점에 대응하는 화소를, 그리고 204b는 기준 대상 영역을 각각 가리킨다. 2 is a diagram of a monitoring target screen 201 for explaining a method according to an embodiment of the present invention. In FIG. 2, reference numeral 202 denotes a horizon on the screen, X denotes a horizontal direction on the screen, Y denotes a vertical direction on the screen, 203 denotes an image of a person in the first position, and 203e denotes a ground landing point. , 203b is the reference target area corresponding to the pixel, H is the reference height, W is the reference width, D is the distance to the horizon, 204 is the image of a person in the second position, and 204e is the ground A pixel corresponding to the landing point, and 204b indicate a reference target area, respectively.

도 1 및 2를 참조하여 본 실시예의 움직임 검출 방법을 설명하면 다음과 같다. The motion detection method of the present embodiment will be described with reference to FIGS. 1 and 2 .

각각의 카메라(101a 내지 101n) 또는 호스트 장치(102)에는, 감시 대상 화면(201)의 각각의 화소(203e, 204e 등등)에 대하여 특정 대상의 영상(203, 204)의 기준 높이(H)와 기준 폭(W)의 정보가 저장되어 있다. 본 실시예에서의 특정 대상은 사람이다. 즉, 본 실시예에서는 움직이는 사람을 검출한다. In each of the cameras 101a to 101n or the host device 102, the reference height H of the images 203 and 204 of the specific target for each pixel 203e, 204e, etc. of the monitoring target screen 201, and Information on the reference width W is stored. A specific subject in this embodiment is a person. That is, in this embodiment, a moving person is detected.

각각의 카메라(101a 내지 101n) 또는 호스트 장치(102)는, 감시 대상 화면(201)상에서 움직임 영역을 검출하면, 상기 특정 대상의 영상(203, 204)의 기준 높이(H)와 기준 폭(W)의 정보에 따라 상기 움직임 영역 내에 상기 특정 대상이 있는지의 여부를 판단한다.When each of the cameras 101a to 101n or the host device 102 detects a movement area on the monitoring target screen 201, the reference height H and the reference width W of the images 203 and 204 of the specific target ), it is determined whether the specific object exists in the movement area.

상기 움직임 영역 내에 상기 특정 대상이 있다고 판단되면, 각각의 카메라(101a 내지 101n) 또는 호스트 장치(102)는, 상기 검출된 움직임 영역을 상기 감시 대상 화면상에 표시한 후, 경보 신호를 출력한다.When it is determined that the specific target is in the moving area, each of the cameras 101a to 101n or the host device 102 displays the detected moving area on the monitoring target screen and then outputs an alarm signal.

이와 같은 본 실시예의 움직임 검출 방법, 이 방법을 채용한 카메라(101a 내지 101n) 및 감시 시스템(10)에 의하면, 감시 대상 화면(201)의 각각의 화소(203e, 204e 등등)에 대하여 특정 대상의 영상(203, 204)의 기준 높이(H)와 기준 폭(W)의 정보가 적용된다. 따라서, 카메라(101a 내지 101n)와 특정 대상 사이의 거리에 따른 영상의 크기 변화가 움직임 검출 오류의 원인으로 작용할 수 없다. 따라서, 움직임 검출 오류의 발생 횟수가 줄어들 수 있다.According to the motion detection method of this embodiment, the cameras 101a to 101n and the monitoring system 10 employing this method, a specific target is detected for each pixel 203e, 204e, etc. of the monitoring target screen 201 . Information on the reference height (H) and the reference width (W) of the images 203 and 204 is applied. Accordingly, a change in the size of an image according to a distance between the cameras 101a to 101n and a specific object cannot act as a cause of a motion detection error. Accordingly, the number of occurrences of a motion detection error may be reduced.

예를 들어, 움직이는 사람의 일부만을 검출하는 오류의 발생 횟수가 줄어들 수 있다. 또한, 특정 대상으로서 사람의 움직임만을 검출하는 경우, 사람 외의 대상을 검출하는 오류의 발생 횟수가 줄어들 수 있다.For example, the number of occurrences of an error of detecting only a part of a moving person may be reduced. In addition, when only the movement of a person is detected as a specific object, the number of occurrences of an error of detecting an object other than the person may be reduced.

감시 대상 화면(201)의 각각의 화소(203e, 204e 등등)에 대한 특정 대상의 영상(203, 204)의 기준 높이(H)와 기준 폭(W)의 정보를 구함에 있어서, 감시 대상 화면(201)의 각각의 화소(203e, 204e 등등)를 특정 대상의 영상(203, 204)의 각각의 지면 착지 지점으로 대응시킨다. 여기에서, 어느 한 지면 착지 지점에 대응하는 어느 한 화소는, 특정 대상의 영상(203, 204)의 화소들 중에서 가장 낮은 수직 위치에 존재한다. 즉, 특정 대상의 영상(203, 204)의 화소들 중에서 수직 방향(Y)으로 최하단의 화소가 지면 착지 지점에 대응한다.In obtaining information on the reference height (H) and reference width (W) of the images 203 and 204 of a specific target for each pixel (203e, 204e, etc.) of the monitoring target screen 201, the monitoring target screen ( Each pixel (203e, 204e, etc.) of 201 is matched with each ground landing point of the image (203, 204) of a specific object. Here, any one pixel corresponding to any one ground landing point exists at the lowest vertical position among the pixels of the images 203 and 204 of the specific object. That is, among the pixels of the images 203 and 204 of the specific target, the lowest pixel in the vertical direction (Y) corresponds to the ground landing point.

감시 대상 화면(201)의 각각의 화소(203e, 204e 등등)에 대한 특정 대상의 영상(203, 204)의 기준 높이(H)와 기준 폭(W)의 정보에서는, 화소 개수의 단위가 사용된다.In the information of the reference height (H) and the reference width (W) of the images 203 and 204 of a specific target for each pixel (203e, 204e, etc.) of the monitoring target screen 201, the unit of the number of pixels is used. .

감시 대상 화면(201)의 각각의 화소(203e, 204e 등등)에 대한 특정 대상의 영상(203, 204)의 기준 높이(H)와 기준 폭(W)의 정보를 구함에 있어서, 사용자는 실제로 기준이 되는 특정 대상을 적어도 일 회 촬영한다. 여기에서, 각각의 카메라(101a 내지 101n) 또는 호스트 장치(102)는, 감시 대상 화면(201)의 적어도 제1 화소(예를 들어, 203e)를 특정 대상의 영상(예를 들어, 203)의 적어도 제1 지면 착지 지점이 되게 하여, 상기 적어도 제1 화소(예를 들어, 203e)에 대한 특정 대상의 영상(203)의 기준 높이(H)와 기준 폭(W)의 정보를 구한다.In obtaining information on the reference height (H) and reference width (W) of the images 203 and 204 of the specific target for each pixel (203e, 204e, etc.) of the monitoring target screen 201, the user actually The specific subject that becomes the subject is photographed at least once. Here, each of the cameras 101a to 101n or the host device 102 may display at least a first pixel (eg, 203e) of the monitoring target screen 201 of an image (eg, 203) of the specific target. By making it at least the first ground landing point, information of the reference height H and the reference width W of the image 203 of the specific target for the at least the first pixel (eg, 203e) is obtained.

다음에, 각각의 카메라(101a 내지 101n) 또는 호스트 장치(102)는 상기 적어도 제1 화소(예를 들어, 203e)에 대한 특정 대상의 영상(예를 들어, 203)의 기준 높이(H)와 기준 폭(W)의 정보를 사용하여, 나머지 화소들 각각에 대한 특정 대상의 영상(예를 들어, 204)의 기준 높이(H)와 기준 폭(W)의 정보를 계산한다. 이 계산 과정은 도 3에 도시되어 있다.Next, each of the cameras 101a to 101n or the host device 102 determines the reference height H of the image (eg, 203) of a specific target for the at least the first pixel (eg, 203e) and Using the information on the reference width W, information on the reference height H and reference width W of the image (eg, 204 ) of a specific target for each of the remaining pixels is calculated. This calculation process is shown in FIG. 3 .

도 3은, 본 발명의 일 실시예의 방법에 따라, 도 1의 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)에서 수행되는 정보 획득 방법을 보여준다. 도 2 및 3을 참조하여 이를 설명하면 다음과 같다. FIG. 3 shows an information acquisition method performed by each of the cameras 101a to 101n of FIG. 1 or the host device 102 of the monitoring system according to the method of an embodiment of the present invention. This will be described with reference to FIGS. 2 and 3 as follows.

먼저, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 감시 대상 화면상에서의 지평선(202)을 찾는다(단계 a2a). 이 단계 a2a는 도 4를 참조하여 설명될 것이다.First, each of the cameras 101a to 101n or the host device 102 of the monitoring system searches for the horizon 202 on the monitoring target screen (step a2a). This step a2a will be described with reference to FIG. 4 .

다음에, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 상기 나머지 화소들 각각에 대하여 상기 지평선(202)과의 거리(D)를 구한다(단계 a2b).Next, each of the cameras 101a to 101n or the host device 102 of the monitoring system obtains a distance D from the horizon 202 for each of the remaining pixels (step a2b).

다음에, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는, 상기 적어도 제1 화소(예를 들어, 203e)에 대한 특정 대상의 영상(예를 들어, 203)의 기준 높이(H)와 기준 폭(W)의 정보, 및 상기 나머지 화소들 각각에 대한 지평선(202)과의 거리(D)에 따라, 상기 나머지 화소들 각각에 대한 특정 대상의 영상(예를 들어, 204)의 기준 높이(H)와 기준 폭(W)을 계산한다(단계 a2c). 물론, 계산식은 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)의 특성 등에 따라 다양하게 도출될 수 있다.Next, each of the cameras 101a to 101n or the host device 102 of the monitoring system has a reference height of an image (eg, 203) of a specific target for the at least the first pixel (eg, 203e) According to (H) and the reference width (W) information, and the distance D from the horizon 202 for each of the remaining pixels, an image of a specific target for each of the remaining pixels (eg, 204 ) ), calculate the reference height (H) and the reference width (W) (step a2c). Of course, the calculation formula may be derived in various ways according to the characteristics of each camera 101a to 101n or the host device 102 of the monitoring system.

다음에, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는, 모든 화소들 각각에 대하여 구해진 기준 높이(H)와 기준 폭(W)의 정보를 기록 장치에 저장한다(단계 a2d).Next, each of the cameras 101a to 101n or the host device 102 of the monitoring system stores information of the reference height H and the reference width W obtained for each of all pixels in the recording device (step a2d).

도 4는 도 3의 단계 a2a를 설명하기 위한 도면이다. FIG. 4 is a diagram for explaining step a2a of FIG. 3 .

도 4에서 도 2와 동일한 참조 부호는 동일한 기능의 대상을 가리킨다. 도 4에 참조 부호 203h는 특정 대상의 제1 영상(203)에서 최상단 지점에 대응하는 화소를, 401은 제3 위치에 있는 사람의 영상을, 401e는 지면 착지 지점에 대응하는 화소를, 401h는 특정 대상의 제3 영상(401)에서 최상단 지점에 대응하는 화소를 각각 가리킨다.In FIG. 4 , the same reference numerals as those of FIG. 2 indicate objects having the same function. In Fig. 4, reference numeral 203h denotes a pixel corresponding to the topmost point in the first image 203 of a specific object, 401 denotes an image of a person at a third position, 401e denotes a pixel corresponding to a ground landing point, and 401h denotes a pixel corresponding to the ground landing point. Each of the pixels corresponding to the uppermost point in the third image 401 of a specific target is indicated.

도 3 및 4를 참조하여 단계 a2a의 과정을 상세히 설명하면 다음과 같다. The process of step a2a will be described in detail with reference to FIGS. 3 and 4 as follows.

먼저, 사용자는 일 회 촬영에 의하여 복수의 특정 대상의 영상들(203, 401)을 구한다.First, the user obtains a plurality of images 203 and 401 of a specific target by shooting once.

이에 따라, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는, 복수의 특정 대상의 영상들(203, 401)에서 최상단 지점들에 대응하는 화소들(203h, 401h)을 서로 연결하면서 제1 직선(402)을 구한다.Accordingly, each of the cameras 101a to 101n or the host device 102 of the monitoring system connects the pixels 203h and 401h corresponding to the uppermost points in the plurality of specific target images 203 and 401 to each other. A first straight line 402 is obtained while connecting.

또한, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는, 복수의 특정 대상의 영상들(203, 401)에서 최하단 지점들에 대응하는 화소들(203e, 401e)을 서로 연결하면서 제2 직선(403)을 구한다. In addition, each of the cameras 101a to 101n or the host device 102 of the monitoring system connects the pixels 203e and 401e corresponding to the lowest points in the plurality of specific target images 203 and 401 to each other. while obtaining a second straight line 403 .

그리고, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는, 제1 직선(402)과 제2 직선(403)의 교차 지점의 수직 위치(Y축 위치)를 지평선(202)의 수직 위치(Y축 위치)로 설정한다. Then, each of the cameras 101a to 101n or the host device 102 of the monitoring system sets the vertical position (Y-axis position) of the intersection of the first straight line 402 and the second straight line 403 to the horizon 202 . Set to the vertical position (Y-axis position) of

도 5는 감시 대상 화면(201)의 각각의 화소에 대하여 특정 대상의 영상의 기준 높이와 기준 폭의 정보(501)가 저장됨을 보여준다. 즉, 각각의 화소에 대하여 특정 대상의 영상의 기준 크기 정보(501)가 저장된다.5 shows that information 501 of a reference height and reference width of an image of a specific object is stored for each pixel of the monitoring target screen 201 . That is, reference size information 501 of an image of a specific target is stored for each pixel.

도 5의 어느 한 화소에 대한 기준 크기 정보(501)를 참조하면, 움직임 검출의 특정 대상은 사람이고, 상기 화소에서의 사람의 영상의 기준 폭은 30 개의 화소들이며, 상기 화소에서의 사람의 영상의 기준 높이는 150 개의 화소들이다.Referring to the reference size information 501 for any one pixel in FIG. 5 , a specific target of motion detection is a person, the reference width of the human image in the pixel is 30 pixels, and the human image in the pixel The reference height of is 150 pixels.

도 6은, 도 1의 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)가 도 5의 정보에 따라 움직임을 검출함을 보여준다. 이를 설명하면 다음과 같다.FIG. 6 shows that each of the cameras 101a to 101n of FIG. 1 or the host device 102 of the monitoring system detects motion according to the information of FIG. 5 . This is explained as follows.

각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 특정 대상의 영상의 움직임 영역이 검출되었는지를 판단한다(단계 S601). 움직임 영역이 검출되었으면, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 아래의 단계들 S603 내지 S613을 수행한다.Each of the cameras 101a to 101n or the host device 102 of the monitoring system determines whether a motion region of an image of a specific target is detected (step S601). When the motion region is detected, each of the cameras 101a to 101n or the host device 102 of the monitoring system performs the following steps S603 to S613.

단계 S603에 있어서, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 특정 대상의 영상의 화소들 중에서 가장 낮은 수직 위치에 존재하는 화소를 찾는다. 즉, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 움직임이 검출된 특정 대상의 영상의 지면 착지 지점에 대응하는 화소를 찾는다.In step S603, each of the cameras 101a to 101n or the host device 102 of the monitoring system searches for a pixel existing at the lowest vertical position among pixels of an image of a specific target. That is, each of the cameras 101a to 101n or the host device 102 of the monitoring system searches for a pixel corresponding to a ground landing point of an image of a specific target whose motion is detected.

다음에, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 찾아진 화소에 상응하는 기준 높이(도 2에서의 H)와 기준 폭(도 2에서의 W)의 정보를 읽는다(단계 S605).Next, each of the cameras 101a to 101n or the host device 102 of the monitoring system reads information of the reference height (H in Fig. 2) and the reference width (W in Fig. 2) corresponding to the found pixel. (Step S605).

다음에, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 움직임이 검출된 특정 대상의 영상의 높이와 기준 높이의 차이를 구한다. 또한, 구해진 높이 차이가 설정 값보다 큰지의 여부를 판단한다(단계 S607). Next, each of the cameras 101a to 101n or the host device 102 of the monitoring system obtains a difference between the height of the image of the specific target whose motion is detected and the reference height. In addition, it is determined whether the obtained height difference is greater than a set value (step S607).

구해진 높이 차이가 설정 값보다 크면, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 움직임이 검출된 대상이 특정 대상이 아니라고 판단하여 단계 S615를 수행한다. If the obtained height difference is greater than the set value, each of the cameras 101a to 101n or the host device 102 of the monitoring system determines that the motion-detected target is not a specific target and performs step S615.

구해진 높이 차이가 설정 값보다 크지 않으면, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 아래의 단계들 S609 내지 S613을 수행한다. If the obtained height difference is not greater than the set value, each of the cameras 101a to 101n or the host device 102 of the monitoring system performs the following steps S609 to S613.

단계 S609에 있어서, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 움직임이 검출된 특정 대상의 영상의 폭과 기준 폭의 차이를 구한다. 또한, 구해진 폭 차이가 설정 값보다 큰지의 여부를 판단한다(단계 S609). In step S609, each of the cameras 101a to 101n or the host device 102 of the monitoring system obtains a difference between the width of the image of the specific object whose motion is detected and the reference width. Further, it is determined whether or not the obtained width difference is larger than a set value (step S609).

구해진 폭 차이가 설정 값보다 크면, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 움직임이 검출된 대상이 특정 대상이 아니라고 판단하여 단계 S615를 수행한다. If the obtained width difference is greater than the set value, each of the cameras 101a to 101n or the host device 102 of the monitoring system determines that the motion-detected target is not a specific target and performs step S615.

구해진 폭 차이가 설정 값보다 크지 않으면, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 아래의 단계들 S611 및 S613을 수행한다. 즉, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는, 검출된 움직임 영역을 감시 대상 화면상에 표시한 후(단계 S611), 경보 신호를 출력한다(단계 S613).If the obtained width difference is not greater than the set value, each of the cameras 101a to 101n or the host device 102 of the monitoring system performs the following steps S611 and S613. That is, each of the cameras 101a to 101n or the host device 102 of the monitoring system displays the detected motion area on the monitoring target screen (step S611), and then outputs an alarm signal (step S613).

상기 단계들 S601 내지 S613은 종료 신호가 발생될 때까지 반복적으로 수행된다(단계 S615).Steps S601 to S613 are repeatedly performed until an end signal is generated (step S615).

도 7은 도 5의 정보를 이용하지 않고 움직임을 검출하였을 때에 나타날 수 있는 검출 오류의 제1 예를 보여준다. 도 8은 도 5의 정보를 이용함에 따라 도 7의 검출 오류가 발생하지 않음을 보여준다. FIG. 7 shows a first example of a detection error that may appear when motion is detected without using the information of FIG. 5 . FIG. 8 shows that the detection error of FIG. 7 does not occur by using the information of FIG. 5 .

도 7 및 8에서 참조 부호 201은 감시 대상 화면을 가리킨다. 도 7에서 참조 부호 701은 잘못 검출된 움직임 영역을 가리킨다. 도 8에서 참조 부호 801은 잘 검출된 움직임 영역을 가리킨다.7 and 8, reference numeral 201 denotes a screen to be monitored. In FIG. 7 , reference numeral 701 denotes an erroneously detected motion region. In FIG. 8 , reference numeral 801 denotes a well-detected motion region.

도 7 및 8을 참조하면 알 수 있는 바와 같이, 도 5의 위치 별 크기 정보를 이용할 경우, 움직이는 사람의 일부만을 검출하는 오류의 발생 횟수가 줄어들 수 있다. As can be seen with reference to FIGS. 7 and 8 , when the size information for each location of FIG. 5 is used, the number of occurrences of an error of detecting only a part of a moving person can be reduced.

도 9는 도 5의 정보를 이용하지 않고 움직임을 검출하였을 때에 나타날 수 있는 검출 오류의 제2 예를 보여준다. 도 10은 도 5의 정보를 이용함에 따라 도 9의 검출 오류가 발생하지 않음을 보여준다.FIG. 9 shows a second example of a detection error that may appear when motion is detected without using the information of FIG. 5 . FIG. 10 shows that the detection error of FIG. 9 does not occur by using the information of FIG. 5 .

도 9 및 10에서 참조 부호 201은 감시 대상 화면을 가리킨다. 도 9에서 참조 부호 901은 잘 검출된 움직임 영역을, 그리고 902는 잘못 검출된 움직임 영역을 각각 가리킨다. 도 10에서 참조 부호 1001은 잘 검출된 움직임 영역을 가리킨다.9 and 10, reference numeral 201 denotes a screen to be monitored. In FIG. 9 , reference numeral 901 denotes a well-detected motion region and 902 denotes an erroneously-detected motion region, respectively. In FIG. 10, reference numeral 1001 denotes a well-detected motion region.

도 9 및 10을 참조하면 알 수 있는 바와 같이, 도 5의 위치 별 크기 정보를 이용할 경우, 특정 대상인 사람 외의 대상을 검출하는 오류의 발생 횟수가 줄어들 수 있다.As can be seen with reference to FIGS. 9 and 10 , when the size information for each location of FIG. 5 is used, the number of occurrences of an error in detecting an object other than a person, which is a specific object, may be reduced.

이상 설명된 바와 같이, 본 발명에 따른 실시예의 움직임 검출 방법, 이 방법을 채용한 카메라 및 감시 시스템에 의하면, 감시 대상 화면의 각각의 화소에 대하여 특정 대상의 영상의 기준 높이와 기준 폭의 정보가 적용된다. As described above, according to the motion detection method of the embodiment according to the present invention, the camera and the monitoring system employing the method, information on the reference height and reference width of the image of a specific object is obtained for each pixel of the screen to be monitored. applies.

따라서, 카메라와 특정 대상 사이의 거리에 따른 영상의 크기 변화가 움직임 검출 오류의 원인으로 작용할 수 없다. 따라서, 움직임 검출 오류의 발생 횟수가 줄어들 수 있다.Accordingly, a change in the size of an image according to the distance between the camera and a specific object cannot act as a cause of a motion detection error. Accordingly, the number of occurrences of a motion detection error may be reduced.

예를 들어, 움직이는 사람의 일부만을 검출하는 오류의 발생 횟수가 줄어들 수 있다. 또한, 특정 대상으로서 사람의 움직임만을 검출하는 경우, 사람 외의 대상을 검출하는 오류의 발생 횟수가 줄어들 수 있다.For example, the number of occurrences of an error of detecting only a part of a moving person may be reduced. In addition, when only the motion of a person is detected as a specific object, the number of occurrences of an error of detecting an object other than the person may be reduced.

이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. So far, the present invention has been focused on preferred embodiments. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention can be implemented in modified forms without departing from the essential characteristics of the present invention.

그러므로 상기 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 특허청구범위에 의해 청구된 발명 및 청구된 발명과 균등한 발명들은 본 발명에 포함된 것으로 해석되어야 한다.Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the above description, and the invention claimed by the claims and inventions equivalent to the claimed invention should be construed as being included in the present invention.

움직임 검출 뿐만 아니라 특정 대상의 인식 자체에도 이용될 가능성이 높다.It is highly likely to be used not only for motion detection but also for recognition of a specific object.

101a 내지 101n : 카메라들, 102 : 호스트 장치,
201 : 감시 대상 화면, 202 : 화면상에서의 지평선,
X : 화면상에서의 수평 방향, Y : 화면상에서의 수직 방향,
203 : 제1 위치에 있는 사람의 영상,
203e : 지면 착지 지점에 대응하는 화소,
203b : 기준 대상 영역, H : 기준 높이,
W : 기준 폭, D : 지평선과의 거리,
204 : 제2 위치에 있는 사람의 영상,
204e : 지면 착지 지점에 대응하는 화소,
204b : 기준 대상 영역,
203h : 최상단 지점에 대응하는 화소,
401 : 제3 위치에 있는 사람의 영상,
401e : 지면 착지 지점에 대응하는 화소,
401h : 최상단 지점에 대응하는 화소,
501 : 한 화소에 대한 기준 크기 정보,
701, 902 : 잘못 검출된 움직임 영역들,
801, 901, 1001 : 잘 검출된 움직임 영역들.
101a to 101n: cameras, 102: a host device;
201: monitoring target screen, 202: horizon on the screen,
X : Horizontal direction on the screen, Y : Vertical direction on the screen,
203: an image of a person in the first position;
203e: a pixel corresponding to the ground landing point;
203b: reference target area, H: reference height,
W: reference width, D: distance from the horizon,
204: an image of a person in the second position;
204e: a pixel corresponding to the ground landing point;
204b: reference target area;
203h: the pixel corresponding to the topmost point;
401: an image of a person in a third position;
401e: a pixel corresponding to the ground landing point;
401h: the pixel corresponding to the topmost point;
501: reference size information for one pixel;
701, 902: erroneously detected motion regions;
801, 901, 1001: well-detected motion regions.

Claims (6)

감시 대상 화면상에서 특정 대상의 영상의 움직임 영역을 검출하는 움직임 검출 방법에 있어서,
(a) 상기 감시 대상 화면의 각각의 화소에 대하여 상기 특정 대상의 영상의 기준 높이와 기준 폭의 정보를 저장하는 단계;
(b) 상기 감시 대상 화면상에서 상기 움직임 영역을 검출하면, 움직임이 검출된 특정 대상의 영상의 가장 낮은 수직 위치에 존재하는 화소를 찾는 단계로서,
상기 가장 낮은 수직 위치에 존재하는 화소는 상기 특정 대상의 영상의 화소들 중에서 지면 착지 지점에 대응하는 수직 방향으로 최하단의 화소인, 단계;
(c) 상기 감시 대상 화면의 각각의 화소 중에서 상기 가장 낮은 수직 위치의 화소에 대응되는 화소의 기준 높이와 기준 폭의 정보를 읽는 단계;
(d) 상기 움직임이 검출된 특정 대상의 영상의 높이와 상기 읽은 기준 높이와의 높이 차이 및 상기 움직임이 검출된 특정 대상의 영상의 폭과 상기 읽은 기준 폭과의 폭 차이를 구하는 단계;
(e) 상기 구한 높이 차이가 제1 설정 값보다 크거나 상기 구한 폭 차이가 제2 설정 값보다 크면 상기 검출된 움직임 영역이 상기 특정 대상의 움직임 영역이 아닌 것으로 판단하는 단계를 포함한, 움직임 검출 방법.
A motion detection method for detecting a motion region of an image of a specific target on a monitoring target screen, the method comprising:
(a) storing information of a reference height and a reference width of the image of the specific target for each pixel of the monitoring target screen;
(b) when the motion region is detected on the monitoring target screen, finding a pixel present in the lowest vertical position of an image of a specific target for which motion is detected,
the pixel present in the lowest vertical position is the lowest pixel in the vertical direction corresponding to the ground landing point among the pixels of the image of the specific target;
(c) reading information on a reference height and a reference width of a pixel corresponding to the lowest vertical position among pixels of the monitoring target screen;
(d) obtaining a height difference between the height of the image of the specific object in which the movement is detected and the read reference height and a difference in width between the width of the image of the specific object in which the movement is detected and the read reference width;
(e) determining that the detected movement area is not the movement area of the specific object if the obtained height difference is greater than a first set value or the obtained width difference is greater than a second set value .
제1항에 있어서, 상기 단계 (a)에서,
상기 감시 대상 화면의 각각의 화소를 상기 특정 대상의 영상의 각각의 지면 착지 지점으로 대응시킴에 의하여, 상기 감시 대상 화면의 각각의 화소에 대한 상기 특정 대상의 영상의 기준 높이와 기준 폭의 정보가 구해지는, 움직임 검출 방법.
The method of claim 1, wherein in step (a),
By associating each pixel of the monitoring target screen with each ground landing point of the specific target image, information on the reference height and reference width of the specific target image for each pixel of the monitoring target screen is obtained. A motion detection method obtained.
제2항에 있어서, 상기 단계 (a)에서,
상기 감시 대상 화면의 각각의 화소에 대한 상기 특정 대상의 영상의 기준 높이와 기준 폭의 정보에서는,
화소 개수의 단위가 사용되고,
상기 감시 대상 화면의 각각의 화소를 상기 특정 대상의 영상의 각각의 지면 착지 지점으로 대응시킴에 있어서,
어느 한 지면 착지 지점에 대응하는 어느 한 화소는, 상기 특정 대상의 영상의 화소들 중에서 가장 낮은 수직 위치에 존재하는, 움직임 검출 방법.
The method of claim 2, wherein in step (a),
In the information of the reference height and reference width of the image of the specific target for each pixel of the monitoring target screen,
The unit of number of pixels is used,
In matching each pixel of the monitoring target screen to each ground landing point of the image of the specific target,
Any one pixel corresponding to any one ground landing point exists in the lowest vertical position among the pixels of the image of the specific object.
제1항에 있어서,
상기 단계 (a)에서, 상기 감시 대상 화면의 각각의 화소에 대한 상기 특정 대상의 영상의 기준 높이와 기준 폭의 정보를 저장함에 있어서,
(a1) 상기 감시 대상 화면의 적어도 제1 화소를 상기 특정 대상의 영상의 적어도 제1 지면 착지 지점이 되게 하여, 상기 적어도 제1 화소에 대한 상기 특정 대상의 영상의 기준 높이와 기준 폭의 정보를 구함; 및
(a2) 상기 적어도 제1 화소에 대한 상기 특정 대상의 영상의 기준 높이와 기준 폭의 정보를 사용하여, 나머지 화소들 각각에 대한 상기 특정 대상의 영상의 기준 높이와 기준 폭의 정보를 계산함;이 수행되고,
상기 단계 (a2)는,
(a2a) 상기 감시 대상 화면상에서의 지평선을 찾음;
(a2b) 상기 나머지 화소들 각각에 대하여 상기 지평선과의 거리를 구함; 및
(a2c) 상기 적어도 제1 화소에 대한 상기 특정 대상의 영상의 기준 높이와 기준 폭의 정보, 및 상기 나머지 화소들 각각에 대한 상기 지평선과의 거리에 따라, 상기 나머지 화소들 각각에 대한 상기 특정 대상의 영상의 기준 높이와 기준 폭을 계산함;을 포함한, 움직임 검출 방법.
The method of claim 1,
In the step (a), in storing the information of the reference height and reference width of the image of the specific target for each pixel of the monitoring target screen,
(a1) at least the first pixel of the monitoring target screen becomes at least a first ground landing point of the image of the specific target, and information of the reference height and reference width of the image of the specific target for the at least the first pixel wanted; and
(a2) calculating information on the reference height and reference width of the image of the specific object for each of the remaining pixels by using the information on the reference height and the reference width of the image of the specific object for the at least the first pixel; This is done,
The step (a2) is,
(a2a) finding a horizon on the screen to be monitored;
(a2b) obtaining a distance from the horizon for each of the remaining pixels; and
(a2c) the specific target for each of the remaining pixels according to information on the reference height and reference width of the image of the specific target for the at least the first pixel, and the distance from the horizon for each of the remaining pixels Including; calculating the reference height and reference width of the image of the motion detection method.
삭제delete 삭제delete
KR1020150012845A 2015-01-27 2015-01-27 Method for detecting motion, camera and surveillance system adopting the method KR102391852B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150012845A KR102391852B1 (en) 2015-01-27 2015-01-27 Method for detecting motion, camera and surveillance system adopting the method
KR1020220050624A KR20220061923A (en) 2015-01-27 2022-04-25 Method for detecting motion, camera and surveillance system adopting the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150012845A KR102391852B1 (en) 2015-01-27 2015-01-27 Method for detecting motion, camera and surveillance system adopting the method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220050624A Division KR20220061923A (en) 2015-01-27 2022-04-25 Method for detecting motion, camera and surveillance system adopting the method

Publications (2)

Publication Number Publication Date
KR20160092338A KR20160092338A (en) 2016-08-04
KR102391852B1 true KR102391852B1 (en) 2022-04-28

Family

ID=56709406

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020150012845A KR102391852B1 (en) 2015-01-27 2015-01-27 Method for detecting motion, camera and surveillance system adopting the method
KR1020220050624A KR20220061923A (en) 2015-01-27 2022-04-25 Method for detecting motion, camera and surveillance system adopting the method

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220050624A KR20220061923A (en) 2015-01-27 2022-04-25 Method for detecting motion, camera and surveillance system adopting the method

Country Status (1)

Country Link
KR (2) KR102391852B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007208745A (en) 2006-02-02 2007-08-16 Victor Co Of Japan Ltd Monitoring device and monitoring method
JP2012128693A (en) * 2010-12-15 2012-07-05 Canon Inc Video processing device, video processing method and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101243294B1 (en) * 2011-05-19 2013-03-13 수원대학교산학협력단 Method and apparatus for extracting and tracking moving objects
KR101758684B1 (en) * 2012-07-23 2017-07-14 한화테크윈 주식회사 Apparatus and method for tracking object
KR102035184B1 (en) 2013-02-25 2019-11-08 한화테크윈 주식회사 Method and Apparatus for detecting abnormal behavior
KR101469099B1 (en) * 2013-03-19 2014-12-04 주식회사 일리시스 Auto-Camera Calibration Method Based on Human Object Tracking

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007208745A (en) 2006-02-02 2007-08-16 Victor Co Of Japan Ltd Monitoring device and monitoring method
JP2012128693A (en) * 2010-12-15 2012-07-05 Canon Inc Video processing device, video processing method and program

Also Published As

Publication number Publication date
KR20160092338A (en) 2016-08-04
KR20220061923A (en) 2022-05-13

Similar Documents

Publication Publication Date Title
JP4488804B2 (en) Stereo image association method and three-dimensional data creation apparatus
US8836760B2 (en) Image reproducing apparatus, image capturing apparatus, and control method therefor
CN107005655B (en) Image processing method
JP6273352B2 (en) Object detection apparatus, object detection method, and mobile robot
US8994785B2 (en) Method for generating video data and image photographing device thereof
US8792681B2 (en) Imaging system and imaging method
US20190318594A1 (en) Display control apparatus, display control method, camera system, control method for camera system, and storage medium
KR102211496B1 (en) Event detection system of blackbox for vehicle and method for event detection
US9589192B2 (en) Information processing system, information processing method, and program
US9984300B2 (en) Image processing system, image processing method, and program
JP6551226B2 (en) INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM
EP2907298B1 (en) Image processing device and image processing method
US20170039430A1 (en) Setting apparatus and setting method
JP6658519B2 (en) Information processing apparatus, information processing system, control method of information processing apparatus, and program
CN105313775A (en) Around view monitoring video image apparatus and method thereof
WO2016021147A1 (en) Image processing system for detecting retention of moving body from image, image processing method, and recording medium
US20130266177A1 (en) Method and Device for Detecting an Object in an Image
KR101212082B1 (en) Image Recognition Apparatus and Vison Monitoring Method thereof
US9154693B2 (en) Photographing control apparatus and photographing control method
JP5600220B2 (en) 3D measuring device
KR102366522B1 (en) Method for detecting object and surveillance system adopting the method
KR101025133B1 (en) Video surveillance system and video surveillance method thereof
US9418443B2 (en) Apparatus and method for detecting obstacle
JP2010124028A (en) Monitoring apparatus
KR102391852B1 (en) Method for detecting motion, camera and surveillance system adopting the method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant