KR102391852B1 - Method for detecting motion, camera and surveillance system adopting the method - Google Patents
Method for detecting motion, camera and surveillance system adopting the method Download PDFInfo
- Publication number
- KR102391852B1 KR102391852B1 KR1020150012845A KR20150012845A KR102391852B1 KR 102391852 B1 KR102391852 B1 KR 102391852B1 KR 1020150012845 A KR1020150012845 A KR 1020150012845A KR 20150012845 A KR20150012845 A KR 20150012845A KR 102391852 B1 KR102391852 B1 KR 102391852B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- pixel
- information
- screen
- width
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 25
- 238000012544 monitoring process Methods 0.000 claims abstract description 59
- 238000001514 detection method Methods 0.000 claims abstract description 37
- 238000010586 diagram Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 206010047571 Visual impairment Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Health & Medical Sciences (AREA)
- Geometry (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
감시 대상 화면상에서 특정 대상의 영상의 움직임 영역을 검출하는 움직임 검출 방법으로서, 단계들 (a) 내지 (c)를 포함한다. 단계 (a)에서는, 감시 대상 화면의 각각의 화소에 대하여 특정 대상의 영상의 기준 높이와 기준 폭의 정보가 구해진다. 단계 (b)에서는, 감시 대상 화면상에서 움직임 영역이 검출되면, 특정 대상의 영상의 기준 높이와 기준 폭의 정보에 따라 상기 움직임 영역 내에 상기 특정 대상이 있는지의 여부가 판단된다. 단계 (c)에서는, 상기 움직임 영역 내에 상기 특정 대상이 있다고 판단되면, 검출된 움직임 영역이 감시 대상 화면상에 표시된다.A motion detection method for detecting a motion region of an image of a specific target on a screen to be monitored, including steps (a) to (c). In step (a), information on the reference height and reference width of the image of the specific object is obtained for each pixel of the screen to be monitored. In step (b), when a moving area is detected on the screen to be monitored, it is determined whether the specific object is in the moving area according to the reference height and reference width of the image of the specific object. In step (c), if it is determined that the specific object is in the movement area, the detected movement area is displayed on the monitoring target screen.
Description
본 발명은, 움직임 검출 방법, 이 방법을 채용한 카메라 및 감시 시스템에 관한 것으로서, 보다 상세하게는, 감시 대상 화면상에서 특정 대상의 영상의 움직임 영역을 검출하는 움직임 검출 방법, 이 방법을 채용한 카메라 및 감시 시스템에 관한 것이다.The present invention relates to a motion detection method, a camera and a monitoring system employing the method, and more particularly, to a motion detection method for detecting a motion region of an image of a specific target on a monitoring target screen, and a camera employing the method and to a monitoring system.
카메라 또는 감시 시스템의 호스트 장치는 감시 대상 화면상에서 특정 대상의 영상의 움직임 영역을 검출할 수 있다. 여기에서, 특정 대상의 예로서 사람 또는 자동차 등을 들 수 있다. 움직임 영역이 검출되면, 검출 결과의 움직임 영역이 감시 대상 화면상에서 표시되는 한편, 경보 신호가 출력된다. A camera or a host device of a monitoring system may detect a movement region of an image of a specific target on a screen to be monitored. Here, as an example of a specific object, a person or a vehicle may be mentioned. When a motion area is detected, the motion area of the detection result is displayed on the screen to be monitored, while an alarm signal is output.
이와 같은 움직임 검출 방법으로서, 전후 영상들의 비교 또는 확률적인 모델링 등의 다양한 방법들이 있다. 그럼에도 불구하고 아직까지 검출 오류의 문제점이 남아 있다.As such a motion detection method, there are various methods such as comparison of before and after images or probabilistic modeling. Nevertheless, the problem of detection error still remains.
예를 들어, 감시 대상 화면상에 표시된 움직임 영역은 움직이는 사람의 전체를 포함하지 못하고 일부만을 포함할 수 있다. 또한, 특정 대상으로서 사람의 움직임만을 검출하는 경우, 사람뿐만 아니라 자동차의 움직임도 검출해버리는 오류가 발생하였다.For example, the movement area displayed on the screen to be monitored may include only a part of the moving person, not the whole. In addition, when only the motion of a person is detected as a specific object, an error occurs in that not only the person but also the motion of the vehicle is detected.
상기 배경 기술의 문제점은, 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 내용으로서, 반드시 본 발명의 출원 전에 일반 공중에게 공지된 내용이라 할 수는 없다.The problem with the background art is that the inventor possessed for the purpose of derivation of the present invention or acquired during the derivation process of the present invention, and it cannot necessarily be said that the content is known to the general public prior to the filing of the present invention.
본 발명의 실시예는, 움직임 검출 오류의 발생 횟수를 줄일 수 있는 움직임 검출 방법, 카메라, 및 감시 시스템을 제공하고자 한다. An embodiment of the present invention is to provide a motion detection method, camera, and monitoring system capable of reducing the number of occurrences of motion detection errors.
본 발명의 일 측면에 따르면, 감시 대상 화면상에서 특정 대상의 영상의 움직임 영역을 검출하는 움직임 검출 방법으로서, 단계들 (a) 내지 (c)를 포함한다.According to one aspect of the present invention, there is provided a motion detection method for detecting a motion region of an image of a specific target on a screen to be monitored, including steps (a) to (c).
상기 단계 (a)에서는, 상기 감시 대상 화면의 각각의 화소에 대하여 상기 특정 대상의 영상의 기준 높이와 기준 폭의 정보가 구해진다. In step (a), information on the reference height and reference width of the image of the specific object is obtained for each pixel of the screen to be monitored.
상기 단계 (b)에서는, 상기 감시 대상 화면상에서 상기 움직임 영역이 검출되면, 상기 특정 대상의 영상의 기준 높이와 기준 폭의 정보에 따라 상기 움직임 영역 내에 상기 특정 대상이 있는지의 여부가 판단된다.In step (b), when the moving area is detected on the monitoring target screen, it is determined whether the specific object is in the moving area according to information on the reference height and reference width of the image of the specific object.
상기 단계 (c)에서는, 상기 움직임 영역 내에 상기 특정 대상이 있다고 판단되면, 상기 검출된 움직임 영역이 상기 감시 대상 화면상에 표시된다.In step (c), if it is determined that the specific target is in the moving area, the detected moving area is displayed on the monitoring target screen.
본 발명의 제2 측면에 따르면, 감시 대상 화면상에서 특정 대상의 영상의 움직임 영역을 검출하는 카메라가 제공될 수 있다. 이 카메라는 상기 움직임 검출 방법을 채용한다. According to the second aspect of the present invention, there may be provided a camera that detects a movement region of an image of a specific target on a screen to be monitored. This camera adopts the above motion detection method.
본 발명의 제3 측면에 따르면, 카메라에 호스트 장치가 연결되고, 상기 호스트 장치가 감시 대상 화면상에서 특정 대상의 영상의 움직임 영역을 검출하는 감시 시스템이 제공될 수 있다. 상기 호스트 장치는 상기 움직임 검출 방법을 채용한다.According to a third aspect of the present invention, there may be provided a monitoring system in which a host device is connected to a camera, and the host device detects a movement region of an image of a specific target on a screen to be monitored. The host device employs the motion detection method.
본 발명의 실시예의 움직임 검출 방법, 이 방법을 채용한 카메라 및 감시 시스템에 의하면, 상기 감시 대상 화면의 각각의 화소에 대하여 상기 특정 대상의 영상의 기준 높이와 기준 폭의 정보가 적용된다. According to the motion detection method of the embodiment of the present invention, the camera and the monitoring system employing the method, information on the reference height and reference width of the image of the specific object is applied to each pixel of the screen to be monitored.
따라서, 카메라와 상기 특정 대상 사이의 거리에 따른 영상의 크기 변화가 움직임 검출 오류의 원인으로 작용할 수 없다. 따라서, 움직임 검출 오류의 발생 횟수가 줄어들 수 있다.Accordingly, a change in the size of an image according to a distance between the camera and the specific object cannot act as a cause of a motion detection error. Accordingly, the number of occurrences of a motion detection error may be reduced.
예를 들어, 움직이는 사람의 일부만을 검출하는 오류의 발생 횟수가 줄어들 수 있다. 또한, 특정 대상으로서 사람의 움직임만을 검출하는 경우, 사람 외의 대상을 검출하는 오류의 발생 횟수가 줄어들 수 있다.For example, the number of occurrences of an error of detecting only a part of a moving person may be reduced. In addition, when only the movement of a person is detected as a specific object, the number of occurrences of an error of detecting an object other than the person may be reduced.
도 1은 본 발명의 일 실시예의 방법을 채용한 카메라 또는 감시 시스템을 보여주는 도면이다.
도 2는 본 발명의 일 실시예의 방법을 설명하기 위한 감시 대상 화면의 도면이다.
도 3은, 본 발명의 일 실시예의 방법에 따라, 도 1의 각각의 카메라 또는 감시 시스템의 호스트 장치에서 수행되는 정보 획득 방법을 보여주는 흐름도이다.
도 4는 도 3의 단계 a2a를 설명하기 위한 도면이다.
도 5는 감시 대상 화면의 각각의 화소에 대하여 특정 대상의 영상의 기준 높이와 기준 폭의 정보가 저장됨을 보여주는 도면이다.
도 6은, 도 1의 각각의 카메라 또는 감시 시스템의 호스트 장치가 도 5의 정보에 따라 움직임을 검출함을 보여주는 흐름도이다.
도 7은 도 5의 정보를 이용하지 않고 움직임을 검출하였을 때에 나타날 수 있는 검출 오류의 제1 예를 보여주는 도면이다.
도 8은 도 5의 정보를 이용함에 따라 도 7의 검출 오류가 발생하지 않음을 보여주는 도면이다.
도 9는 도 5의 정보를 이용하지 않고 움직임을 검출하였을 때에 나타날 수 있는 검출 오류의 제2 예를 보여주는 도면이다.
도 10은 도 5의 정보를 이용함에 따라 도 9의 검출 오류가 발생하지 않음을 보여주는 도면이다.1 is a diagram showing a camera or surveillance system employing a method according to an embodiment of the present invention.
2 is a diagram of a screen to be monitored for explaining a method according to an embodiment of the present invention.
3 is a flowchart illustrating an information acquisition method performed by each camera or a host device of the surveillance system of FIG. 1 according to a method according to an embodiment of the present invention.
FIG. 4 is a diagram for explaining step a2a of FIG. 3 .
5 is a diagram showing that information on a reference height and reference width of an image of a specific object is stored for each pixel of a screen to be monitored.
6 is a flowchart showing that each camera of FIG. 1 or a host device of the surveillance system detects motion according to the information of FIG. 5 .
FIG. 7 is a diagram illustrating a first example of a detection error that may appear when motion is detected without using the information of FIG. 5 .
FIG. 8 is a diagram showing that the detection error of FIG. 7 does not occur by using the information of FIG. 5 .
9 is a diagram illustrating a second example of a detection error that may appear when motion is detected without using the information of FIG. 5 .
FIG. 10 is a diagram showing that the detection error of FIG. 9 does not occur by using the information of FIG. 5 .
하기의 설명 및 첨부된 도면은 본 발명에 따른 동작을 이해하기 위한 것이며, 본 기술 분야의 통상의 기술자가 용이하게 구현할 수 있는 부분은 생략될 수 있다. 즉, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.The following description and accompanying drawings are for understanding the operation according to the present invention, and parts that can be easily implemented by those skilled in the art may be omitted. That is, in describing the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.
또한, 본 명세서 및 도면은 본 발명을 제한하기 위한 목적으로 제공된 것은 아니고, 본 발명의 범위는 청구의 범위에 의하여 정해져야 한다. 본 명세서에서 사용된 용어들은, 본 발명을 가장 적절하게 표현할 수 있도록, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.In addition, the specification and drawings are not provided for the purpose of limiting the present invention, and the scope of the present invention should be defined by the claims. The terms used in this specification should be interpreted with meanings and concepts consistent with the technical idea of the present invention so that the present invention can be most appropriately expressed.
이하 첨부된 도면들을 참조하여 본 발명의 실시예가 상세히 설명된다. 물론, 본 실시예의 움직임 검출 방법은 종래의 다양한 검출 알고리즘과 함께 사용될 수 있다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Of course, the motion detection method of this embodiment can be used together with various conventional detection algorithms.
도 1은 본 발명의 일 실시예의 방법을 채용한 카메라(101a 내지 101n) 또는 감시 시스템(10)을 보여준다.1 shows a
도 1을 참조하면, 카메라들(101a 내지 101n)은, 통신 신호들(Sco)을 교환하면서 호스트 장치(102)와 통신하면서, 라이브-뷰(live-view)의 비디오 신호(Svid)를 호스트 장치(102)에 전송한다. Referring to FIG. 1 ,
호스트 장치(102)에서 수신된 비디오 신호(Svid)는, 디스플레이 장치를 통하여 디스플레이되는 한편, 기록 장치 예를 들어, 하드 디스크 드라이브(Hard Disk Drive)에 저장된다. The video signal Svid received by the
여기에서, 본 발명의 일 실시예에 의한 방법은 카메라들(101a 내지 101n) 각각에 의하여 수행되거나, 호스트 장치(102)에 의하여 수행될 수 있다. 즉, 각각의 카메라(101a 내지 101n) 또는 호스트 장치(102)는 감시 대상 화면상에서 특정 대상의 영상의 움직임 영역을 검출한다.Here, the method according to an embodiment of the present invention may be performed by each of the
이와 관련된 내용이 도 2 내지 10을 참조하여 상세히 설명될 것이다.Contents related thereto will be described in detail with reference to FIGS. 2 to 10 .
도 2는 본 발명의 일 실시예의 방법을 설명하기 위한 감시 대상 화면(201)의 도면이다. 도 2에서 참조 부호 202는 화면상에서의 지평선을, X는 화면상에서의 수평 방향을, Y는 화면상에서의 수직 방향을, 203은 제1 위치에 있는 사람의 영상을, 203e는 지면 착지 지점에 대응하는 화소를, 203b는 화소에 상응하는 기준 대상 영역을, H는 기준 높이를, W는 기준 폭을, D는 지평선과의 거리를, 204는 제2 위치에 있는 사람의 영상을, 204e는 지면 착지 지점에 대응하는 화소를, 그리고 204b는 기준 대상 영역을 각각 가리킨다. 2 is a diagram of a
도 1 및 2를 참조하여 본 실시예의 움직임 검출 방법을 설명하면 다음과 같다. The motion detection method of the present embodiment will be described with reference to FIGS. 1 and 2 .
각각의 카메라(101a 내지 101n) 또는 호스트 장치(102)에는, 감시 대상 화면(201)의 각각의 화소(203e, 204e 등등)에 대하여 특정 대상의 영상(203, 204)의 기준 높이(H)와 기준 폭(W)의 정보가 저장되어 있다. 본 실시예에서의 특정 대상은 사람이다. 즉, 본 실시예에서는 움직이는 사람을 검출한다. In each of the
각각의 카메라(101a 내지 101n) 또는 호스트 장치(102)는, 감시 대상 화면(201)상에서 움직임 영역을 검출하면, 상기 특정 대상의 영상(203, 204)의 기준 높이(H)와 기준 폭(W)의 정보에 따라 상기 움직임 영역 내에 상기 특정 대상이 있는지의 여부를 판단한다.When each of the
상기 움직임 영역 내에 상기 특정 대상이 있다고 판단되면, 각각의 카메라(101a 내지 101n) 또는 호스트 장치(102)는, 상기 검출된 움직임 영역을 상기 감시 대상 화면상에 표시한 후, 경보 신호를 출력한다.When it is determined that the specific target is in the moving area, each of the
이와 같은 본 실시예의 움직임 검출 방법, 이 방법을 채용한 카메라(101a 내지 101n) 및 감시 시스템(10)에 의하면, 감시 대상 화면(201)의 각각의 화소(203e, 204e 등등)에 대하여 특정 대상의 영상(203, 204)의 기준 높이(H)와 기준 폭(W)의 정보가 적용된다. 따라서, 카메라(101a 내지 101n)와 특정 대상 사이의 거리에 따른 영상의 크기 변화가 움직임 검출 오류의 원인으로 작용할 수 없다. 따라서, 움직임 검출 오류의 발생 횟수가 줄어들 수 있다.According to the motion detection method of this embodiment, the
예를 들어, 움직이는 사람의 일부만을 검출하는 오류의 발생 횟수가 줄어들 수 있다. 또한, 특정 대상으로서 사람의 움직임만을 검출하는 경우, 사람 외의 대상을 검출하는 오류의 발생 횟수가 줄어들 수 있다.For example, the number of occurrences of an error of detecting only a part of a moving person may be reduced. In addition, when only the movement of a person is detected as a specific object, the number of occurrences of an error of detecting an object other than the person may be reduced.
감시 대상 화면(201)의 각각의 화소(203e, 204e 등등)에 대한 특정 대상의 영상(203, 204)의 기준 높이(H)와 기준 폭(W)의 정보를 구함에 있어서, 감시 대상 화면(201)의 각각의 화소(203e, 204e 등등)를 특정 대상의 영상(203, 204)의 각각의 지면 착지 지점으로 대응시킨다. 여기에서, 어느 한 지면 착지 지점에 대응하는 어느 한 화소는, 특정 대상의 영상(203, 204)의 화소들 중에서 가장 낮은 수직 위치에 존재한다. 즉, 특정 대상의 영상(203, 204)의 화소들 중에서 수직 방향(Y)으로 최하단의 화소가 지면 착지 지점에 대응한다.In obtaining information on the reference height (H) and reference width (W) of the
감시 대상 화면(201)의 각각의 화소(203e, 204e 등등)에 대한 특정 대상의 영상(203, 204)의 기준 높이(H)와 기준 폭(W)의 정보에서는, 화소 개수의 단위가 사용된다.In the information of the reference height (H) and the reference width (W) of the
감시 대상 화면(201)의 각각의 화소(203e, 204e 등등)에 대한 특정 대상의 영상(203, 204)의 기준 높이(H)와 기준 폭(W)의 정보를 구함에 있어서, 사용자는 실제로 기준이 되는 특정 대상을 적어도 일 회 촬영한다. 여기에서, 각각의 카메라(101a 내지 101n) 또는 호스트 장치(102)는, 감시 대상 화면(201)의 적어도 제1 화소(예를 들어, 203e)를 특정 대상의 영상(예를 들어, 203)의 적어도 제1 지면 착지 지점이 되게 하여, 상기 적어도 제1 화소(예를 들어, 203e)에 대한 특정 대상의 영상(203)의 기준 높이(H)와 기준 폭(W)의 정보를 구한다.In obtaining information on the reference height (H) and reference width (W) of the
다음에, 각각의 카메라(101a 내지 101n) 또는 호스트 장치(102)는 상기 적어도 제1 화소(예를 들어, 203e)에 대한 특정 대상의 영상(예를 들어, 203)의 기준 높이(H)와 기준 폭(W)의 정보를 사용하여, 나머지 화소들 각각에 대한 특정 대상의 영상(예를 들어, 204)의 기준 높이(H)와 기준 폭(W)의 정보를 계산한다. 이 계산 과정은 도 3에 도시되어 있다.Next, each of the
도 3은, 본 발명의 일 실시예의 방법에 따라, 도 1의 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)에서 수행되는 정보 획득 방법을 보여준다. 도 2 및 3을 참조하여 이를 설명하면 다음과 같다. FIG. 3 shows an information acquisition method performed by each of the
먼저, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 감시 대상 화면상에서의 지평선(202)을 찾는다(단계 a2a). 이 단계 a2a는 도 4를 참조하여 설명될 것이다.First, each of the
다음에, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 상기 나머지 화소들 각각에 대하여 상기 지평선(202)과의 거리(D)를 구한다(단계 a2b).Next, each of the
다음에, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는, 상기 적어도 제1 화소(예를 들어, 203e)에 대한 특정 대상의 영상(예를 들어, 203)의 기준 높이(H)와 기준 폭(W)의 정보, 및 상기 나머지 화소들 각각에 대한 지평선(202)과의 거리(D)에 따라, 상기 나머지 화소들 각각에 대한 특정 대상의 영상(예를 들어, 204)의 기준 높이(H)와 기준 폭(W)을 계산한다(단계 a2c). 물론, 계산식은 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)의 특성 등에 따라 다양하게 도출될 수 있다.Next, each of the
다음에, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는, 모든 화소들 각각에 대하여 구해진 기준 높이(H)와 기준 폭(W)의 정보를 기록 장치에 저장한다(단계 a2d).Next, each of the
도 4는 도 3의 단계 a2a를 설명하기 위한 도면이다. FIG. 4 is a diagram for explaining step a2a of FIG. 3 .
도 4에서 도 2와 동일한 참조 부호는 동일한 기능의 대상을 가리킨다. 도 4에 참조 부호 203h는 특정 대상의 제1 영상(203)에서 최상단 지점에 대응하는 화소를, 401은 제3 위치에 있는 사람의 영상을, 401e는 지면 착지 지점에 대응하는 화소를, 401h는 특정 대상의 제3 영상(401)에서 최상단 지점에 대응하는 화소를 각각 가리킨다.In FIG. 4 , the same reference numerals as those of FIG. 2 indicate objects having the same function. In Fig. 4,
도 3 및 4를 참조하여 단계 a2a의 과정을 상세히 설명하면 다음과 같다. The process of step a2a will be described in detail with reference to FIGS. 3 and 4 as follows.
먼저, 사용자는 일 회 촬영에 의하여 복수의 특정 대상의 영상들(203, 401)을 구한다.First, the user obtains a plurality of
이에 따라, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는, 복수의 특정 대상의 영상들(203, 401)에서 최상단 지점들에 대응하는 화소들(203h, 401h)을 서로 연결하면서 제1 직선(402)을 구한다.Accordingly, each of the
또한, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는, 복수의 특정 대상의 영상들(203, 401)에서 최하단 지점들에 대응하는 화소들(203e, 401e)을 서로 연결하면서 제2 직선(403)을 구한다. In addition, each of the
그리고, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는, 제1 직선(402)과 제2 직선(403)의 교차 지점의 수직 위치(Y축 위치)를 지평선(202)의 수직 위치(Y축 위치)로 설정한다. Then, each of the
도 5는 감시 대상 화면(201)의 각각의 화소에 대하여 특정 대상의 영상의 기준 높이와 기준 폭의 정보(501)가 저장됨을 보여준다. 즉, 각각의 화소에 대하여 특정 대상의 영상의 기준 크기 정보(501)가 저장된다.5 shows that
도 5의 어느 한 화소에 대한 기준 크기 정보(501)를 참조하면, 움직임 검출의 특정 대상은 사람이고, 상기 화소에서의 사람의 영상의 기준 폭은 30 개의 화소들이며, 상기 화소에서의 사람의 영상의 기준 높이는 150 개의 화소들이다.Referring to the
도 6은, 도 1의 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)가 도 5의 정보에 따라 움직임을 검출함을 보여준다. 이를 설명하면 다음과 같다.FIG. 6 shows that each of the
각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 특정 대상의 영상의 움직임 영역이 검출되었는지를 판단한다(단계 S601). 움직임 영역이 검출되었으면, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 아래의 단계들 S603 내지 S613을 수행한다.Each of the
단계 S603에 있어서, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 특정 대상의 영상의 화소들 중에서 가장 낮은 수직 위치에 존재하는 화소를 찾는다. 즉, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 움직임이 검출된 특정 대상의 영상의 지면 착지 지점에 대응하는 화소를 찾는다.In step S603, each of the
다음에, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 찾아진 화소에 상응하는 기준 높이(도 2에서의 H)와 기준 폭(도 2에서의 W)의 정보를 읽는다(단계 S605).Next, each of the
다음에, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 움직임이 검출된 특정 대상의 영상의 높이와 기준 높이의 차이를 구한다. 또한, 구해진 높이 차이가 설정 값보다 큰지의 여부를 판단한다(단계 S607). Next, each of the
구해진 높이 차이가 설정 값보다 크면, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 움직임이 검출된 대상이 특정 대상이 아니라고 판단하여 단계 S615를 수행한다. If the obtained height difference is greater than the set value, each of the
구해진 높이 차이가 설정 값보다 크지 않으면, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 아래의 단계들 S609 내지 S613을 수행한다. If the obtained height difference is not greater than the set value, each of the
단계 S609에 있어서, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 움직임이 검출된 특정 대상의 영상의 폭과 기준 폭의 차이를 구한다. 또한, 구해진 폭 차이가 설정 값보다 큰지의 여부를 판단한다(단계 S609). In step S609, each of the
구해진 폭 차이가 설정 값보다 크면, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 움직임이 검출된 대상이 특정 대상이 아니라고 판단하여 단계 S615를 수행한다. If the obtained width difference is greater than the set value, each of the
구해진 폭 차이가 설정 값보다 크지 않으면, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는 아래의 단계들 S611 및 S613을 수행한다. 즉, 각각의 카메라(101a 내지 101n) 또는 감시 시스템의 호스트 장치(102)는, 검출된 움직임 영역을 감시 대상 화면상에 표시한 후(단계 S611), 경보 신호를 출력한다(단계 S613).If the obtained width difference is not greater than the set value, each of the
상기 단계들 S601 내지 S613은 종료 신호가 발생될 때까지 반복적으로 수행된다(단계 S615).Steps S601 to S613 are repeatedly performed until an end signal is generated (step S615).
도 7은 도 5의 정보를 이용하지 않고 움직임을 검출하였을 때에 나타날 수 있는 검출 오류의 제1 예를 보여준다. 도 8은 도 5의 정보를 이용함에 따라 도 7의 검출 오류가 발생하지 않음을 보여준다. FIG. 7 shows a first example of a detection error that may appear when motion is detected without using the information of FIG. 5 . FIG. 8 shows that the detection error of FIG. 7 does not occur by using the information of FIG. 5 .
도 7 및 8에서 참조 부호 201은 감시 대상 화면을 가리킨다. 도 7에서 참조 부호 701은 잘못 검출된 움직임 영역을 가리킨다. 도 8에서 참조 부호 801은 잘 검출된 움직임 영역을 가리킨다.7 and 8,
도 7 및 8을 참조하면 알 수 있는 바와 같이, 도 5의 위치 별 크기 정보를 이용할 경우, 움직이는 사람의 일부만을 검출하는 오류의 발생 횟수가 줄어들 수 있다. As can be seen with reference to FIGS. 7 and 8 , when the size information for each location of FIG. 5 is used, the number of occurrences of an error of detecting only a part of a moving person can be reduced.
도 9는 도 5의 정보를 이용하지 않고 움직임을 검출하였을 때에 나타날 수 있는 검출 오류의 제2 예를 보여준다. 도 10은 도 5의 정보를 이용함에 따라 도 9의 검출 오류가 발생하지 않음을 보여준다.FIG. 9 shows a second example of a detection error that may appear when motion is detected without using the information of FIG. 5 . FIG. 10 shows that the detection error of FIG. 9 does not occur by using the information of FIG. 5 .
도 9 및 10에서 참조 부호 201은 감시 대상 화면을 가리킨다. 도 9에서 참조 부호 901은 잘 검출된 움직임 영역을, 그리고 902는 잘못 검출된 움직임 영역을 각각 가리킨다. 도 10에서 참조 부호 1001은 잘 검출된 움직임 영역을 가리킨다.9 and 10,
도 9 및 10을 참조하면 알 수 있는 바와 같이, 도 5의 위치 별 크기 정보를 이용할 경우, 특정 대상인 사람 외의 대상을 검출하는 오류의 발생 횟수가 줄어들 수 있다.As can be seen with reference to FIGS. 9 and 10 , when the size information for each location of FIG. 5 is used, the number of occurrences of an error in detecting an object other than a person, which is a specific object, may be reduced.
이상 설명된 바와 같이, 본 발명에 따른 실시예의 움직임 검출 방법, 이 방법을 채용한 카메라 및 감시 시스템에 의하면, 감시 대상 화면의 각각의 화소에 대하여 특정 대상의 영상의 기준 높이와 기준 폭의 정보가 적용된다. As described above, according to the motion detection method of the embodiment according to the present invention, the camera and the monitoring system employing the method, information on the reference height and reference width of the image of a specific object is obtained for each pixel of the screen to be monitored. applies.
따라서, 카메라와 특정 대상 사이의 거리에 따른 영상의 크기 변화가 움직임 검출 오류의 원인으로 작용할 수 없다. 따라서, 움직임 검출 오류의 발생 횟수가 줄어들 수 있다.Accordingly, a change in the size of an image according to the distance between the camera and a specific object cannot act as a cause of a motion detection error. Accordingly, the number of occurrences of a motion detection error may be reduced.
예를 들어, 움직이는 사람의 일부만을 검출하는 오류의 발생 횟수가 줄어들 수 있다. 또한, 특정 대상으로서 사람의 움직임만을 검출하는 경우, 사람 외의 대상을 검출하는 오류의 발생 횟수가 줄어들 수 있다.For example, the number of occurrences of an error of detecting only a part of a moving person may be reduced. In addition, when only the motion of a person is detected as a specific object, the number of occurrences of an error of detecting an object other than the person may be reduced.
이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. So far, the present invention has been focused on preferred embodiments. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention can be implemented in modified forms without departing from the essential characteristics of the present invention.
그러므로 상기 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 특허청구범위에 의해 청구된 발명 및 청구된 발명과 균등한 발명들은 본 발명에 포함된 것으로 해석되어야 한다.Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the above description, and the invention claimed by the claims and inventions equivalent to the claimed invention should be construed as being included in the present invention.
움직임 검출 뿐만 아니라 특정 대상의 인식 자체에도 이용될 가능성이 높다.It is highly likely to be used not only for motion detection but also for recognition of a specific object.
101a 내지 101n : 카메라들, 102 : 호스트 장치,
201 : 감시 대상 화면, 202 : 화면상에서의 지평선,
X : 화면상에서의 수평 방향, Y : 화면상에서의 수직 방향,
203 : 제1 위치에 있는 사람의 영상,
203e : 지면 착지 지점에 대응하는 화소,
203b : 기준 대상 영역, H : 기준 높이,
W : 기준 폭, D : 지평선과의 거리,
204 : 제2 위치에 있는 사람의 영상,
204e : 지면 착지 지점에 대응하는 화소,
204b : 기준 대상 영역,
203h : 최상단 지점에 대응하는 화소,
401 : 제3 위치에 있는 사람의 영상,
401e : 지면 착지 지점에 대응하는 화소,
401h : 최상단 지점에 대응하는 화소,
501 : 한 화소에 대한 기준 크기 정보,
701, 902 : 잘못 검출된 움직임 영역들,
801, 901, 1001 : 잘 검출된 움직임 영역들.101a to 101n: cameras, 102: a host device;
201: monitoring target screen, 202: horizon on the screen,
X : Horizontal direction on the screen, Y : Vertical direction on the screen,
203: an image of a person in the first position;
203e: a pixel corresponding to the ground landing point;
203b: reference target area, H: reference height,
W: reference width, D: distance from the horizon,
204: an image of a person in the second position;
204e: a pixel corresponding to the ground landing point;
204b: reference target area;
203h: the pixel corresponding to the topmost point;
401: an image of a person in a third position;
401e: a pixel corresponding to the ground landing point;
401h: the pixel corresponding to the topmost point;
501: reference size information for one pixel;
701, 902: erroneously detected motion regions;
801, 901, 1001: well-detected motion regions.
Claims (6)
(a) 상기 감시 대상 화면의 각각의 화소에 대하여 상기 특정 대상의 영상의 기준 높이와 기준 폭의 정보를 저장하는 단계;
(b) 상기 감시 대상 화면상에서 상기 움직임 영역을 검출하면, 움직임이 검출된 특정 대상의 영상의 가장 낮은 수직 위치에 존재하는 화소를 찾는 단계로서,
상기 가장 낮은 수직 위치에 존재하는 화소는 상기 특정 대상의 영상의 화소들 중에서 지면 착지 지점에 대응하는 수직 방향으로 최하단의 화소인, 단계;
(c) 상기 감시 대상 화면의 각각의 화소 중에서 상기 가장 낮은 수직 위치의 화소에 대응되는 화소의 기준 높이와 기준 폭의 정보를 읽는 단계;
(d) 상기 움직임이 검출된 특정 대상의 영상의 높이와 상기 읽은 기준 높이와의 높이 차이 및 상기 움직임이 검출된 특정 대상의 영상의 폭과 상기 읽은 기준 폭과의 폭 차이를 구하는 단계;
(e) 상기 구한 높이 차이가 제1 설정 값보다 크거나 상기 구한 폭 차이가 제2 설정 값보다 크면 상기 검출된 움직임 영역이 상기 특정 대상의 움직임 영역이 아닌 것으로 판단하는 단계를 포함한, 움직임 검출 방법.A motion detection method for detecting a motion region of an image of a specific target on a monitoring target screen, the method comprising:
(a) storing information of a reference height and a reference width of the image of the specific target for each pixel of the monitoring target screen;
(b) when the motion region is detected on the monitoring target screen, finding a pixel present in the lowest vertical position of an image of a specific target for which motion is detected,
the pixel present in the lowest vertical position is the lowest pixel in the vertical direction corresponding to the ground landing point among the pixels of the image of the specific target;
(c) reading information on a reference height and a reference width of a pixel corresponding to the lowest vertical position among pixels of the monitoring target screen;
(d) obtaining a height difference between the height of the image of the specific object in which the movement is detected and the read reference height and a difference in width between the width of the image of the specific object in which the movement is detected and the read reference width;
(e) determining that the detected movement area is not the movement area of the specific object if the obtained height difference is greater than a first set value or the obtained width difference is greater than a second set value .
상기 감시 대상 화면의 각각의 화소를 상기 특정 대상의 영상의 각각의 지면 착지 지점으로 대응시킴에 의하여, 상기 감시 대상 화면의 각각의 화소에 대한 상기 특정 대상의 영상의 기준 높이와 기준 폭의 정보가 구해지는, 움직임 검출 방법. The method of claim 1, wherein in step (a),
By associating each pixel of the monitoring target screen with each ground landing point of the specific target image, information on the reference height and reference width of the specific target image for each pixel of the monitoring target screen is obtained. A motion detection method obtained.
상기 감시 대상 화면의 각각의 화소에 대한 상기 특정 대상의 영상의 기준 높이와 기준 폭의 정보에서는,
화소 개수의 단위가 사용되고,
상기 감시 대상 화면의 각각의 화소를 상기 특정 대상의 영상의 각각의 지면 착지 지점으로 대응시킴에 있어서,
어느 한 지면 착지 지점에 대응하는 어느 한 화소는, 상기 특정 대상의 영상의 화소들 중에서 가장 낮은 수직 위치에 존재하는, 움직임 검출 방법. The method of claim 2, wherein in step (a),
In the information of the reference height and reference width of the image of the specific target for each pixel of the monitoring target screen,
The unit of number of pixels is used,
In matching each pixel of the monitoring target screen to each ground landing point of the image of the specific target,
Any one pixel corresponding to any one ground landing point exists in the lowest vertical position among the pixels of the image of the specific object.
상기 단계 (a)에서, 상기 감시 대상 화면의 각각의 화소에 대한 상기 특정 대상의 영상의 기준 높이와 기준 폭의 정보를 저장함에 있어서,
(a1) 상기 감시 대상 화면의 적어도 제1 화소를 상기 특정 대상의 영상의 적어도 제1 지면 착지 지점이 되게 하여, 상기 적어도 제1 화소에 대한 상기 특정 대상의 영상의 기준 높이와 기준 폭의 정보를 구함; 및
(a2) 상기 적어도 제1 화소에 대한 상기 특정 대상의 영상의 기준 높이와 기준 폭의 정보를 사용하여, 나머지 화소들 각각에 대한 상기 특정 대상의 영상의 기준 높이와 기준 폭의 정보를 계산함;이 수행되고,
상기 단계 (a2)는,
(a2a) 상기 감시 대상 화면상에서의 지평선을 찾음;
(a2b) 상기 나머지 화소들 각각에 대하여 상기 지평선과의 거리를 구함; 및
(a2c) 상기 적어도 제1 화소에 대한 상기 특정 대상의 영상의 기준 높이와 기준 폭의 정보, 및 상기 나머지 화소들 각각에 대한 상기 지평선과의 거리에 따라, 상기 나머지 화소들 각각에 대한 상기 특정 대상의 영상의 기준 높이와 기준 폭을 계산함;을 포함한, 움직임 검출 방법. The method of claim 1,
In the step (a), in storing the information of the reference height and reference width of the image of the specific target for each pixel of the monitoring target screen,
(a1) at least the first pixel of the monitoring target screen becomes at least a first ground landing point of the image of the specific target, and information of the reference height and reference width of the image of the specific target for the at least the first pixel wanted; and
(a2) calculating information on the reference height and reference width of the image of the specific object for each of the remaining pixels by using the information on the reference height and the reference width of the image of the specific object for the at least the first pixel; This is done,
The step (a2) is,
(a2a) finding a horizon on the screen to be monitored;
(a2b) obtaining a distance from the horizon for each of the remaining pixels; and
(a2c) the specific target for each of the remaining pixels according to information on the reference height and reference width of the image of the specific target for the at least the first pixel, and the distance from the horizon for each of the remaining pixels Including; calculating the reference height and reference width of the image of the motion detection method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150012845A KR102391852B1 (en) | 2015-01-27 | 2015-01-27 | Method for detecting motion, camera and surveillance system adopting the method |
KR1020220050624A KR20220061923A (en) | 2015-01-27 | 2022-04-25 | Method for detecting motion, camera and surveillance system adopting the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150012845A KR102391852B1 (en) | 2015-01-27 | 2015-01-27 | Method for detecting motion, camera and surveillance system adopting the method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220050624A Division KR20220061923A (en) | 2015-01-27 | 2022-04-25 | Method for detecting motion, camera and surveillance system adopting the method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160092338A KR20160092338A (en) | 2016-08-04 |
KR102391852B1 true KR102391852B1 (en) | 2022-04-28 |
Family
ID=56709406
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150012845A KR102391852B1 (en) | 2015-01-27 | 2015-01-27 | Method for detecting motion, camera and surveillance system adopting the method |
KR1020220050624A KR20220061923A (en) | 2015-01-27 | 2022-04-25 | Method for detecting motion, camera and surveillance system adopting the method |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220050624A KR20220061923A (en) | 2015-01-27 | 2022-04-25 | Method for detecting motion, camera and surveillance system adopting the method |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR102391852B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007208745A (en) | 2006-02-02 | 2007-08-16 | Victor Co Of Japan Ltd | Monitoring device and monitoring method |
JP2012128693A (en) * | 2010-12-15 | 2012-07-05 | Canon Inc | Video processing device, video processing method and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101243294B1 (en) * | 2011-05-19 | 2013-03-13 | 수원대학교산학협력단 | Method and apparatus for extracting and tracking moving objects |
KR101758684B1 (en) * | 2012-07-23 | 2017-07-14 | 한화테크윈 주식회사 | Apparatus and method for tracking object |
KR102035184B1 (en) | 2013-02-25 | 2019-11-08 | 한화테크윈 주식회사 | Method and Apparatus for detecting abnormal behavior |
KR101469099B1 (en) * | 2013-03-19 | 2014-12-04 | 주식회사 일리시스 | Auto-Camera Calibration Method Based on Human Object Tracking |
-
2015
- 2015-01-27 KR KR1020150012845A patent/KR102391852B1/en active IP Right Grant
-
2022
- 2022-04-25 KR KR1020220050624A patent/KR20220061923A/en not_active IP Right Cessation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007208745A (en) | 2006-02-02 | 2007-08-16 | Victor Co Of Japan Ltd | Monitoring device and monitoring method |
JP2012128693A (en) * | 2010-12-15 | 2012-07-05 | Canon Inc | Video processing device, video processing method and program |
Also Published As
Publication number | Publication date |
---|---|
KR20160092338A (en) | 2016-08-04 |
KR20220061923A (en) | 2022-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4488804B2 (en) | Stereo image association method and three-dimensional data creation apparatus | |
US8836760B2 (en) | Image reproducing apparatus, image capturing apparatus, and control method therefor | |
CN107005655B (en) | Image processing method | |
JP6273352B2 (en) | Object detection apparatus, object detection method, and mobile robot | |
US8994785B2 (en) | Method for generating video data and image photographing device thereof | |
US8792681B2 (en) | Imaging system and imaging method | |
US20190318594A1 (en) | Display control apparatus, display control method, camera system, control method for camera system, and storage medium | |
KR102211496B1 (en) | Event detection system of blackbox for vehicle and method for event detection | |
US9589192B2 (en) | Information processing system, information processing method, and program | |
US9984300B2 (en) | Image processing system, image processing method, and program | |
JP6551226B2 (en) | INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM | |
EP2907298B1 (en) | Image processing device and image processing method | |
US20170039430A1 (en) | Setting apparatus and setting method | |
JP6658519B2 (en) | Information processing apparatus, information processing system, control method of information processing apparatus, and program | |
CN105313775A (en) | Around view monitoring video image apparatus and method thereof | |
WO2016021147A1 (en) | Image processing system for detecting retention of moving body from image, image processing method, and recording medium | |
US20130266177A1 (en) | Method and Device for Detecting an Object in an Image | |
KR101212082B1 (en) | Image Recognition Apparatus and Vison Monitoring Method thereof | |
US9154693B2 (en) | Photographing control apparatus and photographing control method | |
JP5600220B2 (en) | 3D measuring device | |
KR102366522B1 (en) | Method for detecting object and surveillance system adopting the method | |
KR101025133B1 (en) | Video surveillance system and video surveillance method thereof | |
US9418443B2 (en) | Apparatus and method for detecting obstacle | |
JP2010124028A (en) | Monitoring apparatus | |
KR102391852B1 (en) | Method for detecting motion, camera and surveillance system adopting the method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |