KR101640563B1 - Method and system for dectecting run - Google Patents

Method and system for dectecting run Download PDF

Info

Publication number
KR101640563B1
KR101640563B1 KR1020140114460A KR20140114460A KR101640563B1 KR 101640563 B1 KR101640563 B1 KR 101640563B1 KR 1020140114460 A KR1020140114460 A KR 1020140114460A KR 20140114460 A KR20140114460 A KR 20140114460A KR 101640563 B1 KR101640563 B1 KR 101640563B1
Authority
KR
South Korea
Prior art keywords
footprint
motion vector
edge
image
foot
Prior art date
Application number
KR1020140114460A
Other languages
Korean (ko)
Other versions
KR20160026271A (en
Inventor
조민국
이동성
Original Assignee
주식회사 에스원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스원 filed Critical 주식회사 에스원
Priority to KR1020140114460A priority Critical patent/KR101640563B1/en
Publication of KR20160026271A publication Critical patent/KR20160026271A/en
Application granted granted Critical
Publication of KR101640563B1 publication Critical patent/KR101640563B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Abstract

달리기 감지 방법 및 시스템이 개시된다. 달리기 감지 시스템은 입력되는 영상에서 움직이는 객체를 검출하고, 검출된 객체에 대해서 전경 에지를 검출하고, 전경 에지에 대해서 평균 모션 벡터를 추출하며, 검출된 객체에서 풋-프린트를 검출한다. 그리고 달리기 감지 시스템은, 상기 풋-프린트가 상기 카메라로부터 실제 떨어진 좌표인 제1 풋-프린트 좌표를 획득한 후, 제1 풋-프린트 좌표와 평균 모션 벡터를 이용하여 이전 풋-프린트 좌표인 제2 풋-프린트 좌표를 추정한다. 이때, 달리기 감지 시스템은 제1 풋-프린트 좌표와 제2 풋-프린트 좌표를 통해, 객체의 달리기 여부를 판단한다. A running sensing method and system are disclosed. The running detection system detects moving objects in the input image, detects the foreground edges for the detected objects, extracts the average motion vectors for the foreground edges, and detects the footprint in the detected objects. And the running detection system may be configured to determine a second footprint coincident with the second footprint coordinate using the first footprint coordinate and the average motion vector after obtaining the first footprint co- Estimate the footprint coordinates. At this time, the running detection system determines whether the object is running through the first foot-print coordinate and the second foot-print coordinate.

Description

달리기 감지 방법 및 시스템{METHOD AND SYSTEM FOR DECTECTING RUN}METHOD AND SYSTEM FOR DECTECTING RUN

본 발명은 달리기 감지 방법 및 시스템에 관한 것이다. The present invention relates to a running detection method and system.

사회 안전에 대한 관심이 증가하고 환경 안전을 중시하는 시대적 상황에 따라, 달리기 상황을 감지하는 방법 및 시스템에 대한 사회적 요구가 증가하고 있다. With increasing interest in social safety and increasing emphasis on environmental safety, there is an increasing need for a method and system for detecting running conditions.

기존의 달리기 감지 방법은 카메라 교정을 통해 실세계 3차원 좌표를 영상의 2차원 좌표로 변환하고, 변환된 영상을 이용하여 객체가 이동한 거리를 계산함으로써 달리기를 감지한다. The existing running detection method detects the running by calculating the distance traveled by the object using the transformed image, by converting the real three - dimensional coordinates into two - dimensional coordinates of the image through camera calibration.

여기서, 실세계 3차원 좌표(이하, '월드좌표'라 함)를 영상의 2차원의 좌표로 변환하는 카메라 교정 방법이 중요하다. 이를 위해, 격자 모양의 평면 패턴을 이용하는 방법이 일반적으로 사용된다. 카메라 교정 성능은 월드 좌표를 영상 좌표로 변환하는 변환행렬의 계산에 의해 좌우되며, 이러한 변환행렬을 호모그래피 매트릭스라 한다. 카메라 교정 방법은 수식으로 나타내면 아래의 수학식 1과 같다. Here, the camera calibration method for converting the three-dimensional coordinates of the real world (hereinafter, referred to as "world coordinates") into two-dimensional coordinates of the image is important. For this purpose, a method using a lattice-like planar pattern is generally used. The camera calibration performance depends on the calculation of a transformation matrix for transforming world coordinates into image coordinates, and this transformation matrix is called a homography matrix. The camera calibration method can be expressed by the following equation (1).

Figure 112014082939369-pat00001
Figure 112014082939369-pat00001

상기 수학식 1에서, A는 카메라 내부 왜곡을 보정하기 위한 행렬이고,

Figure 112014082939369-pat00002
는 월드좌표를 영상좌표 변환하기 위한 회전/이동변환 행렬이고, X, Y, Z는 월드좌표이고, x,y는 영상좌표이다. 여기서,
Figure 112014082939369-pat00003
를 호모그래피 매트릭스라고 하며,
Figure 112014082939369-pat00004
는 각각 영상의 x,y에 대한 초점거리, 주점, 비대칭 계수하고 한다. 주점은 이미지 센서(CMOS, CCD 등)의 가로/세로 비율에 의해 발생하며, 비대칭 계수는 카메라 제작과정의 오차에서 발생한다. 카메라가 말들어진 초창기에는 이러한 변수의 영향이 컸지만 기술 발로 인해 영향이 거의 없다. In Equation (1), A is a matrix for correcting intra-camera distortion,
Figure 112014082939369-pat00002
X, Y, and Z are world coordinates, and x and y are image coordinates, respectively. here,
Figure 112014082939369-pat00003
Is called a homography matrix,
Figure 112014082939369-pat00004
Are the focal length, principal point, and asymmetric coefficient for x and y of the image, respectively. The main point is caused by the aspect ratio of the image sensor (CMOS, CCD, etc.), and the asymmetry coefficient occurs in the error of the camera manufacturing process. In the early days when the camera was spoken, the influence of these variables was significant, but it was not affected by the technology foot.

따라서, 호모그래피 매트릭스를 구하기 위해서는 나머지 파라미터를 계산해야 하며, 이때 도 1과 같은 격자 모양의 평면 패턴을 이용하여 월드좌표와 영상좌표를 매칭한다. 도 1은 호모그래피 매트릭스를 구하는데 사용되는 격자 모양의 평면 패턴을 나타내는 도면이다. Therefore, in order to obtain the homography matrix, the remaining parameters must be calculated. At this time, the world coordinates and the image coordinates are matched by using the grid pattern as shown in FIG. 1 is a diagram showing a lattice-like flat pattern used for obtaining a homography matrix.

다음으로, 계산된 호모그래피 매트릭스를 이용하여, 영상에서 객체의 풋-프린트(foot-frint)에 대응하는 월드좌표를 획득할 수 있다. 객체의 foot-print는 영상에서 라벨의 y축 하단의 픽셀 위치, 라벨의 x축 중심점으로 정의된다. 임의의 두 시간에 획득한 객체의 foot-print를 이용하여 해당 시간 동안 객체가 실제 움직인 거리를 계산할 수 있다. Next, the computed homography matrix may be used to obtain the world coordinates corresponding to the foot-print of the object in the image. The foot-print of the object is defined by the pixel location at the bottom of the y-axis of the label in the image, and the x-axis center point of the label. Using the foot-print of an object acquired at any two time, you can calculate the distance that the object actually moves during that time.

그러나 이러한 기존의 방법은 카메라를 대량으로 설치하는 경우, 모든 설치 장소에서 격자 모양의 평면 패턴을 이용하여 카메라를 교정해야 하므로, 적용이 쉽지 않다. 또한, 상기에서 설명한 foot-print는 영상 처리 방법론에 따라 조명 및 그림자의 영향을 크게 받게 되며, 이로 인해 시스템의 성능 저하에 주요 요인이 된다. However, this conventional method is not easy to apply because, when a camera is installed in a large quantity, the camera needs to be calibrated using a grid pattern in every installation place. Also, the foot-print described above is greatly influenced by illumination and shadow according to the image processing methodology, which is a major factor in the performance degradation of the system.

본 발명이 해결하고자 하는 과제는 평면 패턴을 사용하지 않고 사용자 입력 정보를 이용하여 달리기를 감지하는 방법 및 시스템을 제공하는 것이다. SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and system for detecting running by using user input information without using a flat pattern.

본 발명이 해결하고자 하는 또 다른 과제는 조명 및 그림자의 영향에 강인한 풋-프린트(foot-print)를 이용하여 달리기를 감지하는 방법 및 시스템을 제공하는 것이다. A further object of the present invention is to provide a method and system for detecting running using a foot-print that is robust to the effects of illumination and shadow.

본 발명의 실시예에 따르면, 달리기 감지 시스템이 제공된다. 상기 달리기 감지 시스템은, 카메라를 통해 촬영된 영상에서 움직이는 객체를 검출하는 객체 검출부, 상기 객체에 대해서 전경 에지를 검출하는 전경 에지 검출부, 상기 전경 에지에 대해서 평균 모션 벡터를 추출하는 모션 벡터 추출부, According to an embodiment of the present invention, a running detection system is provided. The running detection system includes an object detection unit that detects an object moving in an image captured through a camera, a foreground edge detection unit that detects a foreground edge with respect to the object, a motion vector extraction unit that extracts an average motion vector with respect to the foreground edge,

상기 객체에서 풋-프린트(foot-print)를 검출하는 풋-프린트 추출부, 상기 풋-프린트를 이용하여 상기 객체가 상기 카메라로부터 떨어진 좌표인 풋-프린트 좌표를 획득하는 좌표 변환부, 그리고 상기 풋-프린트 좌표 중 현재 풋-프린트 좌표와 상기 평균 모션 벡터를 이용하여 이전 풋-프린트 좌표를 추정하며, 상기 현재 풋-프린트 좌표와 상기 이전 풋-프린트 좌표를 통해 상기 객체의 달리기 여부를 판단하는 달리기 상황 판단부를 포함할 수 있다. A foot-print extracting unit for detecting a foot-print in the object, a coordinate transforming unit for obtaining foot-print coordinates, in which the object is coordinates away from the camera, using the foot-print, Estimating previous foot-print coordinates using the current foot-print coordinates and the average motion vector of the print coordinates, and determining whether the object is running through the current foot-print coordinate and the previous foot- And a situation determination unit.

상기 모션 벡터 추출부는, 상기 전경 에지에 대해서만 모션 벡터를 추출하고 상기 객체에 대해 평균을 계산하여, 상기 평균 모션 벡터를 계산할 수 있다. The motion vector extraction unit may calculate the average motion vector by extracting a motion vector only for the foreground edge and calculating an average for the object.

상기 모션 벡터 추출부는 상기 전경 에지에 대한 영상을 x축, y축 및 시간으로 각각 미분하여 상기 모션 벡터를 계산할 수 있다. The motion vector extraction unit may calculate the motion vector by differentiating an image for the foreground edge with x-axis, y-axis, and time, respectively.

상기 좌표 변환부는 역투시 변환 방법을 기반으로 상기 풋-프린트 좌표를 획득할 수 있다. The coordinate transformation unit may obtain the footprint coordinates based on the inverse transformation method.

상기 좌표 변환부는, 상기 풋-프린트가 상기 카메라로부터 수직방향으로 떨어진 제1 거리를 계산할 수 있으며, 상기 제1 거리를 이용하여 상기 풋-프린트가 상기 카메라로부터 수평방향으로 떨어진 거리인 제2 거리를 계산할 수 있으며, 상기 제1 거리와 상기 제2 거리가 상기 풋-프린트 좌표일 수 있다. The coordinate transformer may calculate a first distance that the footprint is away from the camera in a vertical direction and use the first distance to determine a second distance that is the distance that the footprint is horizontally away from the camera And the first distance and the second distance may be the footprint coordinates.

상기 달리기 상황 판단부는, 상기 현재 풋-프린트 좌표와 상기 이전 풋-프린트 좌표를 이용하여 상기 객체의 속도를 계산할 수 있다. The running condition determiner may calculate the velocity of the object using the current foot-print coordinate and the previous foot-print coordinate.

상기 달리기 상황 판단부는, 상기 속도가 소정의 기준치를 초과하는 경우 상기 객체가 달리는 것으로 판단할 수 있으며, 상기 속도가 상기 소정의 기준치보다 같거나 작은 경우 상기 객체가 달리지 않는 것으로 판단할 수 있다. The running condition determining unit may determine that the object runs when the speed exceeds the predetermined reference value and may determine that the object does not run when the speed is equal to or smaller than the predetermined reference value.

상기 객체 검출부는 배경 모델링 방법을 통해 상기 객체를 검출할 수 있다. The object detecting unit may detect the object through a background modeling method.

상기 전경 에지 검출부는, 상기 객체의 전체 영상으로부터 영상 에지를 검출하고, 상기 객체의 현재 영상과 상기 객체의 현재 영상에 시간적으로 연속하는 영상을 이용하여 시간 에지를 검출하며, 상기 영상 에지와 상기 시간 에지의 공통 성분을 상기 전경 에지로 추출할 수 있다. Wherein the foreground edge detecting unit detects a video edge from a whole image of the object and detects a time edge using an image temporally continuous with a current image of the object and a current image of the object, The common component of the edge can be extracted at the foreground edge.

상기 모션 벡터 추출부는 광학 플로우 방법을 사용하여 상기 평균 모션 벡터를 추출할 수 있다. The motion vector extracting unit may extract the average motion vector using an optical flow method.

본 발명의 다른 실시예에 따르면, 달리기 감지 시스템에서 카메라를 통해 촬영된 영상을 이용하여 객체의 달리기를 감지하는 방법이 제공된다. 상기 달리기 감지 방법은, 상기 영상에서 움직이는 객체를 검출하는 단계, 상기 검출된 객체에 대해서 전경 에지를 검출하는 단계, 상기 전경 에지에 대해서 평균 모션 벡터를 추출하는 단계, 상기 검출된 객체에서 풋-프린트를 검출하는 단계, 상기 풋-프린트가 상기 카메라로부터 실제 떨어진 좌표인 제1 풋-프린트 좌표를 획득하는 단계, 상기 제1 풋-프린트 좌표와 상기 평균 모션 벡터를 이용하여, 상기 제1 풋-프린트 좌표의 이전 풋-프린트 좌표인 제2 풋-프린트 좌표를 추정하는 단계, 그리고 상기 제1 풋-프린트 좌표와 상기 제2 풋-프린트 좌표를 통해, 상기 객체의 달리기 여부를 판단하는 단계를 포함할 수 있다. According to another embodiment of the present invention, there is provided a method of detecting running of an object using an image photographed through a camera in a running detection system. The running sensing method comprising the steps of: detecting an object moving in the image; detecting a foreground edge for the detected object; extracting an average motion vector for the foreground edge; Obtaining a first footprint co-ordinate, the first foot-print co-ordinate being the coordinates actually offset from the camera, using the first footprint co-ordinate and the average motion vector, Estimating a second footprint coordinate that is a previous footprint coordinate of the coordinates and determining whether the object is running through the first footprint co-ordinate and the second footprint co-ordinate .

상기 평균 모션 벡터를 추출하는 단계는, 상기 전경 에지에 대해서만 모션 벡터를 추출하는 단계, 그리고 상기 추출된 모션 벡터를 상기 객체에 대해 평균을 계산하는 단계를 포함할 수 있다. The step of extracting the average motion vector may comprise extracting a motion vector only for the foreground edge, and calculating an average for the object with respect to the extracted motion vector.

상기 제1 풋-프린트 좌표를 획득하는 단계는, 상기 풋-프린트가 상기 카메라로부터 수직방향으로 떨어진 좌표인 제1 좌표를 계산하는 단계, 그리고 상기 제1 좌표를 이용하여 상기 풋-프린트가 상기 카메라로부터 수평방향으로 떨어진 좌표인 제2 좌표를 계산하는 단계를 포함할 수 있다. Wherein obtaining the first footprint co-ordinates comprises: calculating a first coordinate, wherein the footprint is a coordinate that is vertically offset from the camera, and using the first co- And calculating a second coordinate which is a coordinate in a horizontal direction away from the first coordinate.

상기 판단하는 단계는, 상기 제1 풋-프린트 좌표와 상기 제2 풋-프린트 좌표를 이용하여 상기 객체의 속도를 계산하는 단계를 포함할 수 있다. The determining may include calculating the velocity of the object using the first footprint co-ordinate and the second footprint co-ordinate.

상기 판단하는 단계는, 상기 속도가 소정의 기준치를 초과하는지를 판단하는 단계, 그리고 상기 속도가 상기 소정의 준치를 초과하는 경우, 상기 객체가 달리는 것으로 판단하는 단계를 더 포함할 수 있다. The determining may further include determining whether the velocity exceeds a predetermined reference value, and determining that the object is running if the velocity exceeds the predetermined reference value.

상기 전경 에지를 검출하는 단계는, 상기 객체의 전체 영상으로부터 영상 에지를 검출하는 단계, 상기 객체의 현재 영상과 상기 객체의 현재 영상에 시간적으로 연속하는 영상을 이용하여, 시간 에지를 검출하는 단계, 그리고 상기 영상 에지와 상기 시간 에지의 공통 성분을 상기 전경 에지로 추출하는 단계를 포함할 수 있다. Wherein the step of detecting the foreground edge comprises the steps of: detecting a video edge from a whole image of the object; detecting a time edge using a current image of the object and an image temporally continuous to the current image of the object; And extracting a common component of the image edge and the temporal edge to the foreground edge.

상기 카메라는 핀홀 카메라일 수 있다. The camera may be a pinhole camera.

상기 풋-프린트는 상기 검출된 객체의 사각 영역에서 y축 하단의 픽셀 위치와 x 축 중심점일 수 있다. The footprint may be a pixel location at the bottom of the y-axis and an x-axis center point in a rectangular area of the detected object.

본 발명의 실시예에 따르면 사용자 입력 정보를 이용하여 달리기를 감지함으로써, 간단하게 카메라를 교정할 수 있다. According to the embodiment of the present invention, the camera can be calibrated simply by detecting the running using the user input information.

본 발명의 또 다른 실시예에 따르면 평균 모션 벡터를 이용하여 풋-프린트를 추정함으로써, 조명 및 그림자의 영향에 강인하게 달리기를 감지할 수 있다. According to another embodiment of the present invention, by estimating the footprint using an average motion vector, it is possible to detect running robustly to the influence of illumination and shadow.

도 1은 호모그래피 매트릭스를 구하는데 사용되는 격자 모양의 평면 패턴을 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 달리기 감지 시스템을 나타내는 도면이다.
도 3은 본 발명의 실시예에 따른 핀홀 카메라 모델을 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 핀홀 카메라의 설치 상황을 나타내는 도면이다.
도 5는 도 4의 상황에 대한 평면도(top view)를 나타낸다.
도 6은 본 발명의 실시예에 따른 달리기 감지 방법을 나타내는 흐름도이다.
1 is a diagram showing a lattice-like flat pattern used for obtaining a homography matrix.
2 is a diagram illustrating a running detection system according to an embodiment of the present invention.
3 is a view showing a pinhole camera model according to an embodiment of the present invention.
4 is a view showing an installation state of a pinhole camera according to an embodiment of the present invention.
Figure 5 shows a top view of the situation of Figure 4;
6 is a flowchart illustrating a running sensing method according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 및 청구범위 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification and claims, when a section is referred to as "including " an element, it is understood that it does not exclude other elements, but may include other elements, unless specifically stated otherwise.

이제 본 발명의 실시예에 따른 달리기 감지 방법 및 시스템에 대하여 도면을 참조하여 상세하게 설명한다. Now, a running detection method and system according to an embodiment of the present invention will be described in detail with reference to the drawings.

도 2는 본 발명의 실시예에 따른 달리기 감지 시스템을 나타내는 도면이다. 2 is a diagram illustrating a running detection system according to an embodiment of the present invention.

도 2에 나타낸 바와 같이, 본 발명의 실시예에 따른 달리기 감지 시스템(100)은 객체 검출부(110), 전경 에지 검출부(120), 모션 벡터 추출부(130), 풋-프린트 추출부(140), 좌표 변환부(150) 및 달리기 상황 판단부(160)를 포함한다. 2, the running detection system 100 according to the embodiment of the present invention includes an object detection unit 110, a foreground edge detection unit 120, a motion vector extraction unit 130, a footprint extraction unit 140, A coordinate transformation unit 150, and a running condition determination unit 160. [

객체 검출부(110)는 카메라에 의해 촬영된 영상에 트랙킹 알고리즘을 적용하여, 움직이는 객체를 검출한다. 영상감시 분야에서 트랙킹 알고리즘은 다양하게 존재하며, 그 중에서 코드북을 기반으로 하는 배경 모델링 방법을 통해 객체를 검출할 수 있다. 배경 모델링 방법은 영상에서 각 픽셀이 가지는 값의 분산을 학습하여 정의된 임계치 이상을 가지는 픽셀을 전경을 간주함으로써 객체를 검출한다. 배경 모델링 방법은 본 발명이 속하는 기술분야의 통상을 지식을 가진 자라면 알 수 있으므로 이하 구체적인 설명은 생략한다. The object detecting unit 110 detects a moving object by applying a tracking algorithm to an image photographed by a camera. In the field of video surveillance, there are various tracking algorithms, and objects can be detected through a codebook-based background modeling method. The background modeling method learns the variance of the value of each pixel in the image, and detects the object by considering the foreground as a pixel having a defined threshold value or more. The background modeling method can be understood by those skilled in the art to which the present invention pertains, so that a detailed description thereof will be omitted.

전경 에지 검출부(120)는 객체 검출부(110)에 의해 검출된 객체에 대해서 전경 에지를 검출한다. 전경 에지 검출부(120)는 검출된 객체의 각 픽셀에 대한 시간 축 상에 있는 여러 장의 영상들에 대해 에지를 검출한다. 더욱 상세히 설명하면, 전경 에지 검출부(120)는 먼저 입력되는 하나의 객체의 전체 영상으로부터 에지(이하, '영상 에지'라 함)를 검출하고, 시간에 따라 입력되는 복수의 객체 영상을 이용하여 에지 성분(이하, '시간 에지'라 함)을 검출한다. 그리고 전경 에지 검출부(120)는 검출한 영상 에지와 시간 에지의 공통 성분을 추출하고 공통 성분을 만족하는 에지를 전경 에지로 정의한다. 이와 같이 전경 에지를 구하는 방법은 국내 등록특허 번호 제 10-1398684에 구체적으로 기재되어 있으므로, 이하 구체적인 설명은 생략한다. The foreground edge detection unit 120 detects the foreground edge with respect to the object detected by the object detection unit 110. The foreground edge detecting unit 120 detects an edge of a plurality of images on the time axis for each pixel of the detected object. More specifically, the foreground edge detecting unit 120 detects an edge (hereinafter, referred to as an 'image edge') from a whole image of an input object and outputs a plurality of edge images (Hereinafter referred to as " time edge "). The foreground edge detection unit 120 extracts the common components of the detected image edge and the temporal edge, and defines an edge satisfying the common component as the foreground edge. A method for obtaining the foreground edge is described in detail in Korean Patent No. 10-1398684, and therefore, a detailed description thereof will be omitted.

다음으로, 모션 벡터 추출부(130)는 전경 에지 검출부(120)에 의해 검출된 전경 에지에 대해서 모션 벡터를 추출한다. 모션 벡터를 추출하는 방법은 다양하게 존재하지만, 본 발명의 실시예로서 광학 플로우(optical flow) 방법이 사용될 수 있다. 광학 플로우(optical flow) 방법은 매우 짧은 시간 동안 픽셀의 밝기 값은 변하지 않고 위치 변화만 발생하는 가정한다. 이때, 각각의 작은 위치 변화가 x, y 축에서 발생하는 경우, 모션 벡터는 아래의 수학식 2와 같이 된다. Next, the motion vector extracting unit 130 extracts a motion vector with respect to the foreground edge detected by the foreground edge detecting unit 120. There are various methods for extracting the motion vector, but an optical flow method can be used as an embodiment of the present invention. The optical flow method assumes that the brightness value of the pixel does not change for a very short time but only the position change occurs. At this time, when each small position change occurs in the x and y axes, the motion vector becomes as shown in the following equation (2).

Figure 112014082939369-pat00005
Figure 112014082939369-pat00005

수학식 2에서 오른쪽 항을 Taylor series로 전개하면 수학식 3과 같이 된다. In Equation (2), expanding the right term to Taylor series yields Equation (3).

Figure 112014082939369-pat00006
Figure 112014082939369-pat00006

수학식 2와 수학식 3을 동시에 만족하려면, 수학식 3의 우변의 미분식의 합이 0이 되어야 하며, 각각의 변수(x, y, t)에 대해 편미분을 하면 수학식 4와 같이 된다. In order to simultaneously satisfy the equations (2) and (3), the sum of the undersigned of the right side of the equation (3) must be 0, and the partial differentiation for each variable (x, y, t)

Figure 112014082939369-pat00007
Figure 112014082939369-pat00007

수학식 4를 각각의 편미분 항을 나타내는 항으로 바꾸어 정리하면, 수학식 5가 된다. 그리고 수학식 5를 행렬식으로 바꾸면 수학식 6이 된다. By rearranging the expression (4) to the term indicating each partial derivative term, the expression (5) is obtained. And the equation (5) is replaced with the determinant.

Figure 112014082939369-pat00008
Figure 112014082939369-pat00008

Figure 112014082939369-pat00009
Figure 112014082939369-pat00009

다시 말하면, 영상을 x축, y축, 시간(t)축으로 각각 미분함으로써, 모션 벡터가 계산된다. In other words, the motion vector is calculated by differentiating the image into x-axis, y-axis, and time (t) axes, respectively.

이와 같이 계산한 결과는 하나의 영상에 대해 하나의 모션 벡터를 추출한 값이다. 일반적으로는 임의의 픽셀 주변에 일정 크기의 부분 영상에 대해 모션 벡터를 계산하고, 이러한 과정을 전체 픽셀에 대해서 수행하여 해당 영상에 대한 모션을 추정한다. 그러나, 본 발명의 실시예에 따른 모션 벡터 추출부(130)는 전경 에지 검출부(120)에 의해 검출된 전경 에지에 대해서만 모션 벡터를 추출하고, 객체에 대해 평균을 계산하며, 이를 최종적으로 해당 객체의 평균 모션 벡터인

Figure 112014082939369-pat00010
로 할당한다. The calculated result is a value obtained by extracting one motion vector for one image. Generally, a motion vector is calculated for a partial image of a predetermined size around an arbitrary pixel, and motion is estimated for the corresponding pixel by performing this process on all the pixels. However, the motion vector extracting unit 130 according to the embodiment of the present invention extracts the motion vector only for the foreground edge detected by the foreground edge detecting unit 120, calculates an average for the object, Average motion vector of
Figure 112014082939369-pat00010
.

한편, 풋-프린트(foot-print) 추출부(140)는 객체 검출부(110)에 의해 검출된 객체에 대해 풋-프린트(foot-print)를 추출한다. 객체 검출부(110)에 의해 객체가 검출되면 객체에 대한 사각 영역이 만들어진다. 풋-프린트(foot-print) 추출부(140)는 사각 영역에서 y축 하단의 픽셀 위치, x축 중심점을 해당 객체의 풋-프린트(foot-print)로 설정한다. On the other hand, the foot-print extraction unit 140 extracts a foot-print for the object detected by the object detection unit 110. When an object is detected by the object detecting unit 110, a rectangular area for the object is created. The foot-print extraction unit 140 sets a pixel position at the lower end of the y-axis in the rectangular area and a x-axis center point as a foot-print of the object.

좌표 변환부(150)는 역투시 변환 방법을 기반으로 현재 객체의 풋-프린트를 이용하여 해당 객체가 실제 카메라에서 떨어진 좌표를 획득한다. 역투시 변환 방법은 아래의 도 3과 같이 핀홀(Pinhole) 카메라 모델을 기반으로 한다. The coordinate transforming unit 150 obtains coordinates of a corresponding object from the actual camera using the current object's footprint based on the inverse transformation method. The method of inverse translation is based on a pinhole camera model as shown in FIG. 3 below.

도 3은 본 발명의 실시예에 따른 핀홀 카메라 모델을 나타내는 도면이며, 도 4는 본 발명의 실시예에 따른 핀홀 카메라의 설치 상황을 나타내는 도면이다. FIG. 3 is a view showing a model of a pinhole camera according to an embodiment of the present invention, and FIG. 4 is a view showing an installation state of a pinhole camera according to an embodiment of the present invention.

본 발명의 실시예에서는 도 4와 같이 일정 높이에 카메라가 설치되고 카메라가 임의의 각도로 기울어져 영상을 촬영한다고 가정한다. 좌표 변환부(150)는 역투시 변환을 위해, 먼저 객체가 카메라로부터 수직 방향으로 떨어진 거리(Dy)를 계산하고, 다음으로 객체가 카메라로부터 수평 방향으로 떨어진 거리(Dx)를 계산한다. In the embodiment of the present invention, it is assumed that a camera is installed at a predetermined height as shown in FIG. 4 and the camera is tilted at an arbitrary angle to shoot an image. The coordinate transformation unit 150 calculates a distance Dy in which the object is vertically separated from the camera, and then calculates a distance Dx in which the object is horizontally separated from the camera.

여기서, 카메라의 높이(H)와 기울어진 카메라 각도(

Figure 112014082939369-pat00011
)는 설치시 측정되며,
Figure 112014082939369-pat00012
는 해당 카메라의 수직 화각(Vertical Angle of View)으로 계산되어 진다.
Figure 112014082939369-pat00013
는 객체의 풋-프린트에 대한 수직 화각(Vertical Angle of Object Foot-Print)을 나타낸다. 따라서, 객체가 카메라에서 수직방향으로 떨어진 거리(Dy)와 카메라라의 설치 높이(H)의 관계는 아래의 수학식 7과 같다. Here, the height (H) of the camera and the tilted camera angle
Figure 112014082939369-pat00011
) Is measured at installation,
Figure 112014082939369-pat00012
Is calculated as a vertical angle of view of the camera.
Figure 112014082939369-pat00013
Represents the Vertical Angle of Object Foot-Print for the object's foot-print. Therefore, the relationship between the distance (Dy) of the object in the vertical direction away from the camera and the installation height (H) of the camera is expressed by Equation (7) below.

Figure 112014082939369-pat00014
Figure 112014082939369-pat00014

수학식 7의 좌변을 풀어서 정리하면 수학식 8과 같다. Equation (8) is obtained by solving the left side of Equation (7).

Figure 112014082939369-pat00015
Figure 112014082939369-pat00015

한편,

Figure 112014082939369-pat00016
와 초점 거리(f)의 관계는 수학식 9와 같다. Meanwhile,
Figure 112014082939369-pat00016
And the focal length f are expressed by Equation (9).

Figure 112014082939369-pat00017
Figure 112014082939369-pat00017

수학식 8과 수학식 9를 정리하면, 아래의 수학식 10과 같다. Equation (8) and Equation (9) are summarized as Equation (10) below.

Figure 112014082939369-pat00018
Figure 112014082939369-pat00018

객체가 카메라에서 수직방향으로 떨어진 거리인 Dy는 수학식 7과 수학식 10을 이용하여, 최종적으로 수학식 11과 같이 계산된다. Dy, which is the distance in which the object is vertically away from the camera, is finally calculated using Equation (7) and Equation (10) as shown in Equation (11).

Figure 112014082939369-pat00019
Figure 112014082939369-pat00019

상기 수학식 11을 이용하여 Dy가 계산되면, 이를 이용하여 객체가 카메라를 중심으로 떨어진 수평 방향의 거리(Dx)를 계산할 수 있다. When Dy is calculated using Equation (11), the distance Dx of the object in the horizontal direction away from the camera can be calculated by using Dy.

도 5는 도 4의 상황에 대한 평면도(top view)를 나타낸다. 도 5에서

Figure 112014082939369-pat00020
는 카메라의 수평 화각(Horizontal Angle of View)이며,
Figure 112014082939369-pat00021
는 객체의 풋-프린트에 대한 수평 화각(Horizontal of Angle of Object Foot-Print)을 나타낸다. 그리고 L은 카메라로부터의 기하학적인 거리(Diagonal Distance L from Camera)이며
Figure 112014082939369-pat00022
로 정의된다. Figure 5 shows a top view of the situation of Figure 4; 5,
Figure 112014082939369-pat00020
Is a horizontal angle of view of the camera,
Figure 112014082939369-pat00021
Represents the Horizontal of Angle of Object Foot-Print for the object's foot-print. And L is the geometric distance from the camera (Diagonal Distance L from Camera)
Figure 112014082939369-pat00022
.

객체의 수평 방향의 거리(Dx)와

Figure 112014082939369-pat00023
의 관계는 수학식 12와 같다. The horizontal distance Dx of the object
Figure 112014082939369-pat00023
Is expressed by Equation (12).

Figure 112014082939369-pat00024
Figure 112014082939369-pat00024

여기서,

Figure 112014082939369-pat00025
,
Figure 112014082939369-pat00026
와 초점 거리 f와의 관계는 다음의 수학식 13과 같이므로, 최종적으로 객체의 수평 방향의 거리(Dx)는 수학식 14와 같이 계산된다. here,
Figure 112014082939369-pat00025
,
Figure 112014082939369-pat00026
And the focal length f is expressed by the following equation (13), finally the distance Dx in the horizontal direction of the object is calculated as shown in equation (14).

Figure 112014082939369-pat00027
Figure 112014082939369-pat00027

Figure 112014082939369-pat00028
Figure 112014082939369-pat00028

이와 같이 수학식 11과 수학식 14와 같이 최종적으로 현재 풋-프린트(foot-print)에 대한 좌표(Dx, Dy)가 계산된다. 일반적인 방법으로는 현재 풋-프린트 대한 좌표와 이전 풋-프린트에 대한 좌표를 비교하여 달리기 상황을 판단할 수 있으나, 이는 조명 및 그림자로부터 영향을 많이 받을 수 있다. Finally, the coordinates (Dx, Dy) for the current foot-print are calculated as shown in Equations (11) and (14). A common method is to determine the running situation by comparing the coordinates of the current foot-print with the coordinates of the previous foot-print, but this can be affected by lighting and shadows.

이에 따라, 본 발명의 실시예에 따른 달리기 상황 판단부(160)는 좌표 변환부(150)에 의해 계산된 현재 풋-프린트 좌표와 모션 벡터 추출부(130)에 의해 추출된 평균 모션 벡터

Figure 112014082939369-pat00029
를 이용하여, 이전 풋-프린트(foot-print) 좌표를 추정한다. 좌표 변환부(150)에 의해 계산된 현재 풋-프린트 좌표가
Figure 112014082939369-pat00030
이면, n 시간 이전의 풋-프린트 좌표는 다음의 수학식 15와 같이 된다. Accordingly, the running situation determining unit 160 according to the embodiment of the present invention determines the running state of the vehicle by comparing the current footprint coordinates calculated by the coordinate transforming unit 150 with the average motion vector extracted by the motion vector extracting unit 130
Figure 112014082939369-pat00029
To estimate the previous foot-print coordinates. If the current footprint co-ordinates calculated by the coordinate transformation unit 150 are
Figure 112014082939369-pat00030
, The footprint co-ordinates before n hours are as shown in the following equation (15).

Figure 112014082939369-pat00031
Figure 112014082939369-pat00031

따라서, 달리기 상황 판단부(160)는 현재의 풋-프린트 좌표

Figure 112014082939369-pat00032
와 n 시간 이전의 풋-프린트 좌표
Figure 112014082939369-pat00033
의 차이를 이용하여 해당 객체의 속도를 계산할 수 있다. 이와 같이 계산된 해당 객체의 속도는 아래의 수학식 16과 같이 된다. Accordingly, the running condition determining unit 160 determines whether the current foot-
Figure 112014082939369-pat00032
And footprint coordinates before n hours
Figure 112014082939369-pat00033
The speed of the object can be calculated using the difference of The velocity of the corresponding object thus calculated is expressed by Equation (16) below.

Figure 112014082939369-pat00034
Figure 112014082939369-pat00034

한편, 본 발명의 실시예에 따른 달리기 상황 판단부(160)는 수학식 16과 같이 계산된 해당 객체의 속도가 소정의 기준치를 초과하는 경우 해당 객체가 달리는 것으로 판단할 수 있다. Meanwhile, the running situation determining unit 160 according to the embodiment of the present invention can determine that the corresponding object runs when the velocity of the corresponding object calculated as shown in Equation (16) exceeds a predetermined reference value.

도 6은 본 발명의 실시예에 따른 달리기 감지 방법을 나타내는 흐름도이다. 6 is a flowchart illustrating a running sensing method according to an embodiment of the present invention.

도 6에 나타낸 바와 같이, 카메라에 의해 촬영된 영상이 객체 검출부(110)로 입력된다(S610). 객체 검출부(110)는 입력 영상에 트랙킹 알고리즘을 이용하여 움직이는 객체를 검출한다(S620). 6, an image photographed by the camera is input to the object detection unit 110 (S610). The object detecting unit 110 detects an object moving on the input image using a tracking algorithm (S620).

전경 에지 검출부(120)는 객체 검출부(110)에서 검출된 객체에 대해서 전경 에지를 검출한다(S630). 즉, 전경 에지 검출부(120)는 영상 에지와 시간 에지의 공통 성분을 추출하고 공통 성분을 만족하는 에지를 전경 에지로서 검출한다. The foreground edge detection unit 120 detects foreground edges of the object detected by the object detection unit 110 (S630). That is, the foreground edge detection unit 120 extracts common components of the image edge and the temporal edge, and detects an edge satisfying the common component as the foreground edge.

다음으로, 모션 벡터 추출부(130)는 전경 에지 검출부(120)에 의해 검출된 전경 에지에 대해서 평균 모션 벡터를 추출한다(S640). 여기서, 모션 벡터를 추출하는 방법은 광학 플로우 방법이 사용될 수 있으며, 모션 벡터 추출부(130)는 전경 에지에 대해 모션 벡터를 추출하고 객체에 대해 평균을 계산하여 평균 모션 벡터를 추출한다. Next, the motion vector extracting unit 130 extracts an average motion vector for the foreground edge detected by the foreground edge detecting unit 120 (S640). Here, an optical flow method can be used as a method of extracting a motion vector, and the motion vector extracting unit 130 extracts a motion vector with respect to a foreground edge and calculates an average over an object to extract an average motion vector.

풋-프린트 추출부(140)는 객체 검출부(110)에 의해 검출된 객체에 대해 풋-프린트(foot-print)를 추출한다(S650). The footprint extracting unit 140 extracts a foot-print for the object detected by the object detecting unit 110 (S650).

좌표 변환부(150)는 역투시 변환 방법을 기반으로 현재 객체의 풋-프린트를 이용하여 해당 객체가 실제 카메라에서 떨어진 좌표를 획득한다(S660). 즉, 좌표 변환부(150)는 수학식 11과 수학식 14를 이용하여 현재 풋-프린트(foot-print)에 대한 좌표를 계산한다. In step S660, the coordinate transforming unit 150 obtains coordinates of the corresponding object from the actual camera using the footprint of the current object based on the inverse transformation method. That is, the coordinate transformation unit 150 calculates the coordinates for the current foot-print using Equations (11) and (14).

달리기 상황 판단부(160)는 좌표 변환부(150)에 의해 계산된 현재 풋-프린트 좌표와 모션 벡터 추출부(130)에 의해 추출된 평균 모션 벡터

Figure 112014082939369-pat00035
를 이용하여, 이전 풋-프린트(foot-print)에 대한 좌표 추정한다(S670). The running condition determination unit 160 determines whether the current footprint coordinates calculated by the coordinate transformation unit 150 and the average motion vector extracted by the motion vector extraction unit 130
Figure 112014082939369-pat00035
The coordinates of the previous foot-print are estimated (S670).

그리고 달리기 상황 판단부(160)는 현재 풋-프린트 좌표와 이전 풋-프린트 좌표를 이용하여 객체의 속도를 계산한다(S680). 달리기 상황 판단부(160)는 객체의 속도가 소정의 기준치를 초과하면 객체가 달리고 있는 것으로 판단한다(S690, S691). 달리기 상황 판단부(160)는 객체의 속도가 소정의 기준치보다 같거나 작으면 객체가 달리지 않는 것으로 판단한다(S690, S692). The running condition determination unit 160 calculates the velocity of the object using the current foot-print coordinate and the previous foot-print coordinate (S680). The running condition determining unit 160 determines that the object is running when the speed of the object exceeds a predetermined reference value (S690, S691). The running condition determining unit 160 determines that the object is not running if the speed of the object is equal to or smaller than a predetermined reference value (S690, S692).

이와 같은 본 발명의 실시예에 따른 달리기 감지 방법 및 시스템을 위험물을 취급하는 사업장에 설치하면 환경 안전에 많은 도움을 줄것으로 예상된다. It is expected that the running sensing method and system according to the embodiment of the present invention can be installed in a workplace handling dangerous goods, thereby greatly contributing to environmental safety.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It belongs to the scope of right.

Claims (18)

카메라를 통해 촬영된 영상에서 움직이는 객체를 검출하는 객체 검출부,
상기 객체에 대해서 전경 에지를 검출하는 전경 에지 검출부,
상기 전경 에지에 대해서 평균 모션 벡터를 추출하는 모션 벡터 추출부,
상기 객체에서 풋-프린트(foot-print)를 검출하는 풋-프린트 추출부,
상기 풋-프린트를 이용하여 상기 객체가 상기 카메라로부터 떨어진 좌표인 풋-프린트 좌표를 획득하는 좌표 변환부, 그리고
상기 풋-프린트 좌표 중 현재 풋-프린트 좌표와 상기 평균 모션 벡터를 이용하여 이전 풋-프린트 좌표를 추정하며, 상기 현재 풋-프린트 좌표와 상기 이전 풋-프린트 좌표를 통해 상기 객체의 달리기 여부를 판단하는 달리기 상황 판단부를 포함하며,
상기 좌표 변환부는, 상기 풋-프린트가 상기 카메라로부터 수직방향으로 떨어진 제1 거리를 계산하며, 상기 제1 거리를 이용하여 상기 풋-프린트가 상기 카메라로부터 수평방향으로 떨어진 거리인 제2 거리를 계산하며,
상기 제1 거리와 상기 제2 거리가 상기 풋-프린트 좌표인
달리기 감지 시스템.
An object detector for detecting a moving object in an image captured through a camera,
A foreground edge detector for detecting a foreground edge with respect to the object,
A motion vector extraction unit for extracting an average motion vector with respect to the foreground edge,
A foot-print extracting unit for detecting a foot-print in the object,
A coordinate transforming unit using the footprint to obtain foot-print coordinates, in which the object is a coordinate away from the camera; and
Estimating previous footprint co-ordinates using the current foot-print co-ordinates and the average motion vector, and determining whether the object is running through the current foot-print co-ordinates and the previous foot- And a running condition determining unit
Wherein the coordinate transformer calculates a first distance that the footprint is away from the camera in a vertical direction and uses the first distance to calculate a second distance that is the distance the foot- In addition,
Wherein the first distance and the second distance are the footprint coordinates
Running detection system.
제1항에 있어서,
상기 모션 벡터 추출부는, 상기 전경 에지에 대해서만 모션 벡터를 추출하고 상기 객체에 대해 평균을 계산하여, 상기 평균 모션 벡터를 계산하는 달리기 감지 시스템.
The method according to claim 1,
Wherein the motion vector extracting unit extracts a motion vector only for the foreground edge and calculates an average for the object, and calculates the average motion vector.
제2항에 있어서,
상기 모션 벡터 추출부는 상기 전경 에지에 대한 영상을 x축, y축 및 시간으로 각각 미분하여 상기 모션 벡터를 계산하는 달리기 감지 시스템.
3. The method of claim 2,
Wherein the motion vector extracting unit calculates the motion vector by differentiating an image for the foreground edge with x-axis, y-axis, and time, respectively.
삭제delete 삭제delete 제1항에 있어서,
상기 달리기 상황 판단부는, 상기 현재 풋-프린트 좌표와 상기 이전 풋-프린트 좌표를 이용하여 상기 객체의 속도를 계산하는 달리기 감지 시스템.
The method according to claim 1,
Wherein the running condition determining unit calculates the velocity of the object using the current footprint co-ordinate and the previous footprint co-ordinate.
제6항에 있어서,
상기 달리기 상황 판단부는,
상기 속도가 소정의 기준치를 초과하는 경우 상기 객체가 달리는 것으로 판단하며,
상기 속도가 상기 소정의 기준치보다 같거나 작은 경우 상기 객체가 달리지 않는 것으로 판단하는 달리기 감지 시스템.
The method according to claim 6,
The running condition determining unit may determine,
Determines that the object is running if the speed exceeds a predetermined reference value,
And determines that the object does not run when the speed is equal to or smaller than the predetermined reference value.
제1항에 있어서,
상기 객체 검출부는 배경 모델링 방법을 통해 상기 객체를 검출하는 달리기 감지 시스템.
The method according to claim 1,
Wherein the object detecting unit detects the object through a background modeling method.
제1항에 있어서,
상기 전경 에지 검출부는, 상기 객체의 전체 영상으로부터 영상 에지를 검출하고, 상기 객체의 현재 영상과 상기 객체의 현재 영상에 시간적으로 연속하는 영상을 이용하여 시간 에지를 검출하며, 상기 영상 에지와 상기 시간 에지의 공통 성분을 상기 전경 에지로 추출하는 달리기 감지 시스템.
The method according to claim 1,
Wherein the foreground edge detecting unit detects a video edge from a whole image of the object and detects a time edge using an image temporally continuous with a current image of the object and a current image of the object, And extracts a common component of the edge to the foreground edge.
제1항에 있어서,
상기 모션 벡터 추출부는 광학 플로우 방법을 사용하여 상기 평균 모션 벡터를 추출하는 달리기 감지 시스템.
The method according to claim 1,
Wherein the motion vector extractor extracts the average motion vector using an optical flow method.
달리기 감지 시스템에서 카메라를 통해 촬영된 영상을 이용하여 객체의 달리기를 감지하는 방법으로서,
상기 영상에서 움직이는 객체를 검출하는 단계,
상기 검출된 객체에 대해서 전경 에지를 검출하는 단계,
상기 전경 에지에 대해서 평균 모션 벡터를 추출하는 단계,
상기 검출된 객체에서 풋-프린트를 검출하는 단계,
상기 풋-프린트가 상기 카메라로부터 실제 떨어진 좌표인 제1 풋-프린트 좌표를 획득하는 단계,
상기 제1 풋-프린트 좌표와 상기 평균 모션 벡터를 이용하여, 상기 제1 풋-프린트 좌표의 이전 풋-프린트 좌표인 제2 풋-프린트 좌표를 추정하는 단계, 그리고
상기 제1 풋-프린트 좌표와 상기 제2 풋-프린트 좌표를 통해, 상기 객체의 달리기 여부를 판단하는 단계를 포함하며,
상기 제1 풋-프린트 좌표를 획득하는 단계는,
상기 풋-프린트가 상기 카메라로부터 수직방향으로 떨어진 좌표인 제1 좌표를 계산하는 단계, 그리고
상기 제1 좌표를 이용하여 상기 풋-프린트가 상기 카메라로부터 수평방향으로 떨어진 좌표인 제2 좌표를 계산하는 단계를 포함하는
달리기 감지 방법.
A method of detecting running of an object using an image captured through a camera in a running detection system,
Detecting a moving object in the image,
Detecting a foreground edge for the detected object,
Extracting an average motion vector for the foreground edge,
Detecting a footprint in the detected object,
Obtaining a first footprint co-ordinate in which the foot-print is an actual distant coordinate from the camera,
Estimating a second footprint co-ordinate, which is the previous foot-print co-ordinate of the first footprint co-ordinate, using the first footprint co-ordinate and the average motion vector, and
Determining whether the object is running through the first footprint co-ordinate and the second footprint co-ordinate,
Wherein obtaining the first footprint co-
Calculating a first coordinate where the footprint is a vertically offset coordinate from the camera, and
Calculating a second coordinate using the first coordinate, wherein the foot-print is a coordinate away from the camera in the horizontal direction
Running detection method.
제11항에 있어서,
상기 평균 모션 벡터를 추출하는 단계는,
상기 전경 에지에 대해서만 모션 벡터를 추출하는 단계, 그리고
상기 추출된 모션 벡터를 상기 객체에 대해 평균을 계산하는 단계를 포함하는 달리기 감지 방법.
12. The method of claim 11,
The step of extracting the average motion vector comprises:
Extracting a motion vector only for the foreground edge, and
And calculating an average of the extracted motion vectors for the object.
삭제delete 제11항에 있어서,
상기 판단하는 단계는, 상기 제1 풋-프린트 좌표와 상기 제2 풋-프린트 좌표를 이용하여 상기 객체의 속도를 계산하는 단계를 포함하는 달리기 감지 방법.
12. The method of claim 11,
Wherein the determining comprises calculating the velocity of the object using the first footprint co-ordinate and the second footprint co-ordinate.
제14항에 있어서,
상기 판단하는 단계는,
상기 속도가 소정의 기준치를 초과하는지를 판단하는 단계, 그리고
상기 속도가 상기 소정의 기준치를 초과하는 경우, 상기 객체가 달리는 것으로 판단하는 단계를 더 포함하는 달리기 감지 방법.
15. The method of claim 14,
Wherein the determining step comprises:
Determining whether the speed exceeds a predetermined reference value, and
And determining that the object is running if the speed exceeds the predetermined reference value.
제11항에 있어서,
상기 전경 에지를 검출하는 단계는,
상기 객체의 전체 영상으로부터 영상 에지를 검출하는 단계,
상기 객체의 현재 영상과 상기 객체의 현재 영상에 시간적으로 연속하는 영상을 이용하여, 시간 에지를 검출하는 단계, 그리고
상기 영상 에지와 상기 시간 에지의 공통 성분을 상기 전경 에지로 추출하는 단계를 포함하는 달리기 감지 방법.
12. The method of claim 11,
Wherein the step of detecting the foreground edge comprises:
Detecting an image edge from the entire image of the object,
Detecting a time edge using a temporally continuous image of the current image of the object and the current image of the object, and
And extracting a common component of the image edge and the time edge to the foreground edge.
제11항에 있어서,
상기 카메라는 핀홀 카메라인 달리기 감지 방법.
12. The method of claim 11,
Wherein the camera is a pinhole camera.
제11항에 있어서,
상기 풋-프린트는 상기 검출된 객체의 사각 영역에서 y축 하단의 픽셀 위치와 x 축 중심점인 달리기 감지 방법.
12. The method of claim 11,
Wherein the footprint is a pixel position at the lower y-axis and an x-axis midpoint in a rectangular area of the detected object.
KR1020140114460A 2014-08-29 2014-08-29 Method and system for dectecting run KR101640563B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140114460A KR101640563B1 (en) 2014-08-29 2014-08-29 Method and system for dectecting run

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140114460A KR101640563B1 (en) 2014-08-29 2014-08-29 Method and system for dectecting run

Publications (2)

Publication Number Publication Date
KR20160026271A KR20160026271A (en) 2016-03-09
KR101640563B1 true KR101640563B1 (en) 2016-07-22

Family

ID=55536702

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140114460A KR101640563B1 (en) 2014-08-29 2014-08-29 Method and system for dectecting run

Country Status (1)

Country Link
KR (1) KR101640563B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3734553A1 (en) * 2019-04-29 2020-11-04 BAE SYSTEMS plc A system and method for localisation using footprints
WO2020221989A1 (en) * 2019-04-29 2020-11-05 Bae Systems Plc A system and method for localisation using footprints

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101375665B1 (en) * 2007-08-08 2014-03-18 삼성전자주식회사 Method and apparatus for estimating a background change, and method and apparatus for detecting a motion
KR100965129B1 (en) * 2008-08-11 2010-06-23 (주)제이티 Method for identifying pedestrians and computing density of pedestrians
KR100979726B1 (en) * 2008-08-29 2010-09-02 (주)제이티 Method of image vehicle detection using feature of moving object

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3734553A1 (en) * 2019-04-29 2020-11-04 BAE SYSTEMS plc A system and method for localisation using footprints
WO2020221989A1 (en) * 2019-04-29 2020-11-05 Bae Systems Plc A system and method for localisation using footprints
EP3963548B1 (en) * 2019-04-29 2023-09-06 BAE SYSTEMS plc A system and method for localisation using footprints

Also Published As

Publication number Publication date
KR20160026271A (en) 2016-03-09

Similar Documents

Publication Publication Date Title
US10515271B2 (en) Flight device and flight control method
US20170308103A1 (en) Flight device, flight control system and method
US8947508B2 (en) Image processing apparatus
US20160379370A1 (en) Information processing apparatus, information processing method, and storage medium
KR101618814B1 (en) Method and Apparatus for Monitoring Video for Estimating Gradient of Single Object
JP7272024B2 (en) Object tracking device, monitoring system and object tracking method
CN106780565B (en) Multi-student sitting-up detection method based on optical flow and k-means clustering
JP6579950B2 (en) Image analysis apparatus, program, and method for detecting person appearing in captured image of camera
JP6261266B2 (en) Moving body detection device
JP6444283B2 (en) Posture determination device
WO2014002692A1 (en) Stereo camera
JP6865110B2 (en) Object tracking method and device
KR101620580B1 (en) Method and system for dectecting run
KR101469099B1 (en) Auto-Camera Calibration Method Based on Human Object Tracking
Jung et al. Object detection and tracking-based camera calibration for normalized human height estimation
Kim Pedestrian detection and distance estimation using thermal camera in night time
KR101640563B1 (en) Method and system for dectecting run
JP6558831B2 (en) Object tracking apparatus, method and program
KR102410300B1 (en) Apparatus for measuring position of camera using stereo camera and method using the same
JP2010145219A (en) Movement estimation device and program
JP2017102718A5 (en)
JP5293429B2 (en) Moving object detection apparatus and moving object detection method
JP2017130889A5 (en)
WO2016181672A1 (en) Image analysis device, image analysis method, and image analysis program
KR101748333B1 (en) Method and apparatus for tracking object

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant