KR101640563B1 - Method and system for dectecting run - Google Patents
Method and system for dectecting run Download PDFInfo
- Publication number
- KR101640563B1 KR101640563B1 KR1020140114460A KR20140114460A KR101640563B1 KR 101640563 B1 KR101640563 B1 KR 101640563B1 KR 1020140114460 A KR1020140114460 A KR 1020140114460A KR 20140114460 A KR20140114460 A KR 20140114460A KR 101640563 B1 KR101640563 B1 KR 101640563B1
- Authority
- KR
- South Korea
- Prior art keywords
- footprint
- motion vector
- edge
- image
- foot
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Abstract
달리기 감지 방법 및 시스템이 개시된다. 달리기 감지 시스템은 입력되는 영상에서 움직이는 객체를 검출하고, 검출된 객체에 대해서 전경 에지를 검출하고, 전경 에지에 대해서 평균 모션 벡터를 추출하며, 검출된 객체에서 풋-프린트를 검출한다. 그리고 달리기 감지 시스템은, 상기 풋-프린트가 상기 카메라로부터 실제 떨어진 좌표인 제1 풋-프린트 좌표를 획득한 후, 제1 풋-프린트 좌표와 평균 모션 벡터를 이용하여 이전 풋-프린트 좌표인 제2 풋-프린트 좌표를 추정한다. 이때, 달리기 감지 시스템은 제1 풋-프린트 좌표와 제2 풋-프린트 좌표를 통해, 객체의 달리기 여부를 판단한다. A running sensing method and system are disclosed. The running detection system detects moving objects in the input image, detects the foreground edges for the detected objects, extracts the average motion vectors for the foreground edges, and detects the footprint in the detected objects. And the running detection system may be configured to determine a second footprint coincident with the second footprint coordinate using the first footprint coordinate and the average motion vector after obtaining the first footprint co- Estimate the footprint coordinates. At this time, the running detection system determines whether the object is running through the first foot-print coordinate and the second foot-print coordinate.
Description
본 발명은 달리기 감지 방법 및 시스템에 관한 것이다. The present invention relates to a running detection method and system.
사회 안전에 대한 관심이 증가하고 환경 안전을 중시하는 시대적 상황에 따라, 달리기 상황을 감지하는 방법 및 시스템에 대한 사회적 요구가 증가하고 있다. With increasing interest in social safety and increasing emphasis on environmental safety, there is an increasing need for a method and system for detecting running conditions.
기존의 달리기 감지 방법은 카메라 교정을 통해 실세계 3차원 좌표를 영상의 2차원 좌표로 변환하고, 변환된 영상을 이용하여 객체가 이동한 거리를 계산함으로써 달리기를 감지한다. The existing running detection method detects the running by calculating the distance traveled by the object using the transformed image, by converting the real three - dimensional coordinates into two - dimensional coordinates of the image through camera calibration.
여기서, 실세계 3차원 좌표(이하, '월드좌표'라 함)를 영상의 2차원의 좌표로 변환하는 카메라 교정 방법이 중요하다. 이를 위해, 격자 모양의 평면 패턴을 이용하는 방법이 일반적으로 사용된다. 카메라 교정 성능은 월드 좌표를 영상 좌표로 변환하는 변환행렬의 계산에 의해 좌우되며, 이러한 변환행렬을 호모그래피 매트릭스라 한다. 카메라 교정 방법은 수식으로 나타내면 아래의 수학식 1과 같다. Here, the camera calibration method for converting the three-dimensional coordinates of the real world (hereinafter, referred to as "world coordinates") into two-dimensional coordinates of the image is important. For this purpose, a method using a lattice-like planar pattern is generally used. The camera calibration performance depends on the calculation of a transformation matrix for transforming world coordinates into image coordinates, and this transformation matrix is called a homography matrix. The camera calibration method can be expressed by the following equation (1).
상기 수학식 1에서, A는 카메라 내부 왜곡을 보정하기 위한 행렬이고, 는 월드좌표를 영상좌표 변환하기 위한 회전/이동변환 행렬이고, X, Y, Z는 월드좌표이고, x,y는 영상좌표이다. 여기서, 를 호모그래피 매트릭스라고 하며, 는 각각 영상의 x,y에 대한 초점거리, 주점, 비대칭 계수하고 한다. 주점은 이미지 센서(CMOS, CCD 등)의 가로/세로 비율에 의해 발생하며, 비대칭 계수는 카메라 제작과정의 오차에서 발생한다. 카메라가 말들어진 초창기에는 이러한 변수의 영향이 컸지만 기술 발로 인해 영향이 거의 없다. In Equation (1), A is a matrix for correcting intra-camera distortion, X, Y, and Z are world coordinates, and x and y are image coordinates, respectively. here, Is called a homography matrix, Are the focal length, principal point, and asymmetric coefficient for x and y of the image, respectively. The main point is caused by the aspect ratio of the image sensor (CMOS, CCD, etc.), and the asymmetry coefficient occurs in the error of the camera manufacturing process. In the early days when the camera was spoken, the influence of these variables was significant, but it was not affected by the technology foot.
따라서, 호모그래피 매트릭스를 구하기 위해서는 나머지 파라미터를 계산해야 하며, 이때 도 1과 같은 격자 모양의 평면 패턴을 이용하여 월드좌표와 영상좌표를 매칭한다. 도 1은 호모그래피 매트릭스를 구하는데 사용되는 격자 모양의 평면 패턴을 나타내는 도면이다. Therefore, in order to obtain the homography matrix, the remaining parameters must be calculated. At this time, the world coordinates and the image coordinates are matched by using the grid pattern as shown in FIG. 1 is a diagram showing a lattice-like flat pattern used for obtaining a homography matrix.
다음으로, 계산된 호모그래피 매트릭스를 이용하여, 영상에서 객체의 풋-프린트(foot-frint)에 대응하는 월드좌표를 획득할 수 있다. 객체의 foot-print는 영상에서 라벨의 y축 하단의 픽셀 위치, 라벨의 x축 중심점으로 정의된다. 임의의 두 시간에 획득한 객체의 foot-print를 이용하여 해당 시간 동안 객체가 실제 움직인 거리를 계산할 수 있다. Next, the computed homography matrix may be used to obtain the world coordinates corresponding to the foot-print of the object in the image. The foot-print of the object is defined by the pixel location at the bottom of the y-axis of the label in the image, and the x-axis center point of the label. Using the foot-print of an object acquired at any two time, you can calculate the distance that the object actually moves during that time.
그러나 이러한 기존의 방법은 카메라를 대량으로 설치하는 경우, 모든 설치 장소에서 격자 모양의 평면 패턴을 이용하여 카메라를 교정해야 하므로, 적용이 쉽지 않다. 또한, 상기에서 설명한 foot-print는 영상 처리 방법론에 따라 조명 및 그림자의 영향을 크게 받게 되며, 이로 인해 시스템의 성능 저하에 주요 요인이 된다. However, this conventional method is not easy to apply because, when a camera is installed in a large quantity, the camera needs to be calibrated using a grid pattern in every installation place. Also, the foot-print described above is greatly influenced by illumination and shadow according to the image processing methodology, which is a major factor in the performance degradation of the system.
본 발명이 해결하고자 하는 과제는 평면 패턴을 사용하지 않고 사용자 입력 정보를 이용하여 달리기를 감지하는 방법 및 시스템을 제공하는 것이다. SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and system for detecting running by using user input information without using a flat pattern.
본 발명이 해결하고자 하는 또 다른 과제는 조명 및 그림자의 영향에 강인한 풋-프린트(foot-print)를 이용하여 달리기를 감지하는 방법 및 시스템을 제공하는 것이다. A further object of the present invention is to provide a method and system for detecting running using a foot-print that is robust to the effects of illumination and shadow.
본 발명의 실시예에 따르면, 달리기 감지 시스템이 제공된다. 상기 달리기 감지 시스템은, 카메라를 통해 촬영된 영상에서 움직이는 객체를 검출하는 객체 검출부, 상기 객체에 대해서 전경 에지를 검출하는 전경 에지 검출부, 상기 전경 에지에 대해서 평균 모션 벡터를 추출하는 모션 벡터 추출부, According to an embodiment of the present invention, a running detection system is provided. The running detection system includes an object detection unit that detects an object moving in an image captured through a camera, a foreground edge detection unit that detects a foreground edge with respect to the object, a motion vector extraction unit that extracts an average motion vector with respect to the foreground edge,
상기 객체에서 풋-프린트(foot-print)를 검출하는 풋-프린트 추출부, 상기 풋-프린트를 이용하여 상기 객체가 상기 카메라로부터 떨어진 좌표인 풋-프린트 좌표를 획득하는 좌표 변환부, 그리고 상기 풋-프린트 좌표 중 현재 풋-프린트 좌표와 상기 평균 모션 벡터를 이용하여 이전 풋-프린트 좌표를 추정하며, 상기 현재 풋-프린트 좌표와 상기 이전 풋-프린트 좌표를 통해 상기 객체의 달리기 여부를 판단하는 달리기 상황 판단부를 포함할 수 있다. A foot-print extracting unit for detecting a foot-print in the object, a coordinate transforming unit for obtaining foot-print coordinates, in which the object is coordinates away from the camera, using the foot-print, Estimating previous foot-print coordinates using the current foot-print coordinates and the average motion vector of the print coordinates, and determining whether the object is running through the current foot-print coordinate and the previous foot- And a situation determination unit.
상기 모션 벡터 추출부는, 상기 전경 에지에 대해서만 모션 벡터를 추출하고 상기 객체에 대해 평균을 계산하여, 상기 평균 모션 벡터를 계산할 수 있다. The motion vector extraction unit may calculate the average motion vector by extracting a motion vector only for the foreground edge and calculating an average for the object.
상기 모션 벡터 추출부는 상기 전경 에지에 대한 영상을 x축, y축 및 시간으로 각각 미분하여 상기 모션 벡터를 계산할 수 있다. The motion vector extraction unit may calculate the motion vector by differentiating an image for the foreground edge with x-axis, y-axis, and time, respectively.
상기 좌표 변환부는 역투시 변환 방법을 기반으로 상기 풋-프린트 좌표를 획득할 수 있다. The coordinate transformation unit may obtain the footprint coordinates based on the inverse transformation method.
상기 좌표 변환부는, 상기 풋-프린트가 상기 카메라로부터 수직방향으로 떨어진 제1 거리를 계산할 수 있으며, 상기 제1 거리를 이용하여 상기 풋-프린트가 상기 카메라로부터 수평방향으로 떨어진 거리인 제2 거리를 계산할 수 있으며, 상기 제1 거리와 상기 제2 거리가 상기 풋-프린트 좌표일 수 있다. The coordinate transformer may calculate a first distance that the footprint is away from the camera in a vertical direction and use the first distance to determine a second distance that is the distance that the footprint is horizontally away from the camera And the first distance and the second distance may be the footprint coordinates.
상기 달리기 상황 판단부는, 상기 현재 풋-프린트 좌표와 상기 이전 풋-프린트 좌표를 이용하여 상기 객체의 속도를 계산할 수 있다. The running condition determiner may calculate the velocity of the object using the current foot-print coordinate and the previous foot-print coordinate.
상기 달리기 상황 판단부는, 상기 속도가 소정의 기준치를 초과하는 경우 상기 객체가 달리는 것으로 판단할 수 있으며, 상기 속도가 상기 소정의 기준치보다 같거나 작은 경우 상기 객체가 달리지 않는 것으로 판단할 수 있다. The running condition determining unit may determine that the object runs when the speed exceeds the predetermined reference value and may determine that the object does not run when the speed is equal to or smaller than the predetermined reference value.
상기 객체 검출부는 배경 모델링 방법을 통해 상기 객체를 검출할 수 있다. The object detecting unit may detect the object through a background modeling method.
상기 전경 에지 검출부는, 상기 객체의 전체 영상으로부터 영상 에지를 검출하고, 상기 객체의 현재 영상과 상기 객체의 현재 영상에 시간적으로 연속하는 영상을 이용하여 시간 에지를 검출하며, 상기 영상 에지와 상기 시간 에지의 공통 성분을 상기 전경 에지로 추출할 수 있다. Wherein the foreground edge detecting unit detects a video edge from a whole image of the object and detects a time edge using an image temporally continuous with a current image of the object and a current image of the object, The common component of the edge can be extracted at the foreground edge.
상기 모션 벡터 추출부는 광학 플로우 방법을 사용하여 상기 평균 모션 벡터를 추출할 수 있다. The motion vector extracting unit may extract the average motion vector using an optical flow method.
본 발명의 다른 실시예에 따르면, 달리기 감지 시스템에서 카메라를 통해 촬영된 영상을 이용하여 객체의 달리기를 감지하는 방법이 제공된다. 상기 달리기 감지 방법은, 상기 영상에서 움직이는 객체를 검출하는 단계, 상기 검출된 객체에 대해서 전경 에지를 검출하는 단계, 상기 전경 에지에 대해서 평균 모션 벡터를 추출하는 단계, 상기 검출된 객체에서 풋-프린트를 검출하는 단계, 상기 풋-프린트가 상기 카메라로부터 실제 떨어진 좌표인 제1 풋-프린트 좌표를 획득하는 단계, 상기 제1 풋-프린트 좌표와 상기 평균 모션 벡터를 이용하여, 상기 제1 풋-프린트 좌표의 이전 풋-프린트 좌표인 제2 풋-프린트 좌표를 추정하는 단계, 그리고 상기 제1 풋-프린트 좌표와 상기 제2 풋-프린트 좌표를 통해, 상기 객체의 달리기 여부를 판단하는 단계를 포함할 수 있다. According to another embodiment of the present invention, there is provided a method of detecting running of an object using an image photographed through a camera in a running detection system. The running sensing method comprising the steps of: detecting an object moving in the image; detecting a foreground edge for the detected object; extracting an average motion vector for the foreground edge; Obtaining a first footprint co-ordinate, the first foot-print co-ordinate being the coordinates actually offset from the camera, using the first footprint co-ordinate and the average motion vector, Estimating a second footprint coordinate that is a previous footprint coordinate of the coordinates and determining whether the object is running through the first footprint co-ordinate and the second footprint co-ordinate .
상기 평균 모션 벡터를 추출하는 단계는, 상기 전경 에지에 대해서만 모션 벡터를 추출하는 단계, 그리고 상기 추출된 모션 벡터를 상기 객체에 대해 평균을 계산하는 단계를 포함할 수 있다. The step of extracting the average motion vector may comprise extracting a motion vector only for the foreground edge, and calculating an average for the object with respect to the extracted motion vector.
상기 제1 풋-프린트 좌표를 획득하는 단계는, 상기 풋-프린트가 상기 카메라로부터 수직방향으로 떨어진 좌표인 제1 좌표를 계산하는 단계, 그리고 상기 제1 좌표를 이용하여 상기 풋-프린트가 상기 카메라로부터 수평방향으로 떨어진 좌표인 제2 좌표를 계산하는 단계를 포함할 수 있다. Wherein obtaining the first footprint co-ordinates comprises: calculating a first coordinate, wherein the footprint is a coordinate that is vertically offset from the camera, and using the first co- And calculating a second coordinate which is a coordinate in a horizontal direction away from the first coordinate.
상기 판단하는 단계는, 상기 제1 풋-프린트 좌표와 상기 제2 풋-프린트 좌표를 이용하여 상기 객체의 속도를 계산하는 단계를 포함할 수 있다. The determining may include calculating the velocity of the object using the first footprint co-ordinate and the second footprint co-ordinate.
상기 판단하는 단계는, 상기 속도가 소정의 기준치를 초과하는지를 판단하는 단계, 그리고 상기 속도가 상기 소정의 준치를 초과하는 경우, 상기 객체가 달리는 것으로 판단하는 단계를 더 포함할 수 있다. The determining may further include determining whether the velocity exceeds a predetermined reference value, and determining that the object is running if the velocity exceeds the predetermined reference value.
상기 전경 에지를 검출하는 단계는, 상기 객체의 전체 영상으로부터 영상 에지를 검출하는 단계, 상기 객체의 현재 영상과 상기 객체의 현재 영상에 시간적으로 연속하는 영상을 이용하여, 시간 에지를 검출하는 단계, 그리고 상기 영상 에지와 상기 시간 에지의 공통 성분을 상기 전경 에지로 추출하는 단계를 포함할 수 있다. Wherein the step of detecting the foreground edge comprises the steps of: detecting a video edge from a whole image of the object; detecting a time edge using a current image of the object and an image temporally continuous to the current image of the object; And extracting a common component of the image edge and the temporal edge to the foreground edge.
상기 카메라는 핀홀 카메라일 수 있다. The camera may be a pinhole camera.
상기 풋-프린트는 상기 검출된 객체의 사각 영역에서 y축 하단의 픽셀 위치와 x 축 중심점일 수 있다. The footprint may be a pixel location at the bottom of the y-axis and an x-axis center point in a rectangular area of the detected object.
본 발명의 실시예에 따르면 사용자 입력 정보를 이용하여 달리기를 감지함으로써, 간단하게 카메라를 교정할 수 있다. According to the embodiment of the present invention, the camera can be calibrated simply by detecting the running using the user input information.
본 발명의 또 다른 실시예에 따르면 평균 모션 벡터를 이용하여 풋-프린트를 추정함으로써, 조명 및 그림자의 영향에 강인하게 달리기를 감지할 수 있다. According to another embodiment of the present invention, by estimating the footprint using an average motion vector, it is possible to detect running robustly to the influence of illumination and shadow.
도 1은 호모그래피 매트릭스를 구하는데 사용되는 격자 모양의 평면 패턴을 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 달리기 감지 시스템을 나타내는 도면이다.
도 3은 본 발명의 실시예에 따른 핀홀 카메라 모델을 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 핀홀 카메라의 설치 상황을 나타내는 도면이다.
도 5는 도 4의 상황에 대한 평면도(top view)를 나타낸다.
도 6은 본 발명의 실시예에 따른 달리기 감지 방법을 나타내는 흐름도이다. 1 is a diagram showing a lattice-like flat pattern used for obtaining a homography matrix.
2 is a diagram illustrating a running detection system according to an embodiment of the present invention.
3 is a view showing a pinhole camera model according to an embodiment of the present invention.
4 is a view showing an installation state of a pinhole camera according to an embodiment of the present invention.
Figure 5 shows a top view of the situation of Figure 4;
6 is a flowchart illustrating a running sensing method according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.
명세서 및 청구범위 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification and claims, when a section is referred to as "including " an element, it is understood that it does not exclude other elements, but may include other elements, unless specifically stated otherwise.
이제 본 발명의 실시예에 따른 달리기 감지 방법 및 시스템에 대하여 도면을 참조하여 상세하게 설명한다. Now, a running detection method and system according to an embodiment of the present invention will be described in detail with reference to the drawings.
도 2는 본 발명의 실시예에 따른 달리기 감지 시스템을 나타내는 도면이다. 2 is a diagram illustrating a running detection system according to an embodiment of the present invention.
도 2에 나타낸 바와 같이, 본 발명의 실시예에 따른 달리기 감지 시스템(100)은 객체 검출부(110), 전경 에지 검출부(120), 모션 벡터 추출부(130), 풋-프린트 추출부(140), 좌표 변환부(150) 및 달리기 상황 판단부(160)를 포함한다. 2, the
객체 검출부(110)는 카메라에 의해 촬영된 영상에 트랙킹 알고리즘을 적용하여, 움직이는 객체를 검출한다. 영상감시 분야에서 트랙킹 알고리즘은 다양하게 존재하며, 그 중에서 코드북을 기반으로 하는 배경 모델링 방법을 통해 객체를 검출할 수 있다. 배경 모델링 방법은 영상에서 각 픽셀이 가지는 값의 분산을 학습하여 정의된 임계치 이상을 가지는 픽셀을 전경을 간주함으로써 객체를 검출한다. 배경 모델링 방법은 본 발명이 속하는 기술분야의 통상을 지식을 가진 자라면 알 수 있으므로 이하 구체적인 설명은 생략한다. The
전경 에지 검출부(120)는 객체 검출부(110)에 의해 검출된 객체에 대해서 전경 에지를 검출한다. 전경 에지 검출부(120)는 검출된 객체의 각 픽셀에 대한 시간 축 상에 있는 여러 장의 영상들에 대해 에지를 검출한다. 더욱 상세히 설명하면, 전경 에지 검출부(120)는 먼저 입력되는 하나의 객체의 전체 영상으로부터 에지(이하, '영상 에지'라 함)를 검출하고, 시간에 따라 입력되는 복수의 객체 영상을 이용하여 에지 성분(이하, '시간 에지'라 함)을 검출한다. 그리고 전경 에지 검출부(120)는 검출한 영상 에지와 시간 에지의 공통 성분을 추출하고 공통 성분을 만족하는 에지를 전경 에지로 정의한다. 이와 같이 전경 에지를 구하는 방법은 국내 등록특허 번호 제 10-1398684에 구체적으로 기재되어 있으므로, 이하 구체적인 설명은 생략한다. The foreground
다음으로, 모션 벡터 추출부(130)는 전경 에지 검출부(120)에 의해 검출된 전경 에지에 대해서 모션 벡터를 추출한다. 모션 벡터를 추출하는 방법은 다양하게 존재하지만, 본 발명의 실시예로서 광학 플로우(optical flow) 방법이 사용될 수 있다. 광학 플로우(optical flow) 방법은 매우 짧은 시간 동안 픽셀의 밝기 값은 변하지 않고 위치 변화만 발생하는 가정한다. 이때, 각각의 작은 위치 변화가 x, y 축에서 발생하는 경우, 모션 벡터는 아래의 수학식 2와 같이 된다. Next, the motion
수학식 2에서 오른쪽 항을 Taylor series로 전개하면 수학식 3과 같이 된다. In Equation (2), expanding the right term to Taylor series yields Equation (3).
수학식 2와 수학식 3을 동시에 만족하려면, 수학식 3의 우변의 미분식의 합이 0이 되어야 하며, 각각의 변수(x, y, t)에 대해 편미분을 하면 수학식 4와 같이 된다. In order to simultaneously satisfy the equations (2) and (3), the sum of the undersigned of the right side of the equation (3) must be 0, and the partial differentiation for each variable (x, y, t)
수학식 4를 각각의 편미분 항을 나타내는 항으로 바꾸어 정리하면, 수학식 5가 된다. 그리고 수학식 5를 행렬식으로 바꾸면 수학식 6이 된다. By rearranging the expression (4) to the term indicating each partial derivative term, the expression (5) is obtained. And the equation (5) is replaced with the determinant.
다시 말하면, 영상을 x축, y축, 시간(t)축으로 각각 미분함으로써, 모션 벡터가 계산된다. In other words, the motion vector is calculated by differentiating the image into x-axis, y-axis, and time (t) axes, respectively.
이와 같이 계산한 결과는 하나의 영상에 대해 하나의 모션 벡터를 추출한 값이다. 일반적으로는 임의의 픽셀 주변에 일정 크기의 부분 영상에 대해 모션 벡터를 계산하고, 이러한 과정을 전체 픽셀에 대해서 수행하여 해당 영상에 대한 모션을 추정한다. 그러나, 본 발명의 실시예에 따른 모션 벡터 추출부(130)는 전경 에지 검출부(120)에 의해 검출된 전경 에지에 대해서만 모션 벡터를 추출하고, 객체에 대해 평균을 계산하며, 이를 최종적으로 해당 객체의 평균 모션 벡터인 로 할당한다. The calculated result is a value obtained by extracting one motion vector for one image. Generally, a motion vector is calculated for a partial image of a predetermined size around an arbitrary pixel, and motion is estimated for the corresponding pixel by performing this process on all the pixels. However, the motion
한편, 풋-프린트(foot-print) 추출부(140)는 객체 검출부(110)에 의해 검출된 객체에 대해 풋-프린트(foot-print)를 추출한다. 객체 검출부(110)에 의해 객체가 검출되면 객체에 대한 사각 영역이 만들어진다. 풋-프린트(foot-print) 추출부(140)는 사각 영역에서 y축 하단의 픽셀 위치, x축 중심점을 해당 객체의 풋-프린트(foot-print)로 설정한다. On the other hand, the foot-
좌표 변환부(150)는 역투시 변환 방법을 기반으로 현재 객체의 풋-프린트를 이용하여 해당 객체가 실제 카메라에서 떨어진 좌표를 획득한다. 역투시 변환 방법은 아래의 도 3과 같이 핀홀(Pinhole) 카메라 모델을 기반으로 한다. The coordinate transforming
도 3은 본 발명의 실시예에 따른 핀홀 카메라 모델을 나타내는 도면이며, 도 4는 본 발명의 실시예에 따른 핀홀 카메라의 설치 상황을 나타내는 도면이다. FIG. 3 is a view showing a model of a pinhole camera according to an embodiment of the present invention, and FIG. 4 is a view showing an installation state of a pinhole camera according to an embodiment of the present invention.
본 발명의 실시예에서는 도 4와 같이 일정 높이에 카메라가 설치되고 카메라가 임의의 각도로 기울어져 영상을 촬영한다고 가정한다. 좌표 변환부(150)는 역투시 변환을 위해, 먼저 객체가 카메라로부터 수직 방향으로 떨어진 거리(Dy)를 계산하고, 다음으로 객체가 카메라로부터 수평 방향으로 떨어진 거리(Dx)를 계산한다. In the embodiment of the present invention, it is assumed that a camera is installed at a predetermined height as shown in FIG. 4 and the camera is tilted at an arbitrary angle to shoot an image. The coordinate
여기서, 카메라의 높이(H)와 기울어진 카메라 각도()는 설치시 측정되며, 는 해당 카메라의 수직 화각(Vertical Angle of View)으로 계산되어 진다. 는 객체의 풋-프린트에 대한 수직 화각(Vertical Angle of Object Foot-Print)을 나타낸다. 따라서, 객체가 카메라에서 수직방향으로 떨어진 거리(Dy)와 카메라라의 설치 높이(H)의 관계는 아래의 수학식 7과 같다. Here, the height (H) of the camera and the tilted camera angle ) Is measured at installation, Is calculated as a vertical angle of view of the camera. Represents the Vertical Angle of Object Foot-Print for the object's foot-print. Therefore, the relationship between the distance (Dy) of the object in the vertical direction away from the camera and the installation height (H) of the camera is expressed by Equation (7) below.
수학식 7의 좌변을 풀어서 정리하면 수학식 8과 같다. Equation (8) is obtained by solving the left side of Equation (7).
한편, 와 초점 거리(f)의 관계는 수학식 9와 같다. Meanwhile, And the focal length f are expressed by Equation (9).
수학식 8과 수학식 9를 정리하면, 아래의 수학식 10과 같다. Equation (8) and Equation (9) are summarized as Equation (10) below.
객체가 카메라에서 수직방향으로 떨어진 거리인 Dy는 수학식 7과 수학식 10을 이용하여, 최종적으로 수학식 11과 같이 계산된다. Dy, which is the distance in which the object is vertically away from the camera, is finally calculated using Equation (7) and Equation (10) as shown in Equation (11).
상기 수학식 11을 이용하여 Dy가 계산되면, 이를 이용하여 객체가 카메라를 중심으로 떨어진 수평 방향의 거리(Dx)를 계산할 수 있다. When Dy is calculated using Equation (11), the distance Dx of the object in the horizontal direction away from the camera can be calculated by using Dy.
도 5는 도 4의 상황에 대한 평면도(top view)를 나타낸다. 도 5에서 는 카메라의 수평 화각(Horizontal Angle of View)이며, 는 객체의 풋-프린트에 대한 수평 화각(Horizontal of Angle of Object Foot-Print)을 나타낸다. 그리고 L은 카메라로부터의 기하학적인 거리(Diagonal Distance L from Camera)이며 로 정의된다. Figure 5 shows a top view of the situation of Figure 4; 5, Is a horizontal angle of view of the camera, Represents the Horizontal of Angle of Object Foot-Print for the object's foot-print. And L is the geometric distance from the camera (Diagonal Distance L from Camera) .
객체의 수평 방향의 거리(Dx)와 의 관계는 수학식 12와 같다. The horizontal distance Dx of the object Is expressed by Equation (12).
여기서, , 와 초점 거리 f와의 관계는 다음의 수학식 13과 같이므로, 최종적으로 객체의 수평 방향의 거리(Dx)는 수학식 14와 같이 계산된다. here, , And the focal length f is expressed by the following equation (13), finally the distance Dx in the horizontal direction of the object is calculated as shown in equation (14).
이와 같이 수학식 11과 수학식 14와 같이 최종적으로 현재 풋-프린트(foot-print)에 대한 좌표(Dx, Dy)가 계산된다. 일반적인 방법으로는 현재 풋-프린트 대한 좌표와 이전 풋-프린트에 대한 좌표를 비교하여 달리기 상황을 판단할 수 있으나, 이는 조명 및 그림자로부터 영향을 많이 받을 수 있다. Finally, the coordinates (Dx, Dy) for the current foot-print are calculated as shown in Equations (11) and (14). A common method is to determine the running situation by comparing the coordinates of the current foot-print with the coordinates of the previous foot-print, but this can be affected by lighting and shadows.
이에 따라, 본 발명의 실시예에 따른 달리기 상황 판단부(160)는 좌표 변환부(150)에 의해 계산된 현재 풋-프린트 좌표와 모션 벡터 추출부(130)에 의해 추출된 평균 모션 벡터 를 이용하여, 이전 풋-프린트(foot-print) 좌표를 추정한다. 좌표 변환부(150)에 의해 계산된 현재 풋-프린트 좌표가 이면, n 시간 이전의 풋-프린트 좌표는 다음의 수학식 15와 같이 된다. Accordingly, the running
따라서, 달리기 상황 판단부(160)는 현재의 풋-프린트 좌표와 n 시간 이전의 풋-프린트 좌표의 차이를 이용하여 해당 객체의 속도를 계산할 수 있다. 이와 같이 계산된 해당 객체의 속도는 아래의 수학식 16과 같이 된다. Accordingly, the running
한편, 본 발명의 실시예에 따른 달리기 상황 판단부(160)는 수학식 16과 같이 계산된 해당 객체의 속도가 소정의 기준치를 초과하는 경우 해당 객체가 달리는 것으로 판단할 수 있다. Meanwhile, the running
도 6은 본 발명의 실시예에 따른 달리기 감지 방법을 나타내는 흐름도이다. 6 is a flowchart illustrating a running sensing method according to an embodiment of the present invention.
도 6에 나타낸 바와 같이, 카메라에 의해 촬영된 영상이 객체 검출부(110)로 입력된다(S610). 객체 검출부(110)는 입력 영상에 트랙킹 알고리즘을 이용하여 움직이는 객체를 검출한다(S620). 6, an image photographed by the camera is input to the object detection unit 110 (S610). The
전경 에지 검출부(120)는 객체 검출부(110)에서 검출된 객체에 대해서 전경 에지를 검출한다(S630). 즉, 전경 에지 검출부(120)는 영상 에지와 시간 에지의 공통 성분을 추출하고 공통 성분을 만족하는 에지를 전경 에지로서 검출한다. The foreground
다음으로, 모션 벡터 추출부(130)는 전경 에지 검출부(120)에 의해 검출된 전경 에지에 대해서 평균 모션 벡터를 추출한다(S640). 여기서, 모션 벡터를 추출하는 방법은 광학 플로우 방법이 사용될 수 있으며, 모션 벡터 추출부(130)는 전경 에지에 대해 모션 벡터를 추출하고 객체에 대해 평균을 계산하여 평균 모션 벡터를 추출한다. Next, the motion
풋-프린트 추출부(140)는 객체 검출부(110)에 의해 검출된 객체에 대해 풋-프린트(foot-print)를 추출한다(S650). The
좌표 변환부(150)는 역투시 변환 방법을 기반으로 현재 객체의 풋-프린트를 이용하여 해당 객체가 실제 카메라에서 떨어진 좌표를 획득한다(S660). 즉, 좌표 변환부(150)는 수학식 11과 수학식 14를 이용하여 현재 풋-프린트(foot-print)에 대한 좌표를 계산한다. In step S660, the coordinate transforming
달리기 상황 판단부(160)는 좌표 변환부(150)에 의해 계산된 현재 풋-프린트 좌표와 모션 벡터 추출부(130)에 의해 추출된 평균 모션 벡터 를 이용하여, 이전 풋-프린트(foot-print)에 대한 좌표 추정한다(S670). The running
그리고 달리기 상황 판단부(160)는 현재 풋-프린트 좌표와 이전 풋-프린트 좌표를 이용하여 객체의 속도를 계산한다(S680). 달리기 상황 판단부(160)는 객체의 속도가 소정의 기준치를 초과하면 객체가 달리고 있는 것으로 판단한다(S690, S691). 달리기 상황 판단부(160)는 객체의 속도가 소정의 기준치보다 같거나 작으면 객체가 달리지 않는 것으로 판단한다(S690, S692). The running
이와 같은 본 발명의 실시예에 따른 달리기 감지 방법 및 시스템을 위험물을 취급하는 사업장에 설치하면 환경 안전에 많은 도움을 줄것으로 예상된다. It is expected that the running sensing method and system according to the embodiment of the present invention can be installed in a workplace handling dangerous goods, thereby greatly contributing to environmental safety.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It belongs to the scope of right.
Claims (18)
상기 객체에 대해서 전경 에지를 검출하는 전경 에지 검출부,
상기 전경 에지에 대해서 평균 모션 벡터를 추출하는 모션 벡터 추출부,
상기 객체에서 풋-프린트(foot-print)를 검출하는 풋-프린트 추출부,
상기 풋-프린트를 이용하여 상기 객체가 상기 카메라로부터 떨어진 좌표인 풋-프린트 좌표를 획득하는 좌표 변환부, 그리고
상기 풋-프린트 좌표 중 현재 풋-프린트 좌표와 상기 평균 모션 벡터를 이용하여 이전 풋-프린트 좌표를 추정하며, 상기 현재 풋-프린트 좌표와 상기 이전 풋-프린트 좌표를 통해 상기 객체의 달리기 여부를 판단하는 달리기 상황 판단부를 포함하며,
상기 좌표 변환부는, 상기 풋-프린트가 상기 카메라로부터 수직방향으로 떨어진 제1 거리를 계산하며, 상기 제1 거리를 이용하여 상기 풋-프린트가 상기 카메라로부터 수평방향으로 떨어진 거리인 제2 거리를 계산하며,
상기 제1 거리와 상기 제2 거리가 상기 풋-프린트 좌표인
달리기 감지 시스템. An object detector for detecting a moving object in an image captured through a camera,
A foreground edge detector for detecting a foreground edge with respect to the object,
A motion vector extraction unit for extracting an average motion vector with respect to the foreground edge,
A foot-print extracting unit for detecting a foot-print in the object,
A coordinate transforming unit using the footprint to obtain foot-print coordinates, in which the object is a coordinate away from the camera; and
Estimating previous footprint co-ordinates using the current foot-print co-ordinates and the average motion vector, and determining whether the object is running through the current foot-print co-ordinates and the previous foot- And a running condition determining unit
Wherein the coordinate transformer calculates a first distance that the footprint is away from the camera in a vertical direction and uses the first distance to calculate a second distance that is the distance the foot- In addition,
Wherein the first distance and the second distance are the footprint coordinates
Running detection system.
상기 모션 벡터 추출부는, 상기 전경 에지에 대해서만 모션 벡터를 추출하고 상기 객체에 대해 평균을 계산하여, 상기 평균 모션 벡터를 계산하는 달리기 감지 시스템. The method according to claim 1,
Wherein the motion vector extracting unit extracts a motion vector only for the foreground edge and calculates an average for the object, and calculates the average motion vector.
상기 모션 벡터 추출부는 상기 전경 에지에 대한 영상을 x축, y축 및 시간으로 각각 미분하여 상기 모션 벡터를 계산하는 달리기 감지 시스템. 3. The method of claim 2,
Wherein the motion vector extracting unit calculates the motion vector by differentiating an image for the foreground edge with x-axis, y-axis, and time, respectively.
상기 달리기 상황 판단부는, 상기 현재 풋-프린트 좌표와 상기 이전 풋-프린트 좌표를 이용하여 상기 객체의 속도를 계산하는 달리기 감지 시스템. The method according to claim 1,
Wherein the running condition determining unit calculates the velocity of the object using the current footprint co-ordinate and the previous footprint co-ordinate.
상기 달리기 상황 판단부는,
상기 속도가 소정의 기준치를 초과하는 경우 상기 객체가 달리는 것으로 판단하며,
상기 속도가 상기 소정의 기준치보다 같거나 작은 경우 상기 객체가 달리지 않는 것으로 판단하는 달리기 감지 시스템. The method according to claim 6,
The running condition determining unit may determine,
Determines that the object is running if the speed exceeds a predetermined reference value,
And determines that the object does not run when the speed is equal to or smaller than the predetermined reference value.
상기 객체 검출부는 배경 모델링 방법을 통해 상기 객체를 검출하는 달리기 감지 시스템. The method according to claim 1,
Wherein the object detecting unit detects the object through a background modeling method.
상기 전경 에지 검출부는, 상기 객체의 전체 영상으로부터 영상 에지를 검출하고, 상기 객체의 현재 영상과 상기 객체의 현재 영상에 시간적으로 연속하는 영상을 이용하여 시간 에지를 검출하며, 상기 영상 에지와 상기 시간 에지의 공통 성분을 상기 전경 에지로 추출하는 달리기 감지 시스템. The method according to claim 1,
Wherein the foreground edge detecting unit detects a video edge from a whole image of the object and detects a time edge using an image temporally continuous with a current image of the object and a current image of the object, And extracts a common component of the edge to the foreground edge.
상기 모션 벡터 추출부는 광학 플로우 방법을 사용하여 상기 평균 모션 벡터를 추출하는 달리기 감지 시스템. The method according to claim 1,
Wherein the motion vector extractor extracts the average motion vector using an optical flow method.
상기 영상에서 움직이는 객체를 검출하는 단계,
상기 검출된 객체에 대해서 전경 에지를 검출하는 단계,
상기 전경 에지에 대해서 평균 모션 벡터를 추출하는 단계,
상기 검출된 객체에서 풋-프린트를 검출하는 단계,
상기 풋-프린트가 상기 카메라로부터 실제 떨어진 좌표인 제1 풋-프린트 좌표를 획득하는 단계,
상기 제1 풋-프린트 좌표와 상기 평균 모션 벡터를 이용하여, 상기 제1 풋-프린트 좌표의 이전 풋-프린트 좌표인 제2 풋-프린트 좌표를 추정하는 단계, 그리고
상기 제1 풋-프린트 좌표와 상기 제2 풋-프린트 좌표를 통해, 상기 객체의 달리기 여부를 판단하는 단계를 포함하며,
상기 제1 풋-프린트 좌표를 획득하는 단계는,
상기 풋-프린트가 상기 카메라로부터 수직방향으로 떨어진 좌표인 제1 좌표를 계산하는 단계, 그리고
상기 제1 좌표를 이용하여 상기 풋-프린트가 상기 카메라로부터 수평방향으로 떨어진 좌표인 제2 좌표를 계산하는 단계를 포함하는
달리기 감지 방법. A method of detecting running of an object using an image captured through a camera in a running detection system,
Detecting a moving object in the image,
Detecting a foreground edge for the detected object,
Extracting an average motion vector for the foreground edge,
Detecting a footprint in the detected object,
Obtaining a first footprint co-ordinate in which the foot-print is an actual distant coordinate from the camera,
Estimating a second footprint co-ordinate, which is the previous foot-print co-ordinate of the first footprint co-ordinate, using the first footprint co-ordinate and the average motion vector, and
Determining whether the object is running through the first footprint co-ordinate and the second footprint co-ordinate,
Wherein obtaining the first footprint co-
Calculating a first coordinate where the footprint is a vertically offset coordinate from the camera, and
Calculating a second coordinate using the first coordinate, wherein the foot-print is a coordinate away from the camera in the horizontal direction
Running detection method.
상기 평균 모션 벡터를 추출하는 단계는,
상기 전경 에지에 대해서만 모션 벡터를 추출하는 단계, 그리고
상기 추출된 모션 벡터를 상기 객체에 대해 평균을 계산하는 단계를 포함하는 달리기 감지 방법. 12. The method of claim 11,
The step of extracting the average motion vector comprises:
Extracting a motion vector only for the foreground edge, and
And calculating an average of the extracted motion vectors for the object.
상기 판단하는 단계는, 상기 제1 풋-프린트 좌표와 상기 제2 풋-프린트 좌표를 이용하여 상기 객체의 속도를 계산하는 단계를 포함하는 달리기 감지 방법. 12. The method of claim 11,
Wherein the determining comprises calculating the velocity of the object using the first footprint co-ordinate and the second footprint co-ordinate.
상기 판단하는 단계는,
상기 속도가 소정의 기준치를 초과하는지를 판단하는 단계, 그리고
상기 속도가 상기 소정의 기준치를 초과하는 경우, 상기 객체가 달리는 것으로 판단하는 단계를 더 포함하는 달리기 감지 방법. 15. The method of claim 14,
Wherein the determining step comprises:
Determining whether the speed exceeds a predetermined reference value, and
And determining that the object is running if the speed exceeds the predetermined reference value.
상기 전경 에지를 검출하는 단계는,
상기 객체의 전체 영상으로부터 영상 에지를 검출하는 단계,
상기 객체의 현재 영상과 상기 객체의 현재 영상에 시간적으로 연속하는 영상을 이용하여, 시간 에지를 검출하는 단계, 그리고
상기 영상 에지와 상기 시간 에지의 공통 성분을 상기 전경 에지로 추출하는 단계를 포함하는 달리기 감지 방법. 12. The method of claim 11,
Wherein the step of detecting the foreground edge comprises:
Detecting an image edge from the entire image of the object,
Detecting a time edge using a temporally continuous image of the current image of the object and the current image of the object, and
And extracting a common component of the image edge and the time edge to the foreground edge.
상기 카메라는 핀홀 카메라인 달리기 감지 방법. 12. The method of claim 11,
Wherein the camera is a pinhole camera.
상기 풋-프린트는 상기 검출된 객체의 사각 영역에서 y축 하단의 픽셀 위치와 x 축 중심점인 달리기 감지 방법. 12. The method of claim 11,
Wherein the footprint is a pixel position at the lower y-axis and an x-axis midpoint in a rectangular area of the detected object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140114460A KR101640563B1 (en) | 2014-08-29 | 2014-08-29 | Method and system for dectecting run |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140114460A KR101640563B1 (en) | 2014-08-29 | 2014-08-29 | Method and system for dectecting run |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160026271A KR20160026271A (en) | 2016-03-09 |
KR101640563B1 true KR101640563B1 (en) | 2016-07-22 |
Family
ID=55536702
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140114460A KR101640563B1 (en) | 2014-08-29 | 2014-08-29 | Method and system for dectecting run |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101640563B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3734553A1 (en) * | 2019-04-29 | 2020-11-04 | BAE SYSTEMS plc | A system and method for localisation using footprints |
WO2020221989A1 (en) * | 2019-04-29 | 2020-11-05 | Bae Systems Plc | A system and method for localisation using footprints |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101375665B1 (en) * | 2007-08-08 | 2014-03-18 | 삼성전자주식회사 | Method and apparatus for estimating a background change, and method and apparatus for detecting a motion |
KR100965129B1 (en) * | 2008-08-11 | 2010-06-23 | (주)제이티 | Method for identifying pedestrians and computing density of pedestrians |
KR100979726B1 (en) * | 2008-08-29 | 2010-09-02 | (주)제이티 | Method of image vehicle detection using feature of moving object |
-
2014
- 2014-08-29 KR KR1020140114460A patent/KR101640563B1/en active IP Right Grant
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3734553A1 (en) * | 2019-04-29 | 2020-11-04 | BAE SYSTEMS plc | A system and method for localisation using footprints |
WO2020221989A1 (en) * | 2019-04-29 | 2020-11-05 | Bae Systems Plc | A system and method for localisation using footprints |
EP3963548B1 (en) * | 2019-04-29 | 2023-09-06 | BAE SYSTEMS plc | A system and method for localisation using footprints |
Also Published As
Publication number | Publication date |
---|---|
KR20160026271A (en) | 2016-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10515271B2 (en) | Flight device and flight control method | |
US20170308103A1 (en) | Flight device, flight control system and method | |
US8947508B2 (en) | Image processing apparatus | |
US20160379370A1 (en) | Information processing apparatus, information processing method, and storage medium | |
KR101618814B1 (en) | Method and Apparatus for Monitoring Video for Estimating Gradient of Single Object | |
JP7272024B2 (en) | Object tracking device, monitoring system and object tracking method | |
CN106780565B (en) | Multi-student sitting-up detection method based on optical flow and k-means clustering | |
JP6579950B2 (en) | Image analysis apparatus, program, and method for detecting person appearing in captured image of camera | |
JP6261266B2 (en) | Moving body detection device | |
JP6444283B2 (en) | Posture determination device | |
WO2014002692A1 (en) | Stereo camera | |
JP6865110B2 (en) | Object tracking method and device | |
KR101620580B1 (en) | Method and system for dectecting run | |
KR101469099B1 (en) | Auto-Camera Calibration Method Based on Human Object Tracking | |
Jung et al. | Object detection and tracking-based camera calibration for normalized human height estimation | |
Kim | Pedestrian detection and distance estimation using thermal camera in night time | |
KR101640563B1 (en) | Method and system for dectecting run | |
JP6558831B2 (en) | Object tracking apparatus, method and program | |
KR102410300B1 (en) | Apparatus for measuring position of camera using stereo camera and method using the same | |
JP2010145219A (en) | Movement estimation device and program | |
JP2017102718A5 (en) | ||
JP5293429B2 (en) | Moving object detection apparatus and moving object detection method | |
JP2017130889A5 (en) | ||
WO2016181672A1 (en) | Image analysis device, image analysis method, and image analysis program | |
KR101748333B1 (en) | Method and apparatus for tracking object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |