KR20140114594A - Auto-Camera Calibration Method Based on Human Object Tracking - Google Patents

Auto-Camera Calibration Method Based on Human Object Tracking Download PDF

Info

Publication number
KR20140114594A
KR20140114594A KR1020130029035A KR20130029035A KR20140114594A KR 20140114594 A KR20140114594 A KR 20140114594A KR 1020130029035 A KR1020130029035 A KR 1020130029035A KR 20130029035 A KR20130029035 A KR 20130029035A KR 20140114594 A KR20140114594 A KR 20140114594A
Authority
KR
South Korea
Prior art keywords
tracking
camera
moving
coordinates
bounding box
Prior art date
Application number
KR1020130029035A
Other languages
Korean (ko)
Other versions
KR101469099B1 (en
Inventor
장정훈
Original Assignee
주식회사 일리시스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 일리시스 filed Critical 주식회사 일리시스
Priority to KR1020130029035A priority Critical patent/KR101469099B1/en
Publication of KR20140114594A publication Critical patent/KR20140114594A/en
Application granted granted Critical
Publication of KR101469099B1 publication Critical patent/KR101469099B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Abstract

The present invention relates to a method to automatically calibrate a camera based on human object tracking. The method comprises: a video input step of receiving a video from a camera or the like; an object tracking determining step of determining whether to track objects based on the video received in the video input step; a moving object tracking step of tracking moving objects to obtain bounding box coordinates when a tracking instruction starts in the object tracking determining step; a single human object identifying step of identifying a single human object among the moving objects tracked in the moving object tracking step; a tracking termination determining step of determining whether a tracking termination instruction is generated when the identification of the single human object is completed in the single human object identifying step; and a camera parameter calculating step of terminating the tracking of the single human object, and calculating a camera parameter when the tracking termination instruction is generated in the tracking termination determining step. Therefore, human objects can be sensed and tracked from a video obtained by a CCTV camera, and a camera parameter value can automatically be calculated using the tracking result of the human objects.

Description

사람 객체 추적을 통한 자동 카메라 보정 방법 {Auto-Camera Calibration Method Based on Human Object Tracking}[0001] The present invention relates to an automatic camera calibration method,

본 발명은 사람 객체 추적을 통한 자동 카메라 보정 방법에 관한 것으로, 특히 카메라 영상으로부터 사람 객체를 추적하고, 추적 결과를 이용하여 자동으로 카메라를 보정하는 방법에 관한 것이다. The present invention relates to an automatic camera correction method using human object tracking, and more particularly, to a method of automatically tracking a human object from a camera image and automatically correcting the camera using the tracking result.

최근 들어 CCTV 카메라로부터 입력 받은 비디오 영상을 실시간으로 분석하여 이동 객체를 감지 및 추적하고 이를 바탕으로 의미 있는 이벤트를 자동으로 감지하는 지능형 CCTV 시스템에 대한 관심이 날로 증가하고 있다. 초창기에는 단순히 영상으로부터 이동 물체가 특정 영역을 침입하는 이벤트를 감지하는 일종의 “진보된 모션 감지기” 정도로 활용되었으나, 최근 들어 지능형 CCTV 시스템의 적용 범위가 늘어나면서 보다 복잡하고 다양한 이벤트의 감지 및 유용한 영상 분석 데이터의 추출에 대한 요구가 늘어나고 있다. 이에 따라 이동 객체의 감지 및 추적 기술뿐만 아니라 객체의 분류 및 식별 기술이 중요하게 되었다. 정확한 객체의 분류/식별을 수행하려면 영상에서의 객체의 크기, 위치, 이동 속도가 아닌 실제 3D 공간에서의 객체의 크기, 위치, 이동 속도를 측정할 필요가 있다. 2D의 영상 정보로부터 3D의 공간 정보를 얻으려면, 3D의 공간 정보를 2D의 영상 정보로 투영시키는 “카메라”에 대한 기하학적 정보(즉, 카메라 파라미터)를 알 필요가 있다. 대표적인 카메라 파라미터로는 초점 거리, 설치 높이, 회전 각 등이 있다. 이러한 카메라 파라미터 값들을 알아내는 작업을 카메라 보정(Camera Calibration)이라고 한다.In recent years, interest in an intelligent CCTV system that detects and tracks moving objects by analyzing real-time video images input from a CCTV camera and automatically detects meaningful events based on the moving objects is increasing. In the early days, it was simply used as a kind of "advanced motion detector" which detects an event that a moving object intrudes into a specific area from the image. However, recently, as the application range of the intelligent CCTV system is increased, There is a growing demand for data extraction. Accordingly, not only the detection and tracking technology of moving objects but also the classification and identification techniques of objects have become important. In order to classify and identify an accurate object, it is necessary to measure the size, position, and moving speed of the object in the actual 3D space, not the size, position, and moving speed of the object in the image. In order to obtain 3D spatial information from 2D image information, it is necessary to know the geometrical information (i.e., camera parameters) for the " camera " that projects 3D spatial information into 2D image information. Typical camera parameters include focal length, installation height, and rotation angle. The task of finding out these camera parameter values is called camera calibration.

통상적인 카메라 보정 방법은 정확하게 구조를 알고 있는 3D 인공 패턴(예를 들면 격자 무늬 패턴)을 카메라로 촬영한 후, 카메라 영상에서 추출한 패턴의 특징점들(예를 들면 코너 포인트들)에 대한 2D 픽셀 좌표 값, 이에 대응하는 3D 인공 패턴에서의 특징점들에 대한 3D 공간 좌표 값, 그리고 카메라 투영 모델을 이용하여 카메라 파라미터 값을 구하는 것이다. 대한민국 등록특허공보 10-0748719 “다중 스테레오 카메라를 이용한 3차원 모델링 장치 및 그 방법”은 상기 카메라 보정 방법에 대해 기술하고 있다. 상기 카메라 보정 방법은 카메라 설치 또는 카메라 자세 변경 시마다 3D 인공 패턴을 설치하여 촬영하고, 촬영된 영상에서 추출한 특징점들을 3D 인공 패턴의 특징점들과 매칭하는 작업을 수행해야 하므로 매우 번거로운 방법이라고 말할 수 있다. 또한 카메라 설치 환경에 따라 3D 인공 패턴의 이용이 제한될 수도 있다.   A conventional camera correction method is a method of accurately capturing a 3D artificial pattern (e.g., a plaid pattern) having a known structure, using a camera, and then calculating 2D pixel coordinates (e.g., corner points) of feature points (e.g., corner points) Value, the 3D space coordinate value for the feature points in the corresponding 3D artificial pattern, and the camera projection value using the camera projection model. Korean Patent Registration No. 10-0748719 entitled " 3-D Modeling Apparatus Using Multi-Stereo Camera and Method Thereof " The camera correction method requires a 3D artificial pattern to be installed and photographed every time the camera is installed or changed, and the feature points extracted from the photographed image must be matched with the minutiae points of the 3D artificial pattern. Also, the use of 3D artificial patterns may be restricted depending on the camera installation environment.

대한민국 등록특허공보 10-0969576 “카메라 파라미터 캘리브레이션 장치 및 방법”에서는 사용자의 상호 조작에 의해 카메라 보정을 수행하는 장치 및 방법을 제시하고 있다. 상기 장치는 3개의 카메라 파라미터(FOV, 설치 높이, 기울기 각)에 대해 사용자가 값을 입력하면, 입력된 파라미터 값으로 설정된 가상 카메라에 가상 3D 모델(예를 들면 지면 및 지면 위에 서 있는 사람에 대한 3D 모델)을 투영하여 얻은 가상 이미지를 실제 카메라 영상 위에 반투명으로 겹쳐서 보여 준다. 사용자는 가상 이미지와 실제 카메라 영상을 비교하여 입력한 카메라 파라미터 값이 올바른지 판단하고, 가상 이미지와 실제 카메라 영상이 잘 일치할 때까지 카메라 파라미터 값을 변경하는 작업을 반복하여 수행한다. 상기 장치 및 방법은 별도의 3D 인공 패턴 없이 카메라 보정을 할 수 있는 장점이 있으나, 사용자의 반복적인 수작업에 의해 카메라 보정을 수행해야 하는 불편함이 있다.    Korean Patent Registration No. 10-0969576 entitled " Apparatus and Method for Calibrating Camera Parameters " discloses an apparatus and method for performing camera calibration by mutual operation of a user. When the user inputs a value for the three camera parameters (FOV, installation height, tilt angle), the device displays a virtual 3D model (e.g., a virtual 3D model for the person standing on the floor and the floor) 3D model) is projected onto the virtual camera image, and the virtual image is superimposed on the actual camera image in a translucent manner. The user compares the virtual image with the actual camera image to determine whether the inputted camera parameter value is correct, and repeats the operation of changing the camera parameter value until the virtual image matches the actual camera image. The apparatus and method are advantageous in that camera correction can be performed without a separate 3D artificial pattern, but it is inconvenient to perform camera correction by repeated manual operations of the user.

대한민국 특허청 등록특허공보 제10-0969576호Korea Patent Office Registration No. 10-0969576

본 발명은 전술한 문제점을 해결하기 위해 안출된 것으로서, 본 발명의 목적은 통상적인 CCTV 감시 환경 하에서 별도의 3D 인공 패턴 또는 사용자의 반복적인 수작업 없이 자동으로 카메라 보정을 수행하는 방법을 제공하는 것으로, 구체적으로는 CCTV 카메라 영상으로부터 이동하는 사람 객체들을 감지 및 추적하고, 사람 객체의 추적 결과를 이용하여 카메라 파라미터 값을 자동으로 계산하는 것을 특징으로 하는 사람 객체 추적을 통한 자동 카메라 보정 방법을 제공하는 것이다. It is an object of the present invention to provide a method of automatically performing camera correction without additional 3D artificial patterns or repetitive manual operations of a user under a conventional CCTV surveillance environment, Specifically, the present invention provides an automatic camera correction method using human person tracking, which detects and tracks moving human objects from a CCTV camera image and automatically calculates camera parameter values using tracking results of human objects .

전술한 목적을 달성하기 위하여 본 발명은 카메라 등으로부터 비디오 영상을 입력받는 영상입력단계와, 상기 영상입력단계에서 입력받은 영상을 통해 객체 추적여부를 판단하는 단계와, 상기 추적여부 판단단계에서 추적 명령이 시작되면 이동하는 객체를 추적하여 바운딩 박스(Bounding Box) 좌표를 얻을 수 있도록 하는 이동객체 추적단계와, 상기 이동객체 추적단계에서 추적한 이동 객체 중에서 단일사람객체를 식별하는 단일사람객체 식별단계와, 상기 단일사람객체 식별단계에서 단일사람객체에 대한 식별이 완료되면 추적에 대한 종료 명령이 발생되었는지를 판단하는 추적 종료 여부 판단단계와, 상기 추적 종료 판단단계에서 추적 종료 명령이 발생되면 단일사람객체에 대한 추적을 종료하고 카메라 파라미터를 계산하는 카메라 파라미터 계산단계를 포함하는 것을 특징으로 하는 사람 객체 추적을 통한 자동 카메라 보정 방법을 제공한다. According to an aspect of the present invention, there is provided a method for controlling an object, comprising: inputting a video image from a camera or the like; determining whether an object is traced through a video input in the inputting step; A moving object tracking step of tracking a moving object so as to obtain coordinates of a bounding box, a single human object identification step of identifying a single human object among the moving objects tracked in the moving object tracking step, A step of determining whether a termination command for tracking is generated when the identification of the single person object is completed in the single person object identification step; A camera parameter calculation unit for terminating the tracking for the camera and calculating the camera parameters The method of claim 1, further comprising:

이상에서 설명한 바와 같은 본 발명의 사람 객체 추적을 통한 자동 카메라 보정 방법은 통상적인 CCTV 감시 환경 하에서 별도의 3D 인공 패턴 또는 사용자의 반복적인 수작업 없이 자동으로 카메라 보정을 수행하는 것으로, 구체적으로는 CCTV 카메라 영상으로부터 이동하는 사람 객체들을 감지 및 추적하고, 사람 객체의 추적 결과를 이용하여 카메라 파라미터 값을 자동으로 계산하는 효과를 지닌다. The automatic camera correction method according to the present invention as described above performs camera correction automatically without additional 3D artificial patterns or repetitive manual operations of the user under a conventional CCTV surveillance environment, Detects and tracks human objects moving from the image, and automatically calculates camera parameter values using the tracking result of the human object.

도 1은 단일 카메라로부터 물체의 실제 크기 및 위치를 측정하는 방법을 설명하기 위한 도면이며,
도 2는 본 발명의 일실시예에 따른 자동 카메라 보정 방법에 대한 흐름도이며,
도 3은 통상적인 CCTV 감시 환경 하에서 감시 카메라에 의해 취득된 영상에서 이동 객체들의 추적 예를 나타내는 사진이며,
도 4는 본 발명의 다른 실시예에 따른 자동 카메라 보정 방법의 흐름도이며,
도 5는 본 발명의 다른 실시예에 따른 자동 카메라 보정 방법에 의해 계산된 추적 객체의 실제 크기 및 실제 이동 속도를 표시한 예를 나타내는 사진이다.
1 is a view for explaining a method of measuring an actual size and position of an object from a single camera,
2 is a flowchart of an automatic camera correction method according to an embodiment of the present invention,
3 is a photograph showing an example of tracking movement objects in a video captured by a surveillance camera under a normal CCTV surveillance environment,
4 is a flowchart of an automatic camera correction method according to another embodiment of the present invention,
5 is a photograph showing an example of displaying the actual size and the actual moving speed of the tracking object calculated by the automatic camera correction method according to another embodiment of the present invention.

이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 상세히 설명하기 위하여, 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 상세하게 설명한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings in order to facilitate a person skilled in the art to easily carry out the present invention.

도 1은 단일 카메라로부터 물체의 실제 크기 및 위치를 측정하는 방법을 설명하기 위한 도면이다. 다만, 단일 카메라로부터 물체의 실제 크기 및 위치를 측정하려면 하기의 조건들을 만족하는 환경이어야 한다.1 is a view for explaining a method of measuring an actual size and position of an object from a single camera. However, in order to measure the actual size and position of an object from a single camera, the environment must satisfy the following conditions.

(1)지면은 평평하다.(1) The ground is flat.

(2)카메라(101)가 설치된 기둥은 지면과 수직을 이룬다.(2) The column where the camera 101 is installed is perpendicular to the ground.

(3)설치된 카메라(101)는 광축(Optical Axis)을 중심으로 하는 회전 성분을 가지고 있지 않다.(3) The installed camera 101 does not have a rotation component about the optical axis.

(4)물체(102)의 최하단은 지면에 닿아 있다.(4) The lowermost end of the object 102 touches the ground.

대부분의 감시 환경은 상기의 조건들을 만족하며, 상기의 조건을 만족하는 상태에서 카메라(101)의 초점 거리를 f, 카메라(101)의 설치 높이를 H, 카메라(101)의 틸트(Tilt) 각을 θ, 영상의 중심 좌표를

Figure pat00001
라고 하면, 지면상의 특정 포인트의 좌표(X,Y)와 이에 대응하는 카메라(101) 영상에서의 픽셀 좌표(x,y) 사이에는 하기 <수학식 1>과 같이 주어진다.The focal length of the camera 101 is f, the installation height of the camera 101 is H, and the tilt angle of the camera 101 Theta, the center coordinates of the image
Figure pat00001
(X, y) of the specific point on the ground and the pixel coordinates (x, y) in the corresponding image of the camera 101 are given by Equation (1) below.

수학식 1Equation 1

Figure pat00002

Figure pat00002

상기 <수학식 1>에서 λ는 0이 아닌 임의의 값을 갖는다. 영상에서 물체(102)의 최하단 중심의 픽셀 좌표를

Figure pat00003
, 이에 대응하는 지면 좌표를
Figure pat00004
, 영상에서 물체(102)의 최상단 중심의 픽셀 좌표를
Figure pat00005
, 이에 대응하는 지면 좌표를
Figure pat00006
라고 하면, 물체(102)의 실제 높이 h는 하기 <수학식 2>와 같이 주어진다.In Equation (1),? Has an arbitrary value other than zero. The pixel coordinates of the lowermost center of the object 102 in the image
Figure pat00003
, And the corresponding ground coordinates
Figure pat00004
, The pixel coordinates of the uppermost center of the object 102 in the image
Figure pat00005
, And the corresponding ground coordinates
Figure pat00006
, The actual height h of the object 102 is given by Equation (2) below.

수학식 2Equation 2

Figure pat00007
Figure pat00007

따라서 영상에서 물체(102)의 최하단과 최상단의 중심 좌표

Figure pat00008
Figure pat00009
를 알면, 상기 <수학식 1>과 <수학식 2>에 의해 물체(102)의 실제 높이 h와 실제 위치
Figure pat00010
를 구할 수 있다.Therefore, in the image, the coordinates of the lowermost end of the object 102 and the coordinates
Figure pat00008
Wow
Figure pat00009
The actual height h of the object 102 and the actual position h of the object 102 can be calculated from Equations (1) and (2)
Figure pat00010
Can be obtained.

상기 <수학식 1>을 활용하려면 카메라 파라미터 f, θ, H 를 알아야 한다. 이러한 카메라 파라미터 값을 구하는 작업을 카메라 보정(Camera Calibration)이라고 한다. 본 발명에서는 영상에서 사람 객체의 추적 결과를 이용하여 자동으로 카메라를 보정하는 방법을 제안한다.
To use Equation (1), the camera parameters f,?, And H must be known. The task of obtaining these camera parameter values is called camera calibration. In the present invention, a method of automatically calibrating a camera using a tracking result of a human object in an image is proposed.

도 2는 본 발명의 일실시예에 따른 자동 카메라 보정 방법에 대한 흐름도이며, 도 3은 통상적인 CCTV 감시 환경 하에서 감시 카메라에 의해 취득된 영상에서 이동 객체들의 추적 예를 나타내는 사진이다. FIG. 2 is a flowchart illustrating an automatic camera calibration method according to an exemplary embodiment of the present invention. FIG. 3 is a photograph illustrating an example of tracking moving objects in an image captured by a surveillance camera under a conventional CCTV monitoring environment.

본 발명의 일 실시예에서는 일정 기간 동안 수집한 “평균적인 실제 높이(키)를 알고 있는 단일 사람 객체”의 추적 결과를 바탕으로 카메라 파라미터를 계산하는 방법에 관한 것으로서, 카메라 등으로부터 비디오 영상을 입력받는 영상입력단계(S101)와, 상기 영상입력단계(S101)에서 입력받은 영상을 통해 객체 추적여부를 판단하는 단계(S102)와, 상기 추적여부 판단단계(S102)에서 추적 명령이 시작되면 이동하는 객체를 추적하는 이동객체 추적단계(S103)와, 상기 이동객체 추적단계(S103)에서 추적한 이동 객체 중에서 단일사람객체를 식별하는 단일사람객체 식별단계(S104)와, 상기 단일사람객체 식별단계(S104)에서 단일사람객체에 대한 식별이 완료되면 추적에 대한 종료 명령이 발생되었는지를 판단하는 추적 종료 여부 판단단계(S105)와, 상기 추적 종료 판단단계(S105)에서 추적 종료 명령이 발생되면 단일사람객체에 대한 추적을 종료하고 카메라 파라미터를 계산하는 카메라 파라미터 계산단계(S106)를 포함한다. In one embodiment of the present invention, a method for calculating camera parameters based on tracking results of a &quot; single person object that knows an average actual height (key) &quot; A step S102 of determining whether or not to trace an object through an image input in the image input step S101; and a step of determining whether the object is traced through the image input step S101 A single-person object identification step (S104) for identifying a single-person object among the moving objects tracked in the moving object tracking step (S103); a single-person object identification step (S103) (S105) of judging whether a termination command for tracking is generated when the identification of the single person object is completed in step S105, When the track end command is generated in step (S105) and finishes the tracking for a single person object and a camera parameter calculating step (S106) for calculating the camera parameters.

상기 비디오 영상입력단계(S101)는 카메라 등으로부터 비디오 영상을 입력 받는 단계이다. The video image input step S101 is a step of receiving a video image from a camera or the like.

상기 추적여부 판단단계(S102)는 사용자에 의해 객체 추적 시작 명령이 내려졌는지의 여부를 판단하는 단계로서, 만약 사용자에 의해 객체 추적 시작 명령이 내려졌으면 이동객체 추적단계(S103)로 이동하고, 추적 시작 명령이 없으면 계속적으로 비디오 영상만을 입력받을 수 있도록 한다. In step S102, it is determined whether or not an object tracking start command has been issued by the user. If the object tracking start command is issued by the user, the tracking object determining step S102 is performed. In step S103, If there is no start command, only the video image can be received continuously.

상기 이동객체 추적단계(S103)는 상기 비디오 영상입력단계(S101)에서 입력받은 비디오 영상으로부터 이동 객체의 추적을 수행하는 단계로서, 이동 객체의 추적 결과로 매 비디오 프레임마다 추적 객체의 바운딩 박스(Bounding Box) 좌표를 얻을 수 있도록 한다. 이는 도 3에 도시된 바와 같이, 추적 중인 이동 객체들에 대해 바운딩 박스의 좌표값이 표시된다. The moving object tracking step S103 is a step of tracking a moving object from the video image input in the video image input step S101. As a result of tracking the moving object, a bounding box of a tracking object Box) coordinates. This shows the coordinate values of the bounding box for the moving objects being tracked, as shown in Fig.

상기 단일사람객체 식별단계(S104)는 상기 이동객체 추적단계(S103)에서 추적한 이동 객체 중에서 1 명의 사람에 해당하는 객체들을 식별하는 것으로서, 단일 사람 객체의 식별은 객체 바운딩 박스(Bounding Box)의 높이/너비 비율 값을 이용한다. 따라서, 객체 바운딩 박스의 높이/너비 비율이 특정 값(예를 들면 2.0) 이상이면 단일 사람 객체로 식별하고 그에 따른 바운딩 박스 좌표를 수집한다. The single-person object identification step (S104) identifies objects corresponding to one person among the moving objects tracked in the moving object tracking step (S103). The identification of a single-person object may be performed using an object- Height / width ratio values are used. Therefore, if the height / width ratio of the object bounding box is more than a certain value (for example 2.0), it is identified as a single person object and the bounding box coordinates are collected accordingly.

상기 추적 종료 여부 판단단계(S105)는 사용자에 의해 추적 종료 명령이 내려졌는지를 판단하는 단계로서, 만약 추적 종료 명령이 내려졌으면 객체 추적을 종료하고 카메라 파라미터 계산단계(S106)로 이동하고, 종료 명령이 발생되지 않으면 계속적으로 단일 객체를 추적할 수 있도록 한다. In step S105, it is determined whether a tracking termination command is issued by the user. If the tracking termination command is issued, the object tracking is terminated and the camera parameter calculation step S106 is performed. If this does not happen, keep track of a single object continuously.

상기 카메라 파라미터 계산단계(S106)는 추적이 완료된 단일사람객체의 바운딩 박스 좌표값들을 이용하여 카메라 파라미터를 계산하는 단계로서, 수집된 N개의 바운딩 박스 중 i번째 바운딩 박스의 최하단 중심의 좌표를

Figure pat00011
, 최상단 중심의 좌표를
Figure pat00012
라고 하고, 상기 <수학식 1>에 의한
Figure pat00013
에 대응되는 지면 좌표를
Figure pat00014
,
Figure pat00015
에 대응되는 지면 좌표를
Figure pat00016
라고 하면, 하기 <수학식 3>의 비용 함수(Cost Function) C(f,θ,H)를 최소화하는 카메라 파라미터 f,θ,H를 구한다.The camera parameter calculation step (S106) is a step of calculating camera parameters using the bounding box coordinate values of the tracked single-person object. The camera parameter calculation step calculates coordinates of the lowermost center of the i-th bounding box among the collected N bounding boxes
Figure pat00011
, The coordinates of the top center
Figure pat00012
Quot; and < RTI ID = 0.0 >
Figure pat00013
The ground coordinates corresponding to
Figure pat00014
,
Figure pat00015
The ground coordinates corresponding to
Figure pat00016
The camera parameters f,?, And H that minimize the cost function C (f,?, H) of Equation (3) below are obtained.

수학식 3Equation 3

Figure pat00017

Figure pat00017

상기 <수학식 3>에서 h는 사용자로부터 주어진 사람의 평균 높이(키) 값이다. 상기 <수학식 3>의 비용 함수 C(f,θ,H)를 최소화하는 카메라 파라미터 값은 Powell의 방법 등과 같은 수치해석 기법에 의해 구할 수 있다.In Equation (3), h is an average height (key) value of a person given by the user. The camera parameter value for minimizing the cost function C (f,?, H) in Equation (3) can be obtained by a numerical analysis technique such as Powell's method.

다만, 상기 <수학식 3>에서 기본적으로 수집한 모든 바운딩 박스 좌표를 이용하였으나, 현실적으로는 수집한 모든 바운딩 박스 좌표를 이용하는 것이 정확한 카메라 파라미터 값을 구하는데 있어서 적합하지 않을 수도 있다. Although all of the bounding box coordinates basically collected in Equation (3) are used, in practice, using all of the collected bounding box coordinates may not be suitable for obtaining accurate camera parameter values.

따라서, 공간적으로 서로 인접한 바운딩 박스들의 정보는 카메라 파라미터 값을 구하는데 있어서 계산량만 증가시킬 뿐 별 도움이 되지 않으므로 특정 추적 객체로부터 매 비디오 프레임마다 얻은 바운딩 박스 좌표를 모두 이용하기 보다는 서로 중복되지 않는 바운딩 박스들을 뽑아서 사용하는 것이 바람직하고, 수집한 바운딩 박스 정보는 객체 추적 시 객체 영역이 정확하게 검지되지 않거나, 단일 사람 객체 식별에 실패하거나, 사용자로부터 주어진 사람의 평균 키와 동떨어진 사람(예를 들면 어린이)이 포함되는 등 다양한 원인에 의해 오염될 수 있으므로 단순한 Least Squares 방법에 의해 카메라 파라미터를 구하기보다는 RANSAC과 같은 Robust Estimation 기법을 사용하는 것이 바람직하다.
Therefore, since the information of the bounding boxes adjacent to each other spatially increases only the amount of calculation in the calculation of the camera parameter value, it is not helpful. Therefore, rather than using all of the bounding box coordinates obtained per each video frame from the specific tracking object, The collected bounding box information is preferably used when the object region is not correctly detected at the time of object tracking, the single-person object identification fails, or a person (for example, a child) who is away from the average key of the person given by the user, , It is preferable to use Robust Estimation method such as RANSAC rather than camera parameters by simple Least Squares method.

도 4는 본 발명의 다른 실시예에 따른 자동 카메라 보정 방법의 흐름도이고, 도 5는 본 발명의 다른 실시예에 따른 자동 카메라 보정 방법에 의해 계산된 추적 객체의 실제 크기 및 실제 이동 속도를 표시한 예를 나타내는 사진이다. FIG. 4 is a flowchart of an automatic camera correction method according to another embodiment of the present invention, FIG. 5 is a flowchart illustrating an automatic camera correction method according to another exemplary embodiment of the present invention, This is a photograph showing an example.

본 발명의 다른 실시예는 도 4에 도시된 바와 같이 일정 기간 동안 사람 객체 추적 결과를 수집한 후 카메라 보정을 일괄 수행하는 것이 아니고 사람 객체의 추적 중에 얻은 결과를 즉시 이용하여 카메라 보정을 계속적으로 수행하는 방식으로서, 카메라 등으로부터 비디오 영상을 입력받는 영상입력단계(S201)와, 상기 영상입력단계(S201)에서 입력받은 영상을 통해 이동하는 객체를 추적하는 이동객체 추적단계(S202)와, 상기 이동객체 추적단계(S202)에서 추적한 이동 객체 중에서 단일사람객체를 식별하는 단일사람객체 식별단계(S203)와, 상기 단일사람객체 식별단계(S203)에서 식별된 단일사람객체의 바운딩 박스 좌표를 수집하여 카메라 파라미터를 계산하는 카메라 파라미터 계산단계(S204)를 포함한다. Another embodiment of the present invention is to perform camera correction continuously by using the results obtained during tracking of a human object rather than collectively performing camera correction after collecting human object tracking results for a certain period of time as shown in FIG. (S201) for receiving a video image from a camera or the like, a moving object tracking step (S202) for tracking an object moving through an image input in the image inputting step (S201), a moving object tracking step A single person object identification step (S203) of identifying a single person object among the moving objects tracked in the object tracking step (S202); and a step of collecting the bounding box coordinates of the single person object identified in the single person object identification step (S203) And calculating a camera parameter (S204).

상기 영상입력단계(S201)는 카메라 등으로부터 비디오 영상을 입력받는 단계이다. The image input step S201 is a step of receiving a video image from a camera or the like.

상기 이동객체 추적단계(S202)는 상기 영상입력단계(S201)에서 입력받은 비디오 영상으로부터 이동 객체의 추적을 수행하는 단계로서, 이동 객체의 추적 결과로 매 비디오 프레임마다 추적 객체의 바운딩 박스(Bounding Box) 좌표를 얻는다.The moving object tracking step S202 is a step of tracking the moving object from the video image input in the image input step S201. As a result of the tracking of the moving object, a tracking object's bounding box ) Coordinates.

상기 단일사람객체 식별단계(S203)는 상기 이동객체 추적단계(S202)에서 추적한 이동 객체 중에서 1 명의 사람에 해당하는 객체들을 식별하는 것으로서, 단일 사람 객체의 식별은 객체 바운딩 박스(Bounding Box)의 높이/너비 비율 값을 이용한다. The single-person object identification step (S203) identifies the objects corresponding to one person among the moving objects tracked in the moving object tracking step (S202). The identification of the single-person object is performed using the object bounding box Height / width ratio values are used.

상기 카메라 파라미터 계산단계(S204)는 상기 단일사람객체 식별단계(S203)에서 수집된 단일 사람 객체의 바운딩 박스 좌표값들을 바탕으로 카메라 파라미터를 계산하여 업데이트하는 단계이다.
The camera parameter calculation step (S204) is a step of calculating and updating camera parameters based on the bounding box coordinate values of the single human object collected in the single human object identification step (S203).

이상의 설명에서는 본 발명의 바람직한 실시예를 제시하여 설명하였으나, 본 발명이 반드시 이에 한정되는 것은 아니며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경할 수 있음을 쉽게 알 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of illustration, It will be readily apparent that various substitutions, modifications, and alterations can be made herein.

S101 : 비디오 영상입력단계
S102 : 추적여부 판단단계
S103 : 이동객체 추적단계
S104 : 단일사람객체 식별단계
S105 :추적 종료 여부 판단단계
S106 : 카메라 파라미터 계산단계
S101: Video image input step
S102: Step of judging whether or not to trace
S103: Moving object tracking step
S104: single person object identification step
S105: Judging whether the tracking is finished or not
S106: camera parameter calculation step

Claims (4)

카메라 등으로부터 비디오 영상을 입력받는 영상입력단계(S101)와, 상기 영상입력단계(S101)에서 입력받은 영상을 통해 객체 추적여부를 판단하는 단계(S102)와,
상기 추적여부 판단단계(S102)에서 추적 명령이 시작되면 이동하는 객체를 추적하여 바운딩 박스(Bounding Box) 좌표를 얻을 수 있도록 하는 이동객체 추적단계(S103)와,
상기 이동객체 추적단계(S103)에서 추적한 이동 객체 중에서 단일사람객체를 식별하는 단일사람객체 식별단계(S104)와,
상기 단일사람객체 식별단계(S104)에서 단일사람객체에 대한 식별이 완료되면 추적에 대한 종료 명령이 발생되었는지를 판단하는 추적 종료 여부 판단단계(S105)와,
상기 추적 종료 판단단계(S105)에서 추적 종료 명령이 발생되면 단일사람객체에 대한 추적을 종료하고 카메라 파라미터를 계산하는 카메라 파라미터 계산단계(S106)를 포함하는 것을 특징으로 하는 사람 객체 추적을 통한 자동 카메라 보정 방법.
A step S102 of inputting a video image from a camera or the like, a step S102 of determining whether an object is traced through an image input in the image input step S101,
(S103) of tracking a moving object to obtain a bounding box coordinate when a tracking command is started in the tracking determination step (S102)
A single person object identification step (S104) of identifying a single person object among the moving objects tracked in the moving object tracking step (S103)
A step S105 of judging whether a termination command for tracking has been generated when the identification of a single person object is completed in the single person object identification step S104,
And a camera parameter calculation step (S106) of terminating the tracking for the single person object and calculating the camera parameter when the tracking end command is generated in the tracking end determination step (S105) Correction method.
제1항에 있어서,
상기 카메라 파라미터 계산단계(S106)는 비용 함수(Cost Function) C(f,θ,H)를 최소화하는 카메라 파라미터 f,θ,H를 아래의 [수학식 3]에 의하여 산출되는 것을 특징으로 하는 사람 객체 추적을 통한 자동 카메라 보정 방법.
[수학식 3]
Figure pat00018

Figure pat00019
는 수집된 N개의 바운딩 박스 중 i번째 바운딩 박스의 최하단 중심의 좌표,
Figure pat00020
는 최상단 중심의 좌표, h는 사용자가 지정한 사람의 평균 높이(키).
The method according to claim 1,
The camera parameter calculation step S106 calculates the camera parameters f,?, And H that minimize the cost function C (f,?, H) by the following equation (3) Automatic camera calibration method using object tracking.
&Quot; (3) &quot;
Figure pat00018

Figure pat00019
The coordinates of the lowermost center of the ith bounding box among the N bounding boxes collected,
Figure pat00020
Is the coordinates of the top center, and h is the average height (key) of the person specified by the user.
카메라 등으로부터 비디오 영상을 입력받는 영상입력단계(S201)와,
상기 영상입력단계(S201)에서 입력받은 영상을 통해 이동하는 객체를 추적하는 이동객체 추적단계(S202)와,
상기 이동객체 추적단계(S202)에서 추적한 이동 객체 중에서 단일사람객체를 식별하는 단일사람객체 식별단계(S203)와,
상기 단일사람객체 식별단계(S203)에서 식별된 단일사람객체의 바운딩 박스 좌표를 수집하여 카메라 파라미터를 계산하는 카메라 파라미터 계산단계(S204)를 포함함으로서 사람 객체의 추적 중에 얻은 결과를 즉시 이용하여 카메라 보정을 계속적으로 수행하는 것을 특징으로 하는 사람 객체 추적을 통한 자동 카메라 보정 방법.
An image input step S201 for inputting a video image from a camera or the like,
A moving object tracking step (S202) of tracking an object moving through the image input in the image input step (S201)
A single person object identification step (S203) of identifying a single person object among the moving objects tracked in the moving object tracking step (S202)
(S204) of calculating the camera parameters by collecting the bounding box coordinates of the single-person object identified in the single-person object identification step (S203), thereby immediately using the result obtained during tracking of the human object, Wherein the automatic camera calibration is performed continuously.
제3항에 있어서,
상기 카메라 파라미터 계산단계(S204)는 비용 함수(Cost Function) C(f,θ,H)를 최소화하는 카메라 파라미터 f,θ,H를 아래의 [수학식 3]에 의하여 산출되는 것을 특징으로 하는 사람 객체 추적을 통한 자동 카메라 보정 방법.
[수학식 3]
Figure pat00021

Figure pat00022
는 수집된 N개의 바운딩 박스 중 i번째 바운딩 박스의 최하단 중심의 좌표,
Figure pat00023
는 최상단 중심의 좌표, h는 사용자가 지정한 사람의 평균 높이(키).
The method of claim 3,
The camera parameter calculation step S204 calculates the camera parameters f,?, And H that minimize the cost function C (f,?, H) according to the following equation (3) Automatic camera calibration method using object tracking.
&Quot; (3) &quot;
Figure pat00021

Figure pat00022
The coordinates of the lowermost center of the ith bounding box among the N bounding boxes collected,
Figure pat00023
Is the coordinates of the top center, and h is the average height (key) of the person specified by the user.
KR1020130029035A 2013-03-19 2013-03-19 Auto-Camera Calibration Method Based on Human Object Tracking KR101469099B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130029035A KR101469099B1 (en) 2013-03-19 2013-03-19 Auto-Camera Calibration Method Based on Human Object Tracking

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130029035A KR101469099B1 (en) 2013-03-19 2013-03-19 Auto-Camera Calibration Method Based on Human Object Tracking

Publications (2)

Publication Number Publication Date
KR20140114594A true KR20140114594A (en) 2014-09-29
KR101469099B1 KR101469099B1 (en) 2014-12-04

Family

ID=51758241

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130029035A KR101469099B1 (en) 2013-03-19 2013-03-19 Auto-Camera Calibration Method Based on Human Object Tracking

Country Status (1)

Country Link
KR (1) KR101469099B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160092338A (en) * 2015-01-27 2016-08-04 한화테크윈 주식회사 Method for detecting motion, camera and surveillance system adopting the method
US9906775B2 (en) 2015-02-09 2018-02-27 Electronics And Telecommunications Research Institute Device and method for multiview image calibration
US11087495B2 (en) 2019-06-26 2021-08-10 TmaxData Co., Ltd. Method for calibration
KR102456151B1 (en) * 2022-01-07 2022-10-20 포티투닷 주식회사 Sensor fusion system based on radar and camera and method of calculating the location of nearby vehicles

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11321872B2 (en) 2019-07-19 2022-05-03 Avigilon Corporation Method for calibrating a camera using bounding boxes, and camera configured to perform that method
KR102274913B1 (en) 2021-03-30 2021-07-08 서울대학교 산학협력단 Apparatus for Bounding Box Redundancy Removal and Driving Method Thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100879623B1 (en) * 2008-07-05 2009-01-21 주식회사 일리시스 Automated wide area surveillance system using ptz camera and method therefor
KR101139930B1 (en) * 2010-07-15 2012-04-30 중앙대학교 산학협력단 Apparatus and method for object recognition based on part-template matching

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160092338A (en) * 2015-01-27 2016-08-04 한화테크윈 주식회사 Method for detecting motion, camera and surveillance system adopting the method
US9906775B2 (en) 2015-02-09 2018-02-27 Electronics And Telecommunications Research Institute Device and method for multiview image calibration
US11087495B2 (en) 2019-06-26 2021-08-10 TmaxData Co., Ltd. Method for calibration
KR102456151B1 (en) * 2022-01-07 2022-10-20 포티투닷 주식회사 Sensor fusion system based on radar and camera and method of calculating the location of nearby vehicles

Also Published As

Publication number Publication date
KR101469099B1 (en) 2014-12-04

Similar Documents

Publication Publication Date Title
US9965870B2 (en) Camera calibration method using a calibration target
US9818026B2 (en) People counter using TOF camera and counting method thereof
JP6573354B2 (en) Image processing apparatus, image processing method, and program
US9885573B2 (en) Method, device and computer programme for extracting information about one or more spatial objects
KR101469099B1 (en) Auto-Camera Calibration Method Based on Human Object Tracking
CN107079093B (en) Calibration device
JP2019075156A (en) Method, circuit, device, and system for registering and tracking multifactorial image characteristic and code executable by related computer
CN104704384A (en) Image processing method, particularly used in a vision-based localization of a device
JP2014529727A (en) Automatic scene calibration
JP2004340840A (en) Distance measuring device, distance measuring method and distance measuring program
CN105898107B (en) A kind of target object grasp shoot method and system
CN110926330B (en) Image processing apparatus, image processing method, and program
JP2009198445A (en) Device and method for object detection
JP5079547B2 (en) Camera calibration apparatus and camera calibration method
JP5027741B2 (en) Image monitoring device
JP6865110B2 (en) Object tracking method and device
JP5027758B2 (en) Image monitoring device
JP2020056644A (en) Information processing device, information processing method, and program
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
US20210335010A1 (en) Calibration method and calibration apparatus
JP4628910B2 (en) Length measuring device and height measuring device
KR101828710B1 (en) Apparatus and method for object occlusion detection
JP2005031044A (en) Three-dimensional error measuring device
JP4744789B2 (en) Object identification method and object identification apparatus
JP6167567B2 (en) Imaging apparatus, rotation angle estimation method, and rotation angle estimation program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180104

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181031

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190930

Year of fee payment: 6