KR101456861B1 - Spatio-temporal calibration and tracking method and device with object dynamics in multiple camera systems - Google Patents
Spatio-temporal calibration and tracking method and device with object dynamics in multiple camera systems Download PDFInfo
- Publication number
- KR101456861B1 KR101456861B1 KR1020080027968A KR20080027968A KR101456861B1 KR 101456861 B1 KR101456861 B1 KR 101456861B1 KR 1020080027968 A KR1020080027968 A KR 1020080027968A KR 20080027968 A KR20080027968 A KR 20080027968A KR 101456861 B1 KR101456861 B1 KR 101456861B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- cameras
- time
- calibration
- histogram
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration by the use of histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
Abstract
본 발명은 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 추적 방법 및 그 장치에 관한 것으로, 복수개의 카메라에서 촬영된 영상에서 오브젝트의 형태 정보, 및 시공간(spatio-temporal) 정보를 추출하고, 상기 추출된 형태 정보, 시간 정보, 및 공간 정보에 기초하여, 상기 오브젝트의 궤적을 추적하며, 상기 추적된 오브젝트의 궤적에 기초하여, 상기 복수개의 카메라 간의 교정을 실행한다.
카메라, 오브젝트, 궤적 추적, 교정
The present invention relates to a space-time calibration tracking method and apparatus using dynamic information of an object in a multi-camera system, and more particularly, to a method and apparatus for extracting shape information and spatio- temporal information of an object from an image captured by a plurality of cameras, Tracks the trajectory of the object based on the extracted type information, time information, and spatial information, and performs calibration between the plurality of cameras based on the trajectory of the traced object.
Camera, Object, Trajectory Tracking, Calibration
Description
본 발명은 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 추적 방법 및 그 장치에 관한 것으로, 특히 복수개의 카메라에서의 뷰(view)의 겹침이 없는 경우에도, 오브젝트 움직임 모델을 이용하여 시공간(spatio-temporal) 보정(calibration)을 동시에 실행할 수 있는 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 추적 방법 및 그 장치에 관한 것이다.The present invention relates to a method and apparatus for tracking space-time calibration using dynamic information of an object in a multiple camera system, and more particularly, The present invention relates to a space-time calibration tracking method and apparatus using dynamic information of an object in a multi-camera system capable of performing spatio-temporal calibration simultaneously.
복수개의 카메라가 설치된 다중 카메라 환경에서는 복수개의 카메라의 상호 교정이 필요하다. 이와 같은 다중 카메라 교정은 카메라 상에 촬영되는 물체 정보의 일관성을 확보하기 위하여 필요로 하며, 교정은 카메라 간의 상호 관계를 이용하여 이루어진다.In a multiple camera environment in which a plurality of cameras are installed, mutual correction of a plurality of cameras is required. Such multiple camera calibration is necessary to ensure consistency of object information photographed on the camera, and correction is made by using the correlation between cameras.
상기와 같은 다중 카메라 교정에 의하면 복잡한 카메라 모델에 대하여서도 정확한 결과를 얻을 수 있다.According to the above-described multi-camera calibration, accurate results can be obtained even for a complicated camera model.
이와 같은 다중 카메라 교정 환경에서는 카메라 상호 간의 관계를 이용하여 기준 좌표로 변환하기 위하여, 삼차원(3D) 또는 이차원(2D) 보정 격자를 설치하고, 환경에 따라서 큰 크기의 보정 격자를 설치하여 보정 격자 간의 겹침이 발생하게 되어 그에 따른 교정 및 보정이 이루어졌다.In such a multi-camera calibration environment, a three-dimensional (3D) or two-dimensional (2D) correction grid is installed in order to convert the coordinates into reference coordinates using the relationship between the cameras, The overlapping occurred and the corrections and corrections were made accordingly.
본 발명은 상기와 같은 종래 기술을 개선하기 위해 안출된 것으로서, 본 발명은 오브젝트의 움직임에 대한 수학적 모델을 이용하여 복수개의 카메라에서의 뷰(view)의 겹침이 없는 경우에도, 각 카메라 간의 대응 관계를 구할 수 있으며, 상기 대응 관계를 이용하여 복수개의 카메라 간의 로테이션(rotation) 및 트랜스레이션(translation)을 산출하여 카메라 간의 시간(temporal) 보정을 수행할 수 있도록 한 카메라 교정 방법을 제공하고자 한다.SUMMARY OF THE INVENTION The present invention has been made in order to solve the above-described problems, and it is an object of the present invention to provide a method and apparatus for correcting a movement of an object by using a mathematical model of movement of an object, And to provide a camera calibration method capable of performing temporal correction between cameras by calculating rotation and translation between a plurality of cameras using the corresponding relationship.
또한 본 발명은 복수개의 카메라에서의 뷰(view)의 겹침이 없는 경우에도, 동일한 오브젝트 움직임 모델을 이용하여 시공간(spatio-temporal) 보정(calibration)을 동시에 실행할 수 있도록 하고자 한다.Also, the present invention is intended to enable simultaneous spatio-temporal calibration using the same object motion model even when there is no overlap of views in a plurality of cameras.
또한 본 발명은 셋업(setup) 보정을 위하여 패턴(pattern) 영상을 얻기 위한 시간 보정에 필요한 아날로그 케이블링(analog cabling) 비용이 필요 없으며, 공간 보정의 경우 사용되는 삼차원(3D) 또는 이차원(2D) 보정 격자를 설치할 필요 없이, 복수개의 카메라의 보정을 수행할 수 있도록 하고자 한다.Further, the present invention does not require analog cabling costs required for time correction to obtain a pattern image for setup correction, and does not require 3D cube or 2D cube, It is desired to perform correction of a plurality of cameras without installing a correction grid.
상기의 목적을 이루고 종래기술의 문제점을 해결하기 위하여 본 발명의 일측에 따른 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 방법은, 복수개의 카메라에서 촬영된 영상에서 오브젝트의 형태 정보 및 시공간(spatio-temporal) 정보를 추출하는 단계, 상기 추출된 형태 정보, 시공 간(spatio-temporal) 정보에 기초하여, 상기 오브젝트의 궤적을 추적하는 단계, 및 상기 추적된 오브젝트의 궤적에 기초하여, 상기 복수개의 카메라 간의 교정을 실행하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method for time-space calibration and tracking using dynamic information of an object in a multi-camera system, the method comprising: Extracting spatio-temporal information, tracing the trajectory of the object based on the extracted type information, spatio-temporal information, and determining, based on the trajectory of the traced object, And performing calibration between the plurality of cameras.
본 발명의 또 다른 일측에 따르면, 상기 복수개의 카메라에서 촬영된 영상에서 오브젝트의 형태 정보, 및 시공간(spatio-temporal) 정보를 추출하는 단계는, 상기 오브젝트를 부분별로 구분하는 히스토그램을 생성하고, 상기 히스토그램을 이용하여 상기 오브젝트의 형태 정보를 추출하는 단계이다.According to another aspect of the present invention, the step of extracting shape information and spatio-temporal information of an object from the images photographed by the plurality of cameras may include generating a histogram that divides the object into parts, And extracting shape information of the object using a histogram.
본 발명의 또 다른 일측에 따르면, 상기 오브젝트를 부분별로 구분하는 히스토그램을 생성하고, 상기 히스토그램을 이용하여 상기 오브젝트의 형태 정보를 추출하는 단계는, 상기 오브젝트가 사람인 경우 상기 사람을 신체별로 구분하는 히스토그램을 생성하고, 상기 히스토그램을 이용하여 상기 사람의 형태 정보를 추출하는 단계이다.According to another aspect of the present invention, the step of generating a histogram that divides the object into parts and extracting the type information of the object using the histogram may include a step of, when the object is a human, And extracting the morphological information of the person using the histogram.
본 발명의 또 다른 일측에 따르면, 복수개의 카메라에서 촬영된 영상에서 오브젝트의 형태 정보, 및 시공간(spatio-temporal) 정보를 추출하는 단계는, 상기 복수개의 카메라 간의 상기 오브젝트를 촬영한 시간에 기초하여 구성되는 시간 링크 정보를 생성하는 단계, 상기 생성된 시간 링크 정보에 기초하여, 상기 오브젝트의 이동에 대한 확률 분포를 구성하는 단계, 및 상기 확률 분포에 기초하여 시공간 정보를 추출하는 단계를 포함한다.According to another aspect of the present invention, the step of extracting shape information and spatio-temporal information of an object from an image photographed by a plurality of cameras comprises the steps of: Constructing a probability distribution of the movement of the object based on the generated time link information, and extracting space-time information based on the probability distribution.
본 발명의 또 다른 일측에 따르면, 상기 시공간 정보는 상기 오브젝트가 상기 복수개의 카메라 간에 이동하여 촬영된 시간에 관한 정보인 이동 시간 정보, 상 기 오브젝트가 상기 복수개의 카메라 간에 이동하여 촬영된 속도에 관한 정보인 속도 정보, 및 상기 오브젝트가 상기 복수개의 카메라 간에 이동하여 촬영된 경로에 관한 정보인 경로 정보를 포함한다.According to another aspect of the present invention, the spatiotemporal information includes movement time information, which is information about a time at which the object is photographed by moving between the plurality of cameras, information about a speed at which the object is photographed by moving between the plurality of cameras Speed information as information, and path information that is information about a path taken by moving the object between the plurality of cameras.
본 발명의 또 다른 일측에 따르면, 상기 형태 정보는 상기 오브젝트의 길이에 관련된 정보, 상기 오브젝트의 색깔에 관련된 정보를 포함한다.According to another aspect of the present invention, the type information includes information related to the length of the object, and information related to the color of the object.
본 발명의 일측에 따른 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 장치는, 복수개의 카메라에서 촬영된 영상에서 오브젝트의 형태 정보, 및 시공간(spatio-temporal) 정보를 추출하는 정보 추출부, 상기 추출된 형태 정보, 시공간(spatio-temporal) 정보에 기초하여, 상기 오브젝트의 궤적을 추적하는 궤적 추적부, 및 상기 추적된 오브젝트의 궤적에 기초하여, 상기 복수개의 카메라 간의 교정을 실행하는 교정부를 포함한다.An apparatus for time-space calibration and tracking using dynamic information of an object in a multi-camera system according to an aspect of the present invention includes an information extracting unit for extracting shape information of an object and spatio-temporal information from an image photographed by a plurality of cameras A trajectory tracing unit for tracing a trajectory of the object based on the extracted shape information and the spatio-temporal information, and a controller for executing a correction between the plurality of cameras based on the trajectory of the traced object And an calibration section.
이하 첨부된 도면들 및 첨부된 도면들에 기재된 내용들을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하지만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings and accompanying drawings, but the present invention is not limited to or limited by the embodiments. Like reference symbols in the drawings denote like elements.
도 1은 본 발명의 일례에 따른 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 방법을 설명하기 위한 개념도이다.1 is a conceptual diagram for explaining a space-time calibration and tracking method using dynamic information of an object in a multiple camera system according to an example of the present invention.
도 1에 도시된 바와 같이, 본 발명의 일례에 따른 시공간 교정 및 추적 방법은 복수개의 카메라(110, 120, 130)를 구비하게 되며, 각 카메라는 오브젝트가 이 동하는 경로의 영역(115, 125, 135)을 각각 촬영한다.As shown in FIG. 1, the space-time calibration and tracking method according to an exemplary embodiment of the present invention includes a plurality of
오브젝트(object)가 이동하면, 각 카메라는 각각의 촬영 영역에서 상기 오브젝트가 루트(route)를 이동하는 영상을 촬영하게 된다.When the object moves, each camera captures an image in which the object moves on a route in each photographing area.
본 발명의 일례에 따른 시공간 교정 및 추적 방법은, 각 카메라가 촬영하는 영역(115, 125, 135)이 서로 오버랩(overlap)되는 경우뿐만 아니라, 도 1에 도시된 바와 같이 각 카메라가 촬영하는 영역(115, 125, 135)이 서로 오버랩(overlap)되지 않는 경우에도, 오브젝트(object)의 추적 및 그에 따른 카메라의 교정이 가능하다.The space time calibration and tracking method according to an exemplary embodiment of the present invention is not limited to the case where the
즉, 복수개의 카메라에서 물체의 추적은 가능하나, 복수개의 카메라 상호간의 싱크(sync.)가 매칭되지 않으며, 상기 복수개의 카메라 간의 로테이션(rotation) 및 트랜스레이션(translation)도 알 수 없는 상황에서도, 오브젝트의 동적(Dynamic) 특징을 이용하여 복수개의 카메라 간의 시공간(spatio-temporal) 정보를 이용한 교정(calibration)이 가능하다.That is, although it is possible to track an object in a plurality of cameras, a synchronization between a plurality of cameras is not matched, and even in a situation where rotation and translation between the plurality of cameras are unknown, It is possible to perform calibration using spatio-temporal information between a plurality of cameras using the dynamic characteristics of the object.
또한, 카메라가 커버할 수 없는 영역에서도 오브젝트의 궤적(trajectory)을 추적하여 오브젝트와 관련된 ID를 핸드오버(handover) 할 수 있다.Also, it is possible to track an object trajectory in an area that the camera can not cover, and to handover the ID associated with the object.
도 2는 본 발명의 일례에 따른 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 장치의 구성도이다.2 is a configuration diagram of a space-time calibration and tracking apparatus using dynamic information of an object in a multiple camera system according to an exemplary embodiment of the present invention.
도 2에 도시된 바와 같이, 본 발명의 일례에 따른 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 장치(200)는, 정보 추출부(210), 궤적 추출부(220), 및 교정부(230)를 포함하여 구성된다.2, the space time calibration and
정보 추출부(210)는 복수개의 카메라에서 촬영된 영상에서 오브젝트의 형태 정보, 및 시공간(spatio-temporal) 정보를 추출한다.The
특히, 정보 추출부(210)는 오브젝트를 부분별로 구분하는 히스토그램을 생성하고, 히스토그램을 이용하여 상기 오브젝트의 형태 정보를 추출한다.In particular, the
또한, 정보 추출부(210)는 상기 복수개의 카메라 간의 상기 오브젝트를 촬영한 시간에 기초하여 구성되는 시간 링크 정보를 생성하고, 상기 생성된 시간 링크 정보에 기초하여 상기 오브젝트의 이동에 대한 확률 분포를 구성한다. 정보 추출부(210)는 이와 같이 구성되는 확률 분포에 기초하여 시공간 정보를 추출하게 된다.The
이때, 시공간 정보(spatio-temporal)는 오브젝트가 상기 복수개의 카메라 간에 이동하여 촬영된 시간에 관한 정보인 이동 시간 정보, 상기 오브젝트가 상기 복수개의 카메라 간에 이동하여 촬영된 속도에 관한 정보인 속도 정보, 및 상기 오브젝트가 상기 복수개의 카메라 간에 이동하여 촬영된 경로에 관한 정보인 경로 정보를 포함하게 된다.In this case, the spatio-temporal information includes movement time information, which is information about a time when an object is photographed by moving between the plurality of cameras, speed information, which is information on the speed at which the object is photographed by moving among the plurality of cameras, And path information that is information on a path taken by the object moving between the plurality of cameras.
특히, 형태 정보는 상기 오브젝트의 길이에 관련된 정보, 상기 오브젝트의 색깔에 관련된 정보를 포함하고 있다.In particular, the shape information includes information related to the length of the object, and information related to the color of the object.
궤적 추출부(220)는 정보 추출부(210)에서 추출된 형태 정보, 시간 정보, 및 공간 정보에 기초하여, 상기 오브젝트의 궤적을 추적한다.The
이와 같은 형태(appearance) 정보와 시공간 정보를 결합하면, 별도의 카메라 교정(calibration) 정보가 필요 없으며, 카메라의 위치가 변하는 경우에도 오브젝트의 ID를 통한 인식이 가능하다.Combining such appearance information with space-time information does not require additional camera calibration information, and even when the camera position changes, recognition through object ID is possible.
이와 같은 오브젝트의 궤적을 알기 위한 방법으로 오브젝트의 키네마틱 모델(kinematic model)이 사용될 수 있으며, 오브젝트 키네마틱 모델은 다음의 수학식 1과 같이 표현된다.A kinematic model of an object can be used as a method for knowing the trajectory of the object, and the object kinematic model can be expressed by the following equation (1).
(i는 큐빅 커브, p는 폴리노미얼 계수임.)(i is the cubic curve and p is the polynomial coefficient).
i는 큐빅의 커브(cubic curve)를 나타내며, p는 폴리노미얼 계수(polynomial coefficient)이다.i represents the cubic curve, and p is the polynomial coefficient.
수학식 2는 폴리노미얼 계수인 p의 오더(order)인 i가 3인 경우의 키네마틱 모델을 표시하고 있다.Equation (2) shows a kinematic model when the order of p, the polynomial coefficient, i is 3.
P는 오브젝트의 종류에 따라 적용되는 모델의 종류에 따른 계수를 나타낸다. 이와 같은 폴리노미얼 계수 P로는, 오브젝트로서 고속도로 상의 자동차인 경우 등속 운동 모델인 리니어 모델(linear model)이 사용될 수 있으며, 오브젝트가 사람인 경우에는 쿼드라틱 키네마틱 모델(quadratic kinematic model)이 사용될 수 있다.P represents a coefficient according to the kind of model applied according to the kind of the object. As the polynomial coefficient P, a linear model, which is a constant-velocity model in the case of an automobile on an expressway, may be used as the object, and a quadratic kinematic model may be used when the object is a person .
이와 같은 오브젝트 키네마틱 모델을 이용한 커브의 피팅(curve fitting)을 통하여, 카메라 촬영 영역 밖에서의 오브젝트의 위치와 속도를 산출하여, 복수개의 카메라 간의 오브젝트의 ID 핸드오버(handover)가 가능하며, 복수개의 카메라 간의 로테이션(rotation) 및 트랜스레이션(translation)을 알 수 있고, 복수개의 카메라 사이의 시간 옵셋(temporal offset)을 계산할 수 있다.The position and velocity of an object outside the camera shooting region can be calculated through curve fitting of the curve using the object kinematic model to enable ID handover of objects between a plurality of cameras, It is possible to know the rotation and translation between the cameras and calculate the temporal offset between the plurality of cameras.
교정부(230)는 상기 추적된 오브젝트의 궤적에 기초하여, 상기 복수개의 카메라 간의 교정을 실행하게 되는데, 이때 복수개의 카메라 간의 로테이션(rotation) 및 트랜스레이션(translation) 및 복수개의 카메라 사이의 시간 옵셋(temporal offset)을 통하여 복수개의 카메라 간의 교정을 실행하게 된다.The
도 3은 본 발명의 일례에 따른 오브젝트를 부분별로 구분하는 히스토그램을 통한 오브젝트의 형태 정보를 추출 방법을 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining a method of extracting object shape information through a histogram that divides an object according to an example according to an embodiment of the present invention.
오브젝트의 형태 정보를 추출하기 위해서는, 오브젝트를 부분별로 구분하는 히스토그램을 생성하게 된다. 이와 같이 생성된 히스토그램을 이용하여 오브젝트의 형태 정보를 추출할 수 있다.In order to extract the shape information of the object, a histogram that divides the object into parts is generated. The shape information of the object can be extracted using the histogram thus generated.
특히, 도 3에 도시된 바와 같이 오브젝트가 사람인 경우에는 상기 사람을 신체별로 구분하여 히스토그램을 생성할 수 있으며, 히스토그램을 사용할 경우에는 사람의 국지적인 컬러 분포 정보를 잃게 된다.In particular, as shown in FIG. 3, when the object is a human, the human can be divided into the histogram by body, and if the histogram is used, the local color distribution information of the person is lost.
즉, 오브젝트가 사람인 경우에는 사람을 머리(310), 몸통(320), 다리(330)의 세 부분으로 나누고, 사람의 전체 히스토그램(340), 머리 히스토그램(350), 몸통 히스토그램(360), 다리 히스토그램(370)을 각각 구하고, 상기 히스토그램을 사람의 형태(appearance) 기술자로 사용하게 되므로, 사람의 전체 형태 기술자와 사람의 각 신체 부분별 국지적인 정보를 동시에 가지게 된다.That is, when the object is a person, the person is divided into three parts of the
도 4, 도 5, 및 도 6은 본 발명의 일례에 따른 시간 링크 정보를 이용하여 시공간 정보를 추출하는 방법을 설명하기 위한 도면이다.FIGS. 4, 5, and 6 are diagrams for explaining a method of extracting space-time information using time link information according to an example of the present invention.
오브젝트가 복수개의 카메라 사이를 이동할 때는 유사한 루트 이동의 움직임을 보이게 된다. 따라서 복수개의 카메라 사이의 시간 링크(temporal link)를 이용하여 오브젝트의 이동에 대한 확률 분포를 구할 수 있다.When the object moves between a plurality of cameras, similar movement of the root movement is shown. Therefore, the probability distribution of the movement of the object can be obtained using a temporal link between the plurality of cameras.
도 4에 도시된 바와 같이, 오브젝트(440, 450)가 각 루트를 이동할 때, 복수개의 카메라(410, 420, 430)는 오브젝트(440, 450)가 루투를 이동하는 영상(415, 425, 435)을 촬영한다.As shown in Figure 4, when the
도 5에 도시된 바와 같이, 오브젝트가 이동한 경로(530)를 촬영한 각 영상(510, 520)과, 촬영 영역 밖의 이동 시간(540)을 이용하여 각 카메라 사이의 시간 링크를 생성할 수 있다. As shown in FIG. 5, a time link between each
도 6은 4개의 카메라(610, 620, 630, 640) 간의 시간 링크(T12, T13, T14, T23, T24, T34)를 설명하고 있다. 예를 들어 'T12'는 제1 카메라(610) 및 제2 카메라 간의 시간 링크(temporal link)를 나타낸다.6 illustrates a time link (T12, T13, T14, T23, T24, T34) between the four
이와 같은 복수개의 카메라 사이의 시간 링크(temporal link)를 이용하여 오브젝트의 이동에 대한 확률 분포를 구할 수 있다. 상기와 같은 영역 사이의 이동 시간에 대한 확률 분포는 MOG(Mixture of Gaussian)로 모델링 될 수 있으며, 오리지날 디스트리뷰션(Original distribution), 믹스드 가우시안(Mixed Gaussian), 싱글 가우시안(Single Gaussian)의 3개의 가우시안 분포를 사용하여, 오브젝트의 이동 속도에 따라서 보다 정확하게 모델링 할 수 있다.The probability distribution of the movement of the object can be obtained by using a temporal link between the plurality of cameras. The probability distribution of the movement time between the regions can be modeled as MOG (Mixture of Gaussian), and the distribution can be modeled by three distributions such as Original distribution, Mixed Gaussian, and Single Gaussian. By using the distribution, it is possible to model more accurately according to the moving speed of the object.
도 7은 본 발명의 일례에 따른 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 방법을 설명하기 위한 흐름도이다.FIG. 7 is a flowchart illustrating a space-time calibration and tracking method using dynamic information of an object in a multiple camera system according to an exemplary embodiment of the present invention.
도 7을 참조하여 본 발명의 일례에 따른 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 방법을 설명한다.A space-time calibration and tracking method using dynamic information of an object in a multi-camera system according to an example of the present invention will be described with reference to FIG.
복수개의 카메라에서 촬영된 영상에서 오브젝트의 형태 정보, 및 시공간(spatio-temporal) 정보를 추출한다(S710).In step S710, shape information and spatio-temporal information of the object are extracted from the images photographed by the plurality of cameras.
보다 상세하게 설명하면, 복수개의 카메라 간의 상기 오브젝트를 촬영한 시간에 기초하여 구성되는 시간 링크 정보를 생성하고, 생성된 시간 링크 정보에 기초하여, 상기 오브젝트의 이동에 대한 확률 분포를 구성하고, 상기 확률 분포에 기초하여 시공간 정보를 추출할 수 있다.More specifically, it generates time link information constituted based on a time taken by the plurality of cameras to photograph the object, constructs a probability distribution for the movement of the object based on the generated time link information, Space-time information can be extracted based on the probability distribution.
특히, 상기 오브젝트를 부분별로 구분하는 히스토그램을 생성하고, 상기 히스토그램을 이용하여 상기 오브젝트의 형태 정보를 추출할 수 있으며, 상기 오브젝트가 사람인 경우, 상기 사람을 신체별로 구분하는 히스토그램을 생성하고, 상기 히스토그램을 이용하여 상기 사람의 형태 정보를 추출하게 된다.In particular, it is possible to generate a histogram that divides the object into parts and extract the morphological information of the object using the histogram. When the object is a human, a histogram is generated to classify the human by body, The type information of the person is extracted.
이때, 시공간 정보(spatio-temporal)는 오브젝트가 복수개의 카메라 간에 이동하여 촬영된 시간에 관한 정보인 이동 시간 정보, 상기 오브젝트가 상기 복수개의 카메라 간에 이동하여 촬영된 속도에 관한 정보인 속도 정보, 및 상기 오브젝트가 상기 복수개의 카메라 간에 이동하여 촬영된 경로에 관한 정보인 경로 정보를 포함할 수 있다.In this case, the spatio-temporal information includes movement time information, which is information about a time when an object is photographed by moving between a plurality of cameras, velocity information which is information about a speed at which the object is photographed by moving between the plurality of cameras, The object may include path information that is information about a path taken by moving between the plurality of cameras.
또한, 형태(appearance) 정보는 상기 오브젝트의 길이에 관련된 정보, 상기 오브젝트의 색깔에 관련된 정보를 포함한다.In addition, the appearance information includes information related to the length of the object, and information related to the color of the object.
이와 같이 추출된 형태 정보, 시간 정보, 및 공간 정보에 기초하여, 상기 오브젝트의 궤적을 추적한다(S720).The trajectory of the object is tracked based on the extracted shape information, time information, and spatial information (S720).
상기 추적된 오브젝트의 궤적에 기초하여, 상기 복수개의 카메라 간의 교정을 실행할 수 있다(S730).Based on the trajectory of the tracked object, calibration between the plurality of cameras may be performed (S730).
도 8 및 도 9는 본 발명의 일례에 따른 오브젝트의 아이디 핸드오버(ID handover)를 설명하기 위한 도면으로서, 도 8은 제1 카메라에서 촬영된 영상을 도시하고 있으며, 도 9는 제2 카메라에서 촬영된 영상을 도시하고 있다.8 and 9 illustrate an ID handover of an object according to an example of the present invention. Fig. 8 shows an image taken by a first camera, Fig. 9 shows an image taken by a second camera And shows the photographed image.
도 8에 도시된 제1 카메라에서 촬영된 영상에는, 오브젝트(810)인 자동차 및 그에 따른 ID(815)가 표시되어 있으며, 도 9에 도시된 바와 같이, 오브젝트의 동적 특성(dynamics)을 이용하여 제2 카메라에서도 오브젝트(920) 및 그에 따른 ID(915)를 인식할 수 있다.8, an automobile as an
즉, 오브젝트의 동적 특성을 이용하여 카메라에서 촬영된 영상간의 오버랩이 없는 경우에도 궤적을 추정해낼 수 있으며, 이를 통하여 각 카메라의 촬영 영역에 서의 ID를 알 수 있다.That is, even if there is no overlap between the images captured by the camera using the dynamic characteristics of the object, the trajectory can be estimated and the IDs in the shooting regions of the respective cameras can be obtained.
도 10은 본 발명의 일례에 따른 복수개의 카메라의 배치를 인식하는 방법을 설명하기 위한 도면이다.10 is a diagram for explaining a method of recognizing the arrangement of a plurality of cameras according to an example of the present invention.
도 10에 도시된 바와 같이, 복수개의 각 카메라가 오브젝트의 궤적을 획득(1010, 1020)하고, 오브젝트의 동적 특성을 이용하여 전체 보안 영역에서의 오브젝트의 궤적을 추정해낼 수 있다. 따라서, 이와 같은 궤적의 정합(match)을 통하여 각 카메라에서 촬영한 보안 영역의 배치(1030)를 알아낼 수 있다.As shown in FIG. 10, each of the plurality of cameras acquires the trajectory of the object (1010, 1020), and the trajectory of the object in the entire security area can be estimated using the dynamic characteristics of the object. Accordingly, it is possible to find the
본 발명의 일례에 따른 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 방법 및 장치는, 오브젝트의 움직임에 대한 수학적 모델을 이용하여 복수개의 카메라에서의 뷰(view)의 겹침이 없는 경우에도, 각 카메라 간의 대응 관계를 구할 수 있으며, 상기 대응 관계를 이용하여 복수개의 카메라 간의 로테이션(rotation) 및 트랜스레이션(translation)을 산출하여 카메라 간의 시간(temporal) 보정을 수행할 수 있다.A method and apparatus for space-time correction and tracking using dynamic information of an object in a multiple camera system according to an example of the present invention is characterized in that when there is no overlapping of views in a plurality of cameras using a mathematical model of object motion Also, it is possible to calculate temporal corrections between the cameras by calculating the rotation and translation between a plurality of cameras using the correspondence relationship.
또한, 복수개의 카메라에서의 뷰(view)의 겹침이 없는 경우에도, 동일한 오브젝트 움직임 모델을 이용하여 시공간(spatio-temporal) 보정(calibration)을 동시에 실행할 수 있다.In addition, even when there is no overlap of views in a plurality of cameras, spatio-temporal correction can be performed simultaneously using the same object motion model.
따라서, 기존의 셋업(setup) 보정을 위하여 패턴(pattern) 영상을 얻기 위한 시간 보정에 필요한 아날로그 케이블링(analog cabling) 비용을 없이, 복수개의 카메라의 보정을 수행할 수 있다.Accordingly, correction of a plurality of cameras can be performed without the analog cabling cost required for time correction for obtaining a pattern image for an existing setup correction.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. This is possible.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.
도 1은 본 발명의 일례에 따른 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 방법을 설명하기 위한 개념도이다.1 is a conceptual diagram for explaining a space-time calibration and tracking method using dynamic information of an object in a multiple camera system according to an example of the present invention.
도 2는 본 발명의 일례에 따른 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 장치의 구성도이다.2 is a configuration diagram of a space-time calibration and tracking apparatus using dynamic information of an object in a multiple camera system according to an exemplary embodiment of the present invention.
도 3은 본 발명의 일례에 따른 오브젝트를 부분별로 구분하는 히스토그램을 통한 오브젝트의 형태 정보를 추출 방법을 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining a method of extracting object shape information through a histogram that divides an object according to an example according to an embodiment of the present invention.
도 4, 도 5, 및 도 6은 본 발명의 일례에 따른 시간 링크 정보를 이용하여 시공간 정보를 추출하는 방법을 설명하기 위한 도면이다.FIGS. 4, 5, and 6 are diagrams for explaining a method of extracting space-time information using time link information according to an example of the present invention.
도 7은 본 발명의 일례에 따른 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 방법을 설명하기 위한 흐름도이다.FIG. 7 is a flowchart illustrating a space-time calibration and tracking method using dynamic information of an object in a multiple camera system according to an exemplary embodiment of the present invention.
도 8 및 도 9는 본 발명의 일례에 따른 오브젝트의 아이디 핸드오버(ID handover)를 설명하기 위한 도면이다.8 and 9 are diagrams for explaining ID handover of an object according to an example of the present invention.
도 10은 본 발명의 일례에 따른 복수개의 카메라의 배치를 인식하는 방법을 설명하기 위한 도면이다.10 is a diagram for explaining a method of recognizing the arrangement of a plurality of cameras according to an example of the present invention.
<도면의 주요 부분에 대한 부호의 설명>Description of the Related Art
210: 정보 추출부210:
220: 궤적 추출부220: locus extracting unit
230: 교정부230:
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080027968A KR101456861B1 (en) | 2008-03-26 | 2008-03-26 | Spatio-temporal calibration and tracking method and device with object dynamics in multiple camera systems |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080027968A KR101456861B1 (en) | 2008-03-26 | 2008-03-26 | Spatio-temporal calibration and tracking method and device with object dynamics in multiple camera systems |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090102492A KR20090102492A (en) | 2009-09-30 |
KR101456861B1 true KR101456861B1 (en) | 2014-11-03 |
Family
ID=41359953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080027968A KR101456861B1 (en) | 2008-03-26 | 2008-03-26 | Spatio-temporal calibration and tracking method and device with object dynamics in multiple camera systems |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101456861B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120011653A (en) | 2010-07-29 | 2012-02-08 | 삼성전자주식회사 | Image processing apparatus and method |
WO2019083068A1 (en) * | 2017-10-27 | 2019-05-02 | 한양대학교 산학협력단 | Three-dimensional information acquisition system using pitching practice, and method for calculating camera parameters |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100230863B1 (en) * | 1997-04-29 | 1999-11-15 | 류정열 | Apparatus for measuring tracks of vehicle and the method |
KR100438981B1 (en) * | 2001-06-02 | 2004-07-03 | 엘지산전 주식회사 | Traffic information extracting method and apparatus using a image information |
-
2008
- 2008-03-26 KR KR1020080027968A patent/KR101456861B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100230863B1 (en) * | 1997-04-29 | 1999-11-15 | 류정열 | Apparatus for measuring tracks of vehicle and the method |
KR100438981B1 (en) * | 2001-06-02 | 2004-07-03 | 엘지산전 주식회사 | Traffic information extracting method and apparatus using a image information |
Also Published As
Publication number | Publication date |
---|---|
KR20090102492A (en) | 2009-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6295645B2 (en) | Object detection method and object detection apparatus | |
KR102097016B1 (en) | Apparatus and methdo for analayzing motion | |
US8805007B2 (en) | Integrated background and foreground tracking | |
KR100799990B1 (en) | Device and Method for transforming 2-D Image into 3-D Image | |
JP2014529727A (en) | Automatic scene calibration | |
Pundlik et al. | Time to collision and collision risk estimation from local scale and motion | |
KR102416523B1 (en) | A 3D skeleton generation method using calibration based on joints acquired from multi-view camera | |
CN110941996A (en) | Target and track augmented reality method and system based on generation of countermeasure network | |
KR101193223B1 (en) | 3d motion tracking method of human's movement | |
JP2021060868A (en) | Information processing apparatus, information processing method, and program | |
US11212510B1 (en) | Multi-camera 3D content creation | |
JP6410231B2 (en) | Alignment apparatus, alignment method, and computer program for alignment | |
KR100574227B1 (en) | Apparatus and method for separating object motion from camera motion | |
Zhou et al. | The chameleon-like vision system | |
US11176353B2 (en) | Three-dimensional dataset and two-dimensional image localization | |
KR101456861B1 (en) | Spatio-temporal calibration and tracking method and device with object dynamics in multiple camera systems | |
Shere et al. | 3D Human Pose Estimation From Multi Person Stereo 360 Scenes. | |
Pollok et al. | A visual SLAM-based approach for calibration of distributed camera networks | |
JP2006215743A (en) | Image processing apparatus and image processing method | |
Qiu et al. | Estimating metric poses of dynamic objects using monocular visual-inertial fusion | |
Tian et al. | Wearable navigation system for the blind people in dynamic environments | |
El-Sallam et al. | A low cost 3D markerless system for the reconstruction of athletic techniques | |
KR20170001448A (en) | Apparatus for measuring position of camera using stereo camera and method using the same | |
KR20160039447A (en) | Spatial analysis system using stereo camera. | |
KR101375708B1 (en) | System and method for motion capture using plural image, and a medium having computer readable program for executing the method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20170918 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20180917 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20190910 Year of fee payment: 6 |