KR101456861B1 - Spatio-temporal calibration and tracking method and device with object dynamics in multiple camera systems - Google Patents

Spatio-temporal calibration and tracking method and device with object dynamics in multiple camera systems Download PDF

Info

Publication number
KR101456861B1
KR101456861B1 KR1020080027968A KR20080027968A KR101456861B1 KR 101456861 B1 KR101456861 B1 KR 101456861B1 KR 1020080027968 A KR1020080027968 A KR 1020080027968A KR 20080027968 A KR20080027968 A KR 20080027968A KR 101456861 B1 KR101456861 B1 KR 101456861B1
Authority
KR
South Korea
Prior art keywords
information
cameras
time
calibration
histogram
Prior art date
Application number
KR1020080027968A
Other languages
Korean (ko)
Other versions
KR20090102492A (en
Inventor
정문식
권인소
방가운
Original Assignee
삼성전자주식회사
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 한국과학기술원 filed Critical 삼성전자주식회사
Priority to KR1020080027968A priority Critical patent/KR101456861B1/en
Publication of KR20090102492A publication Critical patent/KR20090102492A/en
Application granted granted Critical
Publication of KR101456861B1 publication Critical patent/KR101456861B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking

Abstract

본 발명은 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 추적 방법 및 그 장치에 관한 것으로, 복수개의 카메라에서 촬영된 영상에서 오브젝트의 형태 정보, 및 시공간(spatio-temporal) 정보를 추출하고, 상기 추출된 형태 정보, 시간 정보, 및 공간 정보에 기초하여, 상기 오브젝트의 궤적을 추적하며, 상기 추적된 오브젝트의 궤적에 기초하여, 상기 복수개의 카메라 간의 교정을 실행한다.

Figure R1020080027968

카메라, 오브젝트, 궤적 추적, 교정

The present invention relates to a space-time calibration tracking method and apparatus using dynamic information of an object in a multi-camera system, and more particularly, to a method and apparatus for extracting shape information and spatio- temporal information of an object from an image captured by a plurality of cameras, Tracks the trajectory of the object based on the extracted type information, time information, and spatial information, and performs calibration between the plurality of cameras based on the trajectory of the traced object.

Figure R1020080027968

Camera, Object, Trajectory Tracking, Calibration

Description

다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 추적 방법 및 그 장치{SPATIO-TEMPORAL CALIBRATION AND TRACKING METHOD AND DEVICE WITH OBJECT DYNAMICS IN MULTIPLE CAMERA SYSTEMS}TECHNICAL FIELD [0001] The present invention relates to a space-time calibration tracking method and apparatus using dynamic information of an object in a multi-camera system,

본 발명은 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 추적 방법 및 그 장치에 관한 것으로, 특히 복수개의 카메라에서의 뷰(view)의 겹침이 없는 경우에도, 오브젝트 움직임 모델을 이용하여 시공간(spatio-temporal) 보정(calibration)을 동시에 실행할 수 있는 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 추적 방법 및 그 장치에 관한 것이다.The present invention relates to a method and apparatus for tracking space-time calibration using dynamic information of an object in a multiple camera system, and more particularly, The present invention relates to a space-time calibration tracking method and apparatus using dynamic information of an object in a multi-camera system capable of performing spatio-temporal calibration simultaneously.

복수개의 카메라가 설치된 다중 카메라 환경에서는 복수개의 카메라의 상호 교정이 필요하다. 이와 같은 다중 카메라 교정은 카메라 상에 촬영되는 물체 정보의 일관성을 확보하기 위하여 필요로 하며, 교정은 카메라 간의 상호 관계를 이용하여 이루어진다.In a multiple camera environment in which a plurality of cameras are installed, mutual correction of a plurality of cameras is required. Such multiple camera calibration is necessary to ensure consistency of object information photographed on the camera, and correction is made by using the correlation between cameras.

상기와 같은 다중 카메라 교정에 의하면 복잡한 카메라 모델에 대하여서도 정확한 결과를 얻을 수 있다.According to the above-described multi-camera calibration, accurate results can be obtained even for a complicated camera model.

이와 같은 다중 카메라 교정 환경에서는 카메라 상호 간의 관계를 이용하여 기준 좌표로 변환하기 위하여, 삼차원(3D) 또는 이차원(2D) 보정 격자를 설치하고, 환경에 따라서 큰 크기의 보정 격자를 설치하여 보정 격자 간의 겹침이 발생하게 되어 그에 따른 교정 및 보정이 이루어졌다.In such a multi-camera calibration environment, a three-dimensional (3D) or two-dimensional (2D) correction grid is installed in order to convert the coordinates into reference coordinates using the relationship between the cameras, The overlapping occurred and the corrections and corrections were made accordingly.

본 발명은 상기와 같은 종래 기술을 개선하기 위해 안출된 것으로서, 본 발명은 오브젝트의 움직임에 대한 수학적 모델을 이용하여 복수개의 카메라에서의 뷰(view)의 겹침이 없는 경우에도, 각 카메라 간의 대응 관계를 구할 수 있으며, 상기 대응 관계를 이용하여 복수개의 카메라 간의 로테이션(rotation) 및 트랜스레이션(translation)을 산출하여 카메라 간의 시간(temporal) 보정을 수행할 수 있도록 한 카메라 교정 방법을 제공하고자 한다.SUMMARY OF THE INVENTION The present invention has been made in order to solve the above-described problems, and it is an object of the present invention to provide a method and apparatus for correcting a movement of an object by using a mathematical model of movement of an object, And to provide a camera calibration method capable of performing temporal correction between cameras by calculating rotation and translation between a plurality of cameras using the corresponding relationship.

또한 본 발명은 복수개의 카메라에서의 뷰(view)의 겹침이 없는 경우에도, 동일한 오브젝트 움직임 모델을 이용하여 시공간(spatio-temporal) 보정(calibration)을 동시에 실행할 수 있도록 하고자 한다.Also, the present invention is intended to enable simultaneous spatio-temporal calibration using the same object motion model even when there is no overlap of views in a plurality of cameras.

또한 본 발명은 셋업(setup) 보정을 위하여 패턴(pattern) 영상을 얻기 위한 시간 보정에 필요한 아날로그 케이블링(analog cabling) 비용이 필요 없으며, 공간 보정의 경우 사용되는 삼차원(3D) 또는 이차원(2D) 보정 격자를 설치할 필요 없이, 복수개의 카메라의 보정을 수행할 수 있도록 하고자 한다.Further, the present invention does not require analog cabling costs required for time correction to obtain a pattern image for setup correction, and does not require 3D cube or 2D cube, It is desired to perform correction of a plurality of cameras without installing a correction grid.

상기의 목적을 이루고 종래기술의 문제점을 해결하기 위하여 본 발명의 일측에 따른 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 방법은, 복수개의 카메라에서 촬영된 영상에서 오브젝트의 형태 정보 및 시공간(spatio-temporal) 정보를 추출하는 단계, 상기 추출된 형태 정보, 시공 간(spatio-temporal) 정보에 기초하여, 상기 오브젝트의 궤적을 추적하는 단계, 및 상기 추적된 오브젝트의 궤적에 기초하여, 상기 복수개의 카메라 간의 교정을 실행하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method for time-space calibration and tracking using dynamic information of an object in a multi-camera system, the method comprising: Extracting spatio-temporal information, tracing the trajectory of the object based on the extracted type information, spatio-temporal information, and determining, based on the trajectory of the traced object, And performing calibration between the plurality of cameras.

본 발명의 또 다른 일측에 따르면, 상기 복수개의 카메라에서 촬영된 영상에서 오브젝트의 형태 정보, 및 시공간(spatio-temporal) 정보를 추출하는 단계는, 상기 오브젝트를 부분별로 구분하는 히스토그램을 생성하고, 상기 히스토그램을 이용하여 상기 오브젝트의 형태 정보를 추출하는 단계이다.According to another aspect of the present invention, the step of extracting shape information and spatio-temporal information of an object from the images photographed by the plurality of cameras may include generating a histogram that divides the object into parts, And extracting shape information of the object using a histogram.

본 발명의 또 다른 일측에 따르면, 상기 오브젝트를 부분별로 구분하는 히스토그램을 생성하고, 상기 히스토그램을 이용하여 상기 오브젝트의 형태 정보를 추출하는 단계는, 상기 오브젝트가 사람인 경우 상기 사람을 신체별로 구분하는 히스토그램을 생성하고, 상기 히스토그램을 이용하여 상기 사람의 형태 정보를 추출하는 단계이다.According to another aspect of the present invention, the step of generating a histogram that divides the object into parts and extracting the type information of the object using the histogram may include a step of, when the object is a human, And extracting the morphological information of the person using the histogram.

본 발명의 또 다른 일측에 따르면, 복수개의 카메라에서 촬영된 영상에서 오브젝트의 형태 정보, 및 시공간(spatio-temporal) 정보를 추출하는 단계는, 상기 복수개의 카메라 간의 상기 오브젝트를 촬영한 시간에 기초하여 구성되는 시간 링크 정보를 생성하는 단계, 상기 생성된 시간 링크 정보에 기초하여, 상기 오브젝트의 이동에 대한 확률 분포를 구성하는 단계, 및 상기 확률 분포에 기초하여 시공간 정보를 추출하는 단계를 포함한다.According to another aspect of the present invention, the step of extracting shape information and spatio-temporal information of an object from an image photographed by a plurality of cameras comprises the steps of: Constructing a probability distribution of the movement of the object based on the generated time link information, and extracting space-time information based on the probability distribution.

본 발명의 또 다른 일측에 따르면, 상기 시공간 정보는 상기 오브젝트가 상기 복수개의 카메라 간에 이동하여 촬영된 시간에 관한 정보인 이동 시간 정보, 상 기 오브젝트가 상기 복수개의 카메라 간에 이동하여 촬영된 속도에 관한 정보인 속도 정보, 및 상기 오브젝트가 상기 복수개의 카메라 간에 이동하여 촬영된 경로에 관한 정보인 경로 정보를 포함한다.According to another aspect of the present invention, the spatiotemporal information includes movement time information, which is information about a time at which the object is photographed by moving between the plurality of cameras, information about a speed at which the object is photographed by moving between the plurality of cameras Speed information as information, and path information that is information about a path taken by moving the object between the plurality of cameras.

본 발명의 또 다른 일측에 따르면, 상기 형태 정보는 상기 오브젝트의 길이에 관련된 정보, 상기 오브젝트의 색깔에 관련된 정보를 포함한다.According to another aspect of the present invention, the type information includes information related to the length of the object, and information related to the color of the object.

본 발명의 일측에 따른 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 장치는, 복수개의 카메라에서 촬영된 영상에서 오브젝트의 형태 정보, 및 시공간(spatio-temporal) 정보를 추출하는 정보 추출부, 상기 추출된 형태 정보, 시공간(spatio-temporal) 정보에 기초하여, 상기 오브젝트의 궤적을 추적하는 궤적 추적부, 및 상기 추적된 오브젝트의 궤적에 기초하여, 상기 복수개의 카메라 간의 교정을 실행하는 교정부를 포함한다.An apparatus for time-space calibration and tracking using dynamic information of an object in a multi-camera system according to an aspect of the present invention includes an information extracting unit for extracting shape information of an object and spatio-temporal information from an image photographed by a plurality of cameras A trajectory tracing unit for tracing a trajectory of the object based on the extracted shape information and the spatio-temporal information, and a controller for executing a correction between the plurality of cameras based on the trajectory of the traced object And an calibration section.

이하 첨부된 도면들 및 첨부된 도면들에 기재된 내용들을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하지만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings and accompanying drawings, but the present invention is not limited to or limited by the embodiments. Like reference symbols in the drawings denote like elements.

도 1은 본 발명의 일례에 따른 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 방법을 설명하기 위한 개념도이다.1 is a conceptual diagram for explaining a space-time calibration and tracking method using dynamic information of an object in a multiple camera system according to an example of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일례에 따른 시공간 교정 및 추적 방법은 복수개의 카메라(110, 120, 130)를 구비하게 되며, 각 카메라는 오브젝트가 이 동하는 경로의 영역(115, 125, 135)을 각각 촬영한다.As shown in FIG. 1, the space-time calibration and tracking method according to an exemplary embodiment of the present invention includes a plurality of cameras 110, 120, and 130, and each camera includes areas 115 and 125 And 135, respectively.

오브젝트(object)가 이동하면, 각 카메라는 각각의 촬영 영역에서 상기 오브젝트가 루트(route)를 이동하는 영상을 촬영하게 된다.When the object moves, each camera captures an image in which the object moves on a route in each photographing area.

본 발명의 일례에 따른 시공간 교정 및 추적 방법은, 각 카메라가 촬영하는 영역(115, 125, 135)이 서로 오버랩(overlap)되는 경우뿐만 아니라, 도 1에 도시된 바와 같이 각 카메라가 촬영하는 영역(115, 125, 135)이 서로 오버랩(overlap)되지 않는 경우에도, 오브젝트(object)의 추적 및 그에 따른 카메라의 교정이 가능하다.The space time calibration and tracking method according to an exemplary embodiment of the present invention is not limited to the case where the areas 115, 125, and 135 that are photographed by the respective cameras overlap each other, It is possible to track an object and correct the camera accordingly, even when the two cameras 115, 125, and 135 do not overlap each other.

즉, 복수개의 카메라에서 물체의 추적은 가능하나, 복수개의 카메라 상호간의 싱크(sync.)가 매칭되지 않으며, 상기 복수개의 카메라 간의 로테이션(rotation) 및 트랜스레이션(translation)도 알 수 없는 상황에서도, 오브젝트의 동적(Dynamic) 특징을 이용하여 복수개의 카메라 간의 시공간(spatio-temporal) 정보를 이용한 교정(calibration)이 가능하다.That is, although it is possible to track an object in a plurality of cameras, a synchronization between a plurality of cameras is not matched, and even in a situation where rotation and translation between the plurality of cameras are unknown, It is possible to perform calibration using spatio-temporal information between a plurality of cameras using the dynamic characteristics of the object.

또한, 카메라가 커버할 수 없는 영역에서도 오브젝트의 궤적(trajectory)을 추적하여 오브젝트와 관련된 ID를 핸드오버(handover) 할 수 있다.Also, it is possible to track an object trajectory in an area that the camera can not cover, and to handover the ID associated with the object.

도 2는 본 발명의 일례에 따른 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 장치의 구성도이다.2 is a configuration diagram of a space-time calibration and tracking apparatus using dynamic information of an object in a multiple camera system according to an exemplary embodiment of the present invention.

도 2에 도시된 바와 같이, 본 발명의 일례에 따른 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 장치(200)는, 정보 추출부(210), 궤적 추출부(220), 및 교정부(230)를 포함하여 구성된다.2, the space time calibration and tracking apparatus 200 using dynamic information of an object in a multiple camera system according to an exemplary embodiment of the present invention includes an information extraction unit 210, a trajectory extraction unit 220, And an orthogonal unit 230.

정보 추출부(210)는 복수개의 카메라에서 촬영된 영상에서 오브젝트의 형태 정보, 및 시공간(spatio-temporal) 정보를 추출한다.The information extraction unit 210 extracts shape information and spatio-temporal information of an object from an image captured by a plurality of cameras.

특히, 정보 추출부(210)는 오브젝트를 부분별로 구분하는 히스토그램을 생성하고, 히스토그램을 이용하여 상기 오브젝트의 형태 정보를 추출한다.In particular, the information extracting unit 210 generates a histogram that divides the object into parts, and extracts the shape information of the object using the histogram.

또한, 정보 추출부(210)는 상기 복수개의 카메라 간의 상기 오브젝트를 촬영한 시간에 기초하여 구성되는 시간 링크 정보를 생성하고, 상기 생성된 시간 링크 정보에 기초하여 상기 오브젝트의 이동에 대한 확률 분포를 구성한다. 정보 추출부(210)는 이와 같이 구성되는 확률 분포에 기초하여 시공간 정보를 추출하게 된다.The information extracting unit 210 generates time link information based on the time taken to photograph the object among the plurality of cameras, and calculates a probability distribution about the movement of the object based on the generated time link information . The information extraction unit 210 extracts space-time information based on the probability distribution thus constructed.

이때, 시공간 정보(spatio-temporal)는 오브젝트가 상기 복수개의 카메라 간에 이동하여 촬영된 시간에 관한 정보인 이동 시간 정보, 상기 오브젝트가 상기 복수개의 카메라 간에 이동하여 촬영된 속도에 관한 정보인 속도 정보, 및 상기 오브젝트가 상기 복수개의 카메라 간에 이동하여 촬영된 경로에 관한 정보인 경로 정보를 포함하게 된다.In this case, the spatio-temporal information includes movement time information, which is information about a time when an object is photographed by moving between the plurality of cameras, speed information, which is information on the speed at which the object is photographed by moving among the plurality of cameras, And path information that is information on a path taken by the object moving between the plurality of cameras.

특히, 형태 정보는 상기 오브젝트의 길이에 관련된 정보, 상기 오브젝트의 색깔에 관련된 정보를 포함하고 있다.In particular, the shape information includes information related to the length of the object, and information related to the color of the object.

궤적 추출부(220)는 정보 추출부(210)에서 추출된 형태 정보, 시간 정보, 및 공간 정보에 기초하여, 상기 오브젝트의 궤적을 추적한다.The locus extracting unit 220 tracks the locus of the object based on the type information, the time information, and the space information extracted by the information extracting unit 210.

이와 같은 형태(appearance) 정보와 시공간 정보를 결합하면, 별도의 카메라 교정(calibration) 정보가 필요 없으며, 카메라의 위치가 변하는 경우에도 오브젝트의 ID를 통한 인식이 가능하다.Combining such appearance information with space-time information does not require additional camera calibration information, and even when the camera position changes, recognition through object ID is possible.

이와 같은 오브젝트의 궤적을 알기 위한 방법으로 오브젝트의 키네마틱 모델(kinematic model)이 사용될 수 있으며, 오브젝트 키네마틱 모델은 다음의 수학식 1과 같이 표현된다.A kinematic model of an object can be used as a method for knowing the trajectory of the object, and the object kinematic model can be expressed by the following equation (1).

Figure 112008021967928-pat00001
Figure 112008021967928-pat00001

(i는 큐빅 커브, p는 폴리노미얼 계수임.)(i is the cubic curve and p is the polynomial coefficient).

i는 큐빅의 커브(cubic curve)를 나타내며, p는 폴리노미얼 계수(polynomial coefficient)이다.i represents the cubic curve, and p is the polynomial coefficient.

Figure 112008021967928-pat00002
Figure 112008021967928-pat00002

수학식 2는 폴리노미얼 계수인 p의 오더(order)인 i가 3인 경우의 키네마틱 모델을 표시하고 있다.Equation (2) shows a kinematic model when the order of p, the polynomial coefficient, i is 3.

P는 오브젝트의 종류에 따라 적용되는 모델의 종류에 따른 계수를 나타낸다. 이와 같은 폴리노미얼 계수 P로는, 오브젝트로서 고속도로 상의 자동차인 경우 등속 운동 모델인 리니어 모델(linear model)이 사용될 수 있으며, 오브젝트가 사람인 경우에는 쿼드라틱 키네마틱 모델(quadratic kinematic model)이 사용될 수 있다.P represents a coefficient according to the kind of model applied according to the kind of the object. As the polynomial coefficient P, a linear model, which is a constant-velocity model in the case of an automobile on an expressway, may be used as the object, and a quadratic kinematic model may be used when the object is a person .

이와 같은 오브젝트 키네마틱 모델을 이용한 커브의 피팅(curve fitting)을 통하여, 카메라 촬영 영역 밖에서의 오브젝트의 위치와 속도를 산출하여, 복수개의 카메라 간의 오브젝트의 ID 핸드오버(handover)가 가능하며, 복수개의 카메라 간의 로테이션(rotation) 및 트랜스레이션(translation)을 알 수 있고, 복수개의 카메라 사이의 시간 옵셋(temporal offset)을 계산할 수 있다.The position and velocity of an object outside the camera shooting region can be calculated through curve fitting of the curve using the object kinematic model to enable ID handover of objects between a plurality of cameras, It is possible to know the rotation and translation between the cameras and calculate the temporal offset between the plurality of cameras.

교정부(230)는 상기 추적된 오브젝트의 궤적에 기초하여, 상기 복수개의 카메라 간의 교정을 실행하게 되는데, 이때 복수개의 카메라 간의 로테이션(rotation) 및 트랜스레이션(translation) 및 복수개의 카메라 사이의 시간 옵셋(temporal offset)을 통하여 복수개의 카메라 간의 교정을 실행하게 된다.The calibration unit 230 performs calibration between the plurality of cameras based on the trajectory of the tracked object. In this case, rotation and translation between the plurality of cameras and a time offset between the plurality of cameras and performs calibration between the plurality of cameras through temporal offset.

도 3은 본 발명의 일례에 따른 오브젝트를 부분별로 구분하는 히스토그램을 통한 오브젝트의 형태 정보를 추출 방법을 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining a method of extracting object shape information through a histogram that divides an object according to an example according to an embodiment of the present invention.

오브젝트의 형태 정보를 추출하기 위해서는, 오브젝트를 부분별로 구분하는 히스토그램을 생성하게 된다. 이와 같이 생성된 히스토그램을 이용하여 오브젝트의 형태 정보를 추출할 수 있다.In order to extract the shape information of the object, a histogram that divides the object into parts is generated. The shape information of the object can be extracted using the histogram thus generated.

특히, 도 3에 도시된 바와 같이 오브젝트가 사람인 경우에는 상기 사람을 신체별로 구분하여 히스토그램을 생성할 수 있으며, 히스토그램을 사용할 경우에는 사람의 국지적인 컬러 분포 정보를 잃게 된다.In particular, as shown in FIG. 3, when the object is a human, the human can be divided into the histogram by body, and if the histogram is used, the local color distribution information of the person is lost.

즉, 오브젝트가 사람인 경우에는 사람을 머리(310), 몸통(320), 다리(330)의 세 부분으로 나누고, 사람의 전체 히스토그램(340), 머리 히스토그램(350), 몸통 히스토그램(360), 다리 히스토그램(370)을 각각 구하고, 상기 히스토그램을 사람의 형태(appearance) 기술자로 사용하게 되므로, 사람의 전체 형태 기술자와 사람의 각 신체 부분별 국지적인 정보를 동시에 가지게 된다.That is, when the object is a person, the person is divided into three parts of the head 310, the trunk 320, and the leg 330, and the whole histogram 340 of the person, the head histogram 350, the trunk histogram 360, The histogram 370 is obtained, and the histogram is used as the appearance descriptor of the person. Therefore, the information of the entire shape of the person and local information of each body part of the person are simultaneously obtained.

도 4, 도 5, 및 도 6은 본 발명의 일례에 따른 시간 링크 정보를 이용하여 시공간 정보를 추출하는 방법을 설명하기 위한 도면이다.FIGS. 4, 5, and 6 are diagrams for explaining a method of extracting space-time information using time link information according to an example of the present invention.

오브젝트가 복수개의 카메라 사이를 이동할 때는 유사한 루트 이동의 움직임을 보이게 된다. 따라서 복수개의 카메라 사이의 시간 링크(temporal link)를 이용하여 오브젝트의 이동에 대한 확률 분포를 구할 수 있다.When the object moves between a plurality of cameras, similar movement of the root movement is shown. Therefore, the probability distribution of the movement of the object can be obtained using a temporal link between the plurality of cameras.

도 4에 도시된 바와 같이, 오브젝트(440, 450)가 각 루트를 이동할 때, 복수개의 카메라(410, 420, 430)는 오브젝트(440, 450)가 루투를 이동하는 영상(415, 425, 435)을 촬영한다.As shown in Figure 4, when the objects 440 and 450 move on each route, the plurality of cameras 410, 420, and 430 may cause the objects 440 and 450 to display images 415, 425, and 435 ).

도 5에 도시된 바와 같이, 오브젝트가 이동한 경로(530)를 촬영한 각 영상(510, 520)과, 촬영 영역 밖의 이동 시간(540)을 이용하여 각 카메라 사이의 시간 링크를 생성할 수 있다. As shown in FIG. 5, a time link between each camera 510 and 520 can be generated using the images 510 and 520 and the moving time 540 outside the photographing region, .

도 6은 4개의 카메라(610, 620, 630, 640) 간의 시간 링크(T12, T13, T14, T23, T24, T34)를 설명하고 있다. 예를 들어 'T12'는 제1 카메라(610) 및 제2 카메라 간의 시간 링크(temporal link)를 나타낸다.6 illustrates a time link (T12, T13, T14, T23, T24, T34) between the four cameras 610, 620, 630, For example, 'T12' represents a temporal link between the first camera 610 and the second camera.

이와 같은 복수개의 카메라 사이의 시간 링크(temporal link)를 이용하여 오브젝트의 이동에 대한 확률 분포를 구할 수 있다. 상기와 같은 영역 사이의 이동 시간에 대한 확률 분포는 MOG(Mixture of Gaussian)로 모델링 될 수 있으며, 오리지날 디스트리뷰션(Original distribution), 믹스드 가우시안(Mixed Gaussian), 싱글 가우시안(Single Gaussian)의 3개의 가우시안 분포를 사용하여, 오브젝트의 이동 속도에 따라서 보다 정확하게 모델링 할 수 있다.The probability distribution of the movement of the object can be obtained by using a temporal link between the plurality of cameras. The probability distribution of the movement time between the regions can be modeled as MOG (Mixture of Gaussian), and the distribution can be modeled by three distributions such as Original distribution, Mixed Gaussian, and Single Gaussian. By using the distribution, it is possible to model more accurately according to the moving speed of the object.

도 7은 본 발명의 일례에 따른 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 방법을 설명하기 위한 흐름도이다.FIG. 7 is a flowchart illustrating a space-time calibration and tracking method using dynamic information of an object in a multiple camera system according to an exemplary embodiment of the present invention.

도 7을 참조하여 본 발명의 일례에 따른 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 방법을 설명한다.A space-time calibration and tracking method using dynamic information of an object in a multi-camera system according to an example of the present invention will be described with reference to FIG.

복수개의 카메라에서 촬영된 영상에서 오브젝트의 형태 정보, 및 시공간(spatio-temporal) 정보를 추출한다(S710).In step S710, shape information and spatio-temporal information of the object are extracted from the images photographed by the plurality of cameras.

보다 상세하게 설명하면, 복수개의 카메라 간의 상기 오브젝트를 촬영한 시간에 기초하여 구성되는 시간 링크 정보를 생성하고, 생성된 시간 링크 정보에 기초하여, 상기 오브젝트의 이동에 대한 확률 분포를 구성하고, 상기 확률 분포에 기초하여 시공간 정보를 추출할 수 있다.More specifically, it generates time link information constituted based on a time taken by the plurality of cameras to photograph the object, constructs a probability distribution for the movement of the object based on the generated time link information, Space-time information can be extracted based on the probability distribution.

특히, 상기 오브젝트를 부분별로 구분하는 히스토그램을 생성하고, 상기 히스토그램을 이용하여 상기 오브젝트의 형태 정보를 추출할 수 있으며, 상기 오브젝트가 사람인 경우, 상기 사람을 신체별로 구분하는 히스토그램을 생성하고, 상기 히스토그램을 이용하여 상기 사람의 형태 정보를 추출하게 된다.In particular, it is possible to generate a histogram that divides the object into parts and extract the morphological information of the object using the histogram. When the object is a human, a histogram is generated to classify the human by body, The type information of the person is extracted.

이때, 시공간 정보(spatio-temporal)는 오브젝트가 복수개의 카메라 간에 이동하여 촬영된 시간에 관한 정보인 이동 시간 정보, 상기 오브젝트가 상기 복수개의 카메라 간에 이동하여 촬영된 속도에 관한 정보인 속도 정보, 및 상기 오브젝트가 상기 복수개의 카메라 간에 이동하여 촬영된 경로에 관한 정보인 경로 정보를 포함할 수 있다.In this case, the spatio-temporal information includes movement time information, which is information about a time when an object is photographed by moving between a plurality of cameras, velocity information which is information about a speed at which the object is photographed by moving between the plurality of cameras, The object may include path information that is information about a path taken by moving between the plurality of cameras.

또한, 형태(appearance) 정보는 상기 오브젝트의 길이에 관련된 정보, 상기 오브젝트의 색깔에 관련된 정보를 포함한다.In addition, the appearance information includes information related to the length of the object, and information related to the color of the object.

이와 같이 추출된 형태 정보, 시간 정보, 및 공간 정보에 기초하여, 상기 오브젝트의 궤적을 추적한다(S720).The trajectory of the object is tracked based on the extracted shape information, time information, and spatial information (S720).

상기 추적된 오브젝트의 궤적에 기초하여, 상기 복수개의 카메라 간의 교정을 실행할 수 있다(S730).Based on the trajectory of the tracked object, calibration between the plurality of cameras may be performed (S730).

도 8 및 도 9는 본 발명의 일례에 따른 오브젝트의 아이디 핸드오버(ID handover)를 설명하기 위한 도면으로서, 도 8은 제1 카메라에서 촬영된 영상을 도시하고 있으며, 도 9는 제2 카메라에서 촬영된 영상을 도시하고 있다.8 and 9 illustrate an ID handover of an object according to an example of the present invention. Fig. 8 shows an image taken by a first camera, Fig. 9 shows an image taken by a second camera And shows the photographed image.

도 8에 도시된 제1 카메라에서 촬영된 영상에는, 오브젝트(810)인 자동차 및 그에 따른 ID(815)가 표시되어 있으며, 도 9에 도시된 바와 같이, 오브젝트의 동적 특성(dynamics)을 이용하여 제2 카메라에서도 오브젝트(920) 및 그에 따른 ID(915)를 인식할 수 있다.8, an automobile as an object 810 and an ID 815 corresponding to the automobile are displayed on an image photographed by the first camera shown in Fig. 8, and as shown in Fig. 9, using the dynamics of the object The second camera can recognize the object 920 and the ID 915 corresponding thereto.

즉, 오브젝트의 동적 특성을 이용하여 카메라에서 촬영된 영상간의 오버랩이 없는 경우에도 궤적을 추정해낼 수 있으며, 이를 통하여 각 카메라의 촬영 영역에 서의 ID를 알 수 있다.That is, even if there is no overlap between the images captured by the camera using the dynamic characteristics of the object, the trajectory can be estimated and the IDs in the shooting regions of the respective cameras can be obtained.

도 10은 본 발명의 일례에 따른 복수개의 카메라의 배치를 인식하는 방법을 설명하기 위한 도면이다.10 is a diagram for explaining a method of recognizing the arrangement of a plurality of cameras according to an example of the present invention.

도 10에 도시된 바와 같이, 복수개의 각 카메라가 오브젝트의 궤적을 획득(1010, 1020)하고, 오브젝트의 동적 특성을 이용하여 전체 보안 영역에서의 오브젝트의 궤적을 추정해낼 수 있다. 따라서, 이와 같은 궤적의 정합(match)을 통하여 각 카메라에서 촬영한 보안 영역의 배치(1030)를 알아낼 수 있다.As shown in FIG. 10, each of the plurality of cameras acquires the trajectory of the object (1010, 1020), and the trajectory of the object in the entire security area can be estimated using the dynamic characteristics of the object. Accordingly, it is possible to find the arrangement 1030 of the security area photographed by each camera through the match of such trajectories.

본 발명의 일례에 따른 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 방법 및 장치는, 오브젝트의 움직임에 대한 수학적 모델을 이용하여 복수개의 카메라에서의 뷰(view)의 겹침이 없는 경우에도, 각 카메라 간의 대응 관계를 구할 수 있으며, 상기 대응 관계를 이용하여 복수개의 카메라 간의 로테이션(rotation) 및 트랜스레이션(translation)을 산출하여 카메라 간의 시간(temporal) 보정을 수행할 수 있다.A method and apparatus for space-time correction and tracking using dynamic information of an object in a multiple camera system according to an example of the present invention is characterized in that when there is no overlapping of views in a plurality of cameras using a mathematical model of object motion Also, it is possible to calculate temporal corrections between the cameras by calculating the rotation and translation between a plurality of cameras using the correspondence relationship.

또한, 복수개의 카메라에서의 뷰(view)의 겹침이 없는 경우에도, 동일한 오브젝트 움직임 모델을 이용하여 시공간(spatio-temporal) 보정(calibration)을 동시에 실행할 수 있다.In addition, even when there is no overlap of views in a plurality of cameras, spatio-temporal correction can be performed simultaneously using the same object motion model.

따라서, 기존의 셋업(setup) 보정을 위하여 패턴(pattern) 영상을 얻기 위한 시간 보정에 필요한 아날로그 케이블링(analog cabling) 비용을 없이, 복수개의 카메라의 보정을 수행할 수 있다.Accordingly, correction of a plurality of cameras can be performed without the analog cabling cost required for time correction for obtaining a pattern image for an existing setup correction.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

도 1은 본 발명의 일례에 따른 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 방법을 설명하기 위한 개념도이다.1 is a conceptual diagram for explaining a space-time calibration and tracking method using dynamic information of an object in a multiple camera system according to an example of the present invention.

도 2는 본 발명의 일례에 따른 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 장치의 구성도이다.2 is a configuration diagram of a space-time calibration and tracking apparatus using dynamic information of an object in a multiple camera system according to an exemplary embodiment of the present invention.

도 3은 본 발명의 일례에 따른 오브젝트를 부분별로 구분하는 히스토그램을 통한 오브젝트의 형태 정보를 추출 방법을 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining a method of extracting object shape information through a histogram that divides an object according to an example according to an embodiment of the present invention.

도 4, 도 5, 및 도 6은 본 발명의 일례에 따른 시간 링크 정보를 이용하여 시공간 정보를 추출하는 방법을 설명하기 위한 도면이다.FIGS. 4, 5, and 6 are diagrams for explaining a method of extracting space-time information using time link information according to an example of the present invention.

도 7은 본 발명의 일례에 따른 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 방법을 설명하기 위한 흐름도이다.FIG. 7 is a flowchart illustrating a space-time calibration and tracking method using dynamic information of an object in a multiple camera system according to an exemplary embodiment of the present invention.

도 8 및 도 9는 본 발명의 일례에 따른 오브젝트의 아이디 핸드오버(ID handover)를 설명하기 위한 도면이다.8 and 9 are diagrams for explaining ID handover of an object according to an example of the present invention.

도 10은 본 발명의 일례에 따른 복수개의 카메라의 배치를 인식하는 방법을 설명하기 위한 도면이다.10 is a diagram for explaining a method of recognizing the arrangement of a plurality of cameras according to an example of the present invention.

<도면의 주요 부분에 대한 부호의 설명>Description of the Related Art

210: 정보 추출부210:

220: 궤적 추출부220: locus extracting unit

230: 교정부230:

Claims (10)

복수개의 카메라에서 촬영된 영상에서 오브젝트의 형태 정보, 및 시공간(spatio-temporal) 정보를 추출하는 단계;Extracting shape information and spatio-temporal information of an object from an image captured by a plurality of cameras; 상기 추출된 형태 정보, 시공간 정보에 기초하여, 상기 오브젝트의 궤적을 추적하는 단계; 및Tracking the trajectory of the object based on the extracted shape information and space-time information; And 상기 추적된 오브젝트의 궤적에 기초하여, 상기 복수개의 카메라 간의 교정을 실행하는 단계를 포함하고,And performing calibration between the plurality of cameras based on the trajectory of the tracked object, 상기 교정을 실행하는 단계는,The step of performing the calibration includes: 상기 오브젝트의 움직임에 기초하여 상기 복수개의 카메라 간의 로테이션(rotation) 및 트랜스레이션(translation)을 산출하는 단계; 및Calculating a rotation and a translation between the plurality of cameras based on the movement of the object; And 상기 복수개의 카메라 간의 로테이션 및 트랜스레이션에 기초하여 카메라들 간의 시간 보정을 수행하는 단계Performing time correction between the cameras based on the rotation and translation between the plurality of cameras 를 포함하는 것을 특징으로 하는 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 방법.And a time-space calibration and tracking method using dynamic information of an object in a multi-camera system. 제1항에 있어서,The method according to claim 1, 상기 복수개의 카메라에서 촬영된 영상에서 오브젝트의 형태 정보, 및 시공간(spatio-temporal) 정보를 추출하는 단계는,The step of extracting shape information and spatio-temporal information of an object from the images photographed by the plurality of cameras includes the steps of: 상기 오브젝트를 부분 별로 구분하는 히스토그램을 생성하고, 상기 히스토그램을 이용하여 상기 오브젝트의 형태 정보를 추출하는 단계Generating a histogram that divides the object into parts, and extracting shape information of the object using the histogram 인 것을 특징으로 하는 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 방법.Wherein the method further comprises the step of: 제2항에 있어서,3. The method of claim 2, 상기 오브젝트를 부분 별로 구분하는 히스토그램을 생성하고, 상기 히스토그램을 이용하여 상기 오브젝트의 형태 정보를 추출하는 단계는, Wherein the step of generating a histogram that divides the object into parts and extracting the type information of the object using the histogram, 상기 오브젝트가 사람인 경우, 상기 사람을 신체 별로 구분하는 히스토그램을 생성하고, 상기 히스토그램을 이용하여 상기 사람의 형태 정보를 추출하는 단계If the object is a person, generating a histogram that distinguishes the person by body and extracting morphological information of the person using the histogram 인 것을 특징으로 하는 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 방법.Wherein the method further comprises the step of: 제1항에 있어서,The method according to claim 1, 복수개의 카메라에서 촬영된 영상에서 오브젝트의 형태 정보, 및 시공간(spatio-temporal) 정보를 추출하는 단계는,The step of extracting shape information and spatio-temporal information of an object from an image captured by a plurality of cameras includes: 상기 복수개의 카메라 간의 상기 오브젝트를 촬영한 시간에 기초하여 구성되는 시간 링크 정보를 생성하는 단계;Generating time link information based on a time when the object is photographed between the plurality of cameras; 상기 생성된 시간 링크 정보에 기초하여, 상기 오브젝트의 이동에 대한 확률 분포를 구성하는 단계; 및Constructing a probability distribution for the movement of the object based on the generated time link information; And 상기 확률 분포에 기초하여 시공간 정보를 추출하는 단계Extracting space-time information based on the probability distribution 를 포함하는 것을 특징으로 하는 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 방법.And a time-space calibration and tracking method using dynamic information of an object in a multi-camera system. 제1항에 있어서,The method according to claim 1, 상기 시공간 정보는,The space- 상기 오브젝트가 상기 복수개의 카메라 간에 이동하여 촬영된 시간에 관한 정보인 이동 시간 정보, 상기 오브젝트가 상기 복수개의 카메라 간에 이동하여 촬영된 속도에 관한 정보인 속도 정보, 및 상기 오브젝트가 상기 복수개의 카메라 간에 이동하여 촬영된 경로에 관한 정보인 경로 정보를 포함하는 것을 특징으로 하는 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 방법.Speed information that is information on a speed at which the object is photographed when the object is moved between the plurality of cameras, and speed information indicating that the object is moving between the plurality of cameras And path information that is information on the photographed path. The method of claim 1, further comprising: 제1항에 있어서,The method according to claim 1, 상기 형태 정보는,The type information includes: 상기 오브젝트의 길이에 관련된 정보, 상기 오브젝트의 색깔에 관련된 정보를 포함하는 것을 특징으로 하는 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 방법.And information related to the length of the object and information related to the color of the object. 복수개의 카메라에서 촬영된 영상에서 오브젝트의 형태 정보, 및 시공간(spatio-temporal) 정보를 추출하는 정보 추출부;An information extraction unit for extracting shape information and spatio-temporal information of an object from an image captured by a plurality of cameras; 상기 추출된 형태 정보, 시공간 정보에 기초하여, 상기 오브젝트의 궤적을 추적하는 궤적 추적부; 및A trajectory tracing unit for tracing a trajectory of the object based on the extracted type information and space time information; And 상기 추적된 오브젝트의 궤적에 기초하여, 상기 복수개의 카메라 간의 교정을 실행하는 교정부를 포함하고,And a calibration unit that performs calibration between the plurality of cameras based on the trajectory of the tracked object, 상기 교정부는,Wherein the calibration unit comprises: 상기 오브젝트의 움직임에 기초하여 상기 복수개의 카메라 간의 로테이션(rotation) 및 트랜스레이션(translation)을 산출하고, 상기 복수개의 카메라 간의 로테이션 및 트랜스레이션에 기초하여 카메라들 간의 시간 보정을 수행하는 것을 특징으로 하는 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 장치.Calculating rotation and translation between the plurality of cameras based on the motion of the object and performing time correction between the cameras based on rotation and translation between the plurality of cameras, A Spatio - Temporal Calibration and Tracking System Using Dynamic Information of Objects in Multi - camera System. 제7항에 있어서,8. The method of claim 7, 상기 정보 추출부는,The information extracting unit extracts, 상기 오브젝트를 부분 별로 구분하는 히스토그램을 생성하고, 상기 히스토그램을 이용하여 상기 오브젝트의 형태 정보를 추출하는 것을 특징으로 하는 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 장치.Wherein the histogram generating unit generates a histogram that divides the object into parts and extracts the shape information of the object using the histogram. 제7항에 있어서,8. The method of claim 7, 상기 정보 추출부는,The information extracting unit extracts, 상기 복수개의 카메라 간의 상기 오브젝트를 촬영한 시간에 기초하여 구성되는 시간 링크 정보를 생성하고, 상기 생성된 시간 링크 정보에 기초하여 상기 오브젝트의 이동에 대한 확률 분포를 구성하며, 상기 확률 분포에 기초하여 시공간 정보를 추출하는 것을 특징으로 하는 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 장치.Generating time link information based on a time at which the object is photographed between the plurality of cameras, constructing a probability distribution for the movement of the object based on the generated time link information, Space-time information is extracted based on the dynamic information of the object in the multi-camera system. 제7항에 있어서,8. The method of claim 7, 상기 시공간 정보는,The space- 상기 오브젝트가 상기 복수개의 카메라 간에 이동하여 촬영된 시간에 관한 정보인 이동 시간 정보, 상기 오브젝트가 상기 복수개의 카메라 간에 이동하여 촬 영된 속도에 관한 정보인 속도 정보, 및 상기 오브젝트가 상기 복수개의 카메라 간에 이동하여 촬영된 경로에 관한 정보인 경로 정보를 포함하고,Speed information that is information on a speed at which the object is moved between the plurality of cameras and speed information indicating that the object is moved between the plurality of cameras And path information which is information on the photographed moving path, 상기 형태 정보는,The type information includes: 상기 오브젝트의 길이에 관련된 정보, 상기 오브젝트의 색깔에 관련된 정보를 포함하는 것을 특징으로 하는 다중 카메라 시스템에서의 오브젝트의 동적 정보를 이용한 시공간 교정 및 추적 장치.Information relating to the length of the object, and information related to the color of the object.
KR1020080027968A 2008-03-26 2008-03-26 Spatio-temporal calibration and tracking method and device with object dynamics in multiple camera systems KR101456861B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080027968A KR101456861B1 (en) 2008-03-26 2008-03-26 Spatio-temporal calibration and tracking method and device with object dynamics in multiple camera systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080027968A KR101456861B1 (en) 2008-03-26 2008-03-26 Spatio-temporal calibration and tracking method and device with object dynamics in multiple camera systems

Publications (2)

Publication Number Publication Date
KR20090102492A KR20090102492A (en) 2009-09-30
KR101456861B1 true KR101456861B1 (en) 2014-11-03

Family

ID=41359953

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080027968A KR101456861B1 (en) 2008-03-26 2008-03-26 Spatio-temporal calibration and tracking method and device with object dynamics in multiple camera systems

Country Status (1)

Country Link
KR (1) KR101456861B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120011653A (en) 2010-07-29 2012-02-08 삼성전자주식회사 Image processing apparatus and method
WO2019083068A1 (en) * 2017-10-27 2019-05-02 한양대학교 산학협력단 Three-dimensional information acquisition system using pitching practice, and method for calculating camera parameters

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100230863B1 (en) * 1997-04-29 1999-11-15 류정열 Apparatus for measuring tracks of vehicle and the method
KR100438981B1 (en) * 2001-06-02 2004-07-03 엘지산전 주식회사 Traffic information extracting method and apparatus using a image information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100230863B1 (en) * 1997-04-29 1999-11-15 류정열 Apparatus for measuring tracks of vehicle and the method
KR100438981B1 (en) * 2001-06-02 2004-07-03 엘지산전 주식회사 Traffic information extracting method and apparatus using a image information

Also Published As

Publication number Publication date
KR20090102492A (en) 2009-09-30

Similar Documents

Publication Publication Date Title
JP6295645B2 (en) Object detection method and object detection apparatus
KR102097016B1 (en) Apparatus and methdo for analayzing motion
US8805007B2 (en) Integrated background and foreground tracking
KR100799990B1 (en) Device and Method for transforming 2-D Image into 3-D Image
JP2014529727A (en) Automatic scene calibration
Pundlik et al. Time to collision and collision risk estimation from local scale and motion
KR102416523B1 (en) A 3D skeleton generation method using calibration based on joints acquired from multi-view camera
CN110941996A (en) Target and track augmented reality method and system based on generation of countermeasure network
KR101193223B1 (en) 3d motion tracking method of human&#39;s movement
JP2021060868A (en) Information processing apparatus, information processing method, and program
US11212510B1 (en) Multi-camera 3D content creation
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
KR100574227B1 (en) Apparatus and method for separating object motion from camera motion
Zhou et al. The chameleon-like vision system
US11176353B2 (en) Three-dimensional dataset and two-dimensional image localization
KR101456861B1 (en) Spatio-temporal calibration and tracking method and device with object dynamics in multiple camera systems
Shere et al. 3D Human Pose Estimation From Multi Person Stereo 360 Scenes.
Pollok et al. A visual SLAM-based approach for calibration of distributed camera networks
JP2006215743A (en) Image processing apparatus and image processing method
Qiu et al. Estimating metric poses of dynamic objects using monocular visual-inertial fusion
Tian et al. Wearable navigation system for the blind people in dynamic environments
El-Sallam et al. A low cost 3D markerless system for the reconstruction of athletic techniques
KR20170001448A (en) Apparatus for measuring position of camera using stereo camera and method using the same
KR20160039447A (en) Spatial analysis system using stereo camera.
KR101375708B1 (en) System and method for motion capture using plural image, and a medium having computer readable program for executing the method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170918

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180917

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190910

Year of fee payment: 6