JP2010134606A - Device, method, and program for detecting three-dimensional motion - Google Patents

Device, method, and program for detecting three-dimensional motion Download PDF

Info

Publication number
JP2010134606A
JP2010134606A JP2008308539A JP2008308539A JP2010134606A JP 2010134606 A JP2010134606 A JP 2010134606A JP 2008308539 A JP2008308539 A JP 2008308539A JP 2008308539 A JP2008308539 A JP 2008308539A JP 2010134606 A JP2010134606 A JP 2010134606A
Authority
JP
Japan
Prior art keywords
dimensional
dynamic object
motion
component
image frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008308539A
Other languages
Japanese (ja)
Other versions
JP4825260B2 (en
Inventor
Hidetomo Sakaino
英朋 境野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008308539A priority Critical patent/JP4825260B2/en
Publication of JP2010134606A publication Critical patent/JP2010134606A/en
Application granted granted Critical
Publication of JP4825260B2 publication Critical patent/JP4825260B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device, method, and program for stably detecting a three-dimensional motion of a dynamic object captured by a single camera, with high degree of accuracy. <P>SOLUTION: An integration of a coordinate transformation model into an optical flow method enables a three-dimensional detection of the motion of a dynamic object from a two-dimensional image captured by a single camera. Since the rotational component and the translational component to the motion of the dynamic object are added to restricting conditions in detecting a three-dimensional motion, the motion of the dynamic object is stable detected with a high degree of accuracy. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、カメラで撮影された動的対象物の動きを三次元的に検出する三次元的動き検出装置、三次元的動き検出方法及び三次元的動き検出プログラムの技術に関する。   The present invention relates to a technique of a three-dimensional motion detection apparatus, a three-dimensional motion detection method, and a three-dimensional motion detection program for three-dimensionally detecting a motion of a dynamic object photographed by a camera.

現在、カメラで撮影された動的対象物の動きを検出する様々な画像処理技術が存在している。最も基本的な動き検出方法としては、例えばMPEGに代表されるように、符号化分野で用いられている相互相関法(CC法、パターンマッチング法)が知られている。相互相関法とは、時間的に連続する2枚の画像フレーム間の類似性を相互相関関数等を用いて評価し、類似する領域を画像フレーム間の移動距離(ベクトル)とみなす方法である。類似性に関する計算精度を高めるため、画像フレームを複数のブロックに分割して、それぞれのサブブロック毎に移動距離を求める方法も存在している。   Currently, there are various image processing techniques for detecting the movement of a dynamic object photographed by a camera. As the most basic motion detection method, for example, as represented by MPEG, a cross-correlation method (CC method, pattern matching method) used in the coding field is known. The cross-correlation method is a method in which similarity between two temporally continuous image frames is evaluated using a cross-correlation function or the like, and a similar region is regarded as a moving distance (vector) between image frames. In order to increase the calculation accuracy regarding similarity, there is also a method of dividing an image frame into a plurality of blocks and obtaining a moving distance for each sub-block.

また、特にコンピュータビジョン分野では、オプティカルフロー法(非特許文献1参照)が知られている。連続する2枚以上の画像フレームを用いて動的対象物の速度ベクトルに基づくオプティカルフローの基本式を導出し、画像フレーム間での輝度変動を一定(ゼロ)と仮定した拘束条件式を生成して、この拘束条件式を最小二乗法(非特許文献2参照)を用いて近似的な計算を行うことで上記速度ベクトルを求めて、動的対象物の動きとして検出する方法である。   In particular, in the computer vision field, an optical flow method (see Non-Patent Document 1) is known. The basic equation of optical flow based on the velocity vector of a dynamic object is derived using two or more consecutive image frames, and a constraint equation is generated assuming that the luminance fluctuation between image frames is constant (zero). In this method, the velocity vector is obtained by approximating the constraint condition expression using the least square method (see Non-Patent Document 2), and detected as the motion of the dynamic object.

しかしながら、このような従来の画像処理技術は、本来であれば三次元的に移動している動的対象物の動きを二次元画像平面に投影した結果であるため、奥行方向に関する情報が考慮されていないものである。この奥行情報を動的対象物の動きに係る構成要件とし、動的対象物を三次元的(立体的)に捉えるためには、立体視の原理を用いる方法が一般的である(非特許文献3参照)。
J.L. Barron、他2名、「Performance of Optical Flow Techniques」、IJCV、1994、vol.12、no.1、p.43-77 中川 徹、外1名、「最小二乗法による実験データ解析」、東京大学出版会、1995、p.168-169 “3Dの原理 principle”、[online]、[平成20年12月1日検索]、インターネット<URL : http://www2.aimnet.ne.jp/nakahara/3dart/3genri.html>
However, such a conventional image processing technique is a result of projecting the movement of a dynamic object that is originally moving three-dimensionally onto a two-dimensional image plane, and therefore information on the depth direction is taken into consideration. It is not. In order to make this depth information a constituent requirement related to the movement of a dynamic object and to capture the dynamic object in a three-dimensional (three-dimensional) manner, a method using the principle of stereoscopic vision is generally used (Non-Patent Document). 3).
JL Barron, two others, "Performance of Optical Flow Techniques", IJCV, 1994, vol.12, no.1, p.43-77 Toru Nakagawa and 1 other, “Experimental Data Analysis by Least Squares Method”, The University of Tokyo Press, 1995, p.168-169 “3D principle”, [online], [December 1, 2008 search], Internet <URL: http://www2.aimnet.ne.jp/nakahara/3dart/3genri.html>

しかしながら、立体視の原理は2台以上のカメラを条件とするため、複数のカメラを設置する場所の確保や、各カメラで撮影された複数の映像を校正するのに多くの手間や時間がかかるという問題があった。また、運動視の原理を用いて1台のカメラで動的対象物の動きを検出することも可能ではあるが、カメラを機械的に運動させる必要があるため、大掛かり且つ高価な装置を要するという問題があった。更に言うならば、単純な時間差分を用いるだけでは奥行情報を得ることができないという問題があった。   However, since the principle of stereoscopic vision requires two or more cameras, it takes a lot of time and effort to secure a place to install multiple cameras and to calibrate multiple videos taken by each camera. There was a problem. Although it is possible to detect the movement of a dynamic object with a single camera using the principle of motion vision, it is necessary to move the camera mechanically, which requires a large and expensive device. There was a problem. Furthermore, there is a problem that depth information cannot be obtained only by using a simple time difference.

本発明は、上記を鑑みてなされたものであり、1台のカメラで撮影された動的対象物の三次元的な動きを精度よく安定的に検出する三次元的動き検出装置、三次元的動き検出方法及び三次元的動き検出プログラムを提供することを課題とする。   The present invention has been made in view of the above, and a three-dimensional motion detection apparatus and a three-dimensional motion detection apparatus that detect a three-dimensional motion of a dynamic object photographed by one camera with high accuracy and stability. It is an object of the present invention to provide a motion detection method and a three-dimensional motion detection program.

第1の請求項に係る発明は、一台の撮影装置で撮影された動的対象物の映像を入力する入力手段と、前記映像を時系列な複数の画像フレームとして記憶する記憶手段と、三次元空間の位置座標を二次元空間の位置座標に変換する空間座標変換式を導出する変換式導出手段と、前記空間座標変換式を時間で偏微分し、三次元空間における任意対象の運動を回転運動及び並進運動で表した線形モデル式を用いて、二次元座標上における前記任意対象の速度ベクトル計算式を導出する速度ベクトル計算式導出手段と、前記記憶手段から時間的に連続する2枚の前記画像フレームを読み出して、前記動的対象物を形成している各画素の時間的な輝度変動成分と、当該動的対象物の速度の滑らかさ成分と、当該動的対象物の動きに対する回転成分及び並進成分とを拘束条件とし、前記速度ベクトル計算式を前記輝度変動成分及び前記滑らかさ成分を構成している速度成分に代入して、オプティカルフロー法を用いて二次元座標上における前記動的対象物の動きを三次元的に検出する動き検出手段と、前記記憶手段に記憶されている複数の前記画像フレームを用いて、検出された前記動的対象物の三次元的動きを時系列に表示する表示手段と、を有することを要旨とする。   The invention according to the first claim includes input means for inputting a video of a dynamic object photographed by a single photographing device, storage means for storing the video as a plurality of time-series image frames, and tertiary Conversion formula deriving means for deriving a spatial coordinate conversion formula for converting the position coordinate of the original space into the position coordinate of the two-dimensional space, and partial differentiation of the spatial coordinate conversion formula with respect to time to rotate the motion of an arbitrary object in the three-dimensional space Using a linear model expression expressed by motion and translational motion, a speed vector calculation formula deriving means for deriving the speed vector calculation formula of the arbitrary object on two-dimensional coordinates, and two temporally continuous sheets from the storage means The image frame is read out, the temporal luminance fluctuation component of each pixel forming the dynamic object, the smoothness component of the speed of the dynamic object, and the rotation with respect to the movement of the dynamic object Ingredients and average The dynamic object on two-dimensional coordinates using an optical flow method by substituting the velocity vector calculation formula into the velocity component constituting the luminance variation component and the smoothness component. 3D motion detection means for three-dimensionally detecting the motion of the object and a plurality of the image frames stored in the storage means, the detected three-dimensional motion of the dynamic object is displayed in time series. And a display means.

第2の請求項に係る発明は、コンピュータにより、一台の撮影装置で撮影された動的対象物の映像を入力するステップと、前記映像を時系列な複数の画像フレームとして記憶手段に記憶するステップと、三次元空間の位置座標を二次元空間の位置座標に変換する空間座標変換式を導出するステップと、前記空間座標変換式を時間で偏微分し、三次元空間における任意対象の運動を回転運動及び並進運動で表した線形モデル式を用いて、二次元座標上における前記任意対象の速度ベクトル計算式を導出するステップと、前記記憶手段から時間的に連続する2枚の前記画像フレームを読み出して、前記動的対象物を形成している各画素の時間的な輝度変動成分と、当該動的対象物の速度の滑らかさ成分と、当該動的対象物の動きに対する回転成分及び並進成分とを拘束条件とし、前記速度ベクトル計算式を前記輝度変動成分及び前記滑らかさ成分を構成している速度成分に代入して、オプティカルフロー法を用いて二次元座標上における前記動的対象物の動きを三次元的に検出するステップと、前記記憶手段に記憶されている複数の前記画像フレームを用いて、検出された前記動的対象物の三次元的動きを時系列に表示するステップと、を有することを要旨とする。   According to a second aspect of the present invention, a step of inputting an image of a dynamic object photographed by a single photographing device by a computer and storing the image in a storage means as a plurality of time-series image frames. A step, a step of deriving a spatial coordinate conversion formula for converting a position coordinate in the three-dimensional space into a position coordinate in the two-dimensional space; Deriving the velocity vector calculation formula of the arbitrary object on two-dimensional coordinates using a linear model expression represented by rotational motion and translation motion, and two temporally continuous image frames from the storage means Read out, the temporal luminance fluctuation component of each pixel forming the dynamic object, the smoothness component of the speed of the dynamic object, and the rotation component with respect to the movement of the dynamic object And the translation component as constraint conditions, substituting the velocity vector calculation formula into the velocity component constituting the luminance variation component and the smoothness component, and using the optical flow method to Using the step of three-dimensionally detecting the movement of the object and a plurality of the image frames stored in the storage means, the detected three-dimensional movement of the dynamic object is displayed in time series. And a step.

第3の請求項に係る発明は、請求項2に記載の三次元的動き検出方法における各ステップをコンピュータによって実行させることを要旨とする。   The gist of the third aspect of the invention is to cause each step in the three-dimensional motion detection method of the second aspect to be executed by a computer.

本発明によれば、1台のカメラで撮影された動的対象物の三次元的な動きを精度よく安定的に検出する三次元的動き検出装置、三次元的動き検出方法及び三次元的動き検出プログラムを提供することができる。   According to the present invention, a three-dimensional motion detection apparatus, a three-dimensional motion detection method, and a three-dimensional motion that detect a three-dimensional motion of a dynamic object photographed by one camera with high accuracy and stability. A detection program can be provided.

図1は、本実施の形態に係る三次元的動き検出装置の機能構成を示す機能構成図である。この三次元的動き検出装置100は、入力部11と、変換式導出部12と、速度ベクトル計算式導出部13と、動き検出部14と、表示部15と、記憶部31とを備えている。   FIG. 1 is a functional configuration diagram illustrating a functional configuration of the three-dimensional motion detection apparatus according to the present embodiment. The three-dimensional motion detection apparatus 100 includes an input unit 11, a conversion formula deriving unit 12, a velocity vector calculation formula deriving unit 13, a motion detecting unit 14, a display unit 15, and a storage unit 31. .

入力部11は、1台のカメラ(撮影装置)200で撮影された動的対象物の映像の入力を受け付ける機能を備えている。   The input unit 11 has a function of accepting input of an image of a dynamic object photographed by one camera (imaging device) 200.

記憶部31は、入力部11で受け付けた後に入力された映像を時系列な複数の画像フレームをとして記憶する機能を備えている。このような記憶部31としては、例えばメモリ、ハードディスク等の記憶装置を用いることが一般的であり、三次元的動き検出装置100の内部のみならず、インターネットや電話回線等の通信ネットワークを介して電気的に接続可能な外部の記憶装置を用いることも可能である。   The storage unit 31 has a function of storing a video input after being received by the input unit 11 as a plurality of time-series image frames. As such a storage unit 31, for example, a storage device such as a memory or a hard disk is generally used, and not only inside the three-dimensional motion detection device 100 but also via a communication network such as the Internet or a telephone line. It is also possible to use an external storage device that can be electrically connected.

変換式導出部12は、三次元空間の位置座標を二次元空間の位置座標に変換する空間座標変換式を導出する機能を備えている。具体的には、三次元空間における任意対象の位置座標を(X1,X2,X3)とし、この任意対象をX1軸−X2軸で形成される二次元画像面上に投影した場合の位置座標を(x1,x2)として、式(1)に示す空間座標変換式を導出する。
The conversion formula deriving unit 12 has a function of deriving a spatial coordinate conversion formula that converts position coordinates in the three-dimensional space into position coordinates in the two-dimensional space. Specifically, the position coordinates of an arbitrary object in the three-dimensional space are (X1, X2, X3), and the position coordinates when the arbitrary object is projected on the two-dimensional image plane formed by the X1 axis-X2 axis are shown. As (x1, x2), the spatial coordinate conversion formula shown in Formula (1) is derived.

速度ベクトル計算式導出部13は、変換式導出部12で導出された空間座標変換式を時間で偏微分し、三次元空間における任意対象の運動を回転運動及び並進運動で表した線形モデル式を用いて、二次元座標上における任意対象の速度ベクトル計算式を導出する機能を備えている。具体的には、最初に、後述する動き検出部14でのオプティカルフロー法への統合を図るため、式(1)に対して時間についての偏微分を施して式(2)を導出する。なお、各変数の上に付与されている“・”は時間微分を示している。
The speed vector calculation formula deriving unit 13 performs partial differentiation on the space coordinate conversion formula derived by the conversion formula deriving unit 12 with respect to time, and obtains a linear model formula representing the motion of an arbitrary object in the three-dimensional space by rotational motion and translational motion. And a function for deriving a velocity vector calculation formula for an arbitrary object on two-dimensional coordinates. Specifically, first, in order to integrate into the optical flow method in the motion detection unit 14 to be described later, the partial differentiation with respect to time is performed on the equation (1) to derive the equation (2). Note that “·” given above each variable indicates time differentiation.

次に、任意対象の運動は、回転運動Ω=(Ω,Ω,Ω)と並進運動T=(T,T,T)とからなると仮定すると、式(3)に示すような線形モデル式を用いることができる。
Next, assuming that the motion of an arbitrary object is composed of a rotational motion Ω = (Ω 1 , Ω 2 , Ω 3 ) and a translational motion T = (T 1 , T 2 , T 3 ), Equation (3) shows Such a linear model formula can be used.

そして、式(2)及び式(3)を用いて式(4)及び式(5)を導出することができる。
Then, using the equations (2) and (3), the equations (4) and (5) can be derived.

式(4)及び式(5)で得られる計算結果は、三次元空間の位置座標を二次元空間としての二次元画像の位置座標に変換した場合における任意対象の速度ベクトルd(u,v)を求める速度ベクトル計算式であるため、式(6)及び式(7)に示す関係が成立することになる。
The calculation results obtained by the equations (4) and (5) are the velocity vector d (u, v) of an arbitrary object when the position coordinates in the three-dimensional space are converted into the position coordinates of the two-dimensional image as the two-dimensional space. Therefore, the relationship shown in Expression (6) and Expression (7) is established.

動き検出部14は、記憶部31から時間的に連続する2枚の画像フレームを読み出して、動的対象物を形成している各画素の時間的な輝度変動成分と、この動的対象物の速度の滑らかさ成分と、この動的対象物の動きに対する回転成分及び並進成分とを拘束条件とし、速度ベクトル計算式を輝度変動成分及び滑らかさ成分を構成している速度成分に代入して、オプティカルフロー法を用いて二次元座標上における動的対象物の動きを三次元的に検出する機能を備えている。以下、動き検出部14における処理を具体的に説明する。   The motion detection unit 14 reads two temporally continuous image frames from the storage unit 31, and temporal luminance fluctuation components of each pixel forming the dynamic object, and the dynamic object Using the smoothness component of velocity and the rotation component and translation component for the movement of the dynamic object as constraints, substituting the velocity vector calculation formula into the velocity component constituting the luminance fluctuation component and smoothness component, It has a function to detect the movement of a dynamic object on a two-dimensional coordinate three-dimensionally using the optical flow method. Hereinafter, the process in the motion detection part 14 is demonstrated concretely.

オプティカルフローとは撮影された動的対象物の見かけの速度ベクトルのことを意味している(非特許文献1参照)。図2に示すように、時刻tにおいて座標(x,y)にある輝度(濃淡)Iが、δt時間経過した後に座標(x+δx,y+δy)に移動したとき、後者について(x,y,t)のまわりでテイラー展開すると式(8)を得ることができる。
The optical flow means an apparent velocity vector of a captured dynamic object (see Non-Patent Document 1). As shown in FIG. 2, when the luminance (shading) I at the coordinate (x, y) at the time t moves to the coordinate (x + δx, y + δy) after δt time has passed, the latter (x, y, t) Equation (8) can be obtained by Taylor expansion around.

そして、式(8)に示す右辺の第2項〜第4項をδtで割った値が2枚の画像フレーム間の輝度変動量に相当するため、この輝度変動量を0(ゼロ)として式(9)を導出する。
Since the value obtained by dividing the second term to the fourth term on the right side in equation (8) by δt corresponds to the luminance variation amount between the two image frames, this luminance variation amount is set to 0 (zero). (9) is derived.

ここで、δtの極限としてδt→0とすると式(10)を得ることができる。
Here, when δt → 0 is set as the limit of δt, Equation (10) can be obtained.

式(10)がオプティカルフローを計算する基本式であり、式(11)に示すようにdx/dtとdy/dtとが速度ベクトルd(u,v)となる。
Expression (10) is a basic expression for calculating the optical flow, and dx / dt and dy / dt are velocity vectors d (u, v) as shown in Expression (11).

ここで、この基本式を計算するには拘束条件を与える必要があるが、本実施の形態では、輝度変動条件(輝度変動成分)と、動的対象物の速度の滑らかさ条件(動的対象物の速度の滑らかさ成分)と、動的対象物の動きに対する回転成分及び並進成分とを拘束条件としている。   Here, it is necessary to give a constraint condition in order to calculate this basic formula. However, in this embodiment, the brightness fluctuation condition (brightness fluctuation component) and the smoothness condition of the speed of the dynamic object (dynamic object) The smoothness component of the speed of the object) and the rotation component and the translation component with respect to the movement of the dynamic object are the constraint conditions.

最初に、輝度変動条件について説明する。式(10)に示す(∂x/∂t)をI、(∂y/∂t)をI、(∂I/∂t)をIとし、式(11)を用いて、誤差errを式(12)のように定義する。
First, the luminance variation condition will be described. It is shown in equation (10) to (∂x / ∂t) I x, (∂y / ∂t) and I y, the (∂I / ∂t) and I t, using equation (11), the error err Is defined as in equation (12).

差分法に基づいて(i、j)格子上で式(11)の各変数を離散化すると、画素(i、j)における誤差erri,jは式(13)で表現することができる。この式(13)を輝度変動条件とする。
When each variable of Expression (11) is discretized on the (i, j) lattice based on the difference method, the error err i, j in the pixel (i, j) can be expressed by Expression (13). This equation (13) is set as a luminance variation condition.

次に、動的対象物の動きの滑らかさ条件について説明する。この滑らかさ成分については、動的対象物の動きは微小であり、その速度成分の空間的な変化が滑らかであると仮定して、式(14)に示すように速度ベクトルd(u,v)の1次微分を用いる。この式(14)を滑らかさ条件とする。
Next, the smoothness condition for the movement of the dynamic object will be described. With respect to this smoothness component, assuming that the movement of the dynamic object is minute and that the spatial variation of the velocity component is smooth, the velocity vector d (u, v, as shown in equation (14). ) Is used. This equation (14) is defined as a smoothness condition.

本実施の形態では、連続する2枚の画像フレームという限られた画像情報だけから三次元的な動き成分を検出するため、式(13)及び式(14)で示した速度に関する各拘束条件以外について条件を加える必要がある。そこで、式(15)及び式(16)に示すように、動的対象物における回転成分(ΔΩ)及び並進成分(ΔT)を拘束条件として加えることにしている。なお、Mは動的対象物を形成している画素に隣接している画素数(例えば、4〜8点)であり、CはM近傍に位置する画素数である。
In the present embodiment, since a three-dimensional motion component is detected from only limited image information of two consecutive image frames, other than the constraint conditions relating to the speed shown in Expression (13) and Expression (14) It is necessary to add conditions. Therefore, as shown in the equations (15) and (16), the rotation component (ΔΩ) and the translation component (ΔT) in the dynamic object are added as constraint conditions. Note that M is the number of pixels adjacent to the pixels forming the dynamic object (for example, 4 to 8 points), and C is the number of pixels located in the vicinity of M.

最終的には、式(13)に示す輝度変動条件と式(14)に示す動的対象物の動きの滑らか条件と、式(15)に示す動的対象物の回転成分と、式(16)に示す動的対象物の並進成分とから得られた拘束条件(式(17))を用いて、3つの未知数(u,v)を最小二乗法(非特許文献2参照)や勾配法を用いて推定する。なお、λ、λ、λ(例えば、λ=10.0、λ=λ=5.0を用いることができる)は滑らかさ条件等に対する調整係数である。また、Φは画像フレームを小さいブロックに分けたときの各画像領域(例えば10×10画素)を示している。
Finally, the luminance fluctuation condition shown in Expression (13), the smooth condition of the movement of the dynamic object shown in Expression (14), the rotational component of the dynamic object shown in Expression (15), and Expression (16) ) Using the constraint condition (Equation (17)) obtained from the translational component of the dynamic object shown in), the three unknowns (u, v) are converted into the least square method (see Non-Patent Document 2) or the gradient method. Use to estimate. Note that λ 1 , λ 2 , and λ 3 (for example, λ 1 = 10.0, λ 2 = λ 3 = 5.0 can be used) are adjustment coefficients for the smoothness condition and the like. Φ indicates each image area (for example, 10 × 10 pixels) when the image frame is divided into small blocks.

この最小二乗法や勾配法の解法については、未知数(u,v,Ω,Ω,Ω,T,T,T)で式(17)をそれぞれ偏微分した8つの線形連立方程式を計算することで求めることが可能となる。本実施の形態では、動的対象物の三次元的な動きについて検出するため、式(4)及び式(6)から得られるuと、式(5)及び式(7)から得られるvとを、式(17)に示す拘束条件式における輝度変動条件及び滑らかさ条件を構成している速度成分u,vに代入して上記連立方程式を計算する。なお、上記8つの連立方程式が最小値を持つためには、8つの未知数についての一次微分値が0(ゼロ)になればよいため、式(18)が条件となることを付言しておく。
As for the solution of the least square method and the gradient method, eight linear simultaneous systems obtained by partially differentiating Equation (17) with unknown numbers (u, v, Ω 1 , Ω 2 , Ω 3 , T 1 , T 2 , T 3 ). It can be obtained by calculating an equation. In the present embodiment, in order to detect the three-dimensional movement of the dynamic object, u obtained from the equations (4) and (6), v obtained from the equations (5) and (7), and Is substituted into the velocity components u and v constituting the luminance variation condition and smoothness condition in the constraint condition expression shown in Expression (17) to calculate the simultaneous equations. In addition, in order for the above eight simultaneous equations to have the minimum value, it is only necessary that the primary differential value of the eight unknowns be 0 (zero), so it is added that the equation (18) is a condition.

参考までに、勾配法を用いた式(17)の具体的解法について説明しておく。勾配法の場合には、上記8つの未知数のうち一つを仮にAとした場合に式(19)が成立するものと仮定し、この式(19)が収束するまで反復計算を行う。
For reference, a specific solution of equation (17) using the gradient method will be described. In the case of the gradient method, assuming that one of the eight unknowns is A, Equation (19) is assumed to be satisfied, and iterative calculation is performed until Equation (19) converges.

なお、pは反復回数であり、Bは式(18)に示したA(8つの未知数)の一次微分値であり、μは調整係数である。初期値A(p)=0とし、8つの未知数を式(19)にそれぞれ当てはめて反復計算をそれぞれ行い、例えば式(20)で示された関係(反復誤差)が成立した場合には収束したものとみなして、そのときに得られた値を各未知数値とする。
Note that p is the number of iterations, B is the first derivative of A (eight unknowns) shown in Expression (18), and μ is an adjustment coefficient. The initial value A (p) = 0 is set, and 8 unknowns are respectively applied to the equation (19) to perform iterative calculation. For example, when the relationship (repetition error) shown in the equation (20) is established, the convergence is achieved. The value obtained at that time is regarded as each unknown value.

表示部15は、記憶部31に記憶されている複数の画像フレームを用いて、動き検出部14で検出された動的対象物の三次元的動きを矢印等で時系列に表示する機能を備えている。   The display unit 15 has a function of displaying the three-dimensional motion of the dynamic object detected by the motion detection unit 14 in time series using arrows or the like using a plurality of image frames stored in the storage unit 31. ing.

続いて、本実施の形態に係る三次元的動き検出装置の処理フローについて説明する。最初に、入力部11が、一台のカメラで撮影された動的対象物の映像の入力を受け付ける(ステップS101)。   Subsequently, a processing flow of the three-dimensional motion detection apparatus according to the present embodiment will be described. First, the input unit 11 receives an input of an image of a dynamic object photographed by one camera (step S101).

次に、記憶部31が、受け付けて入力された映像を時系列な複数の画像フレームとして記憶する(ステップS102)。   Next, the storage unit 31 stores the received and input video as a plurality of time-series image frames (step S102).

続いて、変換式導出部12が、三次元空間の位置座標を二次元空間の位置座標に変換する空間座標変換式を導出する(ステップS103)。   Subsequently, the conversion formula deriving unit 12 derives a spatial coordinate conversion formula for converting the position coordinates in the three-dimensional space into the position coordinates in the two-dimensional space (step S103).

また、速度ベクトル計算式導出部13が、ステップS103で導出された空間座標変換式を時間で偏微分し、三次元空間における任意対象の運動を回転運動及び並進運動で表した線形モデル式を用いて、二次元座標上における任意対象の速度ベクトル計算式を導出する(ステップS104)。   In addition, the velocity vector calculation formula deriving unit 13 performs partial differentiation on the space coordinate conversion formula derived in step S103 with respect to time, and uses a linear model formula that represents the motion of an arbitrary object in the three-dimensional space by rotational motion and translational motion. Thus, a velocity vector calculation formula for an arbitrary object on two-dimensional coordinates is derived (step S104).

その後、動き検出部14が、記憶部31に記憶されている時間的に連続な2枚の画像フレームを読み出して、動的対象物を形成している各画素の時間的な輝度変動成分と、この動的対象物の速度の滑らかさ成分と、この動的対象物の動きに対する回転成分及び並進成分とを拘束条件とし、ステップS104で導出された速度ベクトル計算式を輝度変動成分及び滑らかさ成分を構成している速度成分に代入して、オプティカルフロー法を用いて二次元座標上における動的対象物の動きを三次元的に検出する(ステップS105)。なお、動き検出部14は、2枚の画像フレーム(例えば、時刻t−1と時刻tとの画像フレーム)から動きを検出した後に、次に連続する2枚の画像フレーム(例えば、時刻tと時刻t+1)を用いて動的対象物の三次元的動きを繰り返し検出する。   Thereafter, the motion detection unit 14 reads two temporally continuous image frames stored in the storage unit 31, and temporal luminance variation components of the pixels forming the dynamic object; The velocity smoothness component of the dynamic object and the rotation component and translation component with respect to the movement of the dynamic object are used as constraint conditions, and the velocity vector calculation formula derived in step S104 is used as the luminance fluctuation component and the smoothness component. The motion of the dynamic object on the two-dimensional coordinates is detected three-dimensionally using the optical flow method (step S105). The motion detection unit 14 detects motion from two image frames (for example, image frames at time t-1 and time t), and then detects two consecutive image frames (for example, time t and The three-dimensional motion of the dynamic object is repeatedly detected using time t + 1).

最後に、表示部15が、動き検出部14で検出された動的対象物の三次元的動きを時系列に表示する(ステップS106)。   Finally, the display unit 15 displays the three-dimensional motion of the dynamic object detected by the motion detection unit 14 in time series (step S106).

なお、ステップS103及びステップS104は、ステップS102より前であればいずれの段階で処理されていてもよい。   Note that step S103 and step S104 may be processed at any stage as long as they are before step S102.

図3は、中心部が奥行方向に動いている動的対象物の動きの検出結果を矢印で示した図である。図3(a)に示す本実施の形態の場合には、時間の経過に伴って中心奥行方向に動く移動対象物の動きが、周辺から中心方向に向かう矢印で示されているので、奥行方向に向かう移動対象物の動きを適切に検出できていることが把握できる。一方、図3(b)に示す従来法(Horn&Schunck法の二次元推定法)の場合には、左右から中心方向に向かう矢印のみ検出されており、上下方向から中心方向に向かう状態が示されていないので、奥行成分を殆ど検出できていないことが分かる。この検出結果から、本発明における三次元的なモデリングの有効性を評価することができる。   FIG. 3 is a diagram showing the detection results of the movement of the dynamic object whose center is moving in the depth direction by arrows. In the case of the present embodiment shown in FIG. 3 (a), the movement of the moving object moving in the center depth direction with the passage of time is indicated by an arrow from the periphery toward the center direction. It can be understood that the movement of the moving object heading toward is properly detected. On the other hand, in the case of the conventional method shown in FIG. 3B (two-dimensional estimation method of Horn & Schunkck method), only the arrows from the left and right to the center direction are detected, and the state from the vertical direction to the center direction is shown. Since there is no depth component, it can be seen that almost no depth component is detected. From this detection result, the effectiveness of the three-dimensional modeling in the present invention can be evaluated.

図4は、三次元構造が著名なハリケーンの動きの検出結果を矢印で示した図である。図4右上に示す本実施の形態の場合には、渦の特徴として旋回している様子を明瞭に検出できていることが把握できる。また、渦周辺の対流構造に伴った奥行方向の変化を良好に捉えられている。一方、図4右下に示す従来法(Lucas−Kanade法の二次元推定法)の場合には、渦の外枠の動きのみが検出されているのみであって、渦全体の特徴を十分に検出できていないことが分かる。この検出結果から、奥行方向にも変化を伴う二次元のハリケーン画像であっても、三次元的な特徴まで検出することが可能であると言える。   FIG. 4 is a diagram showing detection results of hurricane movements with prominent three-dimensional structures by arrows. In the case of the present embodiment shown in the upper right of FIG. 4, it can be understood that the state of turning is clearly detected as a feature of the vortex. Moreover, the change of the depth direction accompanying the convection structure around the vortex is well captured. On the other hand, in the case of the conventional method shown in the lower right of FIG. 4 (the two-dimensional estimation method of Lucas-Kanade method), only the movement of the outer frame of the vortex is detected, and the characteristics of the entire vortex are sufficiently obtained. It turns out that it has not detected. From this detection result, it can be said that even a two-dimensional hurricane image with a change in the depth direction can also detect a three-dimensional feature.

本実施の形態によれば、座標変換モデルをオプティカルフロー法に融合しているので、1台のカメラで撮影された二次元画像からであっても動的対象物の動きを三次元的に検出することが可能となる。また、三次元的な動きを検出する際に、動的対象物の動きに対する回転成分及び並進成分とを拘束条件に加えているので、動的対象物の動きを精度よく安定的に検出することが可能となる。   According to the present embodiment, since the coordinate transformation model is fused with the optical flow method, the movement of the dynamic object is detected three-dimensionally even from a two-dimensional image photographed with one camera. It becomes possible to do. In addition, when detecting three-dimensional movement, the rotational and translational components for the movement of the dynamic object are added to the constraint conditions, so the movement of the dynamic object can be detected accurately and stably. Is possible.

最後に、各実施の形態で説明した三次元的動き検出装置は、コンピュータで構成され、各機能ブロックの各処理はプログラムで実行されるようになっている。また、各実施の形態で説明した三次元的動き検出装置の各処理動作をプログラムとして例えばコンパクトディスクやフロッピー(登録商標)ディスク等の記録媒体に記録して、この記録媒体をコンピュータに組み込んだり、若しくは記録媒体に記録されたプログラムを、任意の通信回線を介してコンピュータにダウンロードしたり、又は記録媒体からインストールし、該プログラムでコンピュータを動作させることにより、上述した各処理動作を三次元的動き検出装置として機能させることができるのは勿論である。   Finally, the three-dimensional motion detection apparatus described in each embodiment is configured by a computer, and each process of each functional block is executed by a program. Further, each processing operation of the three-dimensional motion detection apparatus described in each embodiment is recorded as a program on a recording medium such as a compact disk or a floppy (registered trademark) disk, and this recording medium is incorporated in a computer. Alternatively, a program recorded on a recording medium can be downloaded to a computer via an arbitrary communication line, or installed from the recording medium, and the computer can be operated by the program to perform the above-described processing operations in a three-dimensional manner. Of course, it can function as a detection device.

なお、本実施の形態で説明した三次元的動き検出装置は、画像処理分野、気象分野、河川分野、これら分野について監視業務を主とする分野、映像配信に関わる通信分野において応用可能であることを付言しておく。   Note that the three-dimensional motion detection apparatus described in this embodiment can be applied to the image processing field, the weather field, the river field, a field mainly for monitoring work in these fields, and a communication field related to video distribution. Let me add.

本実施の形態に係る三次元的動き検出装置の機能構成を示す機能構成図である。It is a functional block diagram which shows the function structure of the three-dimensional motion detection apparatus which concerns on this Embodiment. 微少時間の明るさの移動を示す図である。It is a figure which shows the movement of the brightness of micro time. 中心部が奥行方向に動いている動的対象物の動きの検出結果を矢印で示した図である。It is the figure which showed the detection result of the motion of the dynamic target object which the center part is moving in the depth direction by the arrow. 三次元構造が著名なハリケーンの動きの検出結果を矢印で示した図である。It is the figure which showed the detection result of the motion of a hurricane with a prominent three-dimensional structure by the arrow.

符号の説明Explanation of symbols

11…入力部
12…変換式導出部
13…速度ベクトル計算式導出部
14…動き検出部
15…表示部
31…記憶部
100…三次元的動き検出装置
200…カメラ
S101〜S106…ステップ
DESCRIPTION OF SYMBOLS 11 ... Input part 12 ... Conversion formula derivation part 13 ... Speed vector calculation formula derivation part 14 ... Motion detection part 15 ... Display part 31 ... Storage part 100 ... Three-dimensional motion detection apparatus 200 ... Camera S101-S106 ... Step

Claims (3)

一台の撮影装置で撮影された動的対象物の映像を入力する入力手段と、
前記映像を時系列な複数の画像フレームとして記憶する記憶手段と、
三次元空間の位置座標を二次元空間の位置座標に変換する空間座標変換式を導出する変換式導出手段と、
前記空間座標変換式を時間で偏微分し、三次元空間における任意対象の運動を回転運動及び並進運動で表した線形モデル式を用いて、二次元座標上における前記任意対象の速度ベクトル計算式を導出する速度ベクトル計算式導出手段と、
前記記憶手段から時間的に連続する2枚の前記画像フレームを読み出して、前記動的対象物を形成している各画素の時間的な輝度変動成分と、当該動的対象物の速度の滑らかさ成分と、当該動的対象物の動きに対する回転成分及び並進成分とを拘束条件とし、前記速度ベクトル計算式を前記輝度変動成分及び前記滑らかさ成分を構成している速度成分に代入して、オプティカルフロー法を用いて二次元座標上における前記動的対象物の動きを三次元的に検出する動き検出手段と、
前記記憶手段に記憶されている複数の前記画像フレームを用いて、検出された前記動的対象物の三次元的動きを時系列に表示する表示手段と、
を有することを特徴とする三次元的動き検出装置。
An input means for inputting an image of a dynamic object photographed by one photographing apparatus;
Storage means for storing the video as a plurality of time-series image frames;
A conversion formula deriving means for deriving a spatial coordinate conversion formula for converting the position coordinates of the three-dimensional space into the position coordinates of the two-dimensional space;
Using the linear model formula that partially differentiates the spatial coordinate conversion formula with time and expresses the motion of the arbitrary object in the three-dimensional space by the rotational motion and the translational motion, the velocity vector calculation formula of the arbitrary target on the two-dimensional coordinates is A speed vector calculation formula deriving means for deriving;
The two temporally continuous image frames are read out from the storage means, and the temporal luminance fluctuation component of each pixel forming the dynamic object and the smoothness of the speed of the dynamic object And a rotation component and a translation component with respect to the motion of the dynamic object, and the velocity vector calculation formula is substituted into the velocity component constituting the luminance variation component and the smoothness component to obtain an optical A motion detection means for three-dimensionally detecting the motion of the dynamic object on two-dimensional coordinates using a flow method;
Display means for displaying a three-dimensional movement of the detected dynamic object in time series using the plurality of image frames stored in the storage means;
A three-dimensional motion detection apparatus comprising:
コンピュータにより、
一台の撮影装置で撮影された動的対象物の映像を入力するステップと、
前記映像を時系列な複数の画像フレームとして記憶手段に記憶するステップと、
三次元空間の位置座標を二次元空間の位置座標に変換する空間座標変換式を導出するステップと、
前記空間座標変換式を時間で偏微分し、三次元空間における任意対象の運動を回転運動及び並進運動で表した線形モデル式を用いて、二次元座標上における前記任意対象の速度ベクトル計算式を導出するステップと、
前記記憶手段から時間的に連続する2枚の前記画像フレームを読み出して、前記動的対象物を形成している各画素の時間的な輝度変動成分と、当該動的対象物の速度の滑らかさ成分と、当該動的対象物の動きに対する回転成分及び並進成分とを拘束条件とし、前記速度ベクトル計算式を前記輝度変動成分及び前記滑らかさ成分を構成している速度成分に代入して、オプティカルフロー法を用いて二次元座標上における前記動的対象物の動きを三次元的に検出するステップと、
前記記憶手段に記憶されている複数の前記画像フレームを用いて、検出された前記動的対象物の三次元的動きを時系列に表示するステップと、
を有することを特徴とする三次元的動き検出方法。
By computer
Inputting an image of a dynamic object photographed by a single photographing device;
Storing the video in a storage means as a plurality of time-series image frames;
Deriving a spatial coordinate conversion formula for converting the position coordinates of the three-dimensional space into the position coordinates of the two-dimensional space;
Using the linear model formula that partially differentiates the spatial coordinate conversion formula with time and expresses the motion of the arbitrary object in the three-dimensional space by the rotational motion and the translational motion, the velocity vector calculation formula of the arbitrary target on the two-dimensional coordinates is Deriving steps;
The two temporally continuous image frames are read out from the storage means, and the temporal luminance fluctuation component of each pixel forming the dynamic object and the smoothness of the speed of the dynamic object And a rotation component and a translation component with respect to the motion of the dynamic object, and the velocity vector calculation formula is substituted into the velocity component constituting the luminance variation component and the smoothness component to obtain an optical Detecting three-dimensionally the movement of the dynamic object on two-dimensional coordinates using a flow method;
Displaying the detected three-dimensional movement of the dynamic object in time series using the plurality of image frames stored in the storage means;
A three-dimensional motion detection method comprising:
請求項2に記載の三次元的動き検出方法における各ステップをコンピュータによって実行させることを特徴とする三次元的動き検出プログラム。   A three-dimensional motion detection program for causing a computer to execute each step in the three-dimensional motion detection method according to claim 2.
JP2008308539A 2008-12-03 2008-12-03 Three-dimensional motion detection device, three-dimensional motion detection method, and three-dimensional motion detection program Expired - Fee Related JP4825260B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008308539A JP4825260B2 (en) 2008-12-03 2008-12-03 Three-dimensional motion detection device, three-dimensional motion detection method, and three-dimensional motion detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008308539A JP4825260B2 (en) 2008-12-03 2008-12-03 Three-dimensional motion detection device, three-dimensional motion detection method, and three-dimensional motion detection program

Publications (2)

Publication Number Publication Date
JP2010134606A true JP2010134606A (en) 2010-06-17
JP4825260B2 JP4825260B2 (en) 2011-11-30

Family

ID=42345861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008308539A Expired - Fee Related JP4825260B2 (en) 2008-12-03 2008-12-03 Three-dimensional motion detection device, three-dimensional motion detection method, and three-dimensional motion detection program

Country Status (1)

Country Link
JP (1) JP4825260B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05120428A (en) * 1991-10-25 1993-05-18 Fujitsu Ltd Motion parameter extraction system
JPH11110566A (en) * 1997-10-07 1999-04-23 Ntt Data Corp Method and device for image recognition
JP2006337075A (en) * 2005-05-31 2006-12-14 Mitsubishi Electric Corp Three-dimensional information recovery device
JP2007241326A (en) * 2003-10-17 2007-09-20 Matsushita Electric Ind Co Ltd Apparatus for calculating movement of moving body

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05120428A (en) * 1991-10-25 1993-05-18 Fujitsu Ltd Motion parameter extraction system
JPH11110566A (en) * 1997-10-07 1999-04-23 Ntt Data Corp Method and device for image recognition
JP2007241326A (en) * 2003-10-17 2007-09-20 Matsushita Electric Ind Co Ltd Apparatus for calculating movement of moving body
JP2006337075A (en) * 2005-05-31 2006-12-14 Mitsubishi Electric Corp Three-dimensional information recovery device

Also Published As

Publication number Publication date
JP4825260B2 (en) 2011-11-30

Similar Documents

Publication Publication Date Title
JP4958610B2 (en) Image stabilization apparatus, imaging apparatus, and image stabilization method
US8422766B2 (en) System and method for depth extraction of images with motion compensation
KR101776621B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
US10225473B2 (en) Threshold determination in a RANSAC algorithm
US9659382B2 (en) System and method for depth extraction of images with forward and backward depth prediction
EP3296952A1 (en) Method and device for blurring a virtual object in a video
KR20100119559A (en) Method and system for converting 2d image data to stereoscopic image data
CN113711276A (en) Scale-aware monocular positioning and mapping
JP6622575B2 (en) Control device, control method, and program
JP4605716B2 (en) Multi-view image compression encoding method, apparatus, and program
JP6494402B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6306996B2 (en) VIDEO DATA PROCESSING METHOD, VIDEO DATA PROCESSING DEVICE, AND VIDEO DATA PROCESSING PROGRAM
JP2004356747A (en) Method and apparatus for matching image
JP4825260B2 (en) Three-dimensional motion detection device, three-dimensional motion detection method, and three-dimensional motion detection program
KR101350460B1 (en) Method and apparatus for removing motion blur of image
JP6625654B2 (en) Projection device, projection method, and program
KR101837269B1 (en) Coordination guide method and system based on multiple marker
JP5086120B2 (en) Depth information acquisition method, depth information acquisition device, program, and recording medium
JP2015005200A (en) Information processing apparatus, information processing system, information processing method, program, and memory medium
JP4775221B2 (en) Image processing apparatus, image processing apparatus control method, and image processing apparatus control program
KR20240044174A (en) Distance map generation method based on parallax analysis and system therefor
CN117321631A (en) SLAM guided monocular depth improvement system using self-supervised online learning
JP3759712B2 (en) Camera parameter estimation method, apparatus, program, and recording medium
Xu et al. An integrated new scheme for digital video stabilization
JP6292947B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110830

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110909

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140916

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees