JPH09212652A - Method for extracting three-dimensional structure information and three-dimensional motion information of moving image - Google Patents
Method for extracting three-dimensional structure information and three-dimensional motion information of moving imageInfo
- Publication number
- JPH09212652A JPH09212652A JP8013495A JP1349596A JPH09212652A JP H09212652 A JPH09212652 A JP H09212652A JP 8013495 A JP8013495 A JP 8013495A JP 1349596 A JP1349596 A JP 1349596A JP H09212652 A JPH09212652 A JP H09212652A
- Authority
- JP
- Japan
- Prior art keywords
- parameter
- dimensional
- dimensional structure
- frame
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Processing (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、入力された動画像
データから撮影された対象物体の3次元構造情報(奥行
き情報)と3次元運動情報を抽出する動画像の3次元構
造情報及び3次元運動情報の抽出方法に関するものであ
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to three-dimensional structure information and three-dimensional structure of a moving image for extracting three-dimensional structure information (depth information) of a target object and three-dimensional motion information captured from input moving image data. The present invention relates to a method of extracting motion information.
【0002】[0002]
【従来の技術】従来、このような分野の技術としては、
例えば次の文献等に示されるものがあった。 文献;IEEE Conference on Computer Vision and Patte
rn Recognition(1994)Michal Irani他著“Recovery of
Ego-Motion Usiug Image Stabilization”P.454-460 上記文献に示された従来技術では、入力された動画像に
対して時間的に連続する2つのフレームを用い、該フレ
ーム間で同じ動きを示す単一運動領域を抽出する。抽出
した単一運動領域を平面と仮定してその領域の2次元の
動き情報を求め、この求めた2次元の動き情報を用い
て、2つのフレーム間の位置合わせを行う。これによ
り、単一運動領域の回転運動成分が除去され、並進運動
成分のみが抽出される。従来技術は、抽出した並進運動
成分からカメラの焦点位置(Focusof Expansion)を推
定し、検出された焦点位置に基づき、単一運動領域の3
次元構造情報と3次元運動情報を求めるものである。こ
の連続する2フレーム間に対する一連処理を順に行っ
て、動画像の3次元運動情報及び3次元運動情報を順次
出力する。2. Description of the Related Art Conventionally, techniques in such a field include:
For example, there was one shown in the following documents. Literature; IEEE Conference on Computer Vision and Patte
rn Recognition (1994) Michal Irani et al. “Recovery of
Ego-Motion Usiug Image Stabilization "P.454-460 In the conventional technique disclosed in the above document, two temporally consecutive frames are used for an input moving image, and a single motion showing the same motion between the frames is used. One motion area is extracted, two-dimensional motion information of the extracted single motion area is assumed to be a plane, and the two-dimensional motion information is used to perform alignment between two frames. By doing so, the rotational motion component of the single motion region is removed and only the translational motion component is extracted.The conventional technique estimates and detects the focus position (Focus of Expansion) of the camera from the extracted translational motion component. 3 of the single motion area based on the focal position
It seeks three-dimensional structure information and three-dimensional motion information. A series of processing for two consecutive frames is sequentially performed to sequentially output three-dimensional motion information and three-dimensional motion information of a moving image.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、従来の
3次元構造情報と3次元運動情報の抽出方法では、次の
ような課題があった。時間的に連続する2つのフレーム
のみを用いて解析を行っているため、解析結果が不安定
になりやすい。2フレームづつ独立して解析した3次元
構造情報の推定結果は、必ずしも一致するとは限らず、
各フレームごとに単一運動領域の3次元構造情報と3次
元運動情報の両方を記述する必要がある。よって、記述
情報量が多く、連続的な動きを記述するのに不都合であ
った。また、動画像中に異なる3つ以上の動きがある場
合、それに対応する3つ以上の単一運動領域で推定され
るカメラの焦点位置は一致せず、正確な焦点位置が求め
ることが困難である。そのため、最終的に推定される3
次元構造情報及び3次元運動情報は、精度的に不十分な
ものであった。However, the conventional methods for extracting three-dimensional structure information and three-dimensional motion information have the following problems. Since the analysis is performed using only two frames which are temporally continuous, the analysis result tends to be unstable. The estimation results of the three-dimensional structural information analyzed independently for every two frames do not always match,
It is necessary to describe both 3D structural information and 3D motion information of a single motion region for each frame. Therefore, the amount of descriptive information is large, which is inconvenient for describing continuous movement. Moreover, when there are three or more different motions in the moving image, the focus positions of the cameras estimated in the three or more single motion regions corresponding to them do not match, and it is difficult to obtain an accurate focus position. is there. Therefore, the final estimated 3
The three-dimensional structure information and the three-dimensional motion information were insufficient in accuracy.
【0004】[0004]
【課題を解決するための手段】第1の発明は、前記課題
を解決するために、動画像の3次元構造情報及び3次元
運動情報の抽出方法において、次のような処理を講じて
いる。即ち、動画像から得られた入力動画像データを、
個々が該動画像の時間的断面を構成する複数枚のフレー
ムの形式にして蓄積するフレームメモリ処理と、前記蓄
積された動画像データに基づき、前記動画像内で共通運
動を示す領域を単―運動領域として分割抽出する領域抽
出処理と、時間的に連続する2つの前記フレーム間の動
画像データを用い、前記単一運動領域に関する前記フレ
ームごとの動画像の3次元構造情報及び3次元運動情報
をそれぞれ推定する第1のパラメータ推定処理とを行
う。そして、この第1の発明の抽出方法では、前記推定
された3次元構造情報及び3次元運動情報に対する再推
定のための初期値を前記フレームごとにそれぞれ計算す
るパラメータ初期値計算処理と、与えられた前記各初期
値を用いて前記推定されたフレームごとの3次元構造情
報及び3次元運動情報に対する再推定をそれぞれ行い、
それら3次元構造情報及び3次元運動情報間の安定化を
行う第2のパラメータ推定処理と、前記再推定された複
数の3次元構造情報及び3次元運動情報が設定された条
件を満たしているかどうかを判定し、満たしていない場
合には、前記再推定を繰り返し実行させるパラメータ判
定処理と、パラメータ判定処理で前記条件を満たしてい
ると判定された場合、前記再推定されたフレームごとの
3次元構造情報及び3次元運動情報に対し、再計算を行
って補正するパラメータ補正処理と、前記パラメータ補
正処理で求められた3次元構造情報及び3次元運動情報
を、動画像を記述するパラメータとして出力する出力処
理とを、行うようにしている。In order to solve the above problems, the first invention takes the following processing in a method of extracting three-dimensional structure information and three-dimensional motion information of a moving image. That is, the input moving image data obtained from the moving image is
A frame memory process of accumulating each in the form of a plurality of frames that make up a temporal section of the moving image, and based on the accumulated moving image data, a single region showing a common motion in the moving image A three-dimensional structure information and a three-dimensional motion information of the moving image for each frame regarding the single moving region are used by using a region extracting process for dividing and extracting as a moving region and moving image data between the two temporally consecutive frames. And a first parameter estimation process for estimating respectively. Then, in the extraction method of the first invention, a parameter initial value calculation process for calculating an initial value for re-estimation for the estimated 3D structure information and 3D motion information for each frame is provided. Re-estimation is performed on the estimated 3D structural information and 3D motion information for each frame using the respective initial values,
A second parameter estimation process for stabilizing the three-dimensional structure information and the three-dimensional motion information, and whether or not the re-estimated plurality of three-dimensional structure information and three-dimensional motion information satisfy the set conditions. And if not satisfied, a parameter determination process for repeatedly executing the re-estimation; and if the parameter determination process determines that the condition is satisfied, the re-estimated three-dimensional structure for each frame A parameter correction process for recalculating and correcting the information and the three-dimensional motion information, and an output for outputting the three-dimensional structure information and the three-dimensional motion information obtained by the parameter correction process as parameters for describing a moving image. Processing and so on.
【0005】第2の発明は、第1の発明における前記パ
ラメータ初期値計算処理と前記第2のパラメータ推定処
理とを、循環して行うようにしている。そして、前記パ
ラメータ初期値計算処理は、最初、前記推定されたフレ
ームごとの3次元構造情報及び3次元運動情報のうち最
適な3次元構造情報及び3次元運動情報に対応するフレ
ームを基準フレームとし、該基準フレームの3次元構造
情報及び3次元運動情報を用いて該基準フレームに時間
的に連続する前記フレームに対する前記初期値を計算し
て前記第2のパラメータ推定処理に渡し、以降、該第2
のパラメータ推定処理で得られた前記フレームごとの3
次元構造情報及び3次元運動情報の再推定結果を用い、
時間的に連続するフレームに対する該初期値を順に計算
するようにしている。第3の発明は、第1または第2の
発明におけるパラメータ補正処理は、前記再推定された
複数の3次元構造情報のうち基準となるフレームの3次
元構造情報を用い、他のフレームの該3次元構造情報と
3次元運動情報を再計算して補正するようにしている。According to a second aspect of the present invention, the parameter initial value calculation process and the second parameter estimation process of the first aspect are cyclically performed. Then, in the parameter initial value calculation process, first, a frame corresponding to the optimum 3D structure information and 3D motion information of the estimated 3D structure information and 3D motion information for each frame is set as a reference frame, Using the three-dimensional structure information and the three-dimensional motion information of the reference frame, the initial value for the frame that is temporally continuous with the reference frame is calculated and passed to the second parameter estimation process, and thereafter, the second parameter estimation process is performed.
3 for each frame obtained by the parameter estimation process of
Using the re-estimation results of the three-dimensional structure information and three-dimensional motion information,
The initial values for the temporally consecutive frames are calculated in order. In a third aspect of the invention, the parameter correction process in the first or second aspect uses the three-dimensional structure information of a reference frame among the plurality of re-estimated three-dimensional structure information, and uses the three-dimensional structure information of another frame. The three-dimensional structure information and the three-dimensional motion information are recalculated and corrected.
【0006】第1から第3の発明によれば、以上のよう
に、動画像の3次元構造情報及び3次元運動情報の抽出
方法を構成したので、入力動画像データに対するフレー
ムメモリ処理、領域抽出処理及び第1のパラメータ推定
処理により、フレームごとの動画像の3次元構造情報及
び3次元運動情報が推定される。これら推定された3次
元構造情報及び3次元運動情報は、2つずつのフレーム
から推定されたので不安定であるが、これらがパラメー
タ初期値計算処理と第2のパラメータ推定処理によって
再推定され、安定化する。再推定された3次元構造情報
及び3次元運動情報が設定された条件を満たしているか
どうかが、パラメータ判定処理で判定される。条件を満
たしている場合のみ、パラメータ補正処理により、再推
定された3次元構造情報及び3次元運動情報が補正さ
れ、出力処理により、動画像を記述するパラメータとし
て出力される。従って、前記課題を解決できるのであ
る。According to the first to third aspects of the invention, as described above, the method of extracting the three-dimensional structure information and the three-dimensional motion information of a moving image is configured, so that the frame memory processing and the area extraction for the input moving image data are performed. By the processing and the first parameter estimation processing, the three-dimensional structure information and the three-dimensional motion information of the moving image for each frame are estimated. These estimated three-dimensional structure information and three-dimensional motion information are unstable because they are estimated from two frames each, but they are re-estimated by the parameter initial value calculation process and the second parameter estimation process, Stabilize. Whether or not the re-estimated three-dimensional structure information and three-dimensional motion information satisfy the set conditions is determined by the parameter determination process. Only when the condition is satisfied, the re-estimated three-dimensional structure information and three-dimensional motion information are corrected by the parameter correction processing, and output by the output processing as a parameter describing the moving image. Therefore, the above problem can be solved.
【0007】[0007]
【発明の実施の形態】図2は、本発明の実施形態の画像
処理装置の機能ブロック図である。本実施形態は、動画
像から物体の3次元運動や3次元構造を記述するために
必要な3次元運動情報や3次元構造情報を推定するもの
であり、以下、これらの3次元運動情報や3次元構造情
報等の情報をパラメータと呼ぶ。この画像処理装置は、
動画像データを入力するカメラ等の画像入力部1と、画
像入力部1に接続されたフレームメモリ2とを備えてい
る。フレームメモリ2の出力側は、領域抽出部3に接続
され、この領域抽出部3の出力側が、パラメータ推定部
4に接続されている。パラメータ推定部4の出力側は、
パラメータ初期値計算部5に接続され、該パラメータ初
期値計算部5の出力側がパラメータ推定部6に接続され
ている。パラメータ推定部6は2つの出力先を有してい
る。2つうちの一方は、パラメータ初期値計算部5であ
り、他方がパラメータ判定部7になっている。パラメー
タ判定部7も2つの出力先を有している。パラメータ判
定部7の出力先の一方は、パラメータ初期値計算部5で
あり、他方がパラメータ補正部8である。パラメータ補
正部8の出力側に、パラメータ出力部9が接続されてい
る。図1は、図2の実施する3次元構造情報及び3次元
運動情報の抽出方法を示すフローチャートである。2 is a functional block diagram of an image processing apparatus according to an embodiment of the present invention. This embodiment estimates three-dimensional motion information and three-dimensional structure information necessary to describe a three-dimensional motion and a three-dimensional structure of an object from a moving image. Hereinafter, these three-dimensional motion information and three-dimensional structure information will be described. Information such as dimensional structure information is called a parameter. This image processing device
An image input unit 1 such as a camera for inputting moving image data, and a frame memory 2 connected to the image input unit 1 are provided. The output side of the frame memory 2 is connected to the area extraction unit 3, and the output side of the area extraction unit 3 is connected to the parameter estimation unit 4. The output side of the parameter estimation unit 4 is
The parameter initial value calculation unit 5 is connected, and the output side of the parameter initial value calculation unit 5 is connected to the parameter estimation unit 6. The parameter estimation unit 6 has two output destinations. One of the two is a parameter initial value calculation unit 5, and the other is a parameter determination unit 7. The parameter determination unit 7 also has two output destinations. One of the output destinations of the parameter determination unit 7 is the parameter initial value calculation unit 5, and the other is the parameter correction unit 8. The parameter output unit 9 is connected to the output side of the parameter correction unit 8. FIG. 1 is a flowchart showing a method of extracting the three-dimensional structure information and the three-dimensional motion information, which is implemented by FIG.
【0008】図3は、図1の抽出方法の概念(その1)
を示す説明図であり、図4は、図1の抽出方法の概念
(その2)を示す説明図である。これら図1、図3及び
図4を参照しつつ、動画像の3次元構造情報及び3次元
運動情報の抽出方法を説明する。 画像入力部1が物体
を撮像し、その動画像データがフレームメモリ2に与え
られる。フレームメモリ2では、図1のフレームメモリ
処理S1が行われる。フレームメモリ処理S1におい
て、フレームメモリ2は、与えられた動画像データに対
し、動画像を時間断面で表すフレーム…,i−2,i−
1,i,i+1,i+2,…(i;任意の整数数)の形
で順次蓄積する。領域分割部3は蓄積された動画像デー
タに基づいて領域分割処理S2を行い、動画像が単一運
動領域毎に分割される。動画像で共通の動きを示す各領
域が、それぞれの単一運動領域である。この領域分割処
理S2では、移動ベクトルの分布であるオプティカルフ
ローを用いた領域分割手法や、時空間画像を用いた領域
分割手法等の公知を手法が用いられる。FIG. 3 shows the concept of the extraction method of FIG. 1 (No. 1).
FIG. 4 is an explanatory diagram showing the concept (part 2) of the extraction method of FIG. 1. A method of extracting three-dimensional structure information and three-dimensional motion information of a moving image will be described with reference to FIGS. 1, 3, and 4. The image input unit 1 picks up an image of an object, and the moving image data is given to the frame memory 2. In the frame memory 2, the frame memory process S1 of FIG. 1 is performed. In the frame memory processing S1, the frame memory 2 is a frame that represents a moving image in a time section with respect to the given moving image data ... i-2, i-
1, i, i + 1, i + 2, ... (i; arbitrary integer number) are sequentially accumulated. The area division unit 3 performs area division processing S2 based on the accumulated moving image data, and the moving image is divided into single moving areas. Each area that shows a common motion in a moving image is a single motion area. In this area division processing S2, a known method such as an area division method using an optical flow that is a distribution of movement vectors or an area division method using a spatiotemporal image is used.
【0009】次に、パラメータ推定部4は、分割された
単―運動領域毎に、時間的に連続する2つのフレームを
用いた第1のパラメータ推定処理S3を行い、フレーム
ごとの3次元運動情報及び3次元構造情報を推定する。
以下に推定手法の例を説明する。各領域の運動は剛体運
動であると仮定する。剛体運動の場合、3次元運動情報
は平行移動量を表す並進運動成分と、回転運動成分との
2つである。ここで、求める3次元構造情報は、2次元
投影面上の各点の焦点距離を基準とした奥行きの値であ
る。3次元空間中の点X* =(X,Y,Z)T における
ある時刻の並進運動成分をt* =(tX ,tY ,tZ )
T 、回転運動成分をw* =(wX ,wY ,wZ )Tとす
る。ただし、“* ”はベクトル記号を示し、“T ”は転
置を示す。剛体運動モデルU* は、次の(1)で表すこ
とができる。 U* =t* +w* ×X* ・・・(1) U* =(U,V,W)T は、点X* における3次元の動き
である。3次元座標X*の2次元投影画像平面上の点x
* =(x,y)における動きu* =(u,v)Tは、x
=fX/Z、y=fY/Z(f;焦点距離)とすると、
時間微分により、次の(2)式で表される。ただし、
“´”は時間微分を表わす。Next, the parameter estimation unit 4 performs a first parameter estimation process S3 using two temporally consecutive frames for each of the divided single-motion regions, and three-dimensional motion information for each frame is obtained. And estimate three-dimensional structural information.
An example of the estimation method will be described below. The motion of each region is assumed to be a rigid body motion. In the case of a rigid body motion, the three-dimensional motion information includes two components, a translational motion component representing a translation amount and a rotational motion component. Here, the three-dimensional structure information to be obtained is a depth value based on the focal length of each point on the two-dimensional projection plane. A translational motion component at a certain time at a point X * = (X, Y, Z) T in a three-dimensional space is t * = (t X , t Y , t Z ).
Let T be the rotational motion component w * = (w X , w Y , w Z ) T. However, " * " shows a vector symbol and " T " shows transposition. The rigid body motion model U * can be expressed by the following (1). U * = t * + w ** X * ... (1) U * = (U, V, W) T is a three-dimensional movement at the point X * . Point x on the plane of the two-dimensional projection image with three-dimensional coordinates X *
The movement in * = (x, y) u * = (u, v) T is x
= FX / Z, y = fY / Z (f; focal length)
It is expressed by the following equation (2) by time differentiation. However,
"'" Represents time differentiation.
【0010】[0010]
【数1】 パラメータ推定部4は、(2)式を用いて領域内の点の
動きを記述し、動きを用いたフレーム間差分が最小とな
るように、Gauss−Newton法などの非線形の
繰り返し最小化手法によつて、パラメータである3次元
運動情報t* ,w* 及び奥行き情報1/Z(x* )を推
定する。また、奥行き情報1/Z(x*)に対し、対象
物体が平面や球体である等の条件を付与し、3次元構造
情報に制約を加えて推定を行うことも可能である。[Equation 1] The parameter estimation unit 4 describes the movement of the points in the area using the equation (2), and uses a nonlinear iterative minimization method such as the Gauss-Newton method so that the inter-frame difference using the movement is minimized. Therefore, the three-dimensional motion information t * , w * and the depth information 1 / Z (x * ), which are parameters, are estimated. It is also possible to give a condition to the depth information 1 / Z (x * ) such that the target object is a plane or a sphere, and apply the restriction to the three-dimensional structure information for estimation.
【0011】以上の方法でパラメータ推定部4では、2
つの時間的に連続するフレームを用いてパラメータPで
ある3次元運動情報t* ,w* 及び3次元構造情報1/
Z(x* )を求める処理を、フレームメモリに蓄積され
ているすべてのフレームに対して行う。ここで、この計
算を行う際の初期値としては、前提条件のない一般的な
値を設定している。例えば、初期の奥行き情報1/Z
(x* )を無限大、初期の動きをなしと設定して推定す
る。以降の処理でパラメータを推定する際に、繰り返し
アルゴリズムを用いると、最初に与える初期値によって
結果が大きく変化し、安定した結果を得ることが困難と
なることがある。そこで、パラメータ初期値計算部5
は、パラメータ推定部4で推定した図3のパラメータ
…,Pi-2 ,Pi-1 ,Pi ,Pi+1 ,Pi+2 ,…の中
で、最も安定したフレームのパラメータを選ぶ。最も安
定したパラメータは、(2)式を用いた推定で得られる
誤差が最小のものである。パラメータ初期値計算部5
は、選んだ基準フレームのパラメータを用い、それに時
間的に連続したフレームに対応するパラメータの再推定
を行うための初期値を計算する。この処理がパラメータ
初期値計算処理S4であり、計算結果がパラメータ推定
部6に与えられる。パラメータ推定部6は第2のパラメ
ータ推定処理S5を行って、基準フレームの次のフレー
ムのパラメータを再推定する。この再推定結果が、再び
パラメータ初期値計算部5に与えられる。パラメータ初
期値計算部5は、再推定したフレームのパラメータを用
いて、次に連続するフレームのパラメータ初期値を計算
する。このように、パラメータ初期値計算処理S4と第
2のパラメータ推定処理S5が繰り返され、すべてのフ
レームにパラメータが求められる。これらによって、す
べてのフレームのパラメータ推定の安定化が図られる。According to the method described above, the parameter estimation unit 4 sets 2
Using three temporally continuous frames, the three-dimensional motion information t * , w * and the three-dimensional structure information 1 / which are the parameters P are calculated.
The process of obtaining Z (x * ) is performed on all the frames stored in the frame memory. Here, as an initial value for performing this calculation, a general value without any precondition is set. For example, the initial depth information 1 / Z
(X * ) is set to infinity and the initial motion is set to none, and then estimated. If an iterative algorithm is used when estimating the parameters in the subsequent processing, the result may change significantly depending on the initial value given first, and it may be difficult to obtain a stable result. Therefore, the parameter initial value calculation unit 5
Is the parameter of the most stable frame among the parameters of FIG. 3 estimated by the parameter estimation unit 4, ..., P i-2 , P i-1 , P i , P i + 1 , P i + 2 ,. Choose. The most stable parameter has the smallest error obtained by the estimation using the equation (2). Parameter initial value calculation unit 5
Uses the parameters of the selected reference frame and calculates initial values for re-estimation of the parameters corresponding to the temporally consecutive frames. This process is the parameter initial value calculation process S4, and the calculation result is given to the parameter estimation unit 6. The parameter estimation unit 6 performs the second parameter estimation process S5 to re-estimate the parameters of the frame next to the reference frame. This re-estimation result is given to the parameter initial value calculation unit 5 again. The parameter initial value calculation unit 5 calculates the parameter initial value of the next consecutive frame using the re-estimated frame parameters. In this way, the parameter initial value calculation process S4 and the second parameter estimation process S5 are repeated to obtain the parameters for all the frames. These stabilize the parameter estimation of all frames.
【0012】例えば、パラメータ推定部4で推定したパ
ラメータ…,Pi-2 ,Pi-1 ,Pi,Pi+1 ,Pi+2 ,
…の中で、フレームj(j;任意の整数)のパラメータ
の誤差が最小で最も安定していた場合に、フレームjを
基準フレームとしてパラメータの再推定を行う。パラメ
ータ初期値計算部5は、フレームjのパラメータPjか
ら、フレームj+1のパラメータの初期値を計算してパ
ラメータ推定部6に与え、パラメータ推定部6がフレー
ムj+1のパラメータpj+1 を推定する。さらに、フレ
ームj+2の初期値については、パラメータ推定部6で
求めたフレームj+1のパラメータpj+1 を用いて計算
する。このように推定と初期値計算を交互に行って、連
続するフレームのパラメータを順に再推定する。基準フ
レームjより前のフレームのパラメータについては、基
準フレームjを起点として3次元運動情報を記述するた
め、パラメータ推定部6で推定した方向と逆方向、つま
り時間的に後の時刻のフレームから、前の時刻のフレー
ムへの運動パラメータを推定することになる。従って、
フレームjのパラメータpj は、時刻tj からtj-1 ヘ
の3次元運動情報パラメータと、時刻tj-1 における3
次元構造情報を意味する。さらに、前のフレームの初期
値を計算し、逆方向のバラメータ推定を繰り返し行う。
このようにして、あるフレームを基準フレームjとし
て、再推定の初期値を計算し、順次他のフレームのパラ
メータ推定と初期値の設定を繰り返すことにより、すべ
てのフレームの安定したパラメータ…,pj-2,
pj-1 ,pj ,pj+1 ,pj+2 ,…を求めることができ
る。For example, the parameters estimated by the parameter estimation unit 4 ... P i-2 , P i-1 , P i , P i + 1 , P i + 2 ,
When the error of the parameter of the frame j (j; arbitrary integer) is the smallest and is the most stable among the ..., The parameters are re-estimated using the frame j as the reference frame. The parameter initial value calculation unit 5 calculates the initial value of the parameter of the frame j + 1 from the parameter P j of the frame j and gives it to the parameter estimation unit 6, and the parameter estimation unit 6 estimates the parameter p j + 1 of the frame j + 1. . Further, the initial value of the frame j + 2 is calculated using the parameter p j + 1 of the frame j + 1 obtained by the parameter estimation unit 6. In this way, the estimation and the initial value calculation are alternately performed to sequentially re-estimate the parameters of consecutive frames. As for the parameters of the frame before the reference frame j, three-dimensional motion information is described starting from the reference frame j, so that the direction opposite to the direction estimated by the parameter estimation unit 6, that is, from the frame at the time later in time, It will estimate the motion parameters for the previous time frame. Therefore,
The parameter p j of the frame j is the three-dimensional motion information parameter from time t j to t j-1 and 3 at the time t j-1 .
Means dimensional structure information. Furthermore, the initial value of the previous frame is calculated, and the parameter estimation in the reverse direction is repeated.
In this way, the initial value of the re-estimation is calculated using a certain frame as the reference frame j, and the parameter estimation of other frames and the setting of the initial value are sequentially repeated, so that stable parameters of all frames, ..., P j -2 ,
It is possible to obtain p j-1 , p j , p j + 1 , p j + 2 , ....
【0013】ここで、パラメータ推定部6では、上述し
たようにパラメータ初期値計算部5より与えられた初期
値を用いて、パラメータ推定部4と同じ方法で、3次元
運動情報t* ,w* 及び3次元構造情報1/Z(x* )
を推定する。安定した初期値を与えられることで、パラ
メータ推定の計算結果の収束も早くなり、安定した結果
を得ることができる。再推定されたパラメータ…,p
j-2 ,pj-1 ,pj ,pj+1 ,pj+2 ,…は、パラメー
タ判定部7に与えられ、これらに対して、パラメータ判
定部7は、パラメータ判定処理S6を行う。まず、パラ
メータ判定部7は、パラメータ推定部6で再推定された
パラメータ…,pj-2 ,pj-1 ,pj ,pj+1 ,
pj+2 ,…に対して、設定された安定条件を満たしてい
るかどうか判定する。満たしていない場合、パラメータ
初期値推定部5に、再推定されたパラメータ…,
pj-2 ,pj-1 ,pj ,pj+1 ,pj+2 ,…のうち、誤
差が最小で最も安定したフレームk(k;任意の整数)
のパラメータpk を送り、パラメータ安定化処理S5を
再度行わせる。設定された安定条件を満たしている場
合、パラメータ判定部7は、パラメータ…,pj-2 ,p
j-1 ,pj ,pj+1 ,pj+2 ,…のうち、誤差が最小で
最も安定したフレームkのパラメータpk をパラメータ
補正部8に送る。Here, the parameter estimation unit 6 uses the initial values given by the parameter initial value calculation unit 5 as described above, and in the same manner as the parameter estimation unit 4, the three-dimensional motion information t * , w *. And 3D structure information 1 / Z (x * )
Is estimated. By giving a stable initial value, the convergence of the calculation result of parameter estimation is accelerated, and a stable result can be obtained. Re-estimated parameters ..., p
The j-2 , p j-1 , p j , p j + 1 , p j + 2 , ... Are given to the parameter determination unit 7, and the parameter determination unit 7 performs the parameter determination process S6. . First, the parameter determination unit 7 determines the parameters re-estimated by the parameter estimation unit 6 ... P j-2 , p j-1 , p j , p j + 1 ,
It is determined whether or not the set stability condition is satisfied for p j + 2 , .... If not satisfied, the parameter initial value estimation unit 5 re-estimates the parameters ...
Among p j-2 , p j-1 , p j , p j + 1 , p j + 2 , ..., the most stable frame k with the smallest error (k; any integer)
Parameter p k is sent and the parameter stabilization process S5 is performed again. When the set stability condition is satisfied, the parameter determination unit 7 determines the parameters ... Pj-2 , p.
Of the j-1 , p j , p j + 1 , p j + 2 , ..., The parameter p k of the frame k having the smallest error and the most stable is sent to the parameter correction unit 8.
【0014】パラメータ補正部8は、パラメータ補正処
理S7を行い、再推定されたパラメータ…,pj-2 ,p
j-1 ,pj ,pj+1 ,pj+2 ,…を再計算で補正する。
即ち、パラメータ補正部8では、パラメータ判定部7か
ら出力されたパラメータpkに対応するフレームkを基
準フレームとする。基準フレームkの3次元構造情報Z
k (=1/Zk (x* ))をもとに、パラメータ補正部
8は、図4のように、各フレーム…,k−2,k−1,
k,k+1,k+2,…の動きパラメータである並進運
動情報…,t* k-2 ,t* k-1 ,t* k ,t* k+1 ,t
* k+2 ,…と回転運動情報…,w* k-2 ,w* k-1 ,w
* k ,w* k+1 ,w* k+2 ,…とを再計算し、結果をパ
ラメータ出力部9に出力する。再計算の手法は、パラメ
ータ推定部4と同様の手法を用いるが、繰り返し計算の
途中でフレームkの3次元構造情報Zk は与えられた初
期値のまま更新せず、3次元運動情報の並進運動情報
…,t* k-2 ,t* k-1 ,t* k ,t* k+1 ,
t* k+2 ,…及び回転運動情報…,w* k-2 ,
w* k-1 ,w* k ,w* k+1 ,w* k+2 ,…のみを更新
してパラメータの計算を行う。パラメータ出力部9に与
えられる補正結果は、lつの基準フレームkの3次元構
造情報Zk と、各フレーム…,k−2,k−1,k+
1,k+2,…の並進運動情報…,t* k-2 ,
t* k-1 ,t* ,t* k+1 ,t* k+2 ,…と、回転運動
情報…,w* k-2 ,w* k-1 ,w* k ,w* k+1 ,w*
k+2 ,…とである。The parameter correction unit 8 performs the parameter correction processing S7, and the re-estimated parameters ... P j-2 p
j-1 , p j , p j + 1 , p j + 2 , ... Are corrected by recalculation.
That is, in the parameter correction unit 8, the frame k corresponding to the parameter p k output from the parameter determination unit 7 is used as the reference frame. Three-dimensional structure information Z of reference frame k
Based on k (= 1 / Z k (x * )), the parameter correction unit 8 receives each frame, ..., K-2, k-1, as shown in FIG.
Translational motion information, which is a motion parameter of k, k + 1, k + 2, ..., t * k-2 , t * k-1 , t * k , t * k + 1 , t.
* k + 2 , ... and rotational motion information ..., w * k-2 , w * k-1 , w
Recalculates * k , w * k + 1 , w * k + 2 , ... And outputs the result to the parameter output unit 9. The method of recalculation uses the same method as that of the parameter estimation unit 4, but the three-dimensional structure information Z k of the frame k is not updated with the given initial value during the iterative calculation and the translation of the three-dimensional motion information is performed. Motion information ..., t * k-2 , t * k-1 , t * k , t * k + 1 ,
t * k + 2 , ... and rotational movement information ..., w * k-2 ,
Only w * k-1 , w * k , w * k + 1 , w * k + 2 , ... Are updated to calculate the parameters. The correction result given to the parameter output unit 9 is the three-dimensional structure information Z k of one reference frame k and each frame ..., K-2, k-1, k +.
Translation information of 1, k + 2, ..., t * k-2 ,
t * k-1 , t * , t * k + 1 , t * k + 2 , ... And rotational motion information ..., W * k-2 , w * k-1 , w * k , w * k + 1. , W *
k + 2 , and so on.
【0015】フレームkの3次元構造情報Zk が与えら
れたとき、フレームkからフレームk+1への3次元運
動情報t* k+1 ,w* k+1 が与えれていれば、フレーム
k+1の3次元構造情報Zk+1 は計算可能である。フレ
ームk+2の3次元構造情報Zk+2 についても、フレー
ムk+1からフレームk+2ヘの3次元運動情報t*
k+2 ,w* k+2 が与えれていれば計算可能である。逆
に、フレームk―l方向については、パラメータ推定部
6と同様に、時間的に逆方向の各3次元運動情報を用い
て、順次3次元構造情報を計算することができる。lつ
の基準フレームkの3次元構造情報Zk をもとに、3次
元運動情報を求めることにより、すべてのフレームの3
次元構造情報と3次元運動情報を記述することができ、
抽出された領域の動画像の再構成が可能となる。パラメ
ータ出力部9は出力処理S8により、3次元構造情報Z
k と、並進運動情報…,t* k-2 ,t* k-1 ,t* ,t
* k+1,t* k+2 ,…と、回転運動情報…,w* k-2 ,
w* k-1 ,w* k ,w* k+1 ,w* k+2 ,…とを、動画
像を記述するパラメータとして出力する。以上のよう
に、本実施形態によれば、2つずつのフレームから推定
された3次元構造情報及び3次元運動情報のパラメータ
…,Pi-2 ,Pi-1 ,Pi ,Pi+1,Pi+2 ,…に対し
て、パラメータ初期値計算処理S4から出力処理S8の
処理を行うので、連続する複数のフレームを用いた安定
した3次元運動情報と3次元構造情報を求めることがで
きる。また、従来は1フレーム毎に3次元構造情報と3
次元運動情報を記述する必要があったが、lつの基準と
なるフレームkの3次元構造情報Zk をもとに、3次元
運動情報の並進運動情報…,t* k-2 ,t* k- 1 ,
t* ,t* k+1 ,t* k+2 ,…と、回転運動情報…,w
* k-2 ,w* k-1 ,w* k ,w* k+1 ,w* k+2 ,…と
を再計算して求めているので、1つの3次元構造情報Z
k と各フレーム毎の3次元運動情報とで、少ない記述量
で動画像の3次元構造及び3次元運動を容易に記述する
ことが可能となる。When the three-dimensional structure information Z k of the frame k is given, and if the three-dimensional motion information t * k + 1 and w * k + 1 from the frame k to the frame k + 1 are given, 3 of the frame k + 1 is given. The dimensional structure information Z k + 1 can be calculated. Also regarding the three-dimensional structure information Z k + 2 of the frame k + 2, the three-dimensional motion information t * from the frame k + 1 to the frame k + 2 is obtained .
It can be calculated if k + 2 and w * k + 2 are given. On the contrary, for the frame kl direction, similarly to the parameter estimation unit 6, it is possible to sequentially calculate the three-dimensional structural information by using the three-dimensional motion information in the temporally opposite directions. By obtaining the three-dimensional motion information based on the three-dimensional structure information Z k of one reference frame k, the 3
Can describe 3D structure information and 3D motion information,
It is possible to reconstruct the moving image of the extracted area. The parameter output unit 9 performs the output process S8 to generate the three-dimensional structure information Z.
k and translational motion information ..., t * k-2 , t * k-1 , t * , t
* k + 1 , t * k + 2 , ... and rotational motion information ..., w * k-2 ,
w * k-1 , w * k , w * k + 1 , w * k + 2 , ... Are output as parameters for describing a moving image. As described above, according to the present embodiment, the parameters of the three-dimensional structure information and the three-dimensional motion information, estimated from two frames each, ..., P i-2 , P i-1 , P i , P i +. Since the parameter initial value calculation process S4 to the output process S8 are performed for 1 , P i + 2 , ..., Stable three-dimensional motion information and three-dimensional structure information using a plurality of consecutive frames are obtained. You can Also, conventionally, 3D structure information and 3
It was necessary to describe the dimensions motion information, based on the 3-dimensional structural information Z k of frame k of the l one criterion, the translational motion information of the three-dimensional motion information ..., t * k-2, t * k - 1,
t * , t * k + 1 , t * k + 2 , ... And rotational motion information ..., w
Since * k-2 , w * k-1 , w * k , w * k + 1 , w * k + 2 , ... Are obtained by recalculation, one three-dimensional structural information Z
With k and the 3D motion information for each frame, it is possible to easily describe the 3D structure and 3D motion of a moving image with a small amount of description.
【0016】なお、本発明は、上記実施形態に限定され
ず種々の変形が可能である。その変形例としては、例え
ば、次のようなものがある。 (1) 図2では、領域抽出部3〜パラメータ出力部9
を個別に備えた構成にしているが、1つ或いは任意数の
CPUを組合わせて、ソフトウエアで運用することも可
能である。 (2) 本実施形態では、Gauss−Newton法
をベースにした非線形の繰り返し最小化手法によつて、
パラメータの推定を行う例を説明しているが、他の勾配
法等を用いた非線形最小化手法を用いて推定を行っても
よい。The present invention is not limited to the above embodiment, and various modifications can be made. For example, there are the following modifications. (1) In FIG. 2, the area extraction unit 3 to the parameter output unit 9
However, one or an arbitrary number of CPUs may be combined and operated by software. (2) In the present embodiment, a nonlinear iterative minimization method based on the Gauss-Newton method is used.
Although an example of estimating parameters has been described, the estimation may be performed using a non-linear minimization method using another gradient method or the like.
【0017】[0017]
【発明の効果】以上詳細に説明したように、第1〜第3
の発明によれば、入力動画像データに対するフレームメ
モリ処理、領域抽出処理及び第1のパラメータ推定処理
により、フレームごとの動画像の3次元構造情報及び3
次元運動情報を推定し、パラメータ初期値計算処理と第
2のパラメータ推定処理によってそれらを再推定して安
定化している。そして、パラメータ判定処理再推定で、
再推定結果が設定された条件を満たしているかどうかを
判定し、条件を満たしている場合のみ、パラメータ補正
処理により、再推定された3次元構造情報及び3次元運
動情報を補正し、出力処理により、動画像を記述するパ
ラメータを出力する。そのため、安定した3次元運動情
報と3次元構造情報を求めることができる。従来では1
フレーム毎に3次元構造情報と3次元運動情報を記述す
る必要があったが、lつの基準となるフレームの3次元
構造情報をもとに、3次元運動情報を再計算することに
より、少ない記述量、つまり、基準フレームの3次元構
造情報と各フレーム毎の3次元運動情報とを用い、動画
像の3次元構造および3次元運動を容易に記述すること
が可能となる。As described in detail above, the first to third embodiments
According to the invention, the three-dimensional structure information of the moving image for each frame and the 3
The dimensional motion information is estimated and re-estimated by the parameter initial value calculation process and the second parameter estimation process to stabilize. Then, in the parameter determination processing re-estimation,
It is determined whether or not the re-estimation result satisfies the set condition, and only when the condition is satisfied, the re-estimated three-dimensional structure information and three-dimensional motion information are corrected, and the output process is performed. , Outputs parameters that describe a moving image. Therefore, stable three-dimensional motion information and three-dimensional structure information can be obtained. Conventionally, 1
It was necessary to describe the 3D structure information and the 3D motion information for each frame, but by recalculating the 3D motion information based on the 3D structure information of one reference frame, there are few descriptions. It is possible to easily describe the three-dimensional structure and three-dimensional motion of a moving image by using the amount, that is, the three-dimensional structure information of the reference frame and the three-dimensional motion information of each frame.
【図1】図2の実施する3次元構造情報及び3次元運動
情報の抽出方法を示すフローチャートである。FIG. 1 is a flowchart showing a method for extracting 3D structure information and 3D motion information, which is implemented in FIG.
【図2】本発明の実施形態の画像処理装置の機能ブロッ
ク図である。FIG. 2 is a functional block diagram of the image processing apparatus according to the embodiment of the present invention.
【図3】図1の抽出方法の概念(その1)を示す説明図
である。FIG. 3 is an explanatory diagram showing the concept (1) of the extraction method of FIG. 1.
【図4】図1の抽出方法の概念(その2)を示す説明図
である。FIG. 4 is an explanatory diagram showing the concept (No. 2) of the extraction method of FIG.
1 画像入力部 2 フレームメモリ 3 領域抽出部 4,6 パラメータ推定部 5 パラメータ初期値計算部 7 パラメータ判定部 8 パラメータ補正部 9 パラメータ出力部 S1 フレームメモリ処理 S2 領域分割処理 S3 第1のパラメータ推定処理 S4 パラメータ初期値計算処理 S5 第2のパラメータ推定処理 S6 パラメータ判定処理 S7 パラメータ補正処理 S8 出力処理 1 Image Input Section 2 Frame Memory 3 Area Extraction Section 4, 6 Parameter Estimation Section 5 Parameter Initial Value Calculation Section 7 Parameter Judgment Section 8 Parameter Correction Section 9 Parameter Output Section S1 Frame Memory Processing S2 Area Division Processing S3 First Parameter Estimation Processing S4 parameter initial value calculation processing S5 second parameter estimation processing S6 parameter determination processing S7 parameter correction processing S8 output processing
───────────────────────────────────────────────────── フロントページの続き (72)発明者 金子 正秀 東京都港区芝二丁目31番19号 通信・放送 機構内 (72)発明者 斎藤 隆弘 東京都港区芝二丁目31番19号 通信・放送 機構内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Masahide Kaneko 23-1319, Shiba, Minato-ku, Tokyo Communication / Broadcasting Organization (72) Takahiro Saito Inventor, Takahiro Saito 2-31-19, Shiba, Minato-ku, Tokyo Broadcasting system
Claims (3)
を、個々が該動画像の時間的断面を構成する複数枚のフ
レームの形式にして蓄積するフレームメモリ処理と、 前記蓄積された動画像データに基づき、前記動画像内で
共通運動を示す領域を単―運動領域として分割抽出する
領域抽出処理と、 時間的に連続する2つの前記フレーム間の動画像データ
を用い、前記単一運動領域に関する前記フレームごとの
動画像の3次元構造情報及び3次元運動情報をそれぞれ
推定する第1のパラメータ推定処理と、 前記推定された3次元構造情報及び3次元運動情報に対
する再推定のための初期値を前記フレームごとにそれぞ
れ計算するパラメータ初期値計算処理と、 与えられた前記各初期値を用いて前記推定されたフレー
ムごとの3次元構造情報及び3次元運動情報に対する再
推定をそれぞれ行い、それら3次元構造情報及び3次元
運動情報間の安定化を行う第2のパラメータ推定処理
と、 前記再推定された複数の3次元構造情報及び3次元運動
情報が設定された条件を満たしているかどうかを判定
し、満たしていない場合には、前記再推定を繰り返し実
行させるパラメータ判定処理と、 パラメータ判定処理で前記条件を満たしていると判定さ
れた場合、前記再推定されたフレームごとの3次元構造
情報及び3次元運動情報に対し、再計算を行って補正す
るパラメータ補正処理と、 前記パラメータ補正処理で求められた3次元構造情報及
び3次元運動情報を、動画像を記述するパラメータとし
て出力する出力処理とを、 行うことを特徴とする動画像の3次元構造情報及び3次
元運動情報の抽出方法。1. A frame memory process for accumulating input moving image data obtained from a moving image in the form of a plurality of frames, each of which constitutes a temporal section of the moving image, and the accumulated moving image. Based on the data, a region extraction process for dividing and extracting a region showing a common motion in the moving image as a single-moving region, and moving image data between two temporally consecutive frames are used to perform the single moving region. Parameter estimation processing for respectively estimating the three-dimensional structure information and the three-dimensional motion information of the moving image for each frame, and the initial value for re-estimation of the estimated three-dimensional structure information and the three-dimensional motion information Parameter initial value calculation processing for calculating each of the frames, and the estimated three-dimensional structure information for each frame and 3 using the given initial values. Second parameter estimation processing for performing re-estimation on the original motion information and stabilizing the three-dimensional structure information and the three-dimensional motion information, and the plurality of re-estimated three-dimensional structure information and three-dimensional motion information Determines whether or not the set condition is satisfied, and if not satisfied, a parameter determination process that repeatedly executes the re-estimation, and if it is determined that the condition is satisfied in the parameter determination process, Parameter correction processing for recalculating and correcting the three-dimensional structure information and three-dimensional motion information for each frame re-estimated, and the three-dimensional structure information and three-dimensional motion information obtained by the parameter correction processing, An output process for outputting a moving image as a parameter to describe the moving image, and extracting the three-dimensional structure information and the three-dimensional motion information of the moving image. Method.
2のパラメータ推定処理とは、循環して行う構成とし、 前記パラメータ初期値計算処理は、最初、前記推定され
たフレームごとの3次元構造情報及び3次元運動情報の
うち最適な3次元構造情報及び3次元運動情報に対応す
るフレームを基準フレームとし、該基準フレームの3次
元構造情報及び3次元運動情報を用いて該基準フレーム
に時間的に連続する前記フレームに対する前記初期値を
計算して前記第2のパラメータ推定処理に渡し、以降、
該第2のパラメータ推定処理で得られた前記フレームご
との3次元構造情報及び3次元運動情報の再推定結果を
用い、時間的に連続するフレームに対する該初期値を順
に計算する構成にしたことを特徴とする請求項1記載の
動画像の3次元構造情報及び3次元運動情報の抽出方
法。2. The parameter initial value calculation process and the second parameter estimation process are cyclically performed, and the parameter initial value calculation process is initially performed by the estimated three-dimensional structure information for each frame. And a frame corresponding to the optimum three-dimensional structure information and three-dimensional motion information among the three-dimensional motion information is used as a reference frame, and the three-dimensional structure information and three-dimensional motion information of the reference frame are used to temporally change the reference frame. Calculating the initial value for successive frames and passing it to the second parameter estimation process,
Using the result of re-estimation of the three-dimensional structure information and the three-dimensional motion information for each frame obtained by the second parameter estimation processing, the initial value for temporally consecutive frames is sequentially calculated. The method for extracting 3D structure information and 3D motion information of a moving image according to claim 1.
された複数の3次元構造情報のうち基準となるフレーム
の3次元構造情報を用い、他のフレームの該3次元構造
情報と3次元運動情報を再計算して補正することを特徴
とする請求項1または2記載の動画像の3次元構造情報
及び3次元運動情報の抽出方法。3. The parameter correction processing uses the three-dimensional structure information of a reference frame among the plurality of re-estimated three-dimensional structure information, and uses the three-dimensional structure information and the three-dimensional motion information of another frame. 3. The method for extracting three-dimensional structure information and three-dimensional motion information of a moving image according to claim 1 or 2, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8013495A JPH09212652A (en) | 1996-01-30 | 1996-01-30 | Method for extracting three-dimensional structure information and three-dimensional motion information of moving image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8013495A JPH09212652A (en) | 1996-01-30 | 1996-01-30 | Method for extracting three-dimensional structure information and three-dimensional motion information of moving image |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH09212652A true JPH09212652A (en) | 1997-08-15 |
Family
ID=11834707
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8013495A Withdrawn JPH09212652A (en) | 1996-01-30 | 1996-01-30 | Method for extracting three-dimensional structure information and three-dimensional motion information of moving image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH09212652A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009182605A (en) * | 2008-01-30 | 2009-08-13 | Internatl Business Mach Corp <Ibm> | Compression system, program and method |
JP2011003029A (en) * | 2009-06-18 | 2011-01-06 | Canon Inc | Image processing apparatus and control method of the same |
-
1996
- 1996-01-30 JP JP8013495A patent/JPH09212652A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009182605A (en) * | 2008-01-30 | 2009-08-13 | Internatl Business Mach Corp <Ibm> | Compression system, program and method |
JP2011003029A (en) * | 2009-06-18 | 2011-01-06 | Canon Inc | Image processing apparatus and control method of the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3881709B2 (en) | Method and apparatus for extracting / separating moving object image in image used in moving image encoder | |
JP3612360B2 (en) | Motion estimation method using moving object segmentation method | |
EP2661071B1 (en) | Image signal processor and image signal processing method | |
US6445815B1 (en) | Measurement of depth image considering time delay | |
JP6736362B2 (en) | Image processing device, image processing method, and program | |
JP2007052672A (en) | Image processing method, image processing apparatus, program, and recording medium | |
KR20170087814A (en) | Method and Device of Image Deblurring | |
JPH10285602A (en) | Dynamic sprite for encoding video data | |
US9286656B2 (en) | Homography estimation apparatus and method | |
JP2005012797A (en) | Pixel-data selection device for motion compensation, and method thereof | |
JPH02239376A (en) | Method and device for detecting motion of moving image | |
JP2009520975A (en) | A method for obtaining a dense parallax field in stereo vision | |
CN112598587B (en) | Image processing system and method combining face mask removal and super-resolution | |
CN105635808B (en) | A kind of video-splicing method based on bayesian theory | |
JP2004356747A (en) | Method and apparatus for matching image | |
JPH09212652A (en) | Method for extracting three-dimensional structure information and three-dimensional motion information of moving image | |
JP2006337075A (en) | Three-dimensional information recovery device | |
US20050088531A1 (en) | Automatic stabilization control apparatus, automatic stabilization control method, and computer readable recording medium having automatic stabilization control program recorded thereon | |
JP2003085566A (en) | Correspondent point searching method and matching device using the same | |
Min et al. | Edge-preserving simultaneous joint motion-disparity estimation | |
EP2237560A1 (en) | Halo reducing motion-compensated interpolation | |
CN113762129A (en) | Posture stabilization system and method in real-time 2D human body posture estimation system | |
JP2002077941A (en) | Apparatus and method for generating depth image as well as computer readable recording medium recording program to execute the method in computer | |
JP2004064518A (en) | Moving image encoding method and device and its computer program | |
JP3911535B2 (en) | Video encoding device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20030401 |