JP4199214B2 - 動画生成装置、動画生成方法、動画生成プログラム - Google Patents

動画生成装置、動画生成方法、動画生成プログラム Download PDF

Info

Publication number
JP4199214B2
JP4199214B2 JP2005162734A JP2005162734A JP4199214B2 JP 4199214 B2 JP4199214 B2 JP 4199214B2 JP 2005162734 A JP2005162734 A JP 2005162734A JP 2005162734 A JP2005162734 A JP 2005162734A JP 4199214 B2 JP4199214 B2 JP 4199214B2
Authority
JP
Japan
Prior art keywords
image
input
field information
velocity field
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005162734A
Other languages
English (en)
Other versions
JP2006338365A (ja
Inventor
英朋 境野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2005162734A priority Critical patent/JP4199214B2/ja
Publication of JP2006338365A publication Critical patent/JP2006338365A/ja
Application granted granted Critical
Publication of JP4199214B2 publication Critical patent/JP4199214B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本発明は、1枚の画像などの限られた映像素材に基づいて時系列画像を生成する技術に関する。
近年、ディジタル映像や画像に様々な表現効果を与え、新しい画像を生成する技術が急増している。例えば、写真画像に対する画質改善が代表的である。しかし、画像に動きを与える手法については、2枚の画像からその中間画像を生成するモーフィングと呼ばれる手法があるが、1枚の画像から動画を生成する技術については、ワーピング法と特許文献1に記載のものが中心で、それ以外の手法については殆ど知られていない。
ワーピング法は、連続的な変化を画像に与えようとする場合、画像の各フレーム間で単純な線形補間を行う。これは、映像製作者が1枚の画像について多くの時間を費やして試行錯誤を繰り返すことで、少しずつ動きを作るものである。しかし、一般利用者にとっては試行錯誤を行う時間をとることはできず、映像製作業者においても、画像と画像の間の微妙な動き量とバランスを視覚的に調整する必要があり、生産効率が低いという問題がある。
一方、特許文献1の技術は、時間項と速度場ベクトルを用いた移流項とを有する偏微分方程式(以下、適宜「移流方程式」という)を適用し、1枚の画像に対して任意の時刻における画像を順次作成する。偏微分方程式式は、有限差分法により離散化され、計算される。
ワーピング法がフレーム間で1画素対1画素の対応で次フレームの画像を生成するものであり数学的な表現に留まっているのに対し、移流方程式はフレーム間で複数の画素対1画素の対応で画像を生成するものであり、次フレームにおける各画素に対して近傍画素の情報が次々に反映する物理表現が含まれている。なお、本願に関連する技術文献としては以下のものがある。
特開2004−334694号公報 B.K.P.Horn and B.G.Schunck, "Determining Optical Flow",Artifical Intelligence, vol. 17, no.1, pp.185-203, 1981. 田村秀行監修、日本工業技術センター編、"コンピュータ画像処理入門"、総研出版 上坂吉則、尾関和彦、"パターン認識と学習のアルゴリズム"、文一総合出版 長尾智晴、"最適化アルゴリズム"、昭晃堂 H.K.Lee and J.H.Kim, "An HMM-based threshold model approach for gesture recognition", IEEE Trans. PAMI, vol.21, no. 10, pp.961-973, 1999. 中川徹、小柳義夫、"最小二乗法による実験データ解析"、東京大学出版会、1995. 池田駿介、"流体の非線形現象−数理解析とその応用−"、朝倉書店 T.Yabe and T.Aoki, "A universal solver for hyperbolic equations by cubic-polynomial interpolation l. One-dimensional solver", Computer Physics Communications 66, North-Holland, pp.219-232, 1991.
しかしながら、特許文献1では、木や水面といった複雑でリアルな動きをするオブジェクトの画像について、実在感のある動きを与えることについては何ら考慮されていない。
また、移流方程式を用いる場合には、1枚の画像から次フレーム以降の複数の画像を生成するために再帰的に繰り返し計算を行うことになるが、数値誤差拡散の影響により画像がぼやけたり、不安定減少により振動状の模様が発生するという問題がある。これは、特に高速化を図るときに必ず生じる。
本発明は、上記に鑑みてなされたものであり、その課題とするところは、1枚の画像から実在感のある動画を生成可能にすることにある。
本発明の別の目的は、移流方程式を用いた場合の数値誤差拡散による画質劣化を防止することにある。
第1の本発明に係る動画生成装置は、時系列の画像と当該画像を用いて得られた速度場情報とを対応付けて記憶しておく記憶手段と、画像の入力を受け付ける入力手段と、入力された画像に類似する画像を前記記憶手段から検索し、検索された画像に対応する速度場情報を前記記憶手段から読み出す検索手段と、入力された画像および読み出された速度場情報を、時間項および移流項を有する偏微分方程式の移流項に代入し処理することで動画を生成する生成手段と、を有することを特徴とする。
本発明にあっては、時系列画像とその画像を用いて得られた速度場情報とを対応付けて記憶しておき、入力された画像から動画を生成する際に、入力された画像に類似する画像を検索し、この類似の画像に対応する速度場情報を時間項および移流項を有する偏微分方程式の移流項に代入し処理することで、入力された画像に適した速度場情報を用いて偏微分方程式が処理されるので、入力された画像に適した動画の生成が可能となる。なお、記憶手段は、例えば磁気記憶装置、光ディスク装置、メモリ等に相当する。
ここで、前記移流項は、速度成分と画像強度の空間1次微分との積で表されるものとし、前記速度場情報を当該速度成分に入力することが、動画生成の精度を確保するうえで望ましい。
また、前記検索手段は、入力された画像と時系列の画像との類似度を相関関数を用いて計算し、当該類似度に基づいて類似の画像を検索することが、類似画像の検索精度を確保するうえで望ましい。
上記動画生成装置は、前記記憶手段から時系列の画像を読み出し、当該画像にオプティカルフロー法を適用して速度場情報を検出し、当該速度場情報を時系列の画像に対応付けて記憶手段に記憶させる速度場検出手段を有することを特徴とする。
本発明にあっては、時系列画像にオプティカルフロー法を適用して検出した速度場情報を、入力された画像の動画を生成する際の速度場情報として利用することで、動きが単純な動画を容易に生成することが可能となる。
上記動画生成装置は、前記記憶手段から時系列の画像およびこれに対応する速度場情報を読み出し、これらを画像と係数の入力に対して速度場情報を出力する入出力関数に代入して係数を学習し、時系列の画像と当該係数とを対応付けて記憶手段に記憶させ、前記検索手段により検索された類似の画像に対応する係数を記憶手段から読み出し、前記入力された画像および読み出された係数を前記入出力関数に代入し速度場情報を算出して記憶手段に記憶させる学習手段を有し、前記検索手段は、前記学習手段により算出された速度場情報を当該記憶手段から読み出すことを特徴とする。
本発明にあっては、時系列画像と速度場情報を、画像と係数の入力に対して速度場情報を出力する入出力関数にそれぞれ代入して係数を学習し、入力された画像とこの係数を入出力関数に代入することにより、入力された画像についてより適切な速度場情報を算出し、この速度場情報を偏微分方程式の移流項に代入して動画を生成することで、動きが複雑な対象物の画像についても適切な動画を生成することが可能となる。
上記動画生成装置において、前記動画生成手段は、前記偏微分方程式をCIP法による離散解法を適用して解くことを特徴とする。
本発明にあっては、CIP法による離散解法を適用して偏微分方程式を解くことで、3次補間関数により隣接する画素がもつ値が補間されるので、数値誤差の抑制が可能となる。
第2の本発明に係る動画生成方法は、時系列の画像と当該画像を用いて得られた速度場情報とを対応付けて記憶手段に記憶しておくステップと、入力手段により画像の入力を受け付けるステップと、検索手段により、入力された画像に類似する画像を前記記憶手段から検索し、検索された画像に対応する速度場情報を前記記憶手段から読み出すステップと、生成手段により、入力された画像および読み出された速度場情報を、時間項および移流項を有する偏微分方程式の移流項に代入し処理することで動画を生成するステップと、を有することを特徴とする。
第3の本発明に係る動画生成プログラムは、時系列の画像と当該画像を用いて得られた速度場情報とを対応付けて記憶手段に記憶させておく処理と、画像の入力を受け付ける入力処理と、入力された画像に類似する画像を前記記憶手段から検索し、検索された画像に対応する速度場情報を前記記憶手段から読み出す検索処理と、入力された画像および読み出された速度場情報を、時間項および移流項を有する偏微分方程式の移流項に代入し処理することで動画を生成する生成処理と、をコンピュータに実行させることを特徴とする。
本発明によれば、入力された1枚の画像について実在感のある動画を生成することができる。また、数値誤差拡散による画質劣化を防止することができる。
図1は、一実施の形態における動画生成装置の構成を示すブロック図である。同図の動画生成装置1は、入力部11、速度場検出部12、速度場学習部13、速度場検索部14、動画生成部15、表示部16、記憶装置17を有する構成である。動画生成装置1は、演算処理装置、記憶装置、メモリ等を備えたコンピュータで構成され、各部の処理はプログラムによって実行される。このプログラムは記憶装置17に記憶されており、演算処理装置が読み出して実行する。
本動画生成装置1は、その特徴として、入力部11により入力された1枚の画像に対して、動画生成部15において時間項・移流項を有する偏微分方程式を処理することにより動画を生成する際に、移流項における速度成分として、速度場検出部12により別の時系列画像を用いて予め検出しておいた速度場情報あるいは速度場学習部13により別の時系列画像等を用いて学習した速度場情報のうち、その1枚の画像に類似する時系列画像に対応する速度場情報を用いることで、実在感のある動画を生成するものである。以下、各部での処理について詳細に説明する。
入力部11は、時系列画像をカメラやデータベースから受け取って記憶装置17に記憶させる。また、動画生成対象の1枚の画像の入力を受け付けて記憶装置17に記憶させる。
速度場検出部12は、記憶装置17から時系列画像を読み出し、この画像にオプティカルフロー法(非特許文献1参照)を適用して速度場情報を検出し、この速度場情報をその時系列画像に対応付けて記憶装置17に記憶させる。具体的には、速度場検出部12は、図2に示すように、2枚の画像を比較することで移動対象物の動きの大きさと方向を示す速度ベクトルを速度場情報として検出する。同図(a)は例えば時刻nにおける波の画像、同図(b)は時刻n+1における波の画像、同図(c)は(a)と(b)の画像を用いて得られる速度場情報を画像により示す図であり、矢印はその画素点での動きの大きさと方向を表している。また、別の例としては、図3に示すように、同図(a)の小さい星の画像と同図(b)の大きい星の画像を比較することで、同図(c)に示す星の形状の変化を示す速度場ベクトルを検出する。オプティカルフロー法は、動きが比較的単純な移動対象物について速度場情報を検出するのに適している。
速度場検索部14は、入力部11により動画生成対象の1枚の画像が入力された場合に、この画像に類似する時系列画像を記憶装置17から検索し、検索された類似の画像に対応する速度場情報を記憶装置17から読み出す。具体的には、入力された画像と時系列画像との類似度を相関関数を用いて計算し、この類似度に基づいて画像を検索する。例えば、類似度が最も高い画像を検索するようにする。この相関関数には、例えば非特許文献2の第150頁の式(5.34)に記載の正規化相関関数を用いる。この式は次のように示されている。
Figure 0004199214
本実施の形態においては、fは入力された画像、tは時系列画像とし、出力m(u,v)においてはu=v=0とする。出力m(0,0)は、0〜1の範囲で類似度を表し、0のとき全く似ていないことを示し、1のとき一致することを示す。通常は、閾値を設定し、例えばm(0,0)>0.8のとき類似していると判断する。
速度場検索部14は、この相関関数を用いて類似度を計算する際に、図4に示すように、入力された画像400と時系列画像410をそれぞれ複数のサブブロックに分割する。同図では一例として各画像を4つに分割した状態を示す。そして、入力された画像400の1つのサブブロックについて、時系列画像410における全てのサブブロックとの類似度を求め、最も類似度が高い時系列画像を1つ検索する。続いて、この検索された類似の画像に対応する速度場情報420を記憶装置17から読み出して、動画生成部15へ送る。
速度場学習部13は、時系列画像とこれにオプティカルフロー法を適用して求めた速度場情報とを記憶装置17から読み出し、ニューラルネット(非特許文献3,4参照)等を適用して更に精度の高い速度場情報を求め、記憶装置17に記憶させる。ニューラルネットを適用するときの具体的な処理は次のようになる。
ここでは、非特許文献4の第105頁に記載の式(8.1)を用いる。この式は次のように示されている。
Figure 0004199214
ここで、nは画素数、θは所定の閾値である。本実施の形態においては、関数f(x)は、画像Oと重み結合係数wの入力に対して速度場情報yを出力する入出力関数である。入出力関数f(x)には、例えば非特許文献4の式(8.7)に示されるような次式のシグモイド関数が用いられる。
Figure 0004199214
速度場学習部13は、式(2)のOに時系列画像を代入するとともに、yにオプティカルフロー法で求めた速度場情報を代入する。この速度場情報としては、例えば図5に示すような、画像Oと同じ画素数をもつ2次元画像として表現できるものを用いる。そして、非特許文献4にも記載があるように、式(2)に対して例えば最急降下法を用いて一定の収束条件を満たすまで処理を繰り返すことで、重み結合係数wを決定する。これを学習過程という。学習で得られた重み結合係数wは記憶装置17に記憶させておく。
そして、入力部11により動画生成対象の1枚の画像が入力され、速度場検索部14により、この画像に類似する時系列画像が記憶装置17から検索されたときに、速度場学習部13は、この検索された類似の画像に対応する重み結合係数wを記憶装置17から読み出し、式(2)に対して、入力された画像をOに、読み出された重み結合係数をwにそれぞれ代入して、入力された画像に適した速度場情報yを算出し、記憶装置17に記憶させる。速度場検索部14は、この速度場情報yを記憶装置17から読み出して、動画生成部15へ送る。
なお、速度場学習部13では、係数の学習手法としてニューラルネットのほか、HMM法(Hidden Markov Model、非特許文献5参照)や最小二乗法(非特許文献6参照)を適用してもよい。HMM法では、推移行列の要素が係数に相当する。最小二乗法では、時系列画像と係数の入力に対して速度場情報を出力する線形和結合モデルをつくり、この係数を最小二乗法により求める。それぞれの手法により用いた係数の利用の仕方は、上記で説明したニューラルネットにおける重み結合係数と同様である。
動画生成部15は、入力された画像と、記憶装置17から読み出された速度場情報とを時間項・移流項を有する偏微分方程式に代入して動画を生成する。ここで用いる速度場情報は、速度場検出部12あるいは速度場学習部13により求められたものであって、入力された画像に類似する時系列画像に対応した速度場情報である。速度場検出部12と速度場学習部13のいずれにより求められた速度場情報を用いるかは、入力された画像に基づいて判断する。例えば、入力された画像の動きが簡単な場合には速度場検出部12によるものを利用し、入力された画像の動きが複雑な場合には速度場学習部13によるものを利用する。
時間項・移流項を有する偏微分方程式は次式で表される(非特許文献7参照)。
Figure 0004199214
ここでは、画素を(x,y)、離散化した時間をnとして、画像強度をI(x,y,n)と定義する。時間係数Δtはここでは1.0とする。Uは2次元速度場ベクトルであり速度場情報により与えられる。▽は1次の空間微分演算子、・はベクトル内積である。式(4)の左辺第1項は時間項、左辺第2項は移流項である。
本実施の形態では、上記の偏微分方程式をCIP法(Cubic Interpolation Profile、非特許文献8参照)による離散解法を適用して解く。ここでは、説明の便宜上、式(4)を次式のように1次元に置き換えて説明する。
Figure 0004199214
ここで、fは1次元量であり、画像強度に相当する。uは速度場ベクトルである。ある画素点iの画像強度をf、fの微分値をg=∂f/∂xと記す。ここで、2画素間の3次補間関数を次のように定義する。
Figure 0004199214
(x)は[i−1,i]の間の関数とする。F(x)の値とその微分値を次のようにおく。
Figure 0004199214
上記の関係から次式を得る。
Figure 0004199214
時刻n+1での画像は、時刻nでの画像をu・Δtだけ移流させたものであることから次式を得る。
Figure 0004199214
このようにして、CIP法により、時刻nにおける画像から時刻n+1における画像fn+1が得られる。
次に、比較例として上記の偏微分方程式を差分法により求める場合の処理について説明する。ここでは、式(4)を次のように変形する。
Figure 0004199214
計算手法は、式(17)を差分法により離散化し、2次元画像面および離散時間軸に沿って再帰的に計算を繰り返す。画像強度Iの初期値は、入力部11に入力された1枚の画像とする。所定の時間に相当する分だけ繰り返し計算することで、必要なだけ移動させた画像が得られる。
表示部16は、動画化された画像を各種の手法により表示する。図6は、学習によって得られた速度場情報を用いて1枚の木の画像を動画化した例を示す図であり、図7は、学習によって得られた速度場情報を用いて人の唇の画像を動画化した例を示す図である。図8は、学習によって得られた速度場情報を用いて波の画像を動画化した例を示す図である。
それぞれの画像は、図6では別の木の時系列画像、図7では別の唇の時系列画像、図8では別の波の時系列画像を用いてそれぞれ予め係数を学習しておき、入力された画像に一番類似する画像に対応する係数を用いて得られた速度場ベクトルを適用したものである。ただし、対象物の移動の方向や大きさは様々にあることから、速度場ベクトルを線形アフィン変換し、入力された画像に応じて試行錯誤的にアフィン行列の要素を決定して反映させることが望ましい。
図9は、学習によって得られた風の速度場ベクトルを木900と雪910が表現された静止画に適用し、木900に揺らぎを与えつつ雪910が風により飛ばされる様子を動的に表現した例である。
次に、実施例のCIP法を適用したときの画質改善の効果について、比較例の差分法との比較により説明する。図10は、実施例による画像生成の様子を示す図であり、同図の破線は入力された元の画像のプロファイル、実線は理想的な生成画像のプロファイル、黒丸はCIP法により移流方程式を解いて生成した画像のプロファイルである。元の画像のプロファイルは矩形波と三角波を表現したものであり、移流方程式の速度成分には右方向へ移動する速度場ベクトルを与えた。矩形波は画像のエッジ部分の保存性を、三角波は最大値の保存性をそれぞれ調べるために用いた。図11は、比較例による画像生成の様子を示す図であり、同図の黒丸は差分法により移流方程式を解いて生成した画像のプロファイルである。同図の破線および実線は図10のものと同一である。差分法では、再帰的な演算を1000回行った時点の結果を示している。
図10と図11を比較すると、差分法では、図11の破線丸印中に示されるように、誤差拡散によって矩形波のエッジ部分に乱れが生じている。これに対し、CIP法では、図10の破線丸印中に示されるように、そのような乱れは生じておらず、初期のプロファイルをほぼそのまま維持した状態で各波形が移動していることが確認された。これは、CIP法は画像の不自然な乱れを抑制できる効果が高いことを示している。
図12は、本動画生成装置1をグラフィカル・ユーザ・インタフェース(GUI:Graphical User Interface)に適用した場合に表示部16が表示する画面の例である。同図に示すように、表示部16は、木210と星220が表現された画像200、星を示すアイコン230、太陽を示すアイコン240、光の放射を示すアイコン250をそれぞれ表示する。アイコン230は、星220に類似する画像を用いて得られた星の移動を示す速度場情報に対応しており、アイコン240は太陽の動きを示す速度場情報に、アイコン250は星220に類似する画像を用いて得られた光放射の動きを示す速度場情報にそれぞれ対応している。ユーザがマウスを用いて画面内の星220を指定した上でアイコン230を指定すると、本動画生成装置1は、アイコン230に対応する速度場情報を記憶装置から読み出して移流方程式に代入し、星220の移動を示す動画を生成して画面に表示する。また、ユーザがマウスを用いて画面内の星220を指定した上でアイコン250を指定した場合には、アイコン250に対応する速度場情報を記憶装置から読み出して移流方程式に代入し、星220の光放射を示す動画を生成して画面に表示する。このように、1枚の画像に対し、関連する動きをメニューから選択して動画を生成することが可能となる。
したがって、本実施の形態によれば、記憶装置17に時系列画像とその画像を用いて得られた速度場情報とを対応付けて記憶しておき、入力部11により入力された画像から動画を生成する際に、速度場検索部14により、入力された画像に類似する時系列画像を検索し、動画生成部15により、この類似の画像に対応する速度場情報を時間項および移流項を有する偏微分方程式の移流項に代入し処理することで、入力された画像に適した速度場情報を用いて偏微分方程式が処理されるので、実在感のある動画の生成が可能になる。
本実施の形態によれば、速度場検出部12により時系列画像にオプティカルフロー法を適用して検出した速度場情報を、入力された画像の動画を生成する際の速度場情報として利用することで、動きが単純な動画を容易に生成することができる。
本実施の形態によれば、速度場学習部13により、時系列画像と速度場情報を、画像と係数の入力に対して速度場情報を出力する入出力関数にそれぞれ代入して係数を学習し、入力された画像とこの係数を入出力関数に代入することにより、入力された画像についてより適切な速度場情報を算出し、この速度場情報を偏微分方程式に代入して動画を生成することで、動きが複雑な対象物の画像についても適切な動画を生成することができる。
本実施の形態によれば、動画生成部15により、CIP法による離散解法を適用して偏微分方程式を解くことで、3次補間関数により隣接する画素がもつ値が補間され、画素間での速度変化が大きくても画像強度が安定するので、数値誤差を抑制することができる。また、時間刻み幅を大きくとれるので、高速化を実現することができる。
本実施の形態によれば、本動画生成装置1をGUIに適用することで、1枚の画像に対し、関連する動きをメニューから選択して動画を生成でき、初心者であっても実在感のある複雑な動きを示す動画を一枚の画像から短時間で生成することができ、動画生成の生産効率を向上させることができる。
なお、入力部11により入力する画像としては、実写画像のほか、様々な画像を用いることができ、例えばコンピュータグラフィックスにより生成した人工的な画像でもよい。
一実施の形態における動画生成装置の構成を示すブロック図である。 波の時系列画像にオプティカルフロー法を適用して速度場情報を求める様子を示す図であり、同図(a)は時刻nの画像、(b)は時刻n+1の画像、(c)は(a)と(b)の画像から得られる速度場情報としての速度ベクトルを示す。 星型の画像にオプティカルフロー法を適用して速度場情報を求める様子を示す図であり、同図(a)は時刻nの星型画像、(b)は時刻n+1の星型画像、(c)は(a)と(b)の画像から得られる速度場情報としての速度ベクトルを示す。 入力された画像に対して類似する画像を検索し、検索された類似の画像に対応する速度場情報を読み出す処理を説明するための図である。 学習の対象としてオプティカルフロー法を適用して求めた速度場情報を示す図である。 木の画像から生成した動画の例を示す図である。 唇の画像から生成した動画の例を示す図である。 川の画像から生成した動画の例を示す図である。 木と雪の画像に対して木に揺らぎを与え雪を風で動かした例を示す図である。 実施例による画像生成の様子を示す図であり、同図の破線は入力された元の画像のプロファイル、実線は理想的な生成画像のプロファイル、黒丸はCIP法により移流方程式を解いて生成した画像のプロファイルである。 比較例による画像生成の様子を示す図であり、同図の破線は入力された元の画像のプロファイル、実線は理想的な生成画像のプロファイル、黒丸は差分法により移流方程式を解いて生成した画像のプロファイルである。 本動画生成装置をGUIに適用した場合の表示画面の例を示す図である。
符号の説明
1…動画生成装置
11…入力部
12…速度場検出部
13…速度場学習部
14…速度場検索部
15…動画生成部
16…表示部
17…記憶装置

Claims (7)

  1. 時系列の画像と当該画像を用いて得られた速度場情報とを対応付けて記憶しておく記憶手段と、
    画像の入力を受け付ける入力手段と、
    前記記憶手段から時系列の画像およびこれに対応する速度場情報を読み出し、これらを画像と係数の入力に対して速度場情報を出力する入出力関数に代入して係数を学習し、時系列の画像と当該係数とを対応付けて記憶手段に記憶させておき、前記入力手段により入力された画像に類似する画像を記憶手段から検索し、当該検索された画像に対応する係数を記憶手段から読み出し、前記入力された画像および読み出された係数を前記入出力関数に代入し速度場情報を算出して記憶手段に記憶させる学習手段と、
    前記入力された画像について前記学習手段により算出された速度場情報を前記記憶手段から読み出す検索手段と、
    前記入力された画像および前記算出された速度場情報を、時間項および移流項を有する偏微分方程式の移流項に代入し処理することで動画を生成する生成手段と、
    を有することを特徴とする動画生成装置。
  2. 前記移流項は、速度成分と画像強度の空間1次微分との積で表されるものであって、前記速度場情報は当該速度成分に代入されることを特徴とする請求項1記載の動画生成装置。
  3. 前記検索手段は、入力された画像と時系列の画像との類似度を相関関数を用いて計算し、当該類似度に基づいて類似の画像を検索することを特徴とする請求項1又は2記載の動画生成装置。
  4. 前記記憶手段から時系列の画像を読み出し、当該画像に対してオプティカルフロー法を適用して速度場情報を検出し、当該速度場情報を時系列の画像に対応付けて記憶手段に記憶させる速度場検出手段を有することを特徴とする請求項1乃至3のいずれかに記載の動画生成装置。
  5. 前記動画生成手段は、前記偏微分方程式をCIP法による離散解法を適用して解くことを特徴とする請求項1乃至4のいずれかに記載の動画生成装置。
  6. 時系列の画像と当該画像を用いて得られた速度場情報とを対応付けて記憶手段に記憶しておくステップと、
    入力手段により画像の入力を受け付けるステップと、
    学習手段により、前記記憶手段から時系列の画像およびこれに対応する速度場情報を読み出し、これらを画像と係数の入力に対して速度場情報を出力する入出力関数に代入して係数を学習し、時系列の画像と当該係数とを対応付けて記憶手段に記憶させておき、前記入力手段により入力された画像に類似する画像を前記記憶手段から検索し、当該検索された画像に対応する係数を記憶手段から読み出し、前記入力された画像および読み出された係数を前記入出力関数に代入し速度場情報を算出して記憶手段に記憶させるステップと、
    検索手段により、前記入力された画像について前記学習手段により算出された速度場情報を前記記憶手段から読み出すステップと、
    生成手段により、前記入力された画像および前記算出された速度場情報を、時間項および移流項を有する偏微分方程式の移流項に代入し処理することで動画を生成するステップと、
    を有することを特徴とする動画生成方法。
  7. 時系列の画像と当該画像を用いて得られた速度場情報とを対応付けて記憶手段に記憶させておく処理と、
    画像の入力を受け付ける入力処理と、
    前記記憶手段から時系列の画像およびこれに対応する速度場情報を読み出し、これらを画像と係数の入力に対して速度場情報を出力する入出力関数に代入して係数を学習し、時系列の画像と当該係数とを対応付けて記憶手段に記憶させる処理と、
    前記入力処理により入力された画像に類似する画像を前記記憶手段から検索し、当該検索された画像に対応する係数を記憶手段から読み出し、前記入力された画像および読み出された係数を前記入出力関数に代入し速度場情報を算出して記憶手段に記憶させる学習処理と、
    前記入力された画像について前記学習処理により算出された速度場情報を前記記憶手段から読み出す検索処理と、
    前記入力された画像および前記算出された速度場情報を、時間項および移流項を有する偏微分方程式の移流項に代入し処理することで動画を生成する生成処理と、
    をコンピュータに実行させることを特徴とする動画生成プログラム。
JP2005162734A 2005-06-02 2005-06-02 動画生成装置、動画生成方法、動画生成プログラム Active JP4199214B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005162734A JP4199214B2 (ja) 2005-06-02 2005-06-02 動画生成装置、動画生成方法、動画生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005162734A JP4199214B2 (ja) 2005-06-02 2005-06-02 動画生成装置、動画生成方法、動画生成プログラム

Publications (2)

Publication Number Publication Date
JP2006338365A JP2006338365A (ja) 2006-12-14
JP4199214B2 true JP4199214B2 (ja) 2008-12-17

Family

ID=37558870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005162734A Active JP4199214B2 (ja) 2005-06-02 2005-06-02 動画生成装置、動画生成方法、動画生成プログラム

Country Status (1)

Country Link
JP (1) JP4199214B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4702811B2 (ja) * 2008-06-09 2011-06-15 日本電信電話株式会社 格子点モデル変形・移動方法、装置およびプログラム
JP2009295129A (ja) * 2008-06-09 2009-12-17 Nippon Telegr & Teleph Corp <Ntt> 静止画の動画化方法、装置およびプログラム
JP5008772B2 (ja) * 2011-04-28 2012-08-22 日本電信電話株式会社 静止画の動画化方法、装置およびプログラム
KR101495082B1 (ko) * 2011-06-29 2015-02-24 삼성메디슨 주식회사 광학 흐름과 글로벌 변형 제한 기법을 결합한 변분 프레임워크를 이용하여 비강체 심장의 움직임 추적 방법 및 장치
CN109977847B (zh) * 2019-03-22 2021-07-16 北京市商汤科技开发有限公司 图像生成方法及装置、电子设备和存储介质
CN111667502B (zh) * 2020-05-06 2023-08-25 北京理工大学 根据单张运动模糊图像生成高速视频的方法与装置

Also Published As

Publication number Publication date
JP2006338365A (ja) 2006-12-14

Similar Documents

Publication Publication Date Title
Jiang et al. Self-supervised relative depth learning for urban scene understanding
Chaudhuri et al. Joint face detection and facial motion retargeting for multiple faces
JP7200247B2 (ja) 物体検出器及び物体検出方法
WO2019081623A1 (en) SELF-REGRESSIVE NEURAL NETWORK SYSTEMS INCLUDING A SOFTWARE ATTENTION MECHANISM USING SUPPORT DATA CORRECTIVES
JP4199214B2 (ja) 動画生成装置、動画生成方法、動画生成プログラム
CN111259779A (zh) 一种基于中心点轨迹预测的视频动作检测方法
JP2006260527A (ja) 画像マッチング方法およびこれを用いた画像補間方法
US11354774B2 (en) Facial model mapping with a neural network trained on varying levels of detail of facial scans
Hu et al. Capturing small, fast-moving objects: Frame interpolation via recurrent motion enhancement
Li et al. Blinkflow: A dataset to push the limits of event-based optical flow estimation
Cap et al. Super-resolution for practical automated plant disease diagnosis system
Nakashima et al. Learning to drop points for lidar scan synthesis
CN117593702B (zh) 远程监控方法、装置、设备及存储介质
Wang et al. Single underwater image enhancement using an analysis-synthesis network
CN117576248A (zh) 基于姿态引导的图像生成方法和装置
Wan et al. Boosting image-based localization via randomly geometric data augmentation
WO2023086398A1 (en) 3d rendering networks based on refractive neural radiance fields
CN114241052B (zh) 基于布局图的多物体场景新视角图像生成方法及系统
Berlier et al. Augmenting simulation data with sensor effects for improved domain transfer
Larey et al. Facial Expression Retargeting from a Single Character
JP6892557B2 (ja) 学習装置、画像生成装置、学習方法、画像生成方法及びプログラム
JP6967150B2 (ja) 学習装置、画像生成装置、学習方法、画像生成方法及びプログラム
JP4369951B2 (ja) 画像生成方法、画像生成装置及び画像生成プログラム
Ahmed et al. A cost-effective 3d acquisition and visualization framework for cultural heritage
JP2010097355A (ja) 画像分離装置、画像分離方法および画像分離プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080916

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081002

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4199214

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121010

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131010

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250