JP2006338365A - Moving image generation device, moving image generation method and moving image generation program - Google Patents
Moving image generation device, moving image generation method and moving image generation program Download PDFInfo
- Publication number
- JP2006338365A JP2006338365A JP2005162734A JP2005162734A JP2006338365A JP 2006338365 A JP2006338365 A JP 2006338365A JP 2005162734 A JP2005162734 A JP 2005162734A JP 2005162734 A JP2005162734 A JP 2005162734A JP 2006338365 A JP2006338365 A JP 2006338365A
- Authority
- JP
- Japan
- Prior art keywords
- image
- field information
- input
- time
- velocity field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、1枚の画像などの限られた映像素材に基づいて時系列画像を生成する技術に関する。 The present invention relates to a technique for generating a time-series image based on a limited video material such as one image.
近年、ディジタル映像や画像に様々な表現降下を与え、新しい画像を生成する技術が急増している。例えば、写真画像に対する画質改善が代表的である。しかし、画像に動きを与える手法については、2枚の画像からその中間画像を生成するモーフィングと呼ばれる手法があるが、1枚の画像から動画を生成する技術については、ワーピング法と特許文献1に記載のものが中心で、それ以外の手法については殆ど知られていない。 In recent years, there has been a rapid increase in technology for generating various new images by giving various expressions to digital images and images. For example, image quality improvement for photographic images is typical. However, there is a technique called morphing for generating an intermediate image from two images as a method for giving motion to an image. For a technique for generating a moving image from one image, the warping method and Patent Document 1 Most are described, and little is known about other methods.
ワーピング法は、連続的な変化を画像に与えようとする場合、画像の各フレーム間で単純な線形補間を行う。これは、映像製作者が1枚の画像について多くの時間を費やして試行錯誤を繰り返すことで、少しずつ動きを作るものである。しかし、一般利用者にとっては試行錯誤を行う時間をとることはできず、映像製作業者においても、画像と画像の間の微妙な動き量とバランスを視覚的に調整する必要があり、生産効率が低いという問題がある。 The warping method performs simple linear interpolation between each frame of an image when trying to give a continuous change to the image. This is because the video producer spends a lot of time on one image and repeats trial and error to make a little movement. However, for general users, it is not possible to take time for trial and error, and it is also necessary for video producers to visually adjust the amount and balance of subtle movements between images. There is a problem that it is low.
一方、特許文献1の技術は、時間項と速度場ベクトルを用いた移流項とを有する偏微分方程式(以下、適宜「移流方程式」という)を適用し、1枚の画像に対して任意の時刻における画像を順次作成する。偏微分方程式式は、有限差分法により離散化され、計算される。 On the other hand, the technique of Patent Document 1 applies a partial differential equation (hereinafter, referred to as “advection equation” as appropriate) having a time term and an advection term using a velocity field vector, and arbitrary time for one image. The images in are sequentially created. The partial differential equation is discretized by the finite difference method and calculated.
ワーピング法がフレーム間で1画素対1画素の対応で次フレームの画像を生成するものであり数学的な表現に留まっているのに対し、移流方程式はフレーム間で複数の画素対1画素の対応で画像を生成するものであり、次フレームにおける各画素に対して近傍画素の情報が次々に反映する物理表現が含まれている。なお、本願に関連する技術文献としては以下のものがある。
しかしながら、特許文献1では、木や水面といった複雑でリアルな動きをするオブジェクトの画像について、実在感のある動きを与えることについては何ら考慮されていない。 However, in Patent Document 1, no consideration is given to giving a realistic motion to an image of an object that moves in a complicated and realistic manner, such as a tree or a water surface.
また、移流方程式を用いる場合には、1枚の画像から次フレーム以降の複数の画像を生成するために再帰的に繰り返し計算を行うことになるが、数値誤差拡散の影響により画像がぼやけたり、不安定減少により振動状の模様が発生するという問題がある。これは、特に高速化を図るときに必ず生じる。 In addition, when using the advection equation, repetitive calculation is performed recursively to generate a plurality of images from the next frame on from one image, but the image may be blurred due to the influence of numerical error diffusion, There is a problem that a vibration-like pattern occurs due to the instability reduction. This always occurs especially when speeding up.
本発明は、上記に鑑みてなされたものであり、その課題とするところは、1枚の画像から実在感のある動画を生成可能にすることにある。 The present invention has been made in view of the above, and an object thereof is to make it possible to generate a moving image with a sense of reality from a single image.
本発明の別の目的は、移流方程式を用いた場合の数値誤差拡散による画質劣化を防止することにある。 Another object of the present invention is to prevent image quality degradation due to numerical error diffusion when using the advection equation.
第1の本発明に係る動画生成装置は、時系列の画像と当該画像を用いて得られた速度場情報とを対応付けて記憶しておく記憶手段と、画像の入力を受け付ける入力手段と、入力された画像に類似する画像を前記記憶手段から検索し、検索された画像に対応する速度場情報を前記記憶手段から読み出す検索手段と、入力された画像および読み出された速度場情報を、時間項および移流項を有する偏微分方程式の移流項に代入し処理することで動画を生成する生成手段と、を有することを特徴とする。 A moving image generating apparatus according to a first aspect of the present invention includes a storage unit that stores a time-series image and velocity field information obtained using the image in association with each other, an input unit that receives an input of the image, An image similar to the input image is searched from the storage means, a search means for reading out speed field information corresponding to the searched image from the storage means, an input image and the read speed field information, And generating means for generating a moving image by substituting and processing the advection term of the partial differential equation having a time term and an advection term.
本発明にあっては、時系列画像とその画像を用いて得られた速度場情報とを対応付けて記憶しておき、入力された画像から動画を生成する際に、入力された画像に類似する画像を検索し、この類似の画像に対応する速度場情報を時間項および移流項を有する偏微分方程式の移流項に代入し処理することで、入力された画像に適した速度場情報を用いて偏微分方程式が処理されるので、入力された画像に適した動画の生成が可能となる。なお、記憶手段は、例えば磁気記憶装置、光ディスク装置、メモリ等に相当する。 In the present invention, a time-series image and velocity field information obtained using the image are stored in association with each other, and similar to the input image when generating a moving image from the input image. By using the velocity field information that is suitable for the input image, the velocity field information corresponding to the similar image is substituted into the advection term of the partial differential equation having the time term and the advection term and processed. Since the partial differential equation is processed, a moving image suitable for the input image can be generated. The storage means corresponds to, for example, a magnetic storage device, an optical disk device, a memory, or the like.
ここで、前記移流項は、速度成分と画像強度の空間1次微分との積で表されるものとし、前記速度場情報を当該速度成分に入力することが、動画生成の精度を確保するうえで望ましい。 Here, the advection term is represented by a product of a velocity component and a spatial first derivative of the image intensity, and inputting the velocity field information to the velocity component ensures the accuracy of moving image generation. Is desirable.
また、前記検索手段は、入力された画像と時系列の画像との類似度を相関関数を用いて計算し、当該類似度に基づいて類似の画像を検索することが、類似画像の検索精度を確保するうえで望ましい。 Further, the search means calculates the similarity between the input image and the time-series image using a correlation function, and searching for a similar image based on the similarity determines the search accuracy of the similar image. Desirable to secure.
上記動画生成装置は、前記記憶手段から時系列の画像を読み出し、当該画像にオプティカルフロー法を適用して速度場情報を検出し、当該速度場情報を時系列の画像に対応付けて記憶手段に記憶させる速度場検出手段を有することを特徴とする。 The moving image generation apparatus reads a time-series image from the storage unit, detects speed field information by applying an optical flow method to the image, and associates the speed field information with the time-series image in the storage unit. It has a velocity field detection means for memorizing.
本発明にあっては、時系列画像にオプティカルフロー法を適用して検出した速度場情報を、入力された画像の動画を生成する際の速度場情報として利用することで、動きが単純な動画を容易に生成することが可能となる。 In the present invention, a moving image with simple motion is obtained by using the velocity field information detected by applying the optical flow method to the time-series image as velocity field information when generating the moving image of the input image. Can be easily generated.
上記動画生成装置は、前記記憶手段から時系列の画像およびこれに対応する速度場情報を読み出し、これらを画像と係数の入力に対して速度場情報を出力する入出力関数に代入して係数を学習し、時系列の画像と当該係数とを対応付けて記憶手段に記憶させ、前記検索手段により検索された類似の画像に対応する係数を記憶手段から読み出し、前記入力された画像および読み出された係数を前記入出力関数に代入し速度場情報を算出して記憶手段に記憶させる学習手段を有し、前記検索手段は、前記学習手段により算出された速度場情報を当該記憶手段から読み出すことを特徴とする。 The moving image generating apparatus reads a time-series image and corresponding velocity field information from the storage means, and substitutes these into an input / output function that outputs velocity field information in response to an image and a coefficient input. Learning, storing the time-series image and the coefficient in association in the storage unit, reading out the coefficient corresponding to the similar image searched by the search unit from the storage unit, and reading out the input image and the input image Learning means for substituting the calculated coefficient into the input / output function to calculate speed field information and store it in the storage means, and the search means reads the speed field information calculated by the learning means from the storage means It is characterized by.
本発明にあっては、時系列画像と速度場情報を、画像と係数の入力に対して速度場情報を出力する入出力関数にそれぞれ代入して係数を学習し、入力された画像とこの係数を入出力関数に代入することにより、入力された画像についてより適切な速度場情報を算出し、この速度場情報を偏微分方程式の移流項に代入して動画を生成することで、動きが複雑な対象物の画像についても適切な動画を生成することが可能となる。 In the present invention, the time series image and the velocity field information are respectively substituted into an input / output function that outputs velocity field information with respect to the input of the image and the coefficient, and the coefficient is learned. By substituting into the input / output function, more appropriate velocity field information is calculated for the input image, and this velocity field information is substituted into the advection term of the partial differential equation to generate a moving image. Appropriate moving images can be generated for images of various objects.
上記動画生成装置において、前記動画生成手段は、前記偏微分方程式をCIP法による離散解法を適用して解くことを特徴とする。 In the moving image generating apparatus, the moving image generating means solves the partial differential equation by applying a discrete solution method using a CIP method.
本発明にあっては、CIP法による離散解法を適用して偏微分方程式を解くことで、3次補間関数により隣接する画素がもつ値が補間されるので、数値誤差の抑制が可能となる。 In the present invention, by solving the partial differential equation by applying the discrete solution method by the CIP method, the value of the adjacent pixel is interpolated by the cubic interpolation function, so that the numerical error can be suppressed.
第2の本発明に係る動画生成方法は、時系列の画像と当該画像を用いて得られた速度場情報とを対応付けて記憶手段に記憶しておくステップと、入力手段により画像の入力を受け付けるステップと、検索手段により、入力された画像に類似する画像を前記記憶手段から検索し、検索された画像に対応する速度場情報を前記記憶手段から読み出すステップと、生成手段により、入力された画像および読み出された速度場情報を、時間項および移流項を有する偏微分方程式の移流項に代入し処理することで動画を生成するステップと、を有することを特徴とする。 In the moving image generating method according to the second aspect of the present invention, a time series image and speed field information obtained using the image are associated with each other and stored in a storage unit, and an input unit inputs an image. A step of receiving, a step of searching the storage unit for an image similar to the input image by the search unit, a step of reading speed field information corresponding to the searched image from the storage unit, and a step of inputting by the generation unit Generating a moving image by substituting and processing the image and the read velocity field information into the advection term of a partial differential equation having a time term and an advection term.
第3の本発明に係る動画生成プログラムは、時系列の画像と当該画像を用いて得られた速度場情報とを対応付けて記憶手段に記憶させておく処理と、画像の入力を受け付ける入力処理と、入力された画像に類似する画像を前記記憶手段から検索し、検索された画像に対応する速度場情報を前記記憶手段から読み出す検索処理と、入力された画像および読み出された速度場情報を、時間項および移流項を有する偏微分方程式の移流項に代入し処理することで動画を生成する生成処理と、をコンピュータに実行させることを特徴とする。 A moving image generating program according to a third aspect of the present invention includes a process for storing a time-series image and speed field information obtained using the image in association with each other in a storage unit, and an input process for receiving an input of the image A search process for retrieving an image similar to the input image from the storage unit, and retrieving speed field information corresponding to the retrieved image from the storage unit, the input image and the read speed field information And a generation process for generating a moving image by performing processing by substituting into the advection term of the partial differential equation having a time term and an advection term.
本発明によれば、入力された1枚の画像について実在感のある動画を生成することができる。また、数値誤差拡散による画質劣化を防止することができる。 According to the present invention, it is possible to generate a moving image with a sense of reality with respect to one input image. Further, image quality deterioration due to numerical error diffusion can be prevented.
図1は、一実施の形態における動画生成装置の構成を示すブロック図である。同図の動画生成装置1は、入力部11、速度場検出部12、速度場学習部13、速度場検索部14、動画生成部15、表示部16、記憶装置17を有する構成である。動画生成装置1は、演算処理装置、記憶装置、メモリ等を備えたコンピュータで構成され、各部の処理はプログラムによって実行される。このプログラムは記憶装置17に記憶されており、演算処理装置が読み出して実行する。
FIG. 1 is a block diagram illustrating a configuration of a moving image generating apparatus according to an embodiment. The moving image generating apparatus 1 shown in FIG. 1 includes an
本動画生成装置1は、その特徴として、入力部11により入力された1枚の画像に対して、動画生成部15において時間項・移流項を有する偏微分方程式を処理することにより動画を生成する際に、移流項における速度成分として、速度場検出部12により別の時系列画像を用いて予め検出しておいた速度場情報あるいは速度場学習部13により別の時系列画像等を用いて学習した速度場情報のうち、その1枚の画像に類似する時系列画像に対応する速度場情報を用いることで、実在感のある動画を生成するものである。以下、各部での処理について詳細に説明する。
The moving image generating apparatus 1 generates a moving image by processing a partial differential equation having a time term and an advection term in the moving
入力部11は、時系列画像をカメラやデータベースから受け取って記憶装置17に記憶させる。また、動画生成対象の1枚の画像の入力を受け付けて記憶装置17に記憶させる。
The
速度場検出部12は、記憶装置17から時系列画像を読み出し、この画像にオプティカルフロー法(非特許文献1参照)を適用して速度場情報を検出し、この速度場情報をその時系列画像に対応付けて記憶装置17に記憶させる。具体的には、速度場検出部12は、図2に示すように、2枚の画像を比較することで移動対象物の動きの大きさと方向を示す速度ベクトルを速度場情報として検出する。同図(a)は例えば時刻nにおける波の画像、同図(b)は時刻n+1における波の画像、同図(c)は(a)と(b)の画像を用いて得られる速度場情報を画像により示す図であり、矢印はその画素点での動きの大きさと方向を表している。また、別の例としては、図3に示すように、同図(a)の小さい星の画像と同図(b)の大きい星の画像を比較することで、同図(c)に示す星の形状の変化を示す速度場ベクトルを検出する。オプティカルフロー法は、動きが比較的単純な移動対象物について速度場情報を検出するのに適している。
The speed
速度場検索部14は、入力部11により動画生成対象の1枚の画像が入力された場合に、この画像に類似する時系列画像を記憶装置17から検索し、検索された類似の画像に対応する速度場情報を記憶装置17から読み出す。具体的には、入力された画像と時系列画像との類似度を相関関数を用いて計算し、この類似度に基づいて画像を検索する。例えば、類似度が最も高い画像を検索するようにする。この相関関数には、例えば非特許文献2の第150頁の式(5.34)に記載の正規化相関関数を用いる。この式は次のように示されている。
本実施の形態においては、fは入力された画像、tは時系列画像とし、出力m*(u,v)においてはu=v=0とする。出力m*(0,0)は、0〜1の範囲で類似度を表し、0のとき全く似ていないことを示し、1のとき一致することを示す。通常は、閾値を設定し、例えばm*(0,0)>0.8のとき類似していると判断する。 In this embodiment, f is an input image, t is a time-series image, and u = v = 0 in the output m * (u, v). The output m * (0,0) represents the degree of similarity in the range of 0 to 1. When it is 0, it indicates that it is not similar at all, and when it is 1, it indicates that it matches. Usually, a threshold value is set, and for example, when m * (0,0)> 0.8, it is determined that they are similar.
速度場検索部14は、この相関関数を用いて類似度を計算する際に、図4に示すように、入力された画像400と時系列画像410をそれぞれ複数のサブブロックに分割する。同図では一例として各画像を4つに分割した状態を示す。そして、入力された画像400の1つのサブブロックについて、時系列画像410における全てのサブブロックとの類似度を求め、最も類似度が高い時系列画像を1つ検索する。続いて、この検索された類似の画像に対応する速度場情報420を記憶装置17から読み出して、動画生成部15へ送る。
When calculating the similarity using the correlation function, the speed
速度場学習部13は、時系列画像とこれにオプティカルフロー法を適用して求めた速度場情報とを記憶装置17から読み出し、ニューラルネット(非特許文献3,4参照)等を適用して更に精度の高い速度場情報を求め、記憶装置17に記憶させる。ニューラルネットを適用するときの具体的な処理は次のようになる。
The speed
ここでは、非特許文献4の第105頁に記載の式(8.1)を用いる。この式は次のように示されている。
ここで、nは画素数、θは所定の閾値である。本実施の形態においては、関数f(x)は、画像Oと重み結合係数wの入力に対して速度場情報yを出力する入出力関数である。入出力関数f(x)には、例えば非特許文献4の式(8.7)に示されるような次式のシグモイド関数が用いられる。
速度場学習部13は、式(2)のOに時系列画像を代入するとともに、yにオプティカルフロー法で求めた速度場情報を代入する。この速度場情報としては、例えば図5に示すような、画像Oと同じ画素数をもつ2次元画像として表現できるものを用いる。そして、非特許文献4にも記載があるように、式(2)に対して例えば最急降下法を用いて一定の収束条件を満たすまで処理を繰り返すことで、重み結合係数wを決定する。これを学習過程という。学習で得られた重み結合係数wは記憶装置17に記憶させておく。
The velocity
そして、入力部11により動画生成対象の1枚の画像が入力され、速度場検索部14により、この画像に類似する時系列画像が記憶装置17から検索されたときに、速度場学習部13は、この検索された類似の画像に対応する重み結合係数wを記憶装置17から読み出し、式(2)に対して、入力された画像をOに、読み出された重み結合係数をwにそれぞれ代入して、入力された画像に適した速度場情報yを算出し、記憶装置17に記憶させる。速度場検索部14は、この速度場情報yを記憶装置17から読み出して、動画生成部15へ送る。
Then, when one image that is a moving image generation target is input by the
なお、速度場学習部13では、係数の学習手法としてニューラルネットのほか、HMM法(Hidden Markov Model、非特許文献5参照)や最小二乗法(非特許文献6参照)を適用してもよい。HMM法では、推移行列の要素が係数に相当する。最小二乗法では、時系列画像と係数の入力に対して速度場情報を出力する線形和結合モデルをつくり、この係数を最小二乗法により求める。それぞれの手法により用いた係数の利用の仕方は、上記で説明したニューラルネットにおける重み結合係数と同様である。
The velocity
動画生成部15は、入力された画像と、記憶装置17から読み出された速度場情報とを時間項・移流項を有する偏微分方程式に代入して動画を生成する。ここで用いる速度場情報は、速度場検出部12あるいは速度場学習部13により求められたものであって、入力された画像に類似する時系列画像に対応した速度場情報である。速度場検出部12と速度場学習部13のいずれにより求められた速度場情報を用いるかは、入力された画像に基づいて判断する。例えば、入力された画像の動きが簡単な場合には速度場検出部12によるものを利用し、入力された画像の動きが複雑な場合には速度場学習部13によるものを利用する。
The moving
時間項・移流項を有する偏微分方程式は次式で表される(非特許文献7参照)。
ここでは、画素を(x,y)、離散化した時間をnとして、画像強度をI(x,y,n)と定義する。時間係数Δtはここでは1.0とする。Uは2次元速度場ベクトルであり速度場情報により与えられる。▽は1次の空間微分演算子、・はベクトル内積である。式(4)の左辺第1項は時間項、左辺第2項は移流項である。 Here, the image intensity is defined as I (x, y, n), where (x, y) is the pixel, n is the discretized time. Here, the time coefficient Δt is 1.0. U is a two-dimensional velocity field vector and is given by velocity field information. ▽ is a first-order spatial differential operator, and · is a vector dot product. The first term on the left side of Equation (4) is a time term, and the second term on the left side is an advection term.
本実施の形態では、上記の偏微分方程式をCIP法(Cubic Interpolation Profile、非特許文献8参照)による離散解法を適用して解く。ここでは、説明の便宜上、式(4)を次式のように1次元に置き換えて説明する。
ここで、fは1次元量であり、画像強度に相当する。uは速度場ベクトルである。ある画素点iの画像強度をfi、fiの微分値をgi=∂fi/∂xと記す。ここで、2画素間の3次補間関数を次のように定義する。
Fi(x)は[i−1,i]の間の関数とする。Fi(x)の値とその微分値を次のようにおく。
上記の関係から次式を得る。
時刻n+1での画像は、時刻nでの画像をu・Δtだけ移流させたものであることから次式を得る。
このようにして、CIP法により、時刻nにおける画像から時刻n+1における画像fn+1が得られる。 In this way, the image f n + 1 at the time n + 1 is obtained from the image at the time n by the CIP method.
次に、比較例として上記の偏微分方程式を差分法により求める場合の処理について説明する。ここでは、式(4)を次のように変形する。
計算手法は、式(17)を差分法により離散化し、2次元画像面および離散時間軸に沿って再帰的に計算を繰り返す。画像強度Iの初期値は、入力部11に入力された1枚の画像とする。所定の時間に相当する分だけ繰り返し計算することで、必要なだけ移動させた画像が得られる。
In the calculation method, Equation (17) is discretized by the difference method, and the calculation is recursively repeated along the two-dimensional image plane and the discrete time axis. The initial value of the image intensity I is one image input to the
表示部16は、動画化された画像を各種の手法により表示する。図6は、学習によって得られた速度場情報を用いて1枚の木の画像を動画化した例を示す図であり、図7は、学習によって得られた速度場情報を用いて人の唇の画像を動画化した例を示す図である。図8は、学習によって得られた速度場情報を用いて波の画像を動画化した例を示す図である。
The
それぞれの画像は、図6では別の木の時系列画像、図7では別の唇の時系列画像、図8では別の波の時系列画像を用いてそれぞれ予め係数を学習しておき、入力された画像に一番類似する画像に対応する係数を用いて得られた速度場ベクトルを適用したものである。ただし、対象物の移動の方向や大きさは様々にあることから、速度場ベクトルを線形アフィン変換し、入力された画像に応じて試行錯誤的にアフィン行列の要素を決定して反映させることが望ましい。 Each image has a coefficient learned in advance using a time-series image of another tree in FIG. 6, another time-series image of lips in FIG. 7, and another time-series image of waves in FIG. The velocity field vector obtained using the coefficient corresponding to the image most similar to the generated image is applied. However, since there are various directions and magnitudes of movement of the object, it is possible to linearly affine transform the velocity field vector and determine and reflect the affine matrix elements by trial and error according to the input image. desirable.
図9は、学習によって得られた風の速度場ベクトルを木900と雪910が表現された静止画に適用し、木900に揺らぎを与えつつ雪910が風により飛ばされる様子を動的に表現した例である。
FIG. 9 applies a wind velocity field vector obtained by learning to a still image in which the
次に、実施例のCIP法を適用したときの画質改善の効果について、比較例の差分法との比較により説明する。図10は、実施例による画像生成の様子を示す図であり、同図の破線は入力された元の画像のプロファイル、実線は理想的な生成画像のプロファイル、黒丸はCIP法により移流方程式を解いて生成した画像のプロファイルである。元の画像のプロファイルは矩形波と三角波を表現したものであり、移流方程式の速度成分には右方向へ移動する速度場ベクトルを与えた。矩形波は画像のエッジ部分の保存性を、三角波は最大値の保存性をそれぞれ調べるために用いた。図11は、比較例による画像生成の様子を示す図であり、同図の黒丸は差分法により移流方程式を解いて生成した画像のプロファイルである。同図の破線および実線は図10のものと同一である。差分法では、再帰的な演算を1000回行った時点の結果を示している。 Next, the effect of improving the image quality when the CIP method of the embodiment is applied will be described by comparison with the difference method of the comparative example. FIG. 10 is a diagram showing the state of image generation according to the embodiment. In FIG. 10, the broken line represents the input original image profile, the solid line represents the ideal generated image profile, and the black circle represents the advection equation by the CIP method. This is a profile of the generated image. The profile of the original image represents a rectangular wave and a triangular wave, and a velocity field vector that moves to the right is given to the velocity component of the advection equation. The square wave was used to examine the preservation of the edge portion of the image, and the triangular wave was used to examine the preservation of the maximum value. FIG. 11 is a diagram showing a state of image generation according to the comparative example, and a black circle in the same figure is an image profile generated by solving the advection equation by the difference method. The broken line and the solid line in the figure are the same as those in FIG. In the difference method, the result when the recursive calculation is performed 1000 times is shown.
図10と図11を比較すると、差分法では、図11の破線丸印中に示されるように、誤差拡散によって矩形波のエッジ部分に乱れが生じている。これに対し、CIP法では、図10の破線丸印中に示されるように、そのような乱れは生じておらず、初期のプロファイルをほぼそのまま維持した状態で各波形が移動していることが確認された。これは、CIP法は画像の不自然な乱れを抑制できる効果が高いことを示している。 Comparing FIG. 10 and FIG. 11, in the difference method, as shown in the broken-line circle in FIG. 11, the edge portion of the rectangular wave is disturbed by error diffusion. On the other hand, in the CIP method, as shown in the dotted circle in FIG. 10, such disturbance does not occur, and each waveform moves while maintaining the initial profile almost as it is. confirmed. This indicates that the CIP method is highly effective in suppressing unnatural disturbance of the image.
図12は、本動画生成装置1をグラフィカル・ユーザ・インタフェース(GUI:Graphical User Interface)に適用した場合に表示部16が表示する画面の例である。同図に示すように、表示部16は、木210と星220が表現された画像200、星を示すアイコン230、太陽を示すアイコン240、光の放射を示すアイコン250をそれぞれ表示する。アイコン230は、星220に類似する画像を用いて得られた星の移動を示す速度場情報に対応しており、アイコン240は太陽の動きを示す速度場情報に、アイコン250は星220に類似する画像を用いて得られた光放射の動きを示す速度場情報にそれぞれ対応している。ユーザがマウスを用いて画面内の星220を指定した上でアイコン230を指定すると、本動画生成装置1は、アイコン230に対応する速度場情報を記憶装置から読み出して移流方程式に代入し、星220の移動を示す動画を生成して画面に表示する。また、ユーザがマウスを用いて画面内の星220を指定した上でアイコン250を指定した場合には、アイコン250に対応する速度場情報を記憶装置から読み出して移流方程式に代入し、星220の光放射を示す動画を生成して画面に表示する。このように、1枚の画像に対し、関連する動きをメニューから選択して動画を生成することが可能となる。
FIG. 12 is an example of a screen displayed by the
したがって、本実施の形態によれば、記憶装置17に時系列画像とその画像を用いて得られた速度場情報とを対応付けて記憶しておき、入力部11により入力された画像から動画を生成する際に、速度場検索部14により、入力された画像に類似する時系列画像を検索し、動画生成部15により、この類似の画像に対応する速度場情報を時間項および移流項を有する偏微分方程式の移流項に代入し処理することで、入力された画像に適した速度場情報を用いて偏微分方程式が処理されるので、実在感のある動画の生成が可能になる。
Therefore, according to the present embodiment, the time series image and the velocity field information obtained using the image are stored in the
本実施の形態によれば、速度場検出部12により時系列画像にオプティカルフロー法を適用して検出した速度場情報を、入力された画像の動画を生成する際の速度場情報として利用することで、動きが単純な動画を容易に生成することができる。
According to the present embodiment, the velocity field information detected by applying the optical flow method to the time-series image by the velocity
本実施の形態によれば、速度場学習部13により、時系列画像と速度場情報を、画像と係数の入力に対して速度場情報を出力する入出力関数にそれぞれ代入して係数を学習し、入力された画像とこの係数を入出力関数に代入することにより、入力された画像についてより適切な速度場情報を算出し、この速度場情報を偏微分方程式に代入して動画を生成することで、動きが複雑な対象物の画像についても適切な動画を生成することができる。
According to the present embodiment, the velocity
本実施の形態によれば、動画生成部15により、CIP法による離散解法を適用して偏微分方程式を解くことで、3次補間関数により隣接する画素がもつ値が補間され、画素間での速度変化が大きくても画像強度が安定するので、数値誤差を抑制することができる。また、時間刻み幅を大きくとれるので、高速化を実現することができる。
According to the present embodiment, the moving
本実施の形態によれば、本動画生成装置1をGUIに適用することで、1枚の画像に対し、関連する動きをメニューから選択して動画を生成でき、初心者であっても実在感のある複雑な動きを示す動画を一枚の画像から短時間で生成することができ、動画生成の生産効率を向上させることができる。 According to the present embodiment, by applying the moving image generating apparatus 1 to the GUI, it is possible to generate a moving image by selecting a related motion from a menu for one image, and even a beginner can feel a sense of reality. A moving image showing a complicated movement can be generated from a single image in a short time, and the production efficiency of moving image generation can be improved.
なお、入力部11により入力する画像としては、実写画像のほか、様々な画像を用いることができ、例えばコンピュータグラフィックスにより生成した人工的な画像でもよい。
In addition, as an image input by the
1…動画生成装置
11…入力部
12…速度場検出部
13…速度場学習部
14…速度場検索部
15…動画生成部
16…表示部
17…記憶装置
DESCRIPTION OF SYMBOLS 1 ... Movie production |
Claims (8)
画像の入力を受け付ける入力手段と、
入力された画像に類似する画像を前記記憶手段から検索し、検索された画像に対応する速度場情報を前記記憶手段から読み出す検索手段と、
入力された画像および読み出された速度場情報を、時間項および移流項を有する偏微分方程式の移流項に代入し処理することで動画を生成する生成手段と、
を有することを特徴とする動画生成装置。 Storage means for storing time-series images and velocity field information obtained using the images in association with each other;
An input means for receiving image input;
A search unit that searches the storage unit for an image similar to the input image, and reads speed field information corresponding to the searched image from the storage unit;
Generating means for generating a moving image by substituting and processing the input image and the read velocity field information into the advection term of the partial differential equation having a time term and an advection term;
A moving image generating apparatus comprising:
前記検索手段により検索された類似の画像に対応する係数を記憶手段から読み出し、
前記入力された画像および読み出された係数を前記入出力関数に代入し速度場情報を算出して記憶手段に記憶させる学習手段を有し、
前記検索手段は、前記学習手段により算出された速度場情報を当該記憶手段から読み出すことを特徴とする請求項1乃至4のいずれかに記載の動画生成装置。 The time series image and the corresponding velocity field information are read from the storage means, and the coefficients are learned by substituting them into an input / output function that outputs velocity field information in response to the input of the image and the coefficient. The image and the coefficient are associated with each other and stored in the storage means,
A coefficient corresponding to a similar image searched by the search means is read from the storage means;
Learning means for substituting the input image and the read coefficient into the input / output function to calculate velocity field information and storing it in a storage means;
The moving image generating apparatus according to claim 1, wherein the search unit reads the velocity field information calculated by the learning unit from the storage unit.
入力手段により画像の入力を受け付けるステップと、
検索手段により、入力された画像に類似する画像を前記記憶手段から検索し、検索された画像に対応する速度場情報を前記記憶手段から読み出すステップと、
生成手段により、入力された画像および読み出された速度場情報を、時間項および移流項を有する偏微分方程式の移流項に代入し処理することで動画を生成するステップと、
を有することを特徴とする動画生成方法。 Storing a time-series image and speed field information obtained using the image in association with each other in a storage unit;
Receiving an image input by an input means;
Searching the storage means for an image similar to the input image by the search means, and reading speed field information corresponding to the searched image from the storage means;
A step of generating an animation by substituting and processing the input image and the read velocity field information into the advection term of the partial differential equation having a time term and an advection term by the generation means;
A moving image generating method characterized by comprising:
画像の入力を受け付ける入力処理と、
入力された画像に類似する画像を前記記憶手段から検索し、検索された画像に対応する速度場情報を前記記憶手段から読み出す検索処理と、
入力された画像および読み出された速度場情報を、時間項および移流項を有する偏微分方程式の移流項に代入し処理することで動画を生成する生成処理と、
をコンピュータに実行させることを特徴とする動画生成プログラム。
A process of storing the time-series image and the velocity field information obtained by using the image in a storage unit in association with each other;
Input processing that accepts input of images;
A search process for searching for an image similar to the input image from the storage unit, and reading speed field information corresponding to the searched image from the storage unit;
Generation processing for generating a moving image by substituting the input image and the read velocity field information into the advection term of the partial differential equation having the time term and the advection term, and processing,
A moving picture generating program characterized by causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005162734A JP4199214B2 (en) | 2005-06-02 | 2005-06-02 | Movie generation device, movie generation method, movie generation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005162734A JP4199214B2 (en) | 2005-06-02 | 2005-06-02 | Movie generation device, movie generation method, movie generation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006338365A true JP2006338365A (en) | 2006-12-14 |
JP4199214B2 JP4199214B2 (en) | 2008-12-17 |
Family
ID=37558870
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005162734A Active JP4199214B2 (en) | 2005-06-02 | 2005-06-02 | Movie generation device, movie generation method, movie generation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4199214B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009295129A (en) * | 2008-06-09 | 2009-12-17 | Nippon Telegr & Teleph Corp <Ntt> | Animation method, device, and program for still image |
JP2009295128A (en) * | 2008-06-09 | 2009-12-17 | Nippon Telegr & Teleph Corp <Ntt> | Grid point model deforming/moving method, device, and program |
JP2011181090A (en) * | 2011-04-28 | 2011-09-15 | Nippon Telegr & Teleph Corp <Ntt> | Method, device and program for animation of still image |
KR101495082B1 (en) * | 2011-06-29 | 2015-02-24 | 삼성메디슨 주식회사 | Method and apparatus for myocardial motion tracking based on variational framework combining optical flow and global deformation constraint |
CN111667502A (en) * | 2020-05-06 | 2020-09-15 | 北京理工大学 | Method and device for generating high-speed video according to single motion blurred image |
JP2021526698A (en) * | 2019-03-22 | 2021-10-07 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | Image generation methods and devices, electronic devices, and storage media |
-
2005
- 2005-06-02 JP JP2005162734A patent/JP4199214B2/en active Active
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009295129A (en) * | 2008-06-09 | 2009-12-17 | Nippon Telegr & Teleph Corp <Ntt> | Animation method, device, and program for still image |
JP2009295128A (en) * | 2008-06-09 | 2009-12-17 | Nippon Telegr & Teleph Corp <Ntt> | Grid point model deforming/moving method, device, and program |
JP4702811B2 (en) * | 2008-06-09 | 2011-06-15 | 日本電信電話株式会社 | Lattice point model deformation / movement method, apparatus and program |
JP2011181090A (en) * | 2011-04-28 | 2011-09-15 | Nippon Telegr & Teleph Corp <Ntt> | Method, device and program for animation of still image |
KR101495082B1 (en) * | 2011-06-29 | 2015-02-24 | 삼성메디슨 주식회사 | Method and apparatus for myocardial motion tracking based on variational framework combining optical flow and global deformation constraint |
JP2021526698A (en) * | 2019-03-22 | 2021-10-07 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | Image generation methods and devices, electronic devices, and storage media |
JP7106687B2 (en) | 2019-03-22 | 2022-07-26 | ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド | Image generation method and device, electronic device, and storage medium |
CN111667502A (en) * | 2020-05-06 | 2020-09-15 | 北京理工大学 | Method and device for generating high-speed video according to single motion blurred image |
CN111667502B (en) * | 2020-05-06 | 2023-08-25 | 北京理工大学 | Method and device for generating high-speed video according to single motion blurred image |
Also Published As
Publication number | Publication date |
---|---|
JP4199214B2 (en) | 2008-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jiang et al. | Self-supervised relative depth learning for urban scene understanding | |
Chaudhuri et al. | Joint face detection and facial motion retargeting for multiple faces | |
WO2019081623A1 (en) | Auto-regressive neural network systems with a soft attention mechanism using support data patches | |
Qian et al. | Deep magnification-flexible upsampling over 3d point clouds | |
JP2021506017A (en) | Object detector and object detection method | |
JP4199214B2 (en) | Movie generation device, movie generation method, movie generation program | |
JP2006260527A (en) | Image matching method and image interpolation method using same | |
US11354774B2 (en) | Facial model mapping with a neural network trained on varying levels of detail of facial scans | |
CN111259779A (en) | Video motion detection method based on central point trajectory prediction | |
JP2023109570A (en) | Information processing device, learning device, image recognition device, information processing method, learning method, and image recognition method | |
Wan et al. | Boosting image-based localization via randomly geometric data augmentation | |
Kant | Learning gaussian maps for dense object detection | |
JP4353957B2 (en) | Image generation method, image generation apparatus, and image generation program | |
Zheng et al. | Pose flow learning from person images for pose guided synthesis | |
CN114241052B (en) | Method and system for generating new view image of multi-object scene based on layout | |
WO2023086398A1 (en) | 3d rendering networks based on refractive neural radiance fields | |
JP6892557B2 (en) | Learning device, image generator, learning method, image generation method and program | |
JP6967150B2 (en) | Learning device, image generator, learning method, image generation method and program | |
JP4369951B2 (en) | Image generation method, image generation apparatus, and image generation program | |
Berlier et al. | Augmenting simulation data with sensor effects for improved domain transfer | |
Zhou et al. | Learning a deep motion interpolation network for human skeleton animations | |
Larey et al. | Facial Expression Retargeting from a Single Character | |
CN117593702B (en) | Remote monitoring method, device, equipment and storage medium | |
US20230177722A1 (en) | Apparatus and method with object posture estimating | |
Ghadekar et al. | Video Regeneration Using Image Diffusion Model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080422 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080604 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080701 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080916 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081002 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111010 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4199214 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121010 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131010 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |