JP2006338365A - Moving image generation device, moving image generation method and moving image generation program - Google Patents

Moving image generation device, moving image generation method and moving image generation program Download PDF

Info

Publication number
JP2006338365A
JP2006338365A JP2005162734A JP2005162734A JP2006338365A JP 2006338365 A JP2006338365 A JP 2006338365A JP 2005162734 A JP2005162734 A JP 2005162734A JP 2005162734 A JP2005162734 A JP 2005162734A JP 2006338365 A JP2006338365 A JP 2006338365A
Authority
JP
Japan
Prior art keywords
image
field information
input
time
velocity field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005162734A
Other languages
Japanese (ja)
Other versions
JP4199214B2 (en
Inventor
Hidetomo Sakaino
英朋 境野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2005162734A priority Critical patent/JP4199214B2/en
Publication of JP2006338365A publication Critical patent/JP2006338365A/en
Application granted granted Critical
Publication of JP4199214B2 publication Critical patent/JP4199214B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To generate a moving image with a feeling of reality from one image, and to prevent quality deterioration due to numerical error diffusion when using a partial differential equation having advective terms for the generation of a moving image. <P>SOLUTION: A time-series image and velocity field information acquired by using the image are stored in association with each other in a storage device 17, and when the moving image is generated from the image inputted by an input part 11, a time-series image similar to an inputted image is retrieved by a velocity field retrieving part 14, and the velocity field information corresponding to the similar image is substituted in the partial differential equation having time terms or advective terms, and the partial differential equation is processed by using the speed field information suitable for the inputted image, and the moving image with a feeling of reality is generated by a moving image generation part 15. Also, any numerical error is suppressed by solving the partial differential equation by applying a discrete solution by a CIP method. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、1枚の画像などの限られた映像素材に基づいて時系列画像を生成する技術に関する。   The present invention relates to a technique for generating a time-series image based on a limited video material such as one image.

近年、ディジタル映像や画像に様々な表現降下を与え、新しい画像を生成する技術が急増している。例えば、写真画像に対する画質改善が代表的である。しかし、画像に動きを与える手法については、2枚の画像からその中間画像を生成するモーフィングと呼ばれる手法があるが、1枚の画像から動画を生成する技術については、ワーピング法と特許文献1に記載のものが中心で、それ以外の手法については殆ど知られていない。   In recent years, there has been a rapid increase in technology for generating various new images by giving various expressions to digital images and images. For example, image quality improvement for photographic images is typical. However, there is a technique called morphing for generating an intermediate image from two images as a method for giving motion to an image. For a technique for generating a moving image from one image, the warping method and Patent Document 1 Most are described, and little is known about other methods.

ワーピング法は、連続的な変化を画像に与えようとする場合、画像の各フレーム間で単純な線形補間を行う。これは、映像製作者が1枚の画像について多くの時間を費やして試行錯誤を繰り返すことで、少しずつ動きを作るものである。しかし、一般利用者にとっては試行錯誤を行う時間をとることはできず、映像製作業者においても、画像と画像の間の微妙な動き量とバランスを視覚的に調整する必要があり、生産効率が低いという問題がある。   The warping method performs simple linear interpolation between each frame of an image when trying to give a continuous change to the image. This is because the video producer spends a lot of time on one image and repeats trial and error to make a little movement. However, for general users, it is not possible to take time for trial and error, and it is also necessary for video producers to visually adjust the amount and balance of subtle movements between images. There is a problem that it is low.

一方、特許文献1の技術は、時間項と速度場ベクトルを用いた移流項とを有する偏微分方程式(以下、適宜「移流方程式」という)を適用し、1枚の画像に対して任意の時刻における画像を順次作成する。偏微分方程式式は、有限差分法により離散化され、計算される。   On the other hand, the technique of Patent Document 1 applies a partial differential equation (hereinafter, referred to as “advection equation” as appropriate) having a time term and an advection term using a velocity field vector, and arbitrary time for one image. The images in are sequentially created. The partial differential equation is discretized by the finite difference method and calculated.

ワーピング法がフレーム間で1画素対1画素の対応で次フレームの画像を生成するものであり数学的な表現に留まっているのに対し、移流方程式はフレーム間で複数の画素対1画素の対応で画像を生成するものであり、次フレームにおける各画素に対して近傍画素の情報が次々に反映する物理表現が含まれている。なお、本願に関連する技術文献としては以下のものがある。
特開2004−334694号公報 B.K.P.Horn and B.G.Schunck, "Determining Optical Flow",Artifical Intelligence, vol. 17, no.1, pp.185-203, 1981. 田村秀行監修、日本工業技術センター編、”コンピュータ画像処理入門”、総研出版 上坂吉則、尾関和彦、”パターン認識と学習のアルゴリズム”、文一総合出版 長尾智晴、”最適化アルゴリズム”、昭晃堂 H.K.Lee and J.H.Kim, "An HMM-based threshold model approach for gesture recognition", IEEE Trans. PAMI, vol.21, no. 10, pp.961-973, 1999. 中川徹、小柳義夫、”最小二乗法による実験データ解析”、東京大学出版会、1995. 池田駿介、”流体の非線形現象−数理解析とその応用−”、朝倉書店 T.Yabe and T.Aoki, "A universal solver for hyperbolic equations by cubic-polynomial interpolation l. One-dimensional solver", Computer Physics Communications 66, North-Holland, pp.219-232, 1991.
While the warping method generates the image of the next frame with a one-to-one correspondence between frames, it remains a mathematical expression, whereas the advection equation corresponds to a plurality of pixels to one pixel between frames. An image is generated by the method, and a physical expression in which information of neighboring pixels is successively reflected for each pixel in the next frame is included. In addition, there are the following as technical documents related to the present application.
JP 2004-334694 A BKPHorn and BGSchunck, "Determining Optical Flow", Artifical Intelligence, vol. 17, no.1, pp.185-203, 1981. Supervised by Hideyuki Tamura, edited by Japan Industrial Technology Center, “Introduction to Computer Image Processing”, Soken Publishing Yoshinori Uesaka, Kazuhiko Ozeki, “Pattern Recognition and Learning Algorithm”, Bunichi General Publishing Tomoharu Nagao, “Optimization Algorithm”, Shosodo HKLee and JHKim, "An HMM-based threshold model approach for gesture recognition", IEEE Trans. PAMI, vol.21, no. 10, pp.961-973, 1999. Toru Nakagawa and Yoshio Koyanagi, “Experimental Data Analysis by Least Squares Method”, University of Tokyo Press, 1995. Keisuke Ikeda, “Nonlinear phenomena in fluids: Mathematical analysis and applications”, Asakura Shoten T. Yabe and T. Aoki, "A universal solver for hyperbolic equations by cubic-polynomial interpolation l. One-dimensional solver", Computer Physics Communications 66, North-Holland, pp. 219-232, 1991.

しかしながら、特許文献1では、木や水面といった複雑でリアルな動きをするオブジェクトの画像について、実在感のある動きを与えることについては何ら考慮されていない。   However, in Patent Document 1, no consideration is given to giving a realistic motion to an image of an object that moves in a complicated and realistic manner, such as a tree or a water surface.

また、移流方程式を用いる場合には、1枚の画像から次フレーム以降の複数の画像を生成するために再帰的に繰り返し計算を行うことになるが、数値誤差拡散の影響により画像がぼやけたり、不安定減少により振動状の模様が発生するという問題がある。これは、特に高速化を図るときに必ず生じる。   In addition, when using the advection equation, repetitive calculation is performed recursively to generate a plurality of images from the next frame on from one image, but the image may be blurred due to the influence of numerical error diffusion, There is a problem that a vibration-like pattern occurs due to the instability reduction. This always occurs especially when speeding up.

本発明は、上記に鑑みてなされたものであり、その課題とするところは、1枚の画像から実在感のある動画を生成可能にすることにある。   The present invention has been made in view of the above, and an object thereof is to make it possible to generate a moving image with a sense of reality from a single image.

本発明の別の目的は、移流方程式を用いた場合の数値誤差拡散による画質劣化を防止することにある。   Another object of the present invention is to prevent image quality degradation due to numerical error diffusion when using the advection equation.

第1の本発明に係る動画生成装置は、時系列の画像と当該画像を用いて得られた速度場情報とを対応付けて記憶しておく記憶手段と、画像の入力を受け付ける入力手段と、入力された画像に類似する画像を前記記憶手段から検索し、検索された画像に対応する速度場情報を前記記憶手段から読み出す検索手段と、入力された画像および読み出された速度場情報を、時間項および移流項を有する偏微分方程式の移流項に代入し処理することで動画を生成する生成手段と、を有することを特徴とする。   A moving image generating apparatus according to a first aspect of the present invention includes a storage unit that stores a time-series image and velocity field information obtained using the image in association with each other, an input unit that receives an input of the image, An image similar to the input image is searched from the storage means, a search means for reading out speed field information corresponding to the searched image from the storage means, an input image and the read speed field information, And generating means for generating a moving image by substituting and processing the advection term of the partial differential equation having a time term and an advection term.

本発明にあっては、時系列画像とその画像を用いて得られた速度場情報とを対応付けて記憶しておき、入力された画像から動画を生成する際に、入力された画像に類似する画像を検索し、この類似の画像に対応する速度場情報を時間項および移流項を有する偏微分方程式の移流項に代入し処理することで、入力された画像に適した速度場情報を用いて偏微分方程式が処理されるので、入力された画像に適した動画の生成が可能となる。なお、記憶手段は、例えば磁気記憶装置、光ディスク装置、メモリ等に相当する。   In the present invention, a time-series image and velocity field information obtained using the image are stored in association with each other, and similar to the input image when generating a moving image from the input image. By using the velocity field information that is suitable for the input image, the velocity field information corresponding to the similar image is substituted into the advection term of the partial differential equation having the time term and the advection term and processed. Since the partial differential equation is processed, a moving image suitable for the input image can be generated. The storage means corresponds to, for example, a magnetic storage device, an optical disk device, a memory, or the like.

ここで、前記移流項は、速度成分と画像強度の空間1次微分との積で表されるものとし、前記速度場情報を当該速度成分に入力することが、動画生成の精度を確保するうえで望ましい。   Here, the advection term is represented by a product of a velocity component and a spatial first derivative of the image intensity, and inputting the velocity field information to the velocity component ensures the accuracy of moving image generation. Is desirable.

また、前記検索手段は、入力された画像と時系列の画像との類似度を相関関数を用いて計算し、当該類似度に基づいて類似の画像を検索することが、類似画像の検索精度を確保するうえで望ましい。   Further, the search means calculates the similarity between the input image and the time-series image using a correlation function, and searching for a similar image based on the similarity determines the search accuracy of the similar image. Desirable to secure.

上記動画生成装置は、前記記憶手段から時系列の画像を読み出し、当該画像にオプティカルフロー法を適用して速度場情報を検出し、当該速度場情報を時系列の画像に対応付けて記憶手段に記憶させる速度場検出手段を有することを特徴とする。   The moving image generation apparatus reads a time-series image from the storage unit, detects speed field information by applying an optical flow method to the image, and associates the speed field information with the time-series image in the storage unit. It has a velocity field detection means for memorizing.

本発明にあっては、時系列画像にオプティカルフロー法を適用して検出した速度場情報を、入力された画像の動画を生成する際の速度場情報として利用することで、動きが単純な動画を容易に生成することが可能となる。   In the present invention, a moving image with simple motion is obtained by using the velocity field information detected by applying the optical flow method to the time-series image as velocity field information when generating the moving image of the input image. Can be easily generated.

上記動画生成装置は、前記記憶手段から時系列の画像およびこれに対応する速度場情報を読み出し、これらを画像と係数の入力に対して速度場情報を出力する入出力関数に代入して係数を学習し、時系列の画像と当該係数とを対応付けて記憶手段に記憶させ、前記検索手段により検索された類似の画像に対応する係数を記憶手段から読み出し、前記入力された画像および読み出された係数を前記入出力関数に代入し速度場情報を算出して記憶手段に記憶させる学習手段を有し、前記検索手段は、前記学習手段により算出された速度場情報を当該記憶手段から読み出すことを特徴とする。   The moving image generating apparatus reads a time-series image and corresponding velocity field information from the storage means, and substitutes these into an input / output function that outputs velocity field information in response to an image and a coefficient input. Learning, storing the time-series image and the coefficient in association in the storage unit, reading out the coefficient corresponding to the similar image searched by the search unit from the storage unit, and reading out the input image and the input image Learning means for substituting the calculated coefficient into the input / output function to calculate speed field information and store it in the storage means, and the search means reads the speed field information calculated by the learning means from the storage means It is characterized by.

本発明にあっては、時系列画像と速度場情報を、画像と係数の入力に対して速度場情報を出力する入出力関数にそれぞれ代入して係数を学習し、入力された画像とこの係数を入出力関数に代入することにより、入力された画像についてより適切な速度場情報を算出し、この速度場情報を偏微分方程式の移流項に代入して動画を生成することで、動きが複雑な対象物の画像についても適切な動画を生成することが可能となる。   In the present invention, the time series image and the velocity field information are respectively substituted into an input / output function that outputs velocity field information with respect to the input of the image and the coefficient, and the coefficient is learned. By substituting into the input / output function, more appropriate velocity field information is calculated for the input image, and this velocity field information is substituted into the advection term of the partial differential equation to generate a moving image. Appropriate moving images can be generated for images of various objects.

上記動画生成装置において、前記動画生成手段は、前記偏微分方程式をCIP法による離散解法を適用して解くことを特徴とする。   In the moving image generating apparatus, the moving image generating means solves the partial differential equation by applying a discrete solution method using a CIP method.

本発明にあっては、CIP法による離散解法を適用して偏微分方程式を解くことで、3次補間関数により隣接する画素がもつ値が補間されるので、数値誤差の抑制が可能となる。   In the present invention, by solving the partial differential equation by applying the discrete solution method by the CIP method, the value of the adjacent pixel is interpolated by the cubic interpolation function, so that the numerical error can be suppressed.

第2の本発明に係る動画生成方法は、時系列の画像と当該画像を用いて得られた速度場情報とを対応付けて記憶手段に記憶しておくステップと、入力手段により画像の入力を受け付けるステップと、検索手段により、入力された画像に類似する画像を前記記憶手段から検索し、検索された画像に対応する速度場情報を前記記憶手段から読み出すステップと、生成手段により、入力された画像および読み出された速度場情報を、時間項および移流項を有する偏微分方程式の移流項に代入し処理することで動画を生成するステップと、を有することを特徴とする。   In the moving image generating method according to the second aspect of the present invention, a time series image and speed field information obtained using the image are associated with each other and stored in a storage unit, and an input unit inputs an image. A step of receiving, a step of searching the storage unit for an image similar to the input image by the search unit, a step of reading speed field information corresponding to the searched image from the storage unit, and a step of inputting by the generation unit Generating a moving image by substituting and processing the image and the read velocity field information into the advection term of a partial differential equation having a time term and an advection term.

第3の本発明に係る動画生成プログラムは、時系列の画像と当該画像を用いて得られた速度場情報とを対応付けて記憶手段に記憶させておく処理と、画像の入力を受け付ける入力処理と、入力された画像に類似する画像を前記記憶手段から検索し、検索された画像に対応する速度場情報を前記記憶手段から読み出す検索処理と、入力された画像および読み出された速度場情報を、時間項および移流項を有する偏微分方程式の移流項に代入し処理することで動画を生成する生成処理と、をコンピュータに実行させることを特徴とする。   A moving image generating program according to a third aspect of the present invention includes a process for storing a time-series image and speed field information obtained using the image in association with each other in a storage unit, and an input process for receiving an input of the image A search process for retrieving an image similar to the input image from the storage unit, and retrieving speed field information corresponding to the retrieved image from the storage unit, the input image and the read speed field information And a generation process for generating a moving image by performing processing by substituting into the advection term of the partial differential equation having a time term and an advection term.

本発明によれば、入力された1枚の画像について実在感のある動画を生成することができる。また、数値誤差拡散による画質劣化を防止することができる。   According to the present invention, it is possible to generate a moving image with a sense of reality with respect to one input image. Further, image quality deterioration due to numerical error diffusion can be prevented.

図1は、一実施の形態における動画生成装置の構成を示すブロック図である。同図の動画生成装置1は、入力部11、速度場検出部12、速度場学習部13、速度場検索部14、動画生成部15、表示部16、記憶装置17を有する構成である。動画生成装置1は、演算処理装置、記憶装置、メモリ等を備えたコンピュータで構成され、各部の処理はプログラムによって実行される。このプログラムは記憶装置17に記憶されており、演算処理装置が読み出して実行する。   FIG. 1 is a block diagram illustrating a configuration of a moving image generating apparatus according to an embodiment. The moving image generating apparatus 1 shown in FIG. 1 includes an input unit 11, a speed field detecting unit 12, a speed field learning unit 13, a speed field searching unit 14, a moving image generating unit 15, a display unit 16, and a storage device 17. The moving image generating apparatus 1 is configured by a computer including an arithmetic processing device, a storage device, a memory, and the like, and the processing of each unit is executed by a program. This program is stored in the storage device 17 and is read out and executed by the arithmetic processing unit.

本動画生成装置1は、その特徴として、入力部11により入力された1枚の画像に対して、動画生成部15において時間項・移流項を有する偏微分方程式を処理することにより動画を生成する際に、移流項における速度成分として、速度場検出部12により別の時系列画像を用いて予め検出しておいた速度場情報あるいは速度場学習部13により別の時系列画像等を用いて学習した速度場情報のうち、その1枚の画像に類似する時系列画像に対応する速度場情報を用いることで、実在感のある動画を生成するものである。以下、各部での処理について詳細に説明する。   The moving image generating apparatus 1 generates a moving image by processing a partial differential equation having a time term and an advection term in the moving image generating unit 15 for one image input by the input unit 11 as a feature thereof. In this case, as the velocity component in the advection term, learning is performed using velocity field information previously detected by the velocity field detector 12 using another time-series image or another time-series image by the velocity field learning unit 13. By using the speed field information corresponding to the time-series image similar to the one image among the speed field information, a moving image with a sense of reality is generated. Hereinafter, processing in each unit will be described in detail.

入力部11は、時系列画像をカメラやデータベースから受け取って記憶装置17に記憶させる。また、動画生成対象の1枚の画像の入力を受け付けて記憶装置17に記憶させる。   The input unit 11 receives time-series images from a camera or a database and stores them in the storage device 17. Further, the input of one image to be generated as a moving image is received and stored in the storage device 17.

速度場検出部12は、記憶装置17から時系列画像を読み出し、この画像にオプティカルフロー法(非特許文献1参照)を適用して速度場情報を検出し、この速度場情報をその時系列画像に対応付けて記憶装置17に記憶させる。具体的には、速度場検出部12は、図2に示すように、2枚の画像を比較することで移動対象物の動きの大きさと方向を示す速度ベクトルを速度場情報として検出する。同図(a)は例えば時刻nにおける波の画像、同図(b)は時刻n+1における波の画像、同図(c)は(a)と(b)の画像を用いて得られる速度場情報を画像により示す図であり、矢印はその画素点での動きの大きさと方向を表している。また、別の例としては、図3に示すように、同図(a)の小さい星の画像と同図(b)の大きい星の画像を比較することで、同図(c)に示す星の形状の変化を示す速度場ベクトルを検出する。オプティカルフロー法は、動きが比較的単純な移動対象物について速度場情報を検出するのに適している。   The speed field detection unit 12 reads a time series image from the storage device 17, applies an optical flow method (see Non-Patent Document 1) to the image to detect speed field information, and converts the speed field information into the time series image. The data are stored in the storage device 17 in association with each other. Specifically, as shown in FIG. 2, the speed field detection unit 12 detects a speed vector indicating the magnitude and direction of the movement of the moving object as speed field information by comparing two images. For example, FIG. 4A shows a wave image at time n, FIG. 4B shows a wave image at time n + 1, and FIG. 4C shows velocity field information obtained using the images of FIGS. Is indicated by an image, and arrows indicate the magnitude and direction of movement at the pixel point. As another example, as shown in FIG. 3, by comparing the image of a small star in FIG. 3A with the image of a large star in FIG. A velocity field vector indicating a change in the shape of is detected. The optical flow method is suitable for detecting velocity field information for a moving object that moves relatively simply.

速度場検索部14は、入力部11により動画生成対象の1枚の画像が入力された場合に、この画像に類似する時系列画像を記憶装置17から検索し、検索された類似の画像に対応する速度場情報を記憶装置17から読み出す。具体的には、入力された画像と時系列画像との類似度を相関関数を用いて計算し、この類似度に基づいて画像を検索する。例えば、類似度が最も高い画像を検索するようにする。この相関関数には、例えば非特許文献2の第150頁の式(5.34)に記載の正規化相関関数を用いる。この式は次のように示されている。

Figure 2006338365
The speed field search unit 14 searches the storage device 17 for a time-series image similar to this image when the input unit 11 inputs one image to be generated as a moving image, and corresponds to the searched similar image. The speed field information to be read is read from the storage device 17. Specifically, the similarity between the input image and the time-series image is calculated using a correlation function, and an image is searched based on this similarity. For example, an image with the highest similarity is searched. For this correlation function, for example, the normalized correlation function described in Equation (5.34) on page 150 of Non-Patent Document 2 is used. This equation is shown as follows.
Figure 2006338365

本実施の形態においては、fは入力された画像、tは時系列画像とし、出力m(u,v)においてはu=v=0とする。出力m(0,0)は、0〜1の範囲で類似度を表し、0のとき全く似ていないことを示し、1のとき一致することを示す。通常は、閾値を設定し、例えばm(0,0)>0.8のとき類似していると判断する。 In this embodiment, f is an input image, t is a time-series image, and u = v = 0 in the output m * (u, v). The output m * (0,0) represents the degree of similarity in the range of 0 to 1. When it is 0, it indicates that it is not similar at all, and when it is 1, it indicates that it matches. Usually, a threshold value is set, and for example, when m * (0,0)> 0.8, it is determined that they are similar.

速度場検索部14は、この相関関数を用いて類似度を計算する際に、図4に示すように、入力された画像400と時系列画像410をそれぞれ複数のサブブロックに分割する。同図では一例として各画像を4つに分割した状態を示す。そして、入力された画像400の1つのサブブロックについて、時系列画像410における全てのサブブロックとの類似度を求め、最も類似度が高い時系列画像を1つ検索する。続いて、この検索された類似の画像に対応する速度場情報420を記憶装置17から読み出して、動画生成部15へ送る。   When calculating the similarity using the correlation function, the speed field search unit 14 divides the input image 400 and the time-series image 410 into a plurality of sub-blocks, as shown in FIG. In the figure, as an example, each image is divided into four parts. Then, with respect to one sub-block of the input image 400, the similarity with all the sub-blocks in the time-series image 410 is obtained, and one time-series image with the highest similarity is searched. Subsequently, the speed field information 420 corresponding to the searched similar image is read from the storage device 17 and sent to the moving image generation unit 15.

速度場学習部13は、時系列画像とこれにオプティカルフロー法を適用して求めた速度場情報とを記憶装置17から読み出し、ニューラルネット(非特許文献3,4参照)等を適用して更に精度の高い速度場情報を求め、記憶装置17に記憶させる。ニューラルネットを適用するときの具体的な処理は次のようになる。   The speed field learning unit 13 reads the time series image and the speed field information obtained by applying the optical flow method to the time series image from the storage device 17, and further applies a neural network (see Non-Patent Documents 3 and 4) or the like. Accurate speed field information is obtained and stored in the storage device 17. Specific processing when applying the neural network is as follows.

ここでは、非特許文献4の第105頁に記載の式(8.1)を用いる。この式は次のように示されている。

Figure 2006338365
Here, Formula (8.1) described on page 105 of Non-Patent Document 4 is used. This equation is shown as follows.
Figure 2006338365

ここで、nは画素数、θは所定の閾値である。本実施の形態においては、関数f(x)は、画像Oと重み結合係数wの入力に対して速度場情報yを出力する入出力関数である。入出力関数f(x)には、例えば非特許文献4の式(8.7)に示されるような次式のシグモイド関数が用いられる。

Figure 2006338365
Here, n is the number of pixels, and θ is a predetermined threshold value. In the present embodiment, the function f (x) is an input / output function that outputs velocity field information y with respect to the input of the image O and the weight coupling coefficient w. For the input / output function f (x), for example, a sigmoid function of the following equation as shown in Equation (8.7) of Non-Patent Document 4 is used.
Figure 2006338365

速度場学習部13は、式(2)のOに時系列画像を代入するとともに、yにオプティカルフロー法で求めた速度場情報を代入する。この速度場情報としては、例えば図5に示すような、画像Oと同じ画素数をもつ2次元画像として表現できるものを用いる。そして、非特許文献4にも記載があるように、式(2)に対して例えば最急降下法を用いて一定の収束条件を満たすまで処理を繰り返すことで、重み結合係数wを決定する。これを学習過程という。学習で得られた重み結合係数wは記憶装置17に記憶させておく。   The velocity field learning unit 13 substitutes the time-series image for O in Equation (2), and substitutes velocity field information obtained by the optical flow method for y. As this velocity field information, for example, information that can be expressed as a two-dimensional image having the same number of pixels as the image O as shown in FIG. 5 is used. Then, as described in Non-Patent Document 4, the weight coupling coefficient w is determined by repeating the process until a certain convergence condition is satisfied using, for example, the steepest descent method for Expression (2). This is called the learning process. The weight coupling coefficient w obtained by learning is stored in the storage device 17.

そして、入力部11により動画生成対象の1枚の画像が入力され、速度場検索部14により、この画像に類似する時系列画像が記憶装置17から検索されたときに、速度場学習部13は、この検索された類似の画像に対応する重み結合係数wを記憶装置17から読み出し、式(2)に対して、入力された画像をOに、読み出された重み結合係数をwにそれぞれ代入して、入力された画像に適した速度場情報yを算出し、記憶装置17に記憶させる。速度場検索部14は、この速度場情報yを記憶装置17から読み出して、動画生成部15へ送る。   Then, when one image that is a moving image generation target is input by the input unit 11 and a time series image similar to this image is searched from the storage device 17 by the speed field search unit 14, the speed field learning unit 13 Then, the weighted coupling coefficient w corresponding to the searched similar image is read from the storage device 17, and the input image is substituted for O and the read weighted coupling coefficient is substituted for w for the expression (2). Then, velocity field information y suitable for the input image is calculated and stored in the storage device 17. The speed field search unit 14 reads the speed field information y from the storage device 17 and sends it to the moving image generation unit 15.

なお、速度場学習部13では、係数の学習手法としてニューラルネットのほか、HMM法(Hidden Markov Model、非特許文献5参照)や最小二乗法(非特許文献6参照)を適用してもよい。HMM法では、推移行列の要素が係数に相当する。最小二乗法では、時系列画像と係数の入力に対して速度場情報を出力する線形和結合モデルをつくり、この係数を最小二乗法により求める。それぞれの手法により用いた係数の利用の仕方は、上記で説明したニューラルネットにおける重み結合係数と同様である。   The velocity field learning unit 13 may apply the HMM method (Hidden Markov Model, see Non-Patent Document 5) or the least square method (see Non-Patent Document 6) in addition to the neural network as a coefficient learning method. In the HMM method, elements of the transition matrix correspond to coefficients. In the least square method, a linear sum combination model that outputs velocity field information with respect to a time-series image and a coefficient input is created, and the coefficient is obtained by the least square method. The method of using the coefficient used by each method is the same as the weight coupling coefficient in the neural network described above.

動画生成部15は、入力された画像と、記憶装置17から読み出された速度場情報とを時間項・移流項を有する偏微分方程式に代入して動画を生成する。ここで用いる速度場情報は、速度場検出部12あるいは速度場学習部13により求められたものであって、入力された画像に類似する時系列画像に対応した速度場情報である。速度場検出部12と速度場学習部13のいずれにより求められた速度場情報を用いるかは、入力された画像に基づいて判断する。例えば、入力された画像の動きが簡単な場合には速度場検出部12によるものを利用し、入力された画像の動きが複雑な場合には速度場学習部13によるものを利用する。   The moving image generating unit 15 generates a moving image by substituting the input image and the velocity field information read from the storage device 17 into a partial differential equation having a time term and an advection term. The velocity field information used here is obtained by the velocity field detection unit 12 or the velocity field learning unit 13, and is velocity field information corresponding to a time-series image similar to the input image. Whether the velocity field information obtained by the velocity field detector 12 or the velocity field learning unit 13 is used is determined based on the input image. For example, when the motion of the input image is simple, the speed field detecting unit 12 is used, and when the input image is complicated, the speed field learning unit 13 is used.

時間項・移流項を有する偏微分方程式は次式で表される(非特許文献7参照)。

Figure 2006338365
A partial differential equation having a time term and an advection term is expressed by the following equation (see Non-Patent Document 7).
Figure 2006338365

ここでは、画素を(x,y)、離散化した時間をnとして、画像強度をI(x,y,n)と定義する。時間係数Δtはここでは1.0とする。Uは2次元速度場ベクトルであり速度場情報により与えられる。▽は1次の空間微分演算子、・はベクトル内積である。式(4)の左辺第1項は時間項、左辺第2項は移流項である。   Here, the image intensity is defined as I (x, y, n), where (x, y) is the pixel, n is the discretized time. Here, the time coefficient Δt is 1.0. U is a two-dimensional velocity field vector and is given by velocity field information. ▽ is a first-order spatial differential operator, and · is a vector dot product. The first term on the left side of Equation (4) is a time term, and the second term on the left side is an advection term.

本実施の形態では、上記の偏微分方程式をCIP法(Cubic Interpolation Profile、非特許文献8参照)による離散解法を適用して解く。ここでは、説明の便宜上、式(4)を次式のように1次元に置き換えて説明する。

Figure 2006338365
In the present embodiment, the above partial differential equation is solved by applying a discrete solution method by a CIP method (Cubic Interpolation Profile, see Non-Patent Document 8). Here, for convenience of explanation, the formula (4) will be described by replacing it with one dimension as the following formula.
Figure 2006338365

ここで、fは1次元量であり、画像強度に相当する。uは速度場ベクトルである。ある画素点iの画像強度をf、fの微分値をg=∂f/∂xと記す。ここで、2画素間の3次補間関数を次のように定義する。

Figure 2006338365
Here, f is a one-dimensional quantity and corresponds to the image intensity. u is a velocity field vector. The image intensity of a certain pixel point i f i, the differential value of f i described as g i = ∂f i / ∂x. Here, a cubic interpolation function between two pixels is defined as follows.
Figure 2006338365

(x)は[i−1,i]の間の関数とする。F(x)の値とその微分値を次のようにおく。

Figure 2006338365
Let F i (x) be a function between [i−1, i]. The value of F i (x) and its differential value are set as follows.
Figure 2006338365

上記の関係から次式を得る。

Figure 2006338365
From the above relationship, the following equation is obtained.
Figure 2006338365

時刻n+1での画像は、時刻nでの画像をu・Δtだけ移流させたものであることから次式を得る。

Figure 2006338365
The image at time n + 1 is obtained by advancing the image at time n by u · Δt, and the following equation is obtained.
Figure 2006338365

このようにして、CIP法により、時刻nにおける画像から時刻n+1における画像fn+1が得られる。 In this way, the image f n + 1 at the time n + 1 is obtained from the image at the time n by the CIP method.

次に、比較例として上記の偏微分方程式を差分法により求める場合の処理について説明する。ここでは、式(4)を次のように変形する。

Figure 2006338365
Next, a process for obtaining the partial differential equation by the difference method will be described as a comparative example. Here, equation (4) is modified as follows.
Figure 2006338365

計算手法は、式(17)を差分法により離散化し、2次元画像面および離散時間軸に沿って再帰的に計算を繰り返す。画像強度Iの初期値は、入力部11に入力された1枚の画像とする。所定の時間に相当する分だけ繰り返し計算することで、必要なだけ移動させた画像が得られる。   In the calculation method, Equation (17) is discretized by the difference method, and the calculation is recursively repeated along the two-dimensional image plane and the discrete time axis. The initial value of the image intensity I is one image input to the input unit 11. By repeating the calculation corresponding to the predetermined time, an image moved as much as necessary can be obtained.

表示部16は、動画化された画像を各種の手法により表示する。図6は、学習によって得られた速度場情報を用いて1枚の木の画像を動画化した例を示す図であり、図7は、学習によって得られた速度場情報を用いて人の唇の画像を動画化した例を示す図である。図8は、学習によって得られた速度場情報を用いて波の画像を動画化した例を示す図である。   The display unit 16 displays the animated image by various methods. FIG. 6 is a diagram illustrating an example in which an image of a single tree is converted into an animation using speed field information obtained by learning, and FIG. 7 is a diagram illustrating a human lip using speed field information obtained by learning. It is a figure which shows the example which animated the image of no. FIG. 8 is a diagram illustrating an example in which a wave image is converted into a moving image using velocity field information obtained by learning.

それぞれの画像は、図6では別の木の時系列画像、図7では別の唇の時系列画像、図8では別の波の時系列画像を用いてそれぞれ予め係数を学習しておき、入力された画像に一番類似する画像に対応する係数を用いて得られた速度場ベクトルを適用したものである。ただし、対象物の移動の方向や大きさは様々にあることから、速度場ベクトルを線形アフィン変換し、入力された画像に応じて試行錯誤的にアフィン行列の要素を決定して反映させることが望ましい。   Each image has a coefficient learned in advance using a time-series image of another tree in FIG. 6, another time-series image of lips in FIG. 7, and another time-series image of waves in FIG. The velocity field vector obtained using the coefficient corresponding to the image most similar to the generated image is applied. However, since there are various directions and magnitudes of movement of the object, it is possible to linearly affine transform the velocity field vector and determine and reflect the affine matrix elements by trial and error according to the input image. desirable.

図9は、学習によって得られた風の速度場ベクトルを木900と雪910が表現された静止画に適用し、木900に揺らぎを与えつつ雪910が風により飛ばされる様子を動的に表現した例である。   FIG. 9 applies a wind velocity field vector obtained by learning to a still image in which the tree 900 and snow 910 are represented, and dynamically expresses how the snow 910 is blown by the wind while shaking the tree 900. This is an example.

次に、実施例のCIP法を適用したときの画質改善の効果について、比較例の差分法との比較により説明する。図10は、実施例による画像生成の様子を示す図であり、同図の破線は入力された元の画像のプロファイル、実線は理想的な生成画像のプロファイル、黒丸はCIP法により移流方程式を解いて生成した画像のプロファイルである。元の画像のプロファイルは矩形波と三角波を表現したものであり、移流方程式の速度成分には右方向へ移動する速度場ベクトルを与えた。矩形波は画像のエッジ部分の保存性を、三角波は最大値の保存性をそれぞれ調べるために用いた。図11は、比較例による画像生成の様子を示す図であり、同図の黒丸は差分法により移流方程式を解いて生成した画像のプロファイルである。同図の破線および実線は図10のものと同一である。差分法では、再帰的な演算を1000回行った時点の結果を示している。   Next, the effect of improving the image quality when the CIP method of the embodiment is applied will be described by comparison with the difference method of the comparative example. FIG. 10 is a diagram showing the state of image generation according to the embodiment. In FIG. 10, the broken line represents the input original image profile, the solid line represents the ideal generated image profile, and the black circle represents the advection equation by the CIP method. This is a profile of the generated image. The profile of the original image represents a rectangular wave and a triangular wave, and a velocity field vector that moves to the right is given to the velocity component of the advection equation. The square wave was used to examine the preservation of the edge portion of the image, and the triangular wave was used to examine the preservation of the maximum value. FIG. 11 is a diagram showing a state of image generation according to the comparative example, and a black circle in the same figure is an image profile generated by solving the advection equation by the difference method. The broken line and the solid line in the figure are the same as those in FIG. In the difference method, the result when the recursive calculation is performed 1000 times is shown.

図10と図11を比較すると、差分法では、図11の破線丸印中に示されるように、誤差拡散によって矩形波のエッジ部分に乱れが生じている。これに対し、CIP法では、図10の破線丸印中に示されるように、そのような乱れは生じておらず、初期のプロファイルをほぼそのまま維持した状態で各波形が移動していることが確認された。これは、CIP法は画像の不自然な乱れを抑制できる効果が高いことを示している。   Comparing FIG. 10 and FIG. 11, in the difference method, as shown in the broken-line circle in FIG. 11, the edge portion of the rectangular wave is disturbed by error diffusion. On the other hand, in the CIP method, as shown in the dotted circle in FIG. 10, such disturbance does not occur, and each waveform moves while maintaining the initial profile almost as it is. confirmed. This indicates that the CIP method is highly effective in suppressing unnatural disturbance of the image.

図12は、本動画生成装置1をグラフィカル・ユーザ・インタフェース(GUI:Graphical User Interface)に適用した場合に表示部16が表示する画面の例である。同図に示すように、表示部16は、木210と星220が表現された画像200、星を示すアイコン230、太陽を示すアイコン240、光の放射を示すアイコン250をそれぞれ表示する。アイコン230は、星220に類似する画像を用いて得られた星の移動を示す速度場情報に対応しており、アイコン240は太陽の動きを示す速度場情報に、アイコン250は星220に類似する画像を用いて得られた光放射の動きを示す速度場情報にそれぞれ対応している。ユーザがマウスを用いて画面内の星220を指定した上でアイコン230を指定すると、本動画生成装置1は、アイコン230に対応する速度場情報を記憶装置から読み出して移流方程式に代入し、星220の移動を示す動画を生成して画面に表示する。また、ユーザがマウスを用いて画面内の星220を指定した上でアイコン250を指定した場合には、アイコン250に対応する速度場情報を記憶装置から読み出して移流方程式に代入し、星220の光放射を示す動画を生成して画面に表示する。このように、1枚の画像に対し、関連する動きをメニューから選択して動画を生成することが可能となる。   FIG. 12 is an example of a screen displayed by the display unit 16 when the moving image generating apparatus 1 is applied to a graphical user interface (GUI). As shown in the figure, the display unit 16 displays an image 200 representing a tree 210 and a star 220, an icon 230 indicating a star, an icon 240 indicating the sun, and an icon 250 indicating light emission. The icon 230 corresponds to speed field information indicating the movement of the star obtained using an image similar to the star 220, the icon 240 is similar to the speed field information indicating the movement of the sun, and the icon 250 is similar to the star 220. Respectively corresponding to velocity field information indicating the movement of light radiation obtained using the image to be transmitted. When the user designates the star 220 in the screen using the mouse and designates the icon 230, the moving image generating apparatus 1 reads the velocity field information corresponding to the icon 230 from the storage device and substitutes it into the advection equation. A moving image showing the movement of 220 is generated and displayed on the screen. When the user designates the star 250 in the screen using the mouse and designates the icon 250, the velocity field information corresponding to the icon 250 is read from the storage device and substituted into the advection equation. A moving image showing light emission is generated and displayed on the screen. As described above, it is possible to generate a moving image by selecting a related movement from a menu for one image.

したがって、本実施の形態によれば、記憶装置17に時系列画像とその画像を用いて得られた速度場情報とを対応付けて記憶しておき、入力部11により入力された画像から動画を生成する際に、速度場検索部14により、入力された画像に類似する時系列画像を検索し、動画生成部15により、この類似の画像に対応する速度場情報を時間項および移流項を有する偏微分方程式の移流項に代入し処理することで、入力された画像に適した速度場情報を用いて偏微分方程式が処理されるので、実在感のある動画の生成が可能になる。   Therefore, according to the present embodiment, the time series image and the velocity field information obtained using the image are stored in the storage device 17 in association with each other, and a moving image is generated from the image input by the input unit 11. When generating, the speed field search unit 14 searches for a time-series image similar to the input image, and the moving image generation unit 15 has the time field and the advection term for the speed field information corresponding to the similar image. By substituting and processing the advection term of the partial differential equation, the partial differential equation is processed using velocity field information suitable for the input image, so that a moving image with a sense of reality can be generated.

本実施の形態によれば、速度場検出部12により時系列画像にオプティカルフロー法を適用して検出した速度場情報を、入力された画像の動画を生成する際の速度場情報として利用することで、動きが単純な動画を容易に生成することができる。   According to the present embodiment, the velocity field information detected by applying the optical flow method to the time-series image by the velocity field detection unit 12 is used as velocity field information when generating a moving image of the input image. Thus, a moving image with simple movement can be easily generated.

本実施の形態によれば、速度場学習部13により、時系列画像と速度場情報を、画像と係数の入力に対して速度場情報を出力する入出力関数にそれぞれ代入して係数を学習し、入力された画像とこの係数を入出力関数に代入することにより、入力された画像についてより適切な速度場情報を算出し、この速度場情報を偏微分方程式に代入して動画を生成することで、動きが複雑な対象物の画像についても適切な動画を生成することができる。   According to the present embodiment, the velocity field learning unit 13 learns the coefficient by substituting the time-series image and the velocity field information into the input / output function that outputs the velocity field information with respect to the input of the image and the coefficient. , By substituting the input image and this coefficient into the input / output function, calculate more appropriate velocity field information for the input image, and generate the video by substituting this velocity field information into the partial differential equation Thus, it is possible to generate an appropriate moving image even for an image of an object whose movement is complex.

本実施の形態によれば、動画生成部15により、CIP法による離散解法を適用して偏微分方程式を解くことで、3次補間関数により隣接する画素がもつ値が補間され、画素間での速度変化が大きくても画像強度が安定するので、数値誤差を抑制することができる。また、時間刻み幅を大きくとれるので、高速化を実現することができる。   According to the present embodiment, the moving image generation unit 15 applies the discrete solution method by the CIP method to solve the partial differential equation, and the values of the adjacent pixels are interpolated by the cubic interpolation function. Since the image intensity is stable even if the speed change is large, numerical errors can be suppressed. In addition, since the time interval can be increased, a high speed can be realized.

本実施の形態によれば、本動画生成装置1をGUIに適用することで、1枚の画像に対し、関連する動きをメニューから選択して動画を生成でき、初心者であっても実在感のある複雑な動きを示す動画を一枚の画像から短時間で生成することができ、動画生成の生産効率を向上させることができる。   According to the present embodiment, by applying the moving image generating apparatus 1 to the GUI, it is possible to generate a moving image by selecting a related motion from a menu for one image, and even a beginner can feel a sense of reality. A moving image showing a complicated movement can be generated from a single image in a short time, and the production efficiency of moving image generation can be improved.

なお、入力部11により入力する画像としては、実写画像のほか、様々な画像を用いることができ、例えばコンピュータグラフィックスにより生成した人工的な画像でもよい。   In addition, as an image input by the input unit 11, various images can be used in addition to a real image, for example, an artificial image generated by computer graphics may be used.

一実施の形態における動画生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image production | generation apparatus in one embodiment. 波の時系列画像にオプティカルフロー法を適用して速度場情報を求める様子を示す図であり、同図(a)は時刻nの画像、(b)は時刻n+1の画像、(c)は(a)と(b)の画像から得られる速度場情報としての速度ベクトルを示す。It is a figure which shows a mode that an optical flow method is applied to the time-sequential image of a wave, and the state which calculates | requires velocity field information, the figure (a) is an image of the time n, (b) is an image of the time n + 1, (c) is ( The velocity vector as velocity field information obtained from the images of a) and (b) is shown. 星型の画像にオプティカルフロー法を適用して速度場情報を求める様子を示す図であり、同図(a)は時刻nの星型画像、(b)は時刻n+1の星型画像、(c)は(a)と(b)の画像から得られる速度場情報としての速度ベクトルを示す。It is a figure which shows a mode that an optical flow method is applied to a star-shaped image, and a state is calculated | required, the same figure (a) is a star-shaped image of time n, (b) is a star-shaped image of time n + 1, (c ) Indicates a velocity vector as velocity field information obtained from the images (a) and (b). 入力された画像に対して類似する画像を検索し、検索された類似の画像に対応する速度場情報を読み出す処理を説明するための図である。It is a figure for demonstrating the process which searches the image similar to the input image, and reads the speed field information corresponding to the searched similar image. 学習の対象としてオプティカルフロー法を適用して求めた速度場情報を示す図である。It is a figure which shows the speed field information calculated | required by applying the optical flow method as learning object. 木の画像から生成した動画の例を示す図である。It is a figure which shows the example of the moving image produced | generated from the image of a tree. 唇の画像から生成した動画の例を示す図である。It is a figure which shows the example of the moving image produced | generated from the image of the lips. 川の画像から生成した動画の例を示す図である。It is a figure which shows the example of the moving image produced | generated from the image of the river. 木と雪の画像に対して木に揺らぎを与え雪を風で動かした例を示す図である。It is a figure which shows the example which gave the fluctuation to the tree with respect to the image of a tree and snow, and moved snow with the wind. 実施例による画像生成の様子を示す図であり、同図の破線は入力された元の画像のプロファイル、実線は理想的な生成画像のプロファイル、黒丸はCIP法により移流方程式を解いて生成した画像のプロファイルである。It is a figure which shows the mode of the image generation by an Example, The broken line of the figure is the profile of the input original image, A solid line is the profile of an ideal production | generation image, A black circle is the image produced | generated by solving an advection equation by CIP method It is a profile. 比較例による画像生成の様子を示す図であり、同図の破線は入力された元の画像のプロファイル、実線は理想的な生成画像のプロファイル、黒丸は差分法により移流方程式を解いて生成した画像のプロファイルである。It is a figure which shows the mode of the image generation by a comparative example, and the broken line of the figure is the profile of the input original image, the solid line is the profile of the ideal generated image, and the black circle is the image generated by solving the advection equation by the difference method It is a profile. 本動画生成装置をGUIに適用した場合の表示画面の例を示す図である。It is a figure which shows the example of the display screen at the time of applying this moving image production | generation apparatus to GUI.

符号の説明Explanation of symbols

1…動画生成装置
11…入力部
12…速度場検出部
13…速度場学習部
14…速度場検索部
15…動画生成部
16…表示部
17…記憶装置
DESCRIPTION OF SYMBOLS 1 ... Movie production | generation apparatus 11 ... Input part 12 ... Speed field detection part 13 ... Speed field learning part 14 ... Speed field search part 15 ... Movie production | generation part 16 ... Display part 17 ... Memory | storage device

Claims (8)

時系列の画像と当該画像を用いて得られた速度場情報とを対応付けて記憶しておく記憶手段と、
画像の入力を受け付ける入力手段と、
入力された画像に類似する画像を前記記憶手段から検索し、検索された画像に対応する速度場情報を前記記憶手段から読み出す検索手段と、
入力された画像および読み出された速度場情報を、時間項および移流項を有する偏微分方程式の移流項に代入し処理することで動画を生成する生成手段と、
を有することを特徴とする動画生成装置。
Storage means for storing time-series images and velocity field information obtained using the images in association with each other;
An input means for receiving image input;
A search unit that searches the storage unit for an image similar to the input image, and reads speed field information corresponding to the searched image from the storage unit;
Generating means for generating a moving image by substituting and processing the input image and the read velocity field information into the advection term of the partial differential equation having a time term and an advection term;
A moving image generating apparatus comprising:
前記移流項は、速度成分と画像強度の空間1次微分との積で表されるものであって、前記速度場情報は当該速度成分に代入されることを特徴とする請求項1記載の動画生成装置。   The moving image according to claim 1, wherein the advection term is expressed by a product of a velocity component and a spatial first derivative of image intensity, and the velocity field information is substituted into the velocity component. Generator. 前記検索手段は、入力された画像と時系列の画像との類似度を相関関数を用いて計算し、当該類似度に基づいて類似の画像を検索することを特徴とする請求項1又は2記載の動画生成装置。   3. The search unit according to claim 1, wherein the search unit calculates a similarity between the input image and a time-series image using a correlation function, and searches for a similar image based on the similarity. Video generator. 前記記憶手段から時系列の画像を読み出し、当該画像に対してオプティカルフロー法を適用して速度場情報を検出し、当該速度場情報を時系列の画像に対応付けて記憶手段に記憶させる速度場検出手段を有することを特徴とする請求項1乃至3のいずれかに記載の動画生成装置。   A velocity field that reads a time-series image from the storage means, detects velocity field information by applying an optical flow method to the image, and stores the velocity field information in the storage means in association with the time-series image. The moving image generating apparatus according to claim 1, further comprising a detecting unit. 前記記憶手段から時系列の画像およびこれに対応する速度場情報を読み出し、これらを画像と係数の入力に対して速度場情報を出力する入出力関数に代入して係数を学習し、時系列の画像と当該係数とを対応付けて記憶手段に記憶させ、
前記検索手段により検索された類似の画像に対応する係数を記憶手段から読み出し、
前記入力された画像および読み出された係数を前記入出力関数に代入し速度場情報を算出して記憶手段に記憶させる学習手段を有し、
前記検索手段は、前記学習手段により算出された速度場情報を当該記憶手段から読み出すことを特徴とする請求項1乃至4のいずれかに記載の動画生成装置。
The time series image and the corresponding velocity field information are read from the storage means, and the coefficients are learned by substituting them into an input / output function that outputs velocity field information in response to the input of the image and the coefficient. The image and the coefficient are associated with each other and stored in the storage means,
A coefficient corresponding to a similar image searched by the search means is read from the storage means;
Learning means for substituting the input image and the read coefficient into the input / output function to calculate velocity field information and storing it in a storage means;
The moving image generating apparatus according to claim 1, wherein the search unit reads the velocity field information calculated by the learning unit from the storage unit.
前記動画生成手段は、前記偏微分方程式をCIP法による離散解法を適用して解くことを特徴とする請求項1乃至5のいずれかに記載の動画生成装置。   6. The moving image generating apparatus according to claim 1, wherein the moving image generating means solves the partial differential equation by applying a discrete solution method using a CIP method. 時系列の画像と当該画像を用いて得られた速度場情報とを対応付けて記憶手段に記憶しておくステップと、
入力手段により画像の入力を受け付けるステップと、
検索手段により、入力された画像に類似する画像を前記記憶手段から検索し、検索された画像に対応する速度場情報を前記記憶手段から読み出すステップと、
生成手段により、入力された画像および読み出された速度場情報を、時間項および移流項を有する偏微分方程式の移流項に代入し処理することで動画を生成するステップと、
を有することを特徴とする動画生成方法。
Storing a time-series image and speed field information obtained using the image in association with each other in a storage unit;
Receiving an image input by an input means;
Searching the storage means for an image similar to the input image by the search means, and reading speed field information corresponding to the searched image from the storage means;
A step of generating an animation by substituting and processing the input image and the read velocity field information into the advection term of the partial differential equation having a time term and an advection term by the generation means;
A moving image generating method characterized by comprising:
時系列の画像と当該画像を用いて得られた速度場情報とを対応付けて記憶手段に記憶させておく処理と、
画像の入力を受け付ける入力処理と、
入力された画像に類似する画像を前記記憶手段から検索し、検索された画像に対応する速度場情報を前記記憶手段から読み出す検索処理と、
入力された画像および読み出された速度場情報を、時間項および移流項を有する偏微分方程式の移流項に代入し処理することで動画を生成する生成処理と、
をコンピュータに実行させることを特徴とする動画生成プログラム。
A process of storing the time-series image and the velocity field information obtained by using the image in a storage unit in association with each other;
Input processing that accepts input of images;
A search process for searching for an image similar to the input image from the storage unit, and reading speed field information corresponding to the searched image from the storage unit;
Generation processing for generating a moving image by substituting the input image and the read velocity field information into the advection term of the partial differential equation having the time term and the advection term, and processing,
A moving picture generating program characterized by causing a computer to execute.
JP2005162734A 2005-06-02 2005-06-02 Movie generation device, movie generation method, movie generation program Active JP4199214B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005162734A JP4199214B2 (en) 2005-06-02 2005-06-02 Movie generation device, movie generation method, movie generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005162734A JP4199214B2 (en) 2005-06-02 2005-06-02 Movie generation device, movie generation method, movie generation program

Publications (2)

Publication Number Publication Date
JP2006338365A true JP2006338365A (en) 2006-12-14
JP4199214B2 JP4199214B2 (en) 2008-12-17

Family

ID=37558870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005162734A Active JP4199214B2 (en) 2005-06-02 2005-06-02 Movie generation device, movie generation method, movie generation program

Country Status (1)

Country Link
JP (1) JP4199214B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009295129A (en) * 2008-06-09 2009-12-17 Nippon Telegr & Teleph Corp <Ntt> Animation method, device, and program for still image
JP2009295128A (en) * 2008-06-09 2009-12-17 Nippon Telegr & Teleph Corp <Ntt> Grid point model deforming/moving method, device, and program
JP2011181090A (en) * 2011-04-28 2011-09-15 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for animation of still image
KR101495082B1 (en) * 2011-06-29 2015-02-24 삼성메디슨 주식회사 Method and apparatus for myocardial motion tracking based on variational framework combining optical flow and global deformation constraint
CN111667502A (en) * 2020-05-06 2020-09-15 北京理工大学 Method and device for generating high-speed video according to single motion blurred image
JP2021526698A (en) * 2019-03-22 2021-10-07 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Image generation methods and devices, electronic devices, and storage media

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009295129A (en) * 2008-06-09 2009-12-17 Nippon Telegr & Teleph Corp <Ntt> Animation method, device, and program for still image
JP2009295128A (en) * 2008-06-09 2009-12-17 Nippon Telegr & Teleph Corp <Ntt> Grid point model deforming/moving method, device, and program
JP4702811B2 (en) * 2008-06-09 2011-06-15 日本電信電話株式会社 Lattice point model deformation / movement method, apparatus and program
JP2011181090A (en) * 2011-04-28 2011-09-15 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for animation of still image
KR101495082B1 (en) * 2011-06-29 2015-02-24 삼성메디슨 주식회사 Method and apparatus for myocardial motion tracking based on variational framework combining optical flow and global deformation constraint
JP2021526698A (en) * 2019-03-22 2021-10-07 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Image generation methods and devices, electronic devices, and storage media
JP7106687B2 (en) 2019-03-22 2022-07-26 ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド Image generation method and device, electronic device, and storage medium
CN111667502A (en) * 2020-05-06 2020-09-15 北京理工大学 Method and device for generating high-speed video according to single motion blurred image
CN111667502B (en) * 2020-05-06 2023-08-25 北京理工大学 Method and device for generating high-speed video according to single motion blurred image

Also Published As

Publication number Publication date
JP4199214B2 (en) 2008-12-17

Similar Documents

Publication Publication Date Title
Jiang et al. Self-supervised relative depth learning for urban scene understanding
Chaudhuri et al. Joint face detection and facial motion retargeting for multiple faces
WO2019081623A1 (en) Auto-regressive neural network systems with a soft attention mechanism using support data patches
Qian et al. Deep magnification-flexible upsampling over 3d point clouds
JP2021506017A (en) Object detector and object detection method
JP4199214B2 (en) Movie generation device, movie generation method, movie generation program
JP2006260527A (en) Image matching method and image interpolation method using same
US11354774B2 (en) Facial model mapping with a neural network trained on varying levels of detail of facial scans
CN111259779A (en) Video motion detection method based on central point trajectory prediction
JP2023109570A (en) Information processing device, learning device, image recognition device, information processing method, learning method, and image recognition method
Wan et al. Boosting image-based localization via randomly geometric data augmentation
Kant Learning gaussian maps for dense object detection
JP4353957B2 (en) Image generation method, image generation apparatus, and image generation program
Zheng et al. Pose flow learning from person images for pose guided synthesis
CN114241052B (en) Method and system for generating new view image of multi-object scene based on layout
WO2023086398A1 (en) 3d rendering networks based on refractive neural radiance fields
JP6892557B2 (en) Learning device, image generator, learning method, image generation method and program
JP6967150B2 (en) Learning device, image generator, learning method, image generation method and program
JP4369951B2 (en) Image generation method, image generation apparatus, and image generation program
Berlier et al. Augmenting simulation data with sensor effects for improved domain transfer
Zhou et al. Learning a deep motion interpolation network for human skeleton animations
Larey et al. Facial Expression Retargeting from a Single Character
CN117593702B (en) Remote monitoring method, device, equipment and storage medium
US20230177722A1 (en) Apparatus and method with object posture estimating
Ghadekar et al. Video Regeneration Using Image Diffusion Model

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080916

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081002

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4199214

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121010

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131010

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250