JP4845998B2 - Animation method, animation apparatus, and animation program - Google Patents

Animation method, animation apparatus, and animation program Download PDF

Info

Publication number
JP4845998B2
JP4845998B2 JP2009116681A JP2009116681A JP4845998B2 JP 4845998 B2 JP4845998 B2 JP 4845998B2 JP 2009116681 A JP2009116681 A JP 2009116681A JP 2009116681 A JP2009116681 A JP 2009116681A JP 4845998 B2 JP4845998 B2 JP 4845998B2
Authority
JP
Japan
Prior art keywords
foreground
background
image
dimensional
animation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009116681A
Other languages
Japanese (ja)
Other versions
JP2010267006A (en
Inventor
英朋 境野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009116681A priority Critical patent/JP4845998B2/en
Publication of JP2010267006A publication Critical patent/JP2010267006A/en
Application granted granted Critical
Publication of JP4845998B2 publication Critical patent/JP4845998B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

1枚の画像から動画を生成する技術に関する。   The present invention relates to a technique for generating a moving image from one image.

デジタルカメラなどにより撮影された1枚のデジタル画像、あるいはビデオ映像から切り出した1枚のデジタル画像の編集方法およびツールにはさまざまなものがある。また、デジタル画像を動画化する方法として2次元的に変形操作するものが知られている。   There are various methods and tools for editing one digital image taken by a digital camera or the like, or one digital image cut out from a video image. A method of transforming a digital image into a moving image is known as a method for converting the digital image into a moving image.

他方、コンピュータグラフィクスでは、多数の粒子を用いた簡易な3次元動画表現が知られている。   On the other hand, in computer graphics, simple three-dimensional moving image expression using many particles is known.

Anat Levin, Dani Lischinski, and Yair Weiss, "A Closed Form Solution to Natural Image Matting", IEEE CVPR, 2006 p.61-68Anat Levin, Dani Lischinski, and Yair Weiss, "A Closed Form Solution to Natural Image Matting", IEEE CVPR, 2006 p.61-68 Antonio Criminisi, Patrick Perez, and Kentaro Toyama, "Region Filling and Object Removal by Exemplar-Based Image Inpainting", IEEE Trans. Image Processing, September 2004, vol. 13 No. 9, p.1200-1212Antonio Criminisi, Patrick Perez, and Kentaro Toyama, "Region Filling and Object Removal by Exemplar-Based Image Inpainting", IEEE Trans. Image Processing, September 2004, vol. 13 No. 9, p.1200-1212 "Perspective(graphical)", [online], [平成21年4月28日検索]、インターネット〈URL:http://en.wikipedia.org/wiki/Perspective_(graphical)〉"Perspective (graphical)", [online], [Search April 28, 2009], Internet <URL: http://en.wikipedia.org/wiki/Perspective_ (graphical)>

しかしながら、自然景観を写した1枚の画像から動画を作成するためには課題が多く残されている。自然景観などを写した1枚の画像には、奥行き感や視線方向における対象の位置の前後関係が含まれている。そのため、従来の2次元的な変形操作方法では実在感のある動画化には明らかに限界があった。   However, many problems remain to create a moving image from a single image of a natural landscape. A single image of a natural landscape or the like includes a sense of depth and the context of the target position in the line-of-sight direction. For this reason, the conventional two-dimensional deformation operation method clearly has a limit to the realization of moving images.

例えば、画像に写った崖を流れ落ちる滝を動画化する場合、その滝の切り抜いて滝の動画を当てはめることが考えられるが、滝の切り抜きに手間が掛かり煩雑であり、滝の動画を作成する際の水跳ねや風に流れるなどの物理表現についても十分でなかった。従来の多数の粒子を用いた簡易な表現は実写に対する動画化法ではない。実写からのアニメーション化については、剛体や弾性体の場合がほとんどである。特定の画像については膨大な時間を費やせば一定水準の動画は得られるが、特殊な創作過程は一般的な用途には向いていない。   For example, when making a video of a waterfall flowing down a cliff in the image, it is possible to apply the waterfall video by clipping the waterfall, but it is cumbersome and cumbersome to cut out the waterfall. It was not enough for physical expression such as water splashing and flowing in the wind. The conventional simple expression using a large number of particles is not an animation method for live action. In the case of animation from live action, most cases are rigid bodies and elastic bodies. Although a certain level of animation can be obtained for a specific image if a large amount of time is spent, a special creation process is not suitable for general use.

本発明は、上記に鑑みてなされたものであり、自然景観を写した1枚の画像から自然な動画を容易に作成することを課題とする。   This invention is made | formed in view of the above, and makes it a subject to create a natural moving image easily from one image which copied the natural scenery.

第1の本発明に係る動画化方法は、画像を入力して蓄積手段に格納するステップと、前記蓄積手段から前記画像を読み出し、当該画像のうち動画化対象の前景の一部に入力したユーザの指示と動画化対象ではない背景の一部に入力したユーザの指示とを受け付け、前記画像を前景と背景に分離するステップと、前記背景の前記前景を分離した欠落領域を当該背景のテクスチャを用いて穴埋め補間するステップと、次式に基づいて、前記前景の座標(X,Y)(x,y,z)で表される3次元座標系に変換するステップと、
(fはz軸に沿った原点から前記前景までの距離を示す)ユーザから受け付けた、極座標系(r,θ,z)では次式で定義される3次元速度場及び物理条件の設定に基づいて前記前景に対して3次元速度ベクトルを設定するステップと、
(V ,V θ ,V はそれぞれの方向への速度、Qは流量に関する定数を示す)前記3次元座標系に変換した前景を前記3次元速度ベクトルに基づいて次式を用いて時間発展し、前記前景を動画化するステップと、
(∇は一次微分演算子、vは速度、ρは密度、νは粘性係数、Fは外部力である。速度v=v +v であり、v はユーザから受け付けた3次元速度場の速度ベクトル、v は物理現象に基づいた速度ベクトルであって次式で定義する)
(θは大きさwvを持つ風のX軸方向に対する角度であり、gは重力定数である)前記分離するステップで算出した前記前景と前記背景の混ざり具合の比率を用いて前記動画化した前景と前記補間した背景とを合成するステップと、を有することを特徴とする。
According to a first aspect of the present invention, there is provided a moving-image generating method comprising: inputting an image and storing the image in an accumulating unit; and reading the image from the accumulating unit and inputting the image to a part of a foreground to be animated And a user's instruction input to a part of the background that is not an animation target, the step of separating the image into a foreground and a background, and the missing area of the background separated from the foreground as a texture of the background Using the hole filling interpolation, converting the foreground coordinates (X, Y) into a three-dimensional coordinate system represented by (x, y, z) based on the following equation ;
(F represents the distance from the origin along the z axis to the foreground) In the polar coordinate system (r, θ, z) received from the user, based on the setting of the three-dimensional velocity field and physical conditions defined by the following equations: Setting a three-dimensional velocity vector for the foreground;
(V r , V θ , V z are speeds in the respective directions, and Q is a constant relating to the flow rate.) The foreground converted into the three-dimensional coordinate system is time-developed based on the three-dimensional velocity vector using the following equation: And animating the foreground;
(∇ is the first derivative operator, v is the velocity, ρ is the density, ν is the viscosity coefficient, F is the external force. V is v = v 1 + v 2 and v 1 is the three-dimensional velocity field received from the user. velocity vector, v 2 is a velocity vector based on the physical phenomenon is defined by the following equation)
(Θ is an angle with respect to the X-axis direction of the wind having the magnitude wv, and g is a gravitational constant) The foreground animated by using the ratio of the foreground and the background mixed in the separating step And a step of synthesizing the interpolated background.

第2の本発明に係る動画化装置は、画像を入力して蓄積手段に格納する入力手段と、前記蓄積手段から前記画像を読み出し、当該画像のうち動画化対象の前景の一部に入力したユーザの指示と動画化対象ではない背景の一部に入力したユーザの指示とを受け付け、前記画像を前景と背景に分離する分離手段と、前記背景の前記前景を分離した欠落領域を当該背景のテクスチャを用いて穴埋め補間する補間手段と、次式に基づいて、前記前景の座標(X,Y)(x,y,z)で表される3次元座標系に変換する座標変換手段と、
(fはz軸に沿った原点から前記前景までの距離を示す)ユーザから受け付けた、極座標系(r,θ,z)では次式で定義される3次元速度場及び物理条件の設定に基づいて前記前景に対して3次元速度ベクトルを設定する設定手段と、
(V ,V θ ,V はそれぞれの方向への速度、Qは流量に関する定数を示す)前記3次元座標系に変換した前景を前記3次元速度ベクトルに基づいて次式を用いて時間発展し、前記前景を動画化する動画化計算手段と、
(∇は一次微分演算子、vは速度、ρは密度、νは粘性係数、Fは外部力である。速度v=v +v であり、v はユーザから受け付けた3次元速度場の速度ベクトル、v は物理現象に基づいた速度ベクトルであって次式で定義する)
(θは大きさwvを持つ風のX軸方向に対する角度であり、gは重力定数である)前記分離手段が算出した前記前景と前記背景の混ざり具合の比率を用いて前記動画化した前景と前記補間した背景とを合成する合成手段と、を有することを特徴とする。
According to a second aspect of the present invention, there is provided an animation device for inputting an image and storing it in an accumulation unit; reading the image from the accumulation unit; and inputting the image to a part of the foreground to be animated Accepting a user instruction and a user instruction input to a part of the background that is not an animation target, separating means for separating the image into a foreground and a background, and a missing region that separates the foreground of the background An interpolation means for performing hole filling interpolation using a texture, a coordinate conversion means for converting the foreground coordinates (X, Y) into a three-dimensional coordinate system represented by (x, y, z) based on the following equation ;
(F represents the distance from the origin along the z axis to the foreground) In the polar coordinate system (r, θ, z) received from the user, based on the setting of the three-dimensional velocity field and physical conditions defined by the following equations: Setting means for setting a three-dimensional velocity vector for the foreground;
(V r , V θ , V z are speeds in the respective directions, and Q is a constant relating to the flow rate.) The foreground converted into the three-dimensional coordinate system is time-developed based on the three-dimensional velocity vector using the following equation: And an animation calculation means for animating the foreground;
(∇ is the first derivative operator, v is the velocity, ρ is the density, ν is the viscosity coefficient, F is the external force. V is v = v 1 + v 2 and v 1 is the three-dimensional velocity field received from the user. velocity vector, v 2 is a velocity vector based on the physical phenomenon is defined by the following equation)
(Θ is an angle with respect to the X-axis direction of the wind having a magnitude wv, and g is a gravitational constant) The foreground animated by using the ratio of the foreground and the background mixing calculated by the separating means And a synthesis means for synthesizing the interpolated background.

第3の本発明に係る動画化プログラムは、上記動画化方法における各ステップをコンピュータに実行させることを特徴とする。   An animation program according to a third aspect of the present invention causes a computer to execute each step in the animation method.

本発明によれば、自然景観を写した1枚の画像から自然な動画を容易に作成することができる。   ADVANTAGE OF THE INVENTION According to this invention, a natural moving image can be easily created from one image which copied natural scenery.

一実施の形態における動画化装置の構成を示すブロック図である。It is a block diagram which shows the structure of the animation apparatus in one embodiment. 2次元画像を3次元座標系へ変換する様子を説明する概略図である。It is the schematic explaining a mode that a two-dimensional image is converted into a three-dimensional coordinate system. ユーザが選択・設定する3次元速度場パターンの例を示す図である。It is a figure which shows the example of the three-dimensional velocity field pattern which a user selects and sets. 一様のパターンを示す3次元速度場を用いたときの流れのシミュレーションの例を示す図である。It is a figure which shows the example of the simulation of a flow when using the three-dimensional velocity field which shows a uniform pattern. 3次元渦場を設定し、動画化した例を示す図であり、図5(a)−(c)は、3次元渦場を設定した様子を示し、図5(d)−(f)は、動画化した結果を示す。It is a figure which shows the example which set and animated the three-dimensional vortex field, FIG.5 (a)-(c) shows a mode that the three-dimensional vortex field was set, FIG.5 (d)-(f) , Shows the result of animation. 1枚の画像の前景と背景を分離した様子を示す図であり、図6(a)は、もとの画像を示し、図6(b)は、ユーザが背景を指定した様子を示し、図6(c)は、背景として分離し欠落領域を補間した様子を示し、図6(d)は、前景として分離した様子を示す。FIGS. 6A and 6B are diagrams illustrating a state in which a foreground and a background of one image are separated. FIG. 6A illustrates an original image, and FIG. 6B illustrates a state in which a user specifies a background. 6 (c) shows a state in which a missing area is interpolated as a background, and FIG. 6 (d) shows a state in which it is separated as a foreground. 前景に3次元速度場などを設定した様子を示す。A state in which a three-dimensional velocity field is set in the foreground is shown. 1枚の画像を動画化した様子を示し、図8(a)は、動画化する前の画像を示し、図8(b)は、動画化した後のある時刻の画像を示す。FIG. 8A shows an image before moving to a moving image, and FIG. 8B shows an image at a certain time after moving to a moving image.

以下、本発明の実施の形態について図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本実施の形態における動画化装置の構成を示すブロック図である。同図に示す動画化装置1は、画像入力部11、データ蓄積部12、最適分離部13、補間部14、座標変換部15、動き設定部16、動画化計算部17、画像合成部18、表示部19、およびユーザインタフェース20を備える。動画化装置1は、演算処理装置、記憶装置、メモリ等を備えたコンピュータにより構成して、各部の処理がプログラムによって実行されるものとしてもよい。このプログラムは動画化装置1が備える記憶装置に記憶されており、磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記録することも、ネットワークを通して提供することも可能である。以下、各部の処理の概要について説明する。   FIG. 1 is a block diagram showing the configuration of the animation apparatus in the present embodiment. An animation apparatus 1 shown in FIG. 1 includes an image input unit 11, a data storage unit 12, an optimum separation unit 13, an interpolation unit 14, a coordinate conversion unit 15, a motion setting unit 16, an animation calculation unit 17, an image synthesis unit 18, A display unit 19 and a user interface 20 are provided. The animation apparatus 1 may be configured by a computer including an arithmetic processing device, a storage device, a memory, and the like, and the processing of each unit may be executed by a program. This program is stored in a storage device included in the animation apparatus 1, and can be recorded on a recording medium such as a magnetic disk, an optical disk, or a semiconductor memory, or provided through a network. Hereinafter, an outline of processing of each unit will be described.

画像入力部11は、カメラなどで撮影した1枚の画像、あるいは、ビデオから切り出した1枚の画像を入力し、データ蓄積部12へ格納する。   The image input unit 11 inputs one image taken by a camera or the like or one image cut out from a video and stores it in the data storage unit 12.

最適分離部13は、データ蓄積部12から1枚の画像を読み出し、動画化する対象を前景、固定した対象を背景として読み出した画像を前景と背景に分離する。前景と背景を分離する際、ユーザインタフェース20によりユーザから前景あるいは背景の大まかな位置を受け付ける。画像を前景と背景に分離する方法の詳細については後述する。   The optimum separation unit 13 reads one image from the data storage unit 12 and separates the read image into the foreground and the background with the subject to be animated as the foreground and the fixed subject as the background. When separating the foreground and background, the user interface 20 accepts a rough position of the foreground or background from the user. Details of the method for separating the image into the foreground and the background will be described later.

補間部14は、画像から前景を分離した背景の欠落領域を欠落領域近傍の背景のテクスチャ画像で穴埋め補間する。この補間処理の詳細については後述する。   The interpolation unit 14 performs fill-in interpolation on the background missing area obtained by separating the foreground from the image with the background texture image in the vicinity of the missing area. Details of this interpolation processing will be described later.

座標変換部15は、分離した前景の動画化に際して、2次元画像である前景に対して3次元情報を付与して3次元の座標系へ変換する。   The coordinate conversion unit 15 adds three-dimensional information to the foreground, which is a two-dimensional image, and converts it into a three-dimensional coordinate system when moving the separated foreground into a moving image.

動き設定部16は、ユーザインタフェース20によりユーザから、風、重力などの物理的条件や渦、発散などの3次元速度場情報を受け付け、動画化する領域(前景)に対して3次元速度ベクトルを設定する。   The motion setting unit 16 receives, from the user, physical conditions such as wind and gravity, and three-dimensional velocity field information such as vortex and divergence from the user, and generates a three-dimensional velocity vector for a region to be animated (foreground). Set.

動画化計算部17は、前景に設定した3次元速度ベクトルに基づいて偏微分方程式を用いて3次元化した前景の時間発展を計算して動画を生成する。   The moving image calculation unit 17 generates a moving image by calculating the time evolution of the three-dimensional foreground using the partial differential equation based on the three-dimensional velocity vector set for the foreground.

画像合成部18は、欠落した画像領域を補間した背景と生成した動画とを合成し、表示部19に表示させる。   The image synthesizing unit 18 synthesizes the background obtained by interpolating the missing image area and the generated moving image, and causes the display unit 19 to display the synthesized image.

ユーザインタフェース20は、マウス、キーボードなどの入力装置である。   The user interface 20 is an input device such as a mouse or a keyboard.

次に、動画化装置1の処理の流れに沿って各部の処理の詳細について説明する。   Next, details of the processing of each unit will be described along the flow of processing of the animation apparatus 1.

まず、最適分離部13が画像を前景と背景に分離する処理について説明する。   First, a process in which the optimum separation unit 13 separates an image into a foreground and a background will be described.

1枚の画像において、特に、自然景観を写した画像では、岩、建物などの背景と雲、波、滝などの前景との境界線が複雑であるため、特定の対象を抽出するためには多くの工夫が必要である。手作業により前景を抽出することは可能であるが、膨大な時間を費やす必要がある。そこで、本実施の形態では、最適化問題の枠組みにより、計算機の支援を受けて効率化を図った。   In order to extract a specific object, the boundary line between the background of rocks, buildings, etc. and the foreground, such as clouds, waves, waterfalls, etc., is complex, especially in an image of a natural landscape. Many ideas are needed. Although it is possible to extract the foreground by hand, it is necessary to spend enormous time. Therefore, in this embodiment, the efficiency is improved with the support of the computer by the framework of the optimization problem.

1枚の画像モデルとして、前景と背景の2つの対象がそれぞれある比率で合成されたものとし、次式(1)を定義する(非特許文献1参照)。
As one image model, two objects, foreground and background, are combined at a certain ratio, and the following expression (1) is defined (see Non-Patent Document 1).

ここで、I,F,Bはそれぞれ画素単位での、画素濃淡値(または輝度)、前景の濃淡値、背景の濃淡値であり、αは前景と背景の混ざり具合の比率(係数)である。この係数を求め、前景と背景を分離する。   Here, I, F, and B are the pixel intensity value (or luminance), foreground intensity value, and background intensity value in units of pixels, respectively, and α is the ratio (coefficient) of the foreground / background mixture. . This coefficient is obtained and the foreground and background are separated.

まず、αを画素の画素濃淡値Iの一次線形関数で近似できるものと仮定した画像モデルを考える。この画像モデルの場合、αは以下の式(2)のように表現できる。
First, consider an image model that assumes that α can be approximated by a linear function of a pixel gray value I of a pixel. In the case of this image model, α can be expressed as the following equation (2).

wは、画像の中の小さい領域(窓領域)であって、近傍の画素の集合である。窓の大きさは「3画素×3画素」〜「5画素×5画素」である。iは、窓領域の中における画素の位置を示す。   w is a small area (window area) in the image, and is a set of neighboring pixels. The size of the window is “3 pixels × 3 pixels” to “5 pixels × 5 pixels”. i indicates the position of the pixel in the window region.

ここで、目的関数として次式(3)を定義する。F,B,αを未知数として、式(3)について、最小化問題に帰着させる。ただし、3画素×3画素の窓領域毎に計算し、R,G,Bの各色チャネルについて同様に扱う。
Here, the following equation (3) is defined as the objective function. Let F, B, α be unknowns, and reduce the equation (3) to a minimization problem. However, the calculation is performed for each window region of 3 pixels × 3 pixels, and the R, G, and B color channels are handled in the same manner.

ただし、εは正則化係数である。jは、j番目の窓領域を示す。   Where ε is a regularization coefficient. j indicates the j-th window region.

なお、大まかな前景と背景の指定をユーザインタフェース20を用いてユーザから入力し、画素にラベリングを施す。そして、拘束条件として、ユーザが前景として指定した位置の画素の画像濃淡値をFに、背景として指定した位置の画素の画像濃淡値をBに設定する。式(3)を最小二乗法を用いて解析することにより、画素単位にα,a,bを取得し、式(2)に代入することでF,Bを取得する。そして、FおよびBを用いて当該画素が前景の画素であるか背景の画素であるかを判別する。   A rough foreground and background designation is input from the user using the user interface 20, and the pixels are labeled. Then, as the constraint condition, the image gray value of the pixel at the position designated as the foreground by the user is set to F, and the image gray value of the pixel at the position designated as the background is set to B. By analyzing the equation (3) using the least square method, α, a, and b are obtained for each pixel, and F and B are obtained by substituting into the equation (2). Then, using F and B, it is determined whether the pixel is a foreground pixel or a background pixel.

次に、補間部14が背景の欠落領域を補間する処理について説明する。   Next, a process in which the interpolation unit 14 interpolates a background missing region will be described.

最適分離部13が画像を前景と背景に分離すると、背景には前景が切り抜かれた欠落領域が残る。この欠落領域を穴埋め問題として捉えなおし、背景に近いテクスチャ画像で補間を施す。これにより、動画化した前景を貼り合わせて合成するときに、補間した背景と前景との合成が自然な結果を生み出す効果を生じる。   When the optimum separation unit 13 separates the image into the foreground and the background, a missing region in which the foreground is cut out remains in the background. This missing area is re-interpreted as a hole filling problem, and interpolation is performed with a texture image close to the background. As a result, when the foreground converted into a moving image is combined and combined, the interpolated background and the foreground are combined to produce a natural result.

欠落領域をΩ、画像をΓ、欠落領域を除いた背景をΦとする。即ち、Φ=Γ−Ωの関係がある(非特許文献2参照)。ある画素点pがパッチΨpの中心にあるものとする。欠落領域と背景の境界線∀p∈∂Ωに点pが常にある。穴埋めをする順番を信頼項C(p)とデータ項D(p)の積からなる次式(4)で定義する。常に、強いエッジがある場合に信頼項が高い値を持つ。即ち、強いエッジ(領域)から順番に穴埋めされていく。画素点qは、ΨpもしくはΦに属する。
The missing area is Ω, the image is Γ, and the background excluding the missing area is Φ. That is, there is a relationship of Φ = Γ−Ω (see Non-Patent Document 2). It is assumed that a certain pixel point p is at the center of the patch Ψ p . There is always a point p at the boundary line ∀ p ∈ ∂Ω between the missing region and the background. The order of filling the holes is defined by the following equation (4) consisting of the product of the confidence term C (p) and the data term D (p). The confidence term always has a high value when there is a strong edge. That is, the holes are filled in order from the strong edge (region). Pixel point q belongs to Ψ p or Φ.

ここで、|Ψp|はΨpの面積である。αは正規化係数であり、ここでは、画像の最大輝度255とする。 Here, | Ψ p | is the area of Ψ p . α is a normalization coefficient. Here, the maximum luminance 255 of the image is assumed.

穴埋めするための画素は、次式(5)による小さい画像領域の類似性に基づいて、背景(既知)から検索する。
The pixel for filling the hole is searched from the background (known) based on the similarity of the small image area according to the following equation (5).

ただし、d(Ψa,Ψb)はふたつのパッチΨaとΨbとの距離であり、ここでは累積差分を適用する。最も似たパッチを見つけ、そのパッチを用いて穴埋めする。欠落領域がすべて埋められるまで穴埋めを反復的に繰り返す。 Here, d (Ψ a , Ψ b ) is the distance between the two patches Ψ a and Ψ b, and here the cumulative difference is applied. Find the most similar patch and fill it with the patch. Repeat filling up until all missing areas are filled.

次に、座標変換部15が2次元画像を3次元へ変換する方法について説明する。ここでは透視投影変換モデルについて述べる(非特許文献3参照)。いわゆるピンホールカメラと同じ座標系である。   Next, a method in which the coordinate conversion unit 15 converts a two-dimensional image into a three-dimensional image will be described. Here, a perspective projection transformation model will be described (see Non-Patent Document 3). It is the same coordinate system as a so-called pinhole camera.

図2において、3次元の座標系を(x,y,z)とする。原点Oから光軸上に2次元画像200が焦点距離fの位置(0,0,f)にあるものとし、2次元画像200上の座標を(X,Y)とする。このような座標系において、図2の符号210で示す点P(x,y,z)は、2次元画像200上の符号220で示す点P(X,Y)に対応つけられて、次式(6)の関係式で与えられる。
In FIG. 2, the three-dimensional coordinate system is (x, y, z). Assume that the two-dimensional image 200 is on the optical axis from the origin O at the position (0, 0, f) of the focal length f, and the coordinates on the two-dimensional image 200 are (X, Y). In such a coordinate system, the point P (x, y, z) indicated by reference numeral 210 in FIG. 2 is associated with the point P (X, Y) indicated by reference numeral 220 on the two-dimensional image 200, and It is given by the relational expression (6).

式(6)に示す関係式に基づいて2次元画像を3次元の座標系に変換する。3次元座標系は、後述する各種3次元方程式、3次元速度などを定義する基本座標系として必要不可欠なものである。   A two-dimensional image is converted into a three-dimensional coordinate system based on the relational expression shown in Expression (6). The three-dimensional coordinate system is indispensable as a basic coordinate system that defines various three-dimensional equations, three-dimensional velocities, and the like described later.

次に、動き設定部16の処理について説明する。   Next, processing of the movement setting unit 16 will be described.

動き設定部16は、ユーザインタフェース20により、物理的条件や3次元速度場パターンの入力を受け付けて、動画化する前景に設定する。図3にユーザが選択・設定する3次元速度場パターンを示す。様々なパターンが考えられるが、図3では、左から、湧き出し、一様、渦の例を示す。これらのパターンは、極座標系(r,θ,z)では、次式(7)〜(9)で定義される。
The motion setting unit 16 accepts input of physical conditions and a three-dimensional velocity field pattern through the user interface 20 and sets the foreground to be animated. FIG. 3 shows a three-dimensional velocity field pattern selected and set by the user. Although various patterns are conceivable, FIG. 3 shows an example of springs, uniforms, and vortices from the left. These patterns are defined by the following equations (7) to (9) in the polar coordinate system (r, θ, z).

ただし、vr,vθ,vはそれぞれの方向への速度である。Qは流量に関する定数である。 However, v r , v θ and v z are velocities in the respective directions. Q is a constant relating to the flow rate.

図4(a)は、一様のパターンを表す式(7)を用いたときの流れのシミュレーションの例である。一様な速度場を3次元的に設定し、式(7)を適用する。3次元的に流れの幅をユーザが設定する。幅を広くすると図4(b)に示すように別の滝のような表現が可能となる。   FIG. 4A is an example of a flow simulation when Expression (7) representing a uniform pattern is used. A uniform velocity field is set three-dimensionally and Equation (7) is applied. The user sets the flow width three-dimensionally. When the width is increased, an expression like another waterfall is possible as shown in FIG.

次に、動画化計算部17の処理について説明する。   Next, the processing of the animation calculation unit 17 will be described.

動画化計算部17は、動き設定部16が設定した速度および圧力についての3次元的な時間発展を計算するために、式(10)で示すナビエ・ストークス方程式を用いる。ここで、速度成分について2つの成分の場合を与え、v=v1+v2と定義する。動き設定部16でユーザが3次元速度場のメニューから選択した速度ベクトルをv1とし、v2を重力や風など物理現象に基づいた速度とする。もちろんこれ以外にもさまざまな速度のモデルが考えられる。
The animation calculation unit 17 uses the Navier-Stokes equation expressed by Equation (10) in order to calculate the three-dimensional time evolution for the speed and pressure set by the motion setting unit 16. Here, the case of two components is given for the velocity component, and is defined as v = v 1 + v 2 . The velocity vector selected by the user from the menu of the three-dimensional velocity field in the motion setting unit 16 is v 1, and v 2 is a velocity based on a physical phenomenon such as gravity or wind. Of course, other speed models are possible.

ただし、∇=(∂/∂x,∂/∂y,∂/∂z),v=(vx,vy,vzTであり、x,y,zのカーテシアン3次元系で定義される一次微分演算子、速度である。ρは密度である。νは粘性係数である。Fは外部力であり、ペリンノイズに基づいた乱流による物体力や重力などが与えられる。 However, ∇ = (∂ / ∂x, ∂ / ∂y, ∂ / ∂z), v = (v x, v y, v z) is T, x, y, is defined in a three-dimensional system Cartesian of z The first derivative operator, speed. ρ is the density. ν is a viscosity coefficient. F is an external force, and an object force or gravity due to turbulent flow based on perin noise is given.

一方、v2=(vx2,vy2,vz2Tは3次元速度成分であり、次式(11)のように定義できる。
On the other hand, v 2 = (v x2 , v y2 , v z2 ) T is a three-dimensional velocity component and can be defined as the following equation (11).

ここで、θは大きさwvをもつ風のX軸方向に対する角度である。gは重力であり、Y軸下方向を向いている。これ以外にもさまざまな物理法則を適用することができる。   Here, θ is an angle of the wind having the magnitude wv with respect to the X-axis direction. g is gravity, which is directed downward in the Y-axis. In addition to this, various physical laws can be applied.

画像から抽出して3次元に変換した前景と前景に設定した3次元速度ベクトルを用い、その時間発展の画像を生成するために次式(12)に示す移流式を適用する。画像の濃淡値も与えて濃淡値の時間発展を解く。さまざまな解法があるが、時間発展途上での解(画像)への拡散誤差の混入、量子化誤差などによる画質劣化を防止するために、有限差分法の場合は、風上差分法3次オーダーなどを適用する。
Using the foreground extracted from the image and converted to 3D, and the 3D velocity vector set in the foreground, the advection equation shown in the following equation (12) is applied to generate an image of the time evolution. The gray value of the image is also given and the temporal development of the gray value is solved. There are various solutions, but in order to prevent image quality degradation due to diffusion errors and quantization errors in the solution (image) in the course of time development, in the case of the finite difference method, the upwind difference method third order And so on.

ここで、I(x,y,z)を3次元画像、vを速度とする。   Here, I (x, y, z) is a three-dimensional image, and v is a speed.

そして、画像合成部18は、補間部14が補間した背景に動画化計算部17が生成した前景の動画を合成することで、入力した1枚の画像から動画を生成する。合成の際に、式(3)で推定されたαを画素単位に適用する。   Then, the image composition unit 18 synthesizes the foreground moving image generated by the moving image calculation unit 17 with the background interpolated by the interpolation unit 14 to generate a moving image from the input single image. At the time of synthesis, α estimated by Expression (3) is applied to each pixel.

次に、動画化装置1により画像を動画化した実施例について説明する。   Next, an embodiment in which an image is animated by the animation apparatus 1 will be described.

図5は、山付近の雲の画像に3次元渦場を設定して動画化した例を示す。図5(a)〜(c)は、画像に3次元渦場を設定した様子を示す。3次元渦場は、ユーザがマウスにより選択して設定する。図5(b)でよくわかるように、画像に対して渦場を3次元で与える。   FIG. 5 shows an example in which a three-dimensional vortex field is set on a cloud image near a mountain and animated. 5A to 5C show a state in which a three-dimensional vortex field is set in an image. The three-dimensional vortex field is selected and set by the user with the mouse. As can be clearly seen in FIG. 5B, a vortex field is given to the image in three dimensions.

ユーザが設定した3次元速度場を3次元移流方程式に与える。また、3次元化された画像の濃淡値も与えて濃淡値の時間発展を解く。図5(d)〜(f)にその結果を示す。図5(d)から図5(f)へ自然かつ実写のテクスチャを用いたリアルな雲変形が実現できた。   The three-dimensional velocity field set by the user is given to the three-dimensional advection equation. In addition, the gray value of the three-dimensional image is also given to solve the temporal development of the gray value. The results are shown in FIGS. From FIG. 5D to FIG. 5F, realistic cloud deformation using natural and live-action textures was realized.

図6は、最適分離部13が前景と背景を分離し、補間部14が背景の欠落領域を埋めたようすを示す図である。図6(a)は、動画化対象の滝と崖を含む1枚の自然景観画像である。図6(b)は、ユーザにより画像の背景が大まかに指定された様子を示す。図6(b)中の曲線がユーザが背景として指定した部分である。ユーザにより背景と前景が大まかに指定されると、最適分離部13は、式(3)を適用し、自動的に背景と前景を分離する。   FIG. 6 is a diagram showing that the optimum separation unit 13 separates the foreground and the background, and the interpolation unit 14 fills the background missing region. FIG. 6A is a natural landscape image including a waterfall and a cliff to be animated. FIG. 6B shows a state in which the background of the image is roughly specified by the user. The curve in FIG. 6B is a portion designated by the user as the background. When the background and the foreground are roughly designated by the user, the optimum separation unit 13 automatically separates the background and the foreground by applying Expression (3).

図6(c)は、背景から前景を分離した欠落領域を補間部14が補間した結果を示す図である。図6(c)に示すように、欠落領域は、近傍の崖のテクスチャと同様に自然な感じで補間されている。図6(d)は、前景として切り出した滝を示す図である。   FIG. 6C is a diagram illustrating a result of the interpolation unit 14 interpolating the missing area obtained by separating the foreground from the background. As shown in FIG. 6C, the missing region is interpolated with a natural feeling like the texture of the nearby cliff. FIG. 6D is a diagram illustrating a waterfall cut out as a foreground.

図7は、図6(d)に示す前景に、3次元の一様な速度場と、発散場を設定した様子を示す図である。一様な速度場は流れ落ちる滝を表現し、発散場は岩の上での水跳ねを表現する。また、速度場は重力と風の影響が考慮されている。これらにより、より自然な流れが表現できる。   FIG. 7 is a diagram illustrating a state in which a three-dimensional uniform velocity field and a divergent field are set in the foreground illustrated in FIG. A uniform velocity field represents a falling waterfall, and a divergence field represents a water splash on a rock. The velocity field takes into account the effects of gravity and wind. By these, a more natural flow can be expressed.

図8(a)は、動画化のもとになった画像であり、図8(b)は、動画化した結果のある時刻の画像である。欠落領域を補間した背景に動画化された滝が逐次合成される。このとき、式(3)で推定されたαを画素単位に適用して崖と滝を合成する。   FIG. 8A shows an image that has been converted into a moving image, and FIG. 8B shows an image at a certain time as a result of moving into a moving image. The animated waterfall is synthesized sequentially with the background interpolating the missing area. At this time, the cliff and the waterfall are synthesized by applying α estimated by the equation (3) to each pixel.

このように、実在感ある滝がアニメーションとして生成された。1枚の画像から動画化まで5分以内に実現できるため、非常に効率的である。   In this way, a realistic waterfall was generated as an animation. Since it can be realized within 5 minutes from one image to animation, it is very efficient.

したがって、本実施の形態によれば、最適分離部13により、画像を動画化対象の前景と動画化対象ではない背景に分離し、補間部14により、背景の前景を分離した欠落領域を穴埋め補間し、座標変換部15により、前景を3次元座標系に変換し、動き設定部16により、ユーザから3次元速度場及び物理条件を受け付け、前景に対して3次元速度ベクトルを設定し、動画化計算部17により、前景を3次元速度ベクトルに基づいて偏微分方程式を用いて時間発展し、前景を動画化し、画像合成部18により、穴埋め補間した背景と動画化した前景を合成することにより、1枚の複雑な自然景観画像から物理表現に富んだ動画を生成することが可能となる。特に、分離した前景を3次元座標系に変換し、ナビエ・ストークス方程式など各種変形に関わる偏微分方程式を3次元化して解くことで自然な動画を生成することができる。   Therefore, according to the present embodiment, the optimal separation unit 13 separates the image into the foreground to be animated and the background that is not to be animated, and the interpolation unit 14 fills in the missing region in which the background foreground is separated by filling in Then, the coordinate conversion unit 15 converts the foreground into a three-dimensional coordinate system, and the motion setting unit 16 accepts a three-dimensional velocity field and physical conditions from the user, sets a three-dimensional velocity vector for the foreground, and animates it. By calculating the foreground using the partial differential equation based on the three-dimensional velocity vector by the calculation unit 17 and converting the foreground into a moving image, and by synthesizing the foreground and the animated foreground by the image combining unit 18, It is possible to generate a moving image rich in physical expression from one complex natural landscape image. In particular, a natural moving image can be generated by converting the separated foreground into a three-dimensional coordinate system and three-dimensionally solving partial differential equations related to various deformations such as the Navier-Stokes equations.

また、ユーザが指示した箇所の前景および背景の画像濃淡値を拘束条件として目的関数を生成し、その目的関数を最小二乗法を用いて解析することで、ユーザの作業負荷、作業時間を軽減しつつ、画像の前景と背景を分離できる。   In addition, the objective function is generated using the foreground and background image grayscale values at the location specified by the user as constraints, and the objective function is analyzed using the least square method, thereby reducing the user's workload and work time. However, the foreground and background of the image can be separated.

さらに、背景の欠落領域を背景のテクスチャ画像で補間することで、動画化した前景と背景を合成したときに自然な結果を生み出すことができる。前景と背景を分離する際に算出した背景と前景の混ざり具合の比率を前景と背景の合成の際に用いることで自然な合成が可能となる。   Further, by interpolating the background missing area with the background texture image, a natural result can be generated when the animated foreground and background are combined. Natural synthesis is possible by using the ratio of the background and foreground mixing ratio calculated when separating the foreground and the background when the foreground and the background are combined.

1…動画化装置
11…画像入力部
12…データ蓄積部
13…最適分離部
14…補間部
15…座標変換部
16…設定部
17…動画化計算部
18…画像合成部
19…表示部
20…ユーザインタフェース
DESCRIPTION OF SYMBOLS 1 ... Animation apparatus 11 ... Image input part 12 ... Data storage part 13 ... Optimal separation part 14 ... Interpolation part 15 ... Coordinate conversion part 16 ... Setting part 17 ... Animation conversion calculation part 18 ... Image composition part 19 ... Display part 20 ... User interface

Claims (3)

画像を入力して蓄積手段に格納するステップと、
前記蓄積手段から前記画像を読み出し、当該画像のうち動画化対象の前景の一部に入力したユーザの指示と動画化対象ではない背景の一部に入力したユーザの指示とを受け付け、前記画像を前景と背景に分離するステップと、
前記背景の前記前景を分離した欠落領域を当該背景のテクスチャを用いて穴埋め補間するステップと、
次式に基づいて、前記前景の座標(X,Y)(x,y,z)で表される3次元座標系に変換するステップと、
(fはz軸に沿った原点から前記前景までの距離を示す)
ユーザから受け付けた、極座標系(r,θ,z)では次式で定義される3次元速度場及び物理条件の設定に基づいて前記前景に対して3次元速度ベクトルを設定するステップと、
(V ,V θ ,V はそれぞれの方向への速度、Qは流量に関する定数を示す)
前記3次元座標系に変換した前景を前記3次元速度ベクトルに基づいて次式を用いて時間発展し、前記前景を動画化するステップと、
(∇は一次微分演算子、vは速度、ρは密度、νは粘性係数、Fは外部力である。速度v=v +v であり、v はユーザから受け付けた3次元速度場の速度ベクトル、v は物理現象に基づいた速度ベクトルであって次式で定義する)
(θは大きさwvを持つ風のX軸方向に対する角度であり、gは重力定数である)
前記分離するステップで算出した前記前景と前記背景の混ざり具合の比率を用いて前記動画化した前景と前記補間した背景とを合成するステップと、
を有することを特徴とする動画化方法。
Inputting an image and storing it in a storage means;
The image is read from the storage means, and a user instruction input to a part of the foreground to be animated and a user instruction input to a part of the background that is not to be animated are received. Separating the foreground and background,
Interpolating a missing region that separates the foreground of the background using a texture of the background; and
Converting the foreground coordinates (X, Y) into a three-dimensional coordinate system represented by (x, y, z) based on the following equation:
(F indicates the distance from the origin along the z axis to the foreground)
In the polar coordinate system (r, θ, z) received from the user, a step of setting a three-dimensional velocity vector for the foreground based on the setting of a three-dimensional velocity field and physical conditions defined by the following equations:
(V r , V θ , V z are speeds in the respective directions, and Q is a constant related to the flow rate)
Evolving the foreground into the three-dimensional coordinate system based on the three-dimensional velocity vector using the following formula to animate the foreground;
(∇ is the first derivative operator, v is the velocity, ρ is the density, ν is the viscosity coefficient, F is the external force. V is v = v 1 + v 2 and v 1 is the three-dimensional velocity field received from the user. velocity vector, v 2 is a velocity vector based on the physical phenomenon is defined by the following equation)
(Θ is an angle with respect to the X-axis direction of a wind having a magnitude wv, and g is a gravitational constant)
Combining the animated foreground and the interpolated background using the foreground and background mixing ratio calculated in the separating step;
An animation method characterized by comprising:
画像を入力して蓄積手段に格納する入力手段と、
前記蓄積手段から前記画像を読み出し、当該画像のうち動画化対象の前景の一部に入力したユーザの指示と動画化対象ではない背景の一部に入力したユーザの指示とを受け付け、前記画像を前景と背景に分離する分離手段と、
前記背景の前記前景を分離した欠落領域を当該背景のテクスチャを用いて穴埋め補間する補間手段と、
次式に基づいて、前記前景の座標(X,Y)(x,y,z)で表される3次元座標系に変換する座標変換手段と、
(fはz軸に沿った原点から前記前景までの距離を示す)
ユーザから受け付けた、極座標系(r,θ,z)では次式で定義される3次元速度場及び物理条件の設定に基づいて前記前景に対して3次元速度ベクトルを設定する設定手段と、
(V ,V θ ,V はそれぞれの方向への速度、Qは流量に関する定数を示す)
前記3次元座標系に変換した前景を前記3次元速度ベクトルに基づいて次式を用いて時間発展し、前記前景を動画化する動画化計算手段と、
(∇は一次微分演算子、vは速度、ρは密度、νは粘性係数、Fは外部力である。速度v=v +v であり、v はユーザから受け付けた3次元速度場の速度ベクトル、v は物理現象に基づいた速度ベクトルであって次式で定義する)
(θは大きさwvを持つ風のX軸方向に対する角度であり、gは重力定数である)
前記分離手段が算出した前記前景と前記背景の混ざり具合の比率を用いて前記動画化した前景と前記補間した背景とを合成する合成手段と、
を有することを特徴とする動画化装置。
Input means for inputting an image and storing it in the storage means;
The image is read from the storage means, and a user instruction input to a part of the foreground to be animated and a user instruction input to a part of the background that is not to be animated are received. Separating means for separating the foreground and the background;
Interpolating means for interpolating the missing region obtained by separating the foreground of the background using the background texture; and
Coordinate conversion means for converting the foreground coordinates (X, Y) into a three-dimensional coordinate system represented by (x, y, z) based on the following equation:
(F indicates the distance from the origin along the z axis to the foreground)
In the polar coordinate system (r, θ, z) received from the user, setting means for setting a three-dimensional velocity vector for the foreground based on the setting of the three-dimensional velocity field and physical conditions defined by the following equations:
(V r , V θ , V z are speeds in the respective directions, and Q is a constant related to the flow rate)
An animation calculation means for developing the foreground converted into the three-dimensional coordinate system in time based on the three-dimensional velocity vector using the following formula and converting the foreground into an animation;
(∇ is the first derivative operator, v is the velocity, ρ is the density, ν is the viscosity coefficient, F is the external force. V is v = v 1 + v 2 and v 1 is the three-dimensional velocity field received from the user. velocity vector, v 2 is a velocity vector based on the physical phenomenon is defined by the following equation)
(Θ is an angle with respect to the X-axis direction of a wind having a magnitude wv, and g is a gravitational constant)
A synthesizing unit that synthesizes the animated foreground and the interpolated background using the ratio of the mixture of the foreground and the background calculated by the separating unit ;
An animation apparatus comprising:
請求項1に記載した動画化方法における各ステップをコンピュータに実行させるための動画化プログラム。   An animation program for causing a computer to execute each step in the animation method according to claim 1.
JP2009116681A 2009-05-13 2009-05-13 Animation method, animation apparatus, and animation program Expired - Fee Related JP4845998B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009116681A JP4845998B2 (en) 2009-05-13 2009-05-13 Animation method, animation apparatus, and animation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009116681A JP4845998B2 (en) 2009-05-13 2009-05-13 Animation method, animation apparatus, and animation program

Publications (2)

Publication Number Publication Date
JP2010267006A JP2010267006A (en) 2010-11-25
JP4845998B2 true JP4845998B2 (en) 2011-12-28

Family

ID=43363944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009116681A Expired - Fee Related JP4845998B2 (en) 2009-05-13 2009-05-13 Animation method, animation apparatus, and animation program

Country Status (1)

Country Link
JP (1) JP4845998B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935082A (en) * 1995-07-19 1997-02-07 Hitachi Ltd Image processing method and image processor
JP3277815B2 (en) * 1996-07-01 2002-04-22 ソニー株式会社 Image data encoding apparatus / method and decoding apparatus / method
JPH11355548A (en) * 1998-06-03 1999-12-24 Sharp Corp Image processor
US20060029275A1 (en) * 2004-08-06 2006-02-09 Microsoft Corporation Systems and methods for image data separation
JP4045284B2 (en) * 2005-12-07 2008-02-13 エヌ・ティ・ティ・コミュニケーションズ株式会社 Weather map generating apparatus, weather map generating method, and weather map generating program
JP4272226B2 (en) * 2006-10-18 2009-06-03 日本電信電話株式会社 Image fluid system interaction expression apparatus, method, and program thereof

Also Published As

Publication number Publication date
JP2010267006A (en) 2010-11-25

Similar Documents

Publication Publication Date Title
KR101145260B1 (en) Apparatus and method for mapping textures to object model
US7450122B2 (en) Volumetric hair rendering
JP5299173B2 (en) Image processing apparatus, image processing method, and program
Han et al. Fast example-based surface texture synthesis via discrete optimization
CN109906600B (en) Simulated depth of field
US20230025285A1 (en) Method for Generating Simulations of Fluid Interfaces for Improved Animation of Fluid Interactions
US20220375152A1 (en) Method for Efficiently Computing and Specifying Level Sets for Use in Computer Simulations, Computer Graphics and Other Purposes
KR101523328B1 (en) Method of providing pose-library for three-dimensional animation character, apparatus performing the same and storage media storing the same
CN114730480A (en) Machine learning based on volume capture and grid tracking
KR101566459B1 (en) Concave surface modeling in image-based visual hull
JP2017188071A (en) Pattern change simulation device, pattern change simulation method and program
JP4845998B2 (en) Animation method, animation apparatus, and animation program
US10922872B2 (en) Noise reduction on G-buffers for Monte Carlo filtering
JP2004334694A (en) Image generation method, device, program and record medium recording the program
US11455780B2 (en) Graphical user interface for creating data structures used for computing simulated surfaces for animation generation and other purpose
JP2009295129A (en) Animation method, device, and program for still image
JP5008772B2 (en) Still image animation method, apparatus and program
US8010330B1 (en) Extracting temporally coherent surfaces from particle systems
Chen et al. A simple method to animate vegetation in images using simulation-guided grid-based warping
Huang et al. Interactive Painting Volumetric Cloud Scenes with Simple Sketches Based on Deep Learning
JP2015011496A (en) Image processor, image processing method, and program
Zhao et al. Video synthesis from still images using 3-D flow models
CN114241013A (en) Object anchoring method, anchoring system and storage medium
Sakaino et al. 3D photodynamic tool using a single 2D image with 3D velocity primitives and physical effects
JP2004078431A (en) Image generating method and device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111004

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111011

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4845998

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees