JP4913973B2 - 音響信号により駆動される人間の顔の合成モデルのアニメ化方法 - Google Patents
音響信号により駆動される人間の顔の合成モデルのアニメ化方法 Download PDFInfo
- Publication number
- JP4913973B2 JP4913973B2 JP2001573407A JP2001573407A JP4913973B2 JP 4913973 B2 JP4913973 B2 JP 4913973B2 JP 2001573407 A JP2001573407 A JP 2001573407A JP 2001573407 A JP2001573407 A JP 2001573407A JP 4913973 B2 JP4913973 B2 JP 4913973B2
- Authority
- JP
- Japan
- Prior art keywords
- model parameter
- parameter vectors
- active shape
- shape model
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 33
- 230000033001 locomotion Effects 0.000 claims description 66
- 239000013598 vector Substances 0.000 claims description 39
- 230000001815 facial effect Effects 0.000 claims description 18
- 238000004458 analytical method Methods 0.000 claims description 17
- 230000015572 biosynthetic process Effects 0.000 claims description 13
- 238000003786 synthesis reaction Methods 0.000 claims description 13
- 230000009466 transformation Effects 0.000 claims description 12
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 230000007935 neutral effect Effects 0.000 claims description 9
- 238000000844 transformation Methods 0.000 claims description 4
- 210000000887 face Anatomy 0.000 claims description 2
- 210000001061 forehead Anatomy 0.000 claims description 2
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 230000008878 coupling Effects 0.000 claims 4
- 238000010168 coupling process Methods 0.000 claims 4
- 238000005859 coupling reaction Methods 0.000 claims 4
- 230000000875 corresponding effect Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 5
- 239000003550 marker Substances 0.000 description 5
- 238000012549 training Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010048865 Hypoacusis Diseases 0.000 description 1
- 241000220010 Rhode Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229940050561 matrix product Drugs 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/205—3D [Three Dimensional] animation driven by audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
- Toys (AREA)
Description
技術分野
この発明は音声映像通信システム又はマルチメディア通信システムに関し、特に、オーディオ信号により駆動される人間の顔の合成モデルをアニメ化する方法に関する。
【0002】
背景技術
ユーザーとアプリケーションとの相互作用を容易にしかつ増加させるべく、マルチメディアアプリケーションの開発において自然又は合成の対象物の統合についての関心が増しつつあり、この意味で、マン−マシン関係を簡易にする擬人的モデルの使用が予想される。この関心は、最近、国際標準化機構によっても認められた。とりわけ、ISO/IEC規格14496「Generic Coding of Audio-Visual Objects」(一般に「MPEG−4規格」として知られており、以下このように称する。)は、このようなアプリケーションに対して一般的な枠組みを設けることを目的とする。
一般にこのようなアプリケーションでは、MPEG−4規格に示された特定の解決策に関わらず、擬人化モデルが他の情報フローを助けるものと思われ、アニメ化し得る対象物と考えられる。この場合、アニメーションは、例えばスピーチとしてのオーディオ信号により駆動される。これらの信号も、音声系列、即ち「音素」の系列として考えることができる。この場合、「音素」は、最小の言語単位(言語中の違いを示すサウンドの概念に対応する)である。
この場合には、声自体に同期したモデルの形状と外観を変形できるアニメーションシステムが開発され、合成顔がスピーチの典型的な表現を示す必要がある。開発が向かう最終的な結果は、可能な限り自然に見える話す頭部又は顔である。
【0003】
この種のアニメ化モデルの用途は、ウエルカム又はオンラインヘルプのメッセージのようなインターネットのアプリケーションから、共同作業アプリケーション(例えばe−メイルブラウザ)や、映画やテレビのポストプロダクション効果の作成のようなプロのアプリケーションや、ビデオゲームなどに範囲を広げ得る。
一般に使用される人間の顔モデルは、一般に三次元メッシュ構造(「ワイヤフレーム」として公知である)から成る幾何的表現に基づいて作られる。アニメーションは、ワイヤフレーム(又はそれぞれの部分集合)を形成する多角形の適当な変換を連続して行うことに基づき、要求される効果を再生する、即ち当該特定の場合にはスピーチに関係した動きの再生を行う。
この目的のためMPEG−4規格により予想される解決策は、1組の顔のアニメーションパラメータの使用を示す。これは、モデルに対して独立に定義されシステムの協同作業性を保証する。このパラメータセットは、3つのレベルで編成される。すなわち、最高のレベルが、いわゆる「バイスメ(visemes)」と「表現(expressions)」とから成り、最低のレベルが、顔の一般ポーズを可能にする基本的変換から成る。MPEG−4規格により、バイスメは1以上の類似の音素の視覚的等価物である。
【0004】
この発明では、バイスメなる用語は、音素の発声に関連した顔の形状を示すのに使用され、低レベルMPEG−4パラメータの適用により得られる。従って、高レベルMPEG−4パラメータを参照しない。
声により駆動される顔モデルをアニメ化するための種々のシステムが、文献から公知である。例えば、F.Lavagetto の「Converting Speech into Lip Movements: A Multimedia Telephone for Hard of Hearing People 」, IEEE Transactions of Rehabilitation Engineering, Vol.3, N.1, March 1995; DIST, Genoa University の「Description of Algorithms for Speech-to-Facial Movements Transformation 」, ACTS "SPLIT" Project, November 1995; TUB、Technical University of Berlinの「Analysis and Synthesis of Visual Speech Movements 」, ACTS "SPLIT" Project, November 1995 、なる文献を挙げることができる。しかしながら、これらのシステムは、MPEG−4規格に応じたパラメータを実現せず、このためあまり柔軟でない。
【0005】
MPEG−4規格に応じたアニメーション方法は、本出願人によるイタリア特許出願TO98A000842に記載されている。この方法は、MPEG−4規格により定義されたバイスメと特定言語に固有のバイスメとから成る1セットから選択されたバイスメを音素又は音素群に関連付ける。本発明により、バイスメは、モデルの唇領域及び顎の形状及び/又は位置を特徴付けるマクロパラメータ群に分割され、中立位置からの変化を表しかつアニメ化されたモデルの適切な自然さを保証するそれぞれの強度値に関連付けられる。さらに、マクロパラメータは、MPEG−4規格で定義された低レベル顔アニメーションパラメータに分割され、これに対しても、マクロパラメータにリンクした強度値が関連付けられ、アニメ化されたモデルの適切な自然さを保証する。
前記方法は、異なる言語に対して使用でき、結果として得られる合成モデルの適当な自然さを保証する。しかしながら、この方法は、現実の話者の顔を追跡した動きデータ分析に基づいていない。このため、アニメーションの結果は、あまりリアルでも自然でもない。
【0006】
本発明の開示
本発明による方法は、言語に依存せず、また、現実の話者を追跡して声と顔の動きとを同時分析したことに基づいている故に、アニメ化された合成モデルをさらに自然にしている。本発明による方法は、特許請求の範囲に記載されている。声によりガイドされる顔モデルをアニメ化するために、いわゆる「アクティブ形状モデル」(以下、頭字語ASMを使用する)の使用が、S.LepsoyとS.Curinga の「Conversion of articulatory parameters into active shape model coefficients for lip motion representation and synthesis」, Image Communication 13 (1998)、第209〜225頁、及びS.Leosoyの「Active shape models for lip motion synthesis」, Proceedings of the International Workshop on Synthetic-Natural Hybrid Coding and Three Dimensional Imaging (IWSNHC3DI 97), Rhodes (Greece)、1997年9月、第200〜203頁に示唆されており、こられは特に動きの表現変換の問題を扱っている。アクティブ形状モデル法は、空間内に点を分布するための表現技術であり、これは、少数のパラメータにより顔や他の変換可能な対象物を記載するのに特に有効である。従って、これらのアクティブ形状モデルは、データ量の削減を可能にする。これが、本発明の目的のために用いられる特徴である。
アクティブ形状モデル理論についてのさらなる詳細は、例えば、T.F.Cootes, D.Cooper, C.J.Taylor及びJ.Grahamの「Active Shape Models - Their Training and Application, Computer Vision and Image Understanding 」, Vol.61, no.1、1995年1月、第38〜59頁に見出せる。
【0007】
本発明の詳細な説明の前に、以下の一般的な前置きを行わなければならない。
アニメーションは音声系列により駆動され、該系列において各音素が発声される時点は知られている。この発明は、言語に依存しないアニメーション方法を示す。このことは、次の操作系列が、スピーチの動きが再生されるべき各言語で同じあることを意味する。この発明により、人間の顔のそれぞれの動きを、言語に固有の音声データに関連付けることができる。このような動きは、統計分析により得られ、非常にリアルなアニメーション効果を与える。実際には、ワイヤフレームに基づいて得られるモデルの場合には、アニメーションは、MPEG−4規格で定義された無表情又は中立的な顔を表す基本モデルに対する動きとして作られた1組の動きを、ワイヤフレームの頂点に適用することに存する。これらの相対的な動きは、ある基本ベクトル(「自動変換」という)の線形結合の結果である。後で説明する分析の一部が、このようなベクトルの組を見つけるのに使用される。その他の部分は、MPEG−4規格で定義された低レベルアニメーションパラメータ(いわゆるFAP(顔アニメーションパラメータ))により表現された変換を各音素に関連付けるのに使用される。
次に、アニメーションすなわち合成段階は、特定の駆動テキスト中の音素に対応するバイスメの系列を、モデルが基礎とするワイヤフレームの頂点についての動きの系列に変換することに存する。
【0008】
以下の説明の理解を容易にするため、ワイヤフレーム構造に基づいて作られた人間の顔モデルを図1に示す。数字1はワイヤフレーム構造を示し、数字2はテクスチャー(即ち、ワイヤフレーム自体の頂点と交差するワイヤフレームを満たす表面)に関連し、数字3は実際の人のピクチャーを用いて完成されたモデルを示す。ワイヤフレームに基づいたモデルの作成方法は本発明の一部ではないので、ここではさらに説明しない。この作成に関するプロセスの例は、本出願人によるイタリア特許出願TO98A000828に記載されている。
【0009】
図2は、本発明によるプロセスに関する分析段階をさらに詳細に示す。
話者4が1以上の期間(sessions)において1組の訓練フレーズのうちの幾つかのフレーズを発声し、該人が話している間に声と顔の動きとが適当なサウンド記録装置5とテレビカメラ6により記録される。同時に、発声されたテキストの音声の表記が行われてテキスト中に存在する音素を得る。
声の記録装置は、後続の音声整列を可能にする、即ち種々の音素が発声される複数の時点を識別可能にするべく適切な質を与えるアナログ又はデジタル装置とできる。このことは、時間軸が幾つかのインターバルに分割されることを意味し、その結果、各インターバルはある音素の発声に対応する(図2中の「オーディオセグメンテーション」工程)。ある時点は各インターバルに関連付けられ、各インターバル中の時点は、音素が隣接の音素から受ける影響が最小である。以下、上記時点は、音素にリンクした時点を参照したとき理解されるであろう。
音声整列の概念を明瞭にするために図3と後の表1とが参照できる。両方とも、フレーズ「Un trucchetto geniale gli valse l'assoluzione 」についてそれぞれタイミングの取られた音声分析及び音声表記に関する。
【0010】
【表1】
【0011】
声と動きは、同期して記録される。従って、音声の整列は、音素が各フレーム内で発声された情報を与える。この情報により、アルファベットの各音素に対して顔の幾何学的等価物の推定を可能にする。
再度、図2に関し顔の動きの記録を考えると、この記録は「動き追跡」技術により得るのが有利である。この技術により、重要な顔の特徴(例えば、目の角、唇と顔の縁)に位置する1組のマーカーの動きの推定に基づいた大いにもっともらしいアニメーションが可能になる。これらのマーカーは、図4において数字7で示されている。マーカーに対して選択されるポイントは、「ランドマーク」又は「特徴点」と称する。一般に、マーカーは小さい物体であり、その固有位置は、光学的又は磁気的装置により検出できる。動き追跡技術は、当該分野において周知であり、ここではさらなる説明は要しないであろう。有意なデータセットを得るために、ある数のフレーズ(少なくとも百個)が各言語に対して記録される必要がある。従って、動き追跡装置の内部記憶容量の限界及びフレーズ読み出しにおけるエラーゆえに、好ましくは、記録はいくつかの期間にて行うべきである。これらの期間の各々は、1以上のフレーズに専用される。
【0012】
マーカー7の動きを追跡することにより得られるデータは、いくつかの理由により直接的な分析には適さない1組の座標から成る。これは、いくつかの撮影期間が実行されると被験者の位置の違いが生じるからである。また、避けられない頭部の動きをデータから削除しなければならない。本目的は、顔の自然なポーズに関する動きをモデル化することであり、絶対的な動きをモデル化することではない。表情は使用する装置にも依存する。記録されたデータ中のエラー(例えば、ある時間でのいくつかのマーカーの突然の動きや消失)が起こり得る。信頼のおけるデータを得るためには、これらのエラーに対しては修正段階が必要である。換言すれば、生のデータの修正及び標準化が必要である。
この目的のために、各記録の初めに、話者の顔はできるだけMPEG−4規格で定義された顔の中立位置を取らなければならない。標準化(又は訓練データのクリーニング)は、マーカー7に対応するポイントセットを中立的な顔の一般モデル中のそれぞれの特徴点に整列させることに存する。この顔モデルの空間方位、位置及び寸法は知られている。この変換のパラメータは、記録における第1フレームに基づいて計算される。マーカー7は異なる記録中には同じ位置にはないかもしれないので、系列中のフレームへの参照が要求される。この操作は、記録された各系列に対して実行される。
【0013】
実際、記録で使用されるある数(例えば3つ)のマーカーは、額に付けられた堅固な物体の上にあり(図4ではこの物体は数字8で示されている)、記録中に対象の頭部全体の避けられない動きを消去するのに使用される。簡単のために、例として、最初の3つのマーカーの使用が仮定できる。従って、系列中の最初のものに続く全フレームにおいて、最初の3つのマーカーが最初のフレーム中の対応するマーカーに一致するように座標セットを回転及び平行移動させる。この操作の後、最初の3つのマーカーはもはや使用されない。また、各ピクチャーの現実の顔の特徴点の位置が、中立的な顔として選ばれたモデルの位置と可能な限り一致しなければならない。このことは、記録されたピクチャーをスケーリングしてモデルの寸法にそれを適合させること、及び平行移動させることを伴う。上述のように、この段階では、最初の3つのマーカーはもはや使用されない。
多量の動きデータを扱うため(ある実施態様では、転送されるデータ量を削減するためにも)、動きの圧縮表現を見い出さなければならない。この圧縮では、顔の種々の領域での動きが相関しているということを利用する。従って、上述のように、本発明により、動きの数値表現がいくつかの基本ベクトル(「自動変換」という)の組み合わせとして圧縮され表現される。自動変換は、記録され変換された系列中に含まれる顔の動きの可能な最も近い近似を可能にしなければならない。強調すべきは、ここで扱う動きは中立ポーズに関するものである。圧縮の目的は、ASMの構成部分である主成分分析(PCA)により達成される。この分析から生じる主な成分は、自動変換と同一であり、本発明では同じ意味を有する。
【0014】
スピーチ中に取られる顔のポーズ(即ち、特徴点の位置)は、ある精度にて自動変換の線形結合として近似できる。これらの線形結合は、(低レベルパラメータにより)特徴点の位置として表されるバイスメの表現を与える。線形結合の係数は、ASMパラメータと称される。要約すると、特徴点の座標を含んだベクトルxは、
【外1】
の座標を用いて得られる中立的な顔に対する変換である。この場合、Pは列として自動変換を含んだ行列であり、vはASMパラメータを有するベクトルである。
ASMモデルは、少数のパラメータから成るベクトルによる動き追跡中に顔が取るポーズの表現を可能にする。例示目的のため、41個のマーカーの座標が、10個のASMパラメータを用いて満足する結果に近似され得る。また、これらの操作は、収集システムに固有の(即ち、顔の動きとは相関しない)ノイズ成分を抑える。
【0015】
声と動きの情報収集の後、バイスメの計算段階が続く。
この段階の目的は、各単一の音素に関連するASMパラメータのベクトル、即ちバイスメを決定することである。基本的な基準は、記録された動きを最高に近似できる合成(すなわちアニメーション)を作ることである。合成段階で使用されるパラメータを推定するためにこの基準が本発明において採用されていることを強調することは重要である。このことは、動き追跡中に記録されたフレーズセットに属するフレーズのみならず、どんなフレーズの動きも再生できることを意味する。上述のように、アニメーションは、それぞれの時点に関連した音素によりガイドされる。アニメーション駆動テキストの個々の音素に関連したバイスメが直接的に使用されないならば、音素に関連した複数の時点に対応した動きの表現が非常に不連続なものになるであろう。実際、顔の動きは、連続的な現象であり、従って、動きの連続的な(従ってより自然な)表現を与えるために、隣接するバイスメを補間しなければならない。
補間は、計算されるべきバイスメの凸結合であり、該結合の係数(重み)は時間に従い定められる。全ての係数が[0,1]の区間にあり、かつ、それらの和が1に等しい場合には、線形結合は凸と定義される。一般に、補間係数は、発声の時点を含む小さな区間においてのみ零とは異なる値を有する。発声の時点では、係数値は最大に達する。バイスメに対して補間を実施すること(補間ノードを形成すること)が要求される場合には、全ての係数は、1に等しくしなけらばならない特定バイスメの係数を除いて、ある音素の時点においては零に等しくなければならない。
【0016】
これらの係数のために使用できる関数の例は次の通りである。
【数2】
ここで、tn はn番目の音素の発声の時点である。
【0017】
以下に記載する操作は、合成された動きと共に記録された動きの近似基準を考慮するのに使用される。バイスメベクトルは、行列Vを形成する行にグループ化できる。次に、凸結合の係数は、行ベクトル
【外2】
にグループ化できる。従って、バイスメの凸結合は、積
【外3】
により形成される。係数のベクトルは時間の関数であり、各行がある時点の係数を含む行列Cが形成できる。分析のため、動き追跡データが存在する複数の時点が選択される。積CVは、追跡データ中に含まれる自然な動きを近似できるASMベクトルの行を含む。この工程の目的は、(観測されたフレームの)自然な動きと合成された動きとのギャップを最小にすべく、バイスメを含むV行列中の要素を決定することである。有利には、積CVの行と、記録された動きを表現するASMベクトルとの間の平均二乗距離は、ユークリッド・ルールにより定められるように最小化される。
【0018】
バイスメを計算した後、次の工程は、上述の操作により得られた圧縮表現からMPEG−4規格で定義された特徴点の空間内での位置に移すことに存する。計算されたバイスメがASM係数を含んだベクトルであることを考慮すると、アクティブ形状モデル理論において記載されているように、簡単な行列の積により変換を得ることができる。特徴点の変換を含んだベクトルは、(列としての)ASMベクトルに対して自動変換行列を掛けることにより得られる。
次に、低レベルの顔アニメーションパラメータは、無表情の顔に関する特徴点の位置を表す。従って、これらの低レベルパラメータにて特徴点の位置として表現されたバイスメの平行移動は直接的である。
訓練セットの全フレーズに上記操作を行った後、低レベル顔アニメーションパラメータを音素にリンクする表(これは合成(又はアニメーション)段階で使用される)が作られる。
【0019】
ここで、図5のチャートを参照すると、所与の駆動テキストから開始してモデルの合成又はアニメーションに関する操作が示されている。
ここでの「合成」は、音声情報と時間情報とに基づいてワイヤフレームの動きを計算することを意味する。よって、変換は、サウンドに関連して合成され、綿密に唇の動きを再生する。従って、合成とは、バイスメ系列をアニメ化される顔を表現するワイヤフレーム座標の系列に変換するプロセスである。合成は、音素と分析プロセスから得られた低レベルMPEG−4のFAPとの対応表に基づく。従って、アニメーションプロセスは、アニメ化されるワイヤフレーム、再生されるフレーズ中に含まれる音素、及び低レベルmi/FAP表を入力として用いる。ワイヤフレームは、空間内の1組のポイント、前のポイントを頂点として使用する1組の多角形、及び表面の外観に固有の情報(例えば色やテクスチャー)により特定される。
【0020】
所与の駆動信号(一般にはフレーズ)を再生するために、まず、音素系列として該フレーズを表記しなければならない。音素の各々は、表1の例に示されるように、それが発声された時点によりラベリングされる。バイスメの離散的な系列は、この離散的な系列に対応する。音素の系列は、再生されるフレーズのソースに従って異なる方法にて得ることができる。スピーチの波形を発生することに加えて、合成されたサウンドの場合には、シンセサイザーが、音声の表記とそれぞれの時間基準を発生する。自然の声の場合には、この情報は、オーディオ信号から抽出しなければならない。一般には、この操作は、発声されたフレーズ中の音素が知られているか否かによって、2つの異なる方法にて実行できる。一方は、「音声整列」と称され、他方は、一般に低質の結果を与える「音声認識」と称される。これらの手順は、全て文献にて公知であるから、本発明の主題ではない。
【0021】
アニメ化された顔の動きの自然さと流動性を保証するために、1秒当たり多数のピクチャー即ちフレーム(例えば少なくとも16フレーム)が要求される。この数は、駆動信号に含まれる音素の数よりもかなり多い。従って、次の2つの音素間に含まれる顔の多くの中間の動きは、後にさらに詳細に示されるように決定される必要がある。
単一のフレームの作成に関し、顔のアニメーションパラメータは特徴点から取られることに注意すべきである。このため、ワイヤフレーム内のどの頂点が考慮されている特徴点に対応するのかを知らなければならない。この情報は、分析段階で使用したものと同様の方法により、即ち、主成分に関する係数ベクトルに主成分行列を掛けることにより得られる。このようにして、FAPが頂点の動きに変換される。ワイヤフレームが予め定められた空間方位を有すべきことをMPEG−4規格が規定していることを考慮すると、動きへのFAP変換は、FAPが顔の寸法に関係した計測単位にて特定されることからみて直接的である。
【0022】
一般に、顔を再生するモデルは、特徴点の数よりずっと多い数の頂点を含む。全ての頂点の定められた動きを得るには、特徴点の動きを外挿しなければならない。特徴点に関連しない各頂点の動きは、特徴点の動きの凸結合となる。動かされる頂点と特徴点の各々との距離に基づいて、相対係数が計算される。この目的のため、ワイヤフレームの弧に沿った最小の距離長さ(Dijkstraの距離として知られている)が使用される(E.Dijkstraの「A note on two problems in connection with graphs」, Numerische Mathematik, Vol.1, p.269-271, Springer Verlag, Berlin, 1959)。特徴点により与えられる頂点への寄与は、2点間のDijkstraの距離のn乗に逆比例する。この累乗は、動かされる頂点に近い特徴点に大きな重要性を与える目的で決定され、ワイヤフレームの寸法とは独立である。
後者の操作は、ワイヤフレーム全体におけるバイスメの表現となる。上述の方法の使用により、全ての特徴点が全ての頂点に作用するという利点が得られ、従って、動かされる各頂点に対するこれらの点の部分集合の特定はもはや必要とされない。相対的に簡単なモデルの場合にもワイヤフレームには多数の頂点があることを考慮すると、このことにより、このようにしなければ手動で実行しなければならない作業段階(よって、極度に高コストである)を省くことができる。
図6は、イタリア語における音素a、m、p:、u(EURO−MPPA音声シンボル)に対応したバイスメが、テクスチャーの加えられたワイヤフレーム全体の構造を変えることにより如何にして表されるかを示す。
【0023】
上述のように、フレーズを合成するためには時間的な展開を考慮しなければならない。開始点は、離散的な瞬間の公知のバイスメの系列である。可変又は固定のフレームの周波数を任意に用いるために、モデルの動きが時間の連続関数として表現される。時間の連続関数としての表現は、分析段階において説明したのと同様の方法にて達成されるバイスメの補間により得られる。凸結合における係数として作用するスケーリングは、各バイスメに関連する。この係数は、時間の連続関数であり、バイスメを計算するための分析段階にて前に使用された補間ルーチンにより計算される。効率性の理由により、好ましくは、計算は補間により実行され、特徴点の数は頂点の数よりも少ない。連続表現は、任意にサンプリングでき、連続して示されサウンドに同期した個々のフレームを得てコンピュータ上にアニメーションを再生できる。
ここでの記載は、非限定的な例として与えられており、本発明の保護の範囲内での変更が可能なのは明らかである。
【図面の簡単な説明】
【図1】 人間の顔のモデルの3つのピクチャーを示し、左のピクチャーのみワイヤーフレームであり、中間のピクチャーは均質な色付けと陰影付けを施したものであり、右のピクチャーはさらにテクスチャーが施されている。
【図2】 言語固有の音声データと人間の顔のそれぞれの動きを関連付ける分析操作を示すフローチャートである。
【図3】 音声整列の例を示す。
【図4】 一般動きの追跡期間中に使用される一組のマーカーを示す。
【図5】 合成操作を示すフローチャートであり、該合成操作では、忠実なモデルアニメーションを駆動するのに使用されるテキストの音声フローを変換する。
【図6】 モデルアニメーションの例を示す。
【符号の説明】
7 マーカー
8 堅固な物体
Claims (7)
- 人間の顔の形状を表すアクティブ形状モデルパラメータ・ベクトルを求めて、前記人間の顔を合成する方法であって、前記方法は分析段階と合成段階とを含み、
前記分析段階は、
動き追跡装置とサウンド記録装置とが、同期して、話者の顔の形状を表す情報と、該話者の声を表す情報とを記録するステップと、
コンピュータが、顔の形状を表す前記情報から、複数の第1の時点の各々における顔の形状をそれぞれ表す複数の第1のアクティブ形状モデルパラメータ・ベクトルを求めるステップであって、前記複数の第1の時点は、顔の形状を表す前記情報を記録した時間の中の複数の時点である、ステップと、
コンピュータが、声を表す前記情報から、複数の音素と、それぞれ該複数の音素の各々が発声された時点である複数の第2の時点を求めるステップと、
コンピュータが、前記複数の第2の時点の各々において発声された音素にそれぞれ関連する複数の第2のアクティブ形状モデルパラメータ・ベクトルを求めるステップであって、前記複数の第2のアクティブ形状モデルパラメータ・ベクトルの各々は、前記複数の第1のアクティブ形状モデルパラメータ・ベクトルの各々と複数の第3のアクティブ形状モデルパラメータ・ベクトルの各々との距離が最小となるように求められ、前記複数の第3のアクティブ形状モデルパラメータ・ベクトルの各々は、前記複数の第1の時点の各々における近似された顔の形状を表し、前記複数の第3のアクティブ形状モデルパラメータ・ベクトルは、前記複数の第2のアクティブ形状モデルパラメータ・ベクトルの凸結合である補間関数を使用して定められ、前記補間関数は、時間の関数である所定の結合係数を有する、ステップと
を含み、
前記合成段階は、
コンピュータが、オーディオ駆動信号から、複数の第3の時点を求めるステップであって、前記オーディオ駆動信号は、複数の音素を表す第1の情報と、複数の時点を表す第2の情報とを含み、前記第2の情報によって表される複数の時点の各々は、前記第1の情報によって表される前記複数の音素の各々が発声される時点であり、前記複数の第3の時点の各々は、前記第2の情報によって表される複数の時点の各々である、ステップと、
コンピュータが、複数の第4のアクティブ形状モデルパラメータ・ベクトルの凸結合である補間関数を使用して、複数の第5のアクティブ形状モデルパラメータ・ベクトルを求めるステップであって、前記複数の第4のアクティブ形状モデルパラメータ・ベクトルの各々は、求めた前記複数の第2のアクティブ形状パラメータ・ベクトルのうちの、前記第1の情報によって表される複数の音素の各々に関連するアクティブ形状パラメータ・ベクトルであり、前記複数の第5のアクティブ形状モデルパラメータ・ベクトルの各々は、前記複数の第3の時点のうちの2つの時点の間の時点における補完された顔の形状を表し、前記合成段階において使用される前記補間関数の結合係数は、前記分析段階で使用される前記結合係数と同じである、ステップと
コンピュータが、前記複数の第4のアクティブ形状モデルパラメータ・ベクトルと前記複数の第5のアクティブ形状モデルパラメータ・ベクトルとを使用して、人間の顔を合成するステップと
を含む、方法。 - 前記分析段階で求めた前記複数の第2のアクティブ形状モデルパラメータ・ベクトルに基づいてモデル特徴点に対応したワイヤフレームの頂点をコンピュータが識別し、前記複数の第4のアクティブ形状モデルパラメータ・ベクトル及び前記複数の第5のアクティブ形状モデルパラメータ・ベクトルの各々に対してコンピュータが特徴点の変換を行うことにより顔の形状の補間の操作を行ってワイヤフレームベースのモデルをアニメ化する、請求項1又は2に記載の方法。
- 前記合成段階で合成される顔の各々に対し、コンピュータが、特徴点に対応するワイヤフレームの頂点にのみ変換を行い、特徴点に対応するワイヤフレームの頂点に行う変換の凸結合により残りの頂点に変換を拡張する、請求項3記載の方法。
- コンピュータが、前記複数の第2のアクティブ形状モデルパラメータ・ベクトルを話者の顔の特徴点の座標に変換し、次に、前記座標を低レベル顔アニメーションパラメータに変換する、請求項1記載の方法。
- コンピュータが特徴点自体を識別する1組のマーカーの動きを分析することにより、特徴点の座標を表す前記低レベル顔アニメーションパラメータを得る、請求項5記載の方法。
- 前記動き追跡装置が、
(イ) 話者の額に付けられた物体にマーカーの部分集合を関連させ、
(ロ) 記録の初めに、中立の顔モデルの位置にできるだけ対応した位置を取るように話者の顔を設定し、このような中立位置にある顔の第1フレームを得る、
という方法により顔の特徴点の座標を表すデータを標準化し、
コンピュータが、前記第1フレームに続く全てのフレームに対し、前記部分集合のマーカーに対応する座標が前記第1フレーム内の同じ部分集合のマーカーの座標と一致するように、座標セットを回転し平行移動する、請求項6記載の方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT2000TO000303A IT1320002B1 (it) | 2000-03-31 | 2000-03-31 | Procedimento per l'animazione di un modello sintetizzato di voltoumano pilotata da un segnale audio. |
IT2000A000303 | 2000-03-31 | ||
ITTO2000A000303 | 2000-03-31 | ||
PCT/IT2001/000117 WO2001075805A1 (en) | 2000-03-31 | 2001-03-09 | Method of animating a synthesised model of a human face driven by an acoustic signal |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2003529861A JP2003529861A (ja) | 2003-10-07 |
JP2003529861A5 JP2003529861A5 (ja) | 2012-01-19 |
JP4913973B2 true JP4913973B2 (ja) | 2012-04-11 |
Family
ID=11457634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001573407A Expired - Fee Related JP4913973B2 (ja) | 2000-03-31 | 2001-03-09 | 音響信号により駆動される人間の顔の合成モデルのアニメ化方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US7123262B2 (ja) |
EP (1) | EP1203352B1 (ja) |
JP (1) | JP4913973B2 (ja) |
CA (1) | CA2375350C (ja) |
DE (1) | DE60101540T2 (ja) |
IT (1) | IT1320002B1 (ja) |
WO (1) | WO2001075805A1 (ja) |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9400921B2 (en) * | 2001-05-09 | 2016-07-26 | Intel Corporation | Method and system using a data-driven model for monocular face tracking |
CN1313979C (zh) * | 2002-05-03 | 2007-05-02 | 三星电子株式会社 | 产生三维漫画的装置和方法 |
ITTO20020724A1 (it) * | 2002-08-14 | 2004-02-15 | Telecom Italia Lab Spa | Procedimento e sistema per la trasmissione di messaggi su |
US8421804B2 (en) | 2005-02-16 | 2013-04-16 | At&T Intellectual Property Ii, L.P. | System and method of streaming 3-D wireframe animations |
WO2005031654A1 (en) * | 2003-09-30 | 2005-04-07 | Koninklijke Philips Electronics, N.V. | System and method for audio-visual content synthesis |
US7142107B2 (en) * | 2004-05-27 | 2006-11-28 | Lawrence Kates | Wireless sensor unit |
TW200540732A (en) * | 2004-06-04 | 2005-12-16 | Bextech Inc | System and method for automatically generating animation |
JP2006004158A (ja) * | 2004-06-17 | 2006-01-05 | Olympus Corp | 画像処理プログラム、画像処理方法、画像処理装置及び記録媒体 |
GB2423905A (en) * | 2005-03-03 | 2006-09-06 | Sean Smith | Animated messaging |
US7388586B2 (en) * | 2005-03-31 | 2008-06-17 | Intel Corporation | Method and apparatus for animation of a human speaker |
US20080158230A1 (en) * | 2006-12-29 | 2008-07-03 | Pictureal Corp. | Automatic facial animation using an image of a user |
WO2008154622A1 (en) * | 2007-06-12 | 2008-12-18 | Myweather, Llc | Presentation of personalized weather information by an animated presenter |
US8743125B2 (en) * | 2008-03-11 | 2014-06-03 | Sony Computer Entertainment Inc. | Method and apparatus for providing natural facial animation |
US8180167B2 (en) * | 2008-07-16 | 2012-05-15 | Seiko Epson Corporation | Model-based error resilience in data communication |
US8224652B2 (en) * | 2008-09-26 | 2012-07-17 | Microsoft Corporation | Speech and text driven HMM-based body animation synthesis |
US8194097B2 (en) * | 2008-12-12 | 2012-06-05 | Seiko Epson Corporation | Virtual masking using rigid parametric modeling |
CN101488346B (zh) * | 2009-02-24 | 2011-11-02 | 深圳先进技术研究院 | 语音可视化系统及语音可视化方法 |
JP5178607B2 (ja) * | 2009-03-31 | 2013-04-10 | 株式会社バンダイナムコゲームス | プログラム、情報記憶媒体、口形状制御方法及び口形状制御装置 |
JP5423379B2 (ja) * | 2009-08-31 | 2014-02-19 | ソニー株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
TWI443601B (zh) * | 2009-12-16 | 2014-07-01 | Ind Tech Res Inst | 擬真臉部動畫系統及其方法 |
US8751228B2 (en) * | 2010-11-04 | 2014-06-10 | Microsoft Corporation | Minimum converted trajectory error (MCTE) audio-to-video engine |
US9728203B2 (en) | 2011-05-02 | 2017-08-08 | Microsoft Technology Licensing, Llc | Photo-realistic synthesis of image sequences with lip movements synchronized with speech |
US9613450B2 (en) * | 2011-05-03 | 2017-04-04 | Microsoft Technology Licensing, Llc | Photo-realistic synthesis of three dimensional animation with facial features synchronized with speech |
TWI521469B (zh) * | 2012-06-27 | 2016-02-11 | Reallusion Inc | Two - dimensional Roles Representation of Three - dimensional Action System and Method |
US9113036B2 (en) | 2013-07-17 | 2015-08-18 | Ebay Inc. | Methods, systems, and apparatus for providing video communications |
US9600742B2 (en) * | 2015-05-05 | 2017-03-21 | Lucasfilm Entertainment Company Ltd. | Determining control values of an animation model using performance capture |
US10839825B2 (en) * | 2017-03-03 | 2020-11-17 | The Governing Council Of The University Of Toronto | System and method for animated lip synchronization |
US10586368B2 (en) | 2017-10-26 | 2020-03-10 | Snap Inc. | Joint audio-video facial animation system |
CN109308731B (zh) * | 2018-08-24 | 2023-04-25 | 浙江大学 | 级联卷积lstm的语音驱动唇形同步人脸视频合成算法 |
EP3664100A1 (en) * | 2018-12-05 | 2020-06-10 | Koninklijke Philips N.V. | Associating non-verbal communication content with verbal communication content |
CN110399849B (zh) * | 2019-07-30 | 2021-07-27 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、处理器、电子设备及存储介质 |
CN113592986B (zh) * | 2021-01-14 | 2023-05-23 | 腾讯科技(深圳)有限公司 | 基于神经网络的动作生成方法、装置及计算设备 |
CN116309988A (zh) * | 2023-02-09 | 2023-06-23 | 华南理工大学 | 一种基于音频驱动的三维人脸动画生成方法、装置及介质 |
CN117877509B (zh) * | 2024-03-13 | 2024-06-04 | 亚信科技(中国)有限公司 | 一种数字人实时交互方法及装置、电子设备、存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0744727A (ja) * | 1993-07-27 | 1995-02-14 | Sony Corp | 画像作成方法およびその装置 |
JPH08235384A (ja) * | 1994-11-07 | 1996-09-13 | At & T Corp | 音響支援画像処理 |
JPH11328440A (ja) * | 1998-03-16 | 1999-11-30 | Atr Ningen Joho Tsushin Kenkyusho:Kk | アニメーションシステム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5608839A (en) * | 1994-03-18 | 1997-03-04 | Lucent Technologies Inc. | Sound-synchronized video system |
US6232965B1 (en) * | 1994-11-30 | 2001-05-15 | California Institute Of Technology | Method and apparatus for synthesizing realistic animations of a human speaking using a computer |
FR2749420B1 (fr) * | 1996-06-03 | 1998-10-02 | Alfonsi Philippe | Procede et dispositif de formation d'images animees d'un interlocuteur |
US6208356B1 (en) * | 1997-03-24 | 2001-03-27 | British Telecommunications Public Limited Company | Image synthesis |
US6072496A (en) * | 1998-06-08 | 2000-06-06 | Microsoft Corporation | Method and system for capturing and representing 3D geometry, color and shading of facial expressions and other animated objects |
US6366885B1 (en) * | 1999-08-27 | 2002-04-02 | International Business Machines Corporation | Speech driven lip synthesis using viseme based hidden markov models |
AU2001296459A1 (en) * | 2000-10-02 | 2002-04-15 | Clarity, L.L.C. | Audio visual speech processing |
-
2000
- 2000-03-31 IT IT2000TO000303A patent/IT1320002B1/it active
-
2001
- 2001-03-09 EP EP01917461A patent/EP1203352B1/en not_active Expired - Lifetime
- 2001-03-09 CA CA002375350A patent/CA2375350C/en not_active Expired - Lifetime
- 2001-03-09 WO PCT/IT2001/000117 patent/WO2001075805A1/en active IP Right Grant
- 2001-03-09 US US09/980,373 patent/US7123262B2/en not_active Expired - Lifetime
- 2001-03-09 JP JP2001573407A patent/JP4913973B2/ja not_active Expired - Fee Related
- 2001-03-09 DE DE60101540T patent/DE60101540T2/de not_active Expired - Lifetime
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0744727A (ja) * | 1993-07-27 | 1995-02-14 | Sony Corp | 画像作成方法およびその装置 |
JPH08235384A (ja) * | 1994-11-07 | 1996-09-13 | At & T Corp | 音響支援画像処理 |
JPH11328440A (ja) * | 1998-03-16 | 1999-11-30 | Atr Ningen Joho Tsushin Kenkyusho:Kk | アニメーションシステム |
Also Published As
Publication number | Publication date |
---|---|
JP2003529861A (ja) | 2003-10-07 |
WO2001075805A1 (en) | 2001-10-11 |
CA2375350C (en) | 2006-07-18 |
DE60101540D1 (de) | 2004-01-29 |
ITTO20000303A1 (it) | 2001-10-01 |
IT1320002B1 (it) | 2003-11-12 |
CA2375350A1 (en) | 2001-10-11 |
EP1203352B1 (en) | 2003-12-17 |
ITTO20000303A0 (it) | 2000-03-31 |
DE60101540T2 (de) | 2004-11-04 |
US7123262B2 (en) | 2006-10-17 |
US20060012601A1 (en) | 2006-01-19 |
EP1203352A1 (en) | 2002-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4913973B2 (ja) | 音響信号により駆動される人間の顔の合成モデルのアニメ化方法 | |
Cao et al. | Expressive speech-driven facial animation | |
US6097381A (en) | Method and apparatus for synthesizing realistic animations of a human speaking using a computer | |
US6654018B1 (en) | Audio-visual selection process for the synthesis of photo-realistic talking-head animations | |
Ezzat et al. | Visual speech synthesis by morphing visemes | |
Mattheyses et al. | Audiovisual speech synthesis: An overview of the state-of-the-art | |
JP5344358B2 (ja) | 演技から作り出される顔アニメーション | |
JP4631078B2 (ja) | リップシンクアニメーション作成用の統計確率モデル作成装置、パラメータ系列合成装置、リップシンクアニメーション作成システム、及びコンピュータプログラム | |
US7990384B2 (en) | Audio-visual selection process for the synthesis of photo-realistic talking-head animations | |
JP2003529861A5 (ja) | ||
US20040120554A1 (en) | System and method for real time lip synchronization | |
US20070165022A1 (en) | Method and system for the automatic computerized audio visual dubbing of movies | |
US7109993B2 (en) | Method and system for the automatic computerized audio visual dubbing of movies | |
JP2002507033A (ja) | 顔合成装置および顔合成方法 | |
KR20020022504A (ko) | 3차원 캐릭터의 동작, 얼굴 표정, 립싱크 및 립싱크된음성 합성을 지원하는 3차원 동영상 저작 도구의 제작시스템 및 방법 | |
Kalberer et al. | Face animation based on observed 3d speech dynamics | |
JP2008052628A (ja) | アニメーションデータ作成装置及びアニメーションデータ作成プログラム | |
Theobald et al. | Near-videorealistic synthetic talking faces: Implementation and evaluation | |
Ostermann et al. | Talking faces-technologies and applications | |
Kalberer et al. | Realistic face animation for speech | |
JP2974655B1 (ja) | アニメーションシステム | |
JP4617500B2 (ja) | リップシンクアニメーション作成装置、コンピュータプログラム及び顔モデル生成装置 | |
JP2009087328A (ja) | リップシンクアニメーション作成装置、コンピュータプログラム及び顔モデル生成装置 | |
Wang et al. | Photo-real lips synthesis with trajectory-guided sample selection. | |
Deena et al. | Speech-driven facial animation using a shared Gaussian process latent variable model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080310 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080310 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20090908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20090908 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20100727 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100921 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20101206 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20101217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20101206 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110105 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110120 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110127 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110218 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110318 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110523 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110822 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110829 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20111122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120106 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120120 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4913973 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150127 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |