JP2001509933A - コンピュータアニメーションモデルをオーディオ波出力と同期させる方法及び装置 - Google Patents

コンピュータアニメーションモデルをオーディオ波出力と同期させる方法及び装置

Info

Publication number
JP2001509933A
JP2001509933A JP51648399A JP51648399A JP2001509933A JP 2001509933 A JP2001509933 A JP 2001509933A JP 51648399 A JP51648399 A JP 51648399A JP 51648399 A JP51648399 A JP 51648399A JP 2001509933 A JP2001509933 A JP 2001509933A
Authority
JP
Japan
Prior art keywords
audio
audio wave
model
image
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP51648399A
Other languages
English (en)
Inventor
ダグラス ニール テッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Philips Electronics NV filed Critical Philips Electronics NV
Publication of JP2001509933A publication Critical patent/JP2001509933A/ja
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 ビデオモデルのコンピュータアニメーション画像をオーディオ波と同期出力させるために蓄積する。オーディオ波表現の受信時に、モデルをオーディオ波の制御の下でダイナミックに変化させるとともにオーディオ波と一緒に出力させる。特に、所定の画像パラメータをモデルに関連させる。実際のオーディオ波振幅を測定し、その振幅を画像パラメータに多値的に又はアナログ的にマッピングさせることによりモデルとオーディオ波の出力を同期させる。

Description

【発明の詳細な説明】 コンピュータアニメーションモデルをオーディオ波出力と同期させる方法 及び装置 発明の背景 本発明は、コンピュータアニメーションモデルをオーディオ波と同期させるた めに、前記モデルのコンピュータアニメーション画像を蓄積し、オーディオ波表 現を受信し、前記モデルを前記オーディオ波の制御の下でダイナミックに変化さ せ、前記ダイナミックに変化するモデルを前記オーディオ波と一緒に出力させる ステップを具える、コンピュータアニメーションモデルをオーディオ波出力と同 期させる方法及び装置に関するものである。いくつかのシステムはコンピュータ 発生グラフィックモデルをオーディオ波パターンの出力と一緒にアニメートさせ てモデルが出力される音声を実際に話しているような印象を生成する必要がある 。このような方法はUS5,613,056号に開示されている。この米国特許 の方法は複雑なプロシージャを使用し、一般に予め記録された音声を必要とする 。本発明はもっと簡単なプロシージャを使用し、特に予め記録されてない音声と リアルタイムで動作し得るようにする。 発明の概要 従って、本発明の目的は、特に、画像の制御にごく僅かの即時インタラクショ ンを必要とするのみであってユーザに全く自然な印象を与えるストレートフォワ ード処理を提供することにある。 従って、本発明の特徴の一つは、コンピュータアニメーションモデルをオーデ ィオ波と同期させるために、前記モデルのコンピュータアニメーション画像を蓄 積し、オーディオ波表現を受信し、前記モデルを前記オーディオ波の制御の下で ダイナミックに変化させ、前記ダイナミックに変化するモデルを前記オーディオ 波と一緒に出力させるステップを具えるコンピュータアニメーションモデルをオ ーディオ波出力と同期させる方法において、前記モデルに画像パラメータを関連 させ、実際のオーディオ波振幅を測定し、前記オーディオ波振幅を前記画像パラ メータに多値的に又はアナログ的にマッピング(写像)させて前記モデルと前記 オーディオ波を同期出力させることを特徴とする。 本発明者は、人間は音声とアニメーション可視表現との小さな差異でも検出し 得るので、アニメーション画像の人形の口を単に開閉させるだけでは実際に話し ている印象を与えることはできず、可視表現を出力される音声とできるだけ密接 に同期した状態に維持する(口合わせ)必要もあることを確かめた。ここで、“ 多値”とはアナログ又は多値ディジタルのいずれか一方を意味する。音声が瞬間 的に受信される場合には、その再生を装置がビデオ表現を修正することができる 0.1秒ぐらいの時間だけずらせてもよい。 本発明は本発明の方法を実施するよう構成された装置にも関する。本発明の他 の利点は縦続請求項について記載する。 図面の簡単な説明 本発明のこれらの特徴及び利点及び他の特徴及び利点を好適実施例につき、特 に図面を参照して以下に詳細に説明する。図面において、 図1は本発明装置の構成図を示し、 図2はオーディオ波エンベロープのサンプルピースを示し、 図3はコンピュータ発生グラフィックモデルの一例を示す。 好適実施例の詳細な説明 図1は本発明装置の構成図を示す。この装置は入力端子20に画像の情報を受 信する。この情報は静止画像、又は周囲を動く、例えば歩く、飛ぶ、又は他の特 徴的な動きをする動画像を表わすものとすることができる。画像はビットマップ 、線画、又は他の有用な表現で表わすことができる。特に、画像の1以上のパラ メータを関連するアナログ量又は多値ディジタル量で表わすことができる。ブロ ック22は次のアドレッシングのために画像を蓄積することができ、各画像はシ ステムに対し識別子又は他の個別の修飾を有する。入力端子26は適切なオーデ ィオ波表現を受信する。基本的な場合には、このオーディオ波表現はスピーカ3 8で再生される音声とすることができる。他の場合には、音声はLPCのような 標準の方法に従って符号化されているものとすることができる。適用可能な場合 には、入力端子24は例えば複数の人物画像のうちの1つを選択する可視表示の 識 別子又は複数の移動パターン等のうちの1つを選択する他の高レベル選択機構の 識別子を受信する。こうして画像記述が出力端子23に供給される。ブロック2 8において、実際のオーディオ波振幅が測定され、その値を同期出力のために相 互接続30に沿って関連する1以上の画像パラメータに多値的に又はアナログ的 にマッピング(写像)させる。出力端子32にオーディオ及び画像情報の両方が 互いに同期して出力され、画像がモニタ36上に表示されるとともに音声がスピ ーカ38で再生される。 図2は出力されるオーディオ波エンベロープのサンプルピースを示す。縦軸は オーディオ波振幅を示し、横軸は時間を示す。周期sは振幅値を測定し平均化す るサンプル周期である。実際には、この周期は実際のピッチ周期より幾分長い場 合が多く、0.001〜0.1秒の範囲内とすることができる。この平均振幅a はスケーリングファクタfでスケーリングされ、物体の位置をアニメートするの に使用される。このスケーリングファクタにより他の制御メカニズムが可能にな る。或いは又、このファクタは実際に話す“人”又は種々の他の物体に依存させ ることができる。例えば、つぶやいている人には小さな口の開閉を与えることが できる。 物体をサンプルされたオーディオ波が再生される瞬時と同期させるために、予 測時間pを用いてサンプル周期を現時刻tからオフセットさせる。この予測時間 は、装置がグラフィック物体を新しい物体位置に再び描写するのに要する時間を 見込むものとすることができる。 図3はコンピュータ発生グラフィックモデルの一例を示し、本例では楕円頭部 輪郭線50、2つの円形の目52及び下顎部分54に簡単化した基本コンピュー タ発生人間頭部の正面画像である。このモデルは下顎部分と頭部本体の残部の位 置との間のアナログ又は多値ディジタル距離a*fによりパラメータ化され、下 顎部分は(yj−a*f)として表わされる。下顎の開き距離は再生中のオーデ ィオ波のスケーリングされた(a*f)出力振幅に関連する。他の実施例ではこ れを顎の開き角又は他の位置パラメータにすることができる。オーディオは有音 及び無声期間を含むものとすることができ、大声及び小声の期間も含むものとす ることができる。この場合にはオーディオ波振幅が増大するとき顎を大きく開け させ、オーディオ波振幅が減少するときこれに応じて顎を閉させることができる 。会話中の口の動き量が再生される音声とともに変化し、従って話している印象 を与えることができる。 更に、物体のx及びz座標のような他の特性をアニメートし、物体を回転又は 拡大縮小することもできる。この技術は音楽のような音声再生だけでなく他の可 視表示に適用することもできる。スケーリングファクタfの使用は本発明の方法 を種々のサイズのモデルに使用することを可能にする。更に、スケーリングファ クタは“会話明瞭度”の種々のレベルに対し設定することができる。モデルがつ ぶやいている場合には、その口は比較的僅かに動かす必要がある。モデルが力説 している場合には、その口は大きく動かす必要がある。 本発明は種々の用途、例えばユーザ照会システム、公衆アドレスシステム、及 び表現の芸術的レベルがあまり重要でない他のシステムに使用することができる 。本発明方法は音声を出力するのみである一方向システムにおいて実行すること もできる。或いは又、本発明本発明法は双方向会話システムにおいて実行するこ ともでき、このシステムでは音声認識をユーザからの音声入力にも適用する。画 像の種々の他の特性又はパラメータを実際の音声振幅により制御することができ る。例えば、顔の色を高い音声振幅時に赤くすることができ、また例えば画像が 異常なユーザ反応時に声を張り上げることにより反応するとき髪の毛を逆立てた り、目をしばたかせることができる。更に、口の開閉は常にほぼ瞬間的にする必 要があるが、画像の種々の反応の時定数は一定にする必要はない。

Claims (1)

  1. 【特許請求の範囲】 1.コンピュータアニメーションモデルをオーディオ波出力と同期させるために 、前記モデルのコンピュータアニメーション画像を蓄積するステップと、オー ディオ波表現を受信するステップと、前記モデルを前記オーディオ波の制御の 下でダイナミックに変化させるステップと、前記ダイナミックに変化するモデ ルを前記オーディオ波と一緒に出力させるステップとを具える方法において、 前記モデルに画像パラメータを関連させ、実際のオーディオ波振幅を測定し、 前記オーディオ波振幅を同期出力のために前記画像パラメータに多値的に又は アナログ的にマッピングさせることを特徴とするコンピュータアニメーション モデルをオーディオ波出力と同期させる方法。 2.前記オーディオは音声であることを特徴とする請求項1記載の方法。 3.前記オーディオは人類似物の音声であることを特徴とする請求項1記載の方 法。 4.前記画像パラメータは位置パラメータであることを特徴とする請求項1記載 の方法。 5.前記画像パラメータは人類似物の口のサイズパラメータでることを特徴とす る請求項1記載の方法。 6.前記画像パラメータは色、顔の表情又は体の動きのうちの1つであることを 特徴とする請求項1記載の方法。 7.前記マッピングは不均一な時定数に関連することを特徴とする請求項1記載 の方法。 8.リアルタイムで実行するよう構成されていることを特徴とする請求項1記載 の方法。 9.更に、前記画像パラメータをスケーリングファクタによりスケーリングし、 オーディオ波の出力を時間オフセットさせてビデオ表現を修正し得ることを特 徴とする請求項1記載の方法。 10.請求項1記載の方法を実施するよう構成された装置。
JP51648399A 1997-09-01 1998-08-07 コンピュータアニメーションモデルをオーディオ波出力と同期させる方法及び装置 Ceased JP2001509933A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP97202672.8 1997-09-01
EP97202672 1997-09-01
PCT/IB1998/001213 WO1999012128A1 (en) 1997-09-01 1998-08-07 A method and apparatus for synchronizing a computer-animated model with an audio wave output

Publications (1)

Publication Number Publication Date
JP2001509933A true JP2001509933A (ja) 2001-07-24

Family

ID=8228687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP51648399A Ceased JP2001509933A (ja) 1997-09-01 1998-08-07 コンピュータアニメーションモデルをオーディオ波出力と同期させる方法及び装置

Country Status (5)

Country Link
US (1) US6408274B2 (ja)
EP (1) EP0960389B1 (ja)
JP (1) JP2001509933A (ja)
DE (1) DE69829947T2 (ja)
WO (1) WO1999012128A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7764713B2 (en) * 2005-09-28 2010-07-27 Avaya Inc. Synchronization watermarking in multimedia streams
US9286383B1 (en) 2014-08-28 2016-03-15 Sonic Bloom, LLC System and method for synchronization of data and audio
US11130066B1 (en) 2015-08-28 2021-09-28 Sonic Bloom, LLC System and method for synchronization of messages and events with a variable rate timeline undergoing processing delay in environments with inconsistent framerates

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4177589A (en) * 1977-10-11 1979-12-11 Walt Disney Productions Three-dimensional animated facial control
GB2178584A (en) * 1985-08-02 1987-02-11 Gray Ventures Inc Method and apparatus for the recording and playback of animation control signals
US5111409A (en) * 1989-07-21 1992-05-05 Elon Gasper Authoring and use systems for sound synchronized animation
US5074821A (en) * 1990-01-18 1991-12-24 Worlds Of Wonder, Inc. Character animation method and apparatus
US5278943A (en) * 1990-03-23 1994-01-11 Bright Star Technology, Inc. Speech animation and inflection system
US5149104A (en) * 1991-02-06 1992-09-22 Elissa Edelstein Video game having audio player interation with real time video synchronization
US5613056A (en) 1991-02-19 1997-03-18 Bright Star Technology, Inc. Advanced tools for speech synchronized animation
US5426460A (en) * 1993-12-17 1995-06-20 At&T Corp. Virtual multimedia service for mass market connectivity
KR960018988A (ko) * 1994-11-07 1996-06-17 엠, 케이. 영 음향 보조 영상 처리 방법 및 장치
SE519244C2 (sv) * 1995-12-06 2003-02-04 Telia Ab Anordning och metod vid talsyntes
US6031539A (en) * 1997-03-10 2000-02-29 Digital Equipment Corporation Facial image method and apparatus for semi-automatically mapping a face on to a wireframe topology
US5969721A (en) * 1997-06-03 1999-10-19 At&T Corp. System and apparatus for customizing a computer animation wireframe

Also Published As

Publication number Publication date
DE69829947T2 (de) 2006-03-02
DE69829947D1 (de) 2005-06-02
WO1999012128A1 (en) 1999-03-11
US6408274B2 (en) 2002-06-18
EP0960389B1 (en) 2005-04-27
EP0960389A1 (en) 1999-12-01
US20010041983A1 (en) 2001-11-15

Similar Documents

Publication Publication Date Title
Revéret et al. MOTHER: a new generation of talking heads providing a flexible articulatory control for video-realistic speech animation
US5657426A (en) Method and apparatus for producing audio-visual synthetic speech
JP2518683B2 (ja) 画像合成方法及びその装置
Mattheyses et al. Audiovisual speech synthesis: An overview of the state-of-the-art
US6208359B1 (en) Systems and methods for communicating through computer animated images
US6539354B1 (en) Methods and devices for producing and using synthetic visual speech based on natural coarticulation
King et al. Creating speech-synchronized animation
Le Goff et al. A text-to-audiovisual-speech synthesizer for french
US20160294751A1 (en) Animated delivery of electronic messages
US20030163315A1 (en) Method and system for generating caricaturized talking heads
JPH10312467A (ja) 像合成のための自動スピーチ整列方法
WO2007076278A2 (en) Method for animating a facial image using speech data
US11005796B2 (en) Animated delivery of electronic messages
Waters et al. An automatic lip-synchronization algorithm for synthetic faces
Beskow et al. The teleface project multi-modal speech-communication for the hearing impaired
JP2001509933A (ja) コンピュータアニメーションモデルをオーディオ波出力と同期させる方法及び装置
Waters et al. DECface: A system for synthetic face applications
King et al. An anatomically-based 3D parametric lip model to support facial animation and synchronized speech
JP3298076B2 (ja) 画像作成装置
Rubin et al. Talking heads
JPH01190187A (ja) 画像伝送方式
GB2346526A (en) System for providing virtual actors using neural network and text-to-linguistics
JP2003296753A (ja) 聴覚障害者用対話システム
Lande et al. An MPEG-4 facial animation system driven by synthetic speech
King et al. TalkingHead: A Text-to-Audiovisual-Speech system.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080401

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080627

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080729

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20080903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080930

A313 Final decision of rejection without a dissenting response from the applicant

Free format text: JAPANESE INTERMEDIATE CODE: A313

Effective date: 20090210

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090414