JPS63225875A - スピーチ同期アニメーション - Google Patents

スピーチ同期アニメーション

Info

Publication number
JPS63225875A
JPS63225875A JP62298840A JP29884087A JPS63225875A JP S63225875 A JPS63225875 A JP S63225875A JP 62298840 A JP62298840 A JP 62298840A JP 29884087 A JP29884087 A JP 29884087A JP S63225875 A JPS63225875 A JP S63225875A
Authority
JP
Japan
Prior art keywords
animated
sound
image
response
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP62298840A
Other languages
English (en)
Other versions
JP2607561B2 (ja
Inventor
エロン・ギャスパー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JPS63225875A publication Critical patent/JPS63225875A/ja
Application granted granted Critical
Publication of JP2607561B2 publication Critical patent/JP2607561B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information
    • G10L2021/105Synthesis of the lips movements from speech, e.g. for talking heads

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、一般的にはコンピュータによす生成された映
像と音響との同期を利用した教育方法に関し、より特定
するならば人物又はアニメ(動画)化されたキャラクタ
−の動作に対応する身体の画像及び音響を構成要素へと
分解し、この構成要素を当該人物又はアニメ化されたキ
ャラクタ−であって異なる、関連性のない動作を行って
いるものへと再度組み立てるための方法及び装置に関す
るものである。
〔従来の技術〕
予め記録された映像及び音響の時間的に同期されたシー
ケンスを利用して、映像的な娯楽又は教育用の道具を提
供することは、従来の技術において周知である。このよ
うな従来技術は、「トーキ−」の開発から今日の視聴者
との会話形映画に至るまでの映画及び娯楽産業の歴史を
辿ることによって、最も良く例証されるであろう。
19世紀の終わり頃に、スクリーン上に1秒に20から
30コマを投影して動作の効果を与えるように予め記録
された連続的なコマからなる、最初の実用的な映画が開
発された。予め記録された音響のシーケンス即ち音声ト
ラックを動画と同調させるための技術は、1920年代
に開発された。1930年代には、手描きの漫画アニメ
ーションを生成するためのアニメーション技術が開発さ
れたが、このアニメーションは予め記録された音声トラ
ックを伴うように同期された唇の動きを有するアニメ化
された人物を含むものであった。コンピュータの出現と
共に、人間の音声を合成する電子的デバイス及び言語を
認識するシステムなどをも含めて、コンピュータにより
生成される映像と言語の発展へと向けてますます多くの
努力が払われてきている。
1970年9月21日付けのIBM研究リポすトRC3
052のrKARMA ニスドーリ−ボードアニメーシ
ョンのためのシステム」と題するグレーサー氏(F、 
Gracer)及びプラスゲン氏(M、W、Blasg
en)により著された論文には、始めと終わりのコマの
間にある中間のコマを自動的に作り出す、会話形のコン
ピュータグラフィックスプログラムが開示されている。
中間のコマは、線形補間技法を使用することにより計算
され、次いでプロッタ上に生成される。「唇の動きのコ
ンピュータアニメーションのための方法」と題する19
72年3月のIBM技術発表報告第14巻に記載の論文
の5039及び3040頁において、バグリー氏(J、
D、 Bagley)及びグレーサー氏(F、 Gra
cer)は、コンピュータアニメーションシステムにお
いて使用するための、コンピュータ生成された唇のアニ
メーションのための技術を開示している。即ちスピーチ
処理システムが、ある字体の辞書的な表示を音素のスト
リングへと変換し、これを対応する生のスピーチの入力
ストリームとマツチさせて、タイミングデータを生成す
る。各々の言語音について映像データがあるとすれば、
上記したようなコンピュータアニメーションシステムは
、一つの映像的画像から次のものへの滑らかな遷移をも
たらすための中間コマを生成して、円滑なアニメーショ
ンを作り出す。そして最後にタイミングデータが使用さ
れて、音素のストリングを映像的画像と相関させ、正確
に計時され映像的に相関されたスピーチ事象のシーケン
スを作り出すのである。
映画及び娯楽産業における最近の発展は、ビデオ・アー
ケード・ゲーム及びブランチング・ムービーによって例
示される如き視聴者の活発な参画に関連している。米国
特許第4.305.131;4.333.152;4,
445.187及び4.569.026号は、ブランチ
ング・ムービーをもたらすリモコン操作のビデオディス
ク装置に関しているが、そこにおいては視聴者は、映画
の筋やビデオゲームのストーリーに対して能動的に影響
を及ぼすことができる。ベスト氏(Robert M、
 Be5t)に対して1986年2月4日に付与された
「口答えするテレビ映画」と題する米国特許第4.56
9,026号は、ビデオゲーム娯楽システムを開示して
いるが、それによれば−人又はそれ以上の視聴者がビデ
オゲームのストーリー又は映画の筋に対して言葉により
又は手動操作により影響を及ぼすことができ、ゲーム又
は映画中のキャラクタ−とシミュレートされた双方向の
音声による会話を行うことができる。このシステムは通
常のテレビ受像機と連結された専用のマイクロコンピュ
ータと、自動トラック検索及び追跡手段を有するランダ
ムアクセス・ビデオディスク読み取り装置とを含んでい
る。また、各々がマイクロフォン及び映像ディスプレー
を有している一つまたはそれ以上のハンドベルト入力装
置が、マイクロコンピュータへと連結されている。マイ
クロコンピュータはビデオディスクからの情報の検索を
制御し、入力装置を介して言葉又は手動の何れかにより
行われる視聴者のコマンド入力を処理して、テレビ受像
機に表示される音響及び映像データを提供する。ゲーム
中において頻繁にある分岐点において、予め定められた
選択及び応答のリストが視聴者に提示される。視聴者は
言葉又は手動の何れかにより、或いはこれらの組み合わ
せにより、象徴的なコード語を用いることにより応答で
きる。視聴者の選択に応じて、マイクロプロセッサは予
め記録された映像及び音響のシーケンスを処理し、演技
及び会話の中から選択された場面又は筋を示すことにな
る。
「グラフィックス・インタフェース184」の「ソフト
マシン:品のあるインタフェース」と題する論文におい
て、ルイス氏(John Lewis)及びバーセル氏
(Patrick Purcell)は、ユーザー及び
電子的に会話可能なパートナ−との間で話された会話を
シミュレートするシステムを開示している。アニメ化さ
れた人間類似のものがスピーチ・シンセサイザにより「
話」し、スピーチ認識装置により「聞」くのである。ス
ピーチ・シンセサイザの音響出力は、スピーカ及び別個
のリアルタイムなフォーマット追lスピーチ処理コンピ
ュータへと同時に連結されていて分析され、唇の動きの
同期並びに限定された表情及び頭部の動きのためのタイ
ミングデータを与える。予め記録された映像的画像のセ
ットであって、唇、目及び頭の位置を描いているものが
適当に順序付けられて、アニメ化された人間類似のもの
が「話」し又は「聞」くようになっている。スピーチ認
識装置の出力は予め記録されたパターンに対して、一致
が見出されるまでマツチングされる。ひとたび一致が見
出されたならば、予め記録された幾つかの応答の内の一
つがアニメ化された人間類似のものによって話されるか
、或いは実行される。
〔発明の解決しようとする問題点〕
バグリー氏等及びルイス氏等は両者とも、どの映像的画
像又はイメージがユーザーに対して示されるべきかを決
定するためのリアルタイムなデータを提供するよう音響
信号を分析する、別個のフォーマット追跡スピーチ処理
コンピュータを必要としている。この付加的なコンピュ
ータを必要とすることは、コストを増加させると共にシ
ステムの複雑さを増し、エラーの新たなソースを導入す
ることになる。
〔問題点を解決するための手段〕
本発明は、物質界における周知のパラダイムをシミュレ
ートし、音声合成技術及び独特のアニメーション方法を
採用した映像アニメーション技術を利用することにより
、読み書き、発音及び他の文語技能を教える教育システ
ムを提供するものである。本発明は基本的には語学能力
を教えることを意図するものであるが、汎用の教育用具
としても、またビデオゲームや映画にも、或いは広告や
通信の如き商業的な用途においても使用されうる装置及
び方法を提供するものである。リアルタイムなランダム
アクセス音響/映像シンセサイザ(RAVE)を関連す
る専用の音響/映像モデル化言語(RAVEL)と共に
使用することにより、実在の又は想像上の人々、アニメ
化されたキャラクタ−又は場面を表す合成されたアクタ
−(行為を行うもの)(「合成アクタ−(synact
or) Jということがある)がシミュレートされうる
ようになり、またそれ迄に行われた事象について予め連
続的に格納された記録とは異なる動作を、スピーチをも
含めて行うようにプログラムされ得る。
上記のことを達成するために、通信パターン−音響及び
該音響に関連する実の人物またはアニメ化されたキャラ
クタ−の映像的画像−が入力され、構成要素へと分解さ
れて、断片的な画像及び音響が生成される。或いは、又
はこれと共に、音響を提供するために周知のスピーチ合
成方法が採用される。この通信特性のセットは次いで、
特定の人又はアニメ化されたキャラクタ−の動作及び音
声のデジタルモデルを画定するために使用される。特定
の人又はアニメ化されたキャラクタ−を表す合成アクタ
−は、RAVELプログラムによって画定される。この
プログラムは、当該人又はアニメ化されたキャラクタ−
の言語パターンの映像及び音響が統合されたリアルタイ
ムな表示を生成するように、映像及び音響特性を動的に
アクセスし組み合わせるためのコード化された命令を包
含している。
合成アクタ−は次いで動作を行うことができ、単語又は
文を読み取り又は話すことができるが、これらは合成ア
クタ−がモデル化した人又はキャラクタ−について予め
記録された動作ではない。このような技術を用いること
により、有名な人物又は他のキャラクタ−1ある人の家
族又は友人或いはその人自身を描写するように合成アク
タ−を定義することができる。
好ましい実施例においては、教育システムにおいて、ア
ニメ化され唇の動きが合わせられた話をするキャラクタ
−(又は顔)を画定するために、RAVELが使用され
る。ユーザーは、ドミノ状の綴り換え用タイルとして知
覚されるものの幾つかの列を有する視聴用スクリーン又
は他の視覚的表示装置を示される。これらのタイルの各
々には、文字又は音標文字(音を生み出す文字のセット
)が記入されており、スクリーンの上側及び左側下部に
、トレーと呼ばれる矩形の囲いの中に配列されている0
合成アクターの身体の中で話をする頭部又は他の部分が
スクリーンの左手上部の角に表示され、他方上部及び左
側にタイルにより枠取りされたスクリーンの大部分は、
ユーザーがタイルを使用して単語又は他の形状を構成す
る活動用の領域として残して置かれる。
ユーザーがあるタイルを選択すると、話をする頭部は選
択された文字又は音標文字に対応する適当な音を発音す
る。この選択されたタイルは次いで、単語の始まりとな
るか又は既存の文字列に付加されるように、スクリーン
の活動領域上に配置される。そして話をする頭部は、そ
れによる文字又は音標文字の組み合わせを発音する。こ
のようにしてユーザーは、音声学的な単語又は実際の単
語を、さらには文をもスクリーン上に組み立てることが
できる。文字のシーケンスは次いで、仮にその文字の組
み合わせが無意味であるとしても、発音される。活動領
域における単語又は複数の単語の発音は、単語の左から
右へと移動するハイライティング(!i度を上げること
)の波と同期して進められ、かくして左から右へと読み
取る方法論を強化することができる(英語の場合)。単
語中の各々の文字は、組み合わせ音の中でその文字が相
応する部分が聴覚的に示される際にハイライティングさ
れる。単語はまた、相応する文字又は複数の文字をハイ
ライティングしている間に「サウンド・アウト」(単語
の各構成音を連続して別々に示すこと:切分された即ち
混合されていないスピーチ)されることもできる。単語
中の特定の文字により生成される音に影響する文脈中の
文字もまた、ハイライティングにより示されうる。話を
する頭部は、人のスピーチに存在する音響的及び視覚的
な要素をもたらすために、同期された動く唇の他にも、
他の頭や身体の動きを提供するものである。
ユーザーがシステムと会話する基本的な手段は、ライト
ペンやマウスの如き指示デバイスを使用すること、或い
はタッチスクリーンについては指先を使用することであ
る。マウスを使用することにより、ユーザーはタイルを
選択し、選択したタイルをタイルトレーから拾い上げて
活動領域へと引き出す。タイルは影及び/又は他の視覚
的なサインを有する三次元の対象物として知覚され、活
動領域の場りにおいて、及びスクリーンの上部及び左側
にあるタイルトレーに行及び列に配列された電子的スタ
ックのあちこちへと移動可能である。
話をする頭部の図形の機能は、唇の動き及び他の身振り
と同期された合成スピーチの認識を強化することを含ん
でいる。話をする頭部はまた、命令を行ったりゲームを
学んだりするための冷たくて機械的なタイルスクリーン
のレイアウトを、より魅力的で感情に訴えるように温か
みを持たせるものでもある。またこれは、口でもって音
を形成するデモンストレーションをすることによって、
その模倣を奨励するものでもある。さらに、話をする頭
部は学習プログラムについての「進行係」又は「シミュ
レートされた先生」としての役割を果たすこともでき、
当該プログラムの使用を説明したり実演したり、或いは
ユーザーが長い間何もしない場合には割り込みをかけて
目を覚まさせ、ある種の動作を示したり、説明したり、
指示やコメントをすることによってユーザーを激励する
1話をする頭部は、聴覚障害者に対して読唇術及び手話
その他の通信方法を教えるために、手をも含むことがで
きる。手旗信号やダンス表記を実演するために、身体全
体を含むようにすることも可能である。ゲーム、複数の
語学の学習プログラム、或いは他の用途については、ス
クリーン上に一つ以上の話をする頭部を表示することが
できる。
本システムは、教育者又はインストラクタ−が特定の教
授方法についてタイルのセフ)を作り出したり修正した
りするようにでき、また生徒の進歩を追跡し、評価し、
インストラクタ−に通知する能力を与えるようにして始
動させることができる。本システムは、ある種のユーザ
ーの動作によってトリガされた場合に、対象物又は単語
を表示したりアニメ化するようにプログラムされ得る。
これは例えばユーザーが「KATJという単語を組み立
てた場合に、rCAT」という単語及び/又は猫(ca
 t)の絵を表示するものである0本システムの付加的
な作動モードには、その誘電に対して単語及び映像を加
え(或いは変化させる)たり、外国語による命令につい
ては二つ又はそれ以上の別々の誘雷を同時に表示する能
力が含まれている。スフラブル(Scrabble)の
如く複数のプレーヤーが競合する単語のゲームもまた、
本システムにプログラムすることができる。本システム
は、漸次難しくなる複数のレベルの命令をもたらすよう
にプログラムすることもできる。このようにして、ユー
ザーは最初には僅かな数の文字しか取り扱うことができ
ないが、該ユーザーが[シミュレートされた先生」から
の命令に従ったり又は模倣したりすることにより馴染ん
だことを実証するにつれて、プログラムはより難しい文
字や単語を付加するようになる。
〔実施例〕
さて第1図を参照すると、本発明の好ましい実施例の一
つにおいて、専用マイクロコンピュータは、プログラム
制御されたマイクロプロセッサ10(この目的のために
はモトローラ社のMC68000が好適である)と、ラ
ンダムアクセスメモリ (RAM>20と、読み出し専
用メモリ (ROM)11と、ディスクドライブ13と
、ビデオ及びオーディオ入力装置7及び9と、キーボー
ド15又は他の入力装置17の如きユーザー人力デバイ
スと、ビデオディスプレー19及びオーディオ出力装置
25の如き出力デバイスからなっている。
RAM20は四つのブロックに分割されており、これら
はマイクロプロセッサ10及び種々の入出力装置により
共有されている。ビデオ出力装置19は、通常のテレビ
受像機又はパソコン用のCRTの如き、どのようなビデ
オ出力装置であってもよい。ビデオ出力装置19及びビ
デオ発生器18の回路は、マイクロプロセッサ10と、
メモリマツプされた映像を格納しアクセスするための共
有のディスプレーRAMバッファ領域22によって制御
されている。ビデオ発生器の回路はまた、マイクロプロ
セッサ10に対して60ヘルツのタイミング信号割り込
みを提供している。
オーディオRAMバッファ領域23をマイクロプロセッ
サ10と共有しているのは、オーディオ出力装置25を
駆動しているオーディオ発生回路26である。オーディ
オ出力装置25は、スピーカ又は聴覚障害者へと伝達す
るためのパイブレークの如き他の型式のオーディオトラ
ンスジューサである。
ディスクコントローラ12はディスクRA M21をマ
イクロプロセッサ10と共有しており、読み取り及び最
適には書き込みを行うために、フロッピィディスクドラ
イブ13の如き適当な持久型の大容量記憶媒体を提供す
るものである。ディスクドライブ13は、特別のオペレ
ーティングプログラムや用途のための、付加的なRAM
領域をもたらす。ホストマシンが充分なROMを有して
いる場合には、ディスク記憶装置は必要ない。
キーボード15及び他の入力装置17のための入力コン
トローラ16はマイクロプロセッサ10に連結されてお
り、ディスクRAM21をディスクコントローラ12と
共有している。この役割は、サイナーテック(Syne
rtek)社の5Y6522万能インタフエースアダプ
タ(Versatile Interface Ada
ptor)によって果たされる。入力コントローラ16
はまた、種々のコントローラ及び他のマイクロプロセッ
ササポート用回路(図示せず)におけるある種のタスク
を統合するものでもある。ユーザーとの最大限の会話が
可能であることから、マウスやライトペンの如き指示入
力装置17が好ましい入力装置である。この好ましい実
施例においてはキーボード15は選択的な入力装置であ
るが、他の実施例においては指示装置として機能し、又
はインストラクタ−やプログラマ−によって使用されて
、教授プログラムを生成したり修正したり、或いはシス
テムの他の調節可能なパラメータを設定するようにされ
る。ジョイスティック、指先(タッチスクリーンの場合
)又は目の動きのセンサーなどの、他の指示及び制御入
力装置もまた好適である。
RAM24はマイクロプロセッサ10の作業メモリであ
る。このRAM24はシステム及び応用プログラムと、
並びにマイクロプロセッサ10により使用される他の情
報を含んでいる。マイクロプロセッサ10はまたROM
IIをアクセスするが、これはシステムの永久的な読み
出し専用メモリである。ROMIIはマイクロプロセッ
サlOのオペレーティングシステムによって要求される
演算ルーチン及びサブルーチン、例えばディスク及び他
の装置の入出力、グラフィックスの基礎及びリアルタイ
ムなタスク管理その他を容易にするためのルーチンを含
むものである。これらのルーチンはRAM24及びディ
スクにおける拡張及びパッチによって、付加的に支持さ
れる。
コントローラ5は、ザイログ社のZ8530 SCCチ
ップの如き直列通信コントローラである。映像(ビデオ
)及び音響(オーディオ)のデジタル化されたサンプル
は、話をする頭部及び合成されたスピーチの特性を与え
るような仕方で、システム内に入力される。デジタイザ
8は、ビデオ及びオーディオ人カフ及び9のそれぞれに
連結された、オーディオデジタイザ及びビデオデジタイ
ザからなっている。標準的なマイクロフォン、ビデオカ
メラ及びVCRが、入力装置として機能する。しかしこ
れらの入力装置は選択的である。なぜならデジタル化さ
れたビデオ及びオーディオサンプルは、キーボード15
又はディスクドライブによってシステムに入力されうる
し、或いはROMII内に存在しうるからである。
ここで第2a図−第2q図をも参照すると、一連の連続
的な表示スクリーン27が示されている。これは第1図
に示されたユーザーからマイクロコンピュータシステム
への入力に応じて、例としてrcATJという単語を形
成する過程を図示したものである。表示スクリーン27
はビデオ出力装置19によって利用されており、ユーザ
ーに対して、ドミノ状の啜り換えタイルとして知覚され
るグラフィック画像を示している。
これらのタイルの各々には、文字又は音標文字(音を生
み出す文字のセット)が、或いは言語又は音についての
他の何等かの視覚的な記号表記が記入されている。スク
リーン27の上部に沿っている電子的トレー28には、
26個の標準的な英文字が記入された二列のタイル29
が配置されている。スクリーン27の左側に沿っている
第二の電子的トレー30には、普通に現れる音標文字が
記入されているタイル29の列が配列されている。タイ
ル29は、個別の電子的スタック31に電子的にスタッ
クされている。タイル29がそのトレー31から持ち上
げられてスクリーン27上の別の位置へと移動されると
、トレーにおいて同一のタイルが電子的スタック31か
ら「ボン」と出て、各々のスタック31において常にタ
イル29が利用可能であるようにされている。トレー2
8及び30は平坦な矩形の輪郭で示されているが、より
手の込んだグラフインク画像であることもでき、或いは
三次元の遠近図法により示されることもできる。トレー
28及び30は、スクリーン27の左上方の角に矩形の
領域32を残すように配置されている。スクリーンの右
側及び底部によって境界付けられたスクリーン27の大
部分は、活動領域(playing field)34
として残して置かれる。
さて今度は第2a図−第2q図を全般的に参照してみる
と、マウス又は他の入力装置17(第1図で示された如
き)を使用することにより、タイル29は選択されて移
動され、或いは活動領域34上において取り扱われる。
ユーザーはタイル29をそのスタック31から選択し、
それを活動領域上へと移動させるか、又は同様にして既
に活動領域34に存在しているタイル29を処理するこ
とができる。タイル29を活動領域34から除去するた
めには、ユーザーはタイル29をそのトレー28.30
へと戻すように移動し、そこでタイルを落とす、そのタ
イルは当該トレー上を帆走するように見え、該トレーの
適当な電子的スタックの一番上に落ち着く。もしもタイ
ル29がトレー28又は30に落とされても、当富亥ト
レーが落としたタイルと一致するタイルを含んでいない
場合には、そのタイルはスクリーン27の端部まで移動
即ち「走り去」す、そして消滅する。同様に、ユーザー
は単にタイル29を合成アクタ−の表示領域32へと移
動させて落とすことにより処理することができる。その
場合、タイルはスクリーンの端部から消え失せる。
スクリーンの左手上部の領域32は、アニメ化された人
物又は動物その他の合成アクタ−(第2図においてはア
ニメ化された腕白小僧のような人物36が使用されてい
る)によって占有されている。一般には、頭部及び肩の
みが表示されていて、話をする頭部(talking 
head)36を形成している。音が生成される場合に
は、唇38及び顔の同期した動きがもたらされる。頭部
36又は目42だけでも、タイルの動きを追うように動
くことができ、またユーザーとのシミュレートされた目
による触れ合いを行うために、適当な時に瞬きをしたり
ウィフクをしたり、或いは動いたりできる。第2r図に
示されているように、聴覚障害者と意思疎通を図り、或
いは教授を行うための手話の使用を容易にするために、
手48又は身振りをも表示することができる。頭部36
及び手48は一緒に配置する(第2r図に示されている
ように)こともでき、またスクリーン上で異なる位置を
占めることもできる。例えば頭部36は左手上部の角3
2に、そして手48は活動領域34の右手下部の角に配
置するものである。本システムはまた、スクリーン上で
ユーザーが頭部36又は合成アクタ−をタイル29が移
動されるのと同様にして移動させるのを可能ならしめて
いる。
ユーザーは、マウスの如き入力装置17を用いて指示す
ることなどによって特定のタイル29を選択することに
より、本システムと会話する。
第2a図において、ユーザーは「C」というタイルを選
択した。このrCJというタイルはハイライト(輝度が
上げられている)されており、話をする頭部36は文字
rCJが単独で話された場合に生成されるrKAHJと
いう音(「クー(kuh) Jというように聞こえる)
を発音しているものとして示される。マウスを使用する
ことにより、「C」タイルは拾い上げられ、活動領域3
4へと移動される。タイル29がスクリーン27の上部
(又は左側)の位置から離れるように移動されると、同
一のもう一つのタイルがその下の電子的スタックから「
ポン」と出て、使用のために利用可能とされる。タイル
が活動領域34上へと移動されて解放されると、該タイ
ルは第2b図に示されるようにして活動領域34の表面
゛に落ち着く。
第2c図から第2g図において、ユーザーは文字rAJ
が記入されている第二のタイルを選択し、それを活動領
域34へと移動させる。タイルrAJがタイルrCJに
隣接する活動領域で解放されると、タイルrAJはタイ
ル「C」に引きつけられ、これに向けて移動され、くっ
つき、これと融合されて、単語rcAJが記入されてい
る一つのタイル46を形成する。この単語rcAjの音
は、タイル46の文字がハイライティングされ、またタ
イル46がハイライトされるのと同期して、話をする頭
部36によりサウンド・アウト即ち切分して発音され、
ついで一連に発音される。同様にして、第2h図から第
2に図において、rTJという文字が記入されたタイル
が選択され、活動領域34上に配置されて、rcATJ
という単語が記入されている一つのタイル46を形成す
るようになる。rcATJというこの単語は次いで、個
々の文字がハイライトされる際に、話をする頭部36に
よってサウンド・アウトされる。
第21図を見てみると、話をする頭部36は文字「C」
を発音しているところであり、この文字rCJがハイラ
イトされている。次の文字であるrAJには下線が引か
れているが、これは単語rcATJにおける当該文字の
位置(即ちrCJに続く位置)が、rCATJという単
語を作っている文字の組み合わせにおいて「C」の音に
影響するということを示している。(例えば単語rcA
TJにおいては、「C」は軟膏(「S」のような)では
なく、硬膏(「K」のような)を有する。)短い間隔の
後に、或いはユーザーがコマンドを入れた場合に、話を
する頭部36は文字「A」 (この例においては、短い
「ア(a)」という音)を発音する。この場合には、文
字rAJはハイライトされ、「C」及びrTJの両方の
文字には下線が引かれて、先行する「C」及び後続のr
TJが両方とも、単語rcATJにおけるrAJの音に
影響することを示す(第2m図に示す如く)。同様にし
て短い間隔の後に、話をする頭部36はrTJの音を発
音し、その際rTJはハイライトされる。この例におい
ては、文字「C」及びrAJは文字rTJの音に何も影
響を及ぼさず、従って下線は引かれていない(第2n図
Jこ示す如く)。
第20図から第2q図を参照すると、次の段階がrCA
TJを滑らかに、連続的に発音することであることが示
されている。各々の文字は順番に、その音が最も顕著で
ある部分の発音の際にハイライトされる。連続的な又は
混成されたスピーチの際には、音素の音は幾つかの要素
によって、特に調音の随伴(coarticulati
on)によって重なり合う。全体的な効果は、どのよう
にして文字及びそれらの音が組み合わせられて単語が生
成されるのかをユーザーに説明することである。以上に
記載された方法は、語学及びスピーチ技術に関する従来
の教授方法に対し、意義深い改良をもたらすものである
第2r図に示されているように、話をする頭部36は手
48又は身体の他の部分を含むことができ、これにより
聴覚障害者に対して視覚的な教授を行ったり、或いは活
動領域34に表示されている何かについて、付加的な映
像的サインを提供するものである。
次に第3図を参照すると、主なデータの流れ、並びにス
ピーチ及び関連する同期した映像アニメーシヲンを提供
するために必要とされる処理及び事象を示している、機
能的ブロックダイヤグラムが示されている。リアルタイ
ムなランダムアクセス音響/映像シンセサイザ(RA 
V E)において生ずる処理及び事象の全体の概略は次
の如くである。アプリケーションコントローラ44は、
直列通信コントローラ5からのデジタル化されたテキス
トを翻訳するように、或いは特定の合成アクタ−の音響
的及び映像的特徴を含むRAVELプログラムをコンパ
イラ33を介して読み込み又はコンパイルするように°
、マイクロプロセッサ10(第1図に示されている)を
呼び出す。ユーザーの入力35に応答して、アプリケー
ションコントローラ44はタイルコントローラ37を付
勢して、所望によりナレータ装置積分器39のエンコー
ダ/デコーダ41を使用して、RAVEに何かを言うよ
うに命することが必要になる時点まで、タイル29とユ
ーザーとの会話を制御する。アプリケーションコントロ
ーラ44は次いで、マイクロプロセッサ10を呼び出し
て、RAVEの音声及びアニメーション処理を開始させ
る。
RAVEにおける処理の流れは、二つの段階へと分解さ
れる。リアルタイム段階と非リアルタイム段階である。
マイクロプロセッサ及び現実の世界の両方における時間
及び他の制約に適合するように、処理のできる限り多く
の部分は、タイル29及び合成アクタ−36(第2図に
示された如き)による実際のスピーチ及びアニメーショ
ンが開始される以前に完了される。このことは、ユーザ
ーの入力35によって開始されるコマンドを完了するた
めに現れなければならない、リアルタイム処理の各々の
ためのスクリプトを発生することによって、RAVE内
において達成される。
文字のストリング又は単語を発音するように命令された
場合、RAVEの心臓部であるマイクロプロセッサ10
は、ナレータ装置積分器39及びエンコーダ/デコーダ
41を使用して、該文字ストリング又は単語を翻訳し、
特定の合成アクタ−の声を発する特定のナレータ装置(
オーディオプロセッサ)43のために、音響スクリプト
を発生する。特定の合成アクタ−の特徴を具備している
RAVELプログラムから、及び合成アクタ−の動作コ
ントローラ49若しくはアプリケーションコントローラ
44又はタイルコントローラ37から導出される付加的
な情報を使用することによって、マイクロプロセッサ1
0は正音声(orthophonetic)アニメーシ
ョンプロセッサ51及び合成アクタ−アニメーションプ
ロセッサ53のそれぞれについて、正音声的なスクリプ
ト及び合成アクタ−のスクリプトを書き込む。これらの
アニメーションプロセッサは、ハードウェア及びファー
ムウェアにおいて実施することができ、或いはパラメー
タ的に含まれることもでき、さらにはマイクロプロセッ
サ10が内部的なコンパイルプロセスを介してこれらを
実行時に生成することもできる。内部的なコンパイルは
RAVEのリアルタイム段階をスピードアップさせるが
、非リアルタイム段階を遅速させ、より多くのRAMを
必要とすることもある。
プロセスのスクリプトが完了されると、マイクロプロセ
ッサ10はリアルタイム統合器55へと制御を渡す。こ
のリアルタイム統合器55は、プロセッサ43,51.
53の各々を適当な時期に始動させ、それぞれΦスクリ
プトにおける事象の各々が適当な時期に実行されること
を保証する。典型的にはこれは、正音声プロセッサ51
及び合成アクタ−プロセッサ53における事象を、オー
ディオプロセッサ43の事象から、或いはビデオコント
ローラ61からのタイミング割り込みをもって合図する
ことからなる。
第2a図から第2q図及び第3図に示された処理をさら
に明瞭にするために、rcATJという単語について発
音をしまたタイル46を表示するための例示的な過程(
第2a図から第2q図に図示された如き)を辿ることに
する。予備的な段階として、コンパイラ33が音声学的
記述ソースファイルを含有しているRAVELプログラ
ムをコンパイルし、マイクロプロセッサ10がアニメー
ションのために必要とする合成アクタ−の声及び行動特
性のデータ構造をRAM20に格納している。
メモリ領域を確保するために、データ構造の内の幾らか
は、第4図に示されているようにカウント−オフ・テー
ブル(count−off table)からなってい
る、標準的な探索テーブル(look−uptable
)においては、各々のアドレスは、当該アドレスに格納
されるデータの長さとは無関係に、同じ量のメモリバイ
トを提供している。カウント−オフ・テーブル401で
は、データのシーケンスは、各々のデータシーケンスの
終端に特有のマーカー403を伴って、直列の形式で格
納される。検索処理では、毎回同じ数のバイトを検索す
るのではなく、特有のマーカー403を検索して、当該
特有のマーカー403が見出されたならばインデックス
405を増加させることが行われる。一致が見出された
場合には、その時点におけるインデックス405が、当
8亥データシーケンスについての固有の識別子となる。
データ構造がひとたびコンパイルされ格納されたならば
、タイルコントローラ37或いはアブリケーシッンコン
トローラ44が、マイクロプロセッサ10を付勢する。
タイルコントローラ37は、スクリーン27上に表示さ
れるタイル29の各々に関連するデータを追跡する。つ
まりそこには何枚のタイル29があり、またそれらのス
クリーン27上における位置はどうか、といったことで
ある。タイルコントローラ37はまた、新しいタイルを
発生し、タイルを配置し、タイルを一緒に融合させ、ユ
ーザーの入力に応じてスクリーン上でタイルを移動させ
(走り去らせ)る。タイルコントローラ37は、8ビツ
トのAS6II符号又は他の標準的な表示によって識別
される正字法の(orthographic)文字キャ
ラクタ−の各々に対応する図形パラメータ又はビットマ
ツプイメージを有している、フォントファイルをアクセ
スする。タイルは周知の方法及び回路によって発生され
制御されるものであり、これについては以下で詳細に説
明される。
タイルrcAJ及びタイルrTJの融合の結果、タイル
コントローラ37によって形成される例示的なタイルr
cATJ  (第2q図に示された如き)のテキストで
あるrcATJは、ナレータ装置積分器39におけるエ
ンコーダ/デコーダへと連結される。このナレータ装置
は、音声的にエンコードされた文字列が供給された場合
に、スピーチを実際に発生するものである。RAVEの
この好ましい実施例においては、ナレータ装置はオーデ
ィオプロセッサ43と、スピーチシンセサイザ45と、
オーディオ出力装置47とからなっている。合成アクタ
−の各々は、その声をもたらす特定のナレータ装置と、
及びテキストから音声への翻訳規則のセットと組み合わ
せられている。多数の言語を含む応用例においては、各
々の言語について異なる規則のセットが、殆ど総ての場
合に必要である。特定のナレータ装置を幾つかの合成ア
クタ−によって共有することも可能である。
特定のナレータ装置の音声コードは、例えば文、単語、
音節、逆音節(リジブル(lisible))、音素そ
の他の多くの方法でもって、スピーチの区分を指定する
ことができる。音素とは、言語或いは方言などにおいて
、一つの発声(utter−ance)を他の発声から
語義的に区別する役割を有する、スピーチの最小単位で
ある0強勢、調子、速度などのスピーチの他の特質もま
たコード化されうる。普遍性をもたらすために、ある合
成アクタ−のためのナレータ装置のスピーチ区分の特定
のセットにおける各々のコード、及びその他のコードは
、音コード(phocode)と呼ばれるRAVEコー
ドによって識別される。ナレータ装置積分器39におけ
るエンコーダ/デコーダ41は、特定の合成アクタ−と
組み合わせられた声について特定の文字列を相応する音
コードへと変換する音声エンコーディングをマツプして
いる。
エンコーダ/デコーダ41は、テキストから音声への翻
訳器40へと文字列rCATJを送出する。この翻訳器
はRAM20から適当なデータ構造を取り出して、文字
列rCATJを音声的な表示であるrKAETJへと変
換させるが、この表示はその時使用されている特定のナ
レータ装置(声)に依存するものである。
テキストから音声への關訳器40はまた、RAM20に
格納されているデータ構造を使用して、正音声的に対応
する記録(orthophonetic corre−
spondence record ; OCRE C
)を発生するOこの0CRECは、正字法による文字(
タイル上の文字)をアニメ化して当該文字とそれらの音
との対応を示すために、マイクロプロセッサ10によっ
て必要とされる情報を含んでいる。この例としてrcA
TJを挙げると、0CRECは「C」が音rKJと関連
しており、rAJが音rAEJ  (短いa)と関連し
ており、・rTJが音rTJと関連していることを示す
という因果関係を特定するのである。0CRECを発生
するためのエンコーディングプロセスは、第9図及び第
10図においてより詳細に示される。
0CREC及び音声的な文字列rKAETJはエンコー
ダ/デコーダ41へと戻され、そこにおいて音声的な文
字列はその構成要素である音声コード(使用される特定
のナレータ装置のための)へと分割され、その音コード
表示へと、即ちこの場合にはr4919574に終端子
ゼロが続いたものへとマツプされる。rCATJを表し
ているこの音コード文字列は、rcATJについての○
CRECと共にタイルコントローラ37へと戻される。
このように音声的な文字列が戻される前に音コード化さ
れていることから、タイルコントローラ37及びアプリ
ケーションコントローラ44は、スピーチを生成するた
めに使用される特定のナレータ装置によるエンコード化
方法とは無関係なものとなっている。タイルコントロー
ラ37はこの情報を、該当するタイル又はタイルのセッ
トと関連する音を発音することが必要とされるようにな
るまで格納する。タイルコントローラ37は次いで、音
コード化された文字列、0CREC,及びフォント、大
きさ、字面(例えば肉太やイタリック)、色、間隔及び
スクリーンの位置座標などを含むテキスト表示の正字法
的特性を特定する付加的な情報を、マイクロプロセッサ
10へと送出する。
マイクロプロセッサ10は、この例においては音コード
化された文字列に対応する合成アクタ−のデータ構造に
ついて、RAM20をアクセスする。このデータ構造に
は、その合成アクタ−の音響映像モデルのために音コー
ドの各々についてRAVELソースコードにおいてプロ
グラムされている、画像シーケンス及び文脈に依存した
操作が含まれる。これには、切分されたスピーチのだめ
のデーター単語を「サウンド・アウト」するために使用
される音−が含まれるが、しかし単語中の各々の文字の
名称を言うため又は手信号をもって綴り出すための手話
の指の位置を表示するために必要とされるデータは含ま
れない。これらの機能は、言語の正字法に関連しタイル
コントローラ37によってアクセスされる構造によって
アドレスされるものである。
マイクロプロセッサ10は音コード化された文字列をナ
レータ装置積分器39へと通すが、そこにおいてはエン
コーダ/デコーダ41が音コードの文字列をデコードし
、それを音声的コードであるrKAETJへとマツプし
戻し、これをマイクロプロセッサ10へと返す。このr
KAETJという表示はRAVE内でのみ使用され、ア
プリケーションコントローラ44及びタイルコントロー
ラ37は、キャラクタ−列rcATJ及び/又はナレー
タ装置積分器39によって生成された音コードの文字列
を使用する。
例えば合成アクタ−がユーザーに向き直ったリウインク
や瞬きをするなどの、実際のスピーチと関連のない合成
アクタ−の動作は、合成アクタ−動作コントローラ49
によって制御され、スピーチ区分と同様に画像のシーケ
ンスをもって実行され、そして各々の演技即ち動作特性
には、固有のコード化された表示が与えられている。人
の外的及び内的感覚が、ある種の事象やその組み合わせ
が動作特性をトリガする場所であるその人の脳と通信す
るのと同じようにして、アプリケーションコントローラ
44及びマイクロプロセッサ10は、合成アクタ−に関
連する情報を動作コントローラ49へと連絡し、何が進
行中であるのかを描写する。動作コントローラ49は、
RAVELソースプログラムによりコンパイルされたデ
ータ構造についてRAM20をアクセスし、人格をシミ
ュレートして各々の合成アクタ−に対して独自の性格を
与える。
マイクロプロセッサ10はこの情報を使用して、合成ア
クタ−1正音声及び音響の生(原形)のスクリプトを生
成し、音響スクリプト発生器42、正音声アニメーショ
ンスクリプト発生器52及び合成アクターアニメーシヨ
ンスクリプト発生器54に命令して、生のスクリプトを
処理して最終的なスクリプトを生成するようにする。こ
れには、各々のスクリプトの終わりにリセット位置を挿
入すること、中間物(RAVELにより特定され及び/
又は自動的に発生された、遷移の映像的画像)を発生す
ることその他が含まれている。
一旦最終的なスクリプトが発生された場合には、これら
のスクリプトは実行される。即ちリアルタイム統合器5
5によってリアルタイムに統合されて、音響をもたらし
、ユーザーの入力によって要求される、時間的に同期さ
れた関連する映像を表示するのである。
リアルタイム統合器55は、オーディオプロセッサ43
及びアニメーションプロセッサとして機能する正音声プ
ロセッサ51及び合成アクタ−プロセッサ53を統合す
る。統合処理は、マイクロプロセッサ10の割り込み構
造及び特定のナレータ装置の特性の関数である。好まし
い実施例においては、正音声プロセッサ51及び合成ア
クタ−プロセッサ53は、ビデオ発生器18(第1図に
示されている)からの垂直フライバックトリガ信号によ
って60分の1秒毎にトリガされる、割り込みタスクと
して取り扱われる。オーディオプロセッサ43及びアニ
メーションプロセッサとして機能する正音、声プロセッ
サ51及び合成アクタ−プロセッサ53は適当な時に付
勢され、ナレータ装置が喋り始めた場合には、正音声プ
ロセッサ51及び合成アクタ−プロセッサ53がビデオ
コントローラ61に合図をして、当該スピーチに対応す
る正音声及び合成アクタ−の画像をスクリーン63上に
表示するようにする。正音声プロセッサ51及び合成ア
クタ−プロセッサ53が垂直フライバックトリガ割り込
み信号に応答してアニメーションスクリプトを実行する
間に、オーディオプロセッサ43はそれ自体のサフ゛ル
−チンでもって音響スクリプトの実行を継続し、またス
ピーチ区分の生成及び混成のタイミングを図る。音響と
アニメーシヨンとの間の同期は正確でないかもしれない
が、それは人が受は入れるのに充分な(らい近位したも
のである。
別の方法として、若しくは上記した同期技術との組み合
わせにおいて、リアルタイム統合器55へとリアルタイ
ムな帰還をもたらすオーディオプロセッサ43を使用し
て、オーディオプロセッサ43が速度を設定してより正
確な同期を維持するようにすることもできる。次いで音
響事象のカウンタが主事象カウンタ(図示せず)をトリ
ガして、これが正音声プロセッサ51及び合成アクタ−
プロセッサ53をそれぞれのスクリプトに応じてトリガ
するようにし、映像が音響より先行しないことを保証し
て、それにより音響と映像との間でのリアルタイムな同
期を保証するようにできる。
さて第5図を参照すると、合成アクタ−のモデルテーブ
ルが示されている。RAVELソースプログラムから多
くの内部データ構造がコンパイルされ、そしてRAM2
0に格納されて、機能を実行するために充分なデータを
有するRAVEが提供される。動的に割り当てられた合
成アクタ−モデルテーブルは、これらのデータ構造につ
いての基礎であり、一つ又はそれ以上の合成アクタ−モ
デルテーブル記録510を含んでいる。これらの記録は
、定義された合成アクタ−モデルの各々について、一つ
宛存在スる。
合成アクタ−モデルテーブル記録510の各々における
第一のフィールドは、所有者領域501である。このフ
ィールドは合成アクタ−モデルの数(RAVELソース
において定義されている如き)含んでいるか、又はこの
エントリが空である(テーブル管理のため)ことを示す
ための特別のコードを含んでいる。次のフィー2.ドで
あるリーダ503は、当3亥モデルについての読み取り
テーブルを指示(即ち読み取りテーブルが配置されてい
るアドレスを特定)する。読み取りテーブルは、特定の
コードが定義されているヘッダと、これに続き連接され
た形式で圧縮されて格納されている規則とからなってい
る。
次のフィールドである音コード505は、このモデルに
ついての音テーブルに対するポインタを特定している。
この音テーブルは探索テーブルであり、合成アクタ−の
ナレータ装置の特性を、そのスピーチ区分及び他のコー
ドでもって定義している。各々のコードは、音テーブル
における独自の記録に加え、割り当てられない音コード
であるゼロのための充填記録を有している。
この記録における最初の領域は、当該特定のナレータ装
置コードにおけるビット数を特定している。これに続く
領域は、ナレータ装置の当=亥コードを定義するのに使
用されているビットをリストしており、そして最後には
、終端子であるゼロが存在している。合成アクタ−モデ
ルテーブルにおける次のエントリは、音コードカウント
507であり、これは音テーブルにおける記録の数を示
す。
合成アクタ−モデルテーブルの次のフィールドは切分5
09であり、単語をサウンド・アウトするために必要な
音を記載している切分テーブルを指示している。これは
、音コードの各々のための一つの切分に加えて、音コー
ドゼロのための充填記録を含んでいる、カウント−オフ
・テーブルである。このカウント−オフ・テーブルは、
各々の切分文字列の後の専用の区切り文字により、境界
付けられている。合成アクタ−モデルテーブルにおける
次のフィールドは切分カウント511であり、切分テー
ブルが何バイトを使用しているのかを特定している。こ
の切分カウント511は、モデルが放棄された場合にテ
ーブルを再度割り当てるために、合成アクタ−モデルテ
ーブルの管理ルーチンにとって必要とされる。合成アク
タ−モデルテーブルの次のフィールドであるシーケンス
513は、シーケンステーブルを指示する。これはカウ
ント−オフ。
テーブルであり、音コードによりカウント・オフされ、
音コードゼロのための充填エントリを有し、専用コード
によって分離されている。エントリの各々は、RAVE
Lソースファイルにおいて当該音コードについて与えら
れた位置及びタイミングの値を特定することになる。シ
ーケンステーブルにおけるエントリの各々は、ゼロ又は
それ以上の個数の値の対からなっている。
カウント−オフ・テーブルにおける、長さゼロの「空の
」エントリは、連接された別々のコードによって示され
る。値の対の各々における最初の値は位置番号であり、
これはスクリーンの画像に対するポインタ又は当該位置
についての他の合成アクタ−アニメーションブロック(
SABLOCK)のデータを見出すために、位置テーブ
ルを検索するものである。第二の値は、スクリーン上に
表示する時間である(事象を待つために、必要があれば
より長い時間にねたって表示することができる)。合成
アクタ−モデルテーブルにおける次のフィールドは、シ
ーケンスカウント515であり、シーケンステーブルに
おけるビット数を特定している。
合成アクタ−モデルテーブルの次のフィールドである中
間物(betweens)517は、中間物テーブルに
対するポインタである。これは中間記録と呼ばれる記録
の線形リストである。中間物とは、二つの画像の間にお
ける遷移を滑らかにするために表示される中間の画像で
ある。中間物の各々は、四つの関連する値を有している
。即ち第一の位置番号と、第二の位置番号と、これら二
つの位置の間に挿入すべき位置番号と、当該中間物のた
めの時間フィールド又は合成アクタ−のアニメーション
スクリプトにおいて以前の時間を半分にすること(以前
の時間が−サイクル又はそれ以下であった場合には、ゼ
ロにすること)の不履行を示すゼロである。このテーブ
ルは探索されない。シーケンス的に走査されるのみであ
る。合成アクタ−モデルテーブルにおける次のフィール
ドは、中間物カウント519であり、これは中間物のテ
ーブルにおける記録の数を特定している。次の二つのフ
ィールドである幅521及び高さ523は、スクリーン
上において合成アクタ−の画像がどの位の大きさである
のかを特定する。次のフィールドであるモデルフラグ5
25は、合成アクタ−のアニメーションの特別のモード
を示すために使用される。
次のフィールドは位置ポインタ527であり、当該合成
アクタ−モデルについての位置テーブルを指示する。位
置テーブルは他のテーブルからの位置番号によって検索
されて、ポインタを5ABLOCKへと渡す。位置テー
ブルにおける最初のエントリは使用されない。位置番号
ゼロは非合法である。次のエントリである位置番号1は
、初期状態である「静止」位置専用のものである。さら
なる位置番号は、プログラマ−によって任意に割り当て
られる。
5ABLOCKデータは、データに依存したアニメーシ
ョン手段である。好ましい実施例においては5ABLO
CKは、特定の位置にある合成アクタ−のスクリーン画
像を生成するのに必要なデータを含んでいる。ロボット
装置の如き他の実施例においては、5ABLOCKはロ
ボットの種々の部分を動かすためのアクチュエータその
他に対するコマンドを含んでいる。第12図には、例示
的な合成アクタ−アニメーションスクリプト120及び
5ABLOCK121が示されている。ここより上にお
ける他のデータ構造は、アニメーション手段とは無関係
であった。外界に依存したデータが特定されるのは、こ
このみである。入力の便宜、デバッキング及び冗長さの
ために、合成アクタ−の画像に加え、5ABLOCK画
像の最初の32ラインには、人が読み取り可能なラベル
及び位置番号(ポインタを5ABLOCKへと渡した位
置テーブルへの索引と一致するもの)を含めることがで
きる。
合成アクタ−モデルテーブルにおける次の値は、音フラ
グ529である。これは音コードによって索引された音
コード特性記録のテーブルを指示するものである。記録
の各々には、事象者コードであるすべての音コードを指
定しているビットが含まれている。事象(even t
)音コードとは、それについてナレータ装置から帰還が
利用可能であるものをいう。記録の各々には、0CRE
Cを生成し及び解釈しているときにカウントされるop
s <正音声的に意味のある)音コードである場合に該
音コードを指定する別のビットと、及び音コードが強勢
と組み合わせられているかどうか、従って隣接する音コ
ードのタイミングに影響するかどうかを指定するビット
も存在している。どの音コードが母音であるかを知るこ
とは、殆ど総ての言語において分節のために必要である
ことから、強勢、韻律その他を割り当てるための音声的
変換方法に対するテキストにおいて使用されている母音
を、当該台コードが表しているかどうかを示すビットも
存在している。分断点(文、句、又はその他のナレータ
装置の呼び出しシーケンスの文字列の境界)を示すビッ
トも存在する。いつ休止すべきかをナレータ装置に指示
する音コードを示すために、休止ビットがある。これに
関連する数値フィールドは、休止サイクルの数を特定す
る。
合成アクタ−モデルテーブルにおける最後のフィールド
は、特性531であり、これはRAVELソースコード
において与えられた当該合成アクタ−モデルについての
ナレータ装置の番号と、ナレータ装置に依存しているデ
ータを特定しているブロックに対するポインタである。
このブロックは通常、速度、調子、音量、及び特定のナ
レータ装置に固有の他の種々の特性を、オーディオプロ
セッサにとって都合の良いフォーマットにおいて含んで
いる。
さて第6a図から第6C図をも参照すると、例示的なR
AVELプログラムの断片がリストされている。RAV
ELはプログラマ−に対して、ナレータ装置の特性を特
定するための一般的な方法を提供し、また二つ以上のナ
レータ装置を同時に使用することにも備える。RAVE
■、プログラムは、話をする合成アクタ−の声及び関連
する画像の性質、並びにそれらが相互にどう関連してい
るかを特定する。RAVELには、どのような言語につ
いても機能するように設計された、汎用の音声学エンコ
ーディング方法が含まれている。文字(キャラクタ−)
列又はテキストを音声へと翻訳するための規則は技術的
に周知であり、1976年12月の「音響、スピーチ及
び信号処理についてのIEEE(アメリカ電気・電子工
学技術協会)会報」におけるエロビッツ氏(Elovi
tz)等の「テキストを音声に翻訳するための規則」に
公表されている。
このエロビッツ氏等の方法、並びに他の方法が、正音声
的(orLhophonetic)アニメーションをも
行うように拡張されてきている。
このコード断片における最初のステートメント601は
、注釈ステートメントである。RAVELはプログラム
言語Cの規則に従い、始まりが「7本」で終わりがU*
/」により区切られた注釈を受は入れる。次のステート
メント608であるDEFINE  READER6\
$は、RAVELプログラムに対し、テキストから音声
へ(及び正音声へ)の翻訳方法第6番の定義が後に続く
ことを示す。これはステートメント622に続く規則6
03によって特定される(これらは生成規則と呼ばれる
こともある)。英語でない他の言語については、他のイ
ンジケータが必要とされることもある(図示せず)。
ステートメント608におけるドル符号($)の前の逆
斜線は、これらの規則の各々における音声的な置換スト
リングの終わりを区切るのに使用されるキャラクタ−で
ある。ドル符号は、規則中において、スペース即ち空白
のキャラクタ−及びストリングの開始又は終わりを表す
ために使用されるキャラクタ−である(このことは構文
解析を容易にし、また他のナレータ装置ドライバにより
使用される音声コードについての適合可能性を保証する
)。
次のステートメント622であるMETHOD=ENG
L I 5HNALは、テキストから音声への翻訳器に
おいて使用されるべき方法を特定している。読み易さの
ために挿入される別の注釈ステートメントの後に、規則
ステートメント603が開始される。だがここに示され
た規則は、単に例示としてのものである。英語について
の規則の完全なセットは、数百ものステートメント及び
例外についてランされるものである。例外の各々は、独
自の規則ステートメントとそれに伴う慣習的な規則によ
って定義される。このプログラムにおける例外の例は、
単語rONEJについての規則605である。英語の綴
りの不規則性についてのこの例は、$ (ONE)$=
WA HN\という規則により翻訳される。$は、この
語が単語それ自体として現れた場合にのみ一敗を保証す
る(規則の完全なセットにおいては、単語中に存在する
rONEJを別扱いするための規則が後に存在する)。
関連する正音声的規則のためのコード化情報は、各々の
ラインのテキスト翻訳用規則の次にある。最初の正音声
的規則607は、rl:(332)Jである。1は特殊
実行コードであり、アニメーションは指定せず、その代
わり0CRECにおける呼び出しプログラムへと特別の
情報を渡すことを専門に行う。括弧の中の最初の二つの
数字は、アニメーション実行の場合に、幾つのテキスト
キャラクタ−を関連するOPS音コードへとそれぞれ変
換すべきかを示す。三番目の数字は0CRECと共に戻
されるパラメータであり、これが例外の単語であること
を示すものである。
特殊実行コード1の他に、第二の正音声的規則609は
、実行3が発生されるべきこと、そして単語のどの部分
についてもまた単語全体についても、3つの文字全部が
表示されるべきことを示す。この規則からは他にはどの
ような効果も発生されない。このことは、いかなる論理
形態においても単語rONEJはその文字に一致する音
へと分解することができないこと、rONE」はl’−
WAHNJでしかないことをユーザーに示すという決定
を反映している。別のプログラマ−は異なった仕方で分
割するかもしれず、ONHの「○」の部分は音rWJ及
びr A HJを生成しrNJが音rNJを生成し、r
EJは黙音であることを示すような実行規則を書き込む
かも知れない、RAVELソースコードの正音声規則は
、これらの決定を行う権限をプログラマ−に付与してお
り、またこれらを低レベルプログラミングでもって組み
込むのではなく、他のホストマシンへと転送可能なよう
にしている。
規則のセット中における最後の規則610は、($)=
$\であり、これはスペースキャラクタ−を変更されて
いない音声翻訳へと渡すために使用される。文字ごとで
はなく、単語ごとの正音声アニメーションが行われてい
るならば、単語間の間隔をフラグするために、ここで正
音声効果コード1を使用することができる。最後の逆斜
線は、このテキストから音声への11訳規則区分を終了
させる。
MODEL  6という次のステートメント611は、
モデル第6番によって使用される音声学及び画像シーケ
ンスの定義が後に続くということを、RAVELコンパ
イラへと示す。次のステートメント612であるUSE
  NARRATOR6は、当8亥モデルについてどの
ナレータ装置を使用すべきかを特定する。次のステート
メント613であるUSE  READER6は、この
モデルのナレータ装置について、どのテキスト−音声翻
訳器を使用するかを特定する。このモデルによって使用
される音声コードの定義は、ステートメント613に続
いている。数字の各々は、当該数字に先行する音節に置
かれる強勢を示す音声エンコードキャラクタ−である。
強勢というものは基本的には、音節の母音を伸ばすこと
(英語の場合)であるから、これらの数字は強勢に先立
つタイミング番号及びキーワードと関連している。” 
* ” 614はコンパイラに対し、当該コードを含む
単語をサウンド・アウトする場合に、当該コードについ
て、切分されたスピーチの形式として何を使用するかを
教えている。この場合、切分されたスピーチを生成する
ためには強勢の値は使用されないことから、′*”はこ
のナレータ装置についてはヌルストリングである。
幾つかの句読点マーク615の定義の後に、RAVEL
ソースコードは使用される母音及び子音の音コード61
7を定義している。母音の音コードは、単語rcotJ
における短い「0」の音である“AA”619で始まっ
ている。これについての切分されたスピーチの形式は、
同じである。“AA”619は母音(VOWEL)とし
てマークされており、またEVENT音コード色コード
マークされている。これは、ナレータ装置がこの発音を
開始した場合に音響スクリプトプロセッサ43がこれを
検出することができ、また非同期アニメーションをトリ
ガするようにリアルタイム統合器55に通知するという
ことを示す。
“AA”619はまた、oPS即ち正音声的に意味のあ
る音コードとしてもマークされている。
″AA″619音コードにおける次の二つの数字621
は、この音が、この言語プログラム区分の最後にあるE
NDMODELステートメント623(第6c図に示さ
れている)において示された画像ファイルからの位置番
号2の10サイクル分と組み合わせられるべきことを示
している。
画像及び関連するタイミングは、言語の音コードにおけ
る音区分と幾つでも組み合わせることができる。例えば
二重母音rAWJ 625(rオウ(OW) Jのよう
に発音される)は、総ての二重母音と同様に、人間の言
語における特徴的な仕方で一緒に発音される二つの音か
らなっている。
これは二つの画像を生成するように定義されている。即
ち画像6を5サイクル分と、画像48をさらに5サイク
ル分である。
次のステートメント627は、子音であって、それらに
関する切分文字列が音声エンコード文字列と同一でない
ものを示している。同一でないのは、音声エンコード文
字列が、切分されたスピーチモードの際に母音の一部と
共にサウンド・アウトされるためである。例えばr B
 J 626は、単にrBJというのではなく rBA
X (バハ(buh)のように)」と発音される。切分
されたスピーチ音に対する別のアプローチは、文字rG
J629について示されている。そこでは先行する下線
符号がRAVELに対し、ファイル(ファイル名はGA
Xである)から読み込まれたデジタル化された音を示す
ように、そしてそれを顔及び正音声と同期させて、あた
かも「GAXJと言っているようにさせるように合図し
ている。音素rKJ631及びr S J 633はE
VENTでないものとして定義されているが、これは本
明細書での例示のために過ぎない。
音の生成と関連していない合成アクタ−の幾つかの反射
動作635が定義されている。これらについての切分文
字列rss1634は、単なる充填物であり、各々のス
テートメントと組み合わせられている二つのキャラクタ
−ストリング**、*1、*2、*7は単に、適当な時
期に動作コントローラ49によって惹起される合成アク
タ−の反射動作を示す、他では使用しない音声エンコー
ドである。セミコロン636は、この音声学による定義
を終了させている。SPECPARAMSステートメン
ト637は、標準的なスクリーンの領域及び画像につい
ての機能性を示している。
INBETWEENというステートメント639の各々
は、組み合わせられた四つの数値を有している。最初の
二つは、どの位置の間に画像が挿入されるべきかを特定
する。三番目は、どの画像を挿入するかを特定する。四
番目のパラメータは、当該中間の画像をスクリーン上に
表示する時間の長さを特定している。表示時間の値がゼ
ロの場合には、合成アクタ−のスクリプト発生器54は
、先行する画像の時間の半分を自動的に使用する(先行
する時間が2サイクル以下でない限り。2サイクル以下
の場合には中間物は挿入されない)。ある中間物につい
て許された表示時間は、先行する画像について許された
表示時間から、常に減算される。例えば最初の中間物ス
テートメント638は、合成アクタ−のスクリプト発生
器54に対し、33番の画像がスクリーン上に表示され
これに5番の画像が直ぐに続いた場合にはいつでも、番
号65の画像がこれら二つの画像の間に3サイクルの長
さにわたって挿入されるということを特定している。
この場合、33番の画像について許される表示時間は、
65番の中間物画像のための表示時間を提供するために
、3サイクル減少される。
中間物ステートメント638においては、33という値
は、音コードrTJに関する音についての合成アクタ−
の唇及び舌の位置に対応している。5というのは、音コ
ード「AO」により示される母音についてのものである
。(これはrTALKJという単語におけるraJO音
である。)画像番号65は、これら二つの位置の中間と
なるようにして、合成アクタ−の口及び顔を表示する。
例えばステートメント640においては、33と2の間
の位置において、65番はまた、「T」及び別の母音、
即ちrcOTJという単語のrAAJという音との間に
挿入されるものとして定義される。このことは、当該画
像を繰り返して使用することを可能ならしめる。なぜな
ら、rTJとrAAJとの間、及びrTJとrAOJと
の間に表示される唇の位置は、殆ど同じだからである。
中間物は、ステートメント641におけるようにネスト
されることもできる。そこでは74番という画像が、画
像33と71との間に挿入されるべきものとして定義さ
れている。画像71が33と最初に近しくなるのは、そ
れが先のステートメント642において33と1の間に
中間物として挿入された場合である。このネスティング
はどのような深さとすることもでき、この方法論はRA
VELのプログラマ−が最小限の数の格納された画像を
使用して、顔の位置(又は音声に関する他の画像)のモ
デルを定義することを可能ならしめる。
最後のステートメントであるENDMODEL623は
、合成アクタ−のスピーチパターン及び画像についての
この特定のモデルが完成したことをRAVELに対して
特定し、またこのモデルが関連する画像が見出されるフ
ァイル名を特定する。最後に一つのコロン643が、プ
ロクラムの終わりを示す。
さて第7a図及び第7b図を参照すると、人の言語にお
ける正字法又はタイル29について用いられる他の記号
のセットを特定しているステートメントを示している、
例示的なプログラムリストが提示されている。付加的に
、コードはタイル29(第2a図から第2r図において
示された如き)がどのようにしてスクリーン27上に配
置されるのか、またタイル29はどのように他のタイル
と相互作用し、マウス又は他の入力装置によるユーザー
の操作にどう応答するのかを特定しており、さらにはタ
イル29上に記入された文字または他の記号と関連する
音響基を特定している。
最初のステートメント701である5PEAKER6は
、このプログラムにおいて文字名及び切分された音を表
現するのに使用される、特定のナレータ装置を識別して
いる。次のステートメント703はL E T T E
 RN A M E Sであり、タイルコントローラ3
7に対し、文字の名及びタイル29に記入された他の記
号の名の発音を特定している記述がその後に続くことを
示している。
マージンステートメント705はタイルコントローラ3
7に対し、タイル29相互の端部の間に残す間隔、及び
タイル29上に示される文字その他の記号を特定する。
フォントステートメント707はタイルコントローラ3
7に対し、フォント(図示せず)を参照することにより
、文字又は記号がどのように見えるものであるかを特定
する。
引きつけ領域(MAGNf!T RANGE)709は
、タイルが相互に引きつけ合うためにはタイルがどの位
相互に近接していることが必要かを特定する。スフイソ
シュ要素(SQLIISII FACTOR)711は
、タイル相互の融合の際にタイル29の動きのアニメー
ションを滑らかにするために使用される、経験的に導き
出された値である。退去速度(SCOOT 5PEED
)713は、タイル29がそれぞれの方向へと向けてど
の位速く移動するかを特定している。ギャップ715は
、タイルの位置が特定されていない場合に、不履行とし
てタイル29相互間に残すべき間隔を特定している。ト
レーステートメント717は、トレーの名称及び当該ト
レーが描かれるべきスクリーン27上での位置を特定し
ている。
タイル29の各々は、1セツトのステートメント719
でもって特定される。各々のタイル29について、タイ
ルコントローラ37は、そのタイルがどのトレーにある
か、また上、左、下、右という順番で、タイルの位置(
[に(at)Jというキーワードの後に)について知ら
される。この例では、上部は位置30に、左の座標ば3
5にあり、最初のゼロはタイルコントローラ37が当該
タイルに与えられたマージン及びフォントの大きさに基
づき下部座標を割り当てることを示す。二番目のゼロは
タイルの右手の端部についてのものであり、当該タイル
がどの位の幅であるべきかを決定するためにタイルコン
トローラ37がそのマージン及びフォント情報を使用す
べきことを示す。
次のライン721は、文字「A」 (又はrAjについ
てのキャラクタ−コードに対して割り当てられたものを
特定のフォントにおいて。プログラム言語Cの規則では
、逆斜線の[拡張(es−cape) Jコードに数値
が続いたものは、タイプ可能でないキャラクタ−コード
を示すために代わりとして使用される。)を当該特定の
タイル上に示すことを命じており、また次のライン72
3は、rAEJ  (短い「a」)という音がこの記号
に組み合わせられていることを示している。
キーワードrWORDALsOJ724はタイルコント
ローラ37に対し、このタイル(この場合は一文字の不
定冠詞「a」)と同じに綴られる英単語であって、関連
する音のシーケンスの通常モードを示しているこのタイ
ルとは異なる発音をすることが必要なものが他に存在す
るということを知らせる(そうでない場合は、トレータ
イルを単語として解釈及び発音しようと試みる代わりに
、当該トレータイルと同じテキストを持つ自由なタイル
が、そのトレータイルの発音シーケンスを使用する)。
rPRESSJステートメント725は、そのタイルを
選択するためにはキーボード上のどのキーが押されるこ
とが必要であるのかを識別する。タイルの色及び形を特
定するステートメントも使用することができる。
ステートメント726に続< rcJタイルステートメ
ント727は、硬膏rcJ  (rKJO音)の音につ
いてのデジタル化シーケンスを特定する。これは文字列
中の先頭にある下線キャラクタ−729によってナレー
タ装置へと指示されるが、これはこの特定のナレータ装
置に対して、「この音声ストリングを合成するのではな
く、この音声ストリングについて関連する合成アクタ−
の唇の動きを表示し、「カー(KAH)」という名の音
ファイルを使用せよ」ということを特定する。軟らかい
rcJ  (r’sJの音)ではなく硬い音をrcJの
通常の音として示すということは、プログラマ−が決定
することである。
「カー又はスー(KAHOHR5S)Jというデジタル
化即ち合成されたシーケンス(両方の音及び単語「又は
(or) Jを示すこと)も使用できる。
タイルコントローラ37は、文字を記入したシミュレー
トされたタイル又は他の対象物を管理し操作するための
一般化されたシステムである。
タイルの作動のすべてはタイルコントローラ37を介し
て制御されるため、タイルコントローラ37はアプリケ
ーションコントローラ44及びRAVEから独立してい
る。各々のタイル29と組み合わせられているものは、
当該タイルに記入された文字又は記号を表している、テ
キストストリング及びそのテキストストリングをエンコ
ードしたものである。これらのデータ構造はタイル記録
という名を持ち、RAM20内のタイルテーブルに格納
されている。
さて第8図を参照すると、タイル記録801が示されて
いる。タイルテーブル800は、固定長のタイル記録8
01の線形リストである。タイルテーブル800の長さ
を限度なしに延長するために、動的割り当て(及び複写
)を使用することができる。各々のタイル記録801に
ついてのフィールド内容の殆どは、通常は第7図に示さ
れた如きソースコードによって定義される。
クラス803は、タイルのクラスを特定する。
タイルのクラスは四つ存在している。空白については、
タイルテーブル800は「空き(empty) Jとい
う特別のクラスコードでもってマークする。
固定タイル(タイルの源泉即ちスタックとして機能する
)は、スクリーン上の特定の位置に存在する(編集モー
ドを除き。編集モードではユーザーは固定タイルを移動
でき、固定タイルについての新たな形状を記憶できる)
。浮動タイルは、活動領域の辺りを引き回されているタ
イルであり、自由タイルは活動領域上に落とされてさら
に移動することのできるタイルである。
四つ目のクラスは目に見えないものであり、プログラミ
ングの一助として使用されうる。
モデル805は、当該タイルについて、どのモデルの声
及び関連する合成アクタ−のアニメーションが使用され
るべきかを特定する。
位置807は、タイルの左上部の角がスクリーン上の何
処に位置すべきかを特定する。
テキスト809は、標準的なキャラクタ−ストリングの
表示の如き正字法のキャラクタ−ストリングのデータ、
及び使用に適当なフォントを含む記録のアドレスを特定
している。
対象物811は、特定のオペレーティングシステム環境
において入手可能である場合に、対象物の抽象的な表示
に対するアドレスを特定している。
押しキー813は、キーボード上において特定のタイル
を選択するために押すことが必要とされる、キーボード
のキーのリストを含んでいる。
音コード815は、テキストストリングについての発音
を表している音コードのストリングに対するポインタを
特定している。
フラグ817は、タイルの種々の一時的な属性を格納す
るためにタイルコントローラによって使用される。フラ
グ817はまた、ある文字がまた−文字の単語である例
外的な場合(又はより一般的には、トレータイルに記入
された記号ストリングが自由タイル上では単語として発
音される場合)を示すrWONEJフラグをも含んでい
る。
色819は、テキストの色、背景の色、及び影を出す効
果並びに所望の美術的効果をも含めて、タイルの色の特
性を特定している。
形状821は、例えば母音と子音などの如き文字の種々
の等級を識別するために、タイルの形状が一つ以上ある
場合などの選択的な特性を指定することができる。
0CREC823は、テキストストリングの部分と音コ
ード化されたストリングの部分との間の対応関係、及び
それらがどうアニメ化されるかを特定している情報を与
える、正字法的に対応する記録を指定している。
残りのフィールドは、将来的な拡張のために保存された
予備である。
次に第9図及び第10図を参照すると、第二の例として
rKNIGHT  AX (騎士の斧)」が、音声スト
リングrNAYT  AEKS (ナイト・アクス)」
へと翻訳されており、また音声翻訳規則及び正音声規則
を使用した、関連する0CREC即ち正音声的に対応す
る記録の構造が示されている。RAVELプログラムの
例示的なリスト(第6a図から第6c図に示した如き)
は、前述した。この例においては、効果6−文字の上の
点−が、どの文字又は文字の組み合わせが発音されてい
るのかをディスプレーにおいて示す(ハイライトする)
ために使用され、効果3−下線−が、関連する文字の重
要な組み合わせを示すために使用される。
テーブル900はこの例について使用される規則901
(第6a図から第6c図のRAVELプログラムから取
った)を、コード化の説明をも含めてリストしている。
規則901は、プログラマ−が読み書きするのに簡単な
形態のキャラクタ−ストリングとされている。各々の音
声規則903は、a  (b)c=dという形態を有す
る。その意味は、raJによって先行されrcJが後に
続く場合、キャラクタ−ストリングbはrdJと発音さ
れるということである。このrdJは音素のストリング
又はここにおける規則が書き込まれている特定のナレー
タ装置に特有の他のスピーチ区分コードからなっている
。rbJは翻訳されるべきテキスト断片である。raJ
及びrcJは一致をとられるべきパターンである。
これらはrbJと同様に文字のテキストストリングから
なることもできるが、またストリングのクラスを示す特
別の記号であってもよい。翻訳ルーチンは原文のテキス
トであるrKN I GHT  AXJ902を直列的
に走査する。この原文テキストにおいて走査される各々
のキャラクタ−について、翻訳ルーチンは、左辺のスト
リング(前後関係raJ及びrcJを含む)が現在の位
置における原文テキストに一敗するものを見出すまで、
ソース(原文)コードに与えられた規則全体を検索する
。翻訳ルーチンは次に当該規則におけるイコール符号の
右辺に音声コードを出力するが、それは逆斜線までをも
含むものではない。逆斜線は音声コードを足し算して、
進行につれて音声翻訳ストリングrNAYT  A E
 K S J 904へとするものである。翻訳ルーチ
ンはそれが一致した原文ストリームにおける括弧付きの
キャラクタ−は飛び越して、逆斜線の後にある正音声規
則905を適用する。
規則の正音声部分905は、コンマによって分離され、
セミコロンによって終端された、何個かの効果指定子(
effect designator)906からなっ
ている。効果指定子906の各々は、効果番号と、それ
に続くコロンと、その後の括弧付きの幾つかの数字のリ
スト908とからなっている。
各々のりスト908は少なくとも二つの数字を含み、そ
の最初のものは、正字法テキスト人力ストリームから幾
つのキャラクタ−が翻訳されたかを示し、二番目の数字
はそれらが正音声的に意味のある(OPS)幾つの音コ
ードへと翻訳されたのかを示している。テーブル910
は、規則901の正音声部分905によって生成される
アニメーション912、及び規則901の音声部分90
3により割り当てられる音声的音g914を示している
0CREC907は、正音声記録905から、第10図
に示されるように構成されている。これはゼロの記録に
よって終端されるリストであって、原文文字列に適用さ
れた正音声規則905において特定された効果906の
各々について、効果コード909及び関連するリストア
ドレスベクトル911を含んでいる。この例907にお
いて、効果コード909は正音声記録905において使
用された効果番号906と同一である。アドレスベクト
ル911は、当該効果について集められ及び/又はテキ
ストから音声への翻訳器によって発生され、二つのゼロ
916(禁止されたか又は意味のない値のセット)によ
って終端された括弧付きのコード908の線形リスト9
13を指定する。
リスト913における各々の記録915は少なくとも二
つの値を含んでおり、その最初のものは正字法によるキ
ャラクタ−の個数を、そして第二のものはそれらがマツ
プされた正音声的に意味のある音コード(OPS音コー
ド)の個数を特定している。OPS音コードはRAVE
Lソースコードのナレータ装置特性区域においてフラグ
され(第6図に示されたように)、そしてこの翻訳規則
によってカバーされないアルゴリズムに従いテキスト−
音声翻訳器により書き込まれている、当該特定のナレー
タ装置のための強勢及びその他の音声コードモデルを排
除するために使用される。正音声規則の効果パラメータ
908(括弧内の数値)を各々の適当なりスト913の
終わりまで出力した後、ルーチンは原文ストリームの走
査を再び開始する。
幾つかの場合には、効果は、原文ストリングにおいてア
ニメーションが現れる派生点を特定している第三の値を
必要とすることがある。それにより、記号セットの組み
合わせモードのアニメーションを可能ならしめ、キャラ
クタ−が配列された順序とは異なる順序において、キャ
ラクタ−に音響を発生させるものである。発声教授モー
ド(第21図−第2n図)、或いは文脈(即ち先行又は
後続の文字)を強調しある文字が当該単語中において特
別の音を有するようにする他のモードを達成するために
、二つの付加的な数値(図示せず)が必要とされる。こ
のことは、テキスト−音声翻訳器による方法を修正して
、ある文字が有していた文字(又は文字の組み合わせ)
の前後の距離を追跡してこれを検索し、適当な音韻を割
り当てるようにすることによって達成される。英語のよ
うに綴りが難しい言語においては、これらのタリーから
特定の規則(通常は例外的な場合について)を免除する
ために、別個の効果コードを使用することもできる。
他の効果においては、記号(シンボル)における重複し
た要素(例えば東洋の表意文字言語など)を特定するた
めに、また当該効果の特定のモード(下線の幅、その他
)を示すため、或いは当該規則に関連する合成アクタ−
による注釈(例えば[この母音は黙音reJのために長
い」といったような)を特定するために、付加的な数値
を必要とする。
コード叱正音声規則における便宜及び正確さのために、
テキスト−音声翻訳器は、関連する音声規則から推論し
うる値については、不存在の正音声規則を発生するよう
にプログラムされることができる。
ここでrKN I GHT  AXJという例を参照す
れば、例示的なRAVELプログラムにおいて、テキス
トストリングrKN I GHT  AX」の始まりと
一致する最初の規則919は、規則($)KN=N\で
′ある(式中$は空白文字又はテキストストリングの始
まり)。この規則は、単語の始まりにおいて「N」の前
に黙音であるrKJを見出し、これと一致するように設
計されている。この規則は始めに一致されるが、それは
、規則が直列的に走査されるものであって、この規則よ
りも下にある「通常のK」についての規則は検索される
ことがないからである。
ひとたび一致が見出されたならば、音声翻訳コ−ド「N
」が出力される。これと関連する正音声規則905は、
効果番号906及びこれに組み合わせられた効果値90
8を含んでいる。最初の数値「3」は、効果3を指示し
ている。0CREC907を構築するために、効果30
指定子909及び関連するリストアドレス911がセッ
ト77ブされ、次いで効果3のリスト913の初期エン
トリが、「3:」の後の括弧内に包含された数値コード
r2 1 4Jを複写することによって入れられる。括
弧が閉じた後のコンマは、別の効果906が続くという
ことを示している。同様に、次の効果である効果6につ
いても、効果6の指定子909及び関連するリストアド
レス911がセットアップされる。「6」に続く括弧付
きコードの二つのセット「10」及び「11」を複写す
ることにより、初期エントリが効果6のリスト921に
入れられる。r 1 0 J 923は、最初の文字キ
ャラクタ−であるrKJがゼロOPS音コードにマツプ
されたということを示している。r 1 1 J 92
5は、第二の文字ギヤラフターであるrNJが単一のO
PS音コードに対してマツプされたということを示す。
これにより、最初の規則919の適用は完了する。
次に規則は、原文テキストの文字列の残りであるrlG
)(T  AXjの一致をとる規則に関して検索される
。規則テーブルにおけるこの文字ストリングに対する最
初の一致は、rIGHJに対する規則927である。こ
の規則を適用すると、音声翻訳にrAYJ  (長い「
アイ(i)」の音)というコードが付加され、音声スト
リングrNAY (ナイ)」が作成される。r3:J9
06に続く括弧内のr3 1 4J90Bが、構築中の
効果3のリスト913に加えられ、正字法の原文テキス
トの3つの文字列キャラクタ−が一つのOPS音声音コ
ードにマツプされたということが示される。効果3のリ
ストにおける「4」917.929は、下線の幅が画素
4つ分であることを示す、さらなるコードである。
r6:J906に続く次の二つの数値の対908は、構
築中の効果6のリスト921に付加されたものである。
即ちこれらの数値「11」及び「20」は、効果6(発
音される場合の文字上の点)が、欄931及び933に
おいて説明され且つテーブル910の列935において
図示されているように、後続の二つの文字キャラクタ−
であるrGHJではな(最初の文字キャラクタ−rlに
ついて実行されるということを示している。二つの文字
キャラクタ−rGHJは「熱台の」文字であるので、こ
れらはどのような音声翻訳に対してもマツプされていな
い。
次に一致が取られるべき規則は、rTJの規則であり、
これも同様にテーブル900に図示されているように0
CRECが完了するまで行われる。rXJについての規
則937は、単一の文字938が二つの音コード939
を発生するものの例を提供していることに注意されたい
。原文テキストの文字列即ちストリングが使い尽くされ
た場合、0CRECの効果リスト913及び921は、
それぞれゼロの対916及び918によって終端される
。0CRECのリスト913及び921は最終的に、正
音声スクリプトを発生するために使用される。
さて第11図をも参照すると、正音声スクリプト101
が示されている。この正音声スクリプトは、RAVEL
プログラムの規則を使用してテキスト−音声翻訳器40
 (第3図に示した)によって構築された0CRECか
ら発生されている。
効果1及び特別の情報をフラグするために残して置かれ
た他のものを除き、効果リスト913及び921の各々
について、通常は一つの正音声スクリプト101が発生
される。0CREC907における他の効果リスト又は
効果リストのセットの各々は、マイクロプロセッサ10
が正音声スクリプト発生器52を使用してスクリプトを
発生するようにさせる。正音声スクリプト101は、基
本的には合成アクタ−スクリプト120(第12図に示
されている)と同じであり、アドレス/時間の対102
.103に加えて負のアドレス値105(正音声スクリ
プト101においては(負)として示されている)によ
りフラグされ事象番号を特定している事象待ち記録10
4とからなっている。この例においては、rKJ及び「
S」の音についての音コードは、事象者コード(第6図
に示された如き)でないものとしてフラグされている。
正音声スクリプト101においては、アドレス102は
正音声アニメーションブロック(OABLOCK)10
6を指定しており、このOAB LOCKの正確な内容
は、効果の詳細(正音声アニメーションプロセッサ51
が何であるかをも含めて)及びそのスクリプト発生器5
2の性質に依存している(情報の幾らかは、0ABLO
CKパラメータ値として渡されるのではなく、非リアル
タイム段階においてコンパイルされているであろう)。
この例、つまりrKN I GHTAXJにおいては、
「K」及び「S」の両者にとって正音声ディスプレーは
同一であり、これら両者については一つの0ABLOC
KIIOf。
か発生されない。なぜならこれらは一つの文字rXJの
音声翻訳によって発生されたものだからである。「K」
及び「S」についての表示時間は合計され、OABLO
CKは合計期間107である11サイクルに渡って表示
される。正音声スクリプトにおける最後の0ABLOC
K108は1サイクルの表示時間109を有し、スクリ
ーンを初期のアニメーションのない表示状態(即ちハイ
ライトされた文字がない)へと戻す。0ABLOCK及
び正音声スクリプト発生器52は、テキスト、正字法に
よる画像のスクリーン上での位置、及びテキストを完全
に特定するために必要とされる他のテキスト描写パラメ
ータを含む情報であって、アプリケーションコントロー
ラ31、タイルコントローラ37又は動作コントローラ
49などからマイクロプロセッサ10へと渡された情報
に基づき、マイクロプロセッサ10によって選択されま
た生成されたものである。かくしてマイクロプロセッサ
10は、正字法キャラクタ−の各々の高さ、幅及び位置
を特定することができ、そしてこのデータを利用して非
リアルタイム段階において0ABLOCKを発生するこ
とができる。
0ABLOCK115は、正音声効果(及び合成アクタ
−の効果)の多くのものについて適当な0ABLOCK
のフォーマットの例を、標準的なメモリマツプされた映
像表示システムを伴って提供している。0ABLOCK
115は、効果を表示すべきスクリーンアドレス116
と、表示領域の高さ117及び幅118と、及びスクリ
ーン画像それ自体を特定するためのデータ119とを含
んでいる。
さて第12図を参照すると、合成アクタ−スクリプト1
20の例が示されている。合成アクタ−スクリプト12
0は正音声スクリプト101 と同じフォーマットを有
しているが、その生成方法は異なる。図示の合成アクタ
−スクリプト120は、以前に説明したrcATJO例
についてのスクリプトである。表示期間122及び5A
BLOCKアドレス124を含んでいる第一の記録部分
123は、音声コード化rKJのだめのものである。そ
こでは「事象記録待ち」125は先行していない。なぜ
ならrKJは事象(EVII!NT)音コード(第6図
に示された如き)としては定義されていないからである
。5ABLOCK121は0ABLOCK115と同様
のフォーマットを有しているが、スクリーン画像データ
131が合成アクタ−の位置を描写するようになってい
る。
このスクリーン画像データ131は、デジタル化された
ビットマツプの形態を取ることができる。
正音声スクリプト101と同様に、最後の記録127は
、静止している合成アクタ−の画像を含んでいる5AB
LOCK129のアドレスを含んでいる。
【図面の簡単な説明】
第1図は、本発明の原理に従い、コンピュータにより発
生された映像的画像をリアルタイムに同期されコンピュ
ータにより発生されたスピーチと共に表示するシステム
のブロックダイヤグラムであり; 第2a図から第2q図は、第1図のシステムに従いrc
ATJという単語の形成を実演しまたスクリーンのレイ
アウトを示す、ディスプレースクリーンの表示のシーケ
ンスであり;第2r図は、手話でもって教授又は意思疎
通するために、第2a図から第2q図のスクリーンレイ
アウトの特徴と共にアニメ化された手の使用を示す表示
であり; 第3図は、第1図に示されたシステムにおける主なデー
タの流れ及び処理を示す、詳細な機能ブロックダイヤグ
ラムであり; 第4図は、カウント−オフ・テーブルの構造を示すダイ
ヤグラムであり; 第5図は、合成アクタ−モデルのテーブル記録を示すダ
イヤグラムであり; 第6図は、第6a図から第6c図の関係を示している説
明図であり; 第6a図から第6c図は、第1図のシステムにおいて使
用された音声および正音声規則を含んでいるRAVEL
プログラムの例示的なリストを提供している表であり; 第7図は、第7a図と第7b図の関係を示している説明
図であり; 第7a図と第7b図は、第2a図から第2r図に示され
た如きタイルの正字法的マツピングのための規則を特定
しているコードの例示的なリストを提供している表であ
り; 第8図は、タイルテーブル及び関連するタイル記録の図
式的表示であり; 第9図は、キャラクタ−ストリングを翻訳するためのテ
キスト翻訳規則の使用を示す図式的表示であり; 第10図は、正音声的に対応する記録を示す図式的表示
であり; 第11図は、第10図に示された正音声的に対応する記
録に対応する正音声スクリプ斗を示す図式的表示であり
;及び    ・ 第12図は、合成アクタ−スクリプトを示す図式的表示
である。 5・・・コントローラ  7・・・ビデオ入力装置8・
・・デジタイザ  9・・・オーディオ入力装置10・
・・マイクロプロセッサ  11・・・ROM12・・
・ディスクコントローラ 13・・・ディスクドライブ 15・・・キーボード  16・・・入力コントローラ
17・・・入力装置  18・・・ビデオ発生器19・
・・ビデオ出力装置  20・・・RAM21・・・デ
ィスクRAM 22・・・ディスプレーRAMバッファ23・・・オー
ディオRAMバッファ 24・・・RAM   25・・・オーディオ出力装置
26・・・オーディオ発生器  27・・・ディスプレ
ー28.30・・・トレー  29・・・タイル31・
・・スタック  32・・・合成アクタ−表示領域34
・・・活動領域  36・・・話をする頭部37・・・
タイルコントローラ  38・・・唇39・・・ナレー
タ装置積分器  40・・・翻訳器41・・・エンコー
ダ/デコーダ 43・・・オーディオプロセッサ 44・・・アプリケーションコントローラ45・・・ス
ピーチシンセサイザ 49・・・動作コントローラ 51・・・正音声プロセッサ 53・・・合成アクタ−プロセッサ 55・・・リアルタイム統合器 61・・・ビデオコントローラ 出願人代理人   古 谷   態 量   溝部孝彦 同   古谷 聡 日G、 2a 日G、 2b 口G、 2c HG、 2d 日G、 2e 口G、29 FIG、 2j 日G、 2k FIG、 21 4:      20 、55 、 I 、 IFIG
、 4 日G、 5 0G、6 日0.7 /富音声規則            正音声規則富/
〔A〕・^B\       3:(1141、l(1
11:/811いaの規則、下線及び魚倉/\ /富す
−ダー6のための規則の終り怠/+2++t+ST北S
S2 ”3”I” 5TRESS 3 ’4”t’ 5TRRSS 4 ”5=t’ 5TRESS 5 ”6=$’ 5TRESS 6 ”?”t” 5TRESS ? ”8”t” 5TR2SS 8 ”9”t” 5TRESS 9 旦b 怠“零“ ’、 ”t” BRE^に ゝ?=r BREAK −++寥” PALISI! 3 +、 ++t+ PAUSE 3 +(++t+ ″ど+1+ ” ”t” FIo、6a 図面の浄書(内容に変更なし) ”API”AI! j” VOIIEL l!Vl!I
T OPS 93”AI”AHt” VOIIIEL 
l1VEllT OPS 104”AI”AX t” 
VOIIEL BVENT OPS 107°^マ“A
T t’ VOIIBL EVENT QPS +28
”[llf”EHt” VOWEL IIVENT Q
PS 109’[!R”El $” VOIIIIL 
HVEIIT OPS 810’I!Y”[lY t”
 VOIIHL EVENT OPS 101+flL
Z ”III”111客” VOIIBL EVEII
T OPS 812”IL−”ILt’EVENTQP
3101”II”llft’EVI!Iff口PS12
1”III”III j” eVP、NTQPS +2
1”II”II j” V[1IIBL EV[!II
T OPS 1013”IY”IT 雲’ VOIIE
L BVENT DPS 1014”OH”OHj” 
VOWEL EV[lN↑OPS 1015+Ow”0
111”VQIlllLEV[tll↑OPS101g
”DY”OY $” VOIIEL BVENT OP
S 56549”1111”1111 t’ VOII
IIL EVENT OPS 1016”IIL″’U
L t” EVENT OPS 518527”IIM
”IIM t” IIVEIff OPS 51852
8’11%”It!l j” EVEIIT FIRS
 518529”UW”Ull j” VOW[!L 
EVEIIT OPS 1019”CI”CllAl 
j’ EVENT OPS Io 21”D”OAX 
j” EVENT On +022”Dll”DllA
X t” EVENT OPS 1040i”[1X1
DI j” eVl!IIT OPS I 44”L”
LXIJ $” 2VENT OPS 1027’M”
111111 t’ EVENT DPS 102g”
N”NN t” EVEIIT OPS 1029’N
X−”NNQXGAX $” EV[!NT OPS 
93gFI0.6t) 図面の浄τ゛2(内容に変更なし) +R”RRj” EVEIIT OPS 1031”R
X”Rj+εVl!NT OP!i IQ 46”T”
Tl1ll$”eVmOPS1033”TH”TIIA
X l” EVeYr OPS 1039”V”VAK
 $” EVHIIT OPS 1034[”W”11
111 j” EVI!IIT OPS 53555G
”Y”YAX $” eVF、Yr OPS 1G 3
6”Z”222 t” EVEIIT OPS 103
7”211”ZIIAX t” aVE+ff DPS
 1042”P=FAX $” EVENT OPS 
1023”OK”OXj”BVI!TITQPSII’
/C”/CAxj” EVEliT OPS 1043
”/If”/IIAX t’ EVENT OPS 1
043−オ“”SS零″21012127210221
262103197 /富商き直る富/”−2”SS 
$” 10302539 /富目上向き富/+:3”S
S j” 10302539 /*目まん中本1lNB
[’TWEEII 5266112 ;INBI!TW
EEII 2612662 ;FIG、  6C 図面の浄割内容に変更なし) ”^”’[!Y $’ 2B″’BIY $” ”C”SIY t’ ”El”[lIY t’ ’E″’IY $’ F”[!HF t” ”G″″JIYj” ′Il”I!YCII $” ’I”AY $’ 1Jm”JBY t’ ”に”にEY零1 L′″”EIIL $’ #r″EIIM零1 ′N“”BIIN j” ’0”OHj’ ’P”PIY $’ ’Q”KYUII t’ ”R”AARK $’ ’S”EH5j” 11↑IYr ”U”111w客“ ”V”VIY t’ ’W’7−DIIIBAXLYIIII j’1x′″
’I!IIKS $” ’Y”WAY j’ ’Z”ZIY t’ F 工 0−7a 図面の浄コ(白′σに変更なし) BffTTO115 PACI! 1 717\TRAY ’tes目・ ^TOQI07511; 丁ILB  IN TRAY  ’test  1”A
T 000 G 5ll0II ”B’ SAT ”BARt” PIIESS 115856565656 ;726ゝ
丁ILII IN TRAY”Lest l”AT 0
00 G 丁ILL!INTIIAT”jestl”AT 020
000 SH[Iw+[l+ SAT ’[lAH寥1 PRES31356%565656 ;FIO−7b FIG、 8 FIG、 11 手続補正書く方式) 1、事件の表示 特願昭62−298840号 2、発明の名称 スピーチ同期アニメーション 3、補正をする者 事件との関係  特許出願人 工  ロ  ン  ・  ギ  ャ  ス パ −4、
代理人 東京都中央区日本橋横山町1の3中井ビル(6389)
弁理士  古  谷     馨f! (03) 66
3−7808 (代)5、補正命令の日付 (1)第6a図、第6b図、第6c図、第7a図第7b
図、第9図及び第10図を別紙の如く補正(内容に変更
なし)

Claims (1)

  1. 【特許請求の範囲】 1 同期された音響的及び映像的特徴を有しランダムに
    アクセス可能なアニメ化された対象物を生成し表示する
    ための装置であって; プログラム制御されたマイクロプロセッサと; 前記マイクロプロセッサからのコマンド信号に応じてエ
    ンコードされた音響の要素及びエンコードされた対象物
    の成分の要素を表す信号を生成するために、前記マイク
    ロプロセッサに連結された積分手段と; 前記エンコードされた音響の要素を表す信号に応じて音
    響を生成するために、前記マイクロプロセッサ及び前記
    積分手段に連結された音響発生手段と;及び 前記エンコードされた対象物の成分の要素を表す信号に
    応じて前記アニメ化された対象物の映像的画像を生成す
    るために、前記マイクロプロセッサ、前記積分手段及び
    前記音響発生手段に連結された表示手段と、前記アニメ
    化された対象物の映像的画像は前記音響と同期されてい
    ることを含む、前記装置。 2 前記積分手段は、前記音響の要素と関連する記号の
    セットを該記号のセットの音声表示及び前記音響の要素
    に対応する正音声特徴を表すコード化されたビット列へ
    と翻訳するための翻訳手段を含む、特許請求の範囲第1
    項記載の装置。 3 前記音響の要素を表すデータを格納し、前記音響の
    要素と関連する動作特性を表すデータを格納し、及び前
    記対象物の成分の要素の映像的画像を表すデータを格納
    するためのランダムアクセスメモリ手段をさらに含み、
    前記マイクロプロセッサ及び前記表示手段は前記信号に
    応じて前記データをアクセスし前記音響の要素と関連す
    る動作特性を有する擬人的対象物を生成する、特許請求
    の範囲第1項に記載の装置。 4 前記積分手段、前記発生手段及び前記表示手段に連
    結されたアニメーション手段と、該アニメーション手段
    は前記信号に応じて前記アニメ化された対象物のエンコ
    ードされたモデルを生成することと、前記表示手段は該
    エンコードされたモデルに応じて前記アニメ化された対
    象物の映像的画像を表示することをさらに含む、特許請
    求の範囲第1項記載の装置。 5 前記アニメーション手段は; 前記信号に応じて擬人的対象物の特徴を定義する第一の
    デジタル化されたエンコードモデルを生成するための第
    一のアニメーション手段と;及び 前記信号に応じて物理的対象物の特徴を定義する第二の
    デジタル化されたエンコードモデルを生成するための第
    二のアニメーション手段とを含む、特許請求の範囲第4
    項記載の装置。 6 前記擬人的対象物は人的外観を有するアニメ化され
    た漫画のキャラクターを含む、特許請求の範囲第5項記
    載の装置。 7 前記物理的対象物は複数のドミノ状タイルを含み、
    該タイルの各々はそこに記入された少なくとも一つの記
    号を有し、該記号の各々は異なる言語音と関連している
    、特許請求の範囲第5項記載の装置。 8 同期された音響的及び映像的特徴を有しランダムに
    アクセス可能なアニメ化された対象物を生成し表示する
    ための方法であって; エンコードされた音響の要素及びエンコードされた対象
    物の成分の要素を表す第一の信号のセットを生成し; 前記第一の信号のセットに応じて第二の信号のセットを
    生成し、該第二の信号のセットが前記成分からなるアニ
    メ化された対象物の画像を表すようにし; 前記第一の信号のセットに応じて前記第一の信号のセッ
    トにより表された前記音響の要素を発音する音声を電子
    的に合成し;及び 映像出力を生成して前記第二の信号のセットによって表
    された前記アニメ化された対象物の画像を表示し、前記
    アニメ化された対象物の画像の表示を前記合成された音
    響の要素と同期させることを含む、前記方法。 9 語学の技能などを教えるための教授方法であって; スクリーン上に複数の第一のアニメ化された画像を表示
    し、該第一のアニメ化された画像の各々はそこに記入さ
    れた複数の図形記号の少なくとも一つを有するようにし
    、該複数の記号の各々は言語音と関連するようにする段
    階と; 入力信号を受信し、該入力信号に応じて前記第一のアニ
    メ化された画像の少なくとも一つを選択する段階と; 前記第一のアニメ化された画像の前記選択された一つに
    記入された前記記号と関連する言語音を発音する音声を
    電子的に生成する段階と;及び 前記スクリーン上に第二のアニメ化された画像を表示し
    、該第二のアニメ化された画像が顔の造作を有し話をす
    る頭部を含むようにし、該第二のアニメ化された画像は
    前記入力信号に応じて前記関連する言語音による話をシ
    ミュレートしている頭部及び顔の造作の動きを含む身体
    の動きのアニメ化されたシーケンスを前記音声と同期し
    て表示する段階を含む方法。 10 入力信号を受信し前記第一のアニメ化された画像
    の少なくとも一つを選択する前記段階は、前記選択され
    た第一のアニメ化された画像を識別し強調するために該
    選択された第一のアニメ化された画像をハイライトする
    段階を含む、特許請求の範囲第9項記載の方法。 11 前記選択された第一のアニメ化された画像をハイ
    ライトする前記段階は、前記音声の生成と同時にそこに
    記入された前記記号を強勢することを含む、特許請求の
    範囲第10項記載の方法。 12 前記選択された第一のアニメ化された画像を前記
    スクリーン上の第一の位置から第二の位置へと移動する
    段階と; 少なくとも一つの追加の入力信号に応じて少なくとも一
    つの追加の第一のアニメ化された画像を選択し、該選択
    された追加の第一のアニメ化された画像を前記第二の位
    置に隣接する第三の位置へと移動して前記記号の組み合
    わせを形成する段階を含む、特許請求の範囲第9項記載
    の方法。 13 第一のアニメ化された画像の各々の選択と同時に
    、該選択された第一のアニメ化された画像の各々をハイ
    ライトする段階と; 選択された追加の第一のアニメ化された画像の各々をそ
    れが前記第三の位置に移動された場合に前記第二の位置
    の前記第一のアニメ化された画像と組み合わせることに
    より、前記第二の位置において一つの最初にアニメ化さ
    れた画像を形成し、該一つの最初にアニメ化された画像
    は選択された第一のアニメ化された画像の各々に記入さ
    れた記号を有する段階と; 前記一つの最初にアニメ化された画像に記入された記号
    の各々のシーケンスにおいて関連する音声を発音する段
    階と;及び 関連する音声の発音と同時に各々の記号を強勢する段階
    とをさらに含む、特許請求の範囲第12項記載の方法。 14 前記スクリーン上に第二のアニメ化された画像を
    表示する前記段階は、前記第一のアニメ化された画像の
    前記選択された一つに記入された記号に関連する言語音
    を表す手話の手記号を形成するために、アニメ化された
    手を含んで前記第二のアニメ化された画像を表示するこ
    とを含む、特許請求の範囲第9項記載の方法。 15 アニメ化された正字法の対象物を、該正字法の対
    象物と関連する同期された音響的及び映像的特徴を有す
    る少なくとも一つのアニメ化されたキャラクターと組み
    合わせて生成するためめのシステムであって; プログラム制御されたマイクロプロセッサと; 該マイクロプロセッサに連結され、該マイクロプロセッ
    サからのコマンド信号に応じてエンコードされた音響の
    要素を表す第一の信号及び該音響の要素を関連する対象
    物の成分及び動作特性に対してマッピングするエンコー
    ドされた規則を表す第二の信号を生成する積分手段と; 前記積分手段及び前記マイクロプロセッサに連結され、
    前記第一の信号に応じて前記アニメ化された正字法の対
    象物を表す第一のエンコードされたモデルを生成する第
    一のアニメーション手段と; 前記積分手段及び前記マイクロプロセッサに連結され、
    前記第二の信号に応じて前記アニメ化されたキャラクタ
    ーを表す第二のエンコードされたモデルを生成する第二
    のアニメーション手段と; 前記マイクロプロセッサ及び前記積分手段に連結され、
    前記エンコードされた音響の要素を表す前記第一の信号
    に応じて音響を生成する音響発生手段と;及び 前記マイクロプロセッサ及び前記第一及び 第二のアニメーション手段に連結された表示手段と、該
    表示手段は前記第一のエンコードされたモデルに応じて
    前記アニメ化された正字法の対象物の映像的画像を生成
    及び表示し、該表示手段は前記第二のエンコードされた
    モデルに応じて前記アニメ化されたキャラクターの映像
    的画像を前記音響と同期して生成及び表示することを含
    む、前記システム。 16 前記表示手段に連結され、入力信号に応じて前記
    アニメ化された正字法の対象物を前記表示手段において
    一つの位置から他の位置へと再度配置する手段をさらに
    含む、特許請求の範囲第15項記載のシステム。
JP62298840A 1986-11-26 1987-11-26 スピーチ同期アニメーション Expired - Lifetime JP2607561B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US935,298 1986-11-26
US06/935,298 US4884972A (en) 1986-11-26 1986-11-26 Speech synchronized animation

Publications (2)

Publication Number Publication Date
JPS63225875A true JPS63225875A (ja) 1988-09-20
JP2607561B2 JP2607561B2 (ja) 1997-05-07

Family

ID=25466887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62298840A Expired - Lifetime JP2607561B2 (ja) 1986-11-26 1987-11-26 スピーチ同期アニメーション

Country Status (4)

Country Link
US (1) US4884972A (ja)
JP (1) JP2607561B2 (ja)
CA (1) CA1282954C (ja)
GB (1) GB2198871B (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02234285A (ja) * 1989-03-08 1990-09-17 Kokusai Denshin Denwa Co Ltd <Kdd> 画像合成方法及びその装置
JP2007521521A (ja) * 2004-01-08 2007-08-02 アンヘル・パラショス・オルエタ 音声識別と通しての言語学習を容易にするためのシステム,方法,コンピュータープログラム,データの集合
US7584105B2 (en) 1997-08-05 2009-09-01 At&T Intellectual Property Ii, L.P. Method and system for aligning natural and synthetic video to speech synthesis
JP2009266240A (ja) * 1997-08-05 2009-11-12 At & T Corp ビデオと音とを整合させる方法および装置、コンピュータ可読媒体、ならびにデータを複合化する方法およびデコーダ

Families Citing this family (201)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5219291A (en) * 1987-10-28 1993-06-15 Video Technology Industries, Inc. Electronic educational video system apparatus
GB2211705B (en) * 1987-10-28 1992-01-02 Video Technology Electronics L Electronic educational video system apparatus
GB8817705D0 (en) * 1988-07-25 1988-09-01 British Telecomm Optical communications system
US5010495A (en) * 1989-02-02 1991-04-23 American Language Academy Interactive language learning system
US6332123B1 (en) * 1989-03-08 2001-12-18 Kokusai Denshin Denwa Kabushiki Kaisha Mouth shape synthesizing
US5111409A (en) * 1989-07-21 1992-05-05 Elon Gasper Authoring and use systems for sound synchronized animation
US5456607A (en) * 1989-12-13 1995-10-10 Antoniak; Peter R. Knowledge testing computer game method employing the repositioning of screen objects to represent data relationships
US5278943A (en) * 1990-03-23 1994-01-11 Bright Star Technology, Inc. Speech animation and inflection system
US5393072A (en) * 1990-11-14 1995-02-28 Best; Robert M. Talking video games with vocal conflict
US5393073A (en) * 1990-11-14 1995-02-28 Best; Robert M. Talking video games
US5393071A (en) * 1990-11-14 1995-02-28 Best; Robert M. Talking video games with cooperative action
CA2095820C (en) * 1990-11-14 2004-04-13 Robert Macandrew Best Linked video game system and portable game system
US5451163A (en) * 1990-12-18 1995-09-19 Joseph R. Black Method of teaching reading including displaying one or more visible symbols in a transparent medium between student and teacher
US5149104A (en) * 1991-02-06 1992-09-22 Elissa Edelstein Video game having audio player interation with real time video synchronization
US5430835A (en) * 1991-02-15 1995-07-04 Sierra On-Line, Inc. Method and means for computer sychronization of actions and sounds
US5613056A (en) * 1991-02-19 1997-03-18 Bright Star Technology, Inc. Advanced tools for speech synchronized animation
US5303327A (en) * 1991-07-02 1994-04-12 Duke University Communication test system
JP2654324B2 (ja) * 1991-12-31 1997-09-17 インターナショナル・ビジネス・マシーンズ・コーポレイション マルチメディア・データ処理システム及びマルチメディア・データ処理システムの動作方法
US8821276B2 (en) * 1992-05-22 2014-09-02 Bassilic Technologies Llc Image integration, mapping and linking system and methodology
US5553864A (en) 1992-05-22 1996-09-10 Sitrick; David H. User image integration into audiovisual presentation system and methodology
JP3248981B2 (ja) * 1992-06-02 2002-01-21 松下電器産業株式会社 計算機
US6577324B1 (en) * 1992-06-03 2003-06-10 Compaq Information Technologies Group, L.P. Video and audio multimedia pop-up documentation by performing selected functions on selected topics
IL106410A (en) * 1992-08-06 1996-09-12 Hughes Training Inc A computerized interactive device for recording a witness interrogation
US5377997A (en) * 1992-09-22 1995-01-03 Sierra On-Line, Inc. Method and apparatus for relating messages and actions in interactive computer games
US5420801A (en) * 1992-11-13 1995-05-30 International Business Machines Corporation System and method for synchronization of multimedia streams
US5500919A (en) * 1992-11-18 1996-03-19 Canon Information Systems, Inc. Graphics user interface for controlling text-to-speech conversion
US5465384A (en) * 1992-11-25 1995-11-07 Actifilm, Inc. Automatic polling and display interactive entertainment system
EP0603809A3 (en) * 1992-12-21 1994-08-17 Casio Computer Co Ltd Object image display devices.
US5604857A (en) * 1993-01-15 1997-02-18 Walmsley; Simon R. Render system for the rendering of storyboard structures on a real time animated system
US5926155A (en) * 1993-02-02 1999-07-20 Hitachi, Ltd. Digital video display system
US5404444A (en) * 1993-02-05 1995-04-04 Sight & Sound Incorporated Interactive audiovisual apparatus
US5659764A (en) * 1993-02-25 1997-08-19 Hitachi, Ltd. Sign language generation apparatus and sign language translation apparatus
JP3526067B2 (ja) * 1993-03-15 2004-05-10 株式会社東芝 再生装置及び再生方法
CA2119397C (en) * 1993-03-19 2007-10-02 Kim E.A. Silverman Improved automated voice synthesis employing enhanced prosodic treatment of text, spelling of text and rate of annunciation
US6186794B1 (en) * 1993-04-02 2001-02-13 Breakthrough To Literacy, Inc. Apparatus for interactive adaptive learning by an individual through at least one of a stimuli presentation device and a user perceivable display
US5421731A (en) * 1993-05-26 1995-06-06 Walker; Susan M. Method for teaching reading and spelling
US5368308A (en) * 1993-06-23 1994-11-29 Darnell; Donald L. Sound recording and play back system
US5580308A (en) * 1993-07-14 1996-12-03 Casio Computer Co., Ltd. Electronic battle game playing apparatus with facial montage generation
US5734923A (en) * 1993-09-22 1998-03-31 Hitachi, Ltd. Apparatus for interactively editing and outputting sign language information using graphical user interface
US6062863A (en) * 1994-09-22 2000-05-16 Kirksey; William E. Method of associating oral utterances meaningfully with word symbols seriatim in an audio-visual work and apparatus for linear and interactive application
US5938447A (en) * 1993-09-24 1999-08-17 Readspeak, Inc. Method and system for making an audio-visual work with a series of visual word symbols coordinated with oral word utterances and such audio-visual work
US5741136A (en) * 1993-09-24 1998-04-21 Readspeak, Inc. Audio-visual work with a series of visual word symbols coordinated with oral word utterances
US5433614A (en) * 1993-10-13 1995-07-18 Beye; Rick A. Method of instructing/tutoring using full motion tutor/instructor personage in window superimposed on educational material
JP2986345B2 (ja) * 1993-10-18 1999-12-06 インターナショナル・ビジネス・マシーンズ・コーポレイション 音声記録指標化装置及び方法
US5491498A (en) * 1993-11-15 1996-02-13 Koyama; Ryo Digital audio delivery in a graphics controller architecture
US5903867A (en) * 1993-11-30 1999-05-11 Sony Corporation Information access system and recording system
JPH07168851A (ja) * 1993-12-16 1995-07-04 Canon Inc 画像表示方法及び装置
US6022222A (en) * 1994-01-03 2000-02-08 Mary Beth Guinan Icon language teaching system
US5810599A (en) * 1994-01-26 1998-09-22 E-Systems, Inc. Interactive audio-visual foreign language skills maintenance system and method
US5813861A (en) * 1994-02-23 1998-09-29 Knowledge Kids Enterprises, Inc. Talking phonics interactive learning device
US6330023B1 (en) 1994-03-18 2001-12-11 American Telephone And Telegraph Corporation Video signal processing systems and methods utilizing automated speech analysis
US5741135A (en) * 1994-06-06 1998-04-21 United Defense Lp Automated training aids method
US5682469A (en) * 1994-07-08 1997-10-28 Microsoft Corporation Software platform having a real world interface with animated characters
US5983236A (en) * 1994-07-20 1999-11-09 Nams International, Inc. Method and system for providing a multimedia presentation
US5799267A (en) * 1994-07-22 1998-08-25 Siegel; Steven H. Phonic engine
US5577185A (en) * 1994-11-10 1996-11-19 Dynamix, Inc. Computerized puzzle gaming method and apparatus
US5697789A (en) * 1994-11-22 1997-12-16 Softrade International, Inc. Method and system for aiding foreign language instruction
US6232965B1 (en) * 1994-11-30 2001-05-15 California Institute Of Technology Method and apparatus for synthesizing realistic animations of a human speaking using a computer
EP0797822B1 (en) * 1994-12-08 2002-05-22 The Regents of the University of California Method and device for enhancing the recognition of speech among speech-impaired individuals
AUPN236595A0 (en) 1995-04-11 1995-05-11 Rescare Limited Monitoring of apneic arousals
JPH08315185A (ja) * 1995-05-18 1996-11-29 Hitachi Ltd 手話編集装置
US5548340A (en) * 1995-05-31 1996-08-20 International Business Machines Corporation Intelligent television receivers combinations including video displays, and methods for diversion of television viewers by visual image modification
US5734794A (en) * 1995-06-22 1998-03-31 White; Tom H. Method and system for voice-activated cell animation
US5567163A (en) * 1995-06-26 1996-10-22 Ku; Suey Talking book
WO1997002551A1 (en) * 1995-06-30 1997-01-23 Beye Rick A Method of instructing/tutoring using a full motion personage in window superimposed on educational material
US7109993B2 (en) * 1995-10-08 2006-09-19 Yissum Research Development Company Of The Hebrew University Of Jerusalem Method and system for the automatic computerized audio visual dubbing of movies
AU6998996A (en) 1995-10-08 1997-05-15 Face Imaging Ltd. A method for the automatic computerized audio visual dubbing of movies
US5805142A (en) * 1995-10-16 1998-09-08 Lucent Technologies Inc. Computer mouse with sensory alerting to prevent human injury
US6384743B1 (en) 1999-06-14 2002-05-07 Wisconsin Alumni Research Foundation Touch screen for the vision-impaired
US5823782A (en) * 1995-12-29 1998-10-20 Tinkers & Chance Character recognition educational system
AU718608B2 (en) 1996-03-15 2000-04-20 Gizmoz Israel (2002) Ltd. Programmable computer graphic objects
US7089218B1 (en) * 2004-01-06 2006-08-08 Neuric Technologies, Llc Method for inclusion of psychological temperament in an electronic emulation of the human brain
US7925492B2 (en) 2004-01-06 2011-04-12 Neuric Technologies, L.L.C. Method for determining relationships through use of an ordered list between processing nodes in an emulated human brain
US20070156625A1 (en) * 2004-01-06 2007-07-05 Neuric Technologies, Llc Method for movie animation
US8725493B2 (en) * 2004-01-06 2014-05-13 Neuric Llc Natural language parsing method to provide conceptual flow
US5867175A (en) * 1996-05-24 1999-02-02 Microsoft Corporation Method and apparatus for scriping animation
US5793364A (en) * 1996-06-14 1998-08-11 Entertainment Drive, L.L.C. Method and system for associating playback of multiple audiovisual programs with one graphic interface element
US5945999A (en) * 1996-10-31 1999-08-31 Viva Associates Animation methods, systems, and program products for combining two and three dimensional objects
US5963217A (en) * 1996-11-18 1999-10-05 7Thstreet.Com, Inc. Network conference system using limited bandwidth to generate locally animated displays
GB9624550D0 (en) * 1996-11-27 1997-01-15 Conway Josephine Board apparatus
US6151577A (en) * 1996-12-27 2000-11-21 Ewa Braun Device for phonological training
SE9604800L (sv) * 1996-12-27 1998-01-26 Ewa Braun Anordning för fonologisk träning med grafisk återgivning av ljud och talorgan
US5997304A (en) * 1997-01-31 1999-12-07 Knowledge Kids Enterprises, Inc. Interactive phonics learning mat
US8986105B2 (en) * 1997-02-07 2015-03-24 Douglas M. Okuniewicz Supplemental bonusing system for an electronic gaming device
US7871325B2 (en) 1997-02-07 2011-01-18 Okuniewicz Douglas M Means for generating a supplement bonus for an electronic gaming device
US9728040B2 (en) * 1997-02-07 2017-08-08 Aim Management, Inc. Printing and dispensing system for an electronic gaming device that provides an undisplayed outcome
US5908354A (en) * 1997-02-07 1999-06-01 Okuniewicz; Douglas M. Programmable sound card for electronic devices
US6840860B1 (en) * 1997-02-07 2005-01-11 Douglas M. Okuniewicz Printing and dispensing bonusing system for gaming devices
WO1998044483A1 (en) * 1997-03-28 1998-10-08 Digispeech (Israel) Ltd. Time scale modification of audiovisual playback and teaching listening comprehension
US6109107A (en) 1997-05-07 2000-08-29 Scientific Learning Corporation Method and apparatus for diagnosing and remediating language-based learning impairments
US6121981A (en) * 1997-05-19 2000-09-19 Microsoft Corporation Method and system for generating arbitrary-shaped animation in the user interface of a computer
US5983190A (en) 1997-05-19 1999-11-09 Microsoft Corporation Client server animation system for managing interactive user interface characters
US6177928B1 (en) * 1997-08-22 2001-01-23 At&T Corp. Flexible synchronization framework for multimedia streams having inserted time stamp
US6317716B1 (en) * 1997-09-19 2001-11-13 Massachusetts Institute Of Technology Automatic cueing of speech
US6856318B1 (en) * 1997-09-25 2005-02-15 Jerzy Lewak Method of presenting and teaching abstract concepts by animating abstract symbols
US6307576B1 (en) * 1997-10-02 2001-10-23 Maury Rosenfeld Method for automatically animating lip synchronization and facial expression of animated characters
JP3384314B2 (ja) * 1997-12-02 2003-03-10 ヤマハ株式会社 楽音応答画像生成システム、方法、装置、及び、そのための記録媒体
US6019607A (en) * 1997-12-17 2000-02-01 Jenkins; William M. Method and apparatus for training of sensory and perceptual systems in LLI systems
US5927988A (en) * 1997-12-17 1999-07-27 Jenkins; William M. Method and apparatus for training of sensory and perceptual systems in LLI subjects
US6159014A (en) * 1997-12-17 2000-12-12 Scientific Learning Corp. Method and apparatus for training of cognitive and memory systems in humans
US6839672B1 (en) * 1998-01-30 2005-01-04 At&T Corp. Integration of talking heads and text-to-speech synthesizers for visual TTS
US5946657A (en) * 1998-02-18 1999-08-31 Svevad; Lynn N. Forever by my side ancestral computer program
US6830452B2 (en) * 1998-02-18 2004-12-14 Donald Spector Computer training system with audible answers to spoken questions
US8202094B2 (en) * 1998-02-18 2012-06-19 Radmila Solutions, L.L.C. System and method for training users with audible answers to spoken questions
JP4236815B2 (ja) * 1998-03-11 2009-03-11 マイクロソフト コーポレーション 顔合成装置および顔合成方法
US6146147A (en) * 1998-03-13 2000-11-14 Cognitive Concepts, Inc. Interactive sound awareness skills improvement system and method
US6181351B1 (en) 1998-04-13 2001-01-30 Microsoft Corporation Synchronizing the moveable mouths of animated characters with recorded speech
AU7673098A (en) * 1998-06-14 2000-01-05 Nissim Cohen Voice character imitator system
US6250928B1 (en) * 1998-06-22 2001-06-26 Massachusetts Institute Of Technology Talking facial display method and apparatus
US20070165022A1 (en) * 1998-07-15 2007-07-19 Shmuel Peleg Method and system for the automatic computerized audio visual dubbing of movies
US6336089B1 (en) * 1998-09-22 2002-01-01 Michael Everding Interactive digital phonetic captioning program
US6511324B1 (en) * 1998-10-07 2003-01-28 Cognitive Concepts, Inc. Phonological awareness, phonological processing, and reading skill training system and method
IL127293A0 (en) * 1998-11-26 1999-09-22 Creator Ltd Script development systems and methods useful therefor
IL128295A (en) * 1999-01-31 2004-03-28 Jacob Frommer Computerized translator displaying visual mouth articulation
WO2000058949A1 (en) * 1999-03-25 2000-10-05 Kent Ridge Digital Labs Low data transmission rate and intelligible speech communication
JP3729323B2 (ja) * 1999-04-15 2005-12-21 株式会社ソニー・コンピュータエンタテインメント エンタテインメントシステム、エンタテインメント装置、記録媒体及び画像処理方法
US6299452B1 (en) * 1999-07-09 2001-10-09 Cognitive Concepts, Inc. Diagnostic system and method for phonological awareness, phonological processing, and reading skill testing
US7110945B2 (en) * 1999-07-16 2006-09-19 Dreamations Llc Interactive book
US7630897B2 (en) * 1999-09-07 2009-12-08 At&T Intellectual Property Ii, L.P. Coarticulation method for audio-visual text-to-speech synthesis
US7149690B2 (en) * 1999-09-09 2006-12-12 Lucent Technologies Inc. Method and apparatus for interactive language instruction
JP4292646B2 (ja) * 1999-09-16 2009-07-08 株式会社デンソー ユーザインタフェース装置、ナビゲーションシステム、情報処理装置及び記録媒体
JP2001096068A (ja) * 1999-09-30 2001-04-10 Konami Co Ltd ゲームプログラム作成方法、ゲームシステム、及び、記録媒体
US6755657B1 (en) 1999-11-09 2004-06-29 Cognitive Concepts, Inc. Reading and spelling skill diagnosis and training system and method
WO2001035377A1 (en) * 1999-11-12 2001-05-17 Kirksey William E Method and apparatus for displaying writing and utterance of word symbols
US6633844B1 (en) * 1999-12-02 2003-10-14 International Business Machines Corporation Late integration in audio-visual continuous speech recognition
US6377925B1 (en) 1999-12-16 2002-04-23 Interactive Solutions, Inc. Electronic translator for assisting communications
JP2001293247A (ja) * 2000-02-07 2001-10-23 Sony Computer Entertainment Inc ゲーム制御方法
US6539354B1 (en) 2000-03-24 2003-03-25 Fluent Speech Technologies, Inc. Methods and devices for producing and using synthetic visual speech based on natural coarticulation
AU2001257233A1 (en) * 2000-04-26 2001-11-07 Jrl Enterprises, Inc. An interactive, computer-aided speech education method and apparatus
JP2002055686A (ja) * 2000-08-09 2002-02-20 Casio Comput Co Ltd 音声データの販売方法および販売システム
KR20020022504A (ko) * 2000-09-20 2002-03-27 박종만 3차원 캐릭터의 동작, 얼굴 표정, 립싱크 및 립싱크된음성 합성을 지원하는 3차원 동영상 저작 도구의 제작시스템 및 방법
US7225129B2 (en) * 2000-09-21 2007-05-29 The Regents Of The University Of California Visual display methods for in computer-animated speech production models
US6975988B1 (en) * 2000-11-10 2005-12-13 Adam Roth Electronic mail method and system using associated audio and visual techniques
US6632094B1 (en) * 2000-11-10 2003-10-14 Readingvillage.Com, Inc. Technique for mentoring pre-readers and early readers
GB0030148D0 (en) * 2000-12-11 2001-01-24 20 20 Speech Ltd Audio and video synthesis method and system
WO2002050813A2 (en) * 2000-12-19 2002-06-27 Speechview Ltd. Generating visual representation of speech by any individuals of a population
AU2002255679A1 (en) * 2001-03-02 2002-09-19 Breakthrough To Literacy, Inc. Adaptive instructional process and system to facilitate oral and written language comprehension
WO2002091356A1 (fr) * 2001-05-02 2002-11-14 Sony Corporation Dispositif robot, appareil de reconnaissance de caracteres, procede de lecture de caracteres, programme de commande et support d'enregistrement
US6710955B2 (en) 2001-06-01 2004-03-23 Recording For The Blind & Dyslexic Incorporated Method and apparatus for converting an analog audio source into a digital format
US7085259B2 (en) * 2001-07-31 2006-08-01 Comverse, Inc. Animated audio messaging
US8956164B2 (en) * 2001-08-02 2015-02-17 Interethnic, Llc Method of teaching reading and spelling with a progressive interlocking correlative system
US7011524B1 (en) * 2001-11-16 2006-03-14 Oesterle Jr Kenneth C Method and apparatus for learning word pronunciation and spelling using a typeable phonetic alpabet
JP4187719B2 (ja) * 2002-05-03 2008-11-26 ハーマン インターナショナル インダストリーズ インコーポレイテッド マルチチャネル・ダウンミキシング装置
US7076430B1 (en) * 2002-05-16 2006-07-11 At&T Corp. System and method of providing conversational visual prosody for talking heads
US7136818B1 (en) 2002-05-16 2006-11-14 At&T Corp. System and method of providing conversational visual prosody for talking heads
US20030223095A1 (en) * 2002-05-28 2003-12-04 Kogod Robert P. Symbol message displays
US7402042B2 (en) * 2002-05-30 2008-07-22 Mattel, Inc. Electronic learning device for an interactive multi-sensory reading system
AU2003279066A1 (en) * 2002-09-16 2004-04-30 Stephen Guffanti Initial teaching alphabet for teaching phonetics
US20040070596A1 (en) * 2002-10-15 2004-04-15 Hideya Kawahara Method and apparatus for synchronizing sensory stimuli with user interface operations
JP3712207B2 (ja) * 2003-05-21 2005-11-02 松下電器産業株式会社 音声出力装置及び音声出力方法
TWI235962B (en) * 2003-06-06 2005-07-11 Ind Tech Res Inst Method for converting high level motion scripts to computer animations
US7389232B1 (en) * 2003-06-27 2008-06-17 Jeanne Bedford Communication device and learning tool
GB0316806D0 (en) * 2003-07-17 2003-08-20 Ivis Group Ltd Improved search engine
US7524191B2 (en) 2003-09-02 2009-04-28 Rosetta Stone Ltd. System and method for language instruction
WO2005038749A2 (en) * 2003-10-10 2005-04-28 Leapfrog Enterprises, Inc. Display apparatus for teaching writing
US20050153267A1 (en) * 2004-01-13 2005-07-14 Neuroscience Solutions Corporation Rewards method and apparatus for improved neurological training
US8628328B2 (en) * 2004-01-31 2014-01-14 Linguaversal SL System, method, computer program and data set intended to facilitate the comprehension and/or learning of languages by utilizing modified versions
US20050255430A1 (en) * 2004-04-29 2005-11-17 Robert Kalinowski Speech instruction method and apparatus
US20060040718A1 (en) * 2004-07-15 2006-02-23 Mad Doc Software, Llc Audio-visual games and game computer programs embodying interactive speech recognition and methods related thereto
US20060088805A1 (en) * 2004-10-27 2006-04-27 Narda Pitkethly Reading instruction system and method
US20060115800A1 (en) * 2004-11-02 2006-06-01 Scholastic Inc. System and method for improving reading skills of a student
CN100594527C (zh) * 2004-11-22 2010-03-17 马里奥·皮尔基奥 多媒体播示中的使音频与图形同步的方法
US20060136217A1 (en) * 2004-11-27 2006-06-22 Mullin Sheila A Portable speech and language video monitor
US8473449B2 (en) * 2005-01-06 2013-06-25 Neuric Technologies, Llc Process of dialogue and discussion
US7922578B2 (en) 2005-01-11 2011-04-12 Okuniewicz Douglas M Method for providing an undisplayed outcome of an electronic gaming device
US8337309B2 (en) 2005-01-11 2012-12-25 Okuniewicz Douglas M Data based awards for an electronic gaming device
US10540842B2 (en) 2005-01-11 2020-01-21 Aim Management, Inc. Data storage system for an electronic gaming device
US7589727B2 (en) * 2005-01-18 2009-09-15 Haeker Eric P Method and apparatus for generating visual images based on musical compositions
US20060166173A1 (en) * 2005-01-27 2006-07-27 Ellis Michael B Educational method and device
US7412389B2 (en) * 2005-03-02 2008-08-12 Yang George L Document animation system
EP1710786A1 (de) * 2005-04-04 2006-10-11 Gerd Scheimann Elektronisches Leselernhilfegerät und Verfahren unter Nutzung eines elektronischen Leselernhilfegeräts
US7563975B2 (en) 2005-09-14 2009-07-21 Mattel, Inc. Music production system
US20070168187A1 (en) * 2006-01-13 2007-07-19 Samuel Fletcher Real time voice analysis and method for providing speech therapy
JP4347303B2 (ja) * 2006-01-23 2009-10-21 シャープ株式会社 情報処理装置、プログラムおよび記録媒体
WO2007092795A2 (en) * 2006-02-02 2007-08-16 Neuric Technologies, Llc Method for movie animation
US7869988B2 (en) 2006-11-03 2011-01-11 K12 Inc. Group foreign language teaching system and method
US7818164B2 (en) 2006-08-21 2010-10-19 K12 Inc. Method and system for teaching a foreign language
GB2441564A (en) * 2006-09-11 2008-03-12 Tts Group Ltd Apparatus for teaching synthetic phonics
US20080153074A1 (en) * 2006-12-20 2008-06-26 Andrew Miziniak Language evaluation and pronunciation systems and methods
CN101653660A (zh) * 2008-08-22 2010-02-24 鸿富锦精密工业(深圳)有限公司 讲故事自动做动作的类生物装置及其方法
WO2010065624A2 (en) * 2008-12-02 2010-06-10 Harebrain, Inc Reading education tool
US20100233662A1 (en) * 2009-03-11 2010-09-16 The Speech Institute, Llc Method for treating autism spectrum disorders
CA2760289A1 (en) * 2009-04-27 2010-11-11 Sonoma Data Solutions Llc A method and apparatus for character animation
US8070163B2 (en) * 2009-12-03 2011-12-06 John Ogilvie Multilingual-tile word games
US20110300516A1 (en) * 2010-06-02 2011-12-08 Microsoft Corporation Tactile Tile Vocalization
US10019995B1 (en) 2011-03-01 2018-07-10 Alice J. Stiebel Methods and systems for language learning based on a series of pitch patterns
US11062615B1 (en) 2011-03-01 2021-07-13 Intelligibility Training LLC Methods and systems for remote language learning in a pandemic-aware world
US9361908B2 (en) * 2011-07-28 2016-06-07 Educational Testing Service Computer-implemented systems and methods for scoring concatenated speech responses
US9412372B2 (en) * 2012-05-08 2016-08-09 SpeakWrite, LLC Method and system for audio-video integration
US20140039871A1 (en) * 2012-08-02 2014-02-06 Richard Henry Dana Crawford Synchronous Texts
US9300994B2 (en) 2012-08-03 2016-03-29 Elwha Llc Methods and systems for viewing dynamically customized audio-visual content
US10455284B2 (en) 2012-08-31 2019-10-22 Elwha Llc Dynamic customization and monetization of audio-visual content
US10237613B2 (en) 2012-08-03 2019-03-19 Elwha Llc Methods and systems for viewing dynamically customized audio-visual content
US20140093855A1 (en) * 2012-10-02 2014-04-03 Dennis Waldman Systems and methods for treatment of learning disabilities
US10708545B2 (en) * 2018-01-17 2020-07-07 Duelight Llc System, method, and computer program for transmitting face models based on face data points
US9916295B1 (en) * 2013-03-15 2018-03-13 Richard Henry Dana Crawford Synchronous context alignments
US20140272823A1 (en) * 2013-03-15 2014-09-18 Phonics Mouth Positions + Plus Systems and methods for teaching phonics using mouth positions steps
US9336189B2 (en) 2013-11-15 2016-05-10 Glu Mobile Inc. Systems and methods for providing fused images to remote recipients for descrambling and interpretation
US20150206445A1 (en) * 2014-01-17 2015-07-23 Originator Inc. Multi-sensory learning with feedback
CN104184658A (zh) * 2014-09-13 2014-12-03 邹时晨 一种聊天系统
WO2016172506A1 (en) 2015-04-23 2016-10-27 Hasbro, Inc. Context-aware digital play

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US660255A (en) * 1899-01-31 1900-10-23 Jacobus Lambertus Kingma Means for teaching speaking and reading.
EP0036559A1 (en) * 1980-03-26 1981-09-30 Texas Instruments Incorporated Electronic reading learning aid
CA1129640A (en) * 1981-04-14 1982-08-17 Dorothy P. Schofield Speech teaching and communication aid
GB2121587B (en) * 1982-06-04 1986-05-14 Herbert Rowbotham Speech aid
US4460342A (en) * 1982-06-15 1984-07-17 M.B.A. Therapeutic Language Systems Inc. Aid for speech therapy and a method of making same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02234285A (ja) * 1989-03-08 1990-09-17 Kokusai Denshin Denwa Co Ltd <Kdd> 画像合成方法及びその装置
US7584105B2 (en) 1997-08-05 2009-09-01 At&T Intellectual Property Ii, L.P. Method and system for aligning natural and synthetic video to speech synthesis
JP2009266240A (ja) * 1997-08-05 2009-11-12 At & T Corp ビデオと音とを整合させる方法および装置、コンピュータ可読媒体、ならびにデータを複合化する方法およびデコーダ
US7844463B2 (en) 1997-08-05 2010-11-30 At&T Intellectual Property Ii, L.P. Method and system for aligning natural and synthetic video to speech synthesis
JP2007521521A (ja) * 2004-01-08 2007-08-02 アンヘル・パラショス・オルエタ 音声識別と通しての言語学習を容易にするためのシステム,方法,コンピュータープログラム,データの集合

Also Published As

Publication number Publication date
GB8727073D0 (en) 1987-12-23
GB2198871A (en) 1988-06-22
US4884972A (en) 1989-12-05
GB2198871B (en) 1991-03-13
CA1282954C (en) 1991-04-16
JP2607561B2 (ja) 1997-05-07

Similar Documents

Publication Publication Date Title
JP2607561B2 (ja) スピーチ同期アニメーション
US5111409A (en) Authoring and use systems for sound synchronized animation
US5630017A (en) Advanced tools for speech synchronized animation
Raman Auditory user interfaces: toward the speaking computer
JP5616325B2 (ja) ユーザ命令に基づいて表示を変更する方法
KR100359265B1 (ko) 텍스트 프로세서
US20060197764A1 (en) Document animation system
US4710877A (en) Device for the programmed teaching of arabic language and recitations
JPH10509811A (ja) 外国語教育補助方法及び装置
US7827034B1 (en) Text-derived speech animation tool
Delgado et al. Spoken, multilingual and multimodal dialogue systems: development and assessment
US7315820B1 (en) Text-derived speech animation tool
López-Colino et al. Spanish sign language synthesis system
JP3483230B2 (ja) 発声情報作成装置
Gibet et al. Signing Avatars-Multimodal Challenges for Text-to-sign Generation
JP2006236037A (ja) 音声対話コンテンツ作成方法、装置、プログラム、記録媒体
WO2016134331A1 (en) Systems and methods for variably paced real-time translation between the written and spoken forms of a word
Croft Evolutionary complexity of social cognition, semasiographic systems, and language
EP0982684A1 (en) Moving picture generating device and image control network learning device
Sobkowiak TTS in EFL CALL–Some pedagogical considerations
Elhadj et al. Towards a unified 3D animated dictionary for Saudi sign language
Asakawa et al. TAJODA: Proposed tactile and jog dial interface for the blind
JPH1166345A (ja) 画像音響処理装置および記録媒体
US20230245644A1 (en) End-to-end modular speech synthesis systems and methods
De Angeli et al. Ecological interfaces: Extending the pointing paradigm by visual context

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080213

Year of fee payment: 11