JP2009533786A - 自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法 - Google Patents

自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法 Download PDF

Info

Publication number
JP2009533786A
JP2009533786A JP2009520714A JP2009520714A JP2009533786A JP 2009533786 A JP2009533786 A JP 2009533786A JP 2009520714 A JP2009520714 A JP 2009520714A JP 2009520714 A JP2009520714 A JP 2009520714A JP 2009533786 A JP2009533786 A JP 2009533786A
Authority
JP
Japan
Prior art keywords
subject
image
head
creating
photorealistic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009520714A
Other languages
English (en)
Inventor
ショーン スミス,
マイケル チェイキー,
ピーター ゲートリー,
Original Assignee
アヴァワークス インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アヴァワークス インコーポレーテッド filed Critical アヴァワークス インコーポレーテッド
Publication of JP2009533786A publication Critical patent/JP2009533786A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

自分でできるフォトリアリスティックなトーキングヘッド作成システムであって、テンプレートと、対象者の画像出力信号を有するディスプレイとビデオカメラとを備えた携帯用機器と、前記テンプレートと前記対象者の画像出力信号とを合成画像に混合するためのミキサプログラム及び前記合成画像を表現する出力信号を有するコンピュータと、前記対象者に合成画像として表示するために前記合成画像の信号を前記ディスプレイに送信するようにされたコンピュータと、前記ビデオカメラが前記対象者の前記画像を収集して前記対象者に前記合成画像を表示できるように、さらに前記対象者が前記対象者の前記画像を前記テンプレートに合わせて配置できるようにされた前記ディスプレイ及び前記ビデオカメラと、前記対象者の前記収集画像を表現する前記ビデオカメラの前記出力信号を受信するための入力を有し、前記テンプレートに実質的に合わせて配置された前記対象者の前記画像を保存するための保存手段とを備えるシステム。

Description

本発明は、概してトーキングヘッドに関し、さらに詳しくは、写真のような現実感のある(以下、フォトリアリスティックという。)トーキングヘッドの作成に関する。
デジタル通信は、現在の生活の重要な部分である。個人や企業は、インターネットを含むあらゆる種類のネットワークを経由して互いに通信するが、それぞれのネットワークの種類は、通常は帯域幅が限定されている。無線及び有線ネットワークによってユーザ間で情報を伝達し、通信の必要性を満たすために、パーソナルコンピュータ、携帯端末、電子手帳(PDA)、インターネットベースの携帯電話、電子メールやインスタントメッセージサービス、PC電話、ビデオ会議、及び他の適切な手段が使用される。情報は、ビデオやオーディオ情報を有する動画及びテキストベースの両方のフォーマットで伝達されているが、人の動画を用いる傾向にあり、これによって、個性を伝えること、会話の重要点の強調及び感情的内容の追加が可能である。しかしながら、ほとんどの場合には、ファイルサイズを縮小するために圧縮し、ダウンロードにかかる時間を短縮するためにストリーム化すると、ビデオ画像を不明瞭化するアーチファクトの結果として、動きのある実際の人間のフォトリアリスティックな画像は制限され、かつ/又は低品質であった。
トーキングヘッドの動画画像を生成するために多様な方法が使用されてきた。これにより、例えばニュースキャスターがより個人の容姿で見えるようになったが、これらの動画画像は、未だ一般的には個人の個性を伝え、会話の重要点を強調するとともに、感情的内容を追加するために必要なフォトリアリスティックな品質には欠けており、不明瞭であることが多く、口合わせができておらず、現在のネットワーク及び/又はインターネットのほとんどで一般的に利用可能な帯域幅よりもはるかに大きい帯域幅を必要とし、作成が困難で時間がかかる。
ニュース報道は、電子通信媒体の基本要素であり、ニュースキャスターの形態は、ニュース報道に関連したグラフィックや写真、フォトリアリスティックな品質を有して個人の容姿で見えるようになっているトーキングヘッドの動画画像の使用によって増強されており、このようなトーキングヘッドを使用することができる多数の用途のうちの1つである。
したがって、ユーザが、ニュースキャスターなどのトーキングヘッドのフォトリアリスティックな動画画像を迅速、容易、かつ簡単に生成することができる、自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法に対する必要性が存在する。自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法は、個人の個性を伝え、会話の重要点を強調するとともに、感情的内容を追加するために必要なフォトリアリスティックな品質を有する画像を生み出し、動画化されたフォトリアリスティックな画像を明瞭かつ明確に表示するとともに、口合わせも高品質で、ほとんどの現在のネットワーク及び/又はインターネット上で一般的に利用可能な帯域幅よりも少ない帯域幅しか必要としないものでなくてはならない。
自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法は、実際の人間の輪郭を捉えて、様々な角度位置のフォトリアリスティックなトーキングヘッドのライブラリを作成することができなければならない。そうすれば、フォトリアリスティックなトーキングヘッドのライブラリは、例えば、個人の個性を伝え、会話の重要点を強調するとともに感情的内容を追加することが必要な、フォトリアリスティックな品質を有するニュースキャスターやその他のトーキングヘッド等の動画化された動作を作成するために使用することができる。動画化されたフォトリアリスティックな画像は、動画化されたトーキングヘッドを明瞭かつ明確に表示するとともに、口合わせも高品質で、ほとんどの現在のネットワーク及び/又はインターネット上で一般的に利用可能な帯域幅よりも少ない帯域幅しか必要としないものでなくてはならない。
フォトリアリスティックなトーキングヘッドのライブラリは、通常のコンピュータ操作技術を有する個人によって迅速、容易、かつ効果的に作成することが可能であり、様々な角度位置にある実際の人間の画像の混合及び配置合わせのためのテンプレートとして用いられるガイドを使用して、作成時間を最小限にするものでなくてはならない。
様々なガイドライブラリのライブラリが提供され、それぞれのガイドライブラリは、その中に様々なガイドを有し、それぞれのガイドは異なる角度位置に対応しなくてはならない。それぞれのガイドライブラリは、互いに異なる顔の特徴を有し、それによってユーザは、様々なガイドライブラリからなるライブラリから、ユーザの顔の特徴及び特性に近い顔の特徴及び特性を持つガイドライブラリを選択するものでなければならない。
トーキングヘッドは、ニュース報道に関連してニュースキャスターの形式で使用されることができ、多数及び多様な用途での使用のために、トーキングヘッドの動画画像の使用は、フォトリアリスティックな品質を持つとともに擬人化された外観を生み出すことができなければならない。
自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法は、任意選択により、実際の人間を撮影したデジタルビデオテープの映像から、コンピュータベースの二次元画像のライブラリを作成することもできなければならない。ユーザは、規則的な頭部の動きについてテンプレートを提供するために、パーソナルコンピュータソフトウェアを用いて混合され、コンピュータモニタ又はその他の適当な機器に表示される3D描画ガイド画像又はテンプレートのライブラリを操作することができなければならない。対象者又はニュースキャスターは、正しい姿勢配置を維持すると同時に、一連の顔の表情、まばたき、眉毛の動きを完成させ、目標の音素又は口の形を含んだ語句を話すためにガイドを使用することができなければならない。この行動は、任意選択により、高解像度デジタルビデオテープ上に連続して記録することができなければならない。ユーザは、任意選択により、各コマが対象者の参照ソースビデオフレームに相当する異なる頭部の位置の配置、顔の表情及び口の形状を含む選択された個別のビデオフレームを使用し、画像編集ソフトウェアによって、トーキングヘッドのライブラリを組み立てることができなければならない。自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法によって生成される出力は、実際のビデオを使用する代わりに、パーソナルコンピュータ、PDA又は携帯電話上の多様な用途及び表示に使用することができなければならない。自分でできるフォトリアリスティックなトーキングヘッドの作成システムは、任意選択により、スクリプトコマンドからトーキングヘッドの表示を作成することもできなければならない。
自分でできるフォトリアリスティックなトーキングヘッドの作成システム及び方法は、携帯端末及び携帯無線端末で使用することができなければならない。これらの携帯端末及び携帯無線端末には、デジタル通信端末、電子手帳、携帯電話、ノート型コンピュータ、ビデオ電話、ビデオカメラ及びビデオ画面付きデジタル通信端末、並びにその他適当な機器が含まれる。
携帯端末及び携帯無線端末は、携帯用小型端末でなければならず、携帯無線端末は、無線で信号を送受信できなければならない。
対象者は、ビデオカメラ等の機器で自分自身の画像を捉え、機器のビデオディスプレイ上で捉えた画像の生ビデオを表示することができなければならない。
対象者のガイド画像は、自分でできるフォトリアリスティックなトーキングヘッド作成システムの携帯端末及び/又は携帯無線端末のディスプレイ上で、重ね合わせることができなければならない。
このような端末のそれぞれのディスプレイは、対象者の収集画像と選択された配置テンプレートとの合成画像を表示することができなければならない。ディスプレイ及びビデオカメラによって、ビデオカメラは対象者の画像を収集し、対象者は合成画像を見て、自分の頭部の画像を指定の配置テンプレートの頭部の角度と実質的に同じ角度で配置テンプレートの頭部に合わせて配置することができることが必要である。
このような携帯端末及び/又は携帯無線端末は、有線又は無線接続を経由してパーソナルコンピュータに、及び/又はリアルタイムビデオストリーミング及び/又は適当な信号の送信をサポートする十分な帯域幅のネットワークを経由してリモートサーバに接続することができなければならない。一般的なネットワークは、携帯電話ネットワーク、無線ネットワーク、無線デジタルネットワークや、インターネット、グローバルネットワーク、広域ネットワーク、都市圏ネットワーク又はローカルエリアネットワーク等の分散ネットワーク、及びその他適当なネットワークを含む。
2人以上のユーザは、いかなる時であってもリモートサーバに接続することができなければならない。記録されたビデオストリーム及び/又は静止画像は、処理してフォトリアリスティックなトーキングヘッドのライブラリを作成するために、コンピュータ及び/又はサーバに送信されなければならない。又は任意選択により、処理は、端末自体で実行することができなければならない。
ソフトウェアアプリケーション及び/又はハードウェアは、このような機器、コンピュータ及び/又はリモートサーバ内に存在することができ、対象者の収集画像と配置テンプレートとの合成信号を分析して、ガイド画像に対する配置の正確性を決定しなければならない。
自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法は、合成によって生成された音声、実際に記録された人間の音声、又は生の人間の技術者によって作成され、リアルタイムで対象者に通信される音声プロンプトを使用して、そして代わりに及び/又は追加でビデオプロンプトを使用して、配置プロセス中にユーザをリアルタイムで支援することができなければならない。そこで、対象者は、プロンプトの情報に従って、自分の頭部の位置を調整することができ、適切に配置すると、キャプチャープロセスの会話部分を開始することができる。音声及び/又はビデオプロンプトは、シーケンスを繰り返す場合、キャプチャー及び/又は配置プロセス中に正しい配置が失われる場合、及び/又はセッションを開始及び/又は停止する場合等、その他のタスクでも対象者を支援するために使用することができる。
電子画像、特に頭部、頭部の作製技術、及び/又は人体に関連して、電子画像を作製、作成及び操作するための様々な方法や装置が開示されてきた。しかしながら、どの方法や装置も、前述のこれらの必要性を十分満たさない。
米国特許番号6,919,892(Cheikyら)は、テンプレートと、対象者の画像出力信号を有するビデオカメラと、テンプレートと対象者の画像出力信号とを合成画像及び合成画像の出力信号に混合するためのミキサと、ビデオカメラと対象者の間に部分反射鏡を有するプロンプタと、合成画像のミキサによる表現の出力信号を受信するための入力とを備え、部分的に反射するミラーは、それを通してビデオカメラが対象者画像を収集し、対象者が合成画像を見て、対象者の画像をテンプレートに合わせて配置できるようにされ、また、対象者の収集画像のビデオカメラ表現の出力画像信号を受信するための入力を有するとともに、テンプレートと実質的に配置を合わせた対象者の画像を保存する保存手段も備える、フォトリアリスティックな頭部作成システム及び方法を開示している。
米国特許番号6,351,265(Bulman)は、(a)頭部を含む画像の電子表示を受信するステップと、(b)画像から頭部を抽出するステップと、(c)頭部の大きさを決定するステップと、(d)頭部を複数の望ましい大きさに再修正するステップと、(e)複数の修正した頭部を印刷画像として媒体上に出力するステップとを備える、標準化画像を提供する方法を開示している。
米国特許番号4,276,670(Bursonら)は、異なる年齢の人の顔の画像を作製するための方法及び装置を開示しており、人の顔上に異なる年齢の外観をシミュレーションするために、老人の顔の写真及び対応する若い人の顔を記録して、老人の顔と若い人の顔の差異を検出して記録する。そして、異なる年齢でシミュレーションされる人の顔の写真が記録され、差異によって修正されて、修正後の画像が表示される。
米国特許番号4,841,575(Welshら)は、画像コード化及び合成装置を開示しており、話し手の顔の視覚画像が処理されて、学習シーケンス中に画像の静止フレームと、一般的な口の形状のセットとを抽出する。次に、変化する口の形状をセットの形状に一致させて、それらを特定するコード名を生成することによって、送信されて、記録されるシーケンスのコード化が達成される。あるいは、コード名は、スピーチパラメータをコード名に関係付ける参照テーブルを使用して、実際又は合成の話し方を関連付けるように生成することができる。受信側では、静止画面と口の形状のセットが保存されて、受信されたコード名は、静止フレームに組み入れる連続的な口の形状を選択するために使用される。
米国特許番号6,654,018(Cosattoら)は、フォトリアリスティックなトーキングヘッド動画の合成のためのオーディオビジュアル選択プロセスを開示している。オーディオビジュアルユニット選択プロセスを利用するテキスト入力から、フォトリアリスティックなトーキングヘッドの動画を生成するためのシステム及び方法が開示されている。口合わせは、口領域の可変長のビデオユニットを選択して連結することによって得られる。ユニット選択プロセスは、候補画像の目標コストを決定するために音波データを利用して、連結コストを決定するためにビジュアルデータを利用する。画像データベースは、高レベルの機能(頭部の完全な3Dモデリング、幾何学的サイズ、要素の位置等)、及びピクセルベース、低レベルの機能(多様な特徴ビットマップをラベルするためのPCAベースの測定基準)を含め、階層別に準備される。
米国特許番号6,283,858(Hayes, Jr.ら)は、画像を操作するためのシステム及び方法を開示している。システムは、デジタルコンピュータ、入力及び出力周辺機器、及び多様な画像を操作するための複数の機能を提供するプログラムを含む。画像は処理されて固有の物が生成され、それは操作者によって修正することができる。また、プログラムによって、ビデオゲームやその他のデジタルコンピュータ等、多様なシステムへの統合やデータ送信も可能になる。システムは、キャラクターをプレイヤーの実際の画像に置換するために、ビデオゲームにデータを送信するために使用することができる。また、システムは、画像の動画化を行い、話すことによる顔の動きをシミュレーションし、リアルタイムで身体の部分の表面的な再構成をシミュレーションするために使用することもできる。プラグラムは、さらに、操作されている画像の3次元表現を生成することができる。
米国特許番号5,960,099(Hayes, Jr.ら)は、人のデジタル化画像を作製するためのシステム及び方法を開示している。システムは、デジタルコンピュータと、デジタルコンピュータに操作的に連結されるスキャン装置を含む。人の頭部分の写真がスキャンされて、データはデジタルコンピュータに送信される。データを操作して、デジタルコンピュータ上で表示されるデジタル画像を再構成するためのプログラムが提供される。プログラムによって、デジタル画像の顔の表情をカスタマイズすることができる。また、プログラムは、必要な比例関係を維持しながら、デジタル化画像の拡大縮小も可能にする。また、プログラムは、コンピュータ支援製造(CAM)システムへの統合やデータ送信も可能にするので、顔の表情に対応する3次元の輪郭やくぼみが自動的に再作成できる。
米国特許番号4,843,568(Kruegerら)は、リアルタイムのコンピュータ事象を制御するために、人間の身体の画像を使用する装置及び方法を開示している。認知や特徴分析は、特殊回路及びコンピュータソフトウェアによって実行されて、認知に対する応答は、コンピュータによって制御可能な装置を使用して示される。参加者は、一般的に、動作と反応との間の処理遅延を認識していない。さらに、事象の認知は、人間又は動物での対処に類似する。認知及び応答は、密接に連結した動作と反応とともに、リアルタイムで発生する。
米国特許番号6,044,226(McWilliams)は、写真の対象者の注目を集中させるための装置及び方法を開示している。対象者の点は、ビームスプリッターによって写真の対象者に向かって反射されて、反射板によって画像領域に反射される。写真機器は、ビームスプリッターと画像領域の後ろに置かれる。対象者の点で画像を画像領域に反射することによって、写真の対象者の注目は望ましい場所に集中することになる。
米国特許番号6,084,979(Kanadaら)は、現実を仮想化する方法、つまり、実際の出来事の画像から、フォトリアリスティックな仮想現実を作製する方法を開示しており、複数の角度に配置された複数のカメラを使用して、実際の出来事の各時点の複数の画像を記録するステップを備える。各画像は、明暗度及び/又は色情報として保存される。これらの画像やカメラ角度に関する情報から適当な内部での表現が計算される。各時点の画像は、その内部での表現を使用して、任意の視角から生成することができる。仮想的視点は、単一のテレビ画面上に表示することができ、又は立体ディスプレイ装置を使用して真の3次元効果を得ることができる。このように仮想化された出来事は、任意の仮想現実システムを通してナビゲートされ、任意の仮想現実システムと相互作用することが可能である。
米国特許番号6,278,466(Chen)は、動画を作成するための装置及び方法を開示している。一連のビデオ画像が検査されて、一連のビデオ画像で描かれた場面の第1の変換を識別する。第1の画像と第2の画像は、ビデオ画像のシーケンスから取得される。第1の画像は第1の変換前の場面を表現し、第2の画像は第1の変換後の場面を表現する。第1の変換を示す情報が生成されて、この情報は、ビデオ画像のシーケンスの表示に近いビデオ効果を作成するように、第1の画像と第2の画像との間を補間するために使用可能である。
米国特許番号5,995,119(Cosattoら)は、フォトリアリスティックなキャラクターを生成するための方法を開示しており、個人の1つ以上の写真が、複数のパラメータ化された顔の部分に分解される。顔の部分はメモリに記憶される。動画化されたフレームを作成するために、個々の顔の部分は、規定の様態でメモリから呼び出されて、顔のベースに重ねられて、全体の顔を形成する。次に、それを動画化されたフレームを形成するために、背景画像に重ねることができる。
米国特許番号6,250,928(Poggioら)は、会話している顔の表示方法及び装置を開示している。当該方法及び装置は、入力テキストをオーディオビジュアルスピーチストリームに変換し、結果として、会話の顔画像がテキストを読み上げる。入力テキストをオーディオビジュアルスピーチストリームに変換するこの方法は、対象者の画像集合体を記録するステップと、視覚素の補間データベースを構築するステップと、会話の顔画像をテキストストリームに同期するステップとを備える。好ましい実施形態では、視覚素の移行は、光学フロー方法を使用して自動的に計算され、モーフィング技術が採用されて、スムーズな視覚素の移行をもたらす。視覚素の移行は、タイミング情報に従って、連結され、音素と同期化される。そして、オーディオビジュアルスピーチのストリームがリアルタイムで表示されるので、フォトリアリスティックな会話している顔が表示される。
米国特許番号6,272,231(Maurerら)は、アバターの動画化のためのウェーブレットベースの顔の動きの捕捉を開示しており、装置での実施形態が示される。さらに、人の顔の動き、特徴及び特性等を感知し、顔の感知に基づいて、アバター画像を生成及び動画化する関連方法を開示している。アバター装置は、モデルグラフやバンチグラフに基づいて、画像特徴をジェットとして効果的に表現する画像処理技術を使用する。ジェットは、容易に識別可能な特徴に対応する画像上のノード又は目印の場所で処理されたウェーブレットの変換から構成される。ノードは、人の顔の動きに応じて、アバター画像を画像化するために取得及び追跡される。また、顔の感知は、ジェットの類似度を使用して、人の顔の特徴や特性を決定することができるので、人の自然な特徴を干渉又は阻害する場合がある人工的な要素がなく、人の自然な特徴をたどることができる。
米国特許番号6,301,370(Steffensら)は、ビデオ画像からの顔の認識を開示しており、画像フレームの物体を検出及び認識するための装置、及び関連方法での実施形態が示される。物体は、例えば、特定の顔の特徴を有する頭部にすることができる。物体識別や認識プロセスは、モデルグラフやバンチグラフに基づいて、画像特徴をジェットとして効果的に表現する画像処理技術を使用する。ジェットは、ウェーブレットの変換から構成され、容易に識別可能な特徴に対応する画像上のノード又は目印の場所で処理される。このシステムは、特に、広範囲の姿勢角度で人を認識する場合に利点がある。
米国特許番号6,163,322(LaChapelle)は、姿勢のデータベースを利用するリアルタイムの画像を提供して、合成身体部分を動画化するための方法及び装置を開示している。3D動画システム及び方法は、基本姿勢のデータベースを使用する。第1のステップでは、各フレームに対して、基本姿勢のデータベースからの基本姿勢の一次組み合わせが、重要点の変位の間のユークリッド距離を最小限にすることによって、取得される。変位情報は、外部から提供され、一般的に、現実世界の移動する物理的身体の部分上の物理的マーカーの変位を観察することによって、取得することが可能である。例えば、合成身体の部分は、人間の顔の表現にすることができ、変位データは、動作主の顔上に配置された物理的マーカーを観察することによって、取得される。次に、姿勢のデータベースの中の姿勢の線形結合を使用して、望ましい姿勢を作成する。姿勢は、各タイムフレームに対して作成されてから、動画を提供するために連続的に表示される。動画プロセスを実現するために、コンピュータのプロセッサに命令するプログラム要素を含むコンピュータ読取可能な記憶媒体も提供される。
米国特許番号6,181,351(Merrillら)は、動画化されたキャラクターの動く口を、記録された会話に同期させるための方法及び装置を開示している。会話するキャラクターの動画は、言語的に修正された音のファイルを作成及び再生することによって、記録された会話と同期される。サウンド編集ツールは、会話認識エンジンを採用して、記録された会話や会話のテキストから、言語的に修正されたサウンドファイルを作成する。会話認識エンジンは、単語の切れ目や音素に関するタイミング情報を提供し、この情報は、言語的に修正されたサウンドファイルの作成時に、サウンド編集ツールによって使用されて、会話のサウンドデータに注釈をつける。言語的に修正されたサウンドファイルが再生されてサウンド出力を生成すると、タイミング情報が呼び出されて、動画化されたキャラクターの口の動きや、キャラクターの吹き出しの単語の速度を制御する。サウンド編集ツールは、さらに、タイミング情報を操作するための編集機能を提供する。テキストから会話へのエンジンは、言語的に修正されたサウンドファイルの再生機能と同じプログラミングインターフェースを使用して、動画に注釈を送信することができるので、記録された会話を用いずにプロトタイピングを提供することができる。どちらも同じインターフェースを使用するので、記録された会話は、最小限の修正だけで後から組み入れることが可能である。
米国特許番号5,878,396(Henton)は、顔の動画における合成会話のための方法及び装置を開示しており、顔の画像は合成会話と同期される。視覚素画像を音と音のつながり部分(Diphone)にマッピングするには、Diphoneに関連付けられる画像は静止画像ではなく、唇、歯や舌の位置を用いて、関連のあるDiphoneで発生する音の移行を動的に描写する一連の画像であるという点において、同じ「移行」が必要である。それぞれ一連の唇、歯や舌の位置の移行は、Hentonの特許では「Diseme」と呼ばれる。Disemeは、したがって、(Diphoneと同様に)、1つの視覚素(音)のどこかで開始して、次の視覚素(音)のどこかで終了する。唇、歯及び舌の位置の画像化間の共通性のために、音はArchiphonic族にグループ化される。単一のDisemeは、1つのArchiphonic族の音から異なるArchiphonic族の別の音への移行を表すが、第1のArchiphonic族の任意の音と、第2のArchiphonic族の任意の音との間の移行を表示するために使用することが可能である。このようにして、一般的なアメリカ英語のおよそ1800のDiphoneは、ここでも、唇、歯及び舌の画像位置づけ間の類似性によって、比較的小さい数のDisemeによって視覚的に表すことが可能である。これによって、合成会話と顔の画像とがマッピングされ、実際の話し手画像の会話での変化する動きをより正確に反映する。
米国特許番号5,873,190(Trower, IIら)は、インタラクティブなユーザインターフェースキャラクターの画像化のためのクライアントサーバ動画システムを開示しており、クライアントがインタラクティブなユーザインターフェースのキャラクターのために、動画や口合わせされた会話出力を再生できるサービスを提供する。サーバのプログラミングインターフェースを介して、クライアントは、クライアントが動作中に、インタラクティブなユーザインターフェースのキャラクターのインスタンスが反応する会話とカーソルデバイス入力の両方を指定することが可能である。また、クライアントは、このインターフェースを介して、動画と口を合わせた会話出力の再生を要求することも可能である。サービスはアプリケーションプログラムから、さらに、インターネットからダウンロードしたウェブページに組み込まれたウェブスクリプトから、起動可能である。
米国特許番号6,069,633(Apparaoら)は、多様なホストプラットフォームによく適合し、フレームバッファ表示領域の更新時に発生する描画の量を最小限にする、スプライトエンジン又は合成器を開示している。この発明は、ホストプラットフォームの、バック・ツー・フロントとフロント・ツー・バックの両方の描画アルゴリズムを実行する能力を利用し、使用されるアルゴリズムの選択は、スプライトが不透明又は透明であるかどうかに依存する。それぞれのスプライトは、それ自体を、スプライトエンジンに登録し、スプライトが全体的に不透明又は透明であるかどうか、スプライトの境界領域であるかどうか、及び、スプライトが描画に使用する機能を特定する。機能は、ホストプラットフォーム又はオペレーティングシステムから利用可能な描画ルーチンにすることができる。スプライトエンジンは、各スプライトのZ位置を追跡し、各スプライトを確認して、スプライトが更新が必要な特定の領域に重なっているかどうかを決定する。四角で不透明であるスプライトは、ホストプラットフォームのフロント・ツー・バックの描画アルゴリズムを使用して、容易に描画することができる特殊なケースと考えられる。トップダウン方式では、Z位置によって、不透明な全てのスプライトを描画することができる。他の全ての種類のスプライトは、バック・ツー・フロント方式で描画される。透明なスプライトがあると、スプライトエンジンは、ボトムアップ方式で残りのスプライトを検索して、透明なスプライトの下のZ位置を有するスプライトを描画して、透明なスプライトを終了して、残りの領域においてバック・ツー・フロントアルゴリズムを使用する。
米国特許番号5,933,151(Jayantら)は、N−状態のマルコフ(Markov)モデルを使用して、コンピュータ生成合成トーキングヘッドの自然な動きをシミュレーションするための方法を開示している。最初に、合成トーキングヘッドのN個の様々な位置方向を表現する、状態Nの数を設定する。トーキングヘッドの現在の可能な各位置から次の可能な各位置への移行は、ゼロから1の範囲の一連の移行の確率によって特定される。均一に分散された無作為な数が生成されて、無作為な数に関連付けられた移行確率によって特定された状態が、トーキングヘッドの次の位置を特定する。合成トーキングヘッドは、その次の位置に回転して、同様な方式で確率的に決定される、次の位置に移動するまで、一定期間そのままの位置にとどまる。現実的な頭部の動きをさらにシミュレーションするために、合成された頭部は、シミュレーションされた会話の文の最後で長時間、特定の状態又は位置にとどまるようにプログラムすることができる。
米国特許番号6,097,381及び6,232,965(Scottら)は、人間の会話のリアルな動画を合成する方法及び装置を開示しており、コンピュータを使用して、選択された会話のシーケンスに一致するように、会話又は顔の動きを合成する。多様なシーケンスを話しているユーザの複数の画像を含め、任意のテキストシーケンスのビデオテープが取得される。特定の話された音素に対応するビデオ画像が取得される。ビデオフレームは、そのシーケンスからデジタル化されて、極端な口の動きや形状を表現する。これは、話された音素や二重母音に関連して異なる顔の位置の画像のデータベースを作成するために使用される。次に、ビデオシーケンスが一致する要素として、オーディオスピーチシーケンスが使用される。オーディオシーケンスは、分析されて、話された音素シーケンスや相対的タイミングを決定する。データベースは、これらの音素やこれらのタイミングのそれぞれに対する画像を取得するために使用されて、モーフィング技術は、画像の間の移行を作成するために使用される。画像の異なる部分は、さらに現実的な会話パターンを作成するように、様々な方式で処理することができる。6,232,965の特許は、ビデオシーケンスを一致する要素として、オーディオスピーチシーケンスを使用しており、話された音素シーケンスや関連のタイミングを決定するために分析される。
米国特許番号6,072,496(Guenterら)は、顔の表情やその他の画像化された物体の3D幾何学、色や影を捉えて表現するための方法及びシステムを開示している。本方法は、顔の3Dモデルを捉えるが、これは、3Dメッシュや一連のメッシュの変形を含み、時間の経過とともに(例えば各フレームに対して)メッシュの位置の変化を定める。また、本方法は、動画シーケンスの各フレームに関連付けられたテクスチャマップも構築する。本方法は、時間の経過とともに顔の動きを追跡して、3Dモデルとテクスチャとの間の関係を確立するために、動作主の顔にマーカーを使用することによって、顕著な利点を達成する。具体的には、マーカーを付けた動作主の顔のビデオは、複数のカメラに捉えられる。ステレオマッチングを使用して、各フレームのマーカーの3D位置を得る。また、3Dスキャンもマーカーを付けた動作主の顔で実施して、マーカーの最初のメッシュを作成する。3Dスキャンからのマーカーを、ステレオマッチングプロセスからの各フレームのマーカーの3D位置に一致させる。この方法では、マーカーの3Dの位置をフレーム間でマッチさせることによって、メッシュの位置が、フレームからフレームでどのように変化するかを決定する。方法では、ビデオデータからドットを削除して、テクスチャ空間とメッシュの3D空間の間のマッピングを見つけて、各フレームに対するカメラ表示を信号テクスチャマップに組み入れることによって、各フレームに対するテクスチャを得る。顔の動画表現に必要なデータは、1)初期3Dメッシュ、2)フレームあたりのメッシュの3D変形、及び3)各変形に関連付けられたテクスチャマップ、を含む。方法は、変形データを、基底ベクトルと係数に分解することによって、3D幾何学を圧縮する。本方法は、ビデオ圧縮を使用して、テクスチャを圧縮する。
米国特許番号5,719,951(Shackletonら)は、画像を処理する方法を開示しており、画像内で少なくとも1つの所定の特徴を検索するステップと、各特徴を示すデータを画像から抽出するステップと、N次元空間で特徴の画像データの位置を表す特徴ベクトルを各特徴に対して計算し、かかる空間は複数の参照ベクトルによって定義され、参照ベクトルのそれぞれは、同様な特徴のトレーニングセットの固有ベクトルで、各特徴の画像データは、各特徴の形状を標準化するために修正され、それによって特徴の所定の標準形状からの派生を減少させるステップとを含む。このステップは、対応する特徴ベクトルを計算する前に、実行される。
米国特許番号6,044,168(Tuceryanら)は、特徴検出及び固有顔のコーディングを使用する、モデルベースの顔のコーディング及びデコーディングの方法を開示している。本方法は、3次元の顔のモデルと、固有顔の分解と呼ばれる技術を使用して、一端でビデオを分析する。顔の画像での顔の特徴の場所と固有顔のコーディングは、デコーダに送信される。デコーダは、受信側で顔の画像を合成する。固有顔のコーディングを使用して、検出された特徴の場所によってゆがめられた3次元モデルをテクスチャマッピングする。
米国特許番号6,088,040(Odaら)は、顔の画像を表現する複数の顔の表情の構成要素に対して、補間/補外することによって、顔の画像を変換する方法及び装置を開示している。入力/出力制御メカニズムは、複数の人間の異なる顔の表情の顔画像情報を受信して制御を提供するので、標準化処理メカニズムは顔画像情報を標準化する。顔表情生成メカニズムは、標準化された顔画像情報を顔の表情構成要素に変換して、各顔の表情に対して顔の表情構成要素を平均化して、平均顔表情構成要素として、これを保存する。入力/出力制御メカニズムは、適用された顔の画像情報が標準化された後、顔の表情生成メカニズムによって変換された顔の表情構成要素を有する。顔の表情生成メカニズムは、適用された顔の画像情報の顔表情に対応する平均顔表情構成要素と、特定の顔表情の平均顔表情構成要素との間の差に応じて、適用された顔の画像情報の顔の表情構成要素を変換する。合成顔画像情報は、変換された合成顔表情構成要素から生成される。
米国特許番号6,307,576(Rosenfeld)は、記録されたテキストの加重モーフィングターゲットや時間的に配列した音声転写を使用して、アニメキャラクター、特に3次元のアニメキャラクターの口合わせや顔の表情を自動的に動画化するための方法を開示している。この方法は、タイミングの合う音素及び/又はその他のタイミングの合うデータがあると、モーフィング加重セットのストリームを備えるシステム出力を決定する一連の規則を利用する。「驚き」、「嫌悪」、「困惑」、「臆病そうな笑い」等、タイミングの合う感情状態のデータ又はEmoteme等その他のデータは、モーフィング加重セットの出力ストリームに影響を与えるために、又は追加のストリームを作成するために、入力することができる。
米国特許番号6,028,960(Grafら)は、自動的な読唇とキャラクターの動画化のための顔の特徴分析方法を開示しており、これは、単独のフレームの顔の分析を使用して、例えば、目や鼻の位置等、複数の顔の特徴を生成することによって開始する。次に、小鼻の追跡ウィンドウが鼻候補の周囲に定義されて、皮膚の色の領域ピクセルと小鼻の領域のピクセルのパーセントに基づいて、その中のピクセルにテストが適用されて、鼻の候補が実際の鼻を表現するかどうかを決定する。実際の小鼻が特定されると、実際の小鼻の大きさ、分離や近接性が、小鼻追跡ウィンドウ内に小鼻のピクセルを投影することによって、決定される。口のウィンドウが口領域の周囲に表示されてから、口の詳細分析が口のウィンドウ内のピクセルに適用されて、口内部と歯のピクセルを定義して、そこから口内部の輪郭が生成される。小鼻の位置と口内部の輪郭は、合成モデル頭部を生成するために使用される。生成された口内部の輪郭と合成モデル頭部の輪郭との直接比較が行われて、これに応じて合成モデル頭部が調整される。処理の能率を高めるために、顔モデルのパターンのコードブックを開発するベクトル定量化アルゴリズムを使用することができる。顔の特徴分析は、鼻、照度の変化、頭部の傾き、縮尺の変動及び小鼻の形状に関係なく適している。
米国特許番号6,069,631(Taoら)は、帯域制限されたチャネルで合成トーキングヘッドビデオを送信するための、顔の動画化パラメータ(FAP)のコード化の方法及び装置を開示している。FAPコード化技術は、知覚できるアーチファクトを再構成された合成のトーキングヘッドに導入することなく、帯域制限されたチャネルから、複数の合成のトーキングヘッドを送信できるように十分なコード化を実現する。これは、各FAPフレームの空間相関関係及び/又はFAPフレームのシーケンスの一次的相関関係を利用することによって、達成される。フレーム内の相関関係を除去するために、n次元空間からm次元部分空間にセグメント化する前に各FAPフレームが変換されるが、m<nの場合は、エネルギー圧縮変換を使用する。フレーム内の余剰を除去するために、シーケンスはセグメント化されて、各パラメータベクトルは、ベクトルの相関関係を無効にするように変換符号化される。
米国特許番号6,061,072(Rouetら)は、コンピュータの動画化された物体の実物そっくりなデジタル表現、特に、3次元物体の実物そっくりなデジタル表現を作成するための方法及び装置を開示している。アニメータが複数の動画化された物体を効果的に選択及び組み合わせて、新しい動画化された物体を生成するステップと手段が説明される。アニメータは、複数の物体形状を保存させることができる。保存量を最小限にするために、物体形状の全ては、基本物体との違いとしてだけ保存される。新しい物体を形成するには、アニメータは、データベースから望ましい特徴を備えたいくつかの物体を選択することができ、これらの物体を互いに融合して、選択された物体の組み合わせである特徴を備えた新しい物体を作成する。選択された物体が新しい物体に組み入れられる程度は、各選択された物体に加重を割り当てることによって、アニメータによって選択することができる。したがって、新しい物体は、選択された各物体と基本物体との間での差を加重により乗じたものの和である。顔の物体を動画化するための改善されたグラフィカルユーザインターフェースも導入される。
米国特許番号5,680,481(Prasadら)は、ニューラルネットワーク、音響及び視覚会話認識システムのための顔特徴抽出方法及び装置を開示している。顔の特徴抽出方法及び装置は、話し手の顔の前面表示の光度(グレースケール)における変動を使用する。ビデオ画像のシーケンスがサンプリングされて、スキャンラインの座標系とスキャンラインに沿ってピクセル位置を自然に形成する150x150ピクセルの規則的配列に定量化される。左右の目の領域と口の位置は、ピクセルグレースケールを閾値化して、3つの領域の重心を見つけることによって位置づけられる。目の領域の重心につながるラインセグメントは、直角に二等分されて、対称軸を形成する。口領域の重心を通る直線は、対称線に直角で、口線の構成要素となる。口線と口領域近辺の対称軸に沿ったピクセルは、それぞれ、水平方向及び縦方向のグレースケールプロファイルを形成する。プロファイルは、特徴ベクトルとして使用することが可能であるが、視覚ベクトル構成要素として、上下の唇、口角や口領域の位置等の重要な生理学的な発話の特徴やピクセル値やピクセル値の時間導関数に対応するプロファイルの上と下(最大と最小)を選択するほうが効果的である。時間導関数は、ビデオ画像のフレームの間のピクセル位置や値の変化によって推算される。会話認識システムは、時間遅延ニューラルネットワークへの入力として、同時音響ベクトルとの組み合わせで、視覚特徴ベクトルを使用する。
米国特許番号5,630,017(Gasperら)は、会話合成動画のための高度なツールを開示している。ランダムアクセス動画ユーザインターフェース環境は、interFACEと呼ばれるが、これによって、ユーザは、ユーザプログラム及び製品で使用するためにパーソナルコンピュータを利用して、動画化された口を合わせた画像又は物体を作成及び制御できる。合成動作主(以下「synactor」)を提供するために、リアルタイムのランダムアクセスインターフェースドライバ(RAVE)が、記述的オーサリング言語(RAVEL)とともに使用される。Synactorは、実際又は想像上の人物又はアニメキャラクター、物体又は場面を表現することができる。Synactorは、これまでに発生したイベントの連続的に保存済みでの記録でない会話を含めて、動作を実施するように作成及びプログラムすることができる。さらに、動画及び音の同期化は、自動的及びリアルタイムで作製することができる。実際又は想像上の人物又はアニメキャラクターの音や視覚画像は、それらの音に関連付けられてシステムに入力され、断片的画像及び音を作製するように、構成部分に分解することができる。特定のSynactorの動きや音のデジタルモデルを画定するためには、一連の特徴が利用される。ランダムアクセスや、体系化されて音に同期されているSynactorの画像をフレーム別に表示するためには、汎用目的のシステムが提供される。合成会話やデジタル記録のどちらも、Synactorに会話を提供することができる。
米国特許番号4,710,873(Breslowら)は、デジタル画像をゲームグラフィックスに組み入れ、そしてゲームプレーヤー又はその他の構成要素の顔の画像を表現するデータを取得及び保存するため、及びゲームの全プレイ中を通して、ビデオゲームのディスプレイ上の所定の場所で、ビデオゲームグラフィックスと連携して、構成要素の画像を選択的に組み入れるための処理を含む、ビデオゲーム装置及び方法を開示している。ビデオゲーム装置によって制御される多様なゲームのプレイに従って、1人以上の人間の保存された画像は、ビデオグラフィックスによって生成される身体の頭部として、その他の生成されたグラフィックス表現の一部として、機能的ゲーム物体の表現として、又は制御可能なプレイ対象者として利用される。また、ビデオゲーム装置は、点数を表示するフォーマットで、ゲームプレーヤーの画像の表示も提供して、最高得点を取得しているこれまでのゲームプレーヤーのうち所定数のプレーヤーの画像が、ゲームの最初又は最後で表示される。
米国特許番号6,208,359(Yamamoto)は、コンピュータの動画画像を介して通信するためのシステム及び方法を開示しており、通信中に生のキャラクターの動画シーケンスを生成する。演者の声や他の入力に反応して、キャラクターの動画シーケンスはリアルタイムベースで生成され、そして人間の会話に近いものとなる。アニメキャラクターは、幸福、怒り、驚きなど、一定の所定の感情を表すことができる。さらに、アニメキャラクターは、会話に伴うほぼ自然な動きをすることができる。
米国特許番号6,016,148(Kangら)は、顔のデジタル化画像のワイヤフレームへのマッピング方法を使用する、顔の画像の動画ワイヤフレームトポロジーへの自動化マッピングを開示しており、参照の顔画像の複数のピクセルから、複数の顔の特徴を検出するステップを含む。均一化されたトリミング済み画像が、画像登録ステップで比較される。ワイヤフレームは、線によってつなげられた複数のノードから構成される。ワイヤフレームトポロジーの対応する顔の目印ノードの対応が決定される。顔の特徴と目印ノード間の変形が計算されて、ワイヤフレームトポロジーを参照の顔画像にマッピングする。参照の顔画像と目標の顔画像は、境界ボックスを使用してトリミングされる。トリミングされた参照の顔画像は、変位フィールドを決定するために、トリミングされた目標の顔画像とともに登録される。変位フィールドは、参照の顔画像のためにマッピングされたワイヤフレームトポロジーに適用されて、目標の顔画像をワイヤフレームトポロジーにマッピングし、ノードは、目標の顔画像の凸部の顔特徴に合わせて配置される。
米国特許番号6,611,613(Kangら)は、話をしている人の目と顔の特徴を検出するための装置及び方法を開示している。入力画像又はビデオ画像の中の人間の顔の位置を検出するための装置及び方法が開示される。本装置は、入力の赤、青及び緑(RGB)画像の中で、検出されるピクセルによって形成される領域の中の目の候補領域として、局所性とテクスチャ特徴を有する領域を決定するために強いグレー特徴を有するピクセルを検出するための目の位置検出手段を含む。また、モデルテンプレートを目の候補領域から抽出された2つの領域に一致させることによって検索テンプレートを作成し、及び検索テンプレートの領域内のピクセルの色度に対する確率距離と、検索テンプレートによって推算された左右の目、口、及び鼻の位置で演算された水平方向のエッジサイズとの和を正規化する値を使用することによって作成された検索テンプレートの中で最適検索テンプレートを決定するための顔の位置決定手段を含む。また、最適検索テンプレートによって最小境界三角形を形成し、目と顔の領域のように、規定値を上回るカウント値が配置される領域を出力するために、形状メモリに保存された、個別のピクセルのカウント値の中で、最小境界三角形領域に対応するカウント値を増加させ、及び最小境界三角形領域以外の領域に対応するカウント値を減少させるための抽出位置安定化手段を含む。本装置は、画像の中の話している人の目と顔を検出することができ、画像ノイズを許容する。
米国特許番号5,774,591(Blackら)は、連続画像の中の顔の表情と顔の表現を認識するための装置及び方法を開示している。連続画像を分析することによって、システムは、時間の経過とともに、人間の頭部及び顔の特徴を追跡する。システムは、2つの画像フレームの間の頭部と顔の両方の特徴の動きを記述する。これらの動きの記述は、システムによってさらに分析されて、顔の動きや表情を認識する。システムは、画像の動きのパラメータ化されたモデルを使用して、2つの画像間の動きを分析する。まず、連続画像の第1の画像が顔の領域と複数の顔の特徴領域にセグメント化される。連続画像の中の第1の画像と第2の画像のセグメント化された顔領域の間の動きを推算するモーションパラメータを復元するために、プラナモデルが使用される。第2の画像は、プラナモデルの推算されたモーションパラメータを使用して、第1の画像に関係する顔の特徴をモデル化するために、第1の画像に対してゆがめられ、又は移行される。モーションパラメータを復元するために、アフィンモデルと、湾曲のあるアフィンモデルが使用されて、セグメント化された顔の特徴領域と、ゆがめられた第2の画像との間の画像モーションを推算する。顔の特徴領域の復元されたモーションパラメータは、第1の画像とゆがめられた画像との間の顔の特徴の相対的動きを表す。第2の画像の顔領域は、顔領域の復元されたモーションパラメータを使用して追跡される。第2の画像の顔の特徴領域は、顔領域の復元されたモーションパラメータと、顔の特徴領域のパラメータの両方を使用して追跡される。2つの画像の間で発生している顔の表現を定める中間レベルの記述を得るために、顔と顔の特徴の動きを記述するパラメータは、フィルタ化される。これらの中間レベルの記述は、画像シーケンスで発生する顔の表情やジェスチャーを決定するために、時間の経過とともに評価される。
米国特許番号5,280,350(Trewら)及び欧州特許申請番号EP474,307A2(Trewら)は、場面での移動物体、例えば、ビデオ電話アプリケーションの人の顔を追跡するための方法及び装置を開示しており、顔の初期テンプレートを形成するステップと、顔の輪郭を描くマスクを抽出するステップと、テンプレートを複数(例えば16)のサブテンプレートに分割するステップと、テンプレートとの一致を見つけるために次のフレームを検索するステップと、サブテンプレートのそれぞれとの一致を見つけるために次のフレームを検索するステップと、テンプレートに対するそれぞれのサブテンプレートの移動を決定するステップと、アフィン変換係数を決定するために前記移動を使用するステップと、更新されたテンプレートと更新されたマスクを作成するためにアフィン変換を実施するステップと、を備える。
米国特許番号5,689,575(Sakoら)は、テレビカメラ、コンピュータ及び顔の部分マスクの生成を使用して、顔部分での顔の表情や状態の画像を処理するための方法及び装置を開示している。顔の部分マスクユニットは、口領域の検出ユニット及び目の領域の検出ユニットの両方に、マスキングデータを提供する。口領域の検出ユニット、目領域の検出ユニット、及び指先検出ユニットは、パーソナルコンピュータへの出力で接続されて、各ユニットから受信されたデータの記号言語の信号内容を自動的に解釈する。
米国仮申請番号2002/0012454(Liuら)は、汎用コンピュータに付随する安価なビデオカメラから取得された画像を使用し、3D顔モデルを作成するための技術を用いる、動画のための短時間でのコンピュータモデリングを開示している。ユーザの2枚の静止画像と、2つのビデオシーケンスが捉えられる。ユーザは、顔の特徴を5つ特定するように要求され、それがマスクを計算するため、及びフィッティング操作を実施するために使用される。静止画像の比較に基づいて、変形ベクトルが自然な顔のモデルに適用されて、3Dモデルを作成する。ビデオシーケンスは、テクスチャマップを作成するために使用される。テクスチャマップを作成するプロセスは、これまでに取得された3Dモデルを参照して、連続したビデオ画像でのポーズを決定する。
米国仮申請番号2002/0024519(Park)は、オーサリングツールを使用して、3次元キャラクターの動き、顔の表情、口合わせ、及び口に合わせた音声の合成をサポートする3D動画を作成するためのシステム及び方法を開示しており、キャラクターの顔の表情の情報、唇の形状及び動作を記憶するように適合されたメモリシステムと、テキスト情報及び/又はユーザからこれまでに記録された会話情報を受信して、入力されたテキスト情報及び/又はこれまでに記録された会話情報を対応する会話情報に変換するように適合された会話情報変換エンジンと、会話情報変換エンジンから出力された会話情報から音素情報を抽出して、メモリシステムから抽出された音素情報に対応する、キャラクターの顔の表情や唇の形状を生成するように適合された唇合成作成エンジンと、ユーザから動作の情報を受信して、メモリシステムからの動作情報に対応して、キャラクターの動作を生成するように適合された動画作成エンジンと、合成画像を画面に表示するために、口合わせ作成エンジンから生成されたキャラクターの顔の表情及び唇の形状と、動画作成エンジンから作成されたキャラクターの動作とを合成するように適合された合成エンジンと、を備える。メモリシステムは、キャラクターの動作情報を保存するように適合された動作ライブラリと、キャラクターの顔の表情と唇の形状を保存するように適合された顔の表情ライブラリと、キャラクターの背景場面に関する情報を保存するように適合された背景場面ライブラリと、サウンド情報を保存するように適合されたサウンドライブラリとを含むことができる。
米国仮申請番号2002/0039098(Hirota)は、ニュース情報を発信するための第1のコンピュータ又は通信装置と、第1のコンピュータ又は通信システムと通信するニュース情報を受信するための第2のコンピュータ又は通信装置と、受信したニュース情報の内容を出力するための音声出力手段と、音声の出力に合わせて話をする人を模倣する動画を表示するための表示手段とを含む、情報処理システムを開示している。第1のコンピュータ又は通信装置は、受信したニュース情報の内容に基づいてニュース情報の内容を所定の順序で音声として出力し、第2のコンピュータ又は通信装置は、音声出力に合わせて、話をする人を模倣する動画を表示する。
日本の特許番号JP406129834A(Kajiwaraら)は、人の特徴を自動的に決定するためのシステムを開示しており、それは、人の顔の写真画像をデジタル化し、ニューラルネットワークによって、画像の制御部分にこれまでに登録された複数の特徴のタイプの中でどの特徴タイプがマッチするかを判別することにより達成される。目、鼻、口、眉毛、大きさなどの顔の特徴、及びこれら特徴の間の距離が使用される。
1つの画面上で同時に2つ以上の画像を表示するための様々な装置や方法、及び混合、組み合わせ、重ね合わせ、融合及び統合装置や方法が開示されてきた。しかしながら、どの方法や装置も、前述の必要性を十分満たさない。
米国特許番号5,583,536(Cahill,III)は、アナログビデオ統合及びキー検出のための方法及び装置が開示されており、モノクロやカラーのビデオミキサが、オーバーレイ画像をデフォルト画像に混合して、コンピュータ画面に表示される複合画像を形成する。モノクロビデオのミキサは、複合信号を生成するために、オーバーレイ信号とデフォルト信号を加算するための加算回路を含む。オーバーレイ信号はオーバーレイ画像に対応して、デフォルト信号はデフォルト画像に対応する。また、複合信号は複合画像に対応する。ビデオミキサは、コンパレータを含み、合成信号を受信するための第1の入力と、オーバーレイ信号を受信するための第2の入力を有する。コンパレータは、第1の入力で測定された信号レベルを、第2の入力で測定された信号レベルと比較する。比較に対応して、コンパレータは、デフォルトのキーカラー信号が存在すると、有効信号を提供する。有効信号に対応して、ビデオミキサの有効回路は、オーバーレイ信号を加算回路に提供する。第1の入力信号レベルが第2の入力信号レベルに等しいこと、あるいは、第1の入力信号レベルが第2の入力信号レベル未満であることを有効信号が示した時に、有効回路はオーバーレイ信号を加算回路に提供する。カラービデオミキサは、いくつかの上記のモノクロビデオミキサを含み、各モノクロビデオミキサは、表示装置のカラー電子銃に個別の出力を提供する。各ミキサからのオーバーレイ信号は、全ての(全てのモノクロミキサに対する)コンパレータが有効信号を提供する場合にのみ、(ミキサ加算回路を介して)それぞれのカラー電子銃に渡される。
米国特許番号5,566,251(Hannaら)は、複数の個別のビデオ信号源から提供された前景と背景のビデオ画像データを統合することによって、合成ビデオ画像を得るための技術を開示しており、この目的のために、先行技術のカラーキー挿入ではなく、パターンキー挿入を採用する。パターンキー挿入には、ビデオ画面の第1のパターンを第2のパターンで置換するステップが関与する。これはまず、ビデオ場面の第1のパターンを検出してから、ビデオ画面の参照物体に対してこの検出されたパターンのポーズを推算することによって実現される。次に、検出された第1のパターンのポーズ推算を使用して、第2のパターンが変換される。最後に、検出された第1のパターンは、幾何学的に変換された第2のパターンで置換される。
米国特許番号6,072,933(Green)は、ビデオ信号を作成するためのシステムを開示しており、事前に記録される記憶媒体から記録済みのビデオ及びオーディオ信号を再生するための再生装置と、ユーザによって提供されたビデオやオーディオ信号源と、事前に記録される信号及びユーザによって提供された信号を組み合わせるためのビデオ及びオーディオミキサと、混合された信号をユーザに表示するためにミキサに接続された作成モニタと、ミキサから混合されたビデオ信号出力を受信する保管又は再製作装置とを含む。事前に記録される記憶媒体は、ビデオチャネル及び少なくとも1つのオーディオチャネルと同様に、少なくとも1つのプロンプトチャネル、ビデオ信号を保存する。このビデオ信号は、ユーザによって提供されるビデオ信号によって、ミキサ内で重ね合わされる領域を示すために、予めキー付けされている事前記録媒体に保存されている。ミキサは、プロンプトチャネルから生産管理信号に変換するように操作可能である。
米国特許番号5,977,933(Wicherら)は、単一の信号フレームバッファから、内蔵フラットパネル(LCDタイプ)ディスプレイ、個別の外部CRTディスプレイ、又はNTSC/PALテレビモニタに対しての、携帯用コンピュータドライブ用ディスプレイ制御システムを開示している。同一又は様々な画像のいずれかを、CRTディスプレイ又はテレビ及びフラットパネルディスプレイ上に同時に表示することができる。様々な画像を同時に表示すること及び同一の画像を同時に表示することができるように、各ディスプレイには独立のクロックが提供される。画面制御システムは、内部プログラム制御の手段によって、広範囲のCRTディスプレイ及びフラットパネルディスプレイでの使用に適する。
米国特許番号6,271,826(Polら)は、グラフィックス信号とビデオ信号を混合するための方法及び装置を開示している。
米国特許番号4,713,695(Machebouef)は、定められたピークからピークまでの振幅を有する2つの入力画像信号を受信する2つの可変増幅率の増幅回路を含むビデオミキサと、増幅画像信号を得られる画像信号に混合するための追加の回路とを備えるテレビ画像のスーパーインポーズシステムを開示している。テレビ画像スーパーインポーズシステムは、2つの入力画像信号から得られた2つの信号の線形結合それぞれに基づいて、単一の増幅率制御信号を得るための回路を提供する改良を有するため、得られる信号は、定められたピークからピークまでの増幅を有する。制御信号はそれぞれ、アナログ変換回路を経由して、直接、可変増幅率の増幅回路の増幅率制御入力に適用される。
米国特許番号5,751,576(Monson)は、動画化された地図表示を開示しており、コンピュータ制御農学システムの任意の基本的又は応用地図からの情報、さらには、地理的又は環境的特徴、物理的構造、センサー信号、ステータス情報及びその他のデータを、製品適用車両のウィンドシールドから、操作者に表示可能な現実世界の地形及び環境の上に重ね合わされたヘッドアップディスプレイ(HUD)を使用して投影される2次元又は3次元表現に置き換える。動画化された地図の表示は、現実世界の地形又は環境に空間的に対応する3次元画像として設定された特定の地図に関連する情報、及び操作、センサー又はその他のデータ入力に関連する英数字、写真、符号、色、又はテキスト索引を表現することができる。操作者は、データベース又は農学システムに相互作用的に情報、関係又はデータを入力するために、動画化された地図表示にグラフ的に連結された入力インターフェースを使用することができる。
米国特許番号6,166,744(Jaszlicsら)は、仮想画像を現実世界の画像と組み合わせるためのシステムを開示している。範囲スキャナが、装置を使用して、観察者に関心のあるフィールド内の現実世界の物体の形状や距離を決定する。現実世界の物体の簡易化されたコンピュータモデルである仮想マスキング物体は、範囲データから得られる。現実世界に存在しない仮想の存在物は、電子コンピュータでシミュレーションされる。仮想の存在物の画像や仮想マスキング物体が組み合わされて、マスクされた仮想画像が作成される。マスクされた仮想画像は、現実世界に実際に存在する場合に、目に見えるであろう仮想的な存在物の部分を示す。マスクされた仮想画像や現実世界の場面の画像は、シミュレーションが適切な場合、現実世界の物体によって仮想の場所が不明瞭に見えるようにして、組み合わされる。組み合わせて得られる画像は、電子又は光学画面に表示される。
米国特許番号6,262,746(Collins)は、透明及び不透明なピクセルを有する画像の表示及び保存のためのシステムを開示しており、画像は、不透明なピクセルの値を表現するデータとして保存されて、保存された命令はいくつかのピクセルに対応して、データ構造が生まれる。画像は、2つのタイプの命令を実行することによって表示することができる。第1のタイプの命令は、目的の画像内のピクセルをスキップするコマンドを含む。第2のタイプの命令は、ソースデータから目的の画像にピクセルをコピーするコマンドを含む。
米国特許番号6,356,313(Championら)は、ディスプレイ上で動画ビデオ信号をアナログ信号に重ね合わせるためのシステムを開示している。本システムは、動画ビデオ信号を受信してアナログビデオフォオーマットを有する信号に処理するための動画ビデオ処理ユニットと、アナログ信号に同期された出力動画ビデオ信号を提供するように、アナログ信号を受信し、ビデオタイミングパラメータとアナログ信号の対応するオリジナルピクセルクロックを決定し、ビデオフォーマットアナライザ及びシンクロナイザーによって決定されたアナログ信号のビデオタイミングパラメータに一致するように、動画ビデオ信号のビデオタイミングパラメータを制御するためのビデオフォーマットアナライザ及びシンクロナイザーと、アナログ出力信号又はディスプレイ上の同期された出力動画ビデオ信号の表示を決定するための表示決定装置とを含む。
米国特許番号6,229,550(Gloudemansら)は、グラフィックを混合するためのシステムを開示しており、グラフィック及びビデオは、混合係数を使用してグラフィックやビデオ内の対応するピクセルの相対的透明度を制御することによって、混合される。
米国特許番号6,163,309(Weinert)は、ヘッドアップディスプレイ及び視覚システム、又は車両に関する景色の統合されたビデオ画像を作成するための車両画像化システムを開示している。
米国特許番号5,956,180(Bassら)は、観察者から第1の所定の距離で第1の2次元画面を第1の電子画面装置で表示するための第1の画面と、観察者から第2の所定の距離で第2の電子画面装置上で第2の2次元画像を表示するための第2の画面とを備える複数の画像画面を作成するための光学表示システムを開示している。各画面は、観察者から相対的に近距離及び遠距離の光学表示経路上の様々な所定の場所に配置される。第1の2次元画像は第2の画面から投影されて、複数の重なった画像を作成する。第1及び第2の電子表示装置は、複数の重なった画像の品質を低下することなく、非同期的に操作可能である。観察者に近い所定の場所での光学表示経路に配置された画面は部分的に透明である。
米国特許番号5,589,980(Bassら)は、シミュレーションされた3次元画像を作製するための光学表示システムを開示している。本システムは、第1の電子表示装置上に画像を表示するための電子機器を含む。少なくとも1つの第2の表示装置上に画像を表示するために、追加の電子機器が提供される。少なくとも1つの第2の電子表示装置は、実質的に透明な表示装置であるので、観察者は、第2の電子表示装置の透明領域を見通すことができる。第1と第2の電子表示装置は、第1の電子表示装置の画像表示が第2の電子表示装置を介して投影されるように、光学表示経路に沿った様々な所定の場所に配置される。第1の電子表示装置は、画像プロジェクタを含み、第2の電子表示装置は、そこから離れた制御可能なピクセル画面を含む。制御可能なピクセル画面は、明度を制御可能なピクセル要素のフィールドを有する正のピクセル表示パネルを備える。制御可能なピクセル画面は、制御可能なピクセル画面によって作成される画像が、画像プロジェクタによって作成される画像の上に重ねられるように、実質的に透明である。3次元場面をシミュレーションするための複数の画像を作製するために、少なくとも2つの画像レコーダチャネルを含む記録システムも開示されている。
米国特許番号5,982,452(Gregsonら)は、N個のビデオカメラからN個のビデオ信号を統合するためのアナログビデオ統合システム、より詳しくは、複数のビデオカメラの出力を得ることができて、単一のフレーム取り込み器カードだけを有するコンピュータにフィード可能な、統合ビデオ信号を形成することができるシステムを開示している。このシステムは、複数のビデオカメラを用いて目標を追跡するために使用され、N個のビデオカメラからN個のビデオ信号を統合するためのアナログビデオ統合装置で構成されている。本装置は、N個のビデオプロセッサを備え、N個のプロセッサのそれぞれが、1対1の対応でN個のビデオカメラに接続されていて、N個のビデオプロセッサのそれぞれは、N個のビデオカメラのうちの1つに関連付けられたビデオ信号を、動的な所定の閾値レベルと比較して、低レベルと高レベルを有するバイナリ出力信号を作成するが、関連付けられたビデオ信号が所定の閾値を下回る場合に高レベルが出力され、関連付けられたビデオ信号が所定の閾値を上回る場合に高レベルが出力される。N個のバイナリ結合器が提供され、それぞれは1対1の対応でN個のビデオプロセッサに接続される。それぞれの結合器は、低レベル及び高レベルを有する処理済みバイナリ信号を作成するが、低レベルは、関連付けられたビデオプロセッサから低レベルの出力がある場合に出力され、高レベルは、関連付けられたビデオプロセッサから高レベルがある場合に出力される。処理されたバイナリ信号の高レベルは、その特定のバイナリの結合器に対する固有のレベルで、このような固有の高レベルは、N個のビデオカメラに関連付けられたN個のバイナリ結合器から出力される。カメラNの処理済みバイナリ信号は、その他のカメラ信号に対して、2N-1の倍率で縮小拡大される。統合ビデオ信号を作成するために、N個のバイナリ結合器からのN個の処理済みバイナリ信号を加算するための加算ユニットが提供される。統合ビデオ信号を提供する方法も提供される。
米国特許番号5,519,450(Urbanusら)は、メインビデオ画像上にグラフィックスのサブディスプレイを重ね合わせるためのグラフィックスサブシステムを開示しており、字幕、画面上ディスプレイ及びビデオ画像に重ね合わされるその他のグラフィックス画像のためのグラフィックスディスプレイサブシステムを有する、SLMベースのデジタルディスプレイシステムを示す。グラフィックスディスプレイサブシステムは、グラフィックスデータを準備するグラフィックスプロセッサを有し、当該データは、ビデオデータ処理の後で、参照テーブルユニットの前にビデオデータ経路に挿入される。選択ロジックユニットは、制御信号をマルチプレクサに提供して、当該マルチプレクサは、参照テーブルユニットに入力するためのビデオデータとグラフィックスデータのどちらかを選択する。参照テーブルユニットは、ビデオデータを線形化又はグラフィックスデータパレット化する等によって、受信したデータのタイプに応じてマッピングを実施する。
米国特許番号4,262,302(Sexton)は、モノリシック構造のマイクロプロセッサ、多用途入力/出力サブシステム、マルチメディア機能を有するデジタルコンピュータシステムを開示している。メモリサブシステムには、パフォーマンスを低下させずにコストを最小にするために、動的RAM、Pチャネル、MOS ROM及びNチャネルMOS ROMのバランスのとれた組み合わせが含まれる。ビデオディスプレイサブシステムでは、モノリシックビデオディスプレイプロセッサが、合成ビデオの生成に加えて、全てのRAMアクセス機能を実行する。得られる合成ビデオ信号は、オーディオと外部のビデオ情報を含み得るが、ビデオモニタに直接適用し、又はテレビの受信機によって使用するためにRF変調することができる。
米国特許番号4,262,984(Ackleyら)は、モノリシック構造のマイクロプロセッサ、多用途入力/出力サブシステム、マルチメディアメモリサブシステム、及びオーディオ生成能を有するビデオディスプレイサブシステムを開示している。メモリサブシステムでは、動的RAM、PチャネルMOS ROM及びNチャネルMOS ROMがバランスよく組み合わされる。ビデオディスプレイサブシステムでは、モノリシックビデオ表示プロセッサが、合成ビデオの生成に加えて、全てのRAMアクセス機能を実行する。得られる合成ビデオ信号は、オーディオと外部のビデオ情報を含み、ビデオモニタに直接適用し、又はテレビの受信機によって使用するためにRF変調することができる。
米国特許番号5,579,028(Takeya)は、再生ビデオ信号をグラフィックスビデオ信号と混合するための装置を開示している。再生ビデオ信号は、記録媒体を再生することによって得られ、グラフィックスビデオ信号は、データ処理に基づいて得られる。画像データに基づいて再生されたビデオ選択信号は遅延するが、遅延時間は調整可能である。テスト用に画像データを発行することによって、遅延時間は、テスト用の画像がグラフィックスビデオ信号に変換されて発行される時間に、テスト用の画像データとに基づいて、ビデオ画像選択信号が生成される時間と一致するように、手動又は自動で調整される。
米国特許番号5,487,145(Marshら)は、固定された描画領域を最小にする、表示項目を合成するための方法及び装置を開示している。別の画像の上に浮動している画像が移動又は操作されて、奥にあるグラフィック画像のピクセルを見えるようにする場合、合成アーキテクチャは、別のグラフィック画像の下にあるグラフィック画像の一部に対応するデータのバッファリングを提供することよって、それぞれのグラフィック画像の重なり合っている不透明及び半透明な領域を正しく描画するために、急速なピクセル修復を提供する。グラフィック画像を表現するデータは、グラフィック画像の不透明度と奥行きの順序の決定に応答して、ペインタに選択的にルーティングされる。異なる長さの描画パイプラインを有する複数のペインタが提供されることが好ましい。ペインタは、合成される画像の数に応じて選択される。データバッファリングは、グラフィック画像の交差領域に応じて、バッファを動的に作成及び削除することによって最小にされる。
米国特許番号5,416,597(Nishiら)は、ビデオ表示ユニットの画面上にマルチカラーの動画パターンを表示するビデオ制御システムを開示している。ビデオ表示制御システムは、主にビデオRAM(VRAM)とビデオ表示プロセッサ(VDP)によって構築される。VRAMは、動画パターンデータ、表示位置データ及び少なくとも2つのカラーデータを記憶する。VDPは、これらのデータを読み取って、画面上の表示位置で動画パターン画像を少なくとも2色で表示させる。動画パターン画像、2つの色及び表示位置は、動画パターンデータ、2つのカラーデータ及び表示位置データによって決定される。別のビデオ表示制御システムでは、VRAMは、少なくとも2つのセットの動画パターンデータ、表示位置データ及びカラーデータを記憶する。2つの動画パターンを表示する場合、VDPは、2つのパターンの重なり合う位置に関して、2つのカラーデータ上で論理的演算を実施して、重なり合う部分を演算結果に対応する新しい色で表示させる。動画パターンが重なり合う場合、VDPは、論理演算の代わりに衝突信号を提供することもできるので、CPUは、重なり合う部分の位置を認識することができる。
米国特許番号5,892,541(Blossomら)は、複数の層になったグラフィックスプライトのディスプレイフレームを作成するためのシステム及び方法を開示しており、複数の表示フレームピクセルを備える表示フレームを表示するためのグラフィックスディスプレイ装置を含む。スプライト管理システムは、複数のグラフィックスプライトからディスプレイフレームを構成する。各グラフィックスプライトは、複数のピクセルと対応するスプライトピクセル値を含む。各スプライトは、特定された他のスプライトに対しての相対奥行きを有する。スプライトのうち1つは、ビデオスプライトであるように指定される。このスプライトは、彩度キー値が与えられる。スプライト管理システムは、ディスプレイフレーム合成バッファにアクセスするように接続されたデータ処理装置を含む。データ処理装置は、個別のスプライトのピクセル値をディスプレイフレーム合成バッファに書き込むようにプログラムされている。この書き込みは、最も奥にあるスプライトのピクセル値から開始して、スプライトの奥行きが浅くなる順番で残りのスプライトのピクセル値を書き込んで行く。次に、ディスプレイフレームデータは、彩度キー値を含むピクセル上にビデオ画像を重ね合わせるビデオオーバーレイボードに渡される。この結果、ディスプレイフレームには、ビデオスプライトを含む複数のグラフィックスプライトが、それぞれに指定された奥行きに応じて互いに層になって表示される。
米国特許番号6,362,850(Alsingら)は、表示画面を含むデジタル画像化装置で、静止画像から動画を対話形式で作成するための方法及びシステムを開示しており、カメラをパンして静止画像全体を撮影する経路を決定するステップと、パンする経路に沿って画像フレームを生成するステップと、そして動画を再生するために、表示画面上で所定の間隔で画像フレームを表示するステップとを含む。
米国特許番号5,404,437(Nguyen)及び欧州申請番号EP597616A1(Nguyen)は、コンピュータ表示画面上に表現するためのコンピュータグラフィックス情報と動画シーケンスを混合するための装置と方法を開示している。動画シーケンスは、標準の記憶媒体に圧縮形式で保存することができる。動画シーケンス生成機能は、圧縮された動画シーケンスを呼び出して、ピクセル情報に解凍して、コンピュータグラフィックスピクセル情報と同期させるために単一のラインストアに送信する。動画シーケンス及びコンピュータグラフィックス生成機能からのピクセルは混合されて、ウィンドウ化されて、デジタルミキサで重ねられる。デジタルミキサの出力は、コンピュータ表示モニタを動かすビデオのデジタル・アナログ変換器等の視覚表示システムに送信される。
米国特許番号2,711,667(Simjian)は、動画カメラ、テレビカメラ又は同様な装置の前でポーズをとる人に対するプロンプト装置を開示しており、視覚的プロンプト情報は、ポーズをとっている人に対して表示されるが、描画された情報はオーディオビジュアル記録装置等には表示されない。
様々な画像配置並びに登録方法及び装置が開示されている。しかしながら、どの方法及び装置も、前述の必要性を十分満たさない。
米国特許番号6,009,212(Millerら)は、距離測定を使用して、目印の集合体に基づいて第1の変換を演算することと、距離測定と第1の変換から第2の変換を計算することを要件とする画像登録のための装置及び方法を開示している。画像登録は、第2の変換を適用することによって達成される。
米国特許番号6,157,747(Szeliskiら)は、モザイク画像を作成するために複数の画像を配列する、画像モザイクを作成するための3次元画像回転の方法及び装置を開示している。
米国特許番号5,926,190(Turkowskiら)は、対話式コンピュータアプリケーションで動作をシミュレーションするためのシステム及び方法を開示しており、特定の視点から画面の表示を描画するために、場面の画像が使用される。本方法とシステムは、第1の画像と第2の画像を描画するステップを含み、第1と第2両方の画像の共通特徴を重ねる変換を使用する。2つの画像が登録された後、第1の補間変換を第1の画像に適用して、第2の補間変換を第2の画像に適用することによって、少なくとも1つの中間画像が生成される。次に、場面で動作をシミュレーションするために、第1の画像、中間画像及び第2の画像が連続して描画される。
米国特許番号6,314,197(Jainら)は、特に指紋画像で、それぞれの画像から抽出された点である1組の対応する点に関連付けられたセグメントの属性に基づいて、場面の2つの画像の間で配置パラメータ(回転角や変換ベクトル)を決定するためのシステム及び方法を開示している。
米国特許番号6,349,153(Teo)は、重なり合うピクセル領域で重なり合っている2つのデジタル画像を合成するための方法及びシステムを開示しており、少なくとも1つの修正されたデジタル画像を含む最終デジタル画像を作成するように、デジタル画像のうちの少なくとも1つのデジタル画像のピクセルカラー値を調整するステップと、ピクセルカラー値の加重平均を計算することによって、重なり合っているピクセル領域で結果として得たデジタル画像を組み合わせるステップとを含む。また、重なり合うピクセル領域で重なり合っている2つのデジタル画像の境界をぼかすための方法も説明されていて、およそ重なり合うピクセル領域に登録するようにデジタル画像を配置するステップと、3つの曲線であって、そのうちの1つは最も左の曲線で、もう1つは中間の曲線で、もう1つは最も右の曲線で、そのうちの少なくとも1つは垂直線ではなく、曲線は、重なり合うピクセル領域の上から下に伸びて重なり合うピクセル領域内にあり、中間の曲線は最も左と最も右の曲線の間にある3つの曲線を決定するステップと、使用される加重は、最も左の曲線の左に対して画像Aの50%を超える値で画像Bの50%未満の値で、中間の曲線に沿って画像Aの50%で画像Bの50%で、最も右の曲線の右に対して画像Aの50%未満の値で画像Bの50%を超える値であるようにピクセルカラー値の加重平均を計算することによって、デジタル画像を組み合わせるステップとを含む。本方法を実行するためのシステムも説明される。
米国特許番号6,205,364(Lichtensteinら)は、(a)加工対象者物上の少なくとも2つの重要な参照点の基準場所を加工対象者物の座標として決定する、(b)加工対象者物を処理機械にロードする、(c)組み込まれたら、処理機械の座標として、加工対象者物上の参照点の実際の場所を検出し、測定する、(d)参照点の基準場所の加工対象者物の座標を参照点の実際の場所の処理機械座標に変換するために必要とされる少なくとも1つの幾何学的変換を決定する、(e)決定された幾何学的変換に応じて処理機械を制御する、ことによって、加工対象者物上で処理操作を実施する処理機械を制御するための方法及び装置を開示している。
米国特許番号6,362,797(Dehmlow)は、表示操作中に位置がずれてしまう、タイル張りの投影表示装置の部分を位置合わせするための装置及び方法を開示しており、表示セクションのうちの1つの投影経路に少なくとも1つの2次元の電子機械的にジンバルされたガラス板を補間するステップと、タイルの位置のずれを検出してそれに応答して配置を自動的に調整するステップとを含み、さらに、表示が使用される航空機の操作特徴に基づいて、タイルの位置合わせをするための装置とステップを有する。
米国特許番号5,835,194と5,959,718(Morton)は、それぞれ、一体化した画像の位置合わせと、印刷をするための装置及び方法を開示している。
前述の理由のために、ユーザが、ニュースキャスターなどのトーキングヘッドのフォトリアリスティックな動画画像を迅速、容易、かつ簡単に生成することができる、自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法に対する必要性が存在する。自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法は、個人の個性を伝え、会話の重要点を強調するとともに、感情的内容を追加するために必要なフォトリアリスティックな品質を有する画像を生み出し、動画化されたフォトリアリスティックな画像を明瞭かつ明確に表示するとともに、口合わせも高品質で、ほとんどの現在のネットワーク及び/又はインターネット上で一般的に利用可能な帯域幅よりも少ない帯域幅しか必要としないものでなくてはならない。
自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法は、実際の人間の輪郭を捉えて、様々な角度位置のフォトリアリスティックなトーキングヘッドのライブラリを作成することができなければならない。そうすれば、フォトリアリスティックなトーキングヘッドのライブラリは、例えば、個人の個性を伝え、会話の重要点を強調するとともに感情的内容を追加することが必要な、フォトリアリスティックな品質を有するニュースキャスターやその他のトーキングヘッド等の動画化された動作を作成するために使用することができる。動画化されたフォトリアリスティックな画像は、動画化されたトーキングヘッドを明瞭かつ明確に表示するとともに、口合わせも高品質で、ほとんどの現在のネットワーク及び/又はインターネット上で一般的に利用可能な帯域幅よりも少ない帯域幅しか必要としないものでなくてはならない。
フォトリアリスティックなトーキングヘッドのライブラリは、通常のコンピュータ操作技術を有する個人によって迅速、容易、かつ効果的に作成することが可能であり、様々な角度位置にある実際の人間の画像の混合及び配置合わせのためのテンプレートとして用いられるガイドを使用して、作成時間を最小限にするものでなくてはならない。
様々なガイドライブラリのライブラリが提供され、それぞれのガイドライブラリは、その中に様々なガイドを有し、それぞれのガイドは異なる角度位置に対応しなくてはならない。それぞれのガイドライブラリは、互いに異なる顔の特徴を有し、それによってユーザは、様々なガイドライブラリからなるライブラリから、ユーザの顔の特徴及び特性に近い顔の特徴及び特性を持つガイドライブラリを選択するものでなければならない。
トーキングヘッドは、ニュース報道に関連してニュースキャスターの形式で使用されることができ、多数及び多様な用途での使用のために、トーキングヘッドの動画画像の使用は、フォトリアリスティックな品質を持つとともに擬人化された外観を生み出すことができなければならない。
自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法は、任意選択により、実際の人間を撮影したデジタルビデオテープの映像から、コンピュータベースの二次元画像のライブラリを作成することもできなければならない。ユーザは、規則的な頭部の動きについてテンプレートを提供するために、パーソナルコンピュータソフトウェアを用いて混合され、コンピュータモニタ又はその他の適当な装置に表示される3D描画ガイド画像又はテンプレートのライブラリを操作することができなければならない。対象者又はニュースキャスターは、正しい姿勢配置を維持すると同時に、一連の顔の表情、まばたき、眉毛の動きを完成させ、目標の音素又は口の形を含んだ語句を話すためにガイドを使用することができなければならない。この行動は、任意選択により、高解像度デジタルビデオテープ上に連続して記録することができなければならない。ユーザは、任意選択により、各コマが対象者の参照ソースビデオフレームに相当する異なる頭部の位置の配置、顔の表情及び口の形状を含む選択された個別のビデオフレームを使用し、画像編集ソフトウェアによって、トーキングヘッドのライブラリを組み立てることができなければならない。自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法によって生成される出力は、実際のビデオを使用する代わりに、パーソナルコンピュータ、PDA又は携帯電話上の多様な用途及び表示に使用することができなければならない。自分でできるフォトリアリスティックなトーキングヘッドの作成システムは、任意選択により、スクリプトコマンドからトーキングヘッドの表示を作成することもできなければならない。
自分でできるフォトリアリスティックなトーキングヘッドの作成システム及び方法は、携帯端末及び携帯無線端末で使用することができなければならない。これらの携帯端末及び携帯無線端末には、デジタル通信端末、電子手帳、携帯電話、ノート型コンピュータ、ビデオ電話、ビデオカメラ及びビデオ画面付きデジタル通信端末、並びにその他適当な装置が含まれる。
携帯端末及び携帯無線端末は、携帯用小型端末でなければならず、携帯無線端末は、無線で信号を送受信できなければならない。
対象者は、ビデオカメラ等の装置で自分自身の画像を捉え、装置のビデオディスプレイ上で捉えた画像の生ビデオを表示することができなければならない。
対象者のガイド画像は、自分でできるフォトリアリスティックなトーキングヘッド作成システムの携帯端末及び/又は携帯無線端末のディスプレイ上で、重ね合わせることができなければならない。
このような端末のそれぞれのディスプレイは、対象者の収集画像と選択された配置テンプレートとの合成画像を表示することができなければならない。ディスプレイ及びビデオカメラによって、ビデオカメラは対象者の画像を収集し、対象者は合成画像を見て、自分の頭部の画像を指定の配置テンプレートの頭部の角度と実質的に同じ角度で配置テンプレートの頭部に合わせて配置することができることが必要である。
このような携帯端末及び/又は携帯無線端末は、有線又は無線接続を経由してパーソナルコンピュータに、及び/又はリアルタイムビデオストリーミング及び/又は適当な信号の送信をサポートする十分な帯域幅のネットワークを経由してリモートサーバに接続することができなければならない。一般的なネットワークは、携帯電話ネットワークや、インターネット、グローバルネットワーク、広域ネットワーク、都市圏ネットワーク又はローカルエリアネットワーク等の分散ネットワーク、及びその他適当なネットワークを含む。
2人以上のユーザは、いかなる時であってもリモートサーバに接続することができなければならない。記録されたビデオストリーム及び/又は静止画像は、処理してフォトリアリスティックなトーキングヘッドのライブラリを作成するために、コンピュータ及び/又はサーバに送信されなければならない。又は任意選択により、処理は、端末自体で実行することができなければならない。
ソフトウェアアプリケーション及び/又はハードウェアは、このような装置、コンピュータ及び/又はリモートサーバ内に存在することができ、対象者の収集画像と配置テンプレートとの合成信号を分析して、ガイド画像に対する配置の正確性を決定しなければならない。
自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法は、合成によって生成された音声、実際に記録された人間の音声、又は生の人間の技術者によって作成され、リアルタイムで対象者に通信される音声プロンプトを使用して、そして代わりに及び/又は追加でビデオプロンプトを使用して、配置プロセス中にユーザをリアルタイムで支援することができなければならない。そこで、対象者は、プロンプトの情報に従って、自分の頭部の位置を調整することができ、適切に配置すると、キャプチャープロセスの会話部分を開始することができる。音声及び/又はビデオプロンプトは、シーケンスを繰り返す場合、キャプチャー及び/又は配置プロセス中に正しい配置が失われる場合、及び/又はセッションを開始及び/又は停止する場合等、その他のタスクでも対象者を支援するために使用することができる。
本発明は、ユーザが、ニュースキャスターなどのトーキングヘッドのフォトリアリスティックな動画画像を迅速、容易、かつ簡単に生成できるようにする、自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法に関する。自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法は、個人の個性を伝え、会話の重要点を強調するとともに感情的内容を追加するために必要なフォトリアリスティックな品質を有する画像を生み出し、動画化されたフォトリアリスティックな画像を明瞭かつ明確に表示するとともに、口合わせも高品質で、ほとんどの現在のネットワーク及び/又はインターネット上で一般的に利用可能な帯域幅よりも少ない帯域幅しか必要としない。
自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法は、実際の人間の輪郭を捉えて、様々な角度位置のフォトリアリスティックなトーキングヘッドのライブラリを作成することができる。そこで、フォトリアリスティックなトーキングヘッドのライブラリは、例えば、個人の個性を伝え、会話の重要点を強調するとともに感情的内容を追加するために必要な、フォトリアリスティックな品質を有するニュースキャスターやその他のトーキングヘッド等の動画化された動作を作成するために使用することができる。動画化されたフォトリアリスティックな画像は、動画化されたトーキングヘッドを明瞭かつ明確に表示するとともに、口合わせも高品質で、ほとんどの現在のネットワーク及び/又はインターネット上で一般的に利用可能な帯域幅よりも少ない帯域幅しか必要としない。
フォトリアリスティックなトーキングヘッドのライブラリは、通常のコンピュータ操作技術を有する個人によって迅速、容易、かつ効果的に作成することが可能であり、様々な角度位置にある実際の人間の画像の混合及び配置合わせのためのテンプレートとして用いられるガイドを使用して、作成時間を最小限にすることができる。
様々なガイドライブラリのライブラリが提供され、それぞれのガイドライブラリは、その中に様々なガイドを有し、それぞれのガイドは異なる角度位置に対応する。それぞれのガイドライブラリは、互いに異なる顔の特徴を有し、それによってユーザは、様々なガイドライブラリからなるライブラリから、ユーザの顔の特徴及び特性に近い顔の特徴及び特性を持つガイドライブラリを選択することができる。
トーキングヘッドは、ニュース報道に関連してニュースキャスターの形式で使用されることができ、多数及び多様な用途での使用のために、トーキングヘッドの動画画像の使用は、フォトリアリスティックな品質を持つとともに個人化された外観を生み出すことができる。
本発明の自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法は、対象者が自分自身の頭部画像を見ることができ、それにより自分の頭部画像をガイドに合わせて配置することができ、対象者の頭部とガイド又はテンプレートとを混合又は組み合わせることを可能にする。
正しく配置できたら、対象者の頭部の画像は保存される。様々な頭部の傾き、回転及びうなずきの位置に対してプロセスが繰り返され、このようにして、フォトリアリスティックなトーキングヘッドのライブラリが作成されて保存される。さらに、対象者は、選択された音を発音して、選択された目の動きを行う。つまり、頭部位置のそれぞれで目を閉じたり開けたりして、口と目の形状が変化することになり、顔の表情が変化して、対象者の口と目のトリミングされた画像が、選択された発音と目の動きとのそれぞれに対して追加で保存される。
ガイドは画像であり、対象者の頭部が複数の位置になるように対象者を支援するための参照ガイド又はテンプレートとして使用される。ガイドと対象者の頭部の画像は、対象者が自分の頭部の画像を見て自分の頭部画像とガイドの位置合わせができるように、混合又は組み合わされる。正しく配置できたら、対象者の頭部の画像は保存される。さらに、対象者は、選択された音を話して、選択された目の動きを行う。つまり、頭部位置のそれぞれで、目を閉じたり開けたりして口と目の形状が変化することになり、顔の表情が変化して、対象者の口と目のトリミングされた画像が、選択された発音と目の動きとのそれぞれに対して追加で保存される。様々な頭部の傾き、回転及びうなずきの位置に対してプロセスが繰り返され、それによってフォトリアリスティックなトーキングヘッドのライブラリが作成されて保存される。フォトリアリスティックな頭部のライブラリは、インターネットベースの用途用に、非常に詳細なトーキングヘッドのニュースキャスターを作成するために使用することができる。画像の混合と配置手段は、対象者の頭部をガイドに合わせて配置する際に対象者を支援する。
自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法は、実際の人間を撮影したデジタルビデオテープの映像から、コンピュータベースの二次元画像のライブラリを作成することができる。選択された個別のビデオフレームを使用し、画像編集ソフトウェアによって組み立てられ、それにより作成されたトーキングヘッドのライブラリは、数々の個別の頭部位置、顔の表情及び口の形状を含み、同じ対象者の参照ソースビデオフレームとフレーム毎に比較される。自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法で生成された出力は、ニュース放送の実際のビデオの代わりに使用することが可能で、パーソナルコンピュータ、PDA又は携帯電話に一連のスクリプトコマンドからトーキングヘッドのニュース放送を作成することを命令することができる。
本発明の自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法は、組み込み型ウェブコンテンツ、動画化された電子メール、インターネットのメッセージングサービス、PDA、携帯電話及びその他の無線通信端末での使用に最適な、個人の写真のトーキングヘッドライブラリを保存及び作成することができる。自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法によって、ユーザは、デジタルビデオカメラ又はコンピュータベースのビデオカメラからの保存ソフトウェア及び入力を使用して、フォトリアリスティックなトーキングヘッドのライブラリを作成することができる。自動画像編集ソフトウェアは、フォトリアリスティックなトーキングヘッドのライブラリに含まれる物に関して、ユーザが目標のフレームを識別してトリミングすることを支援するために、使用することができる。
自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法は、任意選択により、生のニュースキャスターを撮影したデジタルビデオテープの映像から、コンピュータベースの二次元画像のライブラリを作成するために使用することもできる。ユーザは、規則的な頭部の動きについてテンプレートを提供するために、パーソナルコンピュータソフトウェアを用いて混合され、コンピュータモニタ又はその他の適当な機器に表示される3D描画ガイド画像又はテンプレートのライブラリを操作することができる。対象者又はニュースキャスターは、正しい姿勢配置を維持すると同時に、一連の顔の表情、まばたき、眉毛の動きを完成させ、目標の音素又は口の形を含んだ語句を話すためにガイドを使用することができる。この行動は、任意選択により、高解像度デジタルビデオテープ上に連続して記録することができる。ユーザは、任意選択により、各コマが対象者の参照ソースビデオフレームに相当する異なる頭部の位置の配置、顔の表情及び口の形状を含む選択された個別のビデオフレームを使用し、画像編集ソフトウェアによって、トーキングヘッドのライブラリを組み立てることができる。自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法によって生成される出力は、ニュース放送に関する実際のビデオの代わりに、及び/又はパーソナルコンピュータ、PDA又は携帯電話に関する教育の支援として、使用することができる。自分でできるフォトリアリスティックなトーキングヘッドの作成システムは、任意選択により、スクリプトコマンドからトーキングヘッドのニュース放送を作成することもできる。
自分でできるフォトリアリスティックなトーキングヘッドの作成システム及び方法は、携帯端末及び携帯無線端末で使用することができる。これらの携帯端末及び携帯無線端末には、デジタル通信端末、電子手帳、携帯電話、ノートブック型コンピュータ、ビデオ電話及びその他適当な機器が含まれる。
携帯端末及び携帯無線端末は、携帯用小型端末であり、携帯無線端末は、無線で信号を送受信できる。
これらの携帯端末及び携帯無線端末は、デジタル通信端末を含み、ビデオカメラやビデオディスプレイを有することが多い。
対象者は、例えば、ビデオカメラ等の機器で自分自身を捉え、機器のビデオディスプレイ上で捉えられた画像の生ビデオを見ることができる。
対象者のガイド画像は、自分でできるフォトリアリスティックなトーキングヘッド作成システムの携帯端末及び/又は携帯無線端末のディスプレイ上で、重ね合わせることができる。
このような機器のそれぞれのディスプレイは、対象者の収集画像と選択された配置テンプレートとの合成画像を表示することができる。ディスプレイ及びビデオカメラによって、ビデオカメラは対象者の画像を収集し、対象者は合成画像を見て、自分の頭部の画像を指定の配置テンプレートの頭部の角度と実質的に同じ角度で配置テンプレートの頭部に合わせて配置することができる。
このような携帯端末及び/又は携帯無線端末は、例えば、有線又は無線接続を経由してパーソナルコンピュータに、及び/又はリアルタイムビデオストリーミング及び/又は適当な信号の送信をサポートする十分な帯域幅のネットワークを経由してリモートサーバに接続することができる。一般的なネットワークは、携帯電話ネットワーク、無線ネットワーク、無線デジタルネットワークや、インターネット、グローバルネットワーク、広域ネットワーク、都市圏ネットワーク又はローカルエリアネットワーク等の分散ネットワーク、及びその他適当なネットワークを含む。
2人以上のユーザは、いかなる時であってもリモートサーバに接続することができる。記録されたビデオストリーム及び/又は静止画像は、処理してフォトリアリスティックなトーキングヘッドのライブラリを作成するために、コンピュータ及び/又はサーバに送信されることができる。又は任意選択により、処理は、端末自体で実行することができる。
ソフトウェアアプリケーション及び/又はハードウェアは、このような端末、コンピュータ及び/又はリモートサーバ内に存在することができ、対象者の収集画像と配置テンプレートとの合成信号を分析して、ガイド画像に対する配置の正確性を決定する。
音声プロンプトは、合成によって生成された音声、実際に記録された人間の音声、又は生の人間の技術者によって作成され、リアルタイムで対象者と通信して、配置プロセス中にユーザをリアルタイムで支援することができる。代わりに、及び/又は追加で、ビデオプロンプトを使用することができる。そこで、対象者は、プロンプトの情報に従って、自分の頭部の位置を調整することができ、適切に配置すると、キャプチャープロセスの会話部分を開始することができる。音声及び/又はビデオプロンプトは、シーケンスを繰り返す場合、キャプチャー及び/又は配置プロセス中に正しい配置が失われる場合、及び/又はセッションを開始及び/又は停止する場合等、その他のタスクでも対象者を支援するために使用することができる。
本発明の特徴を有するフォトリアリスティックな人間のトーキングヘッドを作成するための装置は、携帯用機器とネットワークとサーバとを備え、ネットワークと携帯用機器とは互いに通信し、ネットワークとサーバとは互いに通信する。
本装置は、配置テンプレートのライブラリを有し、サーバが配置テンプレートのライブラリを備え、配置テンプレートは、それぞれ互いに異なるとともに、配置テンプレートの頭部の傾き、配置テンプレートの頭部のうなずき及び配置テンプレートの頭部の回転構成要素を備える配置テンプレートの頭部の角度位置を有するフォトリアリスティックな人間のトーキングヘッドの配置テンプレートのフレームを表現する。配置テンプレートのフレームは、それぞれ互いに異なり、配置テンプレートの頭部の角度位置は、それぞれ互いに異なる。
本装置は、コントローラを有し、サーバがコントローラを備え、コントローラは、特定の配置テンプレートの頭部の角度位置に対応して、配置テンプレートのライブラリから配置テンプレートを選択し、配置テンプレートを表現する画像出力信号を有する。
本装置は、ビデオカメラを有し、携帯用機器はビデオカメラを備え、ビデオカメラは、対象者の頭部の傾き、対象者の頭部のうなずき及び対象者の頭部の回転構成要素を備えた頭部の角度位置を有する対象者の画像を収集する。ビデオカメラは、対象者の収集画像を表現する出力信号を有する。携帯用機器は、対象者の収集画像を表現するビデオカメラの前記出力信号を、ネットワークを経由して、サーバに送信する。
本装置は、サーバを有し、サーバは、対象者の収集画像を表現するビデオカメラの出力信号を受信する入力を有し、サーバはミキサを有し、選択された配置テンプレートの画像の出力信号をコントローラから受信し、選択された配置テンプレートの画像の出力信号と、受信した対象者の収集画像の出力信号とをミキサに送信する。ミキサは、選択された配置テンプレートの画像の出力信号と、送信された対象者の収集画像の出力信号とを受信し、一方を他方と混合して対象者の収集画像と選択された配置テンプレートとの合成画像を表現する出力信号にし、対象者の収集画像と選択された配置テンプレートとの合成画像の信号をサーバに送信する。サーバは、ミキサから受信した対象者の収集画像と選択された配置テンプレートとの合成画像を表現する出力信号を有し、サーバは、対象者の収集画像と選択された配置テンプレートとの合成画像を表現する出力信号を、ネットワーク経由で携帯用機器に送信する。
本装置はディスプレイを有し、携帯用機器がディスプレイを備え、ディスプレイは、対象者の収集画像と選択された配置テンプレートとの合成画像を表現する出力信号を受信する入力を有する。ディスプレイ及びビデオカメラは、ビデオカメラで対象者の画像を収集して、対象者が合成画像を見えるようにして、対象者が、対象者の頭部の画像を、特定の配置テンプレートの頭部の角度位置と実質的に同じ角度位置で、配置テンプレートの頭部に合わせて配置できるようにされている。
本装置は、様々な対象者の頭部の角度位置で対象者の頭部を含む対象者の収集画像のライブラリを保存する保存手段を有し、サーバがこの保存手段を備え、サーバは受信した対象者の収集画像信号を保存手段に送信する。保存手段は、対象者の収集画像の出力信号を受信して、対象者の保存画像として保存し、対象者が配置テンプレートの頭部と実質的に合わせて配置された対象者の頭部を有する場合、対象者の保存画像は、特定の配置テンプレートの頭部の角度位置と実質的に同じ対象者の頭部の角度位置を有する。保存された収集画像のライブラリの画像は、それぞれ互いに異なり、保存された収集画像の対象者の頭部の角度位置は、それぞれは互いに異なる。
保存された収集画像のライブラリの画像の対象者の頭部の角度位置のそれぞれは、配置テンプレートのライブラリの中の選択された配置テンプレートの頭部の角度位置と対応し、実質的に同一であって、かつ合わせて配置される。
保存された収集画像のそれぞれは、フォトリアリスティックな人間のトーキングヘッドの異なるフレームを表現する。
本発明の特徴を有するフォトリアリスティックな人間のトーキングヘッドを作成する方法は、
配置テンプレートのライブラリから配置テンプレートを選択するステップと、ここで配置テンプレートは、それぞれ互いに異なるとともに、配置テンプレートの頭部の傾き、配置テンプレートの頭部のうなずき及び配置テンプレートの頭部の回転構成要素を備えるテンプレートの頭部の角度位置を有するフォトリアリスティックな人間のトーキングヘッドの配置テンプレートのフレームを表現し、配置テンプレートのフレームはそれぞれ互いに異なり、配置テンプレートの頭部の角度位置はそれぞれ互いに異なり、
対象者の画像をビデオカメラで収集するステップと、
対象者の収集画像を、ミキサを備えるコンピュータに送信するステップと、
対象者の収集画像を、ミキサにおいて選択された配置テンプレートと混合し、対象者の収集画像と選択された配置テンプレートとの合成画像を作成するステップと、
合成画像を、対象者に表示するために、対象者が、対象者の頭部の画像を選択された配置テンプレートの画像に合わせて配置することを補助するようにされているディスプレイに送信するステップと、
対象者の頭部の傾き、対象者の頭部のうなずき及び対象者の頭部の回転構成要素を備える対象者の頭部の角度位置を有する対象者の頭部の角度位置を、選択された配置テンプレートの頭部の角度位置と実質的に同じ角度位置で、選択された配置テンプレートの頭部の画像に実質的に合わせて配置するステップと、
実質的に配置が合わされた対象者の画像を収集して、収集画像のライブラリに保存するステップとを含み、ここで保存された収集画像のそれぞれは、異なる対象者の角度位置を有し、選択された配置テンプレートの頭部の角度位置と実質的に同じで、保存された画像のそれぞれは、フォトリアリスティックな人間のトーキングヘッドの異なるフレームを表現する。
本発明のこれらの及びその他の特徴、態様及び利点は、以下の説明、請求項及び図面を参照することで、理解が深まる。
本発明の好ましい実施形態は、図面の図1〜図41を参照して説明される。それぞれの図における同一の要素は、同じ参照番号で特定される。
図1は、本発明の自分でできるフォトリアリスティックなトーキングヘッド作成システム10の実施形態を示し、図2に示されるフォトリアリスティックなトーキングヘッドのライブラリ12を作成するために使用される。自分でできるフォトリアリスティックなトーキングヘッド作成システム10は、パーソナルコンピュータ13を有する。パーソナルコンピュータ13は、ソフトウェアミキサ14、図3に示されているガイド20、ビデオカメラ28から図4に示されている対象者26の画像信号出力24を受信するための入力22及び混合された信号出力30を有する。混合された信号出力30は、ガイド20と対象者26の合成出力画像38を有する。パーソナルコンピュータ13は、対象者26の受信された画像信号出力24をコンピュータ読取可能フォーマットに変換して、対象者26のコンピュータ読取可能画像信号をソフトウェアミキサ14に送信する。ソフトウェアミキサ14は、対象者26とガイド20の合成画像を作成する。自分でできるフォトリアリスティックなトーキングヘッド作成システム10は、図5に示されているパーソナルコンピュータ13からのガイド20に合わせて配置された対象者26の合成画像である合成出力画像38を表示するためのモニタ39を有する。パーソナルコンピュータ13は、図2に示されているフォトリアリスティックなトーキングヘッドのライブラリ12を作成するために、ビデオカメラ28で撮影される図2で示される選択された画像42の画像を保存するための記憶装置40を有する。しかし、記憶装置40は、代わりに、パーソナルコンピュータ13の外部でも良く、及び/又は内部及び/又は外部の記憶装置で補完することができる。モニタ39は、パーソナルコンピュータ13から混合された信号出力30を受信するための入力43を有する。
ガイド20は、合成出力画像38において対象者26と配置を合わせるためのテンプレートとして使用される。対象者26の配置をガイド20に合わせたら、画像42は記憶装置40に保存される。図6A〜図6Cは、対象者26とガイド20との位置合わせの様々な段階での合成出力画像38を示す。図6Aは、ガイド20から水平方向にずらした対象者26を示す。図6Bは、ガイド20から垂直方向にずらした対象者26を示す。図6Cは、より近づけて配置された対象者26とガイド20を示す。図5は、ガイド20に配置を合わせた対象者26を示す。
フォトリアリスティックなトーキングヘッドのライブラリ12は、それぞれ、図10と11の座標系及び任意選択の命名規則に従って、様々な角度位置44での選択された画像42、及び図2に示された角度位置44のそれぞれでの様々な目の特徴46と様々な口の特徴48の画像から構成される。図7は、図2の特定の角度位置で選択された画像42の拡大図、及び特定の角度位置で選択された画像42の様々な目の特徴46の図及び様々な口の特徴48の図を示す。図8は、図7の特定の角度位置で選択された画像42の一般的な画像と、図7の特定の角度位置で目を閉じ及び目を大きく開いた対象者26によって取得された様々な目の特徴46の一般的な画像と、選択された音を話している対象者26によって取得された、図7の特定の角度位置での様々な口の特徴48の一般的な画像を示す。対象者26が、特定の角度位置で自分自身をガイド20に合わせると、対象者26は目を開閉し、選択された音素を含む一連の文を話す。また、対象者26は、任意選択により、笑い顔及び/又はしかめ面等、追加の顔のジェスチャーを実施することもできる。図9は、図7の特定の角度位置で目を閉じたり、大きく開いたりした対象者26によって取得された様々な目の特徴、及び図7の特定の角度位置での様々な口の特徴48の一般的なものを取得するための、対象者26の一般的な目の領域50と一般的な口の領域52それぞれを示す。
図10は、対象者26、ガイド20、選択された画像42並びにフォトリアリスティックなトーキングヘッドライブラリ12の選択された画像42に関連付けられた様々な目の特徴46及び様々な口の特徴48の様々な角度位置44に対しての、傾き56、回転58及びうなずき60のベクトルを有する座標系54を示す。傾き56、回転58及びうなずき60のベクトルはそれぞれ、中心62からの方向及び角度位置を指定し、図10に一般的な角度や方向が示されるが、その他の適当な角度や方向を使用することができる。回転58ベクトルは、その角度構成要素として方位角位置(左右)を使用し、うなずき60ベクトルは、その角度構成要素として高度角度位置(上下)を使用する。傾き56ベクトルは、うなずき60ベクトルのいずれかの側において角度方向が左上又は右上に向いている。
図11は、対象者26の傾き56、回転58及びうなずき60ベクトル、ガイド20、選択された画像42、並びにフォトリアリスティックなトーキングヘッドのライブラリ12の選択された画像42に関連付けられた様々な目の特徴46及び様々な口の特徴48に関連付けられた任意選択の命名規則64を示す。他の適当な任意選択の命名規則、又は実際のベクトル方向及び角度を使用することもできる。任意選択の命名規則64は、それぞれの指定方向と角度に対して、マイナス方向からプラス方向へ、傾き56ベクトルが01から単調に上昇増加する連続番号スキームを使用する。したがって、傾き56の一般的な角度である−2.5°、0°及び+2.5°に対しては、任意選択の命名規則64は、それぞれ、−2.5°、0°、及び+2.5°の一般的な角度を指定するために01、02及び03を使用する。任意選択の命名規則64は、それぞれの指定方向と角度に対して、マイナス方向からプラス方向へ、回転58及びうなずき60ベクトルが00から単調に上昇増加する連続番号スキームを使用する。したがって、回転58とうなずき60の一般的な角度の−10°、−5°、0°、+5°及び+10°に対しては、任意選択の命名規則64は、それぞれ、−10°、−5°、0°、+5°、及び+10°を指定するために00、01、02及び03を使用する。傾き56の−2.5°、0°、及び+2.5°の一般的な角度以外の適当な角度、及び/又は回転58及びうなずき60の−10°、−5°、0°、+5°及び+10°の一般的な角度以外の適当な角度を使用することができる。しかしながら、他の方向及びマイナスの角度から0°を通りプラスの角度までの角度に対して、傾き56に対しては01、回転58及びうなずき60に対しては00から開始する単調に増加する連続番号スキームをやはり使用することができる。名前66は、任意選択のラベル又は識別子として、頭部、口及び目を使用する。選択された画像42、対象者26又はガイド20に対しては頭部を、目の特徴46に対しては目を、口の特徴48に対しては口を使用する。したがって、例えば頭部020301は、図10に示された一般的角度に対して、傾き56、回転58及びうなずき60をそれぞれ0°、+5°、−5°として有する選択された画像42を表す。
図12は、図10の座標系54及び図11の任意選択の命名規則64に従って示される、様々な角度位置70でのガイド20を有するガイドライブラリ68を示す。図12のガイド20のそれぞれは、ガイドライブラリ68の中のガイド20それぞれの角度位置70に対応する角度位置44で選択された画像42を作成し、ガイドライブラリ68の中のガイド20それぞれの角度位置70に対応する角度位置44で様々な目の特徴46及び様々な口の特徴48を作成するために使用される。したがって、対象者26は、選択された画像42のそれぞれを作成するために、自分自身を角度位置70のうちの異なる位置でのそれぞれの合成出力画像38内のガイド20に合わせて配置し、配置を合わせた選択された画像42のそれぞれの特定の角度位置で様々な目の特徴46のそれぞれを作成するために、目を開いたり閉じたりし、角度位置70のそれぞれに対応して配置を合わせた選択された画像42のそれぞれの特定の角度位置で様々な口の特徴48のそれぞれを作成するために、繰り返して口を動かすことによって、図2のフォトリアリスティックなトーキングヘッドライブラリ12が作成される。
図13A〜図13Cは、ガイド20の作成における一般的な段階を模式的に表す。しかし、ガイド20を作成するために、その他の適当な技術を使用することができることに注意すべきである。ガイド20のそれぞれは、一般的に、中程度の解像度でモデル化された頭部で、異なる角度位置での望ましいトーキングヘッド、好ましいニュースキャスター又は汎用のトーキングヘッド若しくはニュースキャスターである。一般的なガイド20は図13Cに示されているが、ガイド20のそれぞれは、様々な角度位置のうちの選択された位置に対象者26の配置を合わせるためのテンプレートとして使用される。ガイド20のそれぞれは、レーザースキャン、芸術的なモデリング、又はその他適当な技術等の適当な技術を使用して作成することができ、一般的にはガイド20は、約5000ポリゴンを有する3Dモデル頭部である。ガイド20を作成するには、3Dモデリングソフトウェア又はその他適当なソフトウェア等のモデリングソフトウェアを使用することができる。ガイドを作成するために販売されている一般的な市販の3Dモデリングソフトウェアパッケージは、3D Studio Max、Lightwave、Maya及びSoftImageがあるが、その他の適当なモデリングソフトウェアを使用することができる。まず、図13Aに示されているように、基礎のワイヤメッシュモデル72が作成される。フォンシェーディングは、一般的にワイヤメッシュモデル72に追加されて、図13Bに示されているように、立体的な外観を有するシェードモデル74を作成する。次に、立体的な外観を有するシェードモデル74は、一般的に、望ましいトーキングヘッド、好ましいニュースキャスター、又は汎用のトーキングヘッド若しくはニュースキャスターの写真とフォトマッピングされて、図13Cのガイド20が作成される。これは、望ましいトーキングヘッド、好ましいニュースキャスター、又は汎用のトーキングヘッド若しくはニュースキャスターに似ている。ガイド20は、フォトリアリスティックなトーキングヘッドのライブラリ12の選択された画像42の望ましいトーキングヘッドのライブラリのポーズに対応する、左右、上下及び横回転の配列によって、特定の頭部のポーズで描画される。これにより、様々な角度位置でのガイド20の中の画像を有するガイドライブラリ68が得られて、ガイド20の中の画像それぞれは、様々な角度位置のそれぞれで、配置テンプレートとして使用される。ガイド20のそれぞれは、一般的にビットマップ画像として保存され、一般的に512x384ピクセル以下で、一般的に透明な背景色を有し、一般的に図10の座標系54及び図11の任意選択の命名規則64に従って一般的に可視インデックスでインデックスされるが、その他の適当なインデックスや記憶装置を使用することができる。
対象者26は、図5、図6A、図6B及び図6Cの様々な配置段階で示されているように、モニタ39で自分自身の画像とガイド20の画像の重なりを確認して、自分自身の画像をガイド20の画像に合わせて配置する。
再度説明するが、ガイド20は、左右、上下及び横回転の配列によって、フォトリアリスティックなトーキングヘッドのライブラリ12の選択された画像42の望ましいトーキングヘッドのライブラリのポーズに対応する特定の頭部のポーズで描画され、様々な角度位置でのガイド20を有するガイドライブラリ68が得られて、それぞれは様々な角度位置のそれぞれで、配置テンプレートとして使用される。
フォトリアリスティックなトーキングヘッドのライブラリ12は、通常のコンピュータ操作技術を有する個人によって、迅速、容易、かつ効果的に作成することができ、また様々な角度位置にある実際の人間の画像との混合及び配置合わせのテンプレートとして使用することができるガイド20を使用して、作成時間を最小限にすることができる。
様々なガイドライブラリ68からなるライブラリ75が提供され、ガイドライブラリ68のそれぞれは、その中に様々なガイド20を有し、ガイド20のそれぞれは異なる角度位置を有する。ガイドライブラリ68のそれぞれは、互いに異なる顔の特徴を有し、それによってユーザは、ライブラリ75からユーザの顔の特徴及び特性に近い顔の特徴及び特性を有するガイドライブラリ68を選択することができる。
図14A〜図14Fは、様々な顔の特徴を有する一般的なガイド20を示す。配置を補助するために種々の主要な顔の特徴や肩の特徴が使用されて、対象者26とガイド20の正しい位置合わせが達成される。対象者26は、ライブラリ75から図15に示された様々なガイドライブラリ68を選択することができ、自分自身の顔の特徴に最も一致するものを選択することができる。瞳孔77の間の距離76、鼻79の長さ78、口81の幅80、髪83のスタイル82、頭部85と上からあご86の距離84、肩88の形87、及び任意選択の眼鏡89は、自分自身とガイド20の位置合わせを支援するために対象者26に目安を提供する一般的な配置特徴である。ガイド20のサイズ、外観、比率、顔の特徴及び肩の特徴が対象者26に近くなると、配置が良好になって、フォトリアリスティックなトーキングヘッドのライブラリ12が得られる。
ビデオカメラ28は、品質や解像度の点でデジタル静止カメラに近いデジタルビデオフレーム静止画像を作成可能な高解像デジタルビデオカメラであることが好ましいが、他の適当なカメラ及び/又は電子画像収集装置を使用することもできる。
記憶装置40は、代わりにデジタルビデオテープ又は劣化のないデジタルビデオ編集システムに再生されるリアルタイムのデジタルビデオフィードにすることができるが、他の適当な記憶装置を使用することもできる。
ガイド20とソフトウェアミキサ14は、コンピュータプログラムであり、パーソナルコンピュータ13にロード及び/又は記憶することができる。
図16は、フォトリアリスティックなトーキングヘッドを作成する方法のステップ90を示す。それぞれのステップは、ビデオカメラ又はその他の機器で対象者の画像を収集するステップ91と、
対象者の収集画像をガイド又はテンプレートの画像と混合して、対象者とガイド又はテンプレートの合成画像を作成するステップ92と、
対象者に表示するために、合成画像を、対象者の画像をガイド又はテンプレートの画像に合わせて配置することを補助するようにされたモニタ又はテレビに送信するステップ93と、
対象者の画像をガイド又はテンプレートの画像に合わせて配置するステップ94と、
配置を合わせた対象者の画像を保存するステップ95とを少なくとも備える。対象者の収集画像をガイド又はテンプレートの画像に混合して、対象者とガイド又はテンプレートとの合成画像を作成するステップ92は、ミキサプログラムを有するコンピュータで実施されることが好ましい。ミキサプログラムは、収集画像とテンプレートの画像からの合成画像を作成するようにされているが、他の適当な技術を用いることもできる。フォトリアリスティックなトーキングヘッド90を作成する方法は、図17に示されるように、追加の任意選択ステップを有することができ、口の形を捉えるステップ97と、目の形を捉えるステップ98と、任意選択により、その他の顔の特徴を捉えるステップ99とを含む、顔の特徴を捉えるステップ96を備える。
図18は、自分でできるフォトリアリスティックなトーキングヘッド作成システム10の側面図を示し、図19は、画像を有する、自分でできるフォトリアリスティックなトーキングヘッド作成システム10のビデオカメラとモニタの正面図を示す。
図20は、自分でできるフォトリアリスティックなトーキングヘッド作成システム100を示すが、これは、自分でできるフォトリアリスティックなトーキングヘッド作成システム100が、ガイド120及び/又はガイドライブラリ122を個別に制御するために用いられるガイド制御ソフトウェア112を有することを除き、自分でできるフォトリアリスティックなトーキングヘッド作成システム10と実質的に同じである。ソフトウェアミキサ130は、対象者144とガイド120の合成画像を作成する。ガイド制御ソフトウェア112は、ガイド120の任意の制御、ガイド120及び/又はガイドライブラリ122への容易なアクセス及び/又は選択、及び対象者144の画像とガイド120の画像との互いの重なりの制御を提供する。ガイド120及び/又はガイドライブラリ122は、パーソナルコンピュータ150にロード及び/又は記憶することができる。ガイド制御ソフトウェア112とソフトウェアミキサ130はコンピュータプログラムであり、パーソナルコンピュータ150にロード及び/又は記憶することができる。ガイド120及び/又はガイドライブラリ122は、任意選択により、品質及び任意での画像調整、対象者144の画像とガイド120の画像を互いに重ねるパーセント又は比率の調節、及び/又はガイド120及び/又は対象者144の画像の位置やサイズの調整のために、モニタ146上で見ることができる。
パーソナルコンピュータ150は、記憶装置152を有する。又は、ビデオカメラ154は、代わりに、及び/又は補助的に、対象者144の画像を保存するために記憶装置を有することができる。記憶装置152は、代わりに、パーソナルコンピュータ145及び/又はビデオカメラ154へ外付けされてもよく、及び/又は追加の外部記憶装置で補足されてもよい。記憶装置152は、代わりに、デジタルビデオテープ又は劣化しないデジタルビデオ編集システムに再生されるリアルタイムのデジタルビデオフィードにすることができるが、他の適当な記憶装置が使用されてもよい。
ビデオカメラ154は、品質や解像度の点でデジタル静止カメラに近いデジタルビデオフレーム静止画像を作成可能な、高解像デジタルビデオカメラであることが好ましいが、他の適当なカメラ及び/又は電子画像収集装置が使用されてもよい。
ユーザは、任意選択により、録画を再生して特定のフレームを選択することができる。つまり、最終のフォトリアリスティックなトーキングヘッドのライブラリのソース画像になるフレームを固定することができる。ユーザは、捉えられたフレームの正確度を評価するために、選択されたフレームをガイド120と頻繁に同期させることができ、そうしてガイド120の位置や動作パターンに実質的に一致する、実際の写真の最終的なフォトリアリスティックなトーキングヘッドのライブラリを作成する。
図21は、自分でできるフォトリアリスティックなトーキングヘッド作成システム200を示すが、これは、自分でできるフォトリアリスティックなトーキングヘッド作成システム200が、モニタ204に取り付けられてモニタ204と対象者208の間でモニタ204の前にビデオカメラ206を支持するようにされている、図22及び図23に示されているような調整可能な片持支持アーム202を有することを除き、自分でできるフォトリアリスティックなトーキングヘッド作成システム10と実質的に同じである。対象者208は、視差を減らすためにビデオカメラ206の位置を調整でき、これにより、フォトリアリスティックなトーキングヘッドライブラリにおける、さらに良い配置及び改善を補助する。
図24は、自分でできるフォトリアリスティックなトーキングヘッド作成システム300を示すが、これは、自分でできるフォトリアリスティックなトーキングヘッド作成システム300が、図20の自分でできるフォトリアリスティックなトーキングヘッド作成システム100のように、ガイド320及び/又はガイドライブラリ322を個別に制御するために用いられるガイド制御ソフトウェア312を有することを除き、自分でできるフォトリアリスティックなトーキングヘッド作成システム100と実質的に同じである。
図25〜図41は、携帯端末と携帯無線端末を使用する、自分でできるフォトリアリスティックなトーキングヘッド作成システムの別の実施形態を示す。これらの携帯端末及び携帯無線端末は、デジタル通信端末、電子手帳、携帯電話、ノートブック型コンピュータ、ビデオ電話、及びその他適当な機器を含む。
これらの携帯端末及び携帯無線端末は、デジタル通信端末を含み、ビデオカメラやビデオ表示を有することが多い。
対象者は、例えば、そのような機器のビデオカメラで自分自身を捉え、端末のビデオ画面上で捉えられた画像の生ビデオを見ることができる。
対象者のガイド画像は、図25〜図41の自分でできるフォトリアリスティックなトーキングヘッド作成システムの携帯端末及び/又は携帯無線端末の画面上で重ね合わされる。
このような機器のディスプレイそれぞれは、前述のように、対象者の収集画像と選択された配置テンプレートの合成画像を表示し、ディスプレイ及びビデオカメラは、ビデオカメラが対象者の画像を収集して、対象者に合成画像を表示して、対象者が対象者の頭部の画像を、特定の配置テンプレートの頭部の角度位置と実質的に同じ角度位置で、配置テンプレートの頭部に合わせて配置できるようにされている。
このような携帯端末及び/又は携帯無線端末は、例えば、有線又は無線接続を経由してパーソナルコンピュータに、及び/又はリアルタイムビデオストリーミング及び/又は適当な信号の送信をサポートする十分な帯域幅のネットワークを経由してリモートサーバに接続することができる。代表的なネットワークとしては、携帯電話ネットワークや、インターネット、グローバルネットワーク、広域ネットワーク、都市圏ネットワーク又はローカルエリアネットワーク等の分散ネットワーク、及びその他適当なネットワークが含まれる。
2人以上のユーザは、いかなる時であってもリモートサーバに接続することができる。捉えられたビデオストリーム及び/又は静止画面は、処理してフォトリアリスティックなトーキングヘッドのライブラリを作成するために、コンピュータ及び/又はサーバに送信されることができる。又は、任意選択により、処理は端末自体で実行することができる。
ソフトウェアアプリケーション及び/又はハードウェアは、このような端末内に存在することができる。コンピュータ及び/又はリモートサーバは、対象者の収集画像と配置テンプレートとの合成信号を分析して、ガイド画像に対する配置の正確性を決定する。
音声プロンプトは、合成によって生成された音声、実際に記録された人間の音声、又は生の人間の技術者によって作成されることができ、配置プロセス中ユーザを支援するために、リアルタイムで対象者と通信することができる。代わりに、及び/又は追加で、ビデオプロンプトを使用することができる。そこで、対象者は、プロンプトの情報に従って自分の頭部の位置を調整することができ、適切に配置すると、キャプチャープロセスの会話部分を開始することができる。音声及び/又はビデオプロンプトは、シーケンスを繰り返す場合、キャプチャー及び/又は配置プロセス中に正しい配置が失われる場合、及び/又はセッションを開始及び/又は停止する場合等、その他のタスクでも対象者を支援するために使用することができる。
携帯端末及び/又は無線携帯端末は、セル方式の携帯電話(cell phone)、電子手帳(PDA)、インターネットベースの電話、携帯電話(portable phone)、パーソナルコンピュータ、ノート型コンピュータ、タブレットコンピュータ、ビデオ電話、テレビ、携帯用テレビ、無線デジタルカメラ、無線ビデオカメラ、電子メール端末、インスタントメッセージ端末、PC電話、ビデオ会議端末、移動電話(mobile phone)、手動操作機器、無線端末、無線携帯端末、並びにビデオカメラ及びディスプレイ又はその他の適当なカメラ及びディスプレイを有する他の適当な機器である。
図25と図26は、自分でできるフォトリアリスティックなトーキングヘッド作成システム400を示すが、これは、自分でできるフォトリアリスティックなトーキングヘッド作成システム400が、ビデオカメラ404とディスプレイ406を有する携帯電話402を有することを除き、自分でできるフォトリアリスティックなトーキングヘッド作成システム10と実質的に同じである。
対象者408の画像は、自分でできるフォトリアリスティックなトーキングヘッド作成システム10で先に説明したのと実質的に同じように、ビデオカメラ404によって収集される。コンピュータ412のソフトウェアミキサ410は、対象者404の収集画像とガイド414の合成画像を作成する。合成画像は、ディスプレイ406に表示され、対象者404の収集画像とガイド414とは、対象者408によって互いに配置を合わせることができる。そして、自分でできるフォトリアリスティックなトーキングヘッド作成システム10で先に説明したのと実質的に同じように、記憶装置416が、選択された画像を保存するために使用される。
図27と図28は、自分でできるフォトリアリスティックなトーキングヘッド作成システム500を示すが、これは、自分でできるフォトリアリスティックなトーキングヘッド作成システム500が、コンピュータであるサーバ504と無線で通信する携帯電話502を有することを除き、自分でできるフォトリアリスティックなトーキングヘッド作成システム400と実質的に同じである。
対象者506の画像は、自分でできるフォトリアリスティックなトーキングヘッド作成システム400で先に説明したのと実質的に同じように、携帯電話502のビデオカメラ508によって収集される。携帯電話502は、アンテナ510を経由して、サーバ504と無線で通信する。
コンピュータであるサーバ504のソフトウェアミキサ512は、対象者506の収集画像とガイド514の合成画像を作成する。合成画像は、携帯電話502のディスプレイ516に表示されて、対象者506の収集画像とガイド514は、対象者506によって互いに配置を合わせることができる。そして、自分でできるフォトリアリスティックなトーキングヘッド作成システム400で先に説明したのと実質的に同じように、記憶装置518が、選択された画像を保存するために使用される。
図29と図30は、自分でできるフォトリアリスティックなトーキングヘッド作成システム600を示すが、これは、自分でできるフォトリアリスティックなトーキングヘッド作成システム600が、携帯電話ネットワーク606を経由してサーバ604と通信する複数の携帯電話602を有することを除き、自分でできるフォトリアリスティックなトーキングヘッド作成システム500と実質的に同じである。携帯電話604のそれぞれは、アンテナ608を経由して、携帯電話ネットワーク606と無線で通信する。
図31は、自分でできるフォトリアリスティックなトーキングヘッド作成システム650を示すが、これは、自分でできるフォトリアリスティックなトーキングヘッド作成システム650が、それぞれビデオカメラ654とディスプレイ656を有する複数の電子手帳(PDA)652を有することを除き、自分でできるフォトリアリスティックなトーキングヘッド作成システム600と実質的に同じである。
図32は、自分でできるフォトリアリスティックなトーキングヘッド作成システム680を示すが、これは、自分でできるフォトリアリスティックなトーキングヘッド作成システム680が、インターネット682に接続されて、インターネット682に接続されているサーバ684を有することを除き、自分でできるフォトリアリスティックなトーキングヘッド作成システム400と実質的に同じである。サーバ684は、コンピュータ698のソフトウェアミキサ692、ガイド694及び記憶装置696の代わりとして、及び/又は追加で、ソフトウェアミキサ686、ガイド688及び記憶装置690を有することができ、コンピュータ698のソフトウェアミキサ692、ガイド694及びソフトウェアミキサ692の代わり、及び/又は追加で使用され得る。
図33と図34は、自分でできるフォトリアリスティックなトーキングヘッド作成システム700を示すが、これは、自分でできるフォトリアリスティックなトーキングヘッド作成システム700が、携帯電話ネットワークハードウェア706を経由してインターネット704に接続された携帯電話ネットワーク702と、インターネット704に接続されたサーバ708とを有することを除き、自分でできるフォトリアリスティックなトーキングヘッド作成システム600と実質的に同じである。
対象者710の画像は、自分でできるフォトリアリスティックなトーキングヘッド作成システム400で先に説明されたのと実質的に同じように、携帯電話714のビデオカメラ712によって収集される。携帯電話714は、アンテナ716を経由して携帯電話ネットワーク702と、そしてインターネット704経由でサーバ708と無線で通信する。インターネット704は、携帯電話ネットワークハードウェア706を経由して携帯電話ネットワーク702に接続される。
コンピュータであるサーバ708のソフトウェアミキサ718は、対象者710の収集画像とガイド720の合成画像を作成する。合成画像は、携帯電話714のディスプレイ722に表示されて、対象者710の収集画像とガイド720は、対象者710によって互いに配置を合わせることができる。そして、記憶装置724が、携帯電話714それぞれからの選択された画像を保存するために使用される。
図35は、自分でできるフォトリアリスティックなトーキングヘッド作成システム750を示すが、これは次の事項を除いて、自分でできるフォトリアリスティックなトーキングヘッド作成システム700と実質的に同じである。自分でできるフォトリアリスティックなトーキングヘッド作成システム750は、アンテナ756経由で携帯電話ネットワーク754に無線で接続されたノート型コンピュータ752を有する。アナログ音声通信のみ可能な旧来の電話サービス(POTS)758も、サーバ760と762に接続される。これらは、それぞれインターネット764に接続される。サーバ760は、携帯電話ネットワーク754と、アナログ音声通信のみ可能な旧来の電話サービス(POTS)758とを、インターネット764に接続するために使用される。
ビデオカメラ766及びディスプレイ768を有するノート型コンピュータ752に送受信される信号、並びにビデオカメラ772及びディスプレイ773有する携帯無線端末770に送受信される信号は、携帯電話ネットワーク754及びインターネット764経由でサーバ762と通信される。ビデオカメラ775及びディスプレイ776を有するデスクトップコンピュータ774に送受信される信号も、サーバ762と通信される。使用することができる携帯無線端末770には、携帯電話、電子手帳(PDA)及び他の適当な携帯無線端末が含まれる。
コンピュータであるサーバ762のソフトウェアミキサ777は、対象者の収集画像とガイド778との合成画像を作成する。合成画像は、ノート型コンピュータ752、携帯無線端末770及びデスクトップコンピュータ774それぞれのディスプレイ768、773及び776上に表示され、対象者の収集画像及びガイド778は、対象者によって互いに配置を合わせることができる。そして、記憶装置780が、ノート型コンピュータ752、携帯無線端末770及びデスクトップコンピュータ774から選択された画像を保存するために使用される。
図36は、フォトリアリスティックなトーキングヘッドを作成する方法のステップ800を示すが、これは、フォトリアリスティックなトーキングヘッドの作成方法800が、配置を合わせた対象者の画像をサーバに送信するステップ806と、配置を合わせた対象者の画像をサーバに保存するステップ807と、画像を対象者に返信するステップ808とを備えることを除き、フォトリアリスティックなトーキングヘッド90の作成方法のステップと実質的に同じである。
詳細には、フォトリアリスティックなトーキングヘッドを作成する方法800は、携帯電話のビデオカメラ、電子手帳(PDA)のビデオカメラ、又はその他適当な機器で対象者の画像を収集するステップ801と、対象者の収集画像をサーバに送信するステップ802と、対象者の収集画像とテンプレートの画像とを混合するステップ803と、合成画像を携帯無線端末、さらに詳しくは携帯無線端末のディスプレイに送信するステップ804と、対象者の画像をテンプレートの画像に合わせて配置するステップ805と、配置を合わせた対象者の画像をサーバに送信するステップと806、配置を合わせた対象者の画像をサーバに保存するステップ807と、配置を合わせた対象者の画像を対象者に送信するステップ808とを備える。
図37は、フォトリアリスティックなトーキングヘッドを作成する方法800の追加の任意選択ステップ809を示し、配置の不一致について配置を合わせた対象者の画像を分析するステップ810と、より正確な配置を達成するように対象者を補助するために、音声、音声プロンプト及び/又はビデオプロンプト等のプロンプトを使用するステップ811とを備える。
フォトリアリスティックなトーキングヘッドを作成する方法800は、追加の任意選択ステップを有することができ、ステップ808の後、及び/又はステップ811の後に顔の特徴を捉えるステップ812を備えるが、これは、図17に示された追加の任意選択ステップと実質的に同じであり、明確化及び理解のためにここで繰り返される。
フォトリアリスティックなトーキングヘッドを作成する方法800は、図38に示されているように、追加の任意選択ステップを有することができ、口の形を捉えるステップ813と、目の形を捉えるステップ814と、任意選択により、その他の顔の特徴を捉えるステップ815とを含む、顔の特徴を捉えるステップ812とを備える。
図39は、電子手帳(PDA)又はその他の適当な機器等であるビデオ捕捉端末820の模式図であり、ビデオカメラ822、ディスプレイ824、記憶装置826、マイク828及びスピーカー830を有し、本発明の前述の多様な実施形態で使用することができる。
図40は、本発明に従って作成された、自分でできるフォトリアリスティックなトーキングヘッド作成システムの別の実施形態の模式図である。
図40は、自分でできるフォトリアリスティックなトーキングヘッド作成システム900を示すが、これは、自分でできるフォトリアリスティックなトーキングヘッド作成システム900は、実質的に全ての自分でできるフォトリアリスティックなトーキングヘッド作成システム10の機器を単一の携帯端末にパッケージ化して備えることを除き、自分でできるフォトリアリスティックなトーキングヘッド作成システム10と実質的に同じである。
自分でできるフォトリアリスティックなトーキングヘッド作成システム900は、ビデオカメラ904、ディスプレイ906、ソフトウェアミキサ910、ガイド914、記憶装置916、任意選択のマイク918、及び任意選択のスピーカー920を有する、電子手帳(PDA)又は他の適当な機器を備える。
対象者の画像は、自分でできるフォトリアリスティックなトーキングヘッド作成システム10で先に説明したのと実質的に同じように、ビデオカメラ904によって収集される。ソフトウェアミキサ910は、対象者の収集画像とガイド914との合成画像を作成する。合成画像は、ディスプレイ906で表示されて、対象者の収集画像とガイド914とは、対象者によって互いに配置を合わせることができる。そして、自分でできるフォトリアリスティックなトーキングヘッド作成システム10で先に説明したのと実質的に同じように、記憶装置916が、選択された画像を保存するために使用される。
図41は、自分でできるフォトリアリスティックなトーキングヘッド作成システム950を示すが、これは、自分でできるフォトリアリスティックなトーキングヘッド作成システム950は、実質的に全ての自分でできるフォトリアリスティックなトーキングヘッド作成システム300の機器を、単一の携帯端末にパッケージ化して備えることを除き、自分でできるフォトリアリスティックなトーキングヘッド作成システム300と実質的に同じである。
自分でできるフォトリアリスティックなトーキングヘッド作成システム950は、自分でできるフォトリアリスティックなトーキングヘッド作成システム950が、自分でできるフォトリアリスティックなトーキングヘッド作成システム300のように、ガイド954及び/又はガイドライブラリ956を個別に制御するために使用することができるガイド制御ソフトウェア952を有することを除き、自分でできるフォトリアリスティックなトーキングヘッド作成システム900と実質的に同じである。
本発明は、一定の好ましい形態を参照しながら詳細に説明したが、その他の形態も可能である。
したがって、請求項の趣旨及び範囲は、本明細書に含まれる好ましい形態の説明に限定されるものではない。
本発明に従って作成された、自分でできるフォトリアリスティックなトーキングヘッド作成システムの模式図である。 本発明のフォトリアリスティックなトーキングヘッドライブラリを表現する模式図である。 配置テンプレートとして使用されるガイドの図である。 図2のフォトリアリスティックなトーキングヘッドに組み込まれる対象者の図である。 図3のガイドと配置を合わせた図4の対象者の合成図である。 図6Aは、図3のガイドから水平方向に移動させた図4の対象者の合成図である。図6Bは、図3のガイドから縦方向に移動させた図4の対象者の合成図である。図6Cは、図4の対象者と、図3のガイドとを、近づけて配置させた合成図である。 特定の角度位置での図2のフォトリアリスティックなトーキングヘッドのライブラリの選択された画像の拡大画像と、図2のフォトリアリスティックなトーキングヘッドライブラリの選択された画像の特定の角度位置での異なる目の特徴の画像及び異なる口の特徴の画像とを、それぞれ示す図である。 図7の特定の角度位置での図2のフォトリアリスティックなトーキングヘッドのライブラリの選択された画像のうちの一般的な画像と、図7の特定の角度位置で目を閉じた対象者と目を大きく開いた対象者によって取得された様々な目の特徴のうちの一般的な特徴と、選択された音声を話している対象者によって取得された図7の特定の角度位置での様々な口の特徴のうちの一般的な特徴を示す図である。 図8の様々な目の特徴及び様々な口の特徴を取得するための、対象者の一般的な目の領域と一般的な口の領域を示す図である。 傾き、回転及びうなずきベクトルを有する座標系を示す図である。 任意選択のラベルのために使用することができる、任意選択の命名規則を示す図である。 ガイドライブラリの模式図である。 図13Aは、ガイドのワイヤメッシュモデルの図である。図13Bは、フォンシェーディングを有する図13Aのガイドのワイヤメッシュモデルの図である。図13Cは、望ましいトーキングヘッド又は好ましいニュースキャスターの画像にマッピングされた写真で、フォンシェーディングを有する図13Bのガイドの図である。 図14Aは、一般的な顔の特徴を示す別のガイドの図である。図14Bは、他の一般的な顔の特徴を示す別のガイドの図である。図14Cは、他の一般的な顔の特徴を示す別のガイドの図である。図14Dは、他の一般的な顔の特徴を示す別のガイドの図である。図14Eは、他の一般的な顔の特徴を示す、図3のガイドの別の図である。図14Fは、他の一般的な顔の特徴を示す別のガイドの図である。 図14A〜図14Fのガイドに関連付けられたガイドライブラリのライブラリを表す模式図である。 本発明のフォトリアリスティックなトーキングヘッドを作成する方法を表す模式図である。 図14のフォトリアリスティックなトーキングヘッドを作成する方法の追加の任意選択ステップを表す模式図である。 図1の自分でできるフォトリアリスティックなトーキングヘッド作成システムの側面図である。 画像を有する、図1の自分でできるフォトリアリスティックなトーキングヘッド作成システムのビデオカメラとモニタの正面図である。 本発明に従って作成された、自分でできるフォトリアリスティックなトーキングヘッド作成システムの別の実施形態の模式図である。 本発明に従って作成された、自分でできるフォトリアリスティックなトーキングヘッド作成システムの別の実施形態の模式図である。 図21の自分でできるフォトリアリスティックなトーキングヘッド作成システムの側面図である。 画像を有する、図21の自分でできるフォトリアリスティックなトーキングヘッド作成システムのビデオカメラとモニタの正面図である。 発明に従って作成された、自分でできるフォトリアリスティックなトーキングヘッド作成システムの別の実施形態の模式図である。 本発明に従って作成された、自分でできるフォトリアリスティックなトーキングヘッド作成システムの別の実施形態の模式図である。 図25の自分でできるフォトリアリスティックなトーキングヘッド作成システムの別の実施形態を表す部分的なブロック図と模式図である。 本発明に従って作成された、自分でできるフォトリアリスティックなトーキングヘッド作成システムの別の実施形態の模式図である。 図27の自分でできるフォトリアリスティックなトーキングヘッド作成システムの別の実施形態を表す部分的なブロック図と模式図である。 本発明に従って作成された、自分でできるフォトリアリスティックなトーキングヘッド作成システムの別の実施形態の模式図である。 図29の自分でできるフォトリアリスティックなトーキングヘッド作成システムの別の実施形態を表す部分的なブロック図と模式図である。 本発明に従って作成された、自分でできるフォトリアリスティックなトーキングヘッド作成システムの別の実施形態の模式図である。 本発明に従って作成された、自分でできるフォトリアリスティックなトーキングヘッド作成システムの別の実施形態の模式図である。 本発明に従って作成された、自分でできるフォトリアリスティックなトーキングヘッド作成システムの別の実施形態の模式図である。 図33の自分でできるフォトリアリスティックなトーキングヘッド作成システムの別の実施形態を表す部分的なブロック図と模式図である。 本発明に従って作成された、自分でできるフォトリアリスティックなトーキングヘッド作成システムの別の実施形態の模式図である。 本発明のフォトリアリスティックなトーキングヘッドを作成する別の方法を表す模式図である。 図36のフォトリアリスティックなトーキングヘッドを作成する方法の追加の任意選択ステップを表す模式図である。 図36のフォトリアリスティックなトーキングヘッドを作成する方法の追加の任意選択ステップを表す模式図である。 ビデオ捕捉端末の模式図である。 本発明に従って作成された、自分でできるフォトリアリスティックなトーキングヘッド作成システムの別の実施形態の模式図である。 本発明に従って作成された、自分でできるフォトリアリスティックなトーキングヘッド作成システムの別の実施形態の模式図である。

Claims (75)

  1. フォトリアリスティックな人間のトーキングヘッドを作成するための装置であって、
    携帯用機器と、ネットワークと、サーバと、配置テンプレートのライブラリと、コントローラと、ビデオカメラと、ディスプレイと、様々な対象者の頭部の角度位置で前記対象者の頭部を含む前記対象者の収集画像のライブラリを保存する保存手段とを備え、
    前記ネットワークと前記携帯用機器とは互いに通信し、
    前記ネットワークと前記サーバとは互いに通信し、
    前記サーバは、前記配置テンプレートのライブラリを備え、
    前記配置テンプレートは、それぞれ互いに異なるとともに、前記配置テンプレートの頭部の傾き、前記配置テンプレートの頭部のうなずき及び前記配置テンプレートの頭部の回転構成要素を備える前記配置テンプレートの頭部の角度位置を有する前記フォトリアリスティックな人間のトーキングヘッドの配置テンプレートのフレームを表現し、
    前記配置テンプレートのフレームは、それぞれ互いに異なり、
    前記配置テンプレートの頭部の角度位置は、それぞれ互いに異なり、
    前記サーバは、前記コントローラを備え、
    前記コントローラは、特定の前記配置テンプレートの頭部の角度位置に対応して、前記配置テンプレートのライブラリから前記配置テンプレートを選択し、前記配置テンプレートを表現する画像の出力信号を有し、
    前記携帯用機器は前記ビデオカメラを備え、
    前記ビデオカメラは、前記対象者の頭部の傾き、前記対象者の頭部のうなずき及び前記対象者の頭部の回転構成要素を備えた頭部の角度位置を有する前記対象者の画像を収集し、
    前記ビデオカメラは、前記対象者の前記収集画像を表現する出力信号を有し、
    前記携帯用機器は、前記対象者の前記収集画像を表現する前記ビデオカメラの前記出力信号を、前記ネットワークを経由して前記サーバに送信し、
    前記サーバは、前記対象者の前記収集画像を表現する前記ビデオカメラの前記出力信号を受信する入力を有し、
    前記サーバはミキサを有し、
    前記サーバは、選択された前記配置テンプレートの画像の前記出力信号を前記コントローラから受信し、選択された前記配置テンプレートの画像の前記出力信号と、受信した前記対象者の前記収集画像の前記出力信号とを前記ミキサに送信し、
    前記ミキサは、選択された前記配置テンプレートの画像の前記出力信号と、送信された前記対象者の前記収集画像の前記出力信号とを受信し、一方を他方と混合して前記対象者の前記収集画像と選択された前記配置テンプレートとの合成画像を表現する出力信号にし、前記対象者の前記収集画像と選択された前記配置テンプレートとの前記合成画像の前記出力信号を前記サーバに送信し、
    前記サーバは、前記ミキサから受信した前記対象者の前記収集画像と選択された前記配置テンプレートとの前記合成画像を表現する前記出力信号を有し、
    前記サーバは、前記対象者の前記収集画像と選択された前記配置テンプレートとの前記合成画像を表現する前記出力信号を、前記ネットワーク経由で前記携帯用機器に送信し、
    前記携帯用機器は前記ディスプレイを有し、
    前記ディスプレイは、前記対象者の前記収集画像と選択された前記配置テンプレートとの前記合成画像を表現する前記出力信号を受信する入力を有し、
    前記ディスプレイ及び前記ビデオカメラは、前記ビデオカメラで前記対象者の画像を収集して、前記対象者が前記合成画像を見えるようにして、前記対象者が、前記対象者の前記頭部の画像を、特定の前記配置テンプレートの頭部の角度位置と実質的に同じ角度位置で、前記配置テンプレートの頭部に合わせて配置できるようにされており、
    前記サーバは、前記対象者の前記収集画像のライブラリを保存する保存手段を備え、
    前記サーバは、受信した前記対象者の前記収集画像の信号を前記保存手段に送信し、
    前記保存手段は、前記対象者の前記収集画像の信号を受信して、前記対象者の保存画像として保存し、前記対象者が前記配置テンプレートの頭部と実質的に合わせて配置された前記対象者の前記頭部を有する場合、前記対象者の前記保存画像は、特定の前記配置テンプレートの頭部の角度位置と実質的に同じ前記対象者の頭部の角度位置を有し、
    保存された前記収集画像のライブラリの画像は、それぞれ互いに異なり、
    保存された前記収集画像の対象者の頭部の角度位置は、それぞれ互いに異なり、
    保存された前記収集画像のライブラリの画像の対象者の頭部の角度位置のそれぞれは、前記配置テンプレートのライブラリの中の選択された前記配置テンプレートの頭部の角度位置と対応し、実質的に同じであって、かつ合わせて配置され、
    保存された前記収集画像のそれぞれは、フォトリアリスティックな人間のトーキングヘッドの異なるフレームを表現する、
    フォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  2. 前記サーバは、前記配置テンプレートのライブラリを備えるコンピュータを含む、請求項1に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  3. 前記サーバは、前記コントローラを備えるコンピュータを含む、請求項1に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  4. 前記サーバは、少なくとも1つのプログラムを備えるコンピュータを含み、前記少なくとも1つのプログラムは前記ミキサを備える、請求項1に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  5. 前記サーバは、前記保存手段を備えるコンピュータを含む、請求項1に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  6. 前記対象者の前記収集画像は、特定の前記配置テンプレートの頭部の角度位置に対応する前記対象者の頭部の少なくとも1つの顔の特徴の追加の収集画像をさらに備え、前記収集画像のライブラリは、様々な前記対象者の頭部の角度位置のそれぞれで、前記少なくとも1つの顔の特徴の保存された画像をさらに備え、前記顔の特徴の保存された画像のそれぞれは、前記フォトリアリスティックな人間のトーキングヘッドの追加のフレームを表現する、請求項1に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  7. 前記少なくとも1つの顔の特徴は、様々な口の形を備える、請求項6に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  8. 前記少なくとも1つの顔の特徴は、様々な目の形を備える、請求項6に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  9. 前記少なくとも1つの顔の特徴は、様々な目の形を備える、請求項7に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  10. 前記サーバは、少なくとも1つのプログラムを備えるコンピュータを含み、前記少なくとも1つのプログラムは、制御プログラムを備える前記コントローラを含む、請求項1に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  11. 前記配置テンプレートは少なくとも1つの特徴を有し、前記制御プログラムは、選択された前記配置テンプレートの前記少なくとも1つの特徴を制御するようにされている、請求項10に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  12. 前記対象者の前記収集画像は少なくとも1つの特徴を有し、前記制御プログラムは、前記対象者の前記選択画像の前記少なくとも1つの特徴を制御するようにされている、請求項10に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  13. 前記対象者の前記収集画像は少なくとも1つの特徴を有し、前記制御プログラムは、前記対象者の前記収集画像の前記少なくとも1つの特徴を制御するようにされている、請求項11に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  14. 前記配置テンプレートのライブラリは、少なくとも2つの前記配置テンプレートのライブラリを備える、請求項2に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  15. 前記配置テンプレートのライブラリのそれぞれは、様々な顔の特徴を有する人間のトーキングヘッドを表現する、請求項14に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  16. 前記ミキサは、ソフトウェアミキサを備える、請求項1に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  17. 前記ネットワークは、分散ネットワークを備える、請求項1に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  18. 前記分散ネットワークは、インターネットを備える、請求項17に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  19. 前記ネットワークは、携帯電話ネットワーク、無線ネットワーク、無線デジタルネットワーク、分散ネットワーク、インターネット、グローバルネットワーク、広域ネットワーク、都市規模ネットワーク、ローカルエリアネットワーク、及びこれらの組み合わせのうちのいずれかである、請求項1に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  20. 前記携帯用機器は、セル方式の携帯電話(cell phone)、電子手帳、PDA、インターネットベースの電話、携帯電話(portable phone)、パーソナルコンピュータ、ノート型コンピュータ、タブレットコンピュータ、ビデオ電話、テレビ、携帯用テレビ、無線デジタルカメラ、無線ビデオカメラ、ディスプレイ付き無線カメラ、電子メール端末、インスタントメッセージ端末、PC電話、ビデオ会議端末、移動電話(mobile phone)、手動操作機器、無線端末及び無線携帯端末のうちのいずれかである、請求項1に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  21. 前記サーバは、受信した前記収集画像の前記出力信号をコンピュータ読取可能フォーマットに変換するようにされているコンピュータを備える、請求項1に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  22. 前記フォトリアリスティックな人間のトーキングヘッドを作成するための装置は、自分でフォトリアリスティックな人間のトーキングヘッドを作成するための装置である、請求項1に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  23. フォトリアリスティックな人間のトーキングヘッドを作成するための装置であって、
    無線携帯用機器と、無線ネットワークと、サーバと、配置テンプレートのライブラリと、コントローラと、ビデオカメラと、ディスプレイと、様々な対象者の頭部の角度位置で前記対象者の頭部を含む前記対象者の収集画像のライブラリを保存する保存手段とを備え、
    前記無線ネットワークと前記無線携帯用機器とは無線で互いに通信し、
    前記無線ネットワークと前記サーバとは互いに通信し、
    前記サーバは、前記配置テンプレートのライブラリを備え、
    前記配置テンプレートは、それぞれ互いに異なるとともに、前記配置テンプレートの頭部の傾き、前記配置テンプレートの頭部のうなずき及び前記配置テンプレートの頭部の回転構成要素を備える前記テンプレートの頭部の角度位置を有する前記フォトリアリスティックな人間のトーキングヘッドの配置テンプレートのフレームを表現し、
    前記配置テンプレートの中のフレームは、それぞれ互いに異なり、
    前記配置テンプレートの頭部の角度位置は、それぞれ互いに異なり、
    前記サーバは、前記コントローラを備え、
    前記コントローラは、特定の前記配置テンプレートの頭部の角度位置に対応して、前記配置テンプレートのライブラリから前記配置テンプレートを選択し、前記配置テンプレートを表現する画像の出力信号を有し、
    前記無線携帯用機器は前記ビデオカメラを備え、
    前記ビデオカメラは、前記対象者の頭部の傾き、前記対象者の頭部のうなずき及び前記対象者の頭部の回転構成要素を備えた頭部の角度位置を有する前記対象者の画像を収集し、
    前記ビデオカメラは、前記対象者の前記収集画像を表現する出力信号を有し、
    前記無線携帯用機器は、前記対象者の前記収集画像を表現する前記ビデオカメラの前記出力信号を、前記無線ネットワークを経由して前記サーバに送信し、
    前記サーバは、前記対象者の前記収集画像を表現する前記ビデオカメラの前記出力信号を受信する入力を有し、
    前記サーバはミキサを有し、
    前記サーバは、選択された前記配置テンプレートの画像の前記出力信号を前記コントローラから受信し、選択された前記配置テンプレートの画像の前記出力信号と、受信した前記対象者の前記収集画像の前記出力信号とを前記ミキサに送信し、
    前記ミキサは、選択された前記配置テンプレートの画像の前記出力信号と、送信された前記対象者の前記収集画像の前記出力信号とを受信し、一方を他方と混合して前記対象者の前記収集画像と選択された前記配置テンプレートとの合成画像を表現する出力信号にし、前記対象者の前記収集画像と選択された前記配置テンプレートとの前記合成画像の前記出力信号を前記サーバに送信し、
    前記サーバは、前記ミキサから受信した前記対象者の前記収集画像と選択された前記配置テンプレートとの前記合成画像を表現する前記出力信号を有し、
    前記サーバは、前記対象者の前記収集画像と選択された前記配置テンプレートとの前記合成画像を表現する前記出力信号を、前記無線ネットワーク経由で前記無線携帯用機器に送信し、
    前記無線携帯用機器は前記ディスプレイを有し、
    前記ディスプレイは、前記対象者の前記収集画像と選択された前記配置テンプレートとの前記合成画像を表現する前記出力信号を受信し、
    前記ディスプレイ及び前記ビデオカメラは、前記ビデオカメラで前記対象者の画像を収集して、前記対象者が前記合成画像を見えるようにして、前記対象者が、前記対象者の前記頭部の画像を、特定の前記配置テンプレートの頭部の角度位置と実質的に同じ角度位置で、前記配置テンプレートの頭部に合わせて配置できるようにされており、
    前記サーバは、前記対象者の前記収集画像のライブラリを保存する保存手段を備え、
    前記サーバは、受信した前記対象者の前記収集画像の信号を前記保存手段に送信し、
    前記保存手段は、前記対象者の前記収集画像の信号を受信して、前記対象者の保存画像として保存し、前記対象者が前記配置テンプレートの頭部と実質的に合わせて配置された前記対象者の前記頭部を有する場合、前記対象者の前記保存画像は、特定の前記配置テンプレートの頭部の角度位置と実質的に同じ前記対象者の頭部の角度位置を有し、
    保存された前記収集画像のライブラリの画像は、それぞれ互いに異なり、
    保存された前記収集画像のライブラリの画像の対象者の頭部の角度位置は、それぞれ互いに異なり、
    保存された前記収集画像のライブラリの画像の対象者の頭部の角度位置のそれぞれは、前記配置テンプレートのライブラリの中の選択された前記配置テンプレートの頭部の角度位置と対応し、実質的に同じであって、かつ合わせて配置され、
    保存された前記収集画像のそれぞれは、フォトリアリスティックな人間のトーキングヘッドの異なるフレームを表現する、
    フォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  24. 前記サーバは、前記配置テンプレートのライブラリを備えるコンピュータを含む、請求項23に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  25. 前記サーバは、前記コントローラを備えるコンピュータを含む、請求項23に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  26. 前記サーバは、少なくとも1つのプログラムを備えるコンピュータを含み、前記少なくとも1つのプログラムは前記ミキサを備える、請求項23に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  27. 前記サーバは、前記保存手段を備えるコンピュータを含む、請求項23に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  28. 前記対象者の前記収集画像は、特定の前記配置テンプレートの頭部の角度位置に対応する前記対象者の頭部の少なくとも1つの顔の特徴の追加の収集画像をさらに備え、前記収集画像のライブラリは、様々な前記対象者の頭部の角度位置のそれぞれで、前記少なくとも1つの顔の特徴の保存された画像をさらに備え、前記顔の特徴の保存された画像のそれぞれは、前記フォトリアリスティックな人間のトーキングヘッドの追加のフレームを表現する、請求項23に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  29. 前記少なくとも1つの顔の特徴は、様々な口の形を備える、請求項28に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  30. 前記少なくとも1つの顔の特徴は、様々な目の形を備える、請求項28に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  31. 前記少なくとも1つの顔の特徴は、様々な目の形を備える、請求項29に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  32. 前記サーバは、少なくとも1つのプログラムを備えるコンピュータを含み、前記少なくとも1つのプログラムは、制御プログラムを備える前記コントローラを含む、請求項23に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  33. 前記配置テンプレートは少なくとも1つの特徴を有し、前記制御プログラムは、選択された前記配置テンプレートの前記少なくとも1つの特徴を制御するようにされている、請求項32に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  34. 前記対象者の前記収集画像は少なくとも1つの特徴を有し、前記制御プログラムは、前記対象者の前記収集画像の前記少なくとも1つの特徴を制御するようにされている、請求項32に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  35. 前記対象者の前記収集画像は少なくとも1つの特徴を有し、前記制御プログラムは、前記対象者の前記収集画像の前記少なくとも1つの特徴を制御するようにされている、請求項33に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  36. 前記配置テンプレートのライブラリは、少なくとも2つの前記配置テンプレートのライブラリを備える、請求項24に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  37. 前記配置テンプレートのライブラリのそれぞれは、様々な顔の特徴を有する人間のトーキングヘッドを表現する、請求項36に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  38. 前記ミキサは、ソフトウェアミキサを備える、請求項23に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  39. 前記無線ネットワークは、分散ネットワークをさらに備える、請求項23に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  40. 前記分散ネットワークは、インターネットを備える、請求項39に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  41. 前記無線ネットワークは、携帯電話ネットワーク、無線ネットワーク、無線デジタルネットワーク、分散ネットワーク、インターネット、グローバルネットワーク、広域ネットワーク、都市規模ネットワーク、ローカルエリアネットワーク、及びこれらの組み合わせのうちのいずれかである、請求項23に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  42. 前記無線携帯用機器は、セル方式の携帯電話(cell phone)、電子手帳、PDA、インターネットベースの電話、携帯電話(portable phone)、パーソナルコンピュータ、ノート型コンピュータ、タブレットコンピュータ、ビデオ電話、テレビ、携帯用テレビ、無線デジタルカメラ、無線ビデオカメラ、ディスプレイ付き無線カメラ、電子メール端末、インスタントメッセージ端末、PC電話、ビデオ会議端末、移動電話(mobile phone)、手動操作機器、無線端末及び無線携帯端末のうちのいずれかである、請求項23に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  43. 前記サーバは、受信した前記収集画像の前記出力信号をコンピュータ読取可能フォーマットに変換するようにされているコンピュータを備える、請求項23に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  44. 前記フォトリアリスティックな人間のトーキングヘッドを作成するための装置は、自分でフォトリアリスティックな人間のトーキングヘッドを作成するための装置である、請求項23に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための装置。
  45. フォトリアリスティックな人間のトーキングヘッドを作成するための機器であって、
    配置テンプレートのライブラリと、コントローラと、ビデオカメラと、コンピュータと、ディスプレイと、様々な対象者の頭部の角度位置で前記対象者の頭部を含む前記対象者の収集画像のライブラリを保存する保存手段とを備え、
    前記配置テンプレートは、それぞれ互いに異なるとともに、前記配置テンプレートの頭部の傾き、前記配置テンプレートの頭部のうなずき及び前記配置テンプレートの頭部の回転構成要素を備える前記テンプレートの頭部の角度位置を有する前記フォトリアリスティックな人間のトーキングヘッドの配置テンプレートのフレームを表現し、
    前記配置テンプレートのフレームは、それぞれ互いに異なり、
    前記配置テンプレートの頭部の角度位置は、それぞれ互いに異なり、
    前記コントローラは、特定の前記配置テンプレートの頭部の角度位置に対応して、前記配置テンプレートのライブラリから前記配置テンプレートを選択し、前記配置テンプレートを表現する画像の出力信号を有し、
    前記ビデオカメラは、前記対象者の頭部の傾き、前記対象者の頭部のうなずき及び前記対象者の頭部の回転構成要素を備えた頭部の角度位置を有する前記対象者の画像を収集し、
    前記ビデオカメラは、前記対象者の前記収集画像を表現する出力信号を有し、
    前記コンピュータは、前記対象者の前記収集画像を表現する前記ビデオカメラの前記出力信号を受信する入力を有し、
    前記コンピュータはミキサを有し、
    前記コンピュータは、選択された前記配置テンプレートの画像の前記出力信号を前記コントローラから受信し、選択された前記配置テンプレートの画像の前記出力信号と、受信した前記対象者の前記収集画像の前記出力信号とを前記ミキサに送信し、
    前記ミキサは、選択された前記配置テンプレートの画像の前記出力信号と、送信された前記対象者の前記収集画像の前記出力信号とを受信し、一方を他方と混合して前記対象者の前記収集画像と選択された前記配置テンプレートとの合成画像を表現する出力信号にし、前記対象者の前記収集画像と選択された前記配置テンプレートとの前記合成画像の前記出力信号を前記コンピュータに送信し、
    前記コンピュータは、前記ミキサから受信した前記対象者の前記収集画像と選択された前記配置テンプレートとの前記合成画像を表現する前記出力信号を有し、
    前記ディスプレイは、前記対象者の前記収集画像と選択された前記配置テンプレートとの前記合成画像を表現する前記コンピュータの前記出力信号を受信し、
    前記ディスプレイ及び前記ビデオカメラは、前記ビデオカメラで前記対象者の画像を収集して、前記対象者が前記合成画像を見えるようにして、前記対象者が、前記対象者の前記頭部の画像を、特定の前記配置テンプレートの頭部の角度位置と実質的に同じ角度位置で、前記配置テンプレートの頭部に合わせて配置できるようにされており、
    前記コンピュータは、受信した前記対象者の前記収集画像の信号を前記保存手段に送信し、
    前記保存手段は、前記対象者の前記収集画像の信号を受信して、前記対象者の保存画像として保存し、前記対象者が前記配置テンプレートの頭部と実質的に合わせて配置された前記対象者の前記頭部を有する場合、前記対象者の前記保存画像は、特定の前記配置テンプレートの頭部の角度位置と実質的に同じ前記対象者の頭部の角度位置を有し、
    保存された前記収集画像のライブラリの画像は、それぞれ互いに異なり、
    保存された前記収集画像のライブラリの画像の対象者の頭部の角度位置は、それぞれ互いに異なり、
    保存された前記収集画像のライブラリの画像の対象者の頭部の角度位置のそれぞれは、前記配置テンプレートのライブラリの中の選択された前記配置テンプレートの頭部の角度位置と対応し、実質的に同じであって、かつ合わせて配置され、
    保存された前記収集画像のそれぞれは、フォトリアリスティックな人間のトーキングヘッドの異なるフレームを表現する、
    フォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  46. 前記コンピュータは、前記配置テンプレートのライブラリを備える、請求項45に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  47. 前記コンピュータは、前記コントローラを備える、請求項45に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  48. 前記コンピュータは、少なくとも1つのプログラムを備え、前記少なくとも1つのプログラムは前記ミキサを備える、請求項45に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  49. 前記コンピュータは、前記保存手段を備える、請求項45に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  50. 前記対象者の前記収集画像は、特定の前記配置テンプレートの頭部の角度位置に対応する前記対象者の頭部の少なくとも1つの顔の特徴の追加の収集画像をさらに備え、前記収集画像のライブラリは、様々な前記対象者の頭部の角度位置のそれぞれで、前記少なくとも1つの顔の特徴の保存された画像をさらに備え、前記顔の特徴の保存された画像のそれぞれは、前記フォトリアリスティックな人間のトーキングヘッドの追加のフレームを表現する、請求項45に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  51. 前記少なくとも1つの顔の特徴は、様々な口の形を備える、請求項50に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  52. 前記少なくとも1つの顔の特徴は、様々な目の形を備える、請求項50に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  53. 前記少なくとも1つの顔の特徴は、様々な目の形を備える、請求項51に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  54. 前記コンピュータは、前記コントローラを含む少なくとも1つのプログラムを備え、前記コントローラは制御プログラムを備える、請求項45に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  55. 前記配置テンプレートは少なくとも1つの特徴を有し、前記制御プログラムは、選択された前記配置テンプレートの前記少なくとも1つの特徴を制御するようにされている、請求項54に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  56. 前記対象者の前記収集画像は少なくとも1つの特徴を有し、前記制御プログラムは、前記対象者の前記選択画像の前記少なくとも1つの特徴を制御するようにされている、請求項54に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  57. 前記対象者の前記収集画像は少なくとも1つの特徴を有し、前記制御プログラムは、前記対象者の前記選択画像の前記少なくとも1つの特徴を制御するようにされている、請求項55に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  58. 前記配置テンプレートのライブラリは、少なくとも2つの前記配置テンプレートのライブラリを備える、請求項46に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  59. 前記配置テンプレートのライブラリのそれぞれは、様々な顔の特徴を有する人間のトーキングヘッドを表現する、請求項58に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  60. 前記ミキサは、ソフトウェアミキサを備える、請求項45に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  61. 前記ディスプレイは、モニタ、ディスプレイ及びテレビのうちのいずれかである、請求項45に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  62. 前記ビデオカメラは、前記ディスプレイに取り付けられていて、前記ディスプレイはモニタを備える、請求項45に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  63. 前記ビデオカメラは、前記ディスプレイの上に取り付けられていて、前記ディスプレイはモニタを備える、請求項45に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  64. 前記ビデオカメラを支持するようにされた調整可能な片持支持アームを有する、請求項45に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  65. 前記調整可能な片持支持アームは、前記ディスプレイに取り付けられていて、前記ディスプレイはモニタを備える、請求項64に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  66. 前記サーバは、受信した前記収集画像の前記出力信号をコンピュータ読取可能フォーマットに変換するようにされているコンピュータを備える、請求項45に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  67. 前記フォトリアリスティックな人間のトーキングヘッドを作成するための機器は、自分でフォトリアリスティックな人間のトーキングヘッドを作成するための機器である、請求項45に記載のフォトリアリスティックな人間のトーキングヘッドを作成するための機器。
  68. フォトリアリスティックな人間のトーキングヘッドを作成する方法であって、
    配置テンプレートは、それぞれ互いに異なるとともに、前記配置テンプレートの頭部の傾き、前記配置テンプレートの頭部のうなずき及び前記配置テンプレートの頭部の回転構成要素を備える前記テンプレートの頭部の角度位置を有する前記フォトリアリスティックな人間のトーキングヘッドの配置テンプレートのフレームを表現し、前記配置テンプレートのフレームはそれぞれ互いに異なり、前記配置テンプレートの頭部の角度位置はそれぞれ互いに異なる前記配置テンプレートにおいて、前記配置テンプレートのライブラリから配置テンプレートを選択するステップと、
    対象者の画像をビデオカメラで収集するステップと、
    前記対象者の収集画像を、ミキサを備えるコンピュータに送信するステップと、
    前記対象者の前記収集画像を、前記ミキサにおいて選択された前記配置テンプレートと混合し、前記対象者の前記収集画像と選択された前記配置テンプレートとの合成画像を作成するステップと、
    前記合成画像を、前記対象者に表示するために、前記対象者が、前記対象者の頭部の画像を選択された前記配置テンプレートの画像に合わせて配置することを補助するようにされているディスプレイに送信するステップと、
    前記対象者の頭部の傾き、前記対象者の頭部のうなずき及び前記対象者の頭部の回転構成要素を備える前記対象者の頭部の角度位置を有する前記対象者の頭部を、選択された前記配置テンプレートの頭部の角度位置と実質的に同じ角度位置で、選択された前記配置テンプレートの頭部の画像に実質的に合わせて配置するステップと、
    実質的に配置が合わされた前記対象者の画像を収集して、収集画像のライブラリに保存するステップとを含み、
    前記保存された収集画像のそれぞれは、異なる対象者の角度位置を有し、選択された前記配置テンプレートの頭部の角度位置と実質的に同じで、前記保存された収集画像のそれぞれは、フォトリアリスティックな人間のトーキングヘッドの異なるフレームを表現する、フォトリアリスティックな人間のトーキングヘッドを作成する方法。
  69. 前記コンピュータは少なくとも1つのプログラムを備え、前記少なくとも1つのプログラムはミキサプログラムを有する前記ミキサを備え、前記ミキサプログラムは、前記対象者の前記収集画像と選択された前記配置テンプレートの画像から前記合成画像を作成するようにされている、請求項68に記載のフォトリアリスティックな人間のトーキングヘッドを作成する方法。
  70. 選択された前記配置テンプレートの頭部の角度位置と、実質的に同じ角度位置で、実質的に配置を合わされた前記対象者の頭部の様々な顔の特徴を捉えるステップと、
    前記収集画像のライブラリに前記様々な顔の特徴の画像を保存するステップとをさらに備え、保存された前記顔の特徴の画像は、前記フォトリアリスティックな人間のトーキングヘッドの追加フレームを表現する、請求項68に記載のフォトリアリスティックな人間のトーキングヘッドを作成する方法。
  71. 口の形を捉えるステップをさらに備える、請求項68に記載のフォトリアリスティックな人間のトーキングヘッドを作成する方法。
  72. 目の形を捉えるステップをさらに備える、請求項68に記載のフォトリアリスティックな人間のトーキングヘッドを作成する方法。
  73. 口の形及び目の形を捉えるステップをさらに備える、請求項68に記載のフォトリアリスティックな人間のトーキングヘッドを作成する方法。
  74. 追加の顔の特徴を捉えるステップをさらに備える、請求項73に記載のフォトリアリスティックな人間のトーキングヘッドを作成する方法。
  75. 前記フォトリアリスティックな人間のトーキングヘッドを作成するための方法は、自分でフォトリアリスティックな人間のトーキングヘッドを作成するための方法である、請求項68に記載のフォトリアリスティックな人間のトーキングヘッドを作成する方法。
JP2009520714A 2006-04-10 2006-04-10 自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法 Pending JP2009533786A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2006/013679 WO2008156437A1 (en) 2006-04-10 2006-04-10 Do-it-yourself photo realistic talking head creation system and method

Publications (1)

Publication Number Publication Date
JP2009533786A true JP2009533786A (ja) 2009-09-17

Family

ID=40156467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009520714A Pending JP2009533786A (ja) 2006-04-10 2006-04-10 自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法

Country Status (6)

Country Link
US (1) US8553037B2 (ja)
EP (1) EP2030171A1 (ja)
JP (1) JP2009533786A (ja)
AU (1) AU2006352758A1 (ja)
CA (1) CA2654960A1 (ja)
WO (1) WO2008156437A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012093913A (ja) * 2010-10-26 2012-05-17 Nippon Hoso Kyokai <Nhk> Cgキャラクタ制作装置及びcgキャラクタ制作プログラム
KR101348680B1 (ko) * 2013-01-09 2014-01-09 국방과학연구소 영상추적기를 위한 표적포착방법 및 이를 이용한 표적포착장치
US10445917B2 (en) 2016-12-07 2019-10-15 Colopl, Inc. Method for communication via virtual space, non-transitory computer readable medium for storing instructions for executing the method on a computer, and information processing system for executing the method
JP7473894B2 (ja) 2020-04-07 2024-04-24 Ksコンサルタント株式会社 画像処理方法、画像処理装置及びそのコンピュータプログラム並びにヒトの顔の撮影処理方法及びその装置

Families Citing this family (277)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9400921B2 (en) * 2001-05-09 2016-07-26 Intel Corporation Method and system using a data-driven model for monocular face tracking
US6977659B2 (en) 2001-10-11 2005-12-20 At & T Corp. Texture replacement in video sequences and images
US7606435B1 (en) * 2002-02-21 2009-10-20 At&T Intellectual Property Ii, L.P. System and method for encoding and decoding using texture replacement
US7783135B2 (en) * 2005-05-09 2010-08-24 Like.Com System and method for providing objectified image renderings using recognition information from images
US20070121146A1 (en) * 2005-11-28 2007-05-31 Steve Nesbit Image processing system
JP2007280485A (ja) * 2006-04-05 2007-10-25 Sony Corp 記録装置、再生装置、記録再生装置、記録方法、再生方法および記録再生方法並びに記録媒体
EP1847958B1 (fr) * 2006-04-14 2014-03-19 Orange Segmentation d'image numérique d'une zone d'observation en temps réel
JP4861109B2 (ja) * 2006-09-27 2012-01-25 富士通株式会社 画像データ処理装置、画像データ処理方法、画像データ処理プログラム、および、撮像装置
US8842118B1 (en) * 2006-10-02 2014-09-23 The Regents Of The University Of California Automated image replacement using deformation and illumination estimation
KR101288970B1 (ko) * 2006-11-28 2013-07-24 삼성전자주식회사 렌더링 장치 및 방법
DE102007033486B4 (de) * 2007-07-18 2010-06-17 Metaio Gmbh Verfahren und System zur Vermischung eines virtuellen Datenmodells mit einem von einer Kamera oder einer Darstellungsvorrichtung generierten Abbild
US8063905B2 (en) * 2007-10-11 2011-11-22 International Business Machines Corporation Animating speech of an avatar representing a participant in a mobile communication
CN100514353C (zh) * 2007-11-26 2009-07-15 清华大学 一种基于人脸生理性运动的活体检测方法及系统
US8217922B2 (en) * 2008-01-07 2012-07-10 Harry Lee Wainwright Synchronized visual and audio apparatus and method
US8430750B2 (en) * 2008-05-22 2013-04-30 Broadcom Corporation Video gaming device with image identification
US20090312100A1 (en) * 2008-06-12 2009-12-17 Harris Scott C Face Simulation in Networking
US8098262B2 (en) * 2008-09-05 2012-01-17 Apple Inc. Arbitrary fractional pixel movement
US8345012B2 (en) * 2008-10-02 2013-01-01 Utc Fire & Security Americas Corporation, Inc. Method and interface device for operating a security system
KR101527408B1 (ko) * 2008-11-04 2015-06-17 삼성전자주식회사 얼굴 표정 검출 방법 및 시스템
US10210179B2 (en) * 2008-11-18 2019-02-19 Excalibur Ip, Llc Dynamic feature weighting
US8584031B2 (en) 2008-11-19 2013-11-12 Apple Inc. Portable touch screen device, method, and graphical user interface for using emoji characters
US9501694B2 (en) * 2008-11-24 2016-11-22 Qualcomm Incorporated Pictorial methods for application selection and activation
CN101436312B (zh) * 2008-12-03 2011-04-06 腾讯科技(深圳)有限公司 一种生成视频动画的方法及装置
US8401334B2 (en) * 2008-12-19 2013-03-19 Disney Enterprises, Inc. Method, system and apparatus for media customization
WO2010102288A2 (en) * 2009-03-06 2010-09-10 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for shader-lamps based physical avatars of real and virtual people
JP5212187B2 (ja) * 2009-03-06 2013-06-19 ブラザー工業株式会社 通信端末装置、表示制御方法、表示制御プログラム
CA2760289A1 (en) * 2009-04-27 2010-11-11 Sonoma Data Solutions Llc A method and apparatus for character animation
JP5361524B2 (ja) * 2009-05-11 2013-12-04 キヤノン株式会社 パターン認識システム及びパターン認識方法
US20100315424A1 (en) * 2009-06-15 2010-12-16 Tao Cai Computer graphic generation and display method and system
US8825131B2 (en) 2009-10-14 2014-09-02 Nocimed, Llc MR spectroscopy system and method for diagnosing painful and non-painful intervertebral discs
US8761860B2 (en) 2009-10-14 2014-06-24 Nocimed, Llc MR spectroscopy system and method for diagnosing painful and non-painful intervertebral discs
US20110093263A1 (en) * 2009-10-20 2011-04-21 Mowzoon Shahin M Automated Video Captioning
US9179102B2 (en) 2009-12-29 2015-11-03 Kodak Alaris Inc. Group display system
TW201129084A (en) * 2010-02-02 2011-08-16 Hon Hai Prec Ind Co Ltd Controlling system and method for camera, adjusting apparatus for camera including the same
US20120327091A1 (en) * 2010-03-08 2012-12-27 Nokia Corporation Gestural Messages in Social Phonebook
FR2958487A1 (fr) * 2010-04-06 2011-10-07 Alcatel Lucent Une methode de detourage en temps reel d'une entite reelle enregistree dans une sequence video
USRE49044E1 (en) * 2010-06-01 2022-04-19 Apple Inc. Automatic avatar creation
WO2011155068A1 (ja) * 2010-06-11 2011-12-15 株式会社アルトロン キャラクタ生成システム、キャラクタ生成方法及びプログラム
US20110311144A1 (en) * 2010-06-17 2011-12-22 Microsoft Corporation Rgb/depth camera for improving speech recognition
JP2012003576A (ja) * 2010-06-18 2012-01-05 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
CN102959943B (zh) * 2010-06-24 2016-03-30 富士胶片株式会社 立体全景图像合成装置和方法、以及图像捕获装置
US8487833B2 (en) * 2010-07-15 2013-07-16 Mersive Technologies, Inc. Sensor driven automatic display configuration system and method
US9489040B2 (en) 2010-07-19 2016-11-08 Smart Technologies Ulc Interactive input system having a 3D input space
KR101714050B1 (ko) * 2010-11-01 2017-03-08 삼성전자주식회사 휴대단말기의 데이터 표시장치 및 방법
US9280718B2 (en) 2010-11-24 2016-03-08 Nocimed, Llc Systems and methods for automated voxelation of regions of interest for magnetic resonance spectroscopy
KR101269773B1 (ko) * 2010-12-13 2013-05-30 주식회사 팬택 증강 현실 제공 단말기 및 방법
MX2013006752A (es) * 2010-12-16 2013-12-06 Landmark Graphics Corp Metodo y sistema para graficar informacion correlacionada.
US8692940B2 (en) * 2010-12-17 2014-04-08 Kodak Alaris Inc. Method for producing a blended video sequence
US9848106B2 (en) * 2010-12-21 2017-12-19 Microsoft Technology Licensing, Llc Intelligent gameplay photo capture
US9082222B2 (en) * 2011-01-18 2015-07-14 Disney Enterprises, Inc. Physical face cloning
JP5785753B2 (ja) * 2011-03-25 2015-09-30 京セラ株式会社 電子機器、制御方法および制御プログラム
JP6185838B2 (ja) * 2011-04-27 2017-08-23 エンパイア テクノロジー ディベロップメント エルエルシー 送信機の3d座標の測定
US20120276504A1 (en) * 2011-04-29 2012-11-01 Microsoft Corporation Talking Teacher Visualization for Language Learning
US9728203B2 (en) * 2011-05-02 2017-08-08 Microsoft Technology Licensing, Llc Photo-realistic synthesis of image sequences with lip movements synchronized with speech
US9613450B2 (en) * 2011-05-03 2017-04-04 Microsoft Technology Licensing, Llc Photo-realistic synthesis of three dimensional animation with facial features synchronized with speech
JP2012244196A (ja) * 2011-05-13 2012-12-10 Sony Corp 画像処理装置及び方法
TW201301148A (zh) * 2011-06-21 2013-01-01 Hon Hai Prec Ind Co Ltd 網頁瀏覽控制系統及方法
US8929598B2 (en) * 2011-06-29 2015-01-06 Olympus Imaging Corp. Tracking apparatus, tracking method, and storage medium to store tracking program
DE102011107295A1 (de) 2011-07-06 2013-01-10 Gottfried Wilhelm Leibniz Universität Hannover Verfahren, Einrichtung und Computerprogramm zur Erzeugung einer fotorealistischen Gesichtsanimation
US10049482B2 (en) 2011-07-22 2018-08-14 Adobe Systems Incorporated Systems and methods for animation recommendations
US10027952B2 (en) * 2011-08-04 2018-07-17 Trx Systems, Inc. Mapping and tracking system with features in three-dimensional space
NO333184B1 (no) * 2011-08-31 2013-03-25 Cisco Tech Inc Metode og anordning for samarbeidende representasjon i videokonferanser
US20130265333A1 (en) * 2011-09-08 2013-10-10 Lucas B. Ainsworth Augmented Reality Based on Imaged Object Characteristics
US8937646B1 (en) * 2011-10-05 2015-01-20 Amazon Technologies, Inc. Stereo imaging using disparate imaging devices
US8754892B2 (en) * 2011-10-28 2014-06-17 International Business Machines Corporation Visualization of virtual image relationships and attributes
US10748325B2 (en) 2011-11-17 2020-08-18 Adobe Inc. System and method for automatic rigging of three dimensional characters for facial animation
GB2496893A (en) * 2011-11-25 2013-05-29 Nokia Corp Presenting Name Bubbles at Different Image Zoom Levels
KR20130063310A (ko) * 2011-12-06 2013-06-14 엘지전자 주식회사 이동 단말기 및 이의 제어방법
WO2013091132A1 (en) * 2011-12-20 2013-06-27 Intel Corporation Automatic adjustment of display image using face detection
US8860660B2 (en) * 2011-12-29 2014-10-14 Grinbath, Llc System and method of determining pupil center position
US9910490B2 (en) 2011-12-29 2018-03-06 Eyeguide, Inc. System and method of cursor position control based on the vestibulo-ocular reflex
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US8984622B1 (en) * 2012-01-17 2015-03-17 Amazon Technologies, Inc. User authentication through video analysis
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US20150253428A1 (en) 2013-03-15 2015-09-10 Leap Motion, Inc. Determining positional information for an object in space
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
KR101308946B1 (ko) * 2012-02-02 2013-09-24 한국과학기술연구원 3차원 얼굴 형상 재구성 방법
US9747495B2 (en) 2012-03-06 2017-08-29 Adobe Systems Incorporated Systems and methods for creating and distributing modifiable animated video messages
WO2013148308A1 (en) * 2012-03-28 2013-10-03 Intel Corporation Systems, methods, and computer program products for low-latency warping of a depth map
US10702773B2 (en) * 2012-03-30 2020-07-07 Videx, Inc. Systems and methods for providing an interactive avatar
CN103366782B (zh) * 2012-04-06 2014-09-10 腾讯科技(深圳)有限公司 在虚拟形象上自动播放表情的方法和装置
US8965094B2 (en) 2012-04-14 2015-02-24 Nocimed, Llc Magnetic resonance spectroscopy pulse sequence, acquisition, and processing system and method
US9792715B2 (en) 2012-05-17 2017-10-17 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for utilizing synthetic animatronics
US20130314401A1 (en) * 2012-05-23 2013-11-28 1-800 Contacts, Inc. Systems and methods for generating a 3-d model of a user for a virtual try-on product
JP6041535B2 (ja) * 2012-05-29 2016-12-07 株式会社トプコン 画像取得方法及び撮影装置
US9746327B2 (en) 2012-06-12 2017-08-29 Trx Systems, Inc. Fusion of sensor and map data using constraint based optimization
US8913141B2 (en) * 2012-06-28 2014-12-16 Gopro, Inc. Edge-based electronic image stabilization
US8897485B2 (en) * 2012-06-29 2014-11-25 Intellectual Ventures Fund 83 Llc Determining an interest level for an image
US9558425B2 (en) 2012-08-16 2017-01-31 The Penn State Research Foundation Automatically computing emotions aroused from images through shape modeling
US8811772B2 (en) * 2012-08-21 2014-08-19 Tianzhi Yang Mapping evaluating for spatial point sets
US9088688B2 (en) 2012-09-05 2015-07-21 Cisco Technology, Inc. System and method for collaboration revelation and participant stacking in a network environment
US9154805B2 (en) * 2012-09-12 2015-10-06 Advanced Micro Devices, Inc. Video and image compression based on position of the image generating device
US8913846B2 (en) 2012-09-24 2014-12-16 Barco N.V. Method and system for validating image data
US9299389B2 (en) * 2012-09-24 2016-03-29 Adobe Systems Incorporated Interpretation of free-form timelines into compositing instructions
US20140085198A1 (en) 2012-09-26 2014-03-27 Grinbath, Llc Correlating Pupil Position to Gaze Location Within a Scene
US9746990B2 (en) * 2012-09-28 2017-08-29 Intel Corporation Selectively augmenting communications transmitted by a communication device
US20140105466A1 (en) * 2012-10-16 2014-04-17 Ocean Images UK Ltd. Interactive photography system and method employing facial recognition
JP6098133B2 (ja) * 2012-11-21 2017-03-22 カシオ計算機株式会社 顔構成部抽出装置、顔構成部抽出方法及びプログラム
US9230158B1 (en) 2012-12-18 2016-01-05 Amazon Technologies, Inc. Fraud detection for facial recognition systems
US20140168264A1 (en) 2012-12-19 2014-06-19 Lockheed Martin Corporation System, method and computer program product for real-time alignment of an augmented reality device
US8797461B2 (en) * 2012-12-28 2014-08-05 Behavioral Technologies LLC Screen time control device and method
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
KR20140099702A (ko) * 2013-02-04 2014-08-13 한국전자통신연구원 이동통신 단말기 및 그 동작방법
US10708545B2 (en) * 2018-01-17 2020-07-07 Duelight Llc System, method, and computer program for transmitting face models based on face data points
RU2013110494A (ru) * 2013-03-11 2014-09-20 ЭлЭсАй Корпорейшн Устройство обработки изображений с уровнем оценки, реализующим программный и аппаратный алгоритмы разной точности
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
KR102134443B1 (ko) * 2013-05-03 2020-07-15 삼성전자주식회사 전자 기기 및 제어 동작에 기초한 전자 기기의 화면 조작 방법
WO2014201347A1 (en) * 2013-06-14 2014-12-18 Intercontinental Great Brands Llc Interactive video games
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US10846942B1 (en) 2013-08-29 2020-11-24 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
TWI671657B (zh) * 2013-09-18 2019-09-11 日商半導體能源研究所股份有限公司 顯示裝置、顯示裝置的驅動方法、程式以及儲存介質
US9286718B2 (en) * 2013-09-27 2016-03-15 Ortery Technologies, Inc. Method using 3D geometry data for virtual reality image presentation and control in 3D space
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
TWI603288B (zh) * 2013-10-15 2017-10-21 萬里科技股份有限公司 在3d空間中將3d幾何數據用於虛擬實境圖像的呈現和控制的方法
CN104574497B (zh) * 2013-10-24 2017-04-05 万里科技股份有限公司 一种配对一个2d摄影图像文件和一个3d网格的方法
US9478056B2 (en) * 2013-10-28 2016-10-25 Google Inc. Image cache for replacing portions of images
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
JP2015088096A (ja) * 2013-11-01 2015-05-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
WO2015070258A1 (en) 2013-11-11 2015-05-14 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for improved illumination of spatial augmented reality objects
EP3070681A4 (en) * 2013-11-13 2017-07-12 Sony Corporation Display control device, display control method and program
CN104637078B (zh) * 2013-11-14 2017-12-15 腾讯科技(深圳)有限公司 一种图像处理方法及装置
US9491365B2 (en) * 2013-11-18 2016-11-08 Intel Corporation Viewfinder wearable, at least in part, by human operator
US20150174493A1 (en) * 2013-12-20 2015-06-25 Onor, Inc. Automated content curation and generation of online games
US9767855B2 (en) * 2014-02-06 2017-09-19 Testo Ag Method for creating a 3D model of an object and corresponding model calculation device and model calculation device
US10417824B2 (en) 2014-03-25 2019-09-17 Apple Inc. Method and system for representing a virtual object in a view of a real environment
CN103915092B (zh) * 2014-04-01 2019-01-25 百度在线网络技术(北京)有限公司 语音识别方法和装置
US9639742B2 (en) * 2014-04-28 2017-05-02 Microsoft Technology Licensing, Llc Creation of representative content based on facial analysis
US9342869B2 (en) * 2014-04-29 2016-05-17 Adobe Systems Incorporated Discriminative indexing for patch-based image enhancement
US9773156B2 (en) 2014-04-29 2017-09-26 Microsoft Technology Licensing, Llc Grouping and ranking images based on facial recognition data
KR102250856B1 (ko) 2014-04-30 2021-05-11 삼성전자주식회사 터치 입력 검출 방법, 터치 입력 감지 장치, 및 좌표 표시 장치
JP6436430B2 (ja) * 2014-05-16 2018-12-12 パナソニックIpマネジメント株式会社 画像撮影表示装置および画像撮影表示装置の動作方法
US9332285B1 (en) 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
KR101629553B1 (ko) * 2014-05-29 2016-06-14 주식회사 듀얼어퍼처인터네셔널 이동 단말기에서 디스플레이 화면 제어 장치 및 그 방법
US9710972B2 (en) * 2014-05-30 2017-07-18 Lucasfilm Entertainment Company Ltd. Immersion photography with dynamic matte screen
US10037202B2 (en) 2014-06-03 2018-07-31 Microsoft Technology Licensing, Llc Techniques to isolating a portion of an online computing service
US9510191B2 (en) 2014-06-20 2016-11-29 Facebook, Inc. Authorization of network address tracking
US20160042233A1 (en) * 2014-08-06 2016-02-11 ProSent Mobile Corporation Method and system for facilitating evaluation of visual appeal of two or more objects
JP2016038889A (ja) 2014-08-08 2016-03-22 リープ モーション, インコーポレーテッドLeap Motion, Inc. モーション感知を伴う拡張現実
US9807316B2 (en) * 2014-09-04 2017-10-31 Htc Corporation Method for image segmentation
US9710879B2 (en) * 2014-09-08 2017-07-18 Ross Video Limited Methods and systems for computing an alpha channel value
US9892514B2 (en) 2014-10-10 2018-02-13 Facebook, Inc. Post-manufacture camera calibration
US9412046B2 (en) 2014-10-10 2016-08-09 Facebook, Inc. Training image adjustment preferences
US9959610B2 (en) * 2014-10-30 2018-05-01 Applied Materials, Inc. System and method to detect substrate and/or substrate support misalignment using imaging
US9806809B2 (en) 2014-11-06 2017-10-31 Facebook, Inc. Deploying line-of-sight communication networks
US9661552B2 (en) 2014-11-06 2017-05-23 Facebook, Inc. Association in line-of-sight communication networks
US9793988B2 (en) 2014-11-06 2017-10-17 Facebook, Inc. Alignment in line-of-sight communication networks
US10043101B2 (en) * 2014-11-07 2018-08-07 Adobe Systems Incorporated Local feature representation for image recognition
EP3029942B1 (en) * 2014-12-04 2017-08-23 Axis AB Method and device for inserting a graphical overlay in a video stream
US20160282966A1 (en) * 2015-03-23 2016-09-29 Uhdevice Electronics Jiangsu Co., Ltd. Input devices and methods
US9990712B2 (en) * 2015-04-08 2018-06-05 Algotec Systems Ltd. Organ detection and segmentation
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
WO2017015390A1 (en) * 2015-07-20 2017-01-26 University Of Maryland, College Park Deep multi-task learning framework for face detection, landmark localization, pose estimation, and gender recognition
US11601632B2 (en) 2015-08-28 2023-03-07 VR Drive, sp. z o.o. Device and method of creating an augmented interactive virtual reality system
US10692286B2 (en) * 2015-08-28 2020-06-23 VR Drive Sp. z O.O. Device and method of creating an augmented interactive virtual reality system
US10445425B2 (en) 2015-09-15 2019-10-15 Apple Inc. Emoji and canned responses
US10217286B1 (en) * 2015-09-21 2019-02-26 Amazon Technologies, Inc. Realistic rendering for virtual reality applications
KR102531117B1 (ko) * 2015-10-07 2023-05-10 삼성메디슨 주식회사 대상체를 나타내는 영상을 디스플레이하는 방법 및 장치.
US10860887B2 (en) * 2015-11-16 2020-12-08 Samsung Electronics Co., Ltd. Method and apparatus for recognizing object, and method and apparatus for training recognition model
US9846800B2 (en) 2015-11-16 2017-12-19 MorphoTrak, LLC Fingerprint matching using virtual minutiae
US10025972B2 (en) * 2015-11-16 2018-07-17 Facebook, Inc. Systems and methods for dynamically generating emojis based on image analysis of facial features
US10846895B2 (en) * 2015-11-23 2020-11-24 Anantha Pradeep Image processing mechanism
US10212359B2 (en) 2015-12-30 2019-02-19 Cerner Innovation, Inc. Camera normalization
JP6350772B2 (ja) * 2016-02-25 2018-07-04 日本電気株式会社 情報処理システム、情報処理装置、制御方法、及びプログラム
US20170262996A1 (en) * 2016-03-11 2017-09-14 Qualcomm Incorporated Action localization in sequential data with attention proposals from a recurrent network
JP2017162391A (ja) * 2016-03-11 2017-09-14 東芝メモリ株式会社 画像処理方法及び画像処理プログラム
US10733275B1 (en) * 2016-04-01 2020-08-04 Massachusetts Mutual Life Insurance Company Access control through head imaging and biometric authentication
US10956544B1 (en) 2016-04-01 2021-03-23 Massachusetts Mutual Life Insurance Company Access control through head imaging and biometric authentication
US11409791B2 (en) 2016-06-10 2022-08-09 Disney Enterprises, Inc. Joint heterogeneous language-vision embeddings for video tagging and search
US10169903B2 (en) * 2016-06-12 2019-01-01 Apple Inc. Animation techniques for mobile devices
US11580608B2 (en) 2016-06-12 2023-02-14 Apple Inc. Managing contact information for communication applications
AU2017282665B2 (en) 2016-06-19 2022-05-19 Aclarion, Inc. Magnetic resonance spectroscopy system and method for diagnosing pain or infection associated with propionic acid
US10559111B2 (en) 2016-06-23 2020-02-11 LoomAi, Inc. Systems and methods for generating computer ready animation models of a human head from captured data images
WO2017223530A1 (en) 2016-06-23 2017-12-28 LoomAi, Inc. Systems and methods for generating computer ready animation models of a human head from captured data images
CN106101540B (zh) * 2016-06-28 2019-08-06 北京旷视科技有限公司 对焦点确定方法及装置
US10096165B2 (en) * 2016-06-30 2018-10-09 Intel Corporation Technologies for virtual camera scene generation using physical object sensing
US10573065B2 (en) 2016-07-29 2020-02-25 Activision Publishing, Inc. Systems and methods for automating the personalization of blendshape rigs based on performance capture data
US11308662B2 (en) 2016-08-02 2022-04-19 Shanghai United Imaging Healthcare Co., Ltd. System and method for image reconstruction
US9996773B2 (en) * 2016-08-04 2018-06-12 International Business Machines Corporation Face recognition in big data ecosystem using multiple recognition models
US9904844B1 (en) 2016-08-04 2018-02-27 International Business Machines Corporation Clustering large database of images using multilevel clustering approach for optimized face recognition process
US10416511B2 (en) * 2016-08-31 2019-09-17 Panasonic Liquid Crystal Display Co., Ltd. Liquid crystal display device
US10600226B2 (en) * 2016-09-07 2020-03-24 The University Of Hong Kong System and method for manipulating a facial image and a system for animating a facial image
KR20180028782A (ko) * 2016-09-09 2018-03-19 삼성전자주식회사 전자 장치 및 그 제어 방법
KR101961758B1 (ko) * 2016-09-21 2019-03-25 김하동 3차원 컨텐츠 제공 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
KR102594201B1 (ko) * 2016-09-22 2023-10-27 삼성디스플레이 주식회사 영상 처리 방법 및 이를 수행하는 표시 장치
DK179978B1 (en) 2016-09-23 2019-11-27 Apple Inc. IMAGE DATA FOR ENHANCED USER INTERACTIONS
US10929743B2 (en) * 2016-09-27 2021-02-23 Disney Enterprises, Inc. Learning to schedule control fragments for physics-based character simulation and robots using deep Q-learning
US9972301B2 (en) * 2016-10-18 2018-05-15 Mastercard International Incorporated Systems and methods for correcting text-to-speech pronunciation
US10497172B2 (en) * 2016-12-01 2019-12-03 Pinscreen, Inc. Photorealistic facial texture inference using deep neural networks
US10055880B2 (en) 2016-12-06 2018-08-21 Activision Publishing, Inc. Methods and systems to modify a two dimensional facial image to increase dimensional depth and generate a facial image that appears three dimensional
US10860841B2 (en) * 2016-12-29 2020-12-08 Samsung Electronics Co., Ltd. Facial expression image processing method and apparatus
KR101900180B1 (ko) * 2017-01-11 2018-09-18 포항공과대학교 산학협력단 영상의 특성 추출을 위한 영상 분석 방법 및 장치
TWI748035B (zh) * 2017-01-20 2021-12-01 日商半導體能源硏究所股份有限公司 顯示系統及電子裝置
WO2018153267A1 (zh) * 2017-02-24 2018-08-30 腾讯科技(深圳)有限公司 群组视频会话的方法及网络设备
US10210647B2 (en) * 2017-03-02 2019-02-19 International Business Machines Corporation Generating a personal avatar and morphing the avatar in time
US10828130B2 (en) * 2017-03-20 2020-11-10 Align Technology, Inc. Automated 2D/3D integration and lip spline autoplacement
KR20230144661A (ko) 2017-05-16 2023-10-16 애플 인크. 이모지 레코딩 및 전송
JP6596771B2 (ja) * 2017-05-19 2019-10-30 トヨタ自動車株式会社 情報提供装置および情報提供方法
KR102355391B1 (ko) * 2017-06-02 2022-01-24 애플 인크. 가상 기재로서 사용하기 위한 평면 및/또는 쿼드트리들을 검출하기 위한 방법 및 디바이스
US10796477B2 (en) * 2017-06-20 2020-10-06 Edx Technologies, Inc. Methods, devices, and systems for determining field of view and producing augmented reality
US10778939B2 (en) * 2017-09-22 2020-09-15 Facebook, Inc. Media effects using predicted facial feature locations
CN107592488A (zh) * 2017-09-30 2018-01-16 联想(北京)有限公司 一种视频数据处理方法及电子设备
US10586368B2 (en) * 2017-10-26 2020-03-10 Snap Inc. Joint audio-video facial animation system
JP6888542B2 (ja) * 2017-12-22 2021-06-16 トヨタ自動車株式会社 眠気推定装置及び眠気推定方法
US10446113B2 (en) * 2018-01-30 2019-10-15 ForeFlight LLC Method and system for inversion of raster images
US10346198B1 (en) 2018-02-12 2019-07-09 Avodah Labs, Inc. Data processing architecture for improved data flow
US10289903B1 (en) * 2018-02-12 2019-05-14 Avodah Labs, Inc. Visual sign language translation training device and method
US10489639B2 (en) 2018-02-12 2019-11-26 Avodah Labs, Inc. Automated sign language translation and communication using multiple input and output modalities
WO2019157344A1 (en) 2018-02-12 2019-08-15 Avodah Labs, Inc. Real-time gesture recognition method and apparatus
US10304208B1 (en) 2018-02-12 2019-05-28 Avodah Labs, Inc. Automated gesture identification using neural networks
US11508107B2 (en) 2018-02-26 2022-11-22 Didimo, Inc. Additional developments to the automatic rig creation process
US11741650B2 (en) 2018-03-06 2023-08-29 Didimo, Inc. Advanced electronic messaging utilizing animatable 3D models
US10706577B2 (en) * 2018-03-06 2020-07-07 Fotonation Limited Facial features tracker with advanced training for natural rendering of human faces in real-time
WO2019173108A1 (en) * 2018-03-06 2019-09-12 Didimo, Inc. Electronic messaging utilizing animatable 3d models
TWI687917B (zh) * 2018-03-07 2020-03-11 宏碁股份有限公司 語音系統及聲音偵測方法
US10810471B1 (en) * 2018-03-22 2020-10-20 Amazon Technologies, Inc. Intelligent coalescing of media streams
US10628662B2 (en) * 2018-04-05 2020-04-21 International Business Machines Corporation Automated and unsupervised curation of image datasets
CN112106110B (zh) * 2018-04-27 2023-02-10 上海趋视信息科技有限公司 标定相机的系统和方法
DK180078B1 (en) 2018-05-07 2020-03-31 Apple Inc. USER INTERFACE FOR AVATAR CREATION
US12033296B2 (en) 2018-05-07 2024-07-09 Apple Inc. Avatar creation user interface
CN108805047B (zh) * 2018-05-25 2021-06-25 北京旷视科技有限公司 一种活体检测方法、装置、电子设备和计算机可读介质
US10198845B1 (en) 2018-05-29 2019-02-05 LoomAi, Inc. Methods and systems for animating facial expressions
US11553988B2 (en) 2018-06-29 2023-01-17 Align Technology, Inc. Photo of a patient with new simulated smile in an orthodontic treatment review software
US10558761B2 (en) * 2018-07-05 2020-02-11 Disney Enterprises, Inc. Alignment of video and textual sequences for metadata analysis
US10529112B1 (en) * 2018-07-17 2020-01-07 Swaybox Studios, Inc. Method and system for generating a visual effect of object animation
US10897647B1 (en) * 2018-07-25 2021-01-19 Imdb.Com, Inc. Ascertaining audience reactions for a media item
US10636218B2 (en) 2018-09-24 2020-04-28 Universal City Studios Llc Augmented reality for an amusement ride
CN110771150B (zh) * 2018-09-29 2022-04-05 深圳市大疆创新科技有限公司 视频处理方法、装置、拍摄系统及计算机可读存储介质
US10720123B2 (en) * 2018-10-05 2020-07-21 International Business Machines Corporation Self-adjusting curved display screen
US10297070B1 (en) * 2018-10-16 2019-05-21 Inception Institute of Artificial Intelligence, Ltd 3D scene synthesis techniques using neural network architectures
US10896320B2 (en) * 2018-11-14 2021-01-19 Baidu Usa Llc Child face distance alert system
US10803669B1 (en) 2018-12-11 2020-10-13 Amazon Technologies, Inc. Rule-based augmentation of a physical environment
US10848335B1 (en) * 2018-12-11 2020-11-24 Amazon Technologies, Inc. Rule-based augmentation of a physical environment
US11055514B1 (en) * 2018-12-14 2021-07-06 Snap Inc. Image face manipulation
US12067966B2 (en) * 2018-12-20 2024-08-20 Sony Group Corporation Information processing apparatus and information processing method
US11386562B2 (en) * 2018-12-28 2022-07-12 Cyberlink Corp. Systems and methods for foreground and background processing of content in a live video
US11024071B2 (en) * 2019-01-02 2021-06-01 Espiritu Technologies, Llc Method of converting phoneme transcription data into lip sync animation data for 3D animation software
JP7242309B2 (ja) * 2019-01-16 2023-03-20 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
US11049310B2 (en) * 2019-01-18 2021-06-29 Snap Inc. Photorealistic real-time portrait animation
KR20210114521A (ko) * 2019-01-25 2021-09-23 소울 머신스 리미티드 스피치 애니메이션의 실시간 생성
USD912139S1 (en) 2019-01-28 2021-03-02 Avodah, Inc. Integrated dual display sensor
US11568645B2 (en) 2019-03-21 2023-01-31 Samsung Electronics Co., Ltd. Electronic device and controlling method thereof
US11037329B2 (en) * 2019-06-03 2021-06-15 Google Llc Encoding positional coordinates based on multiple channel color values
US10861384B1 (en) * 2019-06-26 2020-12-08 Novatek Microelectronics Corp. Method of controlling image data and related image control system
US11151794B1 (en) 2019-06-28 2021-10-19 Snap Inc. Messaging system with augmented reality messages
US11551393B2 (en) 2019-07-23 2023-01-10 LoomAi, Inc. Systems and methods for animation generation
US10552667B1 (en) * 2019-08-19 2020-02-04 Neon Evolution Inc. Methods and systems for image processing
US10949715B1 (en) * 2019-08-19 2021-03-16 Neon Evolution Inc. Methods and systems for image and voice processing
US10658005B1 (en) 2019-08-19 2020-05-19 Neon Evolution Inc. Methods and systems for image and voice processing
US10803646B1 (en) 2019-08-19 2020-10-13 Neon Evolution Inc. Methods and systems for image and voice processing
US10671838B1 (en) 2019-08-19 2020-06-02 Neon Evolution Inc. Methods and systems for image and voice processing
US11182945B2 (en) 2019-08-29 2021-11-23 Didimo, Inc. Automatically generating an animatable object from various types of user input
US11645800B2 (en) 2019-08-29 2023-05-09 Didimo, Inc. Advanced systems and methods for automatically generating an animatable object from various types of user input
US11244150B2 (en) * 2019-09-10 2022-02-08 Bharti Airtel Limited Facial liveness detection
US11204538B2 (en) 2020-01-03 2021-12-21 Verily Life Sciences Llc Portable photo studios
US11159747B2 (en) 2020-01-03 2021-10-26 Verily Life Sciences Llc Systems including portable photo studios
WO2021138439A1 (en) * 2020-01-03 2021-07-08 Verily Life Sciences Llc Portable photo studios
US11593967B2 (en) * 2020-01-08 2023-02-28 Samsung Electronics Co., Ltd. Attribute transfer in V-PCC
KR20210117066A (ko) * 2020-03-18 2021-09-28 라인플러스 주식회사 음향 기반 아바타 모션 제어 방법 및 장치
US11138781B1 (en) 2020-04-01 2021-10-05 International Business Machines Corporation Creation of photorealistic 3D avatars using deep neural networks
CN113934289A (zh) * 2020-06-29 2022-01-14 北京字节跳动网络技术有限公司 数据处理方法、装置、可读介质及电子设备
CN111860508B (zh) * 2020-07-28 2024-07-02 平安科技(深圳)有限公司 图像样本选择方法及相关设备
US11482004B2 (en) * 2020-07-29 2022-10-25 Disney Enterprises, Inc. Fast video content matching
CN112102153B (zh) * 2020-08-20 2023-08-01 北京百度网讯科技有限公司 图像的卡通化处理方法、装置、电子设备和存储介质
US11438551B2 (en) * 2020-09-15 2022-09-06 At&T Intellectual Property I, L.P. Virtual audience using low bitrate avatars and laughter detection
CN111968207B (zh) * 2020-09-25 2021-10-29 魔珐(上海)信息科技有限公司 动画生成方法、装置、系统及存储介质
US11908233B2 (en) 2020-11-02 2024-02-20 Pinscreen, Inc. Normalization of facial images using deep neural networks
CN114519841A (zh) * 2020-11-05 2022-05-20 百威雷科技控股有限公司 生产线监视方法及其监视系统
US12073527B2 (en) * 2021-02-24 2024-08-27 Sony Group Corporation Three-dimensional (3D) human modeling under specific body-fitting of clothes
US11308657B1 (en) 2021-08-11 2022-04-19 Neon Evolution Inc. Methods and systems for image processing using a learning engine
US11763509B2 (en) * 2021-11-15 2023-09-19 Lenovo (Singapore) Pte. Ltd. Frame calibration for robust video synthesis
US12010239B2 (en) 2022-02-11 2024-06-11 Avaworks Incorporated Talking head digital identity authentication
WO2023219752A1 (en) * 2022-05-13 2023-11-16 Alexander Waibel Face-translator: end-to-end system for speech-translated lip-synchronized and voice preserving video generation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11219446A (ja) * 1998-02-03 1999-08-10 Matsushita Electric Ind Co Ltd 映像音響再生システム
JP2002032785A (ja) * 2000-07-19 2002-01-31 Toyobo Co Ltd 表示制御装置および方法、ならびに、表示制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2002232783A (ja) * 2001-02-06 2002-08-16 Sony Corp 画像処理装置および画像処理方法、並びにプログラム記憶媒体

Family Cites Families (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1245402A (en) 1916-01-22 1917-11-06 American Telephone & Telegraph System for observing telephone service.
US2451902A (en) 1944-12-22 1948-10-19 Bassani Laurent Process for color cinematography on lenticular films
US2711667A (en) 1952-01-30 1955-06-28 Reflectone Corp Prompting device
US3909802A (en) 1974-04-08 1975-09-30 Honeywell Inf Systems Diagnostic maintenance and test apparatus
US4243984A (en) 1979-03-08 1981-01-06 Texas Instruments Incorporated Video display processor
US4262302A (en) 1979-03-05 1981-04-14 Texas Instruments Incorporated Video display processor having an integral composite video generator
US4276570A (en) 1979-05-08 1981-06-30 Nancy Burson Method and apparatus for producing an image of a person's face at a different age
US4710873A (en) 1982-07-06 1987-12-01 Marvin Glass & Associates Video game incorporating digitized images of being into game graphics
DE163863T1 (de) 1984-04-13 1986-04-30 Ascii Corp., Tokio/Tokyo Videoanzeigesteuereinheit zur anzeige von beweglichen mustern.
FR2576733B1 (fr) 1985-01-28 1987-04-24 Telediffusion Fse Systeme de surimpression d'images
GB8528143D0 (en) * 1985-11-14 1985-12-18 British Telecomm Image encoding & synthesis
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US6054999A (en) * 1988-03-22 2000-04-25 Strandberg; Oerjan Method and apparatus for computer supported animation
US5086354A (en) 1989-02-27 1992-02-04 Bass Robert E Three dimensional optical viewing system
US5719951A (en) 1990-07-17 1998-02-17 British Telecommunications Public Limited Company Normalized image feature processing
GB9019538D0 (en) 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
US5613056A (en) 1991-02-19 1997-03-18 Bright Star Technology, Inc. Advanced tools for speech synchronized animation
GB9119964D0 (en) 1991-09-18 1991-10-30 Sarnoff David Res Center Pattern-key video insertion
US5680481A (en) 1992-05-26 1997-10-21 Ricoh Corporation Facial feature extraction method and apparatus for a neural network acoustic and visual speech recognition system
JPH05336441A (ja) 1992-06-03 1993-12-17 Pioneer Electron Corp 映像合成エフェクト装置
JPH0786412B2 (ja) 1992-10-14 1995-09-20 株式会社高田工業所 人相判定方法
US5404437A (en) 1992-11-10 1995-04-04 Sigma Designs, Inc. Mixing of computer graphics and animation sequences
US5878396A (en) 1993-01-21 1999-03-02 Apple Computer, Inc. Method and apparatus for synthetic speech in facial animation
US5487145A (en) 1993-07-09 1996-01-23 Taligent, Inc. Method and apparatus for compositing display items which minimizes locked drawing areas
US6351265B1 (en) 1993-10-15 2002-02-26 Personalized Online Photo Llc Method and apparatus for producing an electronic image
US5689575A (en) 1993-11-22 1997-11-18 Hitachi, Ltd. Method and apparatus for processing images of facial expressions
US5583536A (en) 1994-06-09 1996-12-10 Intel Corporation Method and apparatus for analog video merging and key detection
US5519450A (en) 1994-11-14 1996-05-21 Texas Instruments Incorporated Graphics subsystem for digital television
US6232965B1 (en) 1994-11-30 2001-05-15 California Institute Of Technology Method and apparatus for synthesizing realistic animations of a human speaking using a computer
US5546518A (en) 1995-01-06 1996-08-13 Microsoft Corporation System and method for composing a display frame of multiple layered graphic sprites
US6072933A (en) 1995-03-06 2000-06-06 Green; David System for producing personalized video recordings
US5880739A (en) 1995-06-06 1999-03-09 Compaq Computer Corporation Blitting of images using instructions
US5818461A (en) 1995-12-01 1998-10-06 Lucas Digital, Ltd. Method and apparatus for creating lifelike digital representations of computer animated objects
US5774591A (en) 1995-12-15 1998-06-30 Xerox Corporation Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images
US5751576A (en) 1995-12-18 1998-05-12 Ag-Chem Equipment Co., Inc. Animated map display method for computer-controlled agricultural product application equipment
US5977933A (en) 1996-01-11 1999-11-02 S3, Incorporated Dual image computer display controller
US5923337A (en) 1996-04-23 1999-07-13 Image Link Co., Ltd. Systems and methods for communicating through computer animated images
US6084979A (en) 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
US6356313B1 (en) 1997-06-26 2002-03-12 Sony Corporation System and method for overlay of a motion video signal on an analog video signal
US6009212A (en) 1996-07-10 1999-12-28 Washington University Method and apparatus for image registration
US5926190A (en) 1996-08-21 1999-07-20 Apple Computer, Inc. Method and system for simulating motion in a computer graphics application using image registration and view interpolation
JP2918499B2 (ja) 1996-09-17 1999-07-12 株式会社エイ・ティ・アール人間情報通信研究所 顔画像情報変換方法および顔画像情報変換装置
US6028960A (en) 1996-09-20 2000-02-22 Lucent Technologies Inc. Face feature analysis for automatic lipreading and character animation
US6044168A (en) 1996-11-25 2000-03-28 Texas Instruments Incorporated Model based faced coding and decoding using feature detection and eigenface coding
DE69734437T2 (de) 1996-12-06 2006-10-05 Koninklijke Philips Electronics N.V. Mischung eines grafiksignals mit einem videosignal
US5956180A (en) 1996-12-31 1999-09-21 Bass; Robert Optical viewing system for asynchronous overlaid images
US5818463A (en) 1997-02-13 1998-10-06 Rockwell Science Center, Inc. Data compression for animated three dimensional objects
US5960099A (en) 1997-02-25 1999-09-28 Hayes, Jr.; Carl Douglas System and method for creating a digitized likeness of persons
US6283858B1 (en) 1997-02-25 2001-09-04 Bgk International Incorporated Method for manipulating images
US5933151A (en) 1997-03-26 1999-08-03 Lucent Technologies Inc. Simulated natural movement of a computer-generated synthesized talking head
US5982452A (en) 1997-03-27 1999-11-09 Dalhousie University Analog video merging system for merging N video signals from N video cameras
US5835194A (en) 1997-03-31 1998-11-10 Eastman Kodak Company Apparatus and method for aligning and printing integral images
US5959718A (en) 1997-03-31 1999-09-28 Eastman Kodak Company Alignment and printing of integral images
US6044226A (en) 1997-05-16 2000-03-28 Mcwilliams; Steven M. Attention focusing device and method for photography subject
US5983190A (en) 1997-05-19 1999-11-09 Microsoft Corporation Client server animation system for managing interactive user interface characters
US6016148A (en) 1997-06-06 2000-01-18 Digital Equipment Corporation Automated mapping of facial images to animation wireframes topologies
US5995119A (en) 1997-06-06 1999-11-30 At&T Corp. Method for generating photo-realistic animated characters
US6157747A (en) 1997-08-01 2000-12-05 Microsoft Corporation 3-dimensional image rotation method and apparatus for producing image mosaics
US6314197B1 (en) 1997-08-22 2001-11-06 International Business Machines Corporation Determining an alignment estimation between two (fingerprint) images
US6128108A (en) 1997-09-03 2000-10-03 Mgi Software Corporation Method and system for compositing images
US6069633A (en) 1997-09-18 2000-05-30 Netscape Communications Corporation Sprite engine
US6307576B1 (en) 1997-10-02 2001-10-23 Maury Rosenfeld Method for automatically animating lip synchronization and facial expression of animated characters
US6166744A (en) 1997-11-26 2000-12-26 Pathfinder Systems, Inc. System for combining virtual images with real-world scenes
AU2559399A (en) 1998-01-16 1999-08-02 Thresholds Unlimited, Inc. Head up display and vision system
CA2227361A1 (en) 1998-01-19 1999-07-19 Taarna Studios Inc. Method and apparatus for providing real-time animation utilizing a database of expressions
US6272231B1 (en) 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
US6301370B1 (en) 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
US6181351B1 (en) 1998-04-13 2001-01-30 Microsoft Corporation Synchronizing the moveable mouths of animated characters with recorded speech
US6072496A (en) 1998-06-08 2000-06-06 Microsoft Corporation Method and system for capturing and representing 3D geometry, color and shading of facial expressions and other animated objects
US6278466B1 (en) 1998-06-11 2001-08-21 Presenter.Com, Inc. Creating animation from a video
US6250928B1 (en) 1998-06-22 2001-06-26 Massachusetts Institute Of Technology Talking facial display method and apparatus
US6362850B1 (en) 1998-08-04 2002-03-26 Flashpoint Technology, Inc. Interactive movie creation from one or more still images in a digital imaging device
US6229550B1 (en) 1998-09-04 2001-05-08 Sportvision, Inc. Blending a graphic
US6205364B1 (en) 1999-02-02 2001-03-20 Creo Ltd. Method and apparatus for registration control during processing of a workpiece particularly during producing images on substrates in preparing printed circuit boards
US6362797B1 (en) 1999-05-14 2002-03-26 Rockwell Collins, Inc. Apparatus for aligning multiple projected images in cockpit displays
KR100343223B1 (ko) 1999-12-07 2002-07-10 윤종용 화자 위치 검출 장치 및 그 방법
US6504546B1 (en) * 2000-02-08 2003-01-07 At&T Corp. Method of modeling objects to synthesize three-dimensional, photo-realistic animations
US6654018B1 (en) 2001-03-29 2003-11-25 At&T Corp. Audio-visual selection process for the synthesis of photo-realistic talking-head animations
US6919892B1 (en) 2002-08-14 2005-07-19 Avaworks, Incorporated Photo realistic talking head creation system and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11219446A (ja) * 1998-02-03 1999-08-10 Matsushita Electric Ind Co Ltd 映像音響再生システム
JP2002032785A (ja) * 2000-07-19 2002-01-31 Toyobo Co Ltd 表示制御装置および方法、ならびに、表示制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2002232783A (ja) * 2001-02-06 2002-08-16 Sony Corp 画像処理装置および画像処理方法、並びにプログラム記憶媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012093913A (ja) * 2010-10-26 2012-05-17 Nippon Hoso Kyokai <Nhk> Cgキャラクタ制作装置及びcgキャラクタ制作プログラム
KR101348680B1 (ko) * 2013-01-09 2014-01-09 국방과학연구소 영상추적기를 위한 표적포착방법 및 이를 이용한 표적포착장치
US10445917B2 (en) 2016-12-07 2019-10-15 Colopl, Inc. Method for communication via virtual space, non-transitory computer readable medium for storing instructions for executing the method on a computer, and information processing system for executing the method
JP7473894B2 (ja) 2020-04-07 2024-04-24 Ksコンサルタント株式会社 画像処理方法、画像処理装置及びそのコンピュータプログラム並びにヒトの顔の撮影処理方法及びその装置

Also Published As

Publication number Publication date
US8553037B2 (en) 2013-10-08
WO2008156437A1 (en) 2008-12-24
CA2654960A1 (en) 2008-12-24
EP2030171A1 (en) 2009-03-04
US20100007665A1 (en) 2010-01-14
AU2006352758A1 (en) 2008-12-24

Similar Documents

Publication Publication Date Title
US6919892B1 (en) Photo realistic talking head creation system and method
US7027054B1 (en) Do-it-yourself photo realistic talking head creation system and method
US8553037B2 (en) Do-It-Yourself photo realistic talking head creation system and method
JP4310916B2 (ja) 映像表示装置
Mattheyses et al. Audiovisual speech synthesis: An overview of the state-of-the-art
US11514634B2 (en) Personalized speech-to-video with three-dimensional (3D) skeleton regularization and expressive body poses
Cosatto et al. Sample-based synthesis of photo-realistic talking heads
US8655152B2 (en) Method and system of presenting foreign films in a native language
US6351265B1 (en) Method and apparatus for producing an electronic image
US20120130717A1 (en) Real-time Animation for an Expressive Avatar
Cosatto et al. Lifelike talking faces for interactive services
US20100085363A1 (en) Photo Realistic Talking Head Creation, Content Creation, and Distribution System and Method
US20030163315A1 (en) Method and system for generating caricaturized talking heads
US20070165022A1 (en) Method and system for the automatic computerized audio visual dubbing of movies
WO2009067560A1 (en) Systems and methods for generating 3d head models and for using the same
US20030085901A1 (en) Method and system for the automatic computerized audio visual dubbing of movies
CN113221840B (zh) 一种人像视频处理方法
CN117557695A (zh) 一种音频驱动单张照片生成视频的方法及装置
Perng et al. Image talk: a real time synthetic talking head using one single image with chinese text-to-speech capability
JP2843262B2 (ja) 表情再現装置
Graf et al. Sample-based synthesis of talking heads
Fanelli et al. Acquisition of a 3d audio-visual corpus of affective speech
WO2009114488A1 (en) Photo realistic talking head creation, content creation, and distribution system and method
NZ572648A (en) Do-it-yourself photo realistic talking head creation
Bigioi et al. Multilingual video dubbing—a technology review and current challenges

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110719

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111019

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111026

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120130