JP2005018305A - 画像配信システムおよび画像コミュニケーション機能付情報処理装置 - Google Patents

画像配信システムおよび画像コミュニケーション機能付情報処理装置 Download PDF

Info

Publication number
JP2005018305A
JP2005018305A JP2003180461A JP2003180461A JP2005018305A JP 2005018305 A JP2005018305 A JP 2005018305A JP 2003180461 A JP2003180461 A JP 2003180461A JP 2003180461 A JP2003180461 A JP 2003180461A JP 2005018305 A JP2005018305 A JP 2005018305A
Authority
JP
Japan
Prior art keywords
data
image
model
unit
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003180461A
Other languages
English (en)
Inventor
Hiroyuki Masai
宏之 政井
Takahiro Watanabe
孝弘 渡辺
Seiji Inoue
清司 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2003180461A priority Critical patent/JP2005018305A/ja
Publication of JP2005018305A publication Critical patent/JP2005018305A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Abstract

【課題】話者のプライバシーを保護し、かつよりエンタテイメント性を発揮できる画像配信システムおよび画像コミュニケーション機能付情報端末装置を提供。
【解決手段】画像伝送システム10は、送信側情報処理装置12の画像入力部22で顔画像32を取り込み、表情特徴抽出部24で顔画像データ34から抽出した表情特徴データ36を符号化部26に供給し、キャラクタ格納部28からのモデルデータ38、ならびに前景格納部30からの前景データ40および表示指示データ42を符号化部26に供給して4つのデータを圧縮符号化して、送信し、受信側情報処理装置14の復号部46で復号したデータをデータ54, 56とに分けて、データ54からデータ作成部48およびレンダリング部50によりモデル画像60を作成し、前景合成部52でデータ56から対象画像をモデル画像60の指定位置に合成し、出力する。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、画像配信システムに関するもので、とくに、IPネットワークを介して映像を送りながら、通話する画像伝送システムに適用して好適なものである。また、本発明は、画像コミュニケーション機能付情報処理装置に関するもので、とくに、選択したキャラクタに送信者の表情を反映させた画像を受信側に表示させ、通信におけるコミュニケーションを向上させる、情報端末装置に適用して好適なものである。
【0002】
【従来の技術】
近年、携帯電話機やコンピュータなどの情報端末装置によるコミュニケーションは、音声だけの通話に加えて、テレビ電話などのように、音声および画像を用いた通話が可能になってきている。しかしながら、情報端末装置によるテレビ電話通信は、一般に場所や時間を選ばず、通話を可能にする。したがって、この通話は、第1の問題として話者、とくに受信者側においてプライバシーが侵される虞がある。このような通話に備えて、ユーザには身嗜みを気にする人が現れることが予想される。また、この通話では、第2の問題としてこれまで以上に通信時の場所が相手側に特定されることや通話中の周囲環境や状況が映像的に相手側に知られることを敬遠するユーザの出現が想定される。
【0003】
この予想に対する対策として、特開2003−16475号公報の画像コミュニケーション機能付き情報端末装置および画像配信システムが提案されている。この提案には、入力された顔画像から顔の特徴点におけるデータを抽出し、一方、ユーザが所望するモデルデータを選択し、モデルデータにおける顔の特徴点に対応するデータを抽出したデータ(座標データ)に基づいて変更し、ユーザの表情を反映させたモデルデータを生成し、生成したモデルデータを用いてレンダリング処理によって可視化し、表情を反映させたモデル画像を動画表示させる構成および方法が開示されている。
【0004】
この開示を適用することにより、ユーザは、テレビ電話などの通話において、選択したモデル画像に表情を反映させて通信し、コミュニケーションを図ることから、第1の問題を気にかけずに通話することができるようになる。さらに、画像配信システムは、この通信においてモデル画像にユーザが所望の背景画像を合成する機能を設けて、通信相手に対して送信することにより、背景の映像情報を秘匿することができる。これらの問題対策により、話者のプライバシーを保護している。
【0005】
また、特開2003−16475号公報では、課金システムおよび画像配信サービスの提供方法も提案されている。ユーザにとって利用し易い課金のさせ方等を提案することにより、画像伝送の普及に寄与できることを説明している。
【0006】
この他にも、上述の提案と異なる方式によるテレビ電話が提案されている。この一例が特開平8−307841号公報の擬似動画TV電話装置である。この装置は、受信側にて送信側からの音声信号を受信し、受信した音声信号から送信側の話者に表れている表情として擬似的に動画像を生成し、表示させている。ここでの音声の分析は、受信した音声信号を基に線形予測符号化により音声パラメータに変換している。この装置では、さらに、音声パラメータを口形パラメータに変換し、ワイヤフレームで構成されたモデルに変換した口形パラメータを適用して送信側における話者の画像を擬似的に生成している。
【0007】
【特許文献1】
特開2003−16475号公報
【特許文献2】
特開平8−307841号公報。
【0008】
【発明が解決しようとする課題】
このようにいくつかの方式によりテレビ電話通信は、話者のプライバシーを保護するように機能させている。しかしながら、これらの提案は、テレビ電話の普及を図るように考慮された提案ではあるが、さらなる普及を促すようなテレビ電話におけるエンタテイメント性の機能は十分と言えず、まだ考慮の余地はある。
【0009】
本発明はこのような従来技術の欠点を解消し、話者のプライバシーを保護し、かつよりエンタテイメント性を発揮できる画像配信システムおよび画像コミュニケーション機能付情報端末装置を提供することを目的とする。
【0010】
【課題を解決するための手段】
本発明は上述の課題を解決するために、公衆回線網、IP(Internet Protocol)ネットワークおよびローカルネットワークの少なくとも、いずれか一つの通信回線を介して通信相手とのコミュニケーションに有効な画像に関する情報を含むコミュニケーション情報を通信する画像配信システムにおいて、このシステムは、コミュニケーション情報を生成し、通信回線に送信する送信側情報処理装置、通信回線を介して供給されるコミュニケーション情報を受信し、この受信したコミュニケーション情報が理解し易い形態にして出力する受信側情報処理装置、およびこのコミュニケーション情報の一つとして取り込んだ顔画像を置き換えて、受信側情報処理装置に送るモデルデータを複数管理する第1の管理手段を含み、送信側情報処理装置は、第1の管理手段から供給されるモデルデータを登録して、格納する第1の格納手段と、モデルデータで生成されるモデル画像に重ねる対象画像の基になる対象データおよびこの対象データに対する重ね表示の指示データを組にして登録して、複数格納し、選択された組のデータを出力する第2の格納手段と、送信の対象を画像として取り込む画像入力手段と、この取り込んだ画像が含む対象である顔の表情を特徴付ける表情特徴データを抽出する特徴抽出手段と、この表情特徴データ、モデルデータ、対象データおよび指示データを圧縮符号化する符号化手段とを含み、受信側情報処理装置は、圧縮符号化されたデータを復号し、復号したデータのうち、表情特徴データおよびモデルデータと、対象データおよび指示データとをそれぞれ、分けて出力する復号手段と、表情特徴データおよびモデルデータを基にモデル画像を生成する手段と、対象データおよび指示データに応じて対象画像を生成し、この生成された対象画像を生成されたモデル画像と合成する画像合成手段とを含むことを特徴とする。
【0011】
本発明の画像配信システムは、送信側情報処理装置の画像入力手段で対象の画像を取り込み、特徴抽出手段で供給される画像から表情特徴データを抽出し、この表情特徴データ、第1の格納手段からのモデルデータ、ならびに第2の格納手段からの対象データおよび指示データを符号化手段で圧縮符号化して、IPネットワークを介して受信側情報処理装置に送り、受信側情報処理装置の復号手段で圧縮符号化された受信データに伸長・復号処理を施し、表情特徴データおよびモデルデータと、対象データおよび指示データとに分けて、表情特徴データおよびモデルデータを基にモデル画像を作成する手段でモデル画像を作成し、画像合成手段で供給されるモデル画像に対象データから生成した対象画像を指示データに応じた位置に合成し、出力することにより、対象画像に送信者の感情や意思を反映させ、とくにエンタテイメント性を高めている。
【0012】
また、本発明は上述の課題を解決するために、公衆回線網、IP(Internet Protocol)ネットワークおよびローカルネットワークの少なくとも、いずれか一つの通信回線を介して通信相手とのコミュニケーションに有効な画像に関する情報を含むコミュニケーション情報を通信する画像コミュニケーション機能付き情報処理装置において、この装置は、送信の対象を画像として取り込む画像入力手段と、この取り込んだ画像が含む対象である顔の表情を特徴付ける表情特徴データを抽出する特徴抽出手段と、送信の対象に置き換えて通信相手にて表す置換画像のモデルデータを登録して、複数格納する第1の格納手段と、モデルデータで生成されるモデル画像に重ねる対象画像の基になる対象データおよびこの対象データに対する重ね表示の指示データを組にして登録して、複数格納し、選択された組のデータを出力する第2の格納手段と、表情特徴データ、モデルデータ、対象データおよび指示データをコミュニケーション情報として供給し、これらを圧縮符号化する符号化手段とを含むことを特徴とする。
【0013】
本発明の画像コミュニケーション機能付情報処理装置は、画像入力手段で対象の画像を取り込み、特徴抽出手段で供給される画像から表情特徴データを抽出し、この表情特徴データ、第1の格納手段からのモデルデータ、ならびに第2の格納手段からの対象データおよび指示データを符号化手段で圧縮符号化して、送信することにより、対象データおよび指示データに送信者の感情や意思を反映させた情報送信を行い、とくに第2の格納手段からのデータにエンタテイメント性を持たせることができる。
【0014】
【発明の実施の形態】
次に添付図面を参照して本発明による画像配信システムの実施例を詳細に説明する。
【0015】
本実施例は、本発明の画像配信システムを画像伝送システム10に適用した場合である。本発明と直接関係のない部分について図示および説明を省略する。以下の説明で、信号はその現れる接続線の参照番号で指示する。
【0016】
画像伝送システム10は、図1に示すように、送信側情報端末装置12、受信側情報端末装置14、キャラクタ管理センタ16および前景管理センタ18を含む。画像伝送システム10は、送信側情報端末装置12と受信側情報端末装置14との間に設けられたIP(Internet Protocol)ネットワーク20に接続され、IPネットワーク20を介して通信を行っている。送信側情報端末装置12および受信側情報端末装置14は、ともに、図示しないが音声入力用マイクロフォン、音声出力用スピーカ、映像表示用のLCD(Liquid Crystal Display)モニタを有している。
【0017】
送信側情報端末装置12は、画像入力部22、表情特徴抽出部24、符号化部26、キャラクタ格納部28および前景格納部30を含む。画像入力部22は、図示しないが光学系、固体撮像素子およびA/D変換器を含む。光学系は、光学系に被写体から入射する入射光32に調整を施すいくつかの機能を有している。光学系には、AF調節(Automatic Focus Control)機構、ズーム調節機構およびAE(Automatic Exposure Control)機構を備えている。AF調節機構は、被写体からの入射光32を入射させ、光学レンズにより収束させた焦点位置までの焦点距離を調節し、焦点位置に光学像を収束させる機能を有する。ズーム調節機構は、被写界を操作者が所望の画角に調整する機構である。また、AE調節機構は、被写界からの入射光32の強さに応じて露出光量を調節する機能を有している。
【0018】
固体撮像素子は、光学系の光軸に対して直交する撮像面を形成するように複数の受光素子を2次元アレイ状に配列されている。受光素子は、露出期間中に入射する入射光量に応じて信号電荷Qに変換する光電変換機能を有している。固体撮像素子は、CCD(Charge Coupled Device)やMOS(Metal Oxide Semiconductor)タイプがある。固体撮像素子は、露出期間中に蓄積した信号電荷Qを読み出して、信号電荷Qを電圧信号Vに変換する。この変換がQ/V変換である。
【0019】
画像入力部22は、このようにして得られたアナログ電圧信号Vに対してノイズ低減処理や波形整形処理等を施す。さらに、画像入力部22では、得られたアナログ電圧信号Vに対してA/D変換処理を施してディジタル信号が生成される。画像入力部22は、このようにして得られたディジタル信号34を表情特徴抽出部24に供給する。
【0020】
表情特徴抽出部24は、あらかじめ定義された顔の特徴点の位置を解析する機能を有している。特徴点は、たとえばWG(Working Group)11/MPEG(Moving Picture coding Experts Group)のコミッティドラフト(1998年1月1日に提案)に記載されている68個のFAP(Face Animation Parameter)により定義されている。表情特徴抽出部24は、この解析を精確に行うため、エッジ検出回路、特徴点等を追跡するトラッキング回路等を含む。エッジ検出回路は、供給される画像を走査して、とくに顔の特徴が輪郭として強調されるように画像処理し、目、鼻、口、眉毛領域等の輪郭を抽出する。エッジ検出回路は、抽出した各部の情報をトラッキング回路に供給する。
【0021】
トラッキング回路は、所定のタイミングで供給される情報を位置、すなわち座標データにし、座標データと特徴点との対応を追跡する探索により、特徴点を座標データとして検出する機能を有する。トラッキング回路は、たとえば口の特徴点を探索する場合、特徴点として、たとえば口の外側の左右端の位置をそれぞれ、各タイミングで追跡する探索により、特徴点と座標データとをそれぞれ、対応付けている。表情特徴抽出部24は、顔の画像を基に検出した各部の特徴点の座標データ36を符号化部26に供給する。
【0022】
キャラクタ格納部28は、取り込んだ顔画像の代わりに置換して、通信相手に送るモデルデータをあらかじめ格納するメモリである。キャラクタ格納部28は、モデルデータを格納するだけでなく、使用時間の情報等も格納して管理する。キャラクタ格納部28は、記憶容量に応じて複数のモデルデータを登録・格納するようにしてもよい。登録処理は、図示しない制御部の制御に応じて行われる。キャラクタ格納部28は、操作者または通話者が図示しない操作スイッチを介して選択したキャラクタ画像のモデルデータ38を所定のタイミングで符号化部26に供給する。
【0023】
ここで、モデルデータとは、たとえば顔画像のフレームを形成するようなデータであり、キャラクタや人物像を表している。したがって、モデルデータは、2次元画像や3次元CG(Computer Graphics)によるワイヤフレームでもよい。この場合、たとえば喜び、怒り、悲しみ等の表情および発話時の口の動きは、人間の顔が筋肉の動きに基づいて変化することを利用して特徴点の変動として検出される。すなわち、ワイヤフレーム上に筋肉を3次元的に配置し、各筋肉の伸長や収縮により、ワイヤフレーム自体を変形させる。本実施例では、この変形をもたらすデータとして特徴点の座標データ36が用いられる。特徴点の座標データ36が供給されるタイミングが、前述した所定のタイミングである。
【0024】
前景格納部30は、前景データを格納する記憶機能を有し、半導体メモリ、磁気記録媒体や光記録媒体等に記録する記録装置である。前景格納部30は、装置の小型化に対処する点から半導体メモリを用いることが望ましい。前景格納部30は、操作者の選択に応じて図示しない制御部の制御により前景データ40を符号化部26に出力する。また、前景格納部30は、この制御部から前景データ40を表示させる位置および表示のさせ方の指示情報を受け、この指示情報を表示指示データ42として符号化部26に出力する。
【0025】
ここで、前景データとは、キャラクタ画像上に重ねて表示することができる、2次元や3次元のCGオブジェクト画像データである。具体的に説明すると、前景データには、眼鏡、髭、文字、オブジェクト背景等がある。また、表示指示データは、たとえば眼鏡オブジェクトをキャラクタの目の位置でキャラクタ画像よりも前側に表示させる指示データを符号化部26に供給する。2次元文字オブジェクトの場合、表示指示データとは、画面の下側位置にキャラクタ画像よりも前側に表示させる指示データである。
【0026】
前景格納部30は、あらかじめ格納する、前景データに特徴付けるキーワードを付けて登録し、前景データに対する基本的な指示として位置および表示法を示すデフォルト表示指示データも併せて登録しておくことが好ましい。前景データ40および表示指示データ42は、組として格納するとよい。
【0027】
符号化部26は、供給されるデータ、すなわち特徴点の座標データ36、モデルデータ38、前景データ40および表示指示データ42に対して圧縮符号化処理を施す機能を有している。圧縮符号化には、たとえばMPEG4を用いる。送出するデータの内、モデルデータ38は、座標データ36の供給に応じてその都度送出してもよいが、通信の最初において少なくとも、一回だけ座標データ36とともに送信し、以後、単に座標データ36だけを送信すればよい。受信側情報端末装置14は、一度供給されたモデルデータに基づいて以後のキャラクタ(モデル)画像を構築するからである。したがって、一度送信した後でのモデルデータ36の送信は、受信側情報端末装置14からの要求に応じて行う。符号化部26は、圧縮符号化されたパケットデータ44をIPネットワーク20を介して受信側情報端末装置14に出力する。
【0028】
受信側情報端末装置14は、復号部46、データ作成部48、レンダリング部50および前景合成部52を含む。復号部46は、IPネットワーク20を介して供給されるパケットデータ44に復号処理を施す。復号処理は、MEPEG4の符号化処理に対する逆処理、伸長処理である。復号部46は、供給されるデータを分離または分類する機能を有している。供給されるデータは、前述したように、座標データ36、モデルデータ38、前景データ40および表示指示データ42の内、座標データ36およびモデルデータ38、前景データ40および表示指示データ42に分けて、それぞれ、前者の復号データ54をデータ作成部48に供給し、後者の復号データ56を前景合成部52に供給する。
【0029】
データ作成部48は、復号されたモデルデータ38に対して抽出した特徴点の座標データ36を関連させて、所定のタイミング毎に供給される座標データ36に対応してモデルデータの特徴点位置を変化させることにより作成されるキャラクタ画像に表情を持たせる機能を有している。データ作成部48は、モデルデータが、たとえば3次元ポリゴンの供給に応じてポリゴンの形成位置を座標データ36に合わせて変更する処理を行う。データ作成部48は、座標データ36に応じて変更された特徴点を有するモデルデータ48を作成してレンダリング部50に出力する。
【0030】
レンダリング部50は、供給されるモデルデータ58を基に最終的な画像生成を行うように可視化する描画表示機能を有している。レンダリング部50は、複数のメモリを含んでいる。すなわち、モデルデータ48を格納する複数のメモリ、レンダリングの処理手順(アルゴリズム)のプログラムを格納するメモリ、レンダリング結果の画像を格納し、連続して動画表示させるための複数のメモリを、それぞれ含む。レンダリング部50は、各メモリに供給される随時供給されるキャラクタのモデルデータ58にアルゴリズムを適用して処理し、メモリにキャラクタ画像をそれぞれ書き込み、書込み完了のメモリからキャラクタ画像60として前景合成部52に読み出す。
【0031】
前景合成部52は、レンダリングされたキャラクタ画像60に前景データ40を表示指示データ42の指示に応じて表示合成する機能を有している。この機能を実現させるため、前景合成部52は、複数のメモリを含んでいる。前景合成部52は、動画用に供給されるキャラクタ画像60をそれぞれのメモリに書き込んだ後、同期して供給される復号データ56の内、表示指示データに基づいて前景データから生成した対象画像をそれぞれ書き込み、合成する。前景合成部52は、合成完了または書き込み完了のメモリから順に前景合成画像62として図示しない表示部に読み出す。
【0032】
ここで、前景合成部52は、前景データに対するレンダリング機能も有している。これにより、対象画像を生成し、生成した対象画像を供給されるキャラクタ画像60の指示位置に合成する。
【0033】
表示部には、送信側の話者の表情に応じて表情を変化させるキャラクタ画像上に(前景に相当する)オブジェクトが表示され、かつ送信がわ情報端末装置12から送信された音声データをキャラクタ画像に同期させて再生する。
【0034】
キャラクタ管理センタ16は、図示していないが、IPネットワーク20に接続された、たとえばサーバ装置である。キャラクタ管理センタ16は、図示しないベンダから供給される2次元または3次元のキャラクタ画像をモデルデータとして保存され、保存したキャラクタのモデルデータを使用するユーザ登録を行う機能も有し、さらに、登録したユーザそれぞれと使用するキャラクタ画像の使用状況、すなわち使用時間量とを対応付けた組(たとえばテンプレートデータ)として保存し、データ管理する機能を有している。キャラクタ管理センタ16は、キャラクタ格納部28に小型化にともなう容量制限があり、より多くのモデルデータを保有することが難しいことから、大量のモデルデータを保有し、随時ユーザが所望のモデルデータ64を選んで、キャラクタ格納部28にダウンロードする。これにより、送信側情報端末装置12の利便性を向上させることができる。キャラクタ管理センタ16には、キャラクタ格納部28にて使用するキャラクタおよび使用開始時刻が記憶され、キャラクタ画像表示の終了または通信終了においても使用完了時刻が記憶され、これらの情報がまとめたテンプレート形式で報知するようにするとよい。また、キャラクタ管理センタ16は、ユーザの情報端末装置毎に認識を行う同定データを管理し、モデルデータに同定データを組み込んで送出してもよい。
【0035】
ベンダとは、キャラクタ画像のモデルデータを作成し、供給する業者である。モデルデータは、3次元の場合、ポリゴンデータで構成された人の頭部が供給されている。
【0036】
また、キャラクタ管理センタ16は、所望のキャラクタ画像におけるモデルデータの使用時間を制限する方法だけでなく、ダウンロード時に定額料金を支払いさえすれば、これ以後、所定期間中の使用を自由に管理するようにしてもよい。
【0037】
前景管理センタ18は、キャラクタ管理センタ16と同じく、IPネットワーク20に接続されているサーバ装置である。前景管理センタ18は、キャラクタ管理センタ16の機能および構成を有し、管理の対象がキャラクタ画像のモデルデータから前景データになったものである。このような点を考慮すると、前景管理センタ18は、キャラクタ管理センタ16の構成を共通にすることができる。前景管理センタ18は、前景データとデフォルト表示指示データ(位置および表示法)とを組にして管理し、操作者により選択された組データ66を前景格納部30に供給する。前景管理センタ18は、前景格納部30から供給される使用状況に関する情報を受けて保存し、登録したユーザの情報を管理するようにしてもよい。前景管理センタ18を設けることにより、容量制限があり、より多くのモデルデータを保有することが難しいことから、大量のモデルデータを保有し、随時ユーザが所望のモデルデータ64を選んで、キャラクタ格納部28にダウンロードする。これにより、送信側情報端末装置12の利便性を向上させることができる。
【0038】
画像伝送システム10は、送信側情報端末装置12から顔画像32を取り込み、供給されるディジタルデータ(顔画像データ)34から表情における特徴点の座標データ36を抽出して符号化部26に供給し、所望のキャラクタ画像におけるモデルデータ38、前景データ40および表示指示データ42をそれぞれ、符号化部26に供給して圧縮符号化を施したパケットデータ44をIPネットワーク20を介して受信側情報端末装置14に伝送する。
【0039】
受信側情報端末装置14は、復号部46で供給されるパケットデータ44を復号し、復号データ54, 56に分けてそれぞれ、データ生成部48と前景合成部52に出力する。データ生成部48は、供給されるキャラクタ画像におけるモデルデータの特徴点に対応する座標データを反映させてキャラクタ画像に表情を持たせ、レンダリング部50でキャラクタ(モデル)画像を可視化させ、前景合成部52でレンダリングしたキャラクタ(モデル)画像60に前景データを表示指示データに応じて合成し、表示部に合成画像を出力して動画表示させる。キャラクタ画像60に眼鏡、髭、文字等のオブジェクトを重ねて表示できることから、キャラクタ画像60の表情だけを表示するよりも発信者の感情、意思および意図を受信者に伝えることができ、コミュニケーションを一層向上させることができる。発信者の遊び心が付与できるので、ユーザのエンタテイメント感を向上させることができる。
【0040】
なお、本実施例の画像伝送システム10は、送信側情報端末装置12に符号化部26、受信側情報端末装置14において符号化部26に対応する復号部46を設けているが、これらを設けず、送信側から受信側にデータを供給するようにしてもよい。この場合、受信側では、データ作成部48の前に、座標データおよびモデルデータと、前景データおよび指示データとを分けるデータ分離部を設けるとよい。
【0041】
次に画像伝送システム10の構成要素に変更を加えた場合の変形例について以下にいくつか説明する。これらの変形例において前述の実施例と共通する部分には、同じ参照符号を付して、同じ説明の繰返しを避けるために説明を省略する。
【0042】
《変形例1》
変形例1は、図2に示すように、画像伝送システムの送信側情報端末装置12に前景作成部68を追加する点に特徴がある。前景作成部68は、任意の前景データを作成する機能を有している。前景作成部68は、前景を作成するアート機能が選択されると、基本的なオブジェクト(眼鏡、髭、文字等)が表示され、オブジェクトをユーザが選択する。さらに、前景作成部68は、選択したオブジェクトに対する形状をパターン化した図を表示し、この図に対する色を選択する。これらの選択によりユーザが所望の前景データを作成し、表示部に表示させて確認する。これらの選択には、図示しないが送信側情報端末装置12の操作キー部に配設されたポインティングデバイスを用いるとよい。
【0043】
これらの表示や選択処理は、基本的に制御部により制御されている。また、前景作成部68は、選択結果を基にどのような制御を前景データ40に対して行うかを表示指示データ42として生成する制御機能も有している。とくに、前景作成部68は、文字の場合、文字に施すアート形状、文字に付ける影、回転させるか否か、および色等の各種選択を行って、独自の文字を作成するとともに、動作の指示も作成することができるようにしてもよい。前景作成部68は、作成した前景データおよび表示指示データの組を、たとえば新たなアートデータ70として前景格納部30に供給する。
【0044】
送信側情報端末装置12は、前景格納部30に供給されるアートデータ70が新規作成データか否かを判断して、供給されたアートデータ70に対するアクセス権を
設定し、ユーザ登録処理を行って格納する。このような作成・登録を行っていると、情報端末装置は、作成したアートデータ70を図1の前景管理センタ18に提供することもできる。前景管理センタ18の管理会社は、この提供に応じたサービスを提供者に供与することが望ましい。
【0045】
前景作成部68を設けることにより、前景管理センタ18にアクセスして所望の前景データおよび表示指示データの組をダウンロードして利用する場合に要する費用を削減することができ、ベンダのようなデータ提供を行うことにより、新たなサービスを受けることができる。自分で作成することにより、満足のいく前景データ(アートデータ)を作成して送信画像のバリエーションも増やすことができる。したがって、先の実施例に比べて発信者の感情や意思を低コストにより満足したものを用いてコミュニケーションすることができる。
【0046】
《変形例2》
変形例2は、図3に示すように、変形例1の構成に感情認識部として表情認識部72を配設している点に特徴がある。表情認識部72は、画像入力部22から出力されるディジタルデータ(顔画像データ)34を基に表情、たとえば笑い、笑み、怒り、泣き等を数値化する機能を有している。表情認識部72は、顔面動作(Action Unit)を自動認識する上で、たとえば複数のガボールフィルタ群を用いて得られる多次元の特徴ベクトルが有効である。このフィルタの出力値は、パターン上の各点の近傍で検出される特定の空間周波数成分と方向性の強度を表し、パターンの持つ局所的な構造を強く反映した特徴表現を可能にする。この得られた特徴表現を識別用特徴として用い、数値化する。表情認識部72は、得られた認識結果を制御信号74として前景格納部30に出力する。
【0047】
前景格納部30には、前景データ40および表示指示データ42の組だけでなく、表情を表す数値も対応させて組み合せたデータ構造にしておくことが望ましい。このようなデータ構造を採用することにより、前景格納部30に制御信号74が供給されると、あらかじめ格納した数値に一致した前景データ40および表示指示データ42を容易に符号化部26に供給させることができる。
【0048】
このように表情認識部72の認識結果に応じて定型的な前景データ40および表示指示データ42を出力させることにより、変形例1に比べてユーザの操作性を軽減することができる。
【0049】
《変形例3》
変形例3は、変形例2の表情と同様に発信者の感情の認識を行う点で同じであるが、認識に感情が反映される音声を基にしている点で異なっている。送信側情報端末装置12は、図4に示すように、変形例1の構成に対して、さらに、音声入力部76および音声認識部78を含む。これまで図1〜図3まで図示してこなかったが送信側情報端末装置12は、音声入力部76を有している。音声入力部76は、図示しないがマイクロフォンおよびA/D変換器を含んでいる。マイクロフォンは、外部に設けて、入力する話者の音声80を電気信号に変換する機能を有している。マイクロフォンは、変換した音声信号をA/D変換器に供給する。A/D変換器は、供給される音声信号をディジタル信号に変換して、音声データ82を音声認識部78に出力する。音声入力部76は、図示していないが、音声データ82を符号化部26に供給して圧縮符号化処理を施して受信側情報端末装置14に向けて出力している。
【0050】
音声認識部78は、感情認識部として供給される音声データ82を音声認識を行う上での対象音声として扱う。音声認識部78は、対象音声を基に、たとえば笑い、笑み、怒り、泣き等の感情を認識し、数値化する機能を有している。音声認識部78は、本実施例において隠れマルコフモデルの手法を用いる。音声認識部78は、図示しないが、音素辞書、モデル探索部、音素列辞書および数値化部を含む。音素辞書は、あらかじめ基準となる音声データから隠れマルコフモデルで音素をモデル化し、保存されたデータベースである。
【0051】
モデル探索部は、対象音声のモデルと音素辞書に格納されているモデルとの尤度を評価し、最も高い尤度のモデルを探索する機能を有する。音素列辞書は、認識対象となる音声の発音系列を格納するデータベースである。すなわち、感情を表現する言葉、たとえば「面白い」、「楽しい」、「嬉しい」、「寂しい」、「悲しい」、「いい加減にしろ」等が格納される。数値化部は、音素列辞書のデータと探索結果との比較、言葉の使い方を評価して認識する機能を有している。数値化部は、認識機能により得られた結果を数値化し、制御信号84として前景格納部30に出力する。前景格納部30は、表情認識部72に対する数値対応と同様に音声認識の数値に対応する前景データ40および表示指示データ42を組み合せて格納していることは言うまでもない。
【0052】
本実施例は、入力した音声80をディジタル化し、供給された音声データ82を対象音声とし、この対象音声を基に音声認識部78で最も高い尤度のモデルを探索し、この探索モデルと音素列との比較から音声認識し、認識結果に対応する数値の制御信号84を前景格納部30に供給し、音声認識に合った前景データ40および表示指示データ42を符号化部26に出力する。このように音声に応じて自動的に認識して前景データ等を付与する送出が可能になることから、音声に合わせて定型的に前景データを付与する変形例1の場合に比べて装置の操作性を軽減することができる。
【0053】
具体的には、音声認識部78において「面白い」に対して数値を設定し、前景格納部30において「面白い」に対する数値と同じ数値を設定しておき、この数値と前景データ40として「ワッハッハッハ!」を組み合わせておく。実際に、通話中に「面白い」が音声認識部78で認識されると、前景格納部30は、制御信号84に応じて前景データ「ワッハッハッハ!」と表示指示データ42を符号化部26に出力する。これにより、受信側情報端末装置14の表示部には、選択したキャラクタ画像を表示するとともに、表示指示データ42に応じてキャラクタ画像の前に文字「ワッハッハッハ!」を表示させることができるようになる。
【0054】
《変形例4》
変形例4の送信側情報端末装置12は、変形例2および変形例3のそれぞれ、映像信号および音声信号による発信者の感情の認識に限定されるものでなく、イベント情報を基に感情の認識を行う点に特徴がある。変形例4における送信側情報端末装置12は、図5に示すように、変形例1の構成に対して、感情認識部としてさらに、イベント入力部86およびイベント認識部88を含んでいる。イベント入力部86は、たとえばキーボード等の情報入力キーである。情報入力キーには、それぞれキーアドレスが割り付けられている。イベント入力部86は、押圧操作90に応じて設定されているキーアドレスをディジタル化し、キーアドレスデータ92をイベント認識部88に出力する。
【0055】
イベント認識部88は、所定の期間中にイベントとして供給されるキーアドレス92の組み合わせに応じて話者またはユーザの意図・感情等を認識し、数値化する機能がある。イベント認識部88は、認識結果に対応する数値の制御信号94を前景格納部30に供給する。前景格納部30は、制御信号94に対応する前景データ40および表示指示データ42を符号化部26に出力する。
【0056】
イベント入力が選択されると、図示しないが、送信側情報端末装置12の表示部には、感情を表す文字情報とキーの組合せの関連が容易にわかるように表示させるようにすることが好ましい。この表示は、操作に不慣れなユーザへの操作支援になる。操作に習熟しているユーザは、この表示を非表示にするようにしてもよい。このように前景データのキャラクタ画像に対する付与の操作を変形例1に比べて容易に行うことができる。
【0057】
《変形例5》
変形例5は、図6に示すように、最初に説明した基本的な構成と比較すると、シナリオ格納部96が配設されている点に特徴がある。シナリオ格納部96は、前景データのシナリオを格納する機能を有している。ここで、シナリオとは、前景データの組合せデータ、前景データにおける出力順序を示すデータ、表示指示データおよびこれらのデータを出力するタイミングであり、これらを総称してシナリオデータ98とする。シナリオ格納部96は、小型化への対処を考慮すると、半導体メモリが好ましい。また、シナリオ格納部96は、半導体メモリに限定されることなく、磁気記録媒体や光記録媒体等に記録する装置を適用してもよい。シナリオ格納部96は、あらかじめ格納したシナリオデータしたり、シナリオ管理センタ100からダウンロードしたシナリオデータ102を格納する。シナリオ格納部96は、シナリオデータをあらかじめ格納しておく場合、シナリオデータを特徴付けるキーワードを付けて登録するとよい。登録したキーワードを表示部に表示させると、どのようなシナリオデータを格納しているか容易に知ることができる。シナリオ格納部96は、図示しない制御部の制御に応じてシナリオデータ98を符号化部26に出力する。
【0058】
シナリオ管理センタ100は、前景管理センタ18と同じ構成および機能を有するサーバ装置で、図示していないがIPネットワーク20に接続されている。シナリオ管理センタ100は、容量の少ないシナリオ格納部96に対し、多種多様なシナリオデータを保存して、ユーザの要求に応えるようにしながら、ユーザ個々にダウンロードしたシナリオデータ102と使用料とを管理している。このような構成から、キャラクタ管理センタ16や前景管理センタ18と共通化することも可能である。
【0059】
シナリオ格納部96を設けてシナリオデータ98を符号化部26に出力することにより、単に、前景データ40および表示指示データ42の供給を受けてキャラクタ画像に前景データが表すオブジェクトを重畳する場合より、組合せ、順序およびタイミングの指示を基に表示することから、表示にストーリー性が加味される。これにより、本実施例は、図1に示した基本的な構成(最初の実施例)でコミュニケーションを図るよりもより一層発信者の感情、意思を伝え易くできる。指示の要素が増えることから、細かな感情や意思の伝達も可能にする。また、発信者は、シナリオ構成に遊び心を発揮する要素が増えることにより、エンタテイメント感も一層向上させることができる。
【0060】
なお、本実施例は前景のシナリオデータを用いる場合を説明したが、シナリオデータはこれに限定されるものでなく、後景のシナリオデータをシナリオ格納部96に格納してもよい。また、シナリオ格納部96は、前景データおよび後景データを組み合せて格納してもよい。また、図示しないが、送信側情報端末装置12には、シナリオ作成部を配設してもよい。シナリオ作成部は、ユーザの意図をよりよく反映するようにシナリオデータ98を作成する機能を有している。
【0061】
《変形例6》
変形例6は、図7に示すように、画像伝送を行う上で受信側情報端末装置14に配設していた構成要素、すなわちデータ作成部48、レンダリング部50、前景合成部52を送信側情報端末装置12に配設する点に特徴がある。変形例6の送信側情報端末装置12は、受信側情報端末装置14に表情を持たせたキャラクタ画像に前景データを重畳した、完成画像を伝送する。したがって、受信側情報端末装置14は、受信した完成画像を動画表示対応の処理速度を有する復号部46だけを有し、復号部46に複数のメモリを含んでいればよい。
【0062】
送信側情報端末装置12は、完成画像を送信するように、データ作成部48、レンダリング部50および前景合成部52をこの順序で表情特徴抽出部24と符号化部26との間に配設する。データ作成部48には、表情特徴抽出部24から特徴点の座標データ36、キャラクタ格納部28から選択したキャラクタ画像のモデルデータ38が供給される。データ作成部48は、モデルデータ38の各特徴点に対応する座標データ36を反映させて変化した表情を有するモデルデータ58を作成し、レンダリング部50に出力する。レンダリング部50は、変化した表情のモデルデータ58を基に可視化処理を施し、動画表示用の各メモリに書き込み、書込み完了後、直ちにレンダリングしたキャラクタ画像データ60が前景合成部52に供給される。
【0063】
前景合成部52には、キャラクタ画像データ60が供給されるとともに、前景格納部30から選択された前景データ40および表示指示データ42が一組に供給される。前景合成部52は、キャラクタ画像データ60に対し、表示指示データ42に応じて前景データ40を重畳合成させ、複数有するメモリの一つに格納する。前景合成部52は、順次重畳合成したキャラクタ画像をメモリに格納させながら、格納した順にキャラクタ画像を読み出す。これにより、前景合成部52は、前景データが重畳されたキャラクタ画像データ62を符号化部26に出力する。符号化部26は、キャラクタ画像データ62に圧縮符号化処理を施したパケットデータ44を図示しない送信部を介して通信相手先に向けて送信する。
【0064】
受信側情報端末装置14は、復号部46で受信したキャラクタ画像データのパケットデータ44に復号処理を施し、伸長されたキャラクタ画像データをメモリに格納する。メモリに格納されたキャラクタ画像データ104を表示部に出力する。これにより、受信側情報端末装置14は、送信側情報端末装置12から供給された前景データ付キャラクタ画像を表示部に動画表示させることができる。
【0065】
送信側にて通信相手先に供給するキャラクタ画像を完成させて送信することにより、受信側の信号処理を大幅に削減することができ、受信側情報端末装置14を安価に提供できる。また、このように新たな信号処理や新たな機能も送信側が持つことにより、動画表示可能な復号機能を有するだけの受信側情報端末装置14を所有するユーザも、この新たな機能の画像表示によるコミュニケーションの恩恵を受けることができる。すなわち、送信側情報端末装置12は、これまでの通信可能な範囲を狭めることなく、サービスを提供できる点で有利である。これは、サービスの普及においても重要な効果である。
【0066】
なお、送信側情報端末装置12は、前景格納部30および前景合成部52を配設せず、送信側から単に完成したキャラクタ画像を送信するようにしてもよい。また、画像伝送システム10は、送信側情報端末装置12の構成に合わせて前景管理センタ18を設けない構成でもよい。
【0067】
《変形例7》
変形例7は、図8に示すように、変形例6の構成にID(IDentification information)確認部106を配設している点に特徴がある。本実施例では、ID確認部106がキャラクタ格納部28とデータ作成部48との間に配設される。また、最初の基本的な実施例、変形例1〜5の場合、ID確認部106は、キャラクタ格納部28と符号化部26との間に配設される。
【0068】
ID確認部106は、送信側情報端末装置12に固有なIDとキャラクタ格納部28のキャラクタのモデルデータ38に埋め込まれたIDとの確認を行う機能を有している。ID確認部106は、図示しないが送信側情報端末装置12に固有な情報をIDとして格納するメモリと、キャラクタ画像のモデルデータ38に埋め込まれたIDを抽出するID抽出回路と、IDを比較する比較回路とを含んでいる。
【0069】
送信側端末装置10aは、受信側情報端末装置14との通信を行う前に、たとえばキャラクタ管理センタ16に対してダウンロード指示信号を供給する。キャラクタ管理センタ16は、たとえば、送信側情報端末装置12に固有な情報の提供要求信号を下り信号として送り、送信側情報端末装置12から固有な情報を上り信号として取得する。固有な情報がIDであり、たとえば(携帯電話機の)電話番号やIPアドレス等である。キャラクタ管理センタ16は、ダウンロード指示を受けたユーザにIDを埋め込んだ、所望のキャラクタのモデルデータ64をキャラクタ格納部28に送出する。キャラクタ格納部28は、供給されたID付きキャラクタのモデルデータ64を保存する。
【0070】
なお、本実施例でIDは、送信側情報端末装置12から提供したが、この提供に限定されず、キャラクタ管理センタ16にて送信側情報端末装置12のそれぞれを特定するIDが生成できるならば、キャラクタ管理センタ16の生成したIDをID確認に用いるようにしてもよい。ただし、キャラクタ管理センタ16は、送信側情報端末装置12からのダウンロード指示信号を受けた際に、送信側情報端末装置12にキャラクタ管理センタ16にて生成したIDをあらかじめ供給しておく。
【0071】
音声および画像の通信において、あらかじめ設定したIDを用いる場合、ID確認部106ではキャラクタ格納部28から供給されるユーザの選んだキャラクタのモデルデータ38のIDと送信端末装置12のIDとが比較され、両IDが一致した場合にキャラクタのモデルデータ108がデータ作成部48に送出される。また、IDが不一致の場合、ID確認部106は、キャラクタ格納部28から供給されるモデルデータ38の送出を禁止する。このようにID確認部106を配設してキャラクタのモデルデータの認証処理を行って送出の可否が判定され、使用直前の段階で不一致の場合に送出するキャラクタのモデルデータの供給を停止することにより、送信側情報端末装置12におけるキャラクタのモデルデータ38の不正な使用を防止することができる。
【0072】
なお、本実施例は、ID確認部106をキャラクタ格納部28とデータ作成部48との間に設ける構成を説明したが、前景格納部30と前景合成部52との間に配設して前景データの不正使用を防止するようにしてもよい。
【0073】
《変形例8》
これまで送信側の構成を述べてきたが、ID確認部106は、送信側情報端末装置12への配設に限定されるものでなく、図9に示すように、変形例8では受信側情報端末装置14に配設している。画像伝送システム10において送信側情報端末装置12は、図1で説明した実施例とまったく同じ構成要素を用いている。ただし、送信側情報端末装置12は、キャラクタ管理センタ16および受信側情報端末装置14のID確認部106に認証用のIDをあらかじめ提供させておく。このようIDの提供を行うことにより、キャラクタ格納部28が送出するキャラクタのモデルデータ38にはIDが埋め込まれている。
【0074】
受信側情報端末装置14には、これまでの実施例と同様に復号部46、データ作成部48、レンダリング部50および前景合成部52が配設されるとともに、ID確認部106およびストレージ部108が配設されている。受信側情報端末装置14には、圧縮符号化されたパケットデータ44が復号部46に供給される。復号部46では、供給されるパケットデータ44に復号処理を施してデータを伸長させ、データ作成部48およびストレージ部108に出力する。
【0075】
ストレージ部108には、画像伝送を行う前に、送信側情報端末装置12からIDが供給されている。受信側情報端末装置14は、このようにIDを受信し、ストレージ部108を介してID確認部106に送信元のIDを格納しておく。ストレージ部108は、供給されるデータを一時的に格納する記憶部であり、受信側情報端末装置14の内部に配設する半導体メモリまたは着脱自在な外付けのリムーバブルディスク装置等を用いてもよい。ストレージ部108は、供給されるデータ54を一時的に格納し、この記憶したデータ54を読出し信号110としてID確認部106に出力する。
【0076】
ID確認部106は、先に供給された取得済みのIDとキャラクタのモデルデータに埋め込まれているIDとを比較し、一致している場合にデータ作成部48にデータ作成部48の動作を制御するイネーブル信号112を供給する。不一致の場合、ID確認部106はデータ作成部22の動作をイネーブル信号112をアンイネーブルにして禁止する。このように動作させることにより、IDが不一致の場合、データ作成部48における表情の特徴点をキャラクタのモデルデータに反映させる機能が停止してしまう。結果的に、データ作成部48は、この場合画像作成を禁止したと同じ結果が得られる。これにより、受信側情報端末装置14におけるキャラクタのモデルデータの不正な使用を防止することができる。
【0077】
また、送信側情報端末装置12と受信側情報端末装置14の通信を行う前に、やりとりするキャラクタのモデルデータに関する認証用のIDの情報交換を行って、ID確認部106に格納しておき、供給される送信側の保有するキャラクタのモデルデータが受信側のストレージ部108に記憶しているキャラクタのモデルデータとしてすでに含まれている場合、受信側情報端末装置14は、ストレージ部108に格納されているキャラクタのモデルデータを利用し、送信側情報端末装置12は一致するキャラクタのモデルデータの送信時に表情の特徴点を示す座標データだけを送信する。これにより、送受信間における伝送量を抑えることができ、回線資源を節約することができる。ここで、受信側情報端末装置14における受信操作の指示が送信側情報端末装置12を介して行われる場合、伝送経路が上述した手順によって見かけ上送信端末装置12、キャラクタ管理センタ16、そして受信側情報端末装置14になったように見せることもできる。
【0078】
なお、本発明における実施例は、キャラクタ画像に対するオブジェクトを前景として合成する構成を説明してきたが、変形例3および変形例4における前景格納部30には、背景画像等の後景データが格納されるようにしてもよい。ただし、後景データの合成は、前景合成部52の配設位置と異なり、データ作成部48とレンダリング部50との間に配設する。
【0079】
以上のように構成することにより、送信側情報処理装置12の画像入力部22で顔画像32を取り込み、表情特徴抽出部24で顔画像データ34から抽出した表情特徴データ(座標データ)36を符号化部26に供給し、キャラクタ格納部28からのモデルデータ38、ならびに前景格納部30からの前景データ40および表示指示データ42を符号化部26に供給して4つのデータを圧縮符号化して、送信し、IPネットワーク20を介して受信側情報処理装置14の復号部46で伸長・復号処理により得られたデータを、表情特徴データ36およびモデルデータ38と、前景データ40および表示指示データ42とに分けて、前者のデータ組であるデータ54からデータ作成部48およびレンダリング部50によりキャラクタ画像60を作成し、前景合成部52で後者のデータ組であるデータ56から対象画像を生成し、この対象画像を表示指示データ42に応じてキャラクタ画像60の位置に合成し、出力することにより、対象画像に送信者の感情や意思を反映させ、単にキャラクタ画像を出力する場合よりもエンタテイメント性を高めて、コミュニケーション力を向上させることができる。
【0080】
画像伝送システム10は、前景管理センタ18で前景データを登録して、複数備えて、管理することにより、前景格納部30の容量を制限しても、多種多様な前景データを選択して提供を受けることができる。
【0081】
また、画像伝送システム10は、送信側情報端末装置12の前景作成部68で前景データを作成することにより、ユーザ自身の要求に近い前景データを使用することができ、ベンダ的な役割も果たすことができる。
【0082】
画像伝送システム10は、送信側情報端末装置12に映像、音声、イベントとしてそれぞれ供給される情報を基に表情認識部72、音声認識部78およびイベント認識部88のそれぞれでユーザの感情を感情認識部として認識し、この認識に応じて表される制御信号74, 84, 94をそれぞれ前景格納部に供給することにより、通話者の感情を反映させたキャラクタ画像の提供に大いに寄与することができる。
【0083】
画像伝送システム10は、送信側情報端末装置12にシナリオ格納部96を配設し、前景データの組合せデータ、前景データにおける出力順序を示すデータ、表示指示データおよびこれらのデータを出力するタイミングを一組として複数格納し、読み出して供給することにより、表示する画像にストーリー性を持たせることができ、通信相手に送話者の意思を伝え易くし、コミュニケーション力を高めることができる。
【0084】
画像伝送システム10は、シナリオ管理センタ100を設け、前景データの組合せデータ、前景データにおける出力順序を示すデータ、表示指示データおよびこれらのデータを出力するタイミングを一組に登録して、複数管理し、選択に応じてシナリオ格納部96に供給することで送信側情報端末装置12のメモリ容量を節約しながら、多様な画像の送出を可能にする。
【0085】
画像伝送システム10は、送信側情報端末装置12にてデータ54を基にキャラクタ画像の生成に用いる、データ作成部48およびレンダリング部50と、前景格納部30から供給される前景データ40および表示指示データ42であるデータ56に応じて対象画像を生成し、この生成された対象画像を生成されたキャラクタ画像60と合成する画像合成手段とが符号化部26の前段に配設され、キャラクタ画像を完成させて受信側に送信することにより、受信側の信号処理を伸長・復号処理だけで済ますことができる。これにより、新たに追加した処理機能を受信側が持たなくても、新機能のサービスを受けることができ、サービスの普及に貢献することができる。
【0086】
また、画像伝送システム10は、ID認識部106を配設し、モデルデータ38に含まれる情報とこの情報が供給される情報端末装置に固有な情報とを比較し、この比較結果の一致に応じてモデルデータ38の使用を認証することにより、システムで使用するデータにセキュリティを持たせることができる。情報端末装置は、ID認識部106を送信側および受信側のいずれか一方に配設することが望ましい。
【0087】
画像コミュニケーション機能付情報処理装置を適用した送信側情報端末装置は、画像入力部22で対象の画像32を取り込み、表情特徴抽出部24で供給される画像データ34から表情特徴データ(座標データ)36を抽出し、この表情特徴データ36、キャラクタ格納部28からのモデルデータ38、ならびに前景格納部30からの前景データ40および表示指示データ42を符号化部26に供給し、これらのデータを圧縮符号化して、送信することにより、前景データ40および表示指示データ42に送信者の感情や意思を反映させた情報送信を行い、とくに前景格納部30からのデータにエンタテイメント性を持たせることができる。これにより、受信側で表示されるキャラクタ画像を基に送信者の意図が受け易く、通信におけるコミュニケーション力をこれまで以上に向上させることができる。
【0088】
キャラクタ格納部28は、取り込んだ顔画像を置き換える候補データをモデルデータとして登録し、複数管理する外部のキャラクタ管理センタ16から選択してモデルデータ64の提供を受け、前景格納部30は、前景データおよび表示指示データの組66を登録して、複数管理する外部の前景管理センタから選択して組単位でのデータ提供を受けて、それぞれ格納することにより、それぞれの格納部における容量が制限されても、受信側に多彩な画像を提供することができ、コミュニケーションの向上に寄与することができる。
【0089】
送信側情報端末装置12は、前景作成部68で前景データを作成することにより、ユーザ自身の要求に近い前景データを使用することができ、ベンダ的な役割も果たすことができる。
【0090】
送信側情報端末装置12は、映像、音声、イベントとしてそれぞれ供給される情報を基に表情認識部72、音声認識部78およびイベント認識部88のそれぞれでユーザの感情を感情認識部として認識し、この認識に応じて表される制御信号74, 84, 94をそれぞれ前景格納部に供給することにより、通話者の感情を反映させたキャラクタ画像の提供に大いに寄与することができる。
【0091】
送信側情報端末装置12は、シナリオ格納部96を配設し、前景データの組合せデータ、前景データにおける出力順序を示すデータ、表示指示データおよびこれらのデータを出力するタイミングを一組として登録して、複数格納し、読み出して供給することにより、表示する画像にストーリー性を持たせることができ、通信相手に送話者の意思を伝え易くし、コミュニケーション力を高めることができる。
【0092】
送信側情報端末装置12は、シナリオ格納部96に、外部に配設され、前景データの組合せデータ、前景データにおける出力順序を示すデータ、表示指示データおよびこれらのデータを出力するタイミングを一組に登録して、複数管理されたシナリオ管理センタ100から選択に応じて一組データを供給することで送信側情報端末装置12のメモリ容量を節約しながら、多様な画像の送出を可能にする。
【0093】
受信側情報端末装置14は、復号部46で通信相手先から供給される圧縮符号化されたデータを復号し、復号したデータのうち、データ54(表情特徴データ36およびモデルデータ38)と、データ56(前景データ40および表示指示データ42)とをそれぞれ分けて出力し、データ作成部48およびレンダリング部50でデータ54(表情特徴データ36およびモデルデータ38)を基にキャラクタ画像60を生成し、この生成したキャラクタ画像60に、前景合成部52でデータ56(前景データ40および表示指示データ42)に応じて生成される対象画像を合成して、出力することにより、送信側における信号処理を軽減し、コミュニケーション力の高い画像を生成することができる。
【0094】
送信側情報端末装置12は、データ54を供給し、データ54を基にキャラクタ画像を生成するデータ作成部48およびレンダリング部50と、前景格納部30から供給される前景データ40および表示指示データ42のデータ56に応じて対象画像を生成し、この生成された対象画像を生成されたキャラクタ画像60と合成する画像合成手段とが符号化部26の前段に配設され、キャラクタ画像44を完成させて受信側に送信することにより、受信側の信号処理を伸長・復号処理だけで済ますことができる。これにより、新たに追加した処理機能を受信側が持たなくても、新機能のサービスを受けることができ、サービスの普及に貢献することができる。
【0095】
また、情報端末装置12, 14は、ID認識部106を配設し、モデルデータ38に含まれる情報とこの情報が供給される情報端末装置に固有な情報とを比較し、この比較結果の一致に応じてモデルデータ38の使用を認証することにより、システムで使用するデータにセキュリティを持たせることができる。情報端末装置12, 14は、ID認識部106を送信側および受信側のいずれか一方に配設することが望ましい。
【0096】
【発明の効果】
このように本発明の画像配信システムによれば、送信側情報処理装置から抽出した表情特徴データ、第1の格納手段からのモデルデータ、ならびに第2の格納手段からの対象データおよび指示データを符号化手段で圧縮符号化して、送信し、IPネットワークを介して受信した受信側情報処理装置の復号手段で伸長・復号処理により得られたデータを、表情特徴データおよびモデルデータと、対象データおよび指示データとに分けて、前者のデータ組からモデル画像を作成し、画像合成手段で後者のデータ組から対象画像を指示データに応じてモデル画像の位置に合成し、出力することにより、対象画像に送信者の感情や意思を反映させ、単にモデル画像を出力する場合よりもエンタテイメント性を高めて、コミュニケーション力を向上させることができる。
【0097】
また、本発明の画像コミュニケーション機能付情報処理装置によれば、画像入力手段で対象の画像を取り込み、特徴抽出手段で供給される画像データから表情特徴データを抽出し、この表情特徴データ、第1の格納手段からのモデルデータ、ならびに第2の格納手段からの対象データおよび指示データを符号化手段で圧縮符号化して、送信することにより、対象データおよび指示データに送信者の感情や意思を反映させた情報送信を行い、とくに第2の格納手段からのデータにエンタテイメント性を持たせることができる。これにより、受信側で表示されるモデル画像を基に送信者の意図が受け易く、通信におけるコミュニケーション力をこれまで以上に向上させることができる。
【図面の簡単な説明】
【図1】本発明の画像配信システムを適用した画像伝送システムの基本的な構成を示すブロック図である。
【図2】図1の画像伝送システムにおける変形例1の構成を示すブロック図である。
【図3】図2の画像伝送システムにおいて通話者が抱く感情の認識を画像で行う変形例2の構成を示すブロック図である。
【図4】図2の画像伝送システムにおいて通話者が抱く感情の認識を音声で行う変形例3の構成を示すブロック図である。
【図5】図2の画像伝送システムにおいて通話者が抱く感情の認識をイベントで行う変形例4の構成を示すブロック図である。
【図6】図1の画像伝送システムにおける変形例5の構成を示すブロック図である。
【図7】図1の画像伝送システムにおいて送信側情報端末装置に受信側情報端末装置の画像生成に用いる構成要素すべてを含む変形例6の構成およびその接続関係を示すブロック図である。
【図8】図7の画像伝送システムにおける送信側にID確認部を含ませた変形例7の構成を示すブロック図である。
【図9】図1の画像伝送システムにおける受信側にID確認部を含ませた変形例8の構成を示すブロック図である。
【符号の説明】
10 画像伝送システム
12 送信側情報端末装置
14 受信側情報端末装置
16 キャラクタ管理センタ
18 前景管理センタ
20 IPネットワーク
22 画像入力部
24 表情特徴抽出部
26 符号化部
28 キャラクタ格納部
30 前景格納部
46 復号部
48 データ作成部
50 レンダリング部
52 前景合成部

Claims (24)

  1. 公衆回線網、IP(Internet Protocol)ネットワークおよびローカルネットワークの少なくとも、いずれか一つの通信回線を介して通信相手とのコミュニケーションに有効な画像に関する情報を含むコミュニケーション情報を通信する画像配信システムにおいて、該システムは、
    前記コミュニケーション情報を生成し、前記通信回線に送信する送信側情報処理装置、前記通信回線を介して供給されるコミュニケーション情報を受信し、該受信したコミュニケーション情報が理解し易い形態にして出力する受信側情報処理装置、および該コミュニケーション情報の一つとして取り込んだ顔画像を置き換えて、前記受信側情報処理装置に送るモデルデータを複数管理する第1の管理手段を含み、
    前記送信側情報処理装置は、第1の管理手段から供給されるモデルデータを登録して、格納する第1の格納手段と、
    前記モデルデータで生成されるモデル画像に重ねる対象画像の基になる対象データおよび該対象データに対する重ね表示の指示データを組にして登録し、複数格納して、選択された組のデータを出力する第2の格納手段と、
    送信の対象を画像として取り込む画像入力手段と、
    該取り込んだ画像が含む前記対象である顔の表情を特徴付ける表情特徴データを抽出する特徴抽出手段と、
    該表情特徴データ、前記モデルデータ、前記対象データおよび前記指示データを圧縮符号化する符号化手段とを含み、
    前記受信側情報処理装置は、圧縮符号化されたデータを復号し、復号したデータのうち、前記表情特徴データおよび前記モデルデータと、前記対象データおよび前記指示データとをそれぞれ、分けて出力する復号手段と、
    前記表情特徴データおよび前記モデルデータを基にモデル画像を生成する手段と、
    前記対象データおよび前記指示データに応じて対象画像を生成し、該生成された対象画像を前記生成されたモデル画像と合成する画像合成手段とを含むことを特徴とする画像配信システム。
  2. 請求項1に記載のシステムにおいて、該システムは、前記対象データを複数備えて、管理する第2の管理手段を含むことを特徴とする画像配信システム。
  3. 請求項1に記載のシステムにおいて、前記送信側情報処理装置は、前記対象データを作成する手段を含むことを特徴とする画像配信システム。
  4. 請求項1、2または3に記載のシステムにおいて、前記送信側情報処理装置は、供給される情報を基にユーザの感情を認識し、該認識に応じて表される制御情報を第2の格納手段に供給する感情認識手段を含むことを特徴とする画像配信システム。
  5. 請求項4に記載のシステムにおいて、前記感情認識手段は、前記供給される情報として画像を用いて、前記ユーザの表情を認識し、該認識に応じて前記制御情報を第2の格納手段に供給する表情認識手段を含むことを特徴とする画像配信システム。
  6. 請求項4に記載のシステムにおいて、前記感情認識手段は、前記供給される情報として音声を用いて、前記ユーザの感情を認識し、該認識に応じて表される制御情報を第2の格納手段に供給する音声認識手段を含むことを特徴とする画像配信システム。
  7. 請求項4に記載にシステムにおいて、前記感情認識手段は、前記送信側情報処理装置に対する入力操作にともなって出力する値があらかじめ設定されている入力手段を介して出力される値を供給される情報として用いて、該情報の組合せを認識して、前記制御情報を第2の格納手段に供給する情報認識手段を含むことを特徴とする画像配信システム。
  8. 請求項1ないし7のいずれか一項に記載のシステムにおいて、第2の格納手段は、前記対象データの組合せデータ、前記対象データにおける出力順序を示すデータ、前記指示データおよびこれらのデータを出力するタイミングを一組として複数格納することを特徴とする画像配信システム。
  9. 請求項2ないし8のいずれか一項に記載のシステムにおいて、第2の管理手段は、前記対象データの組合せデータ、前記対象データにおける出力順序を示すデータ、前記指示データおよびこれらのデータを出力するタイミングを一組に複数管理し、選択に応じて第2の格納手段に供給することを特徴とする画像配信システム。
  10. 請求項1ないし9のいずれか一項に記載のシステムにおいて、前記送信側情報処理装置は、前記表情特徴データおよび前記モデルデータを基にモデル画像を生成するモデル画像生成手段と、
    第2の格納手段から供給される前記対象データおよび前記指示データに応じて対象画像を生成し、該生成された対象画像を前記生成されたモデル画像と合成する画像合成手段とが前記符号化手段の前段に配設され、
    前記モデル画像生成手段は、前記表情特徴データを基に前記モデルデータの特徴点の位置を変化させるデータ生成手段と、
    該変化させたモデルデータをモデル画像として可視化させる手段とを含むことを特徴とする画像配信システム。
  11. 請求項1ないし10のいずれか一項に記載のシステムにおいて、該システムは、前記モデルデータに含まれる情報と該情報が供給される情報処理装置に固有な情報とを比較し、該比較結果の一致に応じて前記モデルデータの使用を認証する同定手段を前記送信側情報処理装置および前記受信側情報処理装置のいずれか一方に配設することを特徴とする画像配信システム。
  12. 公衆回線網、IP(Internet Protocol)ネットワークおよびローカルネットワークの少なくとも、いずれか一つの通信回線を介して通信相手とのコミュニケーションに有効な画像に関する情報を含むコミュニケーション情報を通信する画像コミュニケーション機能付き情報処理装置において、該装置は、送信の対象を画像として取り込む画像入力手段と、
    該取り込んだ画像が含む前記対象である顔の表情を特徴付ける表情特徴データを抽出する特徴抽出手段と、
    前記送信の対象に置き換えて通信相手にて表す置換画像のモデルデータを登録して、複数格納する第1の格納手段と、
    前記表情特徴データおよび前記モデルデータを前記コミュニケーション情報として供給し、これらを圧縮符号化する符号化手段とを含むことを特徴とする画像コミュニケーション機能付情報処理装置。
  13. 請求項12に記載の装置において、該装置は、前記モデルデータで生成されるモデル画像に重ねる対象画像の基になる対象データおよび該対象データに対する重ね表示の指示データを組にして登録して、複数格納し、選択された組のデータを出力する第2の格納手段を含み、
    前記符号化手段には、前記表情特徴データ、前記モデルデータ、前記対象データおよび前記指示データが前記コミュニケーション情報として供給され、これらを圧縮符号化することを特徴とする画像コミュニケーション機能付情報処理装置。
  14. 請求項13に記載の装置において、第1の格納手段は、取り込んだ顔画像を置き換える候補データをモデルデータとして登録して、複数管理する外部の第1の管理手段から選択して前記モデルデータの提供を受け、
    第2の格納手段は、前記対象データおよび前記指示データの組を登録して、複数管理する外部の第2の管理手段から選択して組単位でのデータ提供を受けることを特徴とする画像コミュニケーション機能付情報処理装置。
  15. 請求項13に記載の装置において、該装置は、前記対象データを作成する手段を含むことを特徴とする画像コミュニケーション機能付情報処理装置。
  16. 請求項12ないし15のいずれか一項に記載の装置において、該装置は、供給される情報を基にユーザの感情を認識し、該認識に応じて表される制御情報を第2の格納手段に供給する感情認識手段を含むことを特徴とする画像コミュニケーション機能付情報処理装置。
  17. 請求項16に記載の装置において、前記感情認識手段は、前記供給される情報として画像を用いて、前記ユーザの表情を認識し、該認識に応じて前記制御情報を第2の格納手段に供給する表情認識手段を含むことを特徴とする画像コミュニケーション機能付情報処理装置。
  18. 請求項16に記載の装置において、前記感情認識手段は、前記供給される情報として音声を用いて、前記ユーザの感情を認識し、該認識に応じて表される制御情報を第2の格納手段に供給する音声認識手段を含むことを特徴とする画像コミュニケーション機能付情報処理装置。
  19. 請求項16に記載に装置において、前記感情認識手段は、前記送信側情報処理装置に対する入力操作にともなって出力する値があらかじめ設定されている入力手段を介して出力される値を供給される情報として用いて、該情報の組合せを認識して、前記制御情報を第2の格納手段に供給する情報認識手段を含むことを特徴とする画像コミュニケーション機能付情報処理装置。
  20. 請求項12ないし19のいずれか一項に記載の装置において、第2の格納手段は、前記対象データの組合せデータ、前記対象データにおける出力順序を示すデータ、前記指示データおよびこれらのデータを出力するタイミングを格納することを特徴とする画像コミュニケーション機能付情報処理装置。
  21. 請求項14ないし20のいずれか一項に記載の装置において、第2の管理手段は、前記対象データの組合せデータ、前記対象データにおける出力順序を示すデータ、前記指示データおよびこれらのデータを出力するタイミングを一組として複数管理し、管理するこれらのデータを要求に応じて第2の格納手段に提供することを特徴とする画像コミュニケーション付情報処理装置。
  22. 請求項21に記載の装置において、該装置は、通信相手先から供給される圧縮符号化されたデータを復号し、復号したデータのうち、前記表情特徴データおよび前記モデルデータと、前記対象データおよび前記指示データとをそれぞれ分けて出力する復号手段と、
    前記表情特徴データおよび前記モデルデータを基にモデル画像を生成する手段と、
    該生成されたモデル画像に、前記対象データおよび前記指示データに応じて生成される対象画像データを合成する画像合成手段とを含むことを特徴とする画像コミュニケーション機能付情報処理装置。
  23. 請求項21に記載の装置において、該装置は、前記表情特徴データおよび前記モデルデータを基にモデル画像を生成するモデル画像生成手段と、
    生成されたモデル画像に、第2の格納手段から供給される前記対象データおよび前記指示データに応じて生成される対象画像データを合成する画像合成手段とが前記符号化手段の前段に配設され、
    前記モデル画像生成手段は、前記表情特徴データを基に前記モデルデータの特徴点の位置を変化させるデータ生成手段と、
    該変化させたモデルデータをモデル画像として可視化させる手段とを含むことを特徴とする画像コミュニケーション機能付情報処理装置。
  24. 請求項22または23に記載の装置において、該装置は、前記モデルデータに含まれる情報と該情報が供給される情報処理装置に固有な情報とを比較し、該比較結果の一致に応じて前記モデルデータの使用を認証する同定手段を前記送信側および前記受信側のいずれか一方に配設することを特徴とする画像コミュニケーション機能付情報処理装置。
JP2003180461A 2003-06-25 2003-06-25 画像配信システムおよび画像コミュニケーション機能付情報処理装置 Pending JP2005018305A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003180461A JP2005018305A (ja) 2003-06-25 2003-06-25 画像配信システムおよび画像コミュニケーション機能付情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003180461A JP2005018305A (ja) 2003-06-25 2003-06-25 画像配信システムおよび画像コミュニケーション機能付情報処理装置

Publications (1)

Publication Number Publication Date
JP2005018305A true JP2005018305A (ja) 2005-01-20

Family

ID=34181442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003180461A Pending JP2005018305A (ja) 2003-06-25 2003-06-25 画像配信システムおよび画像コミュニケーション機能付情報処理装置

Country Status (1)

Country Link
JP (1) JP2005018305A (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007251711A (ja) * 2006-03-17 2007-09-27 Mitsubishi Electric Corp テレビジョン受像機
JP2012094103A (ja) * 2010-02-24 2012-05-17 Dainippon Printing Co Ltd 画像表示システム
KR101326651B1 (ko) * 2006-12-19 2013-11-08 엘지전자 주식회사 이모티콘을 이용한 화상통화장치 및 방법
KR101422009B1 (ko) 2007-10-05 2014-07-23 엘지전자 주식회사 이동 단말기 및 이동 단말기의 데이터 통신 방법
CN107563362A (zh) * 2017-10-01 2018-01-09 上海量科电子科技有限公司 进行评价操作的方法、客户端及系统
KR20180034604A (ko) * 2015-07-30 2018-04-04 인텔 코포레이션 감정 증강형 아바타 애니메이션
CN111031325A (zh) * 2019-10-28 2020-04-17 西安万像电子科技有限公司 数据处理方法及系统
US11295502B2 (en) 2014-12-23 2022-04-05 Intel Corporation Augmented facial animation
US11303850B2 (en) 2012-04-09 2022-04-12 Intel Corporation Communication using interactive avatars
JP2022539101A (ja) * 2019-07-03 2022-09-07 ロブロックス・コーポレーション テクスチャ操作を使用するアニメーション化された顔
JP2022172232A (ja) * 2018-05-07 2022-11-15 アップル インコーポレイテッド ビデオ会議のための補足コンテンツを用いたビデオストリームの修正
WO2023281704A1 (ja) * 2021-07-08 2023-01-12 日本電信電話株式会社 通信方法、通信端末、及びプログラム
US11887231B2 (en) 2015-12-18 2024-01-30 Tahoe Research, Ltd. Avatar animation system
JP7509403B2 (ja) 2020-03-04 2024-07-02 Necソリューションイノベータ株式会社 同期装置、同期方法、プログラム及び記録媒体

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007251711A (ja) * 2006-03-17 2007-09-27 Mitsubishi Electric Corp テレビジョン受像機
JP4657127B2 (ja) * 2006-03-17 2011-03-23 三菱電機株式会社 テレビジョン受像機
KR101326651B1 (ko) * 2006-12-19 2013-11-08 엘지전자 주식회사 이모티콘을 이용한 화상통화장치 및 방법
KR101422009B1 (ko) 2007-10-05 2014-07-23 엘지전자 주식회사 이동 단말기 및 이동 단말기의 데이터 통신 방법
JP2012094103A (ja) * 2010-02-24 2012-05-17 Dainippon Printing Co Ltd 画像表示システム
JP2015099603A (ja) * 2010-02-24 2015-05-28 大日本印刷株式会社 画像表示システム
US11595617B2 (en) 2012-04-09 2023-02-28 Intel Corporation Communication using interactive avatars
US11303850B2 (en) 2012-04-09 2022-04-12 Intel Corporation Communication using interactive avatars
US11295502B2 (en) 2014-12-23 2022-04-05 Intel Corporation Augmented facial animation
US10776980B2 (en) 2015-07-30 2020-09-15 Intel Corporation Emotion augmented avatar animation
KR102381687B1 (ko) 2015-07-30 2022-03-31 인텔 코포레이션 감정 증강형 아바타 애니메이션
JP2018530017A (ja) * 2015-07-30 2018-10-11 インテル・コーポレーション 感情拡張アバターアニメーション
KR20180034604A (ko) * 2015-07-30 2018-04-04 인텔 코포레이션 감정 증강형 아바타 애니메이션
US11887231B2 (en) 2015-12-18 2024-01-30 Tahoe Research, Ltd. Avatar animation system
CN107563362A (zh) * 2017-10-01 2018-01-09 上海量科电子科技有限公司 进行评价操作的方法、客户端及系统
CN107563362B (zh) * 2017-10-01 2023-04-18 上海量科电子科技有限公司 进行评价操作的方法、客户端及系统
JP2022172232A (ja) * 2018-05-07 2022-11-15 アップル インコーポレイテッド ビデオ会議のための補足コンテンツを用いたビデオストリームの修正
US11645805B2 (en) 2019-07-03 2023-05-09 Roblox Corporation Animated faces using texture manipulation
JP7364702B2 (ja) 2019-07-03 2023-10-18 ロブロックス・コーポレーション テクスチャ操作を使用するアニメーション化された顔
JP2022539101A (ja) * 2019-07-03 2022-09-07 ロブロックス・コーポレーション テクスチャ操作を使用するアニメーション化された顔
CN111031325A (zh) * 2019-10-28 2020-04-17 西安万像电子科技有限公司 数据处理方法及系统
JP7509403B2 (ja) 2020-03-04 2024-07-02 Necソリューションイノベータ株式会社 同期装置、同期方法、プログラム及び記録媒体
WO2023281704A1 (ja) * 2021-07-08 2023-01-12 日本電信電話株式会社 通信方法、通信端末、及びプログラム

Similar Documents

Publication Publication Date Title
KR101768980B1 (ko) 가상 동영상 통화 방법 및 단말
JP3593067B2 (ja) 画像コミュニケーション機能付き情報端末装置および画像配信システム
US9210372B2 (en) Communication method and device for video simulation image
EP3404659A1 (en) Emojicon puppeting
US8284233B2 (en) Utilizing image sequences to perform video streaming during video conferencing
KR101099884B1 (ko) 동화상데이터의 부호화방법, 복호화방법, 이들을 실행하는단말장치, 및 쌍방향 대화형 시스템
JP2006330958A (ja) 画像合成装置、ならびにその装置を用いた通信端末および画像コミュニケーションシステム、ならびにそのシステムにおけるチャットサーバ
CN104170318B (zh) 使用交互化身的通信
WO2022166709A1 (zh) 虚拟视频直播处理方法及装置、存储介质、电子设备
US20160134840A1 (en) Avatar-Mediated Telepresence Systems with Enhanced Filtering
JP2005018305A (ja) 画像配信システムおよび画像コミュニケーション機能付情報処理装置
JP2004533666A (ja) 通信システム
KR20060076158A (ko) 정보 단말 장치
KR20150105058A (ko) 온라인을 이용한 혼합현실형 가상 공연 시스템
JP2003244425A (ja) 伝送画像の修飾パターンの登録方法および装置ならびに再生方法および装置
JP2024513640A (ja) 仮想対象のアクション処理方法およびその装置、コンピュータプログラム
CN111670431A (zh) 信息处理装置、信息处理方法以及程序
JP2008135923A (ja) リアルタイムに相互作用する映像の制作方法、映像の制作装置、および映像の制作システム
JP2005277989A (ja) 通信端末装置およびその画像提供方法
KR100686076B1 (ko) 피사체의 감정 상태에 대응하는 메시지 출력 기능을 갖는무선 통신 단말기 및 이를 이용한 메시지 출력 방법
CN113014960B (zh) 一种在线制作视频的方法、装置及存储介质
KR100912230B1 (ko) 대체 영상 통화 서비스 제공 방법 및 이를 위한 시스템
KR100673608B1 (ko) 아바타 생성 장치 및 아바타 생성 기능을 가진 이동통신단말기
JP4466146B2 (ja) 通信サービスシステムおよびコンテンツ選択方法
JP2020115299A (ja) 仮想空間情報処理装置、方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080520

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080722

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080812