JP2005323340A - 通信端末及び通信方法 - Google Patents

通信端末及び通信方法 Download PDF

Info

Publication number
JP2005323340A
JP2005323340A JP2005086335A JP2005086335A JP2005323340A JP 2005323340 A JP2005323340 A JP 2005323340A JP 2005086335 A JP2005086335 A JP 2005086335A JP 2005086335 A JP2005086335 A JP 2005086335A JP 2005323340 A JP2005323340 A JP 2005323340A
Authority
JP
Japan
Prior art keywords
data
videophone device
videophone
terminal
communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005086335A
Other languages
English (en)
Inventor
Satoru Haneda
哲 羽田
Hideaki Matsuo
英明 松尾
Hiroki Nogoshi
広樹 野越
Naoyuki Suzuki
直行 鈴木
Takahiro Makino
崇弘 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2005086335A priority Critical patent/JP2005323340A/ja
Priority to PCT/JP2005/006313 priority patent/WO2005099262A1/ja
Priority to US10/596,855 priority patent/US20070139512A1/en
Publication of JP2005323340A publication Critical patent/JP2005323340A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • H04M11/08Telephonic communication systems specially adapted for combination with other electrical systems specially adapted for optional reception of entertainment or informative matter
    • H04M11/085Telephonic communication systems specially adapted for combination with other electrical systems specially adapted for optional reception of entertainment or informative matter using a television receiver, e.g. viewdata system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Telephonic Communication Services (AREA)
  • Telephone Function (AREA)

Abstract

【課題】自端末が要求するレベルの機能を通信相手端末に実行させる。
【解決手段】通信機能を有し、テレビ電話装置2が搭載する機能と共通の機能を搭載するテレビ電話装置1であって、テレビ電話装置1が搭載する機能を実行させる為のデータ及びテレビ電話装置2が搭載する機能を実行させる為のデータを生成する表示画像生成部13Aと、テレビ電話装置2が搭載する機能を実行させる為のデータを送信するデータ送信部11Aと、を備える。
【選択図】 図1

Description

本発明は、通信機能を有し、通信相手端末が搭載する機能と共通の機能を搭載する通信端末及びその通信方法に関する。
従来、ユーザを撮影した映像に代わってアバターと呼ばれるキャラクタを通信相手端末に送る機能を持たせたテレビ電話装置が開発されている(例えば、特許文献1参照)。
特開2003−109036号公報(第3頁、第4頁、第2図)
しかしながら、従来のテレビ電話装置においては、全てのテレビ電話装置が同一の処理能力を有しているとは限らず、処理能力に差のあるテレビ電話装置同士間で通信を行う場合には、処理能力の低いテレビ電話装置に合わせることになり、これらのテレビ電話装置間で処理がスムーズにいかないという問題がある。
本発明は、上記事情に鑑みてなされたものであり、自端末が要求するレベルの機能を通信相手端末に実行させることができる通信端末及び通信方法を提供することを目的とする。
本発明の通信端末は、通信機能を有し、通信相手端末が搭載する機能と共通の機能を搭載する通信端末であって、自端末が搭載する機能を実行させる為のデータ及び通信相手端末が搭載する機能を実行させる為のデータを生成するデータ生成手段と、前記通信相手端末が搭載する機能を実行させる為のデータを送信する送信手段と、を備える。
上記構成によれば、自端末が搭載する機能を実行させる為のデータ及び通信相手端末が搭載する機能を実行させる為のデータを生成するデータ生成手段を備えることにより、通信相手端末の端末能力が自端末より低い場合であっても、自端末が要求するレベルの機能を通信相手端末に実行させることができる。
また、本発明の通信端末は、テレビ電話機能を有し、入力されたデータを解析する入力データ解析手段と、解析結果に基づいて、自端末側のデータと通信相手端末側のデータとを整合させたデータを前記生成手段に出力するデータ整合手段と、を有する。また、本発明の通信端末は、入力されたデータとして、画像データ、音声データ及びキー入力データから選択した少なくとも1つのデータを前記入力データ解析手段へ入力する入力手段を備える。上記構成によれば、入力されたデータを解析する入力データ解析手段を備えることにより、入力されたデータを反映したデータを生成できる。
さらに、本発明の通信方法は、通信機能を有し、通信相手端末が搭載する機能と共通の機能を搭載する通信端末の通信方法であって、自端末が搭載する機能を実行させる為のデータ及び通信相手端末が搭載する機能を実行させる為のデータを生成し、前記通信相手端末が搭載する機能を実行させる為のデータを送信する。
本発明によれば、自端末が搭載する機能を実行させる為のデータ及び通信相手端末が搭載する機能を実行させる為のデータを生成することにより、通信相手端末の端末能力が自端末より低い場合であっても、自端末が要求するレベルの機能を通信相手端末に実行させることができる。
(実施の形態1)
図1は、本発明の実施の形態1を説明するためのテレビ電話システムの概略構成図である。図1に示すテレビ電話システムは、通信機能を有し、通信相手端末が搭載する機能と共通の機能を搭載し、互いに端末能力が異なるテレビ電話装置1及び2を備えており、ネットワーク3を介して互いに通信可能に構成されている。テレビ電話装置1とテレビ電話装置2との間の通信には例えばIP(インターネットプロトコル)が用いられる。本実施の形態では、テレビ電話装置1の端末能力がテレビ電話装置2の端末能力よりも高い場合について説明する。なお、テレビ電話装置1は、テレビ電話装置2と共通に用いられるキャラクタ(アバターと呼ばれるユーザの分身として使用されるキャラクタ)を生成する機能を有し、テレビ電話装置2との通話中にユーザの顔画像の代りにキャラクタを表示するものとする。以下、テレビ電話装置1とテレビ電話装置2に共通する部分には同一の数字を付し、さらにテレビ電話装置1とテレビ電話装置2を区別するために、テレビ電話装置1には「A」を、テレビ電話装置2には「B」を付加することとする。
テレビ電話装置1及び2は、入力データ部10A、10B、データ送信部11A、11B、データ受信部12A、12B、表示画像生成部13A、13B、テレビ電話表示部14A、14Bを共通して有する。テレビ電話装置1は、更にキャラクタデータ格納部15、表情・感情解析部16、動作データ生成部17、動作整合部18を有している。テレビ電話装置1の表示画像生成部13Aは、テレビ電話装置1(自端末)が搭載する機能を実行させる為のデータ及びテレビ電話装置2(通信相手端末)が搭載する機能を実行させる為のデータを生成し、データ送信部11Aは、テレビ電話装置2が搭載する機能を実行させる為のデータを送信する。また、テレビ電話装置1の表情・感情解析部16は、入力されたデータを解析し、動作データ生成部17は、解析結果に基づいて、テレビ電話装置1側のデータとテレビ電話装置2側のデータとを整合させたデータを表示画像生成部13Aに出力する。また、テレビ電話装置1の入力データ部10Aは、入力されたデータとして、画像データ、音声データ及びキー入力データから選択した少なくとも1つのデータを表情・感情解析部16へ入力する。
入力データ部10A及び10Bは、カメラ、マイク、キー入力部(いずれも図示略)など各種入力手段と接続され、ユーザの表情、感情、動作を表す情報(ユーザ情報)の取得に使用される。テレビ電話装置2の入力データ部10Bは、入力されたデータとして、画像データ、音声データ及びキー入力データから選択した少なくとも1つのデータを、データ送信部11B及びデータ受信部12Aを介して、表情・感情解析部16へ入力する。データ送信部11Aは、テレビ電話装置2に表示させる画像データを送信する。データ送信部11Bは、テレビ電話装置2のユーザの表情や感情を表す情報をテレビ電話装置1に送信する。データ受信部12Aは、テレビ電話装置2から送信されるテレビ電話装置2のユーザの表情や感情を表す情報を受信する。データ受信部12Bは、テレビ電話装置1から送信される画像データを受信する。
表示画像生成部13Aは、入力データ部10Aからの入力データ及び入力データ部10Bからの入力データに基づいて、テレビ電話表示部14Aに表示させる画像及びテレビ電話表示部14Bに表示させる画像を生成する。また、表示画像生成部13Aは、生成した、テレビ電話表示部14Bに表示させる画像データをデータ送信部11Aに渡す。
表示画像生成部13Bは、データ受信部12Bを介して取得した、表示画像生成部13Aで生成された画像データから表示画像を生成する。なお、表示画像生成部13Bは、取得した画像データを加工せずにテレビ電話表示部14Bにそのまま表示させてもよい。テレビ電話表示部14Aは、液晶ディスプレイを有し、表示画像生成部13Aで生成された画像を表示する。テレビ電話表示部14Bは、液晶ディスプレイを有し、表示画像生成部13Bで生成された画像を表示する。キャラクタデータ格納部15には、キャラクタ画像を作成するためのデータが格納されている。キャラクタデータは、テレビ電話装置1及び2にキャラクタを表示するための画像データであり、動作データ生成部17で生成される動作データに対応して複数個用意されている。なお、本実施の形態では2種類のキャラクタを表示可能としている。
表情・感情解析部16は、入力データ部10Aからの映像データ、音声データ又はキー入力データを基にテレビ電話装置1のユーザの表情、感情を解析する。また、表情・感情解析部16は、テレビ電話装置2からの映像データ、音声データ又はキー入力データを基にテレビ電話装置2のユーザの表情、感情を解析する。表情・感情解析部16は、ユーザの顔画像が入力されている場合に顔画像を解析し、笑っている、怒っている等の表情や感情を検知する。
表情・感情を検知する方法としては、例えば周期的に取得する映像入力データから、顔認識処理を行い、検出した眉・目・口等の各顔部位の特徴点座標の平均値を求め、平均表情特徴点座標とする。そして、今回取得した映像入力データによって顔認識処理を行った眉・目・口等の各顔部位の特徴点座標と平均表情特徴点座標とを比較し、各顔部位の変化が特定の条件を満たした場合、「笑う」・「驚く」・「悲しむ」等の表情・感情を検知する。図2は、「笑う」・「驚く」・「悲しむ」の場合の顔認識処理を模式的に示した図である。この図において、”□”は顔認識処理による検出点を示し、眉・目・口それぞれに複数個設定される。図2(a)は、フレーム毎の顔認識処理による平均表情特徴点座標を示している。図2(b)は「笑う」の場合の表情特徴点座標、図2(c)は「驚く」の場合の表情特徴点座標、図2(d)は「悲しむ」の場合の表情特徴点座標をそれぞれ示している。
「笑う」の場合は、眉両端が上方向に閾値W3以上変化し、目下端が上方向に閾値W2以上変化し、口両端が上方向に閾値W1以上変化するという3つの条件全て満たす。「驚く」の場合は、眉両端が上方向に閾値O1以上変化し、目上下幅が閾値O2以上増加し、口上下幅が閾値O1以上増加するという3つの条件を全て満たす。「悲しむ」の場合は、眉両端が下方向に閾値N1以上変化し、目上下幅が閾値N2以上減少し、口両端が下方向に閾値N3以上変化するという3つの条件を全て満たす。
また、表情・感情解析部16は、一定時間の顔の動きを検出することにより、「首を振る」・「頷く」等の動作を検知する。図3は、「首を振る」・「頷く」の場合の顔認識処理を模式的に示した図である。この図において、上記同様に、”□”は顔認識処理による検出点を示し、眉・目・口それぞれに複数個設定される。図3(a)は「首を振る」の場合の表情特徴点座標の変化、図3(b)は「頷く」の場合の表情特徴点座標の変化をそれぞれ示している。「首を振る」の場合は、表情特徴点座標が顔中心より横方向に閾値K1以上変化、顔中心より反対方向に閾値K2以上変化するという2つの条件を満たす。「頷く」の場合は、表情特徴点座標が顔中心より下方向に閾値U1以上変化、顔中心より上方向に閾値U2以上変化するという2つの条件を満たす。
また、表情・感情解析部16は、キー入力データを解析し、各キーに対応付けられた表情・感情を検知する。ここで、キー操作部(図示略)の各キーには様々な表情、感情が対応付けされており、ユーザが通話中に自分の表情、感情に合致するキーを操作(押下)することで、表情・感情解析部16は、表情・感情を検知し、表情・感情に対応する動作を決定する。例えば「怒る」という表情・感情が「1」のキーに対応付けられており、ユーザが当該キーを押下することで「怒る」という動作が確定される。また、「笑う」という表情・感情が「2」のキーに対応付けられており、ユーザが当該キーを押下することで「笑う」が確定される。また、「驚く」という表情・感情が「3」のキーに対応付けられており、ユーザが当該キーを押下することで「驚く」が確定される。また、「怯える」という表情・感情が「4」のキーに対応付けられており、ユーザが当該キーを押下することで「怯える」が確定される。
また、「手を上げる」という動作が「5」のキーに対応付けられており、ユーザが当該キーを押下することで、「手を上げる」という動作が確定される。また、「突き飛ばす」という動作が「6」のキーに対応付けられており、ユーザが当該キーを押下することで、「突き飛ばす」という動作が確定される。また、「攻撃する」という動作が「7」のキーに対応付けられており、ユーザが当該キーを押下することで、「攻撃する」という動作が確定される。また、「手をつなぐ」という動作が「8」のキーに対応付けられており、ユーザが当該キーを押下することで、「手をつなぐ」という動作が確定される。また、「抱きつく」という動作が「9」のキーに対応付けられており、ユーザが当該キーを押下することで、「抱きつく」という動作が確定される。
上述した顔認識処理により検知した表情・感情から、表情・感情変換処理により単独動作テーブルまたは相互動作テーブルに対応づけられ、キャラクタの「笑う」、「驚く」、「悲しむ」、「首を振る」、「頷く」、「手をつなぐ」「抱きつく」という動作が確定される。
また、表情・感情解析部16は、音声データを解析してユーザが大声を出した等の感情を検知する。感情を検知する方法としては、例えば音声入力データのリズムが速くなり、音が大きくなった場合「笑う」、リズムがそのままで、音が大きくなった場合「驚く」、リズムが遅く、音が小さくなった場合「悲しむ」といったようにリズム・音の大小の変化からユーザの感情を検知する。検知した感情から、表情・感情変換処理により単独動作テーブルまたは相互動作テーブルに対応づけられ、キャラクタの「笑う」「驚く」、「悲しむ」、「手をつなぐ」「抱きつく」という動作が確定される。
このように、表情・感情解析部14は、映像データ、音声データ、キー入力データを基にユーザの表情、感情を解析する。そして、解析した結果を動作データ生成部17に入力する。なお、映像データ、音声データ、キー入力データの全てを必要とすることはなく、そのうちの1つでも構わない。
図4は、動作データ生成部17及び動作整合部18が使用する動作テーブルの一例を示す図である。動作データ生成部17は、表情・感情解析部16の解析結果に基づいて、図4に示すテーブルを参照して、テレビ電話装置1のユーザとテレビ電話装置2のユーザそれぞれの表情、感情に応じた動作データを生成する。図4(a)はテレビ電話装置1側の単独動作テーブルTAであり、キャラクタCa単独の動作データの集合を示す。図4(b)はテレビ電話装置2側の単独動作テーブルTBであり、キャラクタCb単独の動作データの集合を示す。図4(c)はテレビ電話装置1及び2の相互動作テーブルTCであり、相手のキャラクタCa又はCbに影響を与える動作データの集合を示す。
動作データ生成部17は、テレビ電話装置1の入力データIAが単独動作を示す場合は単独動作テーブルTAから動作データDAを生成し、テレビ電話装置2の入力データIBが単独動作を示す場合は単独動作テーブルTBから動作データDBを生成し、テレビ電話装置1の入力データIAが相互動作を示す場合は相互動作テーブルTCから動作データDAを生成し、テレビ電話装置2の入力データIBが相互動作を示す場合は相互動作テーブルTCから動作データDBを生成する。
ここで、一例として、テレビ電話装置1において、入力データIAとして映像データが入力された場合の映像データと動作データDAとの関係を図5に示す。この場合、テレビ電話装置1の動作であるので、図5(a)(図4(a))の単独動作テーブルTAと図5(c)(図4(c))の相互動作テーブルTCが使用される。また、図5(d)は、表情・感情解析部16が使用する表情・感情解析テーブルの一例を示す図である。この表情・感情解析テーブルには、表情・感情解析部16が解析した結果が一時的に保持される。
(1)テレビ電話装置1の入力データIAが「笑う」という感情を示す映像データである場合、「笑う」という動作データDAが生成される。
(2)テレビ電話装置1の入力データIAが「悲しむ」という感情を示す映像データである場合、「泣く」という動作データDAが生成される。
(3)テレビ電話装置1の入力データIAが「驚く」という感情を示す映像データである場合、「驚く」という動作データDAが生成される。
(4)テレビ電話装置1の入力データIAが「怒り」という動作を示す映像データである場合、「攻撃する」という動作データDAが生成される。
(5)テレビ電話装置1の入力データIAが「首を振る」という動作を示す映像データである場合、「突き飛ばす」という動作データDAが生成される。
(6)テレビ電話装置1の入力データIAが「頷く」という動作を示す映像データである場合、「手をつなぐ」という動作データDAが生成される。
また、テレビ電話装置1において、入力データIAとして音声データが入力された場合の音声データと動作データDAとの関係を図6に示す。この場合もテレビ電話装置1の動作であるので、図6(a)(図4(a))の単独動作テーブルTAと図6(c)(図4(c))の相互動作テーブルTCが使用される。
(1)テレビ電話装置1の入力データIAが「笑う」という感情を示す音声データである場合、「笑う」という動作データDAが生成される。
(2)テレビ電話装置1の入力データIAが「悲しむ」という感情を示す音声データである場合、「泣く」という動作データDAが生成される。
(3)テレビ電話装置1の入力データIAが「驚く」という感情を示す音声データである場合、「驚く」という動作データDAが生成される。
(4)テレビ電話装置1の入力データIAが「怒る」という感情を示す音声データである場合、「攻撃する」という動作データDAが生成される。
(5)テレビ電話装置1の入力データIAが「大声を出す」という感情を示す音声データである場合、「突き飛ばす」という動作データDAが生成される。
(6)テレビ電話装置1の入力データIAが「無言」という感情を示す音声データである場合、「怯える」という動作データDAが生成される。
上記の例は、テレビ電話装置1についてあったが、テレビ電話装置2においても、入力データIBが映像、音声を問わず同様である。つまり、テレビ電話装置1の入力データIAが入力データIBに置き換わり、動作データDAが動作データDBに置き換わる。また、当然ながらテレビ電話装置2の場合は、図4(b)の単独動作テーブルTBと図4(c)相互動作テーブルTCが使用される。
動作データ生成部17は、上述のようにして生成した動作データDA、DBを表示画像生成部13Aと動作整合部18それぞれに入力する。動作整合部18は、動作データDA及びDBの整合をとるものであり、以下のように動作データDA、DBの整合を行う。
(1)動作データDA、動作データDBが共に単独動作のデータの場合、そのまま動作データDAと動作データDBを出力する(例:キャラクタCaが「笑い」、キャラクタCbが「泣く」)
図7は、動作整合部の動作概要を示す図であり、(2)に示す場合の動作整合部18の動作概要を示す。
(2)動作データDAが単独動作のデータで、動作データDBが相互動作のデータの場合は、動作データDBを優先させる。動作データDBは相互動作テーブルTC内の主動作データを出力し、動作データDAは相互動作テーブルTC内の主動作データに対応した受動作データを出力する(例:キャラクタCbが「突き飛ばす」と、キャラクタCaが「吹き飛ぶ」)。図7に示すように、動作整合される前は動作データDAが「笑う」、動作データDBが「突き飛ばす」であり、相互動作である動作データDBが優先されることから、「笑う」の動作データDAは「吹き飛ぶ」の動作データDA´になる。
(3)動作データDAが相互動作のデータで、動作データDBが単独動作のデータの場合、(2)の場合と同様である(例:キャラクタCaが「突き飛ばす」と、キャラクタCbが「吹き飛ぶ」)
(4)動作データDA、動作データDBが共に相互動作のデータである場合、例えば時間的に早く取得された方を優先し、上位側の相互動作の動作データを出力する(例:動作データDAが優先された場合、キャラクタCaが「攻撃する」と、キャラクタCbが「倒れる」)
動作データ生成部17は、表情・感情解析部16からの入力データが無い(映像データ、音声データ、キー入力データのいずれも入力されない)ときには、図5及び図6に示すように、単独動作テーブルTA、TBの「デフォルト動作」の動作データを生成する。
表示画像生成部13Aは、動作データ生成部17で生成された動作データDA又は動作データDAを動作整合部18で整合させた動作データDA´に対応するキャラクタデータをキャラクタデータ格納部15から取得し、テレビ電話表示部14Aに画像を表示させる。また、動作データ生成部17で生成されたテレビ電話装置2用の動作データDB又は動作データDBを動作整合部18で整合させた動作データDB´に対応するキャラクタデータをキャラクタデータ格納部15から取得し、データ送信部11Aからテレビ電話装置2に送信する。
テレビ電話表示部14Aには、例えば「突き飛ばす」という相互動作の動作データDAと、「笑う」、「泣く」、「驚く」又は「怯える」という単独動作の動作データDBとが生成された場合、動作データDAによる表示即ち図1に示すように、テレビ電話装置1のキャラクタCaがテレビ電話装置2のキャラクタCbを突き飛ばしているキャラクタ画像が表示され、他方のテレビ電話表示部14Bには、整合された動作データDB´による表示即ち図1に示すようにテレビ電話装置2のキャラクタCbがテレビ電話装置1のキャラクタCaによって突き飛ばされているキャラクタ画像が表示される。
なお、図1のテレビ電話表示部14Aとテレビ電話表示部14Bに表示されるキャラクタ画像は、動作データDBが相互動作の動作データで、かつその発生タイミングが動作データDAより後である場合も同様になる。但し、時間の前後で優先を決定しない場合はこの限りではない。
図8は、テレビ電話装置1の動作を示すフローチャートである。まず、テレビ電話装置1は、テレビ電話装置2との間で通話を開始する(ST10)。テレビ電話装置2と通話を開始すると、入力データ部10Aから入力データIAを取得する(ST11)。すなわち、映像データ、音声データ、キー入力データの少なくとも1つを取得する。次いで、取得した入力データIAからテレビ電話装置1のユーザの表情、感情を解析する(ST12)。例えば、テレビ電話装置1のユーザの笑い顔を撮影すると、「笑う」という解析結果を得る。
入力データIAから表情、感情を解析した後、テレビ電話装置2からの入力データIBの受信を開始する(ST13)。テレビ電話装置2から送信された入力データIBを受信すると、入力データIBからテレビ電話装置2のユーザの表情、感情を解析する(ST14)。例えば、テレビ電話装置2のユーザの泣いた顔を取り込んだとすると、「泣く」という解析結果を得る。入力データIAの解析結果から動作データDAを生成し(ST15)、続けて入力データIBの解析結果から動作データDBを生成する(ST16)。
動作データDA及びDBを生成した後、これらのうち1つでも相互動作であれば、整合を行う(ST17)。2つとも相互動作であれば、時間的に先に発生した入力データによる動作データが主動作となるように整合を行う。動作データDA及びDBの整合を行った後、テレビ電話表示部14A及び14Bに表示するキャラクタの表示画像を生成する(ST18)。そして、テレビ電話装置2用のキャラクタの表示画像データをテレビ電話装置2に送信する(ST19)。テレビ電話装置2にキャラクタの表示画像データを送信した後、テレビ電話装置1用のキャラクタの表示画像をテレビ電話表示部14Aに表示する(ST20)。通話中は(ST21のNoの場合)、上記ST11からST20までの処理を繰り返し行い、通話が終了すると(ST21のYesの場合)、処理を終了する。
図9は、動作整合部18の動作を示すフローチャートである。まず、動作整合部18は、動作データDAの入力を受け(ST20)、動作データDAの有無を判定する(ST21)。動作データDAが無い場合(ST21の「無し」)は動作データDAをデフォルトの動作データDAに変更する(ST22)。これに対して、動作データDAが有る場合(ST21の「有り」の場合)は動作データDBの入力を受け(ST23)、動作データDBの有無を判定する(ST24)。動作データDBが無い場合(ST24の「無し」の場合)は、動作データDBをデフォルトの動作データDBに変更する(ST25)。
これに対して、動作データDBが有る場合(ST214「有り」の場合)は、動作データDA、DBの組み合わせ優先順位を決定する(ST26)。この場合、単独動作と相互動作の場合は相互動作の方が優先され、相互動作同士の場合は例えば入力データが取得された時間の早い方が選択される。動作データDA、DBの組み合わせ優先順位を決定した後、その優先順位に従って動作データDA、DBを変更する(ST27)。すなわち、上述したように、動作データDAが「笑う」、動作データDBが「突き飛ばす」の場合、相互動作である動作データDBが優先され、これによって「笑う」の動作データDAが「吹き飛ぶ」の動作データDA´に変更される。動作データDA、DBの変更後、これらを出力する(ST28)。
図10は、テレビ電話装置2の動作を示すフローチャートである。まず、テレビ電話装置2は、テレビ電話装置1との間で通話を開始する(ST40)。テレビ電話装置1と通話を開始すると、入力データ部10Bから入力データIBを取得する(ST41)。すなわち、映像データ、音声データ、キー入力データの少なくとも1つを取得する。次いで、取得した入力データIBをテレビ電話装置1に送信する(ST42)。入力データIBをテレビ電話装置1に送信した後、キャラクタの表示画像データの受信を行う(ST43)。テレビ電話装置1から送信されたキャラクタの表示画像データを受信できると、テレビ電話表示部14Bにキャラクタの表示画像を表示する(ST44)。通話中は(ST45のNoの場合)、上記ST41からST45までの処理を繰り返し行い、通話が終了すると(ST45のYesの場合)、処理を終了する。
このように、以上説明したテレビ電話システムによれば、テレビ電話装置1が、自端末で表示する画像データに加え、通信相手端末(テレビ電話装置2)に表示させる画像データを生成し、テレビ電話装置2に表示させる画像データをテレビ電話装置2に送信することにより、通信相手端末の端末能力が自端末より低い場合であっても、自端末が要求するレベルの機能を通信相手端末に実行させることができる。
なお、以上の説明では、テレビ電話装置1及び2に表示させるキャラクタデータをテレビ電話装置1が有する場合について説明したが、通話開始時にテレビ電話装置2からテレビ電話装置1にキャラクタデータを送信してもよい。また、以上、動作に対応する画像データをキャラクタデータ格納部15から取得してテレビ電話装置2に送信する場合について説明したが、表示させる画像の基となるキャラクタデータを通話開始時に送信し、通話中にはキャラクタの動作に相当する差分データのみを送信してもよい。これにより、従来のように通話中に画像データ全てを送信するのに比べてデータ通信量が低減できる。
なお、上記実施の形態では、単独動作として「笑う」、「泣く」、「驚く」、「怯える」、「怒る」、「叫ぶ」、相互動作として「突き飛ばす」→「吹き飛ぶ」、「攻撃する」→「倒れる」、「手をつなぐ」→「手をつなぐ」、「抱きつく」→「抱きつかれる」を例に挙げた画像、これらに限定されるものではなく、様々な例を挙げることができる。また、単独動作のデータでも相互動作のデータとすることもできる。例えば、「叫ぶ」に対して「驚く」を相互動作にすることができる。
また、上記実施の形態では、キー操作による動作の確定として、単にキーを操作(押下)すると、そのキーに割り当てられた動作を確定するようにしたが、キーの操作の仕方(例えば押下し続ける、断続的に押下する、強弱を付けて押下するなど)によっては新たな動作を確定できるようにしてもよい。
(実施の形態2)
図11は、本発明の実施の形態2を説明するためのテレビ電話システムの概略構成図である。図11に示すテレビ電話システムは、通信機能を有し、通信相手端末が搭載する機能と共通の機能を搭載し、互いに端末能力が同程度のテレビ電話装置4及び5を備える。図11では、図1の各部と共通する部分に同一の符号を付けており、さらに双方が共にキャラクタデータ格納部、表情・感情解析部、動作データ生成部、動作整合部を備えているので、これらのブロックに付す符号には、テレビ電話装置4側には「A」を、テレビ電話装置5側には「B」を付けている。また、テレビ電話装置4及び5は、通話開始時に互いのキャラクタデータの交換を行うので、互いに相手のキャラクタデータを保存するためのキャラクタデータ保存部19A、19Bを有している。
図12は、テレビ電話装置4の動作を示すフローチャートである。まず、テレビ電話装置4は、テレビ電話装置5との間で通話を開始する(ST50)。テレビ電話装置5と通話を開始すると、キャラクタデータ格納部15Aに格納しているキャラクタデータCAをテレビ電話装置5に送信する(ST51)。キャラクタデータCAの送信後、相手テレビ電話装置5から送信されるキャラクタデータCBの受信を開始し(S52)、キャラクタデータCBが送信されてくると、それをキャラクタデータ保存部19Aに格納する(ST53)。
キャラクタデータCBを受信し保存した後、入力データIAを取得する(ST54)。すなわち、自機の入力データ部10Aから映像データ、音声データ、キー入力データを少なくとも1つ取得する。入力データIAを取得すると、それから自機のユーザの表情、感情を解析する(ST55)。例えばユーザの笑い顔を撮影した場合には「笑う」という解析結果を得る。自機ユーザの表情、感情を解析した後、その解析結果から自機ユーザの表情、感情に応じた動作データDAを生成する(ST56)。そして、生成した動作データDAを相手テレビ電話装置5に送信する(ST57)。動作データDAの送信後、相手テレビ電話装置5からの動作データDBの受信を開始する(ST58)。
テレビ電話装置5の動作データDBを取得すると、その動作データDBと自端末の動作データDAのうち1つでも相互動作であれば整合を行う(ST59)。2つとも相互動作の場合は、例えば時間的に先に得られた方が主動作となるように整合を行う。この整合処理の詳細については後述する。動作データDA及びDBの整合を行った後、動作データDAを基にキャラクタの表示画像を生成して(ST60)、テレビ電話表示部14Aに表示する(ST61)。通話中は(ST62のNoの場合)、上記ST54からST62までの処理を繰り返し行い、通話が終了すると(ST62のYesの場合)、処理を終了する。
図13は、動作整合部18Aの動作を示すフローチャートである。まず、動作整合部18Aは、動作データ生成部17Aで生成される動作データDAを取り込むための処理を開始し(ST70)、動作データDAの有無を判定する(ST71)。動作データDAの入力が無い場合(ST71の「無し」の場合)、デフォルトの動作データDAに変更する(ST72)。これに対して、動作データDAが入力された場合(ST21の「有り」の場合)、入力された動作データDAを相手テレビ電話装置5に送信する(ST73)。この動作データDAの送信後、相手テレビ電話装置5からの動作データDBを受信するための処理を開始し(ST74)、動作データDBの有無を判定する(ST75)。動作データDBが得られなかった場合(ST76の「無し」)は、デフォルトの動作データDBに変更する(ST76)。
これに対して、動作データDBが得られた場合(ST75の「有り」)は、動作データDA、DBの組み合わせ優先順位を決定する(ST77)。この場合、単独動作と相互動作の場合は相互動作の方を優先し、相互動作同士の場合は例えば時間的に先に得られた方が選択される。但し、時間で決定する場合は、最初に通信を開始したときにテレビ電話装置4とテレビ電話装置5との間で時間合わせが行われる。
このようにして動作データDA、DBの組み合わせ優先順位を決定した後、その優先順位に従って動作データDA、DBを変更する(ST78)。すなわち、上述したように動作データDAが「笑う」、動作データDBが「突き飛ばす」の場合、相互動作である動作データDBが優先され、これによって「笑う」の動作データDAが「吹き飛ぶ」の動作データDA´に変更される。動作データDA及びDBの変更後、これらを出力する(ST79)。
図14は、テレビ電話装置5の動作を示すフローチャートである。まず、テレビ電話装置5は、テレビ電話装置4との間で通話を開始する(ST90)。テレビ電話装置4と通話を開始すると、キャラクタデータ格納部15Bに格納しているキャラクタデータCBをテレビ電話装置4に送信する(ST91)。キャラクタデータCBの送信後、相手テレビ電話装置4から送信されるキャラクタデータCAの受信を開始し(S92)、キャラクタデータCAが送信されてくると、それをキャラクタデータ保存部19Bに格納する(ST93)。
キャラクタデータCAを受信し保存した後、入力データIBを取得する(ST94)。すなわち、自端末の入力データ部10Bから映像データ、音声データ、キー入力データを少なくとも1つ取得する。入力データIBを取得すると、それから自端末のユーザの表情、感情を解析する(ST95)。例えばユーザの泣き顔を撮影した場合には「泣く」という解析結果を得る。自端末ユーザの表情、感情を解析した後、その解析結果から自端末ユーザの表情、感情に応じた動作データDBを生成する(ST96)。そして、生成した動作データDBを相手テレビ電話装置4に送信する(ST97)。動作データDBの送信後、相手テレビ電話装置4からの動作データDAの受信を開始する(ST98)。
相手テレビ電話装置4の動作データDAを取得すると、その動作データDAと自端末の動作データDBのうち1つでも相互動作であれば整合を行う(ST99)。2つとも相互動作の場合は、例えば時間的に先に得られた方が主動作となるように整合を行う。この整合処理の詳細については後述する。動作データDB及びDAの整合を行った後、動作データDBを基にキャラクタの表示画像を生成して(ST100)、テレビ電話表示部14Bに表示する(ST101)。通話中は(ST102のNoの場合)、上記ST94からST102までの処理を繰り返し行い、通話が終了すると(ST102のYesの場合)、処理を終了する。
図15は、動作整合部18Bの動作を示すフローチャートである。まず、動作整合部18Bは、動作データ生成部17Bで生成される動作データDBを取り込むための処理を開始し(ST110)、動作データDBの有無を判定する(ST111)。動作データDBの入力が無い場合(ST111の「無し」の場合)、デフォルトの動作データDBに変更する(ST112)。これに対して、動作データDBが入力された場合(ST111の「有り」の場合)、入力された動作データDBを相手テレビ電話装置4に送信する(ST113)。この動作データDBの送信後、相手テレビ電話装置4からの動作データDAを受信するための処理を開始し(ST114)、動作データDAの有無を判定する(ST115)。動作データDAが得られなかった場合(ST115の「無し」)は、デフォルトの動作データDAに変更する(ST116)。
これに対して、動作データDAが得られた場合(ST115の「有り」)は、動作データDB、DAの組み合わせ優先順位を決定する(ST117)。この場合、単独動作と相互動作の場合は相互動作の方を優先し、相互動作同士の場合は例えば時間的に先に得られた方が選択される。但し、時間で決定する場合は、最初に通信を開始したときにテレビ電話装置5とテレビ電話装置4との間で時間合わせが行われる。
このようにして動作データDB、DAの組み合わせ優先順位を決定した後、その優先順位に従って動作データDB、DAを変更する(ST118)。すなわち、動作データDBが「泣く」、動作データDAが「突き飛ばす」の場合、相互動作である動作データDAが優先され、これによって「泣く」の動作データDBが「吹き飛ぶ」の動作データDB´に変更される。動作データDB、DAの変更後、これらを出力する(ST119)。
(実施の形態3)
図16は、本発明の実施の形態3を説明するためのテレビ電話システムの概略構成図である。図16に示すテレビ電話システムは、通信機能を有し、通信相手端末が搭載する機能と共通の機能を搭載し、互いに端末能力が同程度のテレビ電話装置6及び7を備える。図16では、図1の各部と共通する部分に同一の符号を付けており、さらにテレビ電話装置6は、テレビ電話装置1のキャラクタデータ格納部15に代わる画像加工データ格納部20と、動作データ生成部17に代わる画像加工決定部21と、動作整合部18に代わる動作加工整合部22とを備えているので、これらのブロックに付す符号には、テレビ電話装置6側には「A」を、テレビ電話装置7側には「B」を付けている。
本実施の形態は、作成する表示画像及び送信画像を、キャラクタではなくカメラ入力画像を元にした加工画像としている。テレビ電話画像はテレビ電話装置6及び7の双方の画像からなり、表示データの合成処理を全てテレビ電話装置6のみで行う。なお、表示データの合成処理を全てテレビ電話装置7のみで行うようにしても構わない。図17はテレビ電話装置6及び7で撮影されたカメラ画像の一例を示す図である。図17(a)はテレビ電話装置6のユーザを撮影したカメラ画像PIAであり、図17(b)はテレビ電話装置7のユーザを撮影したカメラ画像PIBである。テレビ電話装置6及び7で撮影されたこれらのカメラ画像PIA、PIBは、図16に示すようにテレビ電話装置6のテレビ電話表示部14Aとテレビ電話装置7のテレビ電話表示部14Bそれぞれに合成された形で表示される。
図18は、画像加工決定部21及び画像加工整合部22が使用する動作テーブルの一例を示す図である。画像加工決定部21は、表情・感情解析部16の解析結果に基づいて、図18に示すテーブルを参照して、テレビ電話装置6のユーザとテレビ電話装置7のユーザそれぞれの表情、感情に応じた画像加工データを生成する。図18(a)はテレビ電話装置6側の単独加工テーブルTD、図18(b)はテレビ電話装置2側の単独加工テーブルTEであり、それぞれ相手画像に影響を与えない画像加工データの集合を示す。図18(c)はテレビ電話装置6及び7の相互動作テーブルTFであり、相手画像に影響を与える画像加工データの集合を示す。
画像加工決定部21は、テレビ電話装置6の入力データIAが単独加工を示す場合は単独加工テーブルTDから画像加工データDPAを生成し、テレビ電話装置7の入力データIBが単独加工を示す場合は単独加工テーブルTEから画像加工データDPBを生成し、テレビ電話装置6の入力データIAが相互動作を示す場合は相互加工テーブルTFから画像加工データDAPを生成し、テレビ電話装置7の入力データIBが相互動作を示す場合は相互加工テーブルTFから画像加工データDPBを生成する。
一例として、以下の画像加工データを生成する。
(1)特定のキー入力があったら、カメラ画像に吹き出しを入れる画像加工データを生成する。
(2)カメラ画像で顔が笑ったら、カメラ画像にハートマークを入れる画像加工データを生成する。
(3)ユーザが大声を出したときに、カメラ画像を拡大する画像加工データを生成する。
画像加工決定部21は、生成した画像加工データDPA及びDPBを画像加工データ格納部20に格納する。
画像加工整合部22は、画像加工決定部21で決定されて画像加工データ格納部20に格納されたテレビ電話装置6の画像加工データDPAとテレビ電話装置7の画像加工データDPBとから画像加工方法の整合をとる。例えば、テレビ電話装置6の画像加工データが「拡大」のときに、テレビ電話装置7の画像加工データが「縮小」になる。
画像加工整合部22は、画像加工データの組み合わせにより、以下の4通りの動作を行う。
(1)画像加工データDPA、画像加工データDPBが共に単独加工テーブルTD、TEのデータの場合は、そのまま画像加工データDPAと画像加工データDPBを出力する。
(2)画像加工データDPAが単独加工テーブルTDのデータで、画像加工データDPBが相互加工テーブルTFのデータの場合は、画像加工データDPBを優先させる。画像加工データDPBは、相互加工テーブルTF内の主動作データを出力し、画像加工データDPAは相互加工テーブルTF内の主動作データに対応した受動作データを出力する。例えば、テレビ電話装置6のユーザの画像が拡大し、テレビ電話装置7のユーザの画像が縮小する。
(3)画像加工データDPAが相互加工テーブルTFのデータで、画像加工データDPBが単独加工テーブルTEのデータの場合も同様である。例えば、テレビ電話装置6のユーザの画像が拡大し、テレビ電話装置7のユーザの画像が縮小する。
(4)画像加工データDPA、画像加工データDPBが共に相互加工テーブルTFのデータである場合には、時間情報からより早く決定された画像加工データを優先し、上位側の相互加工テーブルTFのデータを出力する。
図19は、上記(2)の場合の画像加工整合部22の動作概要を示す図である。この図に示すように、画像加工整合される前は画像加工データDPAが「ハート」、画像加工データDPBが「カナヅチ」であり、相互動作である画像加工データDPBが優先されることから、「ハート」の画像加工データDPAは「タンコブ」の画像加工データDPA´になる。
なお、有効な入力がされていない(画像、音声、キー入力のいずれか)ために、何も画像加工データが選択されていない場合は、単独加工テーブルTD、TEの「デフォルト」を出力する。
図16において、表示画像生成部13Aは、画像加工整合部22にて整合がとられたテレビ電話装置6のカメラ画像及び画像加工データとテレビ電話装置7のカメラ画像及び画像加工データから表示データを生成する。表示画像生成部13Aで生成された表示データはテレビ電話表示部14Aに入力されて表示データに基づく画像が表示される。データ送信部11Aは、表示画像生成部13Aで生成された表示データをテレビ電話装置7へ送信する。テレビ電話装置7では、テレビ電話装置6のデータ送信部11Aから送信された表示データを受信し、それをテレビ電話表示部14Bに表示させる。
図20は、テレビ電話装置6の動作を示すフローチャートである。まず、テレビ電話装置6は、テレビ電話装置7との間で通話を開始する(ST130)。テレビ電話装置7と通話を開始すると、入力データ部10Aから入力データIAを取得する(ST131)。すなわち、映像データ、音声データ、キー入力データの少なくとも1つを取得する。次いで、取得した入力データIAからテレビ電話装置6のユーザの表情、感情を解析する(ST132)。例えば、テレビ電話装置6のユーザの笑い顔を撮影すると、「笑う」という解析結果を得る。
入力データIAから表情、感情を解析した後、テレビ電話装置7からの入力データIBの受信を開始する(ST133)。テレビ電話装置7から送信された入力データIBを受信すると、入力データIBからテレビ電話装置7のユーザの表情、感情を解析する(ST134)。例えば、テレビ電話装置7のユーザの泣いた顔を取り込んだとすると、「泣く」という解析結果を得る。入力データIAの解析結果から画像加工データDPAを決定し(ST135)、続けて入力データIBの解析結果から画像加工データDPBを決定する(ST136)。
画像加工データDPA及びDPBを生成した後、これらのうち1つでも相互動作であれば、整合を行う(ST137)。2つとも相互動作であれば、時間的に先に発生した入力データによる動作データが主動作となるように整合を行う。画像加工データDPA及びDPBの整合を行った後、テレビ電話表示部14A及び14Bに表示するキャラクタの表示画像を生成する(ST138)。そして、テレビ電話装置7用のキャラクタの表示画像データをテレビ電話装置7に送信する(ST139)。テレビ電話装置7にキャラクタの表示画像データを送信した後、テレビ電話装置6用のキャラクタの表示画像をテレビ電話表示部14Aに表示する(ST140)。通話中は(ST141のNoの場合)、上記ST131からST140までの処理を繰り返し行い、通話が終了すると(ST141のYesの場合)、処理を終了する。
図21は、画像加工整合部22の動作を示すフローチャートである。まず、画像加工整合部22は、画像加工データDPAの入力を受け(ST150)、画像加工データDPAの有無を判定する(ST151)。画像加工データDPAが無い場合(ST151の「無し」)は画像加工データDPAをデフォルトの画像加工データDPAに変更する(ST152)。これに対して、画像加工データDPAが有る場合(ST151の「有り」の場合)は画像加工データDPBの入力を受け(ST153)、画像加工データDPBの有無を判定する(ST154)。画像加工データDPBが無い場合(ST154の「無し」の場合)は、画像加工データDPBをデフォルトの画像加工データDPBに変更する(ST155)。
これに対して、画像加工データDPBが有る場合(ST154の「有り」の場合)は、画像加工データDPA、DPBの組み合わせ優先順位を決定する(S156)。この場合、単独加工と相互加工の場合は相互加工の方が優先され、相互加工同士の場合は例えば入力データが取得された時間の早い方が選択される。画像加工データDPA、DPBの組み合わせ優先順位を決定した後、その優先順位に従って画像加工データDPA、DPBを変更する(ST157)。すなわち、上述したように、画像加工データDPAが「ハート」、画像加工データDPBが「カナヅチ」の場合、相互動作である画像加工データDPBが優先され、これによって「ハート」の画像加工データDPAが「タンコブ」の画像加工データDPA´に変更される。画像加工データDPA、DPBの変更後、これらを出力する(ST158)。
図22は、テレビ電話装置7の動作を示すフローチャートである。まず、テレビ電話装置7は、テレビ電話装置6との間で通話を開始する(ST160)。テレビ電話装置6と通話を開始すると、入力データ部10Bから入力データIBを取得する(ST161)。すなわち、映像データ、音声データ、キー入力データの少なくとも1つを取得する。次いで、取得した入力データIBをテレビ電話装置6に送信する(ST162)。入力データIBをテレビ電話装置6に送信した後、画像加工された表示画像データの受信を行う(ST163)。テレビ電話装置6から送信された表示画像データを受信できると、テレビ電話表示部14Bに表示する(ST164)。通話中は(ST165のNoの場合)、上記ST161からST165までの処理を繰り返し行い、通話が終了すると(ST165のYesの場合)、処理を終了する。
本発明は、自端末が搭載する機能を実行させる為のデータ及び通信相手端末が搭載する機能を実行させる為のデータを生成することにより、通信相手端末の端末能力が自端末より低い場合であっても、自端末が要求するレベルの機能を通信相手端末に実行させることができる効果を有し、通信機能を有し、通信相手端末が搭載する機能と共通の機能を搭載する通信端末及びその通信方法等に有用である。
本発明の実施の形態1を説明するためのテレビ電話システムの概略構成図 表情・感情解析部16における顔認識処理を示す図 表情・感情解析部16における顔認識処理を示す図 動作データ生成部17及び動作整合部18が使用する動作テーブルの一例を示す図 動作整合部18の動作概要を示す図(1) 動作整合部18の動作概要を示す図(2) 動作整合部18の動作概要を示す図(3) テレビ電話装置1の動作を示すフローチャート 動作整合部18の動作を示すフローチャート テレビ電話装置2の動作を示すフローチャート 本発明の実施の形態2を説明するためのテレビ電話システムの概略構成図 テレビ電話装置4の動作を示すフローチャート 動作整合部18Aの動作を示すフローチャート テレビ電話装置5の動作を示すフローチャート 動作整合部18Bの動作を示すフローチャート 本発明の実施の形態3を説明するためのテレビ電話システムの概略構成図 テレビ電話装置6とテレビ電話装置7で撮影された画像を示す図 画像加工決定部21及び画像加工整合部22が使用する動作テーブルの一例を示す図 画像加工整合部22の動作概要を示す図 テレビ電話装置6の動作を示すフローチャート 動作整合部18Aの動作を示すフローチャート テレビ電話装置7の動作を示すフローチャート
符号の説明
1、2、4、5、6、7 テレビ電話装置
3 ネットワーク
10A、10B 入力データ部
11A、11B データ送信部
12A、12B データ受信部
13A、13B 表示画像生成部
14A、14B テレビ電話表示部
15、15A、15B キャラクタデータ格納部
16A、16B 表情・感情解析部
17、17A、17B 動作データ生成部
18、18A、18B 動作整合部
19A、19B キャラクタデータ保存部
20 画像加工データ格納部
21 画像加工決定部
22 画像加工整合部

Claims (4)

  1. 通信機能を有し、通信相手端末が搭載する機能と共通の機能を搭載する通信端末であって、
    自端末が搭載する機能を実行させる為のデータ及び通信相手端末が搭載する機能を実行させる為のデータを生成するデータ生成手段と、
    前記通信相手端末が搭載する機能を実行させる為のデータを送信する送信手段と、
    を備える通信端末。
  2. 請求項1記載の通信端末であって、
    テレビ電話機能を有し、
    入力されたデータを解析する入力データ解析手段と、
    解析結果に基づいて、自端末側のデータと通信相手端末側のデータとを整合させたデータを前記生成手段に出力するデータ整合手段と、
    を有する通信端末。
  3. 請求項2記載の通信端末であって、
    入力されたデータとして、画像データ、音声データ及びキー入力データから選択した少なくとも1つのデータを前記入力データ解析手段へ入力する入力手段を備える通信端末。
  4. 通信機能を有し、通信相手端末が搭載する機能と共通の機能を搭載する通信端末の通信方法であって、
    自端末が搭載する機能を実行させる為のデータ及び通信相手端末が搭載する機能を実行させる為のデータを生成し、
    前記通信相手端末が搭載する機能を実行させる為のデータを送信する通信方法。
JP2005086335A 2004-04-07 2005-03-24 通信端末及び通信方法 Pending JP2005323340A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005086335A JP2005323340A (ja) 2004-04-07 2005-03-24 通信端末及び通信方法
PCT/JP2005/006313 WO2005099262A1 (ja) 2004-04-07 2005-03-31 通信端末及び通信方法
US10/596,855 US20070139512A1 (en) 2004-04-07 2005-03-31 Communication terminal and communication method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004112854 2004-04-07
JP2005086335A JP2005323340A (ja) 2004-04-07 2005-03-24 通信端末及び通信方法

Publications (1)

Publication Number Publication Date
JP2005323340A true JP2005323340A (ja) 2005-11-17

Family

ID=35125463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005086335A Pending JP2005323340A (ja) 2004-04-07 2005-03-24 通信端末及び通信方法

Country Status (3)

Country Link
US (1) US20070139512A1 (ja)
JP (1) JP2005323340A (ja)
WO (1) WO2005099262A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010258781A (ja) * 2009-04-24 2010-11-11 Ntt Docomo Inc 携帯端末及び情報伝達方法
KR20110056664A (ko) * 2009-11-23 2011-05-31 삼성전자주식회사 이동통신 단말기에서 영상 통화 방법 및 장치
JP2019122034A (ja) * 2017-12-28 2019-07-22 ハイパーコネクト インコーポレイテッド 映像通話サービスを提供する端末
JP2020136921A (ja) * 2019-02-20 2020-08-31 株式会社オプテージ ビデオ通話システム、およびコンピュータプログラム
JP2021108030A (ja) * 2019-12-27 2021-07-29 グリー株式会社 コンピュータプログラム、サーバ装置及び方法

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4118296B2 (ja) * 2005-11-28 2008-07-16 株式会社エヌ・ティ・ティ・ドコモ 機能情報通知システム及び機能情報通知方法
WO2008087621A1 (en) * 2007-01-16 2008-07-24 Mobilesolid Ltd. An apparatus and method for animating emotionally driven virtual objects
US20090017910A1 (en) * 2007-06-22 2009-01-15 Broadcom Corporation Position and motion tracking of an object
JP4789825B2 (ja) * 2007-02-20 2011-10-12 キヤノン株式会社 撮像装置及びその制御方法
US8615112B2 (en) * 2007-03-30 2013-12-24 Casio Computer Co., Ltd. Image pickup apparatus equipped with face-recognition function
FR2917931A1 (fr) * 2007-06-22 2008-12-26 France Telecom Procede et systeme de mise en relation entre des personnes dans un systeme de telecommunications.
US8111281B2 (en) * 2007-06-29 2012-02-07 Sony Ericsson Mobile Communications Ab Methods and terminals that control avatars during videoconferencing and other communications
CN100514353C (zh) * 2007-11-26 2009-07-15 清华大学 一种基于人脸生理性运动的活体检测方法及系统
US8184869B2 (en) * 2008-05-30 2012-05-22 Hewlett-Packard Development Company, L.P. Digital image enhancement
TW201021550A (en) * 2008-11-19 2010-06-01 Altek Corp Emotion-based image processing apparatus and image processing method
KR101533065B1 (ko) * 2008-12-01 2015-07-01 삼성전자주식회사 화상통화 중 애니메이션 효과 제공 방법 및 장치
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US10869626B2 (en) * 2010-06-07 2020-12-22 Affectiva, Inc. Image analysis for emotional metric evaluation
CN104104898B (zh) * 2013-04-03 2017-06-27 联想(北京)有限公司 一种数据处理方法、装置和电子设备
JP6922686B2 (ja) * 2017-11-20 2021-08-18 トヨタ自動車株式会社 操作装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0824440A (ja) * 1994-07-18 1996-01-30 Hitachi Ltd 携帯ゲーム端末
US6522417B1 (en) * 1997-04-28 2003-02-18 Matsushita Electric Industrial Co., Ltd. Communication terminal device that processes received images and transmits physical quantities that affect the receiving communication terminal device
JP2000175168A (ja) * 1998-12-01 2000-06-23 Matsushita Electric Ind Co Ltd 代理画像通信装置及び方法
JP3898029B2 (ja) * 2001-10-31 2007-03-28 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー X線発生装置
JP2003248841A (ja) * 2001-12-20 2003-09-05 Matsushita Electric Ind Co Ltd バーチャルテレビ通話装置
JP2003283604A (ja) * 2002-03-20 2003-10-03 Oki Electric Ind Co Ltd 表情伝送機能付情報端末装置
JP2004349851A (ja) * 2003-05-20 2004-12-09 Ntt Docomo Inc 携帯端末、画像通信プログラム、及び画像通信方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010258781A (ja) * 2009-04-24 2010-11-11 Ntt Docomo Inc 携帯端末及び情報伝達方法
KR20110056664A (ko) * 2009-11-23 2011-05-31 삼성전자주식회사 이동통신 단말기에서 영상 통화 방법 및 장치
KR101647305B1 (ko) * 2009-11-23 2016-08-10 삼성전자주식회사 이동통신 단말기에서 영상 통화 방법 및 장치
JP2019122034A (ja) * 2017-12-28 2019-07-22 ハイパーコネクト インコーポレイテッド 映像通話サービスを提供する端末
US10560659B2 (en) 2017-12-28 2020-02-11 Hyperconnect, Inc. Terminal for providing video call service
US10939071B2 (en) 2017-12-28 2021-03-02 Hyperconnect, Inc. Terminal for providing video call service
JP2020136921A (ja) * 2019-02-20 2020-08-31 株式会社オプテージ ビデオ通話システム、およびコンピュータプログラム
JP2021108030A (ja) * 2019-12-27 2021-07-29 グリー株式会社 コンピュータプログラム、サーバ装置及び方法
JP7080212B2 (ja) 2019-12-27 2022-06-03 グリー株式会社 コンピュータプログラム、サーバ装置及び方法
JP2022111142A (ja) * 2019-12-27 2022-07-29 グリー株式会社 コンピュータプログラム、サーバ装置及び方法
JP7408068B2 (ja) 2019-12-27 2024-01-05 グリー株式会社 コンピュータプログラム、サーバ装置及び方法

Also Published As

Publication number Publication date
US20070139512A1 (en) 2007-06-21
WO2005099262A1 (ja) 2005-10-20

Similar Documents

Publication Publication Date Title
JP2005323340A (ja) 通信端末及び通信方法
US8693553B2 (en) Methods, apparatuses, and computer program products for adaptive synchronized decoding of digital video
US6943794B2 (en) Communication system and communication method using animation and server as well as terminal device used therefor
US20040114731A1 (en) Communication system
JP2006330958A (ja) 画像合成装置、ならびにその装置を用いた通信端末および画像コミュニケーションシステム、ならびにそのシステムにおけるチャットサーバ
JP2003248841A (ja) バーチャルテレビ通話装置
JP2008306444A (ja) 画像処理装置
JPH07328228A (ja) ゲーム装置
JP2007295568A (ja) モバイルメッセンジャーサービスの利用中にイメージを伝送する移動通信端末機及びその方法
EP1502363B1 (en) Method for playing interactive contents for standby mode in a mobile communication terminal, and a mobile communication terminal of the same
KR101006626B1 (ko) 통신게임 시스템, 통신게임 제어방법 및 프로그램을 기록한 컴퓨터 판독 가능한 정보기록매체
JP3522537B2 (ja) 画像再生方法、画像再生装置及び画像通信システム
JP2000023036A (ja) 画像データ処理方法及び装置並びに記憶媒体
JPH1115600A (ja) 一方の端末に作用する物理量も送信し受信画像を加工することのできる通信端末及びそれに供する送信端末並びに受信端末
JP2020102782A (ja) コンテンツ配信システム、配信装置、受信装置及びプログラム
JP2000042247A (ja) ゲームシステム、ゲームデータ配信装置、ゲーム装置、リアルタイム画像表示システムおよび情報記録媒体
JP2000076167A (ja) コミュニケーション方法及びコミュニケーション装置
JP2611728B2 (ja) 動画像符号化復号化方式
JP2002342234A (ja) 表示方法
JP2006048352A (ja) キャラクタ映像表示機能付き通信端末およびその制御方法
KR100650334B1 (ko) 무선 온라인 게임 기능을 갖는 휴대폰
US20030069732A1 (en) Method for creating a personalized animated storyteller for audibilizing content
CN113596556B (zh) 视频传输方法、服务器及存储介质
JP7523589B2 (ja) 情報処理装置、制御方法、及び制御プログラム
KR100407331B1 (ko) 이동 통신 단말에서 동영상 데이터 실행 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060309

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071113

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080319

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080709