JP2004349851A - 携帯端末、画像通信プログラム、及び画像通信方法 - Google Patents

携帯端末、画像通信プログラム、及び画像通信方法 Download PDF

Info

Publication number
JP2004349851A
JP2004349851A JP2003142292A JP2003142292A JP2004349851A JP 2004349851 A JP2004349851 A JP 2004349851A JP 2003142292 A JP2003142292 A JP 2003142292A JP 2003142292 A JP2003142292 A JP 2003142292A JP 2004349851 A JP2004349851 A JP 2004349851A
Authority
JP
Japan
Prior art keywords
character image
mobile terminal
transmitting
expression
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003142292A
Other languages
English (en)
Inventor
Kazuya Yasuzawa
和哉 安澤
Yasutaka Urakawa
康孝 浦川
Kenji Ishii
賢次 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2003142292A priority Critical patent/JP2004349851A/ja
Priority to US10/850,098 priority patent/US7486969B2/en
Priority to CNB2004100981672A priority patent/CN1328909C/zh
Priority to EP04012116A priority patent/EP1480425B1/en
Priority to DE602004000833T priority patent/DE602004000833T2/de
Publication of JP2004349851A publication Critical patent/JP2004349851A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/26Devices for calling a subscriber
    • H04M1/27Devices whereby a plurality of signals may be stored simultaneously
    • H04M1/271Devices whereby a plurality of signals may be stored simultaneously controlled by voice recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

【課題】携帯端末が、比較的簡易な構成で、送話者の所望に近いキャラクタ画像を生成し受話者の携帯端末に送信することにより、送話者と受話者との通話における興趣性を高めることである。
【解決手段】本発明に係る送信側携帯電話10は、キャラクタ画像DB11と、利用者指示部12と、キャラクタ画像生成部13と、通信部17とを備える。キャラクタ画像DB11には複数のキャラクタ画像が予め格納されている。利用者指示部12は、受信側携帯電話20宛に送信するためのキャラクタ画像の表情又は動作を指定する。キャラクタ画像生成部13は、キャラクタ画像DB11に格納されている複数のキャラクタ画像の中から一のキャラクタ画像を取得し、当該キャラクタ画像を使用して、利用者指示部12により指定された表情又は動作のキャラクタ画像を生成する。通信部17は、生成されたキャラクタ画像を受信側携帯電話20に送信する。
【選択図】 図2

Description

【0001】
【発明の属する技術分野】
本発明は、携帯端末、画像通信プログラム、及び画像通信方法に関する。
【0002】
【従来の技術】
従来、無線通信の高速化や画像圧縮技術の発達に伴い、テレビ電話機能付の携帯電話が実用化されている。かかる携帯電話は、内蔵カメラにより撮影された送話者の動画像を受話者の携帯電話にリアルタイムに送信し、受話者の携帯電話は、この動画像を受信して逐次再生する。これにより、送話者と受話者は、お互いの顔の画像を見ながら通話を行うことができる。
【0003】
テレビ電話機能付の携帯電話の中には、実際に撮影された送話者の顔画像の代わりに、送話者の顔を所定のキャラクタに見立てた画像データ(以下、「キャラクタ画像」と記す。)を送信する機能を有するものも提案されている。例えば、後述の特許文献1には、携帯電話に入力された音声に基づいてキャラクタ画像を生成し、受話者の携帯電話宛に送信するテレビ電話が開示されている。また、特許文献2には、送話者の顔の表情の変化に応じてキャラクタ画像も変化させ、受話者の携帯電話宛に送信する携帯電話機が開示されている。
【0004】
【特許文献1】
特開2002−009963号公報
【特許文献2】
特開2002−176632号公報
【0005】
【発明が解決しようとする課題】
しかしながら、上記従来技術は何れも、送話者の発する音声そのものや顔の表情に基づいて携帯電話がキャラクタ画像を生成するものであり、生成される画像は、必ずしも送話者自身の感情や意思が反映されたものではない。このため、必ずしも送話者の所望するキャラクタ画像が生成されるとは限らない。特に、特許文献1に記載の発明においては、生成されたキャラクタ画像は、送話者の音声の音調(音量や周波数)までが考慮されたものではなく、キャラクタ画像の表情に送話者の感情が充分に反映されない場合がある。また、特許文献2に記載の発明では、送話者の感情や意思をキャラクタ画像に反映させるための処理として、送話者の顔画像を解析する処理が別途必要になる。
【0006】
そこで、本発明の課題は、携帯端末が、比較的簡易な構成で、送話者の所望に近いキャラクタ画像を生成し受話者の携帯端末に送信することにより、送話者と受話者との通話における興趣性を高めることである。
【0007】
【課題を解決するための手段】
上記課題を解決すべく、本発明に係る送信側携帯端末は、複数のキャラクタ画像を格納する格納手段と、受信側携帯端末に送信するためのキャラクタ画像の表情又は動作を指定する指定手段と、前記格納手段に格納されている複数のキャラクタ画像の中からキャラクタ画像を取得し、該キャラクタ画像を使用して、前記指定手段により指定された表情又は動作のキャラクタ画像を生成する生成手段と、前記生成手段により生成された前記キャラクタ画像を前記受信側携帯端末宛に送信する送信手段とを備える。
【0008】
また、本発明に係る画像通信プログラムは、受信側携帯端末に送信するためのキャラクタ画像の表情又は動作を指定する指定処理と、格納手段に格納されている複数のキャラクタ画像の中からキャラクタ画像を取得し、該キャラクタ画像を使用して、前記指定処理により指定された表情又は動作のキャラクタ画像を生成する生成処理と、前記生成処理により生成された前記キャラクタ画像を前記受信側携帯端末宛に送信する送信処理とを送信側携帯端末に実行させる。
【0009】
更に、本発明に係る画像通信方法は、送信側携帯端末が、受信側携帯端末に送信するためのキャラクタ画像の表情又は動作を指定する指定ステップと、前記送信側携帯端末が、格納手段に格納されている複数のキャラクタ画像の中からキャラクタ画像を取得し、該キャラクタ画像を使用して、前記指定ステップにて指定された表情又は動作のキャラクタ画像を生成する生成ステップと、前記送信側携帯端末が、前記生成ステップにて生成された前記キャラクタ画像を前記受信側携帯端末宛に送信する送信ステップとを含む。
【0010】
これらの発明によれば、送信側携帯端末において、複数のキャラクタ画像の中から取得されたキャラクタ画像を使用して、指定された表情又は動作を有するキャラクタ画像が生成(例えば描画)され、受信側携帯端末宛に送信される。すなわち、受信側携帯端末に送信されるキャラクタ画像の表情又は動作は、送信側携帯端末の利用者である送話者の感情や意思が反映されたものとなり、比較的簡易な構成で、送話者の所望に近いキャラクタ画像の生成及び送受信が可能となる。その結果、送話者と受話者との通話における興趣性が高まる。
【0011】
本発明に係る送信側携帯端末は、複数のキャラクタ画像を格納する格納手段と、音声を入力する入力手段と、前記入力手段により入力された音声の音調を解析すると共に、当該音調解析結果に基づいて、受信側携帯端末に送信するためのキャラクタ画像の表情又は動作を決定する決定手段と、前記格納手段に格納されている複数のキャラクタ画像の中からキャラクタ画像を取得し、該キャラクタ画像を使用して、前記決定手段により決定された表情又は動作のキャラクタ画像を生成する生成手段と、前記生成手段により生成された前記キャラクタ画像を前記受信側携帯端末宛に送信する送信手段とを備える。
【0012】
本発明に係る画像通信プログラムは、音声を入力する入力処理と、前記入力処理により入力された音声の音調を解析すると共に、当該音調解析結果に基づいて、受信側携帯端末に送信するためのキャラクタ画像の表情又は動作を決定する決定処理と、格納手段に格納されている複数のキャラクタ画像の中からキャラクタ画像を取得し、該キャラクタ画像を使用して、前記決定処理により決定された表情又は動作のキャラクタ画像を生成する生成処理と、前記生成処理により生成された前記キャラクタ画像を前記受信側携帯端末宛に送信する送信処理とを送信側携帯端末に実行させる。
【0013】
本発明に係る画像通信方法は、送信側携帯端末が、音声を入力する入力ステップと、前記送信側携帯端末が、前記入力ステップにて入力された音声の音調を解析すると共に、当該音調解析結果に基づいて、受信側携帯端末に送信するためのキャラクタ画像の表情又は動作を決定する決定ステップと、前記送信側携帯端末が、格納手段に格納されている複数のキャラクタ画像の中からキャラクタ画像を取得し、該キャラクタ画像を使用して、前記決定ステップにて決定された表情又は動作のキャラクタ画像を生成する生成ステップと、前記送信側携帯端末が、前記生成ステップにて生成された前記キャラクタ画像を前記受信側携帯端末宛に送信する送信ステップとを含む。
【0014】
これらの発明によれば、送信側携帯端末において、複数のキャラクタ画像の中から取得されたキャラクタ画像を使用して、入力された音声の音調解析結果に基づいて決定された表情又は動作を有するキャラクタ画像が生成され、受信側携帯端末宛に送信される。すなわち、受信側携帯端末に送信されるキャラクタ画像の表情又は動作は、送信側携帯端末の利用者である送話者の音声の音調が反映されたものとなる。また、かかる音調には、送話者の感情が適宜反映される。したがって、送話者の顔画像を解析する処理を必要とせずに比較的簡易な構成で、送話者の所望に近いキャラクタ画像の生成及び送受信が可能となる。その結果、送話者と受話者との通話における興趣性が高まる。
【0015】
本発明に係る送信側携帯端末において好ましくは、前記生成手段は、当該生成手段が生成した前記キャラクタ画像を送信側携帯端末の表示手段に表示させる。
【0016】
本発明によれば、送信側携帯端末において生成されたキャラクタ画像は、受信側携帯端末のみならず、送信側携帯端末の表示手段にも表示される。したがって、送話者は、受話者が如何なるキャラクタ画像を見ながら通話しているかを容易かつ迅速に把握しつつ、通話を行うことができる。また、送信側携帯端末側に表示されているキャラクタ画像に、画面上の位置を示すポインタを重ねて表示することにより、ポインタの動きに応じてキャラクタ画像の向きを変えたり、キャラクタ画像の一部を選択したりするといった機能を付加することも可能となる。
【0017】
本発明に係る送信側携帯端末において好ましくは、前記決定手段は、前記受信側携帯端末から送信された音声に基づいて、当該受信側携帯端末に送信するためのキャラクタ画像の表情又は動作を決定する。
【0018】
本発明によれば、受信側携帯端末に送信するためのキャラクタ画像の表情又は動作は、当該受信側携帯端末から送信された受話者の音声に基づいて決定される。これにより、受話者の側からも、キャラクタ画像の表情又は動作を能動的に変化させることが可能となり、より興趣性、娯楽性が増す。ここで、受話者の音声はその音調であってもよく、かかる場合には、キャラクタ画像の表情又は動作は、前記決定手段による受話者の音声の音調解析結果に基づいて決定されることになる。なお、この場合でも、送信側携帯端末が、受信側携帯端末に送信するためのキャラクタ画像の表情又は動作を、送信側携帯端末で入力された送話者の音声の音調解析結果に基づいて決定することもできることはいうまでもない。更には、送信側携帯端末で入力された送話者の音声の音調解析結果と受話者の音声の音調解析結果との双方に基づいて、上記キャラクタ画像の表情又は動作を決定することも可能である。
【0019】
本発明に係る送信側携帯端末において好ましくは、前記決定手段は、前記音調として、前記音声の音量、周波数のうち、少なくとも一方を解析する。
【0020】
本発明によれば、送信側携帯端末において、複数のキャラクタ画像の中から取得されたキャラクタ画像を使用して、入力された音声の音量(音声の有無を含む)、周波数のうち、少なくとも一方に基づいて決定された表情又は動作を有するキャラクタ画像が生成される。生成されたキャラクタ画像は、受信側携帯端末宛に送信される。入力された音声の音量には、送信側携帯端末の利用者たる送話者の感情が反映され易い。この感情に応じて、送信側携帯端末は、生成及び送信するキャラクタ画像の表情又は動作を変える。
【0021】
例えば、送話者の現在の音量と通常時の音量との差が所定値未満である場合には、送信側携帯端末は、送話者の感情は平常状態にあるものと判断し、ノーマルな感情を表すキャラクタ画像を生成及び送信する。一方、送話者の現在の音量と通常時の音量との差が上記所定値以上であり、かつ、送話者の現在の音量が上記通常時の音量以上である場合には、送信側携帯端末は、送話者の感情は平常状態よりも高ぶった状態にあるものと判断し、ホットな感情を表すキャラクタ画像を生成及び送信する。更に、送話者の現在の音量と通常時の音量との差が上記所定値以上であり、かつ、送話者の現在の音量が上記通常時の音量未満である場合には、送信側携帯端末は、送話者の感情は平常状態よりも落ち着いた状態にあるものと判断し、クールな感情を表すキャラクタ画像を生成及び送信する。このように、送信側携帯端末は、入力された音声の音量から送話者の現在の感情をある程度予測し、その予測結果に応じて、通信相手に見せるキャラクタ画像の表情又は動作を適宜変化させることができるので、通話における興趣性がより高まる。
【0022】
また、キャラクタ画像の表情又は動作を決定する指標としては、音量に限らず周波数を用いてもよい。すなわち、送話者の現在の周波数が、通常時の周波数に所定値を加算した値未満である場合には、送信側携帯端末は、送話者の感情は平常状態にあるものと判断し、ノーマルな感情を表すキャラクタ画像を生成及び送信する。一方、送話者の現在の周波数が、通常時の周波数に所定値を加算した値以上であり、かつ、上記通常時の周波数から別の所定値を減算した値以上である場合には、送信側携帯端末は、送話者の感情は平常状態よりも高ぶった状態にあるものと判断し、ホットな感情を表すキャラクタ画像を生成及び送信する。更に、送話者の現在の周波数が、通常時の周波数に所定値を加算した値以上であり、かつ、上記通常時の周波数から別の所定値を減算した値未満である場合には、送信側携帯端末は、送話者の感情は平常状態よりも落ち着いた状態にあるものと判断し、クールな感情を表すキャラクタ画像を生成及び送信する。
【0023】
また、音量と周波数とを組み合わせて、キャラクタ画像の表情又は動作を決定してもよい。
【0024】
送信側携帯端末において、より好ましくは、前記送信手段は、標準的な動画通信用プロトコルを使用して、前記キャラクタ画像の送信を行う。
【0025】
画像通信プログラムにおいて、より好ましくは、前記送信処理では、標準的な動画通信用プロトコルを使用して、前記キャラクタ画像を送信させる。
【0026】
画像通信方法において、より好ましくは、前記送信ステップでは、前記送信側携帯端末が、標準的な動画通信用プロトコルを使用して、前記キャラクタ画像の送信を行う。
【0027】
標準的な動画通信用プロトコルとは、例えば、H.320、H.324、3G324Mなどである。このように、標準的な既存の通信プロトコルをキャラクタ画像の送信に使用することで、新たな画像送信技術を開発することなく、本発明の課題を解決可能である。
【0028】
また、上述した送信側携帯端末と受信側携帯端末とを備え、前記送信側携帯端末は、生成された前記キャラクタ画像を前記受信側携帯端末宛に送信する画像通信システムを構築することも可能である。
【0029】
【発明の実施の形態】
(第1の実施形態)
以下、添付図面を参照して、本発明の第1の実施形態におけるテレビ電話システム(画像通信システムに対応)について説明する。まず、構成を説明する。図1は、送話者と受話者との間で画像を用いて通話を行うためのテレビ電話システム1の全体構成を示す図である。本システムで送受信される画像は、送話者又は受話者が実際に撮影された画像ではなく、その代理として、送話者又は受話者を所定のキャラクタに見立てて生成された画像データ(キャラクタ画像)である。
【0030】
図1に示す様に、送話者の携帯電話10(送信側携帯端末に対応)は、基地局B1を介して通信網Nと無線接続されており、受話者の携帯電話20(受信側携帯端末に対応)は、基地局B2を介して通信網Nと無線接続されている。これにより、携帯電話10と携帯電話20とは、キャラクタ画像を含む各種データの送受信を双方向に行うことが可能である。
【0031】
次に、図2を参照して、携帯電話10の機能的構成を説明する。
【0032】
図2に示す様に、携帯電話10は、機能的には、キャラクタ画像DB11(格納手段に対応)と、利用者指示部12(指定手段に対応)と、キャラクタ画像生成部13(生成手段に対応)と、画像符号化部14と、音声符号化部15と、プロトコル処理部16と、通信部17(送信手段に対応)とを備える。
【0033】
キャラクタ画像DB11には、利用者指示部12による選択の対象となる複数のキャラクタ画像が予め格納(登録)されている。キャラクタ画像は、送話者の多様な特徴に対応可能な様に、例えば、性別、年齢はもとより、髪型や服装などの違いに応じて複数登録されている。これらのキャラクタ画像は、インターネットからのダウンロードや、赤外線などの近距離無線通信、あるいは電子メールにより取得することができる。また、キャラクタ画像のデータ形式は、静止画ベースや3D(Dimension)ベースの静的データ形式のほか、表現若しくは動作の指示入力と画像符号化部14への出力インタフェースとを使用したアプリケーション形式など、任意である。
【0034】
キャラクタ画像DB11に格納されるキャラクタ画像は、カレンダや時計と連動して、季節や日時に応じて動的に変更されるようにしてもよい。例えば、キャラクタ画像と共にその背景画像が格納されている場合には、夏には背景画像が海水浴場の画像になり、20時以降は背景画像が夜景の画像になる。また、早朝にはキャラクタ画像は素顔(すっぴん)であり、夜にはパジャマを着る、クリスマスにはサンタクロースの格好になる、といったキャラクタ画像の変更も可能である。
【0035】
利用者指示部12は、キャラクタ画像DB11に格納されている複数のキャラクタ画像の中から、一のキャラクタ画像を、表情変化若しくは動作前のキャラクタ画像(換言すれば、ベースとなるキャラクタ画像)として選択する。なお、キャラクタ画像は、携帯電話10の利用者による入力操作に基づいて選択されるものとしてもよいし、電話帳に登録されているグループや個人に予め対応付けられたキャラクタ画像の中から、通話相手(携帯電話20)に対応するものが自動的に選択されるものとしてもよい。
【0036】
また、利用者指示部12は、携帯電話10の利用者による入力操作に基づいて、選択されたキャラクタ画像の表情、動作のうち、少なくとも一方を指定する。指定内容は、キャラクタ画像生成部13に出力される。例えば、上下左右方向のカーソルキーにそれぞれ、「笑う」、「泣く」、「怒る」の各表情、「おじぎをする」の動作が割り当てられている場合には、上向きキーを1回押下すると、笑った表情のキャラクタ画像が指定され、右向きキーを1回押下すると、おじぎの動作を行うキャラクタ画像が指定される。また、上向きキーの押下後に更に上向きキーが押下されると、その回数に応じて、笑った表情の度合いが高まったキャラクタ画像が指定されるなどして、表情に強弱を付ける機能を付加することもできる。
【0037】
キーに割り当てられる指定内容(定義内容)は、例えば、右目を閉じる、キャラクタの全身を表示、上半身のみを表示などの個別的なものに限らず、口と眼の動作を複合して笑顔を生成させる、口の動きを変化させて”あいうえお”を発音するときの口を生成させる、といった複合的なものであってもよい。更に、スクリプトを使用して、順次処理、繰返し処理、待ち、条件などを個別的な指定内容に付加することにより、キャラクタ画像に様々な動きをもたせてもよい。
【0038】
キャラクタ画像が携帯電話10の画面上にも表示されている場合には、利用者指示部12により、携帯電話10の画面上に表示されたポインタを適宜移動させるものとしてもよい。これにより、キャラクタ画像の顔の向きを変えたり、キャラクタ画像の一部を指定したり、キャラクタ画像の頭をなでたりすることもできる。例えば、キャラクタ画像の一部として服を指定することで服の着替えが可能となり、キャラクタ画像の頭をなでることで笑った表情に変化させることも可能となる。
【0039】
なお、キャラクタ画像DB11内に、上記各表情又は動作のキャラクタ画像が予め格納されている場合には、利用者指示部12は、携帯電話10の利用者による入力操作に基づいて、一覧表示されたこれらのキャラクタ画像の中から一のキャラクタ画像を選択するものとしてもよい。
【0040】
携帯電話10の利用者による入力操作とは、手指による入力に限らず、音声認識及び単語登録を利用した音声入力を含む。
【0041】
キャラクタ画像生成部13は、利用者指示部12により選択されたキャラクタ画像をキャラクタ画像DB11から取得し、当該キャラクタ画像を用いて、利用者指示部12により指定された表情又は動作のキャラクタ画像を生成する。
【0042】
なお、キャラクタ画像生成部13は、必ずしも、利用者指示部12からの指示を待ってキャラクタ画像の生成を行うとは限らない。すなわち、利用者指示部12からの指示が一定時間検知されない場合には、キャラクタ画像生成部13は、携帯電話10に予め登録されている若しくは利用者が事前に登録した、表情又は動作のキャラクタ画像を生成してもよい。例えば、3分間経過しても上記指示がない場合には、キャラクタ画像は、あくび等の眠くなる仕草やいらいらした仕草をし、更に3分間経過しても何も指示のない場合には寝てしまうなどして興趣性を高める。かかる表情又は動作は、キャラクタ画像の種類毎に異なる設定とすることもできる。
【0043】
また、人間らしさを与えるために、キャラクタ画像生成部13が、まばたきや微妙な顔の動きをキャラクタ画像に自動的に付与する機能を備えるものとしてもよい。すなわち、キャラクタ画像の動作に標準と非標準のものを定義しておき、非標準の動作として、うたたねをする、鏡を出して髪の毛を触る、携帯電話のメールをチェックする等の動作を行う機能を付加する。この場合、意外性をもたせるために、同じキャラクタ画像でも異なる動きをするようにするとよい。また、反対に、キャラクタ画像が人間らしさをもたない人形モードを追加してもよい。
【0044】
画像符号化部14は、キャラクタ画像生成部13により生成されたキャラクタ画像を符号化及び圧縮する。
【0045】
音声符号化部15は、入力された送話者の音声を符号化及び圧縮する。
【0046】
プロトコル処理部16は、画像符号化部14により符号化されたキャラクタ画像と、音声符号化部15により符号化された音声とを、標準的なテレビ電話用のプロトコル(例えば3G−324M)を用いて、携帯電話20が受信可能な信号に変換する。
【0047】
通信部17は、プロトコル処理部16により変換されたキャラクタ画像及び音声の信号を携帯電話20を宛先として実際に送信する。
【0048】
続いて、図3を参照して、携帯電話10のハードウェア構成、及び該ハードウェア構成と機能的構成との対応関係について説明する。図3は、携帯電話10のハードウェア構成を示すブロック図である。図3に示す様に、携帯電話10は、物理的には、制御装置10a、入力装置10b、RAM10c、表示装置10d、記憶装置10e、無線通信装置10f、及び音声処理装置10gを備えて構成される。これら各装置は、それぞれバスを介して相互に各種信号の入出力が可能な様に電気的に接続されている。
【0049】
より具体的には、制御装置10aは例えばCPU(Central Processing Unit)であり、入力装置10bは例えばカーソルキーや数字入力キーであり、RAM10cは揮発性の半導体メモリである。表示装置10dは例えばLCD(Liquid Crystal Display)やEL(Electro Luminescence)であり、記憶装置10eは例えばフラッシュメモリ等の不揮発性の半導体メモリである。無線通信装置10fは、例えばRF(Radio Frequency)、ベースバンド部、テレビ電話プロトコル処理部を含む。音声処理装置10gは、マイクM、スピーカSの他、入力音声からその音調を解析する装置や音声認識装置を含む。
【0050】
キャラクタ画像DB11の有する機能は、物理的な構成要素としての記憶装置10eにより実現され、利用者指示部12の有する機能は入力装置10bにより実現される。キャラクタ画像生成部13の有する機能は制御装置10aが所定のプログラムを実行することにより実現される。また、画像符号化部14とプロトコル処理部16と通信部17との有する機能は無線通信装置10fにより実現され、音声符号化部15の有する機能は音声処理装置10gにより実現される。
【0051】
次に、本実施の形態におけるテレビ電話システム1の動作を説明し、併せて、本発明に係る画像通信方法について説明する。本動作説明では、簡単の為、図4に示す様に、5種類の表情又は動作が各番号キーに割り当てられている場合を例に採る。すなわち、キー番号“1”には「両目を開く表情」が、キー番号“2”には「口を少し開く表情」が、キー番号“3”には「口を閉じる表情」が、キー番号“4”には「両目を閉じる(寝る)表情」が、キー番号“5”には「体を前傾させる(おじぎの)動作」が、それぞれ割り当てられているものとする。
【0052】
図5は、テレビ電話システム1によって実行されるキャラクタ画像生成処理の流れを示すフローチャートである。まず、携帯電話10の利用者が利用者指示部12により一のキャラクタ画像を選択すると(S1)、選択されたキャラクタ画像がキャラクタ画像生成部13に通知される。キャラクタ画像生成部13は、当該通知を受けて、選択されたキャラクタ画像をベースとなるキャラクタ画像としてキャラクタ画像DB11から取得する(S2)。
【0053】
続いて、携帯電話10の利用者が利用者指示部12により、S2で取得されたキャラクタ画像に対して所望する表情又は動作を指定すると(S3)、指定された表情又は動作がキャラクタ画像生成部13に通知される。キャラクタ画像生成部13は、当該通知を受けて、S2で取得されたキャラクタ画像を基に、S3で指定された表情又は動作に従ってキャラクタ画像を生成する(S4)。
【0054】
例えば、S1において図6(a)に示すキャラクタ画像13aが選択されている場合に、キー番号3,4のキーが組み合わせて押下されると、「口=CLOSE」、「右目=CLOSE,左目=CLOSE」の表情情報に従って、上記キャラクタ画像がレンダリングされる。その結果、図6(b)に示す様な、口と両目を閉じた顔のキャラクタ画像13bが生成される。
【0055】
S5以降の処理は、周知慣用のテレビ電話技術であるので、その詳細な説明は省略するが、S5では、画像符号化部14により、S4で生成されたキャラクタ画像が圧縮符号化される。同様に、S6では、音声符号化部15により、入力された送話者の音声が圧縮符号化される。S5で圧縮符号化されたキャラクタ画像は、S6で圧縮符号化された音声と共に、プロトコル処理部16に入力され、所定のテレビ電話用プロトコルを使用して携帯電話20が受信可能な信号に変換される(S7)。そして、キャラクタ画像は、音声と共に、携帯電話10の通信相手である携帯電話20に送信される(S8)。
【0056】
以上説明した様に、本発明に係るテレビ電話システム1によれば、携帯電話10は、複数のキャラクタ画像の中から取得されたキャラクタ画像を使用して、指定された表情又は動作を有するキャラクタ画像を生成し、通話相手の携帯電話20に送信する。これにより、送話者である携帯電話10の利用者は、自己の感情や意思が反映されたキャラクタ画像を携帯電話20側で表示させることができる。したがって、音声解析機能や画像解析機能を必要としない比較的簡易な携帯電話の構成で、送話者と受話者との通話における興趣性を高めることが可能となる。
【0057】
テレビ電話システム1は、利用者からの指示に即応してキャラクタ画像の表情又は動作を変化させると共にキャラクタ画像と音声とを同時に送信する同期型再生を想定したものである。このため、電子メール等を使用した蓄積型の再生技術とは異なり、以下の様な利点がある。すなわち、送話者は、キャラクタ画像を介して、自己の感情や意思を受話者との会話に即時に反映させることができる。したがって、意思疎通のリアルタイム性を維持しつつ、送話者と受話者間のコミュニケーションの円滑化を図ることができる。
【0058】
(第2の実施の形態)
次に、本発明の第2の実施形態を説明する。
【0059】
第1の実施形態では、携帯電話10の利用者がキャラクタ画像の表情又は動作を指定するものとしたが、本実施形態では、入力された上記利用者の音声の音調解析結果に基づいて、後述の音調解析部がキャラクタ画像の表情又は動作を決定する。音調とは音量や音の高低(周波数)であり、通常、音調は、音声を発した人の感情によって異なり、感情の変化に応じて経時的に変化するので、音調に基づいてキャラクタ画像の表情又は動作を変更することによっても、本発明の課題である興趣性の向上を実現可能である。
【0060】
まず、第2の実施形態におけるテレビ電話システムの全体構成は、図1を参照して説明したテレビ電話システムの全体構成と同様であるので、その詳細な説明及び図示は省略する。すなわち、本実施形態におけるテレビ電話システム2は、携帯電話30,40と基地局B1,B2とネットワークNとを備える。携帯電話30は、基地局B1、ネットワークN、基地局B2を順次経由して、携帯電話40との通信が可能となっている。
【0061】
次に、図7を参照して、携帯電話30の機能的構成を説明する。図7に示す様に、携帯電話30は、機能的には、キャラクタ画像DB31(格納手段に対応)と、利用者指示部32と、キャラクタ画像生成部33(生成手段に対応)と、画像符号化部34と、音声符号化部35と、プロトコル処理部36と、通信部37(送信手段に対応)と、音声入力部38(入力手段に対応)と、音調解析部39(決定手段に対応)とを備える。このように、携帯電話30は、第1の実施形態における携帯電話10と共通の構成要素を複数有する。したがって、かかる構成要素には同列(末尾が同一)の符号を付して対応関係を明確にすると共にその詳細な説明は省略し、第1及び第2の実施形態の差異に相当する特有の構成要素について、以下詳細に説明する。
【0062】
音声入力部38は、携帯電話30の利用者が発した音声を集取して電気信号に変換した後、当該信号を音声信号として音調解析部39に出力する。音声入力部38の有する機能は、物理的な構成要素としての音声処理装置10g(図3参照)により実現される。
【0063】
音調解析部39は、音声入力部38から入力された音声信号の音調を解析し、解析結果に基づいてキャラクタ画像の表情又は動作を決定する。決定された表情又は動作はキャラクタ画像生成部33に通知される。音調解析部39が音調解析結果をキャラクタ画像に反映させる手法は様々考え得る。その詳細な処理内容に関しては、動作説明にて後述するが、例えば、音調解析部39は単純に、音声入力の有無に基づいて、キャラクタ画像の表情又は動作を決定する。すなわち、音量が0より大きい場合つまり音声入力がある場合には、送話者が話していることが予想されるのでキャラクタ画像の口を動かし、反対に、音量が0若しくは極めて小さい場合つまり音声入力がないと判断できる場合には、送話者が黙っていることが予想されるのでキャラクタ画像の口を閉じるものとする。
【0064】
また、音調解析部39は、音量の変化量に閾値を設定し、該変化量が閾値を超えたか否かに基づいて、キャラクタ画像の表情又は動作を決定するものとしてもよい。例えば、複数時点において測定された音量の差が閾値を超え、かつ、音量が小から大に変化している場合には、送話者が怒り出したという推測が可能であるので、キャラクタ画像の表情を怒った表情に決定する。
【0065】
更に、音調解析部39は、複数の感情に対応する音調パターンを予め保持しておき、音調解析結果に最も類似する音調パターンに対応する感情をキャラクタ画像の表情又は動作に反映させるものとしてもよい。音調解析結果と音調パターンとの類似性の判定には、音調解析結果からその特徴量を抽出することが有効である。例えば、音調解析結果から抽出された特徴量が、笑い声の有する音調パターンの特徴量と最も類似する場合には、音調解析部39は、キャラクタ画像の表情を笑顔に決定し、泣き声の有する音調パターンの特徴量と最も類似する場合にはキャラクタ画像の表情を泣き顔に決定する。
【0066】
また、音調解析部39は、音声の周波数に閾値を設定し、該周波数が閾値を超えたか否かに基づいて、キャラクタ画像の表情又は動作を決定するものとしてもよい。例えば、任意の時点において測定された周波数が閾値を超えている場合つまり高い声の場合には、送話者の感情が高ぶっているものと判断し、キャラクタ画像の表情を興奮した表情に決定する。これに対して、測定された周波数が閾値以下の場合つまり低い声の場合には、キャラクタ画像の表情を元気のない表情に決定する。
【0067】
更に、音調解析部39は、音量と周波数とを組み合わせて、キャラクタ画像の表情を決定することもできる。この態様では、音調解析部39は、図8に示すような参照テーブル391を有することが好適である。図8に示す様に、参照テーブル391には、音量の大小(5段階)と周波数の高低(5段階)別に複数の表情が設定されている。参照テーブル391に従えば、周波数レベルが最高値の“5”であっても、音量が1〜2の場合にはキャラクタ画像は笑った表情に決定され、音量が3〜5の場合にはキャラクタ画像は怒った表情に決定される。更に、同じ怒った表情の中でも、音量が“5”の場合には激怒、音量が“4”,“3”の場合にはそれぞれ普通、怒り気味などという様に軽重がつけられている。「怒る」以外の表情、例えば「笑う」、「驚く」、「嫌悪」、「泣く」、「悲しむ」に関しても同様に、感情の度合いに差を付けた表情の決定が可能である。
【0068】
音声の音調には送話者によって個人差がある。そこで、音調解析部39は、平常時における送話者の音調を記憶しておき、送話者が送話する度に随時更新していくことも効果的である。このように学習された音調を基準として送話者の感情を判断すれば、キャラクタ画像の表情又は動作に音調解析結果をより精確に反映させることができる。
【0069】
キャラクタ画像生成部33は、利用者指示部32により選択されたキャラクタ画像をキャラクタ画像DB31から取得し、当該キャラクタ画像をベースとして、音調解析部39により決定された表情又は動作のキャラクタ画像を生成する。
【0070】
本実施の形態においても、携帯電話30の利用者による入力操作には、手指による入力に限らず、音声認識及び単語登録を利用した音声入力を含む。かかる音声入力機能を携帯電話30が有する場合には、キャラクタ画像の表情又は動作を変化させる契機は、携帯電話30の利用者(送話者)の音声のみならず、携帯電話40の利用者(受話者)の音声とすることもできる。例えば、携帯電話40の画面上でキャラクタ画像が居眠りしている際に、受話者が「おい」、「こら」等の音声を発し、携帯電話30の利用者指示部32がこれを認識すると、キャラクタ画像が驚いて飛び起きる動作を行う。また、音調解析部39が受話者の音調を怒りあるいは興奮と判断した場合には、キャラクタ画像は驚いた表情をする。更に、音調解析部39が受話者の音声を一定時間検知しないとキャラクタ画像はうなずくなど、様々な変形態様が考えられる。
【0071】
次いで、本発明の第2の実施形態におけるテレビ電話システムの動作について説明し、併せて、本発明に係る画像通信方法の各ステップについて説明する。図9は、携帯電話30によって実行されるキャラクタ画像生成処理を説明するためのフローチャートである。本キャラクタ画像生成処理は、第1の実施形態におけるキャラクタ画像生成処理(図5参照)と共通するステップを複数含む。具体的には、図9に示すT1〜T2は図5に示したS1〜S2に対応し、同じくT7〜T10はS5〜S8に対応する。以下、本実施形態に特有の処理であるT3〜T6(図9の太線枠内に示す処理)について説明する。
【0072】
T3では、音声入力部38により、携帯電話30の利用者が発した音声が音声信号として音調解析部39に出力される。
【0073】
T4では、音調解析部39により、T3で入力された音声信号の音調が解析される。音調の解析結果は、音調解析部39に一時的に保持される。
【0074】
T5では、音調解析部39は、T4における音調解析結果に基づいて、キャラクタ画像の表情又は動作を決定する。具体的には、音調解析部39は、音調解析結果から、所定の時間幅を有するサンプリングデータを取得する。好ましくは、サンプリングデータは、平常時における送話者のサンプリングデータ(以下、「基準サンプリングデータ」と記す。)と、キャラクタ画像の表情又は動作の判定対象となるサンプリングデータ(以下、「対象サンプリングデータ)と記す。)とに分けて取得される。音調解析部39は、対象サンプリングデータと基準サンプリングデータ若しくは所定値とを比較することにより、対象サンプリングデータの有する特性(音量の大小や周波数の高低)から送話者の感情を予測する。予測された感情は、携帯電話20に送信されるキャラクタ画像の表情又は動作に反映される。
【0075】
音調の解析結果からキャラクタ画像の表情又は動作を決定する処理に関しては、様々な態様が考えられるが、以下、主要な4つの態様について説明する。4つの態様とは、音声の有無、音量の大小、周波数の高低、音量の大小及び周波数の高低の各要素に基づいて、キャラクタ画像の表情又は動作を決定する態様である。以下簡単の為、上記各態様を、それぞれ単純解析モード、音量解析モード、周波数解析モード、複合解析モードと記す。
【0076】
まず、図10〜図11を参照して、単純解析モードにおけるT5の具体的処理を説明する。図10は、横軸に経過時間を規定し、縦軸に音量を規定した場合における音調解析結果を示す図である。図10に示す様に、音調解析結果は、所定の時間幅(例えば3秒程度)を有する複数のサンプリングデータから構成される。本態様では、時間幅t1に対応する対象サンプリングデータ▲1▼と時間幅t2に対応する対象サンプリングデータ▲2▼とが抽出された場合をそれぞれ想定する。
【0077】
図11は、単純解析モードが選択された場合に実行されるキャラクタ画像決定処理を説明するためのフローチャートである。音調解析部39は、音調解析結果から対象サンプリングデータを抽出した後(T511)、対象サンプリングデータの音量の平均値を算出する(T512)。該平均値は、異常値を除外した対象サンプリングデータに関して算出してもよい。音調解析部39は、送話者周辺の雑音が考慮された無音状態における音量の値(極小値)を予め保持しており、平均値の算出後に、当該平均値と極小値との大小関係を判定する(T513)。
【0078】
ここで、図10に戻り、対象サンプリングデータ▲1▼に関しては、その平均値が極小値M以上であるものと判定され(図11のT513;No)、この場合、送話者が何らかの音声を発しているものと判断される。音調解析部39は、キャラクタ画像を送話者の表情又は動作に一致させるべく、図9のT2で取得されたキャラクタ画像の動作を口の開け閉め(くちぱく)の開始に決定する(T514)。これに対して、対象サンプリングデータ▲2▼に関しては、その平均値が極小値M未満であるものと判定される(図11のT513;Yes)。この場合、送話者は音声を発していないものと予想されるので、音調解析部39は、T2で取得されたキャラクタ画像の動作を口の開け閉め(くちぱく)の停止に決定する(T515)。その後、図9に示したT6以降の処理に移行する。
【0079】
続いて、図12〜図13を参照して、音量解析モードにおけるT5の具体的処理を説明する。図12は、図10と同様に、横軸に経過時間を規定し、縦軸に音量を規定した場合における音調解析結果を示す図である。図12に示す様に、音調解析結果は、時間幅t3(例えば10秒程度)を有する基準サンプリングデータ▲1▼と時間幅t4,t5(例えば共に5秒程度)を有する対象サンプリングデータ▲3▼,▲4▼とを含む。なお、これら各サンプリングデータの時間幅は同一であってもよい。
【0080】
図13は、音量解析モードが選択された場合に実行されるキャラクタ画像決定処理を説明するためのフローチャートである。音調解析部39は、音調解析結果から基準サンプリングデータを抽出した後(T521)、この基準サンプリングデータの音量の平均値を算出し、該平均値を基準値に設定する(T522)。
【0081】
音調解析部39は、音調解析結果から対象サンプリングデータを抽出した後(T523)、その対象サンプリングデータの音量の平均値を算出する(T524)。該平均値は、異常値を除外した対象サンプリングデータに関して算出してもよい。音調解析部39は、平均値が基準値から乖離しているか否かを判定するための指標として正の閾値を予め保持しており、平均値の算出後に、当該平均値と基準値との差である|平均値−基準値|と上記閾値との大小関係を判定する(T525)。
【0082】
判定の結果、平均値と基準値との差が閾値以上である場合には(T525;No)、音調解析部39は、更に、平均値と基準値との大小関係を判定する(T526)。当該判定の結果、平均値が基準値以上と判定された場合には(T526;No)、送話者の音声の音量は平常時よりも大きい方に乖離しているため、送話者はホットな感情にあることが予測される。したがって、音調解析部39は、図9のT2で取得されたキャラクタ画像の表情をホットな表情に決定する(T527)。
【0083】
一方、T526における判定の結果、平均値が基準値未満と判定された場合には(T526;Yes)、送話者の音声の音量は平常時よりも小さい方に乖離していることになり、送話者はクールな感情にあることが予測される。したがって、音調解析部39は、T2で取得されたキャラクタ画像の表情をクールな表情に決定する(T528)。
【0084】
更に、T525における判定の結果、平均値と基準値との差が閾値未満である場合には(T525;Yes)、送話者の音声の音量は平常時のものに近いので、音調解析部39は、図9のT2で取得されたキャラクタ画像の表情をノーマルな表情に決定する(T529)。T527〜T529の何れかの処理で決定された表情は、キャラクタ画像生成部33に通知される。その後、図9に示したT6以降の処理に移行し、上記表情を有するキャラクタ画像が生成及び送信される。
【0085】
図12に戻り、例えば、対象サンプリングデータ▲3▼の音量の平均値は、基準サンプリングデータの音量の平均値である基準値N1に近く、その差は閾値を超えるものではない。したがって、送話者が、対象サンプリングデータ▲3▼に相当する音声を発している間(t4)は、ノーマルな表情のキャラクタ画像が生成されることになる。これに対して、対象サンプリングデータ▲4▼の音量の平均値は、基準サンプリングデータの音量の平均値(基準値N1)よりもかなり大きく、その差は閾値を超えるものである。したがって、送話者が、対象サンプリングデータ▲4▼に相当する音声を発している間(t5)は、ホットな表情のキャラクタ画像が生成されることになる。
【0086】
なお、単純モードと音量解析モードとは必ずしも排他的に適用されるものではなく、組み合わせて適用することも勿論可能である。この場合、例えば、対象サンプリングデータの音量の平均値が、極小値よりも大きく、かつ、閾値を超える程度に基準値よりも大きい場合には、ホットな表情のキャラクタが口の開閉を行っている画像が生成されることになる。
【0087】
次に、図14〜図15を参照して、周波数解析モードにおけるT5の具体的処理を説明する。図14は、図12と同様に、横軸に経過時間を規定し、縦軸に周波数を規定した場合における音調解析結果を示す図である。図14に示す様に、音調解析結果は、時間幅t6(例えば10秒程度)を有する基準サンプリングデータ▲2▼と時間幅t7(例えば5秒程度)を有する対象サンプリングデータ▲5▼とを含む。なお、これらのサンプリングデータの時間幅は同一であってもよい。
【0088】
図15は、周波数解析モードが選択された場合に実行されるキャラクタ画像決定処理を説明するためのフローチャートである。音調解析部39は、音調解析結果から基準サンプリングデータを抽出した後(T531)、この基準サンプリングデータの周波数の平均値を算出し、当該平均値を基準値に設定する(T532)。
【0089】
音調解析部39は、音調解析結果から対象サンプリングデータを抽出した後(T533)、その対象サンプリングデータの周波数の平均値を算出する(T534)。なお、該平均値は、異常値を除外した対象サンプリングデータに関して算出してもよい。音調解析部39は、平均値が基準値とどの程度乖離している場合に、周波数が平常時と異なるものとみなすかを示す指標として、正の範囲値A,Bを予め保持している。範囲値A,Bは、同一の値であっても異なる値であってもよい。音調解析部39は、平均値の算出後に、当該平均値と基準値+範囲値Aとの高低関係を判定する(T535)。
【0090】
判定の結果、上記平均値が基準値+範囲値A未満である場合には(T535;Yes)、音調解析部39は、更に、平均値と基準値−範囲値Bとの高低関係を判定する(T536)。当該判定の結果、平均値が基準値−範囲値B未満である場合には(T536;Yes)、送話者の音声の周波数は平常時と異なるといえる程度に低く、送話者はクールな感情にあることが予測される。したがって、音調解析部39は、図9のT2で取得されたキャラクタ画像の表情をクールな表情に決定する(T537)。
【0091】
一方、T536における判定の結果、平均値が基準値−範囲値B以上である場合には(T536;No)、送話者の音声の周波数は、平常時と異なる程度に低いとはいえず、また、T535における判定の結果、平常時と異なる程度に高いともいえない。つまり、送話者の音声は平常時に近い状態にあることから、送話者はノーマルな感情にあることが予測される。したがって、音調解析部39は、図9のT2で取得されたキャラクタ画像の表情をノーマルな表情に決定する(T538)。
【0092】
更に、T535における判定の結果、上記平均値が基準値+範囲値A以上である場合には(T535;No)、送話者の音声の周波数は平常時と異なるといえる程度に高く、送話者はホットな感情にあることが予測される。したがって、音調解析部39は、T2で取得されたキャラクタ画像の表情をホットな表情に決定する(T539)。T537〜T539の何れかの処理で決定された表情は、キャラクタ画像生成部33に通知される。その後、図9に示したT6以降の処理に移行し、上記表情を有するキャラクタ画像が生成及び送信される。
【0093】
数値を用いてより具体的に説明すると、例えば、基準サンプリングデータから基準値が220Hzに設定され、音調解析部39の保持する範囲値A,Bがそれぞれ+25Hz,+20Hzである場合には、基準値+範囲値Aは245Hz(=220+25)であり、基準値−範囲値Bは200Hz(=220−20)である。したがって、キャラクタ画像の表情は、これらの値を、周波数の平均値の高低を決するための閾値として、決定される。すなわち、対象サンプリングデータの周波数の平均値が150Hzの場合には、150<200であることから、キャラクタ画像の表情はクールな感情を表すものとなり、同じく平均値が210Hzの場合には、200<210<245であることから、キャラクタ画像の表情はノーマルな感情を表すものに決定される。また、平均値が250Hzの場合には、245<250であることから、キャラクタ画像の表情はホットな感情を表すものとなる。
【0094】
次に、図16〜図18を参照して、複合解析モードにおけるT5の具体的処理を説明する。図16は、図14と同様に、横軸に経過時間を規定し、縦軸に周波数を規定した場合における音調解析結果を示す図である。図16に示す様に、音調解析結果は、時間幅t8(例えば10秒程度)を有する基準サンプリングデータ▲3▼と時間幅t9(例えば5秒程度)を有する対象サンプリングデータ▲6▼とを含む。なお、各サンプリングデータの時間幅は同一であってもよい。
【0095】
かかる態様のように、音調解析結果が音量の解析結果と周波数の解析結果とを共に含む場合には、音調解析部39は、それぞれの音調解析結果から取得された基準及び対象サンプリングデータを用いて、キャラクタ画像を決定することができる。以下、上記各サンプリングデータを組み合わせてキャラクタ画像を決定する処理の一例について説明する。
【0096】
本態様における音調解析部39は、感情種別を決定するために参照される感情種別テーブル392と表情を決定するために参照される表情テーブル393とを有する。感情種別テーブル392においては、音量及び周波数がそれぞれ三段階に範囲設定されている。すなわち、音量には、基準値−閾値未満、基準値−閾値以上かつ基準値+閾値未満、基準値+閾値以上の三つの範囲が設定されており、周波数には、基準値−範囲値D未満、基準値−範囲値D以上基準値+範囲値C未満、基準値+範囲値C以上の三つの範囲が設定されている。そして、音量と周波数とが決定されると、感情種別が一意に決定されるようになっている。例えば、音量が、基準値−閾値以上かつ基準値+閾値未満の範囲内に収まり、周波数が基準値+範囲値Cを超える場合には、ホットな感情の中でも中程度のホット感情IIが選択される。また、音量が基準値−閾値未満、周波数が基準値−範囲値D未満である場合には、クールな感情の中でもその程度が最も強いクール感情Iが選択される。
【0097】
音調解析部39は、決定された感情種別を介してキャラクタ画像の表情を決定する。このために、表情テーブル393を参照する。表情テーブル393には、キャラクタ画像の表情が感情種別に対応付けて記憶されている。感情種別のI,II,IIIは、その感情の程度を強い順に表す。通常、人の表情は、その人の感情と相関関係を有するので、その相関関係に適するように、例えば、感情種別がクール感情Iの場合にはかなり疲れ気味の表情が設定され、感情種別がホット感情IIの場合にはいらついた表情が設定されている。
【0098】
図9に戻り、T5で決定された表情又は動作は、キャラクタ画像生成部33に通知される。T6では、キャラクタ画像生成部33が、当該通知を受けて、T2で取得されたキャラクタ画像を基に、T5で決定された表情又は動作に従ってキャラクタ画像を生成する。
【0099】
以上説明した様に、第2の実施形態におけるテレビ電話システム2によれば、携帯電話30は、その利用者たる送話者の音声の音調を解析し、その解析結果に基づいてキャラクタ画像の表情又は動作を決定する。また、決定した表情又は動作を、キャラクタ画像DB31から取得されたキャラクタ画像に反映させて、入力音声と共に携帯電話40に送信する。したがって、画像解析処理を必要としない比較的簡易な構成で、送話者の所望に近いキャラクタ画像を受話者の携帯電話に表示させることが可能となる。その結果、送話者と受話者との通話における興趣性が高まる。
【0100】
なお、上記各実施の形態における記述内容は、本発明に係る携帯端末の好適な一例であり、これに限定されるものではない。例えば、上記各実施の形態では、携帯電話10,30が画面上にポインタを表示する場合を除き、キャラクタ画像は通話相手の携帯電話20,40にのみ表示されるものとしたが、送話者の携帯電話の表示画面上にもキャラクタ画像が表示されるようにしてもよい。更に、受話者の携帯電話20,40が送話者の携帯電話10,30と同一のキャラクタ画像生成機能を有する場合には、画面上に表示されている通話相手のキャラクタ画像と自己のキャラクタ画像とを合成する機能を追加してもよい。
【0101】
更には、携帯電話10,30にモード切替え機能を追加してもよい。具体的には、CCD(Charge−Coupled Device)カメラを送話者側(手前)に向けると、通常のテレビ電話機能(送話者の顔画像が撮影及び送信されるモード)が有効になり、CCDカメラを送話者の反対側に向けると、本発明に係るキャラクタ画像が生成される機能が有効になる。
【0102】
また、携帯電話10,30に画像合成機能を追加してもよい。具体的には、上述したキャラクタ画像を別の動画や静止画にスーパーインポーズする、キャラクタ画像にフレームを合成する、合成範囲を指定可能とする、といった付加機能を設ける。
【0103】
携帯電話10,30に文字付加機能を追加してもよい。具体的には、キャラクタ画像に文字をスーパーインポーズする、文字枠、絵文字、定型文を付加する、大きさ、色を指定可能とする、といった機能を追加する。絵文字の場合には、対応した音を鳴らす。
【0104】
携帯電話10,30に効果音付加機能を追加してもよい。具体的には、入力された送話者の音声に別の効果音をミキシングする、例えば、9番キーを押下すると通話相手に悲鳴が聞こえる、♯キーを押下するとBGMとして着信メロディが流れる、といった機能を追加する。
【0105】
第1の実施形態における携帯電話10,20、及び第2の実施形態における携帯電話30,40がそれぞれ有する複数の機能の一部又は全部を1台の携帯電話が併有する構成とすることも勿論可能である。また、携帯端末は、携帯電話に限らず、PDA(Personal Digital Assistance)やパーソナルコンピュータ等であってもよい。更に、携帯端末は、端末自体に通信機能をもたないものであってもよく、この場合でも、クレイドル等の拡張機器を介して通信が可能である。
【0106】
【発明の効果】
本発明によれば、携帯端末が、比較的簡易な構成で、送話者の所望に近いキャラクタ画像を生成し受話者の携帯端末に送信することにより、送話者と受話者との通話における興趣性を高めることが可能となる。
【図面の簡単な説明】
【図1】本発明に係るテレビ電話システムの全体構成を概念的に示す図である。
【図2】第1の実施形態における送信側携帯電話の機能的構成を示す図である。
【図3】本発明に係る送信側携帯電話のハードウェア構成を示すブロック図である。
【図4】第1の実施形態において押下されるキーの番号とキャラクタ画像の表情又は動作との対応関係の一例を示す図である。
【図5】第1の実施形態における送信側携帯電話によって実行されるキャラクタ画像生成処理を説明するためのフローチャートである。
【図6】図6(a)は表情が指定される前のキャラクタ画像の一例を示す図であり、図6(b)は表情として寝顔が指定された後のキャラクタ画像の一例を示す図である。
【図7】第2の実施形態における送信側携帯電話の機能的構成を示す図である。
【図8】第2の実施形態における送信側携帯電話がキャラクタ画像の表情を決定する際に参照されるテーブル内のデータ格納例を示す図である。
【図9】第2の実施形態における送信側携帯電話によって実行されるキャラクタ画像生成処理を説明するためのフローチャートである。
【図10】第2の実施形態において単純解析モードが選択された場合に、音調解析結果から抽出される2種類の対象サンプリングデータを示す図である。
【図11】第2の実施形態において単純解析モードが選択された場合に実行されるキャラクタ画像決定処理を説明するためのフローチャートである。
【図12】第2の実施形態において音量解析モードが選択された場合に、音調解析結果から抽出される基準サンプリングデータと2種類の対象サンプリングデータとを示す図である。
【図13】第2の実施形態において音量解析モードが選択された場合に実行されるキャラクタ画像決定処理を説明するためのフローチャートである。
【図14】第2の実施形態において周波数解析モードが選択された場合に、音調解析結果から抽出される基準サンプリングデータと対象サンプリングデータとを示す図である。
【図15】第2の実施形態において周波数解析モードが選択された場合に実行されるキャラクタ画像決定処理を説明するためのフローチャートである。
【図16】第2の実施形態において複合解析モードが選択された場合に、音調解析結果から抽出される基準サンプリングデータと対象サンプリングデータとを示す図である。
【図17】第2の実施形態において複合解析モードが選択された場合に参照される感情種別テーブルの一例を示す図である。
【図18】第2の実施形態において複合解析モードが選択された場合に参照される表情テーブルの一例を示す図である。
【符号の説明】
1,2…テレビ電話システム、10,30…送信側携帯電話、20,40…受信側携帯電話、11,31…キャラクタ画像DB、12,32…利用者指示部、13,33…キャラクタ画像生成部、17,37…通信部、38…音声入力部、39…音調解析部、391…参照テーブル、392…感情種別テーブル、393…表情テーブル

Claims (10)

  1. 複数のキャラクタ画像を格納する格納手段と、
    受信側携帯端末に送信するためのキャラクタ画像の表情又は動作を指定する指定手段と、
    前記格納手段に格納されている複数のキャラクタ画像の中からキャラクタ画像を取得し、該キャラクタ画像を使用して、前記指定手段により指定された表情又は動作のキャラクタ画像を生成する生成手段と、
    前記生成手段により生成された前記キャラクタ画像を前記受信側携帯端末宛に送信する送信手段と
    を備えることを特徴とする送信側携帯端末。
  2. 複数のキャラクタ画像を格納する格納手段と、
    音声を入力する入力手段と、
    前記入力手段により入力された音声の音調を解析すると共に、当該音調解析結果に基づいて、受信側携帯端末に送信するためのキャラクタ画像の表情又は動作を決定する決定手段と、
    前記格納手段に格納されている複数のキャラクタ画像の中からキャラクタ画像を取得し、該キャラクタ画像を使用して、前記決定手段により決定された表情又は動作のキャラクタ画像を生成する生成手段と、
    前記生成手段により生成された前記キャラクタ画像を前記受信側携帯端末宛に送信する送信手段と
    を備えることを特徴とする送信側携帯端末。
  3. 前記生成手段は、当該生成手段が生成した前記キャラクタ画像を送信側携帯端末の表示手段に表示させることを特徴とする請求項1又は2に記載の送信側携帯端末。
  4. 前記決定手段は、前記受信側携帯端末から送信された音声に基づいて、当該受信側携帯端末に送信するためのキャラクタ画像の表情又は動作を決定することを特徴とする請求項2に記載の送信側携帯端末。
  5. 前記決定手段は、前記音調として、前記音声の音量、周波数のうち、少なくとも一方を解析することを特徴とする請求項2に記載の送信側携帯端末。
  6. 前記送信手段は、標準的な動画通信用プロトコルを使用して、前記キャラクタ画像の送信を行うことを特徴とする請求項1〜5の何れか一項に記載の送信側携帯端末。
  7. 受信側携帯端末に送信するためのキャラクタ画像の表情又は動作を指定する指定処理と、
    格納手段に格納されている複数のキャラクタ画像の中からキャラクタ画像を取得し、該キャラクタ画像を使用して、前記指定処理により指定された表情又は動作のキャラクタ画像を生成する生成処理と、
    前記生成処理により生成された前記キャラクタ画像を前記受信側携帯端末宛に送信する送信処理と
    を送信側携帯端末に実行させることを特徴とする画像通信プログラム。
  8. 音声を入力する入力処理と、
    前記入力処理により入力された音声の音調を解析すると共に、当該音調解析結果に基づいて、受信側携帯端末に送信するためのキャラクタ画像の表情又は動作を決定する決定処理と、
    格納手段に格納されている複数のキャラクタ画像の中からキャラクタ画像を取得し、該キャラクタ画像を使用して、前記決定処理により決定された表情又は動作のキャラクタ画像を生成する生成処理と、
    前記生成処理により生成された前記キャラクタ画像を前記受信側携帯端末宛に送信する送信処理と
    を送信側携帯端末に実行させることを特徴とする画像通信プログラム。
  9. 送信側携帯端末が、受信側携帯端末に送信するためのキャラクタ画像の表情又は動作を指定する指定ステップと、
    前記送信側携帯端末が、格納手段に格納されている複数のキャラクタ画像の中からキャラクタ画像を取得し、該キャラクタ画像を使用して、前記指定ステップにて指定された表情又は動作のキャラクタ画像を生成する生成ステップと、
    前記送信側携帯端末が、前記生成ステップにて生成された前記キャラクタ画像を前記受信側携帯端末宛に送信する送信ステップと
    を含むことを特徴とする画像通信方法。
  10. 送信側携帯端末が、音声を入力する入力ステップと、
    前記送信側携帯端末が、前記入力ステップにて入力された音声の音調を解析すると共に、当該音調解析結果に基づいて、受信側携帯端末に送信するためのキャラクタ画像の表情又は動作を決定する決定ステップと、
    前記送信側携帯端末が、格納手段に格納されている複数のキャラクタ画像の中からキャラクタ画像を取得し、該キャラクタ画像を使用して、前記決定ステップにて決定された表情又は動作のキャラクタ画像を生成する生成ステップと、
    前記送信側携帯端末が、前記生成ステップにて生成された前記キャラクタ画像を前記受信側携帯端末宛に送信する送信ステップと
    を含むことを特徴とする画像通信方法。
JP2003142292A 2003-05-20 2003-05-20 携帯端末、画像通信プログラム、及び画像通信方法 Pending JP2004349851A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2003142292A JP2004349851A (ja) 2003-05-20 2003-05-20 携帯端末、画像通信プログラム、及び画像通信方法
US10/850,098 US7486969B2 (en) 2003-05-20 2004-05-20 Transmitting portable terminal
CNB2004100981672A CN1328909C (zh) 2003-05-20 2004-05-20 便携式终端
EP04012116A EP1480425B1 (en) 2003-05-20 2004-05-21 Portable terminal and program for generating an avatar based on voice analysis
DE602004000833T DE602004000833T2 (de) 2003-05-20 2004-05-21 Tragbares Gerät und Programm zur Erzeugung eines Avatars durch Sprachsignalanalyse

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003142292A JP2004349851A (ja) 2003-05-20 2003-05-20 携帯端末、画像通信プログラム、及び画像通信方法

Publications (1)

Publication Number Publication Date
JP2004349851A true JP2004349851A (ja) 2004-12-09

Family

ID=33095415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003142292A Pending JP2004349851A (ja) 2003-05-20 2003-05-20 携帯端末、画像通信プログラム、及び画像通信方法

Country Status (5)

Country Link
US (1) US7486969B2 (ja)
EP (1) EP1480425B1 (ja)
JP (1) JP2004349851A (ja)
CN (1) CN1328909C (ja)
DE (1) DE602004000833T2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005099262A1 (ja) * 2004-04-07 2005-10-20 Matsushita Electric Industrial Co., Ltd. 通信端末及び通信方法
WO2006085565A1 (ja) * 2005-02-08 2006-08-17 Nippon Telegraph And Telephone Corporation 情報通信端末、情報通信システム、情報通信方法、情報通信プログラムおよびそれを記録した記録媒体
JP2006221459A (ja) * 2005-02-10 2006-08-24 Nissan Motor Co Ltd 情報処理システム
JP2006262010A (ja) * 2005-03-16 2006-09-28 Tokai Univ 遠隔会議・教育システム
JP2007228379A (ja) * 2006-02-24 2007-09-06 Nec Saitama Ltd テレビ電話装置、テレビ電話つき携帯端末、そのテレビ電話方法およびテレビ電話つき携帯端末の通信方法
JP2008010936A (ja) * 2006-06-27 2008-01-17 Olympus Corp 通信システム
JP2009042671A (ja) * 2007-08-10 2009-02-26 Kao Corp 感情を判定するための方法
JP2012109977A (ja) * 2009-06-16 2012-06-07 Intel Corp ステータスアウェアネスを用いるハンドヘルド電子デバイス
JP5381994B2 (ja) * 2008-10-21 2014-01-08 日本電気株式会社 情報処理装置
JP2016071571A (ja) * 2014-09-30 2016-05-09 大日本印刷株式会社 メッセージ送信装置及びコンピュータプログラム
JP2017068856A (ja) * 2016-11-10 2017-04-06 カシオ計算機株式会社 端末装置、動作状態判定方法、及びプログラム
JPWO2016157352A1 (ja) * 2015-03-30 2017-09-21 富士通株式会社 音声認識装置、音声認識システム、及び、プログラム
WO2017187712A1 (ja) * 2016-04-26 2017-11-02 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
WO2018079294A1 (ja) * 2016-10-27 2018-05-03 ソニー株式会社 情報処理装置及び情報処理方法
JP2020191601A (ja) * 2019-05-23 2020-11-26 株式会社ミラティブ 動画配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006013311A1 (en) * 2004-08-06 2006-02-09 Sonic Age Ltd Devices for displaying modal patterns
US20060098027A1 (en) * 2004-11-09 2006-05-11 Rice Myra L Method and apparatus for providing call-related personal images responsive to supplied mood data
US20060135139A1 (en) * 2004-12-17 2006-06-22 Cheng Steven D Method for changing outputting settings for a mobile unit based on user's physical status
KR100663277B1 (ko) * 2004-12-20 2007-01-02 삼성전자주식회사 휴대단말기의 시스템 관련 이벤트 처리 장치 및 방법
US7921369B2 (en) * 2004-12-30 2011-04-05 Aol Inc. Mood-based organization and display of instant messenger buddy lists
KR100663491B1 (ko) * 2005-03-04 2007-01-02 삼성전자주식회사 휴대단말기의 멀티미디어 방송 관련 이벤트 처리 장치 및방법
US20060221935A1 (en) * 2005-03-31 2006-10-05 Wong Daniel H Method and apparatus for representing communication attributes
KR100654455B1 (ko) * 2005-05-26 2006-12-06 삼성전자주식회사 확장형 자막 파일을 이용하여 부가정보를 제공하는 장치 및방법
US20070049301A1 (en) * 2005-08-30 2007-03-01 Motorola, Inc. Articulating emotional response to messages
US20070067342A1 (en) * 2005-09-21 2007-03-22 Nancy Haralambopoulos Calendar based image display system
KR100750633B1 (ko) * 2006-04-18 2007-08-20 삼성전자주식회사 휴대 단말기 간의 캐릭터 전이 시스템 및 방법
US20070260460A1 (en) * 2006-05-05 2007-11-08 Hyatt Edward C Method and system for announcing audio and video content to a user of a mobile radio terminal
WO2007136208A1 (en) * 2006-05-24 2007-11-29 Seongho Lim Method and system of video phone calling using talker sensitive avatar
JP2008048063A (ja) * 2006-08-11 2008-02-28 Toshiba Corp 携帯端末装置
US8726195B2 (en) 2006-09-05 2014-05-13 Aol Inc. Enabling an IM user to navigate a virtual world
JP2008270911A (ja) * 2007-04-16 2008-11-06 Ntt Docomo Inc 制御装置、移動通信システム及び通信端末
JP2008270913A (ja) * 2007-04-16 2008-11-06 Ntt Docomo Inc 制御装置、移動通信システム及び通信端末
CN101465961B (zh) * 2007-12-19 2013-10-30 神基科技股份有限公司 以特征影像辨识控制快门的摄像装置及方法
JP4605217B2 (ja) * 2007-12-28 2011-01-05 カシオ計算機株式会社 撮影装置及びそのプログラム
CN101727904B (zh) * 2008-10-31 2013-04-24 国际商业机器公司 语音翻译方法和装置
US8577000B1 (en) * 2009-04-06 2013-11-05 Wendell Brown Method and apparatus for content presentation in association with a telephone call
US20100312630A1 (en) * 2009-06-08 2010-12-09 Tammy Krutchik Method and system for transmitting and redeeming electronic coupons through use of mobile device
JP6008564B2 (ja) * 2011-06-20 2016-10-19 三菱電機株式会社 空気調和機
CN103516867B (zh) * 2012-06-20 2019-01-22 腾讯科技(深圳)有限公司 移动设备通话方法、装置和通话系统
JP2014203207A (ja) * 2013-04-03 2014-10-27 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
CN105282621A (zh) * 2014-07-22 2016-01-27 中兴通讯股份有限公司 一种语音消息可视化服务的实现方法及装置
CN104753766B (zh) * 2015-03-02 2019-03-22 小米科技有限责任公司 表情发送方法及装置
CN104850335B (zh) * 2015-05-28 2018-01-23 瞬联软件科技(北京)有限公司 基于语音输入的表情曲线生成方法
US9843766B2 (en) * 2015-08-28 2017-12-12 Samsung Electronics Co., Ltd. Video communication device and operation thereof
JP2017120609A (ja) * 2015-12-24 2017-07-06 カシオ計算機株式会社 感情推定装置、感情推定方法及びプログラム
CN106453865A (zh) * 2016-09-27 2017-02-22 努比亚技术有限公司 一种移动终端及语音到文本的转换方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0762132B2 (ja) 1989-02-16 1995-07-05 住友金属工業株式会社 コークス炉装入原料炭の抽気溝形成方法
JPH0541894A (ja) 1991-01-12 1993-02-19 Sony Corp 電子機器の制御装置
JPH0512023A (ja) 1991-07-04 1993-01-22 Omron Corp 感情認識装置
JPH08305878A (ja) 1995-05-09 1996-11-22 Casio Comput Co Ltd 顔画像作成装置
IL126142A0 (en) 1996-03-15 1999-05-09 Zapa Digital Art Ltd Programmable computer graphic objects
US6473628B1 (en) * 1997-10-31 2002-10-29 Sanyo Electric Co., Ltd. Telephone set
JP2000059857A (ja) * 1998-08-11 2000-02-25 Casio Comput Co Ltd 画像通信装置、画像通信方法及び記憶媒体
JP3876573B2 (ja) * 1999-09-20 2007-01-31 カシオ計算機株式会社 ネットゲーム装置及び似顔絵画像表示制御方法
JP2002009963A (ja) 2000-06-21 2002-01-11 Minolta Co Ltd 通信システム用装置および通信システム
JP2002176632A (ja) 2000-12-08 2002-06-21 Mitsubishi Electric Corp 携帯電話機及び画像伝送方法
JP2002185632A (ja) 2000-12-14 2002-06-28 Nec Saitama Ltd テレビ電話機
CN1537300A (zh) * 2000-12-22 2004-10-13 通信系统
JP2002354436A (ja) 2001-05-29 2002-12-06 Nec Corp テレビ電話装置
SE519929C2 (sv) * 2001-07-26 2003-04-29 Ericsson Telefon Ab L M Förfarande, system och terminal för att under pågående samtal ändra eller uppdatera tex. avatarer på andra användares terminaler i ett mobiltelekommunikationssystem
WO2003021924A1 (en) * 2001-08-29 2003-03-13 Roke Manor Research Limited A method of operating a communication system
DE60224776T2 (de) 2001-12-20 2009-01-22 Matsushita Electric Industrial Co., Ltd., Kadoma-shi Virtuelles Bildtelefon

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005099262A1 (ja) * 2004-04-07 2005-10-20 Matsushita Electric Industrial Co., Ltd. 通信端末及び通信方法
WO2006085565A1 (ja) * 2005-02-08 2006-08-17 Nippon Telegraph And Telephone Corporation 情報通信端末、情報通信システム、情報通信方法、情報通信プログラムおよびそれを記録した記録媒体
US8126712B2 (en) 2005-02-08 2012-02-28 Nippon Telegraph And Telephone Corporation Information communication terminal, information communication system, information communication method, and storage medium for storing an information communication program thereof for recognizing speech information
JP2006221459A (ja) * 2005-02-10 2006-08-24 Nissan Motor Co Ltd 情報処理システム
JP4600069B2 (ja) * 2005-02-10 2010-12-15 日産自動車株式会社 情報処理システム
JP2006262010A (ja) * 2005-03-16 2006-09-28 Tokai Univ 遠隔会議・教育システム
JP4604173B2 (ja) * 2005-03-16 2010-12-22 学校法人東海大学 遠隔会議・教育システム
JP2007228379A (ja) * 2006-02-24 2007-09-06 Nec Saitama Ltd テレビ電話装置、テレビ電話つき携帯端末、そのテレビ電話方法およびテレビ電話つき携帯端末の通信方法
JP2008010936A (ja) * 2006-06-27 2008-01-17 Olympus Corp 通信システム
JP2009042671A (ja) * 2007-08-10 2009-02-26 Kao Corp 感情を判定するための方法
JP5381994B2 (ja) * 2008-10-21 2014-01-08 日本電気株式会社 情報処理装置
JP2012109977A (ja) * 2009-06-16 2012-06-07 Intel Corp ステータスアウェアネスを用いるハンドヘルド電子デバイス
US8700012B2 (en) 2009-06-16 2014-04-15 Intel Corporation Handheld electronic device using status awareness
JP2016071571A (ja) * 2014-09-30 2016-05-09 大日本印刷株式会社 メッセージ送信装置及びコンピュータプログラム
JPWO2016157352A1 (ja) * 2015-03-30 2017-09-21 富士通株式会社 音声認識装置、音声認識システム、及び、プログラム
WO2017187712A1 (ja) * 2016-04-26 2017-11-02 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
JPWO2017187712A1 (ja) * 2016-04-26 2018-11-01 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
US11455985B2 (en) 2016-04-26 2022-09-27 Sony Interactive Entertainment Inc. Information processing apparatus
WO2018079294A1 (ja) * 2016-10-27 2018-05-03 ソニー株式会社 情報処理装置及び情報処理方法
JP2017068856A (ja) * 2016-11-10 2017-04-06 カシオ計算機株式会社 端末装置、動作状態判定方法、及びプログラム
JP2020191601A (ja) * 2019-05-23 2020-11-26 株式会社ミラティブ 動画配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体
JP7337366B2 (ja) 2019-05-23 2023-09-04 株式会社ミラティブ 動画配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体

Also Published As

Publication number Publication date
CN1607829A (zh) 2005-04-20
DE602004000833T2 (de) 2006-09-28
US7486969B2 (en) 2009-02-03
EP1480425A1 (en) 2004-11-24
EP1480425B1 (en) 2006-05-10
DE602004000833D1 (de) 2006-06-14
CN1328909C (zh) 2007-07-25
US20040235531A1 (en) 2004-11-25

Similar Documents

Publication Publication Date Title
JP2004349851A (ja) 携帯端末、画像通信プログラム、及び画像通信方法
CN100359941C (zh) 可视电话终端
US8285257B2 (en) Emotion recognition message system, mobile communication terminal therefor and message storage server therefor
KR101533065B1 (ko) 화상통화 중 애니메이션 효과 제공 방법 및 장치
CN101690071B (zh) 在视频会议和其他通信期间控制化身的方法和终端
US20080151786A1 (en) Method and apparatus for hybrid audio-visual communication
WO2003063483A1 (fr) Dispositif de communication
KR20060121679A (ko) 화상 합성 장치, 그리고 그 장치를 사용한 통신 단말기 및화상 커뮤니케이션 시스템, 그리고 그 시스템에 있어서의채팅 서버
JP2004533666A (ja) 通信システム
KR101170612B1 (ko) 사용자 영상을 이용한 음성인식 시스템 및 방법
JP2007213364A (ja) 画像変換装置、画像変換方法及び画像変換プログラム
KR20210060196A (ko) 아바타 메시지 서비스를 제공하는 서버, 방법 및 사용자 단말
CN115273831A (zh) 语音转换模型训练方法、语音转换方法和装置
CN111954063A (zh) 视频直播间的内容显示控制方法及装置
JP2004193809A (ja) 通信装置
JP4296976B2 (ja) 通信端末装置
JP2009112027A (ja) テレビ電話端末
KR20110050483A (ko) 통신 방법, 통신 관련 시스템 및 관련 변환부
JP5423970B2 (ja) 音声メール実現システム、音声メール実現サーバ、その方法及びそのプログラム
JPH08307841A (ja) 擬似動画tv電話装置
JP2015115926A (ja) 携帯端末装置、読唇通信方法、及びプログラム
KR100923307B1 (ko) 화상 통화용 이동 통신 단말기와 이를 이용한 화상 통화서비스 제공 방법
KR100570079B1 (ko) 아바타를 이용한 화상통화 방법 및 시스템
KR20090097319A (ko) 대체 영상을 이용한 휴대 단말기의 화상 통화 방법 및 장치
KR100775190B1 (ko) 멀티미디어 합성 방법 및 이를 이용한 단말기

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080811

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081118