JPH10271470A - 画像音声通信システムおよびテレビ電話送受信方法 - Google Patents

画像音声通信システムおよびテレビ電話送受信方法

Info

Publication number
JPH10271470A
JPH10271470A JP9070062A JP7006297A JPH10271470A JP H10271470 A JPH10271470 A JP H10271470A JP 9070062 A JP9070062 A JP 9070062A JP 7006297 A JP7006297 A JP 7006297A JP H10271470 A JPH10271470 A JP H10271470A
Authority
JP
Japan
Prior art keywords
character image
character
image
speaker
code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9070062A
Other languages
English (en)
Other versions
JP3771989B2 (ja
Inventor
Seiichiro Tabata
誠一郎 田端
Hiromasa Kobayashi
裕昌 小林
Hisami Kikuchi
久美 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP07006297A priority Critical patent/JP3771989B2/ja
Priority to US09/045,525 priority patent/US6313864B1/en
Publication of JPH10271470A publication Critical patent/JPH10271470A/ja
Application granted granted Critical
Publication of JP3771989B2 publication Critical patent/JP3771989B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Abstract

(57)【要約】 【課題】 簡単で安価な装置を用い、使用者に手間をか
けることなく、話者の顔の動きや表情をリアルタイムに
伝送する画像音声通信システムおよびテレビ電話送受信
方法を提供する。 【解決手段】 話者はHMD1を装着し、通信開始前に
必ずしも自身の顔画像ではない任意のキャラクター画像
を自らのコントローラパッド3を操作して映像生成ボッ
クス2で設定する。通信の際には、予め互いのキャラク
ター画像の送受を行った後、実際の対話段階ではHMD
1で話者の表情を検出して変化量を所定のコードに変換
し、該コードのみをリアルタイムに送受して相手のHM
D1のモニタに表示されたキャラクター画像を動かす。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、画像音声通信シス
テムおよびテレビ電話送受信方法、詳しくは、話者の音
声を通信相手側に伝送する際に、該話者の顔等の画像ま
たはこれに代わる画像を通信相手側に伝え、相手の顔等
を確認しながら会話を行う、画像音声通信システムおよ
びテレビ電話送受信方法に関する。
【0002】
【従来の技術】従来、話者の音声を通信相手側に伝送す
る際に、該話者の顔等の画像を同時に通信相手側に伝
え、相手の顔等を確認しながら会話を行う、いわゆるテ
レビ電話システムは種々の方式が知られるところにあ
る。これらのテレビ電話システムの多くは既存の電話回
線を利用するものであり、話者の音声データ信号ととも
に顔画像等の画像データ信号を疑似的双方向に略同時に
通信相手側に伝送するものである。しかしながら、顔画
像データを動画像としてそのままの状態で伝送しようと
すると、その情報量の多さ故、既存の電話回線を使用す
る伝送形態をとる限り困難が伴った。
【0003】このような事情により、電話回線等、伝送
容量の小さい伝送路にもなじむことを目的とし、従来、
単位時間あたりの伝送情報量がより少なくてすむよう
に、静止画像を細切れに伝送するテレビ電話方式が採用
されている。
【0004】しかしながら、このようなテレビ電話シス
テムでは、動画像をリアルタイムに正確に伝送すること
が困難であり、このため、自然な顔画像を相手側に伝送
することができず、結果として顔の表情がぎこちないも
のとなっていた。
【0005】このような問題点を解消する技術手段とし
て、近年、コンピュータ・グラフィック(CG)技術を
用いた通信会議システムが、たとえば特開平7−388
73号公報において提案されている。以下、該通信会議
システムで用いられる技術手段について簡単に説明す
る。
【0006】この技術手段においては、まず予め会議に
参加する者の顔像の凹凸等の形状情報や色彩情報をレー
ザースキャナ等を用いて計測して取り込むとともに、デ
ジタルカメラ等を用いて顔画像の情報を取り込む。そし
て、上記形状情報にもとづいて3Dのポリゴンデータに
変換し、各参加者のワイヤーフレームモデルを作成す
る。
【0007】また、会議を行う際には、これら各参加者
の顔にマーカーを貼り、さらに頭、腕および身体にその
動きを検出するセンサを取り付ける。そして、各参加者
の近傍、たとえば各参加者が装着するヘッドギア等にそ
れぞれ設置されたカメラで上記顔に貼ったマーカーの動
きを検出することで顔の動きを検出し、また、頭、腕お
よび身体に取り付けたセンサによりこれら各部の動きを
検出する。
【0008】次に、上述した各部位の動きデータに基づ
いて上述したように予め作成されているワイヤーフレー
ムモデルをリアルタイムに変形させる。そして、このワ
イヤーフレームモデルに予め取り込んでおいた色彩を張
り付けて対応する参加者のグラフィック像を完成させ
る。その後、この完成された参加者のグラフィック像を
該参加者の動きに合わせてリアルタイムでスクリーンに
表示させる。これにより、会議の参加者はこのスクリー
ン表示をモニタすることで他の参加者の顔の表情等を認
識しつつ話し合い等を行うことができるようになってい
る。
【0009】このような方式だと、多大なデータ量を必
要とする画像データは予め取り込まれており、リアルタ
イムに変化するデータ量は少なくてすむため、既存の電
話回線等、伝送容量の小さい伝送路を使用するテレビ電
話システムにおいても話者の動画像をリアルタイムに伝
送することが可能となる。
【0010】
【発明が解決しようとする課題】上記特開平7−388
73号公報において提案された通信会議システムは、予
め話者の画像データの取り込みや、会話を始める前に話
者の顔にマーカーを貼り付けたり、頭、腕、身体にセン
サを取り付けるといった繁雑な手間がかかるといった問
題点がある。また、会議システム等の業務用ではなく一
般家庭での使用を考慮すると、このような繁雑性は極め
て不適当な感がある。
【0011】すなわち、この通信会議システムにおける
テレビ電話システムは、話者たる使用者の顔画像の諸デ
ータを予めレーザースキャナ等で計測して取り込む必要
があるが、このような大がかりな計測を一般家庭におい
ては行うのはコスト等を考慮すると非常に困難である。
また、会話を始める前に顔にマーカーを貼る必要がある
が、一般家庭での使用状況を考えるに、電話での会話の
度に、特に電話がかかってきた場合等において、その度
に顔にマーカーを貼りつけるのは現実的ではない。
【0012】さらに、会話時にはスクリーン前に居なく
てはならないという、通常の音声だけの電話に対して著
しい制約が科せられるという点については、それ以前の
テレビ電話システムにも共通した問題点である。
【0013】本発明はかかる問題点に鑑みてなされたも
のであり、簡単で安価な装置を用い、使用者に手間をか
けることなく、話者の顔の動きや表情をリアルタイムに
伝送する画像音声通信システムおよびテレビ電話送受信
方法を提供することを目的とする。
【0014】
【課題を解決するための手段】上記の目的を達成するた
めに本発明の第1の画像音声通信システムは、画像およ
び音声の通信に適合する画像表示手段および音声出力手
段が当該通信に係る少なくとも受信側に備えられた画像
音声通信システムであって、前記画像表示手段による表
示に適用するキャラクター画像を任意に設定可能なキャ
ラクター画像設定手段と、通信相手から当該キャラクタ
ー画像に対して変形を与えるための指令信号を受信する
変形指令受信手段と、前記指令信号に応じて上記キャラ
クター画像に変形を施すためのキャラクター変形手段
と、前記キャラクター変形手段によって変形が施された
キャラクター画像を前記表示手段に供給して表示せしめ
るための手段と、を具備したことを特徴とする。
【0015】上記の目的を達成するために本発明の第2
の画像音声通信システムは、上記第1の画像音声通信シ
ステムにおいて、前記キャラクター画像設定手段は、当
該通信における送信側において任意に自らの側を表わす
キャラクター画像を設定し、該設定したキャラクター画
像を受信側に伝送して前記画像表示手段による表示に適
用するキャラクター画像として提供するように上記送信
側に設けられたものであることを特徴とする。
【0016】上記の目的を達成するために本発明の第3
の画像音声通信システムは、上記第2の画像音声通信シ
ステムにおいて、キャラクター画像と指令信号のコード
とこれに対応する当該キャラクター画像の変形の程度と
の対応関係を表わす第1の情報を会話の開始に先行して
伝送し、会話中は、実質的に上記指令信号のコードのみ
からなる第2の情報をリアルタイムで伝送することを特
徴とする。
【0017】上記の目的を達成するために本発明の第4
の画像音声通信システムは、上記第3の画像音声通信シ
ステムにおいて、前記第1の情報におけるキャラクター
画像と指令信号のコードとこれに対応する当該キャラク
ター画像の変形の程度との対応関係を通信社が任意に決
定するキャラクター画像変形量決定手段と、前記指令信
号の送信実行の条件を通信者各々が任意に決定する送信
条件決定手段と、を具備したことを特徴とする。
【0018】上記の目的を達成するために本発明の第5
の画像音声通信システムは、上記第1の画像音声通信シ
ステムにおいて、前記キャラクター画像設定手段は、通
信者各々が任意に通信相手とキャラクター画像との対応
付けを行うようになされ、通信実行に際して、通信相手
から伝送される信号によって通信相手を認識し、前記キ
ャラクター画像設定手段によって設定された該通信相手
とキャラクター画像との対応付けの情報に基づいて当該
通信相手に対応つけたキャラクター画像を前記画像表示
手段による表示に適用する表示キャラクター選択手段を
更に備えたことを特徴とする。
【0019】上記の目的を達成するために本発明の第6
の画像音声通信システムは、上記第1の画像音声通信シ
ステムにおいて、前記画像表示手段、音声出力手段、お
よび音声入力手段は頭部装着型ディスプレイ装置として
構成されてなるものであることを特徴とする。
【0020】上記の目的を達成するために本発明の第7
の画像音声通信システムは、上記第1の画像音声通信シ
ステムにおいて、前記頭部装着型ディスプレイ装置に配
置され、これら頭部装着型ディスプレイ装置を用いる当
該画像音声通信システムにおける通信者の視線を検出す
るための視線検出器、頭部の動きを検出するためのヘッ
ドモーションセンサ、発生された音声を検出するための
音声検出手段と、前記視線検出器、ヘッドモーションセ
ンサ、音声検出手段の検出出力に応じて前記指令信号を
送信する送信手段と、を具備したこと特徴とする。
【0021】上記の目的を達成するために本発明の第8
の画像音声通信システムは、上記第8の画像音声通信シ
ステムにおいて、当該通信者が自己に対応するものとし
てのキャラクターを動かすための制御、および相手側の
者に対応するものとしてのキャラクターを実空間上に固
定しているように映出する映出位置の制御の双方の制御
は前記ヘッドモーションセンサの出力信号に依拠して行
われるように構成されたことを特徴とする。
【0022】上記の目的を達成するために本発明の第9
の画像音声通信システムは、上記第1の画像音声通信シ
ステムにおいて、前記所定のキャラクター画像は複数種
の図形を組み合わせたものであり、キャラクターデータ
は各図形を指定するコードと各図形の位置関係を表わす
座標データとを含んで構成され、前記キャラクター変形
手段が変形したキャラクターデータを所定の変換フォー
マットに基づいて前記表示手段で表示すべき画像信号に
変換する第1の変換手段を有することを特徴とする。
【0023】上記の目的を達成するために本発明の第1
のテレビ電話送受信方法は、画像と音声とを通信するテ
レビ電話装置において、通信開始に先立って、当該通信
者が各自己に対応するキャラクターを任意に作成するキ
ャラクター画像作成のステップと、前記キャラクター画
像のうち変形させる部分を上記通信者各々が任意に決定
する変形部分決定のステップと、前記変形部分の変形量
を上記通信者各々が任意に決定する変形量決定ステップ
と、前記変形を実行させる条件を通信者各々が任意に決
定する変形実効条件決定ステップと、を有し、通信開始
直後に、前記変形部分と前記変形量とを対応づけて送信
するキャラクター画像送信ステップと、通信開始後上記
キャラクター画像送信ステップに続く期間内に前記条件
の発生を検出したときに前記変形を促す指令を送信する
変形指令送信ステップと、音声を送信するステップと、
受信側において、前記変形指令を受信して前記キャラク
ター画像のうち変形指定部分を変形指定量だけ変形さ
せ、その変形画像を表示するステップと、の上記各ステ
ップを逐次実行することを特徴とする。
【0024】上記の目的を達成するために本発明の第2
のテレビ電話送受信方法は、画像と音声とを通信するテ
レビ電話装置において、通信開始に先立って、当該通信
相手とキャラクター画像との対応付けを各通信者が任意
に決定するキャラクター画像決定のステップと、通信開
始直後に、通信相手を確認し、当該通信相手に対応づけ
た上記キャラクター画像を用意するキャラクター画像用
意ステップと、上記キャラクター画像用意ステップに続
く期間内で当該通信相手から上記キャラクターを変形さ
せる指令を受信する変形指令受信ステップと、上記変形
指令受信ステップで受信された上記キャラクターを変形
させる指令に基づいて当該キャラクター画像を変形さ
せ、その変形を施した画像を表示するステップと、の上
記各ステップを逐次実行することを特徴とする。
【0025】上記の目的を達成するために本発明の第1
0の画像音声通信システムは、通話者の現実の姿に依存
しないキャラクターを該通話者の相手方に表示するため
の表示手段と、上記表示手段によって表示されるキャラ
クターを当該通話者の通話状況に応じて動かすためのキ
ャラクター制御手段と、を具備したことを特徴とする。
【0026】
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。
【0027】まず、本発明の一実施形態である画像音声
通信システムの概要について説明する。
【0028】この画像音声通信システムは、電話回線等
の回線網を介して通信相手の顔画像をモニタしながら音
声会話を行う、いわゆるテレビ電話システムに属するも
のであるが、通信相手の顔画像は通信相手本人の顔画像
に限らず所定のキャラクターデータにより形成された画
像を用いて対話を行うことを特徴としている。すなわ
ち、対話時において一方の話者がモニタする他方相手側
の顔画像は、所定の(任意に設定も可能とする)キャラ
クターデータにより形成されたキャラクター画像であ
り、対話に際して相手側の顔に表情変化が生じると、こ
の表情変化に関連する顔主要部の動きに実質的にリアル
タイムに対応するように該キャラクター画像を変化させ
て伝達することを特徴とするものである。
【0029】そして本画像音声通信システムにおいて
は、上記所定のキャラクター画像は、送り手側の話者に
よって予め設定されるようになされており、画像伝送の
際には、送り手側話者のキャラクター画像データを一
旦、相手側(受け手側)に伝送し、その後、対話時にお
いて送り手側話者の変化に応じて当該キャラクター画像
の主要部の動きに関するデータのみを送信するようにな
っている。これにより、画像伝送に要するデータ伝送量
は極小ですみ、伝送容量の小さい回路網を使用したテレ
ビ電話システムであっても、相手の顔の表情を実質的に
リアルタイムに相手側に伝えることができるようになっ
ている。
【0030】また、本画像音声通信システムにおいては
上記キャラクター画像は、使用者が任意に設定するよう
になっているが、予め記憶された画像を使用者が選択し
て用いるようにすることも可能であり、何れにせよこれ
により遊び心に満ちた対話を実現することができる。
【0031】また、本画像音声通信システムにおいて
は、通信の送受信に使用される端末装置として、使用者
が個別に頭部に装着して画像をモニタするHead m
ounted display(以下、HMDと略記す
る)を用いていることも特徴とする(図5参照)。
【0032】以下、図1を参照して本第1の実施形態で
ある画像音声通信システムにおける主要構成部を概略的
に説明する。
【0033】図1は、本第1の実施形態である画像音声
通信システムにおいて用いられる画像音声通信装置の主
要構成を示したブロック図であり、図中、上段側が送信
部の主要構成を、下段側が受信部の主要構成を示してい
る。
【0034】なお、本第1の実施形態の画像音声通信シ
ステムは、一方の話者と相手側他方の話者とが同様の機
能を有する装置を使用して通信を行うものであり、互い
に話者側の立場と聞き手側の立場とが入れ替わりつつ対
話をおこなうようになっている。しかしながら、ここで
は便宜上、一方の話者を送り手側話者、他方を受け手側
話者とし、それぞれに係る画像音声通信装置を送り手側
装置、受け手側装置として説明する。
【0035】まず、一方の送り手側装置における送信部
の構成について説明する。
【0036】この第1の実施形態の画像音声通信装置に
おける送信部は、送り手側話者のキャラクター画像を生
成するキャラクター画像生成手段100と、このキャラ
クター画像生成手段100によって生成された各種キャ
ラクター画像に係るデータを記憶する第1のキャラクタ
ーデータ記憶手段104と、送り手側話者の目、口等の
動きを検出し、後述する基準値用の信号を送出すると共
に対話時においては送り手側話者の目、口、頭の動きお
よび音声を検出し、次段に送出する表情検出手段105
と、この表情検出手段105からの検出結果(目、口、
頭の動き)を所定の指令信号コード(目の動きコード、
口の動きコード、頭の動きコード)に変換して出力する
表情コード変換手段108と、上記第1のキャラクター
データ記憶手段104からのデータまたは表情検出手段
105からのデータあるいは上記表情コード変換手段1
08からのデータを所定のタイミングで選択して次段に
送出する第1の選択手段107と、この第1の選択手段
107によって選択された上記第1のキャラクターデー
タ記憶手段104からのデータまたは表情検出手段10
5からのデータあるいは表情コード変換手段108から
のデータを相手側装置(受け手側装置)に対して送信す
るデータ送信手段106と、で主要部が構成されてい
る。
【0037】なお、上記第1の選択手段107は、端子
107aが選択される上記第1のキャラクターデータ記
憶手段104出力端がデータ送信手段106に接続さ
れ、端子107bが選択されると上記表情検出手段10
5の出力端あるいは上記表情コード変換手段108の出
力端が同データ送信手段106に接続されるようになっ
ている。なお、この第1の選択手段107は、本第1の
実施形態の画像音声通信装置においては、ソフト的に接
続先を選択するようにしている。
【0038】上記キャラクター画像生成手段100は、
所定のキャラクター画像のデータを入力するキャラクタ
ーデータ入力手段101と、このキャラクターデータ入
力手段101によって入力された所定のキャラクターデ
ータを、所定のドットデータに変換する第1の変換手段
102と、この第1の変換手段102によってドットデ
ータに変換されたキャラクターデータを表示する表示手
段103と、を備えている。
【0039】なお、この表示手段103は、使用者が装
着するHMD等に設けられた表示部である。また、この
HMDに関しては後に詳述する。
【0040】上記キャラクターデータ入力手段101
は、後述する操作部等で構成されており、使用者(送り
手側話者)は、該キャラクターデータ入力手段101を
用いて、所定のキャラクター画像のデータを入力するよ
うになっている。この際、使用者は、初期状態のキャラ
クター画像のデータ(基本キャラクター画像データ)と
ともに同使用者の目、口等の動きに合わせて変化する表
情が変化(変形)したキャラクター画像に係るデータも
設定するようになっている。なお、この表情変化に対応
したキャラクター画像は、予め設定された指令信号コー
ドに対応するパターンの種類ほど設定する。
【0041】なお、本実施形態においては、上記キャラ
クターデータ入力手段101は、所定のキャラクターデ
ータを操作部等で操作して入力する装置を想定し、使用
者がキャラクター画像を任意に設定するようにしたが、
これに限らず、たとえば、電子カメラ、スキャナ等で採
取した任意の画像データ(使用者本人の顔等の実写を含
む)であっても良い。
【0042】さらに、使用者(送り手側話者)は、キャ
ラクターデータ入力手段101および表情検出手段10
5を用いて、該表情検出手段105で検出した送り手側
話者の目、口の動きに基づいて表情変化の基準値を設定
するようになっている。なお、基準値とは、当該話者の
表情の変化の程度に応じて当該指令信号コードを出力す
るか否かを判定する際のしきい値を意味する。
【0043】上記表情検出手段105は、使用者が装着
するHMD等に設けられており、上記表情変化の基準値
を生成する際に用いる検出手段であるとともに、対話を
行う際に送り手側話者の各表情変化(目、口、頭の動
き)および音声信号を互いに同期した所定のタイミング
で検出して送出する検出手段としての役目も果たすよう
になっている。
【0044】上記表情変化の基準値を生成する際には、
送り手側話者によるキャラクターデータ入力手段101
の操作により、該表情検出手段105からの表情変化の
要素のうち目、口の動きに関する検出値が表情コード変
換手段108に入力され、この検出値に基づいて表情変
化の基準値が生成されるようになっている。なお、この
基準値も、予め設定された指令信号コードに対応する種
類ほど生成するようになっている。
【0045】一方、対話時においては、上記所定のタイ
ミングで変化する送り手側話者の表情変化は、表情変化
の要素のうち、目、口の動きに関しては、次段の表情コ
ード変換手段108において逐次(実質的にリアルタイ
ムに)所定の指令信号コードに変換され、データ送信手
段106を介して受け手側装置に伝送されるようになっ
ている。
【0046】また、頭の動きのデータは、同表情コード
変換手段108において、上記指令信号コードには対応
しない別の所定のコードに変換され、データ送信手段1
06を介して受け手側装置に伝送されるようになってい
る。
【0047】さらに、音声信号は、該表情コード変換手
段108をバイパスして、データ送信手段106を介し
て受け手側装置に伝送されるようになっている。
【0048】なお、上記目、口の動きデータに係る所定
の指令信号コードの伝送と、頭の動きデータに係るコー
ドの伝送、音声信号の伝送は、互いに同期して伝送され
るようになっている。
【0049】なお、以上の作業は、第1の変換手段10
2においてドットデータに変換され逐次、上記表示手段
103に表示されるようになっており、使用者は上記作
業をモニタしながら行い得るようになっている。
【0050】一方、上記画像音声通信装置の受信部は、
相手側装置のデータ送信手段106より送られてきた所
定のデータを受信するデータ受信手段111と、このデ
ータ受信手段111で受信したデータの種別により次段
の回路を選択する第2の選択手段112と、この第2の
選択手段112で選択された際に相手側のキャラクター
画像に係る所定のデータを一時的に記憶する第2のキャ
ラクターデータ記憶手段113と、この第2のキャラク
ターデータ記憶手段113に記憶された相手側のキャラ
クター画像に係る所定データと相手側の表情検出手段1
05で検出されさらに上記表情コード変換手段108で
コード化された表情変化のデータとに基づいて相手側の
キャラクター画像を加工するキャラクターデータ加工手
段114と、このキャラクターデータ加工手段114で
加工された相手側キャラクター画像を所定データに変換
する第2の変換手段115と、対話時に相手側の表情検
出手段105で検出された頭の動きのデータに基づいて
画像変形の度合いを演算して出力する画像変形手段11
7と、対話時に相手側の表情検出手段105で検出され
た音声信号を再生する音声再生手段118と、相手側の
キャラクター画像を表示する表示手段116と、で主要
部が構成されている。
【0051】なお、上記第2の選択手段112において
は、詳しくは後述するが通信の初期段階においては、端
子112aが選択されるようになっており、このときデ
ータ受信手段111の出力端は上記第2のキャラクター
データ記憶手段113に接続されるようになっている。
一方、通信の対話段階においては、端子112bが選択
されるようになっており、このとき、同データ受信手段
111の出力端は上記第2のキャラクターデータ記憶手
段113を迂回してキャラクターデータ加工手段11
4、上記音声再生手段118に接続されるようになって
いる。
【0052】上記第2の変換手段115は、通信の対話
段階において、相手側送り手側話者の目、口の動きに伴
うキャラクター画像の変形度合いを、送り手側装置から
送られてきた指令信号コードを予め設定されている指令
信号コードに照らし合わせて決定し、所定の画像処理を
施した後、画像変形手段117に送出するようになって
いる。
【0053】また、上記画像変形手段117は、通信の
対話段階において、相手側送り手側話者の頭の動きに伴
うキャラクター画像の変形度合いを所定の演算手法で演
算し、上記第2の変換手段115からのデータに所定の
画像処理を施した後、相手側のキャラクター画像を実質
的にリアルタイムに生成し、表示手段116に表示させ
るようになっている。
【0054】なお、送り手側装置から送られてくる、上
記頭の動きのデータに係るコードの伝送は、上述したよ
うに上記目、口の動きのデータに係る指令信号コードの
伝送と同期しているので、受け手側装置の表示手段11
6においても同期して表示するようになっている。
【0055】さらに、上記音声再生手段118は、通信
の対話段階において、相手側送り手側話者の音声信号を
上記目、口の動きのデータに係る指令信号コード、頭の
動きのデータに係るコードと同期させて再生するように
なっている。
【0056】次に、このような構成をなす本実施形態の
画像音声通信システムの作用を簡単に説明する。
【0057】送り手側話者は、まず、準備段階として、
自身の画像音声通信装置(以下、送り手側装置と略記す
る)において、自身の初期状態のキャラクター画像(基
本キャラクター画像)をキャラクター画像生成手段10
0内のキャラクターデータ入力手段101によって生成
する。なお、送り手側話者は、生成するキャラクター画
像を表示手段103をモニタしながら行うようになって
いる。すなわち、キャラクターデータ入力手段101に
よって入力されたキャラクターデータは、第1の変換手
段102によって所定のドットデータに変換され表示手
段103に表示されるようになっている。
【0058】この後、送り手側話者は、キャラクターデ
ータ入力手段101を用いて、予め記憶されている指令
信号コードに対応させて、上記初期状態のキャラクター
画像に対して目、口等が変形した、すなわち、表情を変
化させたキャラクター画像を所定種類ほど作成するとと
もに、この変形の度合い(以下、変形キャラクター画像
データという)をそれぞれ対応させて生成する。この所
定種類は、予め記憶された指令信号コードの数に対応し
た種類である。
【0059】次に、表情検出手段105で送り手側話者
の目、口の動きの所定データを検出し、これらのデータ
に基づき、表情コード変換手段108において表情変化
の基準値を生成する。この際、この表情変化の基準値
は、先ほどキャラクターデータ入力手段101を用いて
所定種類ほど生成した、初期状態のキャラクター画像に
対して目、口等が変化したキャラクター画像に対応した
種類ほど生成されるようになっている。
【0060】なお、この生成工程の際、各キャラクター
画像は、上記第1の変換手段102において各キャラク
ターデータからドットデータに変換されて表示手段10
3に表示される。これにより、送り手側話者は表示手段
103をモニタしながら上記作業を行いえるようになっ
ている。
【0061】次に、このようにして上記キャラクター画
像生成手段100で生成された各種キャラクターデー
タ、すなわち、送り手側話者の初期のキャラクター画像
のデータ、表情変化に対応したキャラクター画像のデー
タ、該表情変化に対応する基準値のデータが、送り手側
装置の第1のキャラクターデータ記憶手段104に記憶
される。
【0062】以上により、準備段階が完了する。なお、
送り手側話者と対話を行う受け手側話者の受け手側装置
においても、同様の準備を行うものとする。
【0063】準備が完了し、相手側装置と通信が開始さ
れると、所定のプロトコルにより初期段階の交渉が行わ
れ、引き続き、まず、第1のキャラクターデータ記憶手
段104より、上述した送り手側話者の各種キャラクタ
ーデータが出力される。すなわち、送り手側装置におい
ては、上記第1の選択手段107において端子107a
が選択され、上記第1のキャラクターデータ記憶手段1
04から上述した各種キャラクターデータがデータ送信
手段106を介して受け手側装置に向けて送出される。
【0064】受け手側装置は、送り手側装置から送られ
てきた送り手側話者のキャラクターデータをデータ受信
手段111で受信し、第2の選択手段112において端
子112aを選択し、上記各種キャラクターデータを第
2のキャラクターデータ記憶手段113に記憶する。
【0065】なお、この交渉段階では、送り手側装置か
ら受け手側装置へ各種キャラクターデータが伝送される
と同時に、受け手側装置の各種キャラクターデータも送
り手側装置に対して伝送される。したがって、送り手側
装置においても、受け手側話者の各種キャラクターデー
タを自身の第2のキャラクターデータ記憶手段113に
記憶する。
【0066】上記各種キャラクターデータが互いに相手
側装置に伝送されると、次に、対話段階に移行する。ま
ず、上記第1の選択手段107,第2の選択手段112
において、スイッチがそれぞれ端子107b,端子11
2bに切換わる。
【0067】送り手側装置の表情検出手段105で送り
手側話者の表情変化のうち、目、口の動きの変化を所定
のタイミングで検出し、続いて表情コード変換手段10
8で該目、口の動きの変化を逐次所定の指令信号コード
に変換して、データ送信手段106を介して受け手側装
置に送出する。
【0068】この目、口の動きのデータに係る指令信号
コードの伝送に同期して、同じく上記表情検出手段10
5で頭の動きに係るデータを検出して上記表情コード変
換手段108で所定のコードに変換した後、データ送信
手段106を介して受け手側装置に送出する。さらに、
同目、口の動きのデータに係る指令信号コードの伝送に
同期して、同じく上記表情検出手段105で検出した音
声信号をデータ送信手段106を介して受け手側装置に
送出する。
【0069】受け手側装置は、データ受信手段111
で、送り手側話者の目、口の動きのデータに係る指令信
号コードを受信すると、キャラクターデータ加工手段1
14において、該指令信号コードに応じて第2のキャラ
クターデータ記憶手段113に記憶されている送り手側
話者の各種キャラクターデータを加工する。
【0070】この後、上記キャラクターデータ加工手段
114で加工処理が施された送り手側話者のキャラクタ
ーデータが予め記憶されているフォーマットに基づいて
第2の変換手段115で変換される。
【0071】また、受け手側装置は、データ受信手段1
11で、上記目、口の動きのデータに係る指令信号コー
ドの受信に同期して頭の動きのデータに係るコードを受
信する。また、該頭の動きコードに基づいて画像変形手
段117で画像の変形の度合いを演算し、上記第2の変
換手段115で変換されたキャラクター画像のデータに
所定の画像処理を施して表示手段116に表示する。こ
のとき、相手側送り手側話者のキャラクター画像を実質
的にリアルタイムに表示する。
【0072】さらに、受け手側装置は、データ受信手段
111で、上記指令信号コードの受信に同期して相手側
送り手側話者の音声信号を受信し、該音声信号を音声再
生手段118で再生する。
【0073】以上の通信を要約すると、以下の通りとな
る。すなわち、 A:通信前段階 (1):話者は、それぞれ自身の基本となるキャラクター
画像を生成する。 (2):話者は、上記基本キャラクター画像に対して、所
定の指令信号コードに対応する表情変化(目、口の動
き)を付けた新たなキャラクター画像に関するデータ
(該基本キャラクター画像に対してどれだけ変形するか
のデータ、以下、変形キャラクター画像データとする)
を生成する。 (3):話者は、自身の目、口の動きを検出し、所定の指
令信号コードに対応する表情変化の基準値(しきい値)
を設定する。
【0074】B:通信初期段階 (1):送り手側装置より、送り手側話者の基本キャラク
ター画像データが受け手側装置に伝送され、該受け手側
装置の記憶部に記憶する。 (2):送り手側装置より、所定の指令信号コードに対応
する表情変化を付けた変形キャラクター画像データが受
け手側装置に伝送され、該受け手側装置の記憶部に記憶
する。
【0075】C:通信対話段階(送り手側装置) (1):送り手側話者の目、口の動きを所定のタイミング
で検出する。 (2):送り手側話者の目、口の動きの検出結果と上記し
きい値に基づいて所定の指令信号コードを逐次、受け手
側装置に伝送する。 (3):送り手側話者の頭の動きを所定のタイミングで検
出し、この検出結果を逐次、受け手側装置に伝送する。
なお、この頭の動きのコードの伝送は、上記(2)におけ
る所定の指令信号コードの伝送に同期している。 (4):送り手側話者の音声信号を所定のタイミングで採
取し、この音声信号を逐次、受け手側装置に伝送する。
なお、この音声信号の伝送は、上記(2)における所定の
指令信号コードの伝送に同期している。
【0076】D:通信対話段階(受け手側装置) (1):送り手側装置から逐次(実質的にリアルタイム
に)送られてくる送り手側話者の目、口の動きに関する
所定の指令信号コードを受けとる。 (2):送り手側装置から逐次(実質的にリアルタイム
に)送られてくる送り手側話者の頭の動きに関するコー
ドを受けとる(上記(1)に同期)。 (3):送り手側装置から逐次(実質的にリアルタイム
に)送られてくる送り手側話者の音声信号を受けとる
(上記(1)に同期)。 (4):上記(1)で受け取った指令信号コードに対応する
目、口の動きのキャラクター画像データあるいは変形キ
ャラクター画像データを記憶部より検索し読み出す。 (5):上記(4)で読み出したキャラクター画像データある
いは変形キャラクター画像データと、上記(2)で受け取
った頭の動きに関するコードに基づいて、送り手側話者
のキャラクター画像を実質的にリアルタイムに表示部に
表示する。 (6):上記(3)で受け取った音声信号に基づいて、送り手
側話者の音声をリアルタイムに再生する。
【0077】以上、本第1の実施形態の画像音声通信シ
ステムの概要を説明したが、以下、該実施形態の画像音
声通信システムの具体的な構成、作用を図2ないし図3
2を参照して説明する。
【0078】図2は、本発明の第1の実施形態である画
像音声通信システムの主要構成を示した説明図である。
【0079】図に示すように、本実施形態の画像音声通
信システムは、当該通信システムを介して対話を行う使
用者の頭部に装着され後述する映像生成ボックス2から
の所定データに基づいて該使用者に映像、音声を供給す
るとともに、同使用者の目の動き、頭の動き、口の動
き、音声等を映像生成ボックス2に送出するHeadm
ounted display(以下、HMD)1と、
このHMD1に接続され同HMD1に対して電力を供給
するとともに所定の映像信号、音声信号等を供給する一
方、該HMD1より視線信号(目の動きに対応)、ヘッ
ドモーション信号(頭の動きに対応)、音声信号(口の
動きに対応)等を受信し、後述する所定の処理を施す映
像生成ボックス2と、この映像生成ボックス2に接続さ
れ、該映像生成ボックス2に内設されたキャラクターデ
ータ記録部36に対してキャラクターデータ生成用のコ
ントロール信号9を送出するコントローラパッド3と、
上記映像生成ボックス2と通常の電話回線を介して接続
され、キャラクタデータ、頭の動きコード、目の動きコ
ード、口の動きコード、音声信号(図中、符号8で示
す)等の信号の送受信を行う外部装置4とで、主要部が
構成されている。
【0080】まず、上記HMD1について図2、図3、
図4を参照して説明する。
【0081】図3は、上記HMD1を使用者が装着した
際の様子を一側方よりみた側面図である。
【0082】また、図4は、上記HMD1,映像生成ボ
ックス2,コントローラパッド3の接続対応と、これら
各部の電気回路的な構成を詳しく示したブロック構成図
である。
【0083】上記HMD1は、図2、図3に示すように
使用者の両眼部前方より頭頂部にかけて延設された支持
筐体に接眼光学系13,16、ヘッドモーションセンサ
11、マイク19、スピーカ20、通話スイッチ24等
が配設されて構成されており、当該通信システムを介し
て対話を行う各使用者の頭部に図示の如く装着されるよ
うになっている。すなわち、使用者に装着された際に、
使用者の眼部前方には接眼光学系等からなる映像部が、
頭頂部にヘッドモーションセンサ11が、左右の耳部に
は左右のスピーカ20A,20B(図2参照)が、口部
前方には上記支持筐体より延設されたマイク19がそれ
ぞれ配置されるようになっており、耳部の後部において
支持部25で頭部に支持するようになっている。また、
支持筐体の一側方には、通信開始時におけるオフフック
スイッチの役目を果たす通話スイッチ24が配設されて
いる。
【0084】また、上記支持部25からは映像生成ボッ
クス2と接続する接続コードが延設されており、該映像
生成ボックス2より左右の映像信号、音声信号、液晶シ
ャッタ駆動信号、電力(図2中、符号7で示す)等の供
給を受けることで所定の動作を行うようになっている。
【0085】ここで、図3に加え図4を参照してHMD
1における接眼光学系周辺の構成をさらに詳しく説明す
る。
【0086】上述したように使用者両眼部の前方には、
左右の接眼光学系16,13が配置され、これら左接眼
光学系16,右接眼光学系13の上方にはそれぞれ左L
CD17、右LCD14が配設されている。また、これ
ら左LCD17、右LCD14のさらに上方にはバック
ライト21が配設され、さらに上記左右の接眼光学系の
前方には液晶シャッタ23が配設されている。
【0087】上記左LCD17、右LCD14はHMD
1内部に配設されたLCD駆動回路18によって駆動さ
れるようになっており、該LCD駆動回路18は映像生
成ボックス2の制御により動作されるようになってい
る。また、図示はしないが上記液晶シャッタ23、バッ
クライト21も映像生成ボックス2に接続され、各々駆
動制御されるようになっている。
【0088】すなわち、映像生成ボックス2からの左右
の映像信号、液晶シャッタ駆動信号に基づいて上記左L
CD17、右LCD14、液晶シャッタ23、バックラ
イト21が動作し、使用者に所定の映像が供給されるよ
うになっている。
【0089】また、上記左右のスピーカ20A,Bは、
映像生成ボックス2からの音声信号に基づいて所定の音
声を再生するようになっている。
【0090】一方、上記左接眼光学系16,右接眼光学
系13の近傍には使用者の視線を検出する左視線検出器
15,右視線検出器12およびこれらの視線検出用の光
源22が配設されている。上記左視線検出器15,右視
線検出器12で検出した左右の視線情報は映像生成ボッ
クス2の目の動きコード変換器51に対して送出される
ようになっている。
【0091】そして、この左右の視線検出器15,12
からの視線情報は、所定の初期設定情報として用いられ
るほか、会話時においては使用者の視線の動き(目の動
き)の情報として用いられる。なお、詳しくは後述す
る。
【0092】また、上記ヘッドモーションセンサ11
は、使用者の頭部の動きを3次元的に検出するセンサで
あり、頭の動きに対応する3次元情報を映像生成ボック
ス2の頭の動きコード変換器52に対して送出するよう
になっている。
【0093】このヘッドモーションセンサ11からのデ
ータも、会話時において使用者の頭の動きの情報として
用いられる。
【0094】さらに、上記マイク19は会話時において
通常の音声記録装置として使用者の音声を採取する機能
を果たすとともに、所定の条件のもと使用者の口の動き
を検出する検出装置としての役目も果たすようになって
いる。すなわち、所定の初期設定を行う際、該マイク1
9からの音声信号は映像生成ボックス2の口の動きコー
ド変換器50に対して送出されるようになっている。一
方、会話時においては該マイク19で採取した音声信号
は映像生成ボックス2の音声信号送信器48に対して送
出され通信相手に対して伝送される一方、会話中の使用
者の口の動きが検出され映像生成ボックス2の口の動き
コード変換器50に対して該情報が送出されるようにな
っている。なお、詳しくは後述する。
【0095】次に、上記映像生成ボックス2の構成につ
いて図4を参照してさらに詳しく説明する。
【0096】上記映像生成ボックス2は、電話回線を介
して通信相手側の装置となる外部装置4(図2参照)と
の間で、キャラクタデータ、頭の動きコード、目の動き
コード、口の動きコード、音声信号(図2において符号
8で示す)等の信号の送受信を行うようになっている
が、図4に示すようにその際の送受信器を各種備えてい
る。
【0097】すなわち、一方の話者が用いる画像音声通
信装置(図2中、HMD1,映像生成ボックス2,コン
トローラパッド3)と、相手側話者が用いる画像音声通
信装置である外部装置4との間において、所定のキャラ
クターデータの送受信はキャラクターデータ送信器3
1、キャラクターデータ受信器32で行うようになって
いる。以下、目の動きコード、口の動きコード、頭の動
きコードの送受信はそれぞれ、目の動きコード受信器3
3、目の動きコード送信器45、口の動きコード受信器
34、口の動きコード送信器47、頭の動きコード受信
器35、頭の動きコード送信器46で行うようになって
いる。
【0098】また、通信相手との会話中の音声信号の送
受信は、音声信号送信器48、音声信号受信器49で行
うようになっている。
【0099】ところで、本第1の実施形態の画像音声通
信システムは、上述したように所定のキャラクター画像
を用いて一方の話者と相手側の話者とが対話を行うよう
になっているが、以下、該映像生成ボックス2内におい
て、キャラクターデータの生成、加工、記憶を行う各装
置について、信号の流れに沿ってその構成を説明する。
【0100】本実施形態の画像音声通信装置において
は、対話に用いる送信者のキャラクター画像に係るキャ
ラクターデータは、フォーマット記憶部44に予め記憶
されている指令信号コードに対応してキャラクターデー
タ生成装置43で生成されるようになっている。このキ
ャラクターデータ生成装置43には、図2に示すように
接続コードを介して上記コントローラパッド3が接続さ
れている。そして、該コントローラパッド3に配設され
たキャラクターデータ生成用コントローラ61、ダイヤ
ルボタン62の操作によりコントロール信号9(図2参
照)がキャラクターデータ生成装置43に対して送出さ
れ、使用者による任意のキャラクターデータ作成を可能
としている。なお、詳しくは後述する。
【0101】また、上記キャラクターデータ生成装置4
3で生成される所定のキャラクター画像のデータは、キ
ャラクター画像生成装置39等を介してHMD1に伝送
され、該HMD1のモニタ画面上に当該キャラクター画
像の作成画面が映し出されるようになっている。
【0102】ところで、いま、一方の話者を送り手側話
者とし、該送り手側話者が使用する装置を送り手側装置
とすると、送り手側話者のキャラクター画像および該キ
ャラクター画像に係る各種キャラクターデータは送り手
側装置の映像生成ボックス2内のキャラクターデータ生
成装置43において生成されるようになっている。すな
わち、送り手側話者に対して相手受け手側話者のキャラ
クターデータは相手受け手側装置のキャラクターデータ
生成装置43において生成するようになっている。
【0103】図4に戻って、上記キャラクターデータ生
成装置43は、送り手側話者のキャラクター画像および
該キャラクター画像の変形に伴ういくつかのキャラクタ
ーデータを生成するようになっている。すなわち、ま
ず、使用者(送り手側話者)は、通信を行う前の準備段
階において、該キャラクターデータ生成装置43に接続
された上記コントローラパッド3におけるキャラクター
データ生成用コントローラ61、ダイヤルボタン62を
操作して、所定のキャラクター画像を任意に生成し、さ
らに、該キャラクター画像に対して所定の変形を施した
キャラクター画像を生成するようになっている。
【0104】この際、まず、使用者(送り手側話者)自
身の初期状態のキャラクター画像である基本キャラクタ
ー画像を後述する手法により生成するとともに、同使用
者の目、口等の動きに応じて表情が変化(変形)するキ
ャラクター画像に係るデータを設定するようになってい
る。このとき、該表情変化に対応したキャラクター画像
は、フォーマット記憶部44に予め設定記憶された指令
信号コードに対応するパターンの種類ほど設定するよう
になっている。そして、この表情変化に対応したキャラ
クター画像は、実際は、上記基本キャラクター画像に対
する変形量として設定されるようになっている。
【0105】なお、上記フォーマット記憶部44に記憶
されている指令信号コードについては後に詳述する。
【0106】また、本実施形態においては、上記キャラ
クター画像の生成および該キャラクター画像を変形させ
たキャラクター画像のデータ入力は、上述したようにコ
ントローラパッド3をもちいて行ったが、これに限ら
ず、たとえば、電子カメラ、スキャナ等で採取した任意
の画像データ(使用者本人の顔等の実写を含む)であっ
ても良い。
【0107】また、通信前の準備段階においては、上記
目の動きコード変換器51あるいは口の動きコード変換
器50おいて、使用者(送り手側話者)がHMD1で検
出した送り手側話者の目、口の動きに基づく表情変化の
基準値を設定するようになっている。
【0108】なお、基準値とは、当該話者の表情の変化
の程度に応じて当該指令信号コードを出力するか否かを
判定する際のしきい値を意味する。
【0109】すなわち、上述したようにHMD1には、
上記左右の視線検出器15,12およびマイク19(図
3参照)が設けられている。そして、上記左右の視線検
出器15,12で送り手側話者の目の動きを、マイク1
9で同口の動きを検出し、これらの検出結果が図4中、
口の動きコード変換器50または目の動きコード変換器
51に送出されるようになっている。なお、詳しくは後
述する。
【0110】なお、上記HMD1は、上記表情変化の基
準値を設定する際に用いる検出手段であるとともに、対
話を行う際に送り手側話者の各表情変化(目、口、頭の
動き)および音声信号を互いに同期した所定のタイミン
グで検出して送出する検出手段としての役目も果たすよ
うになっている。
【0111】上記キャラクターデータ生成装置43の出
力端は、一方で、上述したようにキャラクター画像生成
装置39に接続され、さらに該キャラクター画像生成装
置39を介してHMD1の表示部(右接眼光学系13,
16等の光学系)に接続されている。これにより、使用
者は、HMD1を装着することで上記キャラクター画像
の生成作業をモニタしながら行うことができるようにな
っている。
【0112】また、上記キャラクターデータ生成装置4
3の出力端は、他方で、キャラクターデータ記憶装置3
6に接続されている。このキャラクターデータ記憶装置
36は、該キャラクターデータ生成装置43で生成した
送り手側話者の基本キャラクター画像のデータを記憶す
ると共に、上記フォーマット記憶部44に記憶された指
令信号コードに対応する、上記基本キャラクター画像に
所定の変形を施したキャラクター画像のデータ(実際
は、該基本キャラクター画像に対する変形量のデータ)
を記憶するようになっている。
【0113】また、キャラクターデータ記憶装置36に
は上記キャラクターデータ送信器31が接続されてお
り、通信の初期段階において、上記キャラクターデータ
記憶装置36に記憶された送り手側話者の基本キャラク
ター画像、変形キャラクター画像に係るキャラクターデ
ータがキャラクターデータ送信器31より相手受け手側
装置のキャラクターデータ受信器32に向けて送信され
るようになっている。
【0114】一方、相手受け手側装置で生成された受け
手側話者の基本キャラクター画像、変形キャラクター画
像に係るキャラクターデータを受信するキャラクターデ
ータ受信器32の出力端には、該相手受け手側装置で生
成された上記各種キャラクターデータを記憶するキャラ
クターデータ記憶装置37が接続されており、通信初期
段階において相手受け手側話者の各種キャラクターデー
タを一旦記憶するようになっている。
【0115】以上が、本実施形態の画像音声通信システ
ムにおいて、通信前の準備段階あるいは通信の初期段階
で主に用いられる構成要素について説明した。次に、通
信が開始された後の対話段階に主に使用される構成要素
について説明する。
【0116】本実施形態の画像音声通信システムは、通
信が開始され実際に対話が始まると、上記HMD1によ
り送り手側話者の表情の変化を所定のタイミングで検出
し、この表情の変化を所定のコードに変換して送出する
ようになっている。以下、この表情の変化に応じて送出
される所定のコード変換器等について説明する。
【0117】上記HMD1における上記右視線検出器1
2,左視線検出器15の出力端は、目の動きコード変換
器51に接続され、該目の動きコード変換器51の出力
端はさらに目の動きコード送信器45に接続されてい
る。また、該HMD1におけるヘッドモーションセンサ
11の出力端は、頭の動きコード変換器52に接続さ
れ、該頭の動きコード変換器52の出力端はさらに頭の
動きコード送信器46に接続されている。さらに、マイ
ク19の出力端は、口の動きコード変換器50および音
声信号送信器48に接続され、上記口の動きコード変換
器50の出力端はさらに口の動きコード送信器47に接
続されている。
【0118】通信の対話時において、上記目の動きコー
ド変換器51は、上記HMD1の左右の視線検出器1
5,12で検出した視線データと上記基準値とに基づい
て、所定の条件を満たした場合に送り手側話者の目の動
きコードに変換し、目の動きコード送信器45より相手
受け手側話者に向けて送出するようになっている。
【0119】なお、頭の動きに関する基準値は予め工場
出荷時に頭の動きコード変換器52に記憶されている。
【0120】また、頭の動きコード変換器52は、HM
D1のヘッドモーションセンサ11で検出した頭の動き
データを受けて該データを送り手側話者の頭の動きコー
ドに変換し、頭の動きコード送信器46より相手受け手
側話者に送出するようになっている。
【0121】さらに、口の動きコード変換器50は、上
記HMD1のマイク19で採取した音声信号に基づい
て、所定の条件を満たした場合に送り手側話者の口の動
きコードに変換し、口の動きコード送信器47より相手
側に送出するようになっている。一方、マイク19の音
声信号は音声信号送信器48より相手受け手側話者に音
声信号として伝送される。また、受け手側話者において
は、音声信号は音声信号受信器49で受信し、HMD1
のスピーカ20で該音声を再生するようになっている。
【0122】次に、通信の対話段階において、相手側の
装置から伝送される各種キャラクターデータの受信器等
について説明する。
【0123】通信の対話段階において、目の動きコード
送信器45,頭の動きコード送信器46,口の動きコー
ド送信器47,音声信号送信器48から送信される送り
手側話者の各種データは、それぞれ、目の動きコード受
信器33,口の動きコード受信器34,頭の動きコード
受信器35,音声信号受信器49で受信するようになっ
ている。
【0124】上記目の動きコード受信器33,口の動き
コード受信器34は何れも相手受け手側装置から送出さ
れる目の動きコード,口の動きコードを受信する受信器
であり、これら目の動きコード受信器33、口の動きコ
ード受信器34と上記キャラクターデータ記憶装置37
の出力端は何れもキャラクターデータ加工装置38に接
続されている。
【0125】上記キャラクターデータ加工装置38は、
受信した受け手側話者の目の動きコード、口の動きコー
ドに基づいてキャラクターデータ記憶装置37に記憶さ
れたキャラクターデータのうち“目の動き”および“口
の動き”を加工し、該加工結果をキャラクター画像生成
装置39に対して出力するようになっている。
【0126】上記キャラクター画像生成装置39では、
上記キャラクターデータ加工装置38で加工された相手
側のキャラクターデータに基づいて最終的な相手側のキ
ャラクター画像を生成し、画像変形部41に対して出力
するようになっている。なお、詳細は後述する。
【0127】また、上記頭の動きコード受信器35は、
相手受け手側装置から送出される頭の動きコードを受信
する受信器であり、この頭の動きコード受信器35の出
力端は画像変形量演算部40を経て画像変形部41に接
続されている。上記画像変形量演算部40においては上
記相手受け手側装置からの頭の動きコードに基づいて画
像をどれだけ変形させるかを演算するようになってお
り、この演算結果に基づいて次段の画像変形部41にお
いて、上記キャラクター画像生成装置39で生成された
相手側のキャラクター画像を変形させるようになってい
る。すなわち、頭の動きコード受信器35で受信した相
手受け手側話者の頭の動きに応じてキャラクター画像生
成装置39で最終的に生成した相手側のキャラクター画
像を変形させるようになっている。なお、上記画像変形
量演算部40および画像変形部41の作用については、
後に詳述する。
【0128】上記画像変形部41の出力は座標変換部4
2に接続されており、該画像変形部41で変形処理が施
された相手側のキャラクター画像は座標変換部42で座
標変換処理が施され、モニタする側のHMD1に送出さ
れるようになっている。このとき、上記座標変換部42
における座標変換は、送り手側話者がモニタする画面に
おいては、送り手側話者の頭の動きに応じてモニタ画面
上に映し出されている相手のキャラクター画像の変換ベ
クトルが決定されるようになっている。なお、この座標
変換部42の作用については後に詳述する。
【0129】一方、音声信号受信器49は、相手受け手
側装置からの音声信号を受信する受信器であり、受信さ
れた受け手側話者の音声信号は、HMD1のスピーカ2
0に送出され、再生されるようになっている。
【0130】なお、本実施形態においては、上記マイク
19は、HMD1を装着した際に使用者の口部前方に位
置するように配設しているが、これに限らず、たとえ
ば、図6に示すようにHMD1の光学系の近傍に配設
(図中、符号19A)しても良い。これにより、HMD
1をより簡素に構成することができる。
【0131】以上、本第1の実施形態である画像音声通
信システムにおいて、各話者が使用する画像音声通信装
置の構成について説明した。
【0132】次に、本画像音声通信システムの作用につ
いて説明する。まず、具体的な作用の説明に先だって、
本画像音声通信システムを実際に使用する際の使用状況
を図5に示す。
【0133】前述したように、互いにそれぞれHMDを
装着した状態で対話を行う場合、前述したように一方の
話者のモニタ画面には他方の話者のキャラクター画像が
表示されている。すなわち、いま、一方の話者を使用者
甲、他方の話者を使用者乙とし、使用者甲のキャラクタ
ー画像を図中、作成画像II、使用者乙のキャラクター
画像を図中、作成画像Iとすると、それぞれ装着したH
MD1のモニタ画面(図中、座標面I、座標面IIで示
す)には、図示の如く、相手側話者のキャラクター画像
が表示されている。
【0134】本第1の実施形態の画像音声通信システム
においては、通信を行う前段階として、各話者がその使
用する画像音声通信装置に自身のキャラクター画像の設
定等、所定の設定を行うようになっている。以下、この
通信前段階の作用について説明する。
【0135】まず、通信前段階の作業として、(1) そ
れぞれ自身の基本となるキャラクター画像を生成する。
(2) 上記基本キャラクター画像に対して、所定の指令
信号コードに対応する表情変化(目、口の動き)を付け
た新たなキャラクター画像に関するデータ(該基本キャ
ラクター画像に対してどれだけ変形するかのデータ、以
下、変形キャラクター画像データとする)を生成する。
(3) 自身の目、口の動きを検出し、所定の指令信号コ
ードに対応する表情変化の基準値(しきい値)を設定す
る等を行うようになっている。
【0136】これらの作業について図7ないし図15を
参照して説明する。本第1の実施形態の画像音声通信シ
ステムでは、上述したように送り手側話者で生成するキ
ャラクターデータは上記映像生成ボックス2内のキャラ
クターデータ生成装置43においてフォーマット記憶部
44に記憶された専用の作成ソフトを用いて作成するよ
うになっている。
【0137】まず、使用者はHMD1を装着し、所定の
操作でキャラクターデータ作成モードに設定する。な
お、この操作は上記コントローラパッド3のキャラクタ
ーデータ生成用コントローラ61、ダイヤルボタン62
等を用いて行われる。このキャラクターデータ作成モー
ドに設定されるとキャラクターデータ生成装置43にお
いて作成ソフトが起動する。このとき、HMD1のモニ
タ画面上には図7に示すようなキャラクターデータ作成
ソフトの画面が掲示される。以下、図8,図9,図10
に示すフローチャートを参照して説明する。
【0138】まず、キャラクターデータ作成ソフトが起
動すると、キャラクター画像の基本図の作成を行う(ス
テップS1)。このとき、使用者(送り手側話者)はコ
ントローラパッド3のキャラクターデータ生成用コント
ローラ61、ダイヤルボタン62等を操作し、HMD1
のモニタ画面上に展開される図7に示すような作図画面
をモニタしながら、自身のキャラクター画像を作成す
る。
【0139】いま、使用者(送り手側話者)が自身のキ
ャラクター画像を、たとえば図11に示すような猫の顔
に設定したとする。このとき、該キャラクター画像の基
本図のキャラクターデータとしては、「顔の輪郭」を示
す大きな円1(半径、中心座標および色彩が設定され
る)と、「目」を示す円3(上記同様半径、中心座標お
よび色彩が設定される)と、「瞳」を示す円2(同、半
径、中心座標および色彩が設定される)と、「口」を示
す線(長さ、中心座標および色彩が設定される)等が設
定される。
【0140】上記キャラクター画像が完成すると次に該
キャラクター画像のキャラクターデータをキャラクター
データ記憶装置36に記憶する(ステップS2)。この
後、基本図として記憶された該キャラクター画像を所定
の条件に従い加工する(ステップS3)。以下、この加
工ルーチンについて図9に示すフローチャートおよび図
11〜図14を参照して説明する。
【0141】図11に示す猫の顔図を基本図とすると、
まず、この基本図を加工して視線を左に動かした図を作
成する(ステップS11)。具体的には、使用者はコン
トローラパッド3を用いて図12に示すように、「瞳」
を示す上記円2の中心座標データを変更し、図に示すよ
うに基本図(図11)に対して視線が左に動いた表情を
作成する。次に、上記ステップS11において加工した
図において、基本図に対して加工した量(すなわち、瞳
の中心座標の移動量)をコード“EL”と共に記憶する
(ステップS12)。
【0142】次に、上記基本図を加工して視線を右に動
かした図を作成する(ステップS13)。この場合も上
記ステップS11と同様に、使用者はコントローラパッ
ド3を用いて「瞳」を示す上記円2の中心座標データを
変更し、基本図(図11)に対して視線が右に動いた表
情を作成する。次に、上記ステップS12と同様に、上
記ステップS13において加工した加工量をコード“E
R”として記憶する(ステップS14)。
【0143】次に、上記基本図を加工して目を閉じた場
合の図を作成する(ステップS15)。具体的には、使
用者はコントローラパッド3を用いて図13に示すよう
に、「瞳」を示す上記円2と、「目」を示す円3のうち
片方の円のデータを変更して、図示の如く基本図(図1
1)に対して目を閉じた表情を作成する。次に、上記ス
テップS15において加工した図において、基本図に対
して加工した量をコード“EC”と共に記憶する(ステ
ップS16)。
【0144】次に、上記基本図を加工して口を動かした
場合、すなわち、何等かの音声を発したと考えられる場
合の図を作成する(ステップS17)。具体的には、使
用者はコントローラパッド3を用いて図14に示すよう
に、「口」を示す上記線のデータを変更して、図示の如
く基本図(図11)に対して口を動かした表情を作成す
る。次に、上記ステップS17において加工した図にお
いて、基本図に対して加工した量をコード“M”と共に
記憶し(ステップS18)、メインルーチンに戻る。
【0145】図8に戻って、次に、上記基本図に対して
加工された「目の動き」、「口の動き」に対する対応関
係を定める操作を行う(ステップS4)。
【0146】以下、この対応関係の設定操作について図
10に示すフローチャートを参照して説明する。
【0147】使用者(送り手側話者)は上記キャラクタ
ー画像の基本図の作成、基本図の加工に引き続いてHM
D1を装着する。そして、上記ステップS11〜S18
(図9参照)において「目の動き」、「口の動き」に対
応して加工した各キャラクター画像に、実際に使用者の
「目の動き」、「口の動き」を対応するべく各種検出を
行う。
【0148】まず、使用者の目の動きを検出する。すな
わち、まず、使用者が視線を左に動かした場合の視線の
動きを検出する(ステップS21)。ここで、この視線
検出機構に関して図15および図16〜図19を参照し
て説明する。
【0149】図15は、上記視線検出機構とその周辺部
を示した説明図である。なお、上記図3,図4に示した
構成要素と同様の構成要素には同一の符号を付与して示
している。
【0150】上記左右の接眼光学系13,16はハーフ
ミラー面26を有するプリズムを形成しており、使用者
がHMD1を装着した際に使用者の眼球28の前面に配
置されるようになっている。また、上記接眼光学系1
3,16の底面は符号27で示すように凹面ミラーとな
っている。さらに、上記接眼光学系13,16のさらに
前方には、上記眼球28に向けて赤外線を照射する赤外
線光源22と、眼球28で反射した該赤外線光を検出す
る左右の視線検出器12,15とが配設されている。
【0151】上記左右の視線検出器12,15の何れも
CCD29、検出回路30を備え、上記赤外線光源22
から照射された赤外線光で照らされた眼球面、すなわ
ち、黒目(瞳孔位置)を検出するようになっている。こ
のとき、上記眼球面の像は凹面ミラー27で拡大されて
CCD29に入射するようになっており、この後、該C
CD29に入射した眼球28の像は次段の検出回路30
に入力される。そして、この検出回路30において使用
者の視線方向とまばたきが検出されるようになってい
る。
【0152】なお、上記CCD29,検出回路30によ
る検出精度は高いものである必要はなく、水平方向の分
解能は5°位が確保できるようなものでよい。
【0153】さて、上記検出した使用者の視線方向の動
き、まばたき(目を閉じたことを意味する)と、上記ス
テップS11〜ステップS16で加工・記憶した各キャ
ラクター画像との対応は、本実施形態の画像音声通信シ
ステムでは以下に示すように行う。
【0154】まず、上記検出回路30で検知されるCC
D29の暗電流を基準として、このときの電圧0mVを
基準電位値とする。そして、たとえば、使用者の瞳の位
置がほぼ中心に位置しているときには上記基準電位に対
して+20mVの電圧信号が出力されるように設定する
(図16参照)。そして、この+20mVの電圧信号を
境に、瞳が左に移動したとき、すなわち視線が左に移動
したときには基準電位に対して+30mVの電圧信号
が、右に移動したときは同+10mVの電圧信号がそれ
ぞれ出力されるように設定する(図17,図18参
照)。また、まばたきをして目を閉じたときには、上記
基準電位0mVが出力されるように設定する(図19参
照)。
【0155】図10に戻って、上記ステップS21で、
使用者が視線を左に動かした場合の視線の動きを検出す
ると、このとき、上述したように上記検出回路30から
は基準電位に対して+30mVの電圧信号が出力される
(図18参照、ステップS22)。そして、図示はしな
いがこのときの電圧信号値+30mVが上記図12のよ
うに視線を左に動かした図に対応するコード“EL”の
基準値として映像生成ボックス2内の目の動きコード変
換器51に記憶される(ステップS23)。
【0156】次に、使用者は視線を右に動かし、上記視
線検出器12,15でこの視線の動きを検出すると(ス
テップS24)、このとき、上述したように上記検出回
路30からは基準電位に対して+10mVの電圧信号が
出力される(図17参照、ステップS25)。そして、
上記同様にこのときの電圧信号値+10mVが視線を右
に動かした図に対応するコード“ER”の基準値として
映像生成ボックス2内の目の動きコード変換器51に記
憶される(ステップS26)。
【0157】次に、使用者は目を閉じ、上記視線検出器
12,15でこの目が閉じられたことを検出すると(ス
テップS27)、このとき、上述したように上記検出回
路30からは基準電位に対して+0mVの電圧信号が出
力される(図19参照、ステップS28)。そして、上
記同様にこのときの電圧信号値+0mVが上記図13に
示す如く目を閉じたした図に対応するコード“EC”の
基準値として映像生成ボックス2内の目の動きコード変
換器51に記憶される(ステップS29)。
【0158】次に、使用者の口の動きを検出する。すな
わち、使用者が音声を発したか否かの検出を行う(ステ
ップS30)。ここで、この音声検出機構に関して図2
0を参照して説明する。
【0159】図20は、上記音声検出機構とその周辺部
を示した説明図である。なお、上記図3,図4に示した
構成要素と同様の構成要素には同一の符号を付与して示
している。また、図中、符号301,302は、それぞ
れ送り手側装置,受け手側装置を示しており、その構成
要素は同等である。
【0160】送り手側話者の装置301において、通信
前の所定の初期設定を行う準備段階の際、該マイク19
からの音声信号は上記口の動きコード変換器50に対し
て送出されるようになっており、一方、通信対話段階に
おいては該マイク19で採取した音声信号は音声信号送
信器48に対して送出され受け手側の装置302に対し
て伝送される一方、会話中の使用者の口の動きが検出さ
れ映像生成ボックス2の口の動きコード変換器50に対
して該情報が送出されるようになっている。
【0161】上記口の動きコード変換器50は、図に示
すように、基準音量レベル記憶部50Aと、口の動きコ
ード生成部50Bと、上記基準音量レベル記憶部50A
のオン・オフを制御するスイッチ50Cとで構成されて
いる。上記基準音量レベル記憶部50Aは、スイッチ5
0Cのオン時のみ動作するようになっており、該スイッ
チ50Cは、通信前の準備段階であって、基準音量レベ
ルを設定するときのみにオンするようになっている。
【0162】図10に戻って、基準音量レベルを設定す
る際には、上記スイッチ50Cがオンしており、使用者
(送り手側話者)が音声を発すると(ステップS3
0)、該音声の音量がコード“M”の基準値として該基
準音量レベル記憶部50A(音声検出器)に記憶され
(ステップS31)、メインルーチンにリターンする。
【0163】図8に戻って、上記ステップS4における
基準値の設定が終了すると、送り手側話者は、基本キャ
ラクター画像等を再度確認し(ステップS5)、必要な
らば上記ステップS1〜ステップS4までの何れかある
いは全てを再度繰り返して所望のキャラクター画像、変
形量が得られるまで調整する。
【0164】以上で、本第1の実施形態の画像音声通信
システムにおける、通信前段階の作用、すなわち、送り
手側話者のキャラクター画像等のキャラクターデータの
生成過程について述べた。
【0165】次に、通信が開始された以降の作用につい
て説明する。
【0166】本第1の実施形態の画像音声通信システム
においては、通信が開始されると、まず、所定のプロト
コルにより初期交渉が行われ、引き続き、初期段階とし
て以下に示すデータ転送が行われる。
【0167】すなわち、まず、送り手側装置より、送り
手側話者の基本キャラクター画像データが受け手側装置
に転送され、該受け手側装置の記憶部に記憶する。ま
た、送り手側装置より、所定の指令信号コードに対応す
る表情変化を付けた変形キャラクター画像データが受け
手側装置に転送され、該受け手側装置の記憶部に記憶す
る。さらに上記初期段階のデータ転送が終了すると、実
際の対話段階に移行し、以下の作業がなされる。
【0168】まず、送り手側装置においては、送り手側
話者の目、口の動きを所定のタイミングで検出する。次
に、送り手側話者の目、口の動きの検出結果と上記しき
い値に基づいて所定の指令信号コードを逐次、受け手側
装置に伝送する。また、送り手側話者の頭の動きを所定
のタイミングで検出し、この検出結果を逐次、受け手側
装置に伝送する。なお、この頭の動きのコードの伝送
は、上記所定の指令信号コードの伝送に同期している。
さらに、送り手側話者の音声信号を所定のタイミングで
採取し、この音声信号を逐次、受け手側装置に伝送す
る。なお、この音声信号の伝送は、上記(2)における所
定の指令信号コードの伝送に同期している。
【0169】一方、受け手側装置においては、送り手側
装置から逐次(実質的にリアルタイムに)送られてくる
送り手側話者の目、口の動きに関する所定の指令信号コ
ードを受けとる。また、送り手側装置から逐次(実質的
にリアルタイムに)送られてくる送り手側話者の頭の動
きに関するコードを受けとる。さらに、送り手側装置か
ら逐次(実質的にリアルタイムに)送られてくる送り手
側話者の音声信号を受けとる。そして、受け取った指令
信号コードに対応する目、口の動きのキャラクター画像
データあるいは変形キャラクター画像データを記憶部よ
り検索し読み出す。さらに、読み出したキャラクター画
像データあるいは変形キャラクター画像データと、受け
取った頭の動きに関するコードに基づいて、送り手側話
者のキャラクター画像を実質的にリアルタイムに表示部
に表示する。さらに、受け取った音声信号に基づいて、
送り手側話者の音声をリアルタイムに再生する。
【0170】以下、この通信段階における本第1の実施
形態の画像音声通信システムの作用について図21ない
し図32を参照して説明する。なお、これらの図におい
ては、図5に示すように一方の使用者を甲、他方を乙と
し、それぞれ使用者甲,乙が装着する装置を甲側の装
置、乙側の装置とする。
【0171】図21ないし図23は、本実施形態の画像
音声通信システムにおいて通信が開始された後の作用を
示したフローチャートである。図21は、通信が開始さ
れた後の甲側の装置における通信初期段階の作用を、図
22は、甲側の装置における対話(送信)段階の作用
を、図23は、乙側の装置における対話(受信)段階の
作用をそれぞれ示している。
【0172】図21に示すように、話者甲が他の任意の
話者乙に対して通信を開始しようとする際には、まず、
話者甲はHMD1を装着し、通話スイッチ24を操作し
てオフフックし、通常の電話回線を使用した通話と同様
にダイヤルを開始する(ステップS41)。なお、この
ダイヤル操作は、本実施形態においては、上記コントロ
ーラパッド3に配設されたダイヤルボタン62によって
行うようになっている。
【0173】この後、回線が接続され、相手側話者乙と
の通話が可能となると、すなわち乙側の装置の受信準備
ができると(ステップS42)、まず、相手側話者を識
別するための、たとえばIDNo.等を選択し、相手側
話者を識別する(ステップS43)。この操作は、コン
トローラパッド3により行われる。
【0174】この後、甲側装置において上記説明した過
程により生成された各種キャラクターデータ、基本キャ
ラクター画像のデータ、キャラクター画像加工量(変形
量)に係るデータがキャラクターデータ送信器31(図
4参照)より話者乙に対して送信される。すなわち、ま
ず、甲側装置より、話者乙の基本キャラクター画像デー
タが乙側装置に対して送信される(ステップS44)。
次に、甲側装置より、所定の指令信号コードに対応する
表情変化を付けたキャラクター画像データの加工量デー
タが乙側装置に送信される(ステップS45)。
【0175】次に、乙側装置より送信される、話者乙の
基本キャラクター画像データをキャラクターデータ受信
器32で受信し(ステップS46)、該データをキャラ
クターデータ記憶装置37に記憶する(ステップS4
7)。次に、、乙側装置より送信される、話者乙の所定
の指令信号コードに対応する表情変化を付けたキャラク
ター画像データの加工量データを同様にキャラクターデ
ータ受信器32で受信し(ステップS48)、該データ
をキャラクターデータ記憶装置37に記憶する(ステッ
プS49)。
【0176】次に、話者甲の頭の位置をリセットする
(ステップS50)。これは、話者甲が装着したHMD
1におけるヘッドモーションセンサ11の位置をリセッ
トする。なお、このリセット動作は、上記ステップS4
9までの動作が完了した段階で自動的に行われても良い
し、使用者が図示しないスイッチ等により行っても良
い。
【0177】このように初期段階の各種キャラクターデ
ータの転送が終了すると、実際の対話段階に移行する。
図22に示すように、まず、甲側装置で、話者甲自身の
音声を検出する(ステップS51)。この音声検出は、
マイク19で採取した話者甲の音声を音声信号送信器4
8で検出し、音声を検出すると同音声信号送信器48よ
り音声信号を送信する(ステップS52)。
【0178】上記マイク19で採取した話者甲の音声
は、同時に上記口の動きコード生成部50B(図20参
照)に入力され、予め基準音量レベル記憶部50Aで設
定された基準音量レベルに達したか否かを判定し(ステ
ップS53)、基準値以上であれば、口の動きコード変
換器50内の該規格化音量レベル変換部50Bで口の動
きを上記指令信号コードに対応したコード“M”に変換
し(ステップS54)、口の動きコード送信器47より
乙側装置に送信して(ステップS55)、ステップS5
6に移行する。
【0179】上記ステップS51において、話者甲の音
声が検出されないとき、また、上記ステップS53にお
いて、検出された音声が上記基準値に満たない場合は、
ともにステップS56に移行する。
【0180】上記ステップS56においては、話者甲の
目の動きを検出する。これは、上記右視線検出器12,
左視線検出器15により話者甲の視線を検出し、該視線
の動きが予め上記ステップS23,S26,S29(図
10参照)で設定した基準値を満たすときには、上記目
の動きコード変換器51(図4参照)で、所定のコード
(“EL”,“ER”,“EC”)に変換し(ステップ
S57)、上記目の動きコード送信器45より乙側装置
に送信して(ステップS58)、ステップS59に移行
する。
【0181】上記ステップS56において、話者甲の目
の動きが検出されないとき、すなわち視線の動きが上記
基準値を満たさないときには、ステップS59に移行す
る。
【0182】上記ステップS59においては、話者甲の
頭の動きを検出する。これは、HMD1のヘッドモーシ
ョンセンサ11で話者甲の頭の動きを検出し、この頭の
動きを検出すると、頭の動きコード変換器52において
所定のコードに変換し(ステップS60)、頭の動きコ
ード送信器46より乙側装置に送信する(ステップS6
1)。
【0183】ここで、上記頭の動きの検出およびこの動
きの検出がなされた際の処理について図24,図25を
参照して説明する。
【0184】図24は、本実施形態の画像音声通信シス
テムにおいて、使用者がHMD1を装着した様子を正面
からみた図であり、図25は、同様に使用者がHMD1
を装着した様子を一側面からみた図である。
【0185】使用者がHMD1を装着した状態で、該使
用者の頭の動きとしては、図24に示すようなロール方
向、ヨー方向、図25に示すようなピッチ方向の動きが
考えられる。本実施形態の画像音声通信システムにおい
ては、このような使用者の頭の動きを上記ヘッドモーシ
ョンセンサ11で検出するようになっている。上述した
ように、対話が開始されると初期段階でヘッドモーショ
ンセンサ11の位置がリセットされるようになっている
(ステップS50、図21参照)。そして、このリセッ
トされた基準位置よりヘッドモーションセンサ11がど
れだけ変位したかを計測することで、使用者の頭の動き
を捉えることができる。
【0186】本実施形態においては、対話時において、
上記ヘッドモーションセンサ11の変位を常時検出し、
この検出結果に基づいて頭の動きコード変換器52で所
定のコードを生成し、上記目、口の動きのコード(指令
信号コードに対応したコード)の伝送に同期して受け手
側話者に対して送出するようになっている。
【0187】上記頭の動きに係る所定のコードは、本実
施形態においては、上記ロール方向、ヨー方向、ピッチ
方向の動きに対応した3種類のコードが用意されてい
る。そして、ヘッドモーションセンサ11の検出結果を
受けて上記頭の動きコード変換器52において、使用者
の頭がこれらロール方向、ヨー方向、ピッチ方向の何れ
かあるいは複合された動きをしたと判断すると、これら
の動きに対応した上記3種類のコードのうち何れかある
いは複合的に変換し、頭の動きコード送信器46に送出
するようになっている。
【0188】以上、図21,図22を参照して、一方の
話者である甲側の送信作用について説明したが、次に、
対話段階において甲側からの送信信号を受信する乙側の
受信作用について図23を参照して説明する。
【0189】図23は、乙側の装置における対話受信段
階の作用を示したフローチャートである。
【0190】対話が開始されると、乙側装置は甲側装置
からの音声信号の受信の有無を判定する(ステップS7
1)。これは、甲側装置301(図20参照)の音声信
号送信器48から何等かの音声信号が送信されると乙側
装置302の音声信号受信器49で受信するようになっ
ており、該ステップS71で音声信号を受信すると、ス
ピーカ20で甲側話者の音声を再生する(ステップS7
2)。
【0191】この後、甲側装置の口の動きコード送信器
47から送出された所定の口の動きコードを乙側装置の
口の動きコード受信器34(図4,図20参照)で受信
したか否かを判定し(ステップS73)、該コードが受
信されたならば、キャラクターデータ加工装置38(図
4参照)において、上述したように該コードに応じてキ
ャラクター画像のデータを加工し(ステップS74)、
ステップS75に移行する。
【0192】また、上記ステップS71において、甲側
装置より何等音声を受信しない場合、ステップS73に
おいて、口の動きコードを受信しない場合(話者甲に係
る何等かの音声は受信するが、音量レベルが所定の基準
値より低く甲側装置において口の動きコードが生成され
ない場合)は、ともにステップS75に移行する。
【0193】ステップS75においては、乙側装置にお
ける動きコード受信器33が、甲側装置における目の動
きコード送信器45から送出される所定の目の動きコー
ドを受信したか否かを判定する。ここで、該コードを受
信すると、キャラクターデータ加工装置38(図4参
照)において、上述したように該コードに応じてキャラ
クター画像のデータを加工し(ステップS76)、ステ
ップS77に移行する。また、上記ステップS75にお
いて、甲側装置からの目の動きコードを受信しない場合
は、ステップS77に移行する。
【0194】ステップS77においては、乙側装置は、
上述したようにキャラクター画像生成装置39において
甲側話者のキャラクター画像を生成する。このとき、話
者乙のHMD1におけるモニタ画面には、たとえば、図
11〜図14に示すような話者甲のキャラクター画像
が、当該話者甲の目、口の動きに応じて表情を変化させ
て表示されている。また、このキャラクター画像は、上
述したように、話者甲の目、口の動きに応じて実質的に
リアルタイムに変化する。
【0195】この後、ステップS78において、乙側装
置における頭の動きコード受信器35が、甲側装置にお
ける頭の動きコード送信器46から送信される所定の頭
の動きコードを受信したか否かを判定する。この頭の動
きコードは、上述したように、ロール方向、ヨー方向、
ピッチ方向の動きに対応した3種類のコードである。
【0196】このステップS78で少なくとも上記何れ
かのコードを受信すると、乙側装置は、画像変形量演算
部40において受信したコードに基づいて画像をどれだ
け変形させるかを演算する。そして、この演算結果に基
づいて次段の画像変形部41において、上記ステップS
77においてキャラクター画像生成装置39で生成され
た話者甲のキャラクター画像を変形させ(ステップS7
9)、この後ステップS80に移行する。なお、上記ス
テップS78において、何れのコードも受信しない場合
は、ステップS80に移行する。
【0197】すなわち、乙側装置の頭の動きコード受信
器35で受信した話者甲の頭の動きに応じてキャラクタ
ー画像生成装置39で最終的に生成した相手側(甲)の
キャラクター画像を変形させる。
【0198】ここで、この画像変形の具体例について説
明する。図26ないし図28は、本第1の実施形態の画
像音声通信システムにおける乙側装置が、甲側装置より
頭の動きコードを受信した際に行う画像変形の例を示し
た図であり、図26は、話者甲のロール方向の頭の動き
に対応したコードを受信した際の画像変形の一例、図2
7は、話者甲のピッチ方向の頭の動きに対応したコード
を受信した際の画像変形の一例、図28は、話者甲のヨ
ー方向の頭の動きに対応したコードを受信した際の画像
変形の一例をそれぞれ示している。なお、話者甲のキャ
ラクター画像は、上記図14に示したキャラクター画像
を例にとって示している。
【0199】乙側装置が話者甲のロール方向の頭の動き
に対応したコードを受信すると、話者乙のHMD1のモ
ニタ画面上には、図26に示すように、キャラクター画
像の所定の一点(図に示す例においては、顔の最下点)
を中心に座標を回転(ロールの+方向、−方向に応じた
回転)させたキャラクター画像が表示される。なお、本
図においては、ロール+方向のコードを受信した例を示
している。
【0200】乙側装置が話者甲のピッチ方向の頭の動き
に対応したコードを受信すると、話者乙のHMD1のモ
ニタ画面上には、図27に示すように、キャラクター画
像に図示の如く周知の台形歪処理(縦方向歪)を施した
キャラクター画像が表示される。なお、本図において
は、ピッチ+方向のコードを受信した例を示している。
【0201】乙側装置が話者甲のヨー方向の頭の動きに
対応したコードを受信すると、話者乙のHMD1のモニ
タ画面上には、図28に示すように上記同様キャラクタ
ー画像に図示の如く台形歪処理(横方向歪)を施したキ
ャラクター画像が表示される。なお、本図においては、
ヨー+方向のコードを受信した例を示している。
【0202】また、乙側装置が上記3種類の頭の動きの
コードを所定時間内に複数受信すると、乙側装置は上記
図26ないし図28に示した画像変形を複合してHMD
1のモニタ画面上に表示するようになっている。
【0203】図23に戻って、次に、乙側装置は、話者
乙自身の頭の動きを上記ヘッドモーションセンサ11で
検出する(ステップS80)。そして、話者乙の頭の動
きが検出されると、この検出結果に応じて上記座標変換
部42で話者乙自身のモニタ画面に映し出された話者甲
のキャラクター画像の座標変換を行う(ステップS8
1)。
【0204】ここで、この座標変換について説明する。
【0205】上記座標変換部42においては、話者乙が
モニタする画面において、話者乙の頭の動きに応じてモ
ニタ画面上に映し出されている話者甲のキャラクター画
像の変換ベクトルが決定される。本実施形態において
は、上記ステップS50における甲側の頭の位置(ヘッ
ドモーションセンサ11の位置)のリセット動作と同様
に話者乙の頭の位置もリセットされる。
【0206】このときの状態を標準位置とすると、話者
乙の頭の位置がこの標準位置にあるときは、たとえば図
29に示すように話者甲のキャラクター画像はモニタ画
面のほぼ中央に位置する。
【0207】いま、話者乙が自身の頭を上記標準位置よ
りヨー(+)方向(図24に示すように、話者乙の左方
向への回転を(+)方向とする)に移動したとすると、
モニタ画面上に表示される話者甲のキャラクター画像は
図30に示すように向かって右方向に移動して表示され
る。
【0208】また、同様に、話者乙が頭を上記標準位置
よりピッチ(+)方向(図25に示すように、話者乙の
下方向への回転を(+)方向とする)に移動したとする
と、モニタ画面上に表示される話者甲のキャラクター画
像は図31に示すように上方向に移動して表示される。
【0209】さらに、話者乙が頭を上記標準位置よりロ
ール(+)方向(図24に示すように、話者乙の左方向
への回転を(+)方向とする)に移動したとすると、モ
ニタ画面上に表示される話者甲のキャラクター画像は図
32に示すように向かって時計回りに回転して表示され
る。
【0210】以上のように、話者乙のHMD1のモニタ
画面には、甲側装置から送出される上記各データに基づ
いて加工、変形、変換が施された話者甲のキャラクター
画像が表示される(ステップS82)。
【0211】このような、本第1の実施形態の画像音声
通信システムによると、以下に示す如く効果を奏する。
【0212】(1) 自分の顔とは無関係なキャラクター画
像で対話を楽しむことができるテレビ電話システムを提
供できる。すなわち、上記キャラクター画像は、任意に
作成したり、所定のものより選択して使用できる。
【0213】(2) 簡単な構成の装置で難しい手間もかか
らず、使用者の顔の動きや表情の変化を実質的にリアル
タイムに相手側に伝達することができるテレビ電話シス
テムを提供できる。すなわち、使用者の顔の動きや表情
の変化を示す情報は、簡素なデータでよく、高速に送受
信することができる。
【0214】(3) 使用者は特別な意識を持つことなく対
話を行うことができるテレビ電話システムを提供でき
る。すなわち、HMDを装着するだけで良い。
【0215】(4) 使用者は所定姿勢を強制されることな
く対話を行うことができるテレビ電話システムを提供で
きる。すなわち、特別なディスプレイやカメラに対峙す
ることなく対話できる。
【0216】(5) 通信開始前に面倒な準備をすることな
く、家庭においても容易に使用することができるテレビ
電話システムを提供できる。すなわち、表情検出のため
のマーカーを顔に張り付けることなく対話を開始でき
る。
【0217】次に、本発明の第2の実施形態の画像音声
通信システムについて説明する。本第2の実施形態の基
本的な構成、作用は上記第1の実施形態と同様であり、
ここでは差異のみの言及にとどめ同一部分の説明は省略
する。
【0218】上記第1の実施形態の画像音声通信システ
ムにおいては、対話段階において一方の話者甲がモニタ
する他方の話者乙の像は、当該話者乙が乙側装置で設定
した話者乙のキャラクタ画像であるが、この第2の実施
形態の画像音声通信システムにおいて話者甲がモニタす
る話者乙の像は、予め甲側装置で任意に設定あるいは記
憶された所定のキャラクタ画像を使用することを特徴と
する。
【0219】すなわち、話者甲が自身のHMD1のモニ
タ上で見る話者乙のキャラクター画像は、話者甲が予め
設定あるいは記憶されたキャラクター画像である。この
とき、当該乙のキャラクター画像は、乙固有のキャラク
ター画像として予め話者甲が甲側装置において設定した
ものを使用してもよいし、あるいは不特定のキャラクタ
ー画像を甲側が任意に選択して使用しても良い。
【0220】また、対話中、話者甲が見る話者乙のキャ
ラクター画像は、任意に切換えて使用されても良い。
【0221】さらに、通信開始の際、予め設定されたI
D番号等で互いが認識できるようにすれば、該ID番号
に対応した相手側のキャラクター画像を受け手側で選択
することもできる。
【0222】このような、第2の実施形態の画像音声通
信システムによると、第1の実施形態に係る上記(2) な
いし(5)項で示す効果に加え、以下に示す如く効果を奏
する。
【0223】対話相手のキャラクタ像を受け手側におい
て任意に設定あるいは切換えることができ、楽しい対話
を実現することができる。
【0224】
【発明の効果】以上説明したように本発明によれば、簡
単で安価な装置を用い、使用者に手間をかけることな
く、話者の顔の動きや表情をリアルタイムに伝送する画
像音声通信システムおよびテレビ電話送受信方法を提供
できる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態である画像音声通信シ
ステムにおいて用いられる画像音声通信装置の主要構成
を示したブロック図である。
【図2】本発明の第1の実施形態である画像音声通信シ
ステムの主要構成を示したシステム図である。
【図3】上記第1の実施形態の画像音声通信システムに
おいて、HMDを使用者が装着した際の様子を一側方よ
りみた側面図である。
【図4】上記第1の実施形態の画像音声通信システムに
おいて、HMD,映像生成ボックス,コントローラパッ
ドの接続対応と、これら各部の電気回路的な構成を詳し
く示したブロック構成図である。
【図5】上記第1の実施形態の画像音声通信システムを
実際に使用する使用者の状況を示した俯瞰図である。
【図6】上記第1の実施形態の画像音声通信システムに
おいて、HMDに設けられるマイクの変形例を示した要
部外観斜視図である。
【図7】上記第1の実施形態の画像音声通信システムに
おいて、所定キャラクター画像生成ソフトを用いた際の
HMDモニタ画面の一例を示した説明図である。
【図8】上記第1の実施形態の画像音声通信システムに
おいて、送り手側話者の基本キャラクター画像のデータ
および該キャラクター画像に関連する各種データを生成
する作業を示すフローチャートである。
【図9】上記第1の実施形態の画像音声通信システムに
おいて、送り手側話者の基本キャラクター画像に所定の
加工を施すとともに、該加工に係る所定コードを生成す
る作業を示すフローチャートである。
【図10】上記第1の実施形態の画像音声通信システム
において、送り手側話者の基本キャラクター画像に施さ
れた所定加工に係る所定コードの送信基準となる基準値
の設定作業を示すフローチャートである。
【図11】上記第1の実施形態の画像音声通信システム
において、送り手側話者の基本キャラクター画像の一例
を示した図である。
【図12】上記第1の実施形態の画像音声通信システム
において、送り手側話者の基本キャラクター画像を加工
して生成された、視線を左に動かしたキャラクター画像
の一例を示した図である。
【図13】上記第1の実施形態の画像音声通信システム
において、送り手側話者の基本キャラクター画像を加工
して生成された、目を閉じたキャラクター画像の一例を
示した図である。
【図14】上記第1の実施形態の画像音声通信システム
において、送り手側話者の基本キャラクター画像を加工
して生成された、口を開けたキャラクター画像の一例を
示した図である。
【図15】上記第1の実施形態の画像音声通信システム
における、視線検出機構とその周辺部を示した説明図で
ある。
【図16】上記第1の実施形態の画像音声通信システム
において、上記図15に示す視線検出機構で検出する視
線に応じて生じる電位と、該電位に対応して設定される
視線位置(基準位置)を説明した図である。
【図17】上記第1の実施形態の画像音声通信システム
において、上記図15に示す視線検出機構で検出する視
線に応じて生じる電位と、該電位に対応して設定される
視線位置(右に移動)を説明した図である。
【図18】上記第1の実施形態の画像音声通信システム
において、上記図15に示す視線検出機構で検出する視
線に応じて生じる電位と、該電位に対応して設定される
視線位置(左に移動)を説明した図である。
【図19】上記第1の実施形態の画像音声通信システム
において、上記図15に示す視線検出機構で検出する視
線に応じて生じる電位と、該電位に対応して設定される
視線位置(目を閉じる)を説明した図である。
【図20】上記第1の実施形態の画像音声通信システム
における音声検出機構とその周辺部を示した説明図であ
る。
【図21】上記第1の実施形態の画像音声通信システム
において、通信開始後における、一方の話者甲の通信初
期段階の作用を示したフローチャートである。
【図22】上記第1の実施形態の画像音声通信システム
において、通信開始後の対話段階における、一方の話者
甲の送信作用を示したフローチャートである。
【図23】上記第1の実施形態の画像音声通信システム
において、通信開始後の対話段階における、他方の話者
乙の作用を示したフローチャートである。
【図24】上記第1の実施形態の画像音声通信システム
において、使用者がHMDを装着した様子を正面からみ
た図である。
【図25】上記第1の実施形態の画像音声通信システム
において、使用者がHMDを装着した様子を一側方から
みた図である。
【図26】上記第1の実施形態の画像音声通信システム
における乙側装置が、甲側装置より頭の動きコードを受
信した際に行う画像変形の例を示し、話者甲のロール方
向の頭の動きに対応したコードを受信した際の画像変形
の一例を示した図である。
【図27】上記第1の実施形態の画像音声通信システム
における乙側装置が、甲側装置より頭の動きコードを受
信した際に行う画像変形の例を示し、話者甲のピッチ方
向の頭の動きに対応したコードを受信した際の画像変形
の一例を示した図である。
【図28】上記第1の実施形態の画像音声通信システム
における乙側装置が、甲側装置より頭の動きコードを受
信した際に行う画像変形の例を示し、話者甲のヨー方向
の頭の動きに対応したコードを受信した際の画像変形の
一例を示した図である。
【図29】上記第1の実施形態の画像音声通信システム
における座標変換に係る説明図であって、話者乙の頭の
位置が標準位置にあるときの、話者乙のモニタ画面上に
表示される話者甲のキャラクター画像の表示例を示した
図である。
【図30】上記第1の実施形態の画像音声通信システム
における座標変換に係る説明図であって、話者乙が自身
の頭を標準位置よりヨー方向に移動したときの、話者乙
のモニタ画面上に表示される話者甲のキャラクター画像
の表示例を示した図である。
【図31】上記第1の実施形態の画像音声通信システム
における座標変換に係る説明図であって、話者乙が自身
の頭を標準位置よりピッチ方向に移動したときの、話者
乙のモニタ画面上に表示される話者甲のキャラクター画
像の表示例を示した図である。
【図32】上記第1の実施形態の画像音声通信システム
における座標変換に係る説明図であって、話者乙が自身
の頭を標準位置よりロール方向に移動したときの、話者
乙のモニタ画面上に表示される話者甲のキャラクター画
像の表示例を示した図である。
【符号の説明】
1…HMD 2…映像生成ボックス 3…コントローラパッド 4…外部装置 5…電話回線 11…ヘッドモーションセンサ 12、15…視線検出器 13、16…接眼光学系 14、17…LCD 19…マイク 20…スピーカ 31…キャラクターデータ送信器 32…キャラクターデータ受信器 33…目の動きコード受信器 34…口の動きコード受信器 35…頭の動きコード受信器 36…キャラクターデータ記憶装置(送信側) 37…キャラクターデータ記憶装置(受信側) 38…キャラクターデータ加工装置 39…キャラクター画像生成装置 40…画像変形量演算部 41…画像変形部 42…座標変換部 43…キャラクターデータ生成装置 44…フォーマット記憶部 45…目の動きコード送信器 46…頭の動きコード送信器 47…口の動きコード送信器 48…音声信号送信器 49…音声信号受信器 50…口の動きコード変換器 51…目の動きコード変換器 52…頭の動きコード変換器 100…キャラクター画像生成手段 101…キャラクターデータ入力手段 102…第1の変換手段 103…表示手段 104…第1のキャラクターデータ記憶手段 105…表情検出手段 106…データ送信手段 107…第1の選択手段 108…表情コード変換手段 111…データ受信手段 112…第2の選択手段 113…第2のキャラクターデータ記憶手段 114…キャラクターデータ加工手段 115…第2の変換手段 116…表示手段 117…画像変形手段 118…音声再生手段

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】画像および音声の通信に適合する画像表示
    手段および音声出力手段が当該通信に係る少なくとも受
    信側に備えられた画像音声通信システムであって、 前記画像表示手段による表示に適用するキャラクター画
    像を任意に設定可能なキャラクター画像設定手段と、 通信相手から当該キャラクター画像に対して変形を与え
    るための指令信号を受信する変形指令受信手段と、 前記指令信号に応じて上記キャラクター画像に変形を施
    すためのキャラクター変形手段と、 前記キャラクター変形手段によって変形が施されたキャ
    ラクター画像を前記表示手段に供給して表示せしめるた
    めの手段と、 を具備したことを特徴とする画像音声通信システム。
  2. 【請求項2】前記キャラクター画像設定手段は、当該通
    信における送信側において任意に自らの側を表わすキャ
    ラクター画像を設定し、該設定したキャラクター画像を
    受信側に伝送して前記画像表示手段による表示に適用す
    るキャラクター画像として提供するように上記送信側に
    設けられたものであることを特徴とする請求項1記載の
    画像音声通信システム。
  3. 【請求項3】キャラクター画像と指令信号のコードとこ
    れに対応する当該キャラクター画像の変形の程度との対
    応関係を表わす第1の情報を会話の開始に先行して伝送
    し、会話中は、実質的に上記指令信号のコードのみから
    なる第2の情報をリアルタイムで伝送することを特徴と
    する請求項2記載の画像音声通信システム。
  4. 【請求項4】前記第1の情報におけるキャラクター画像
    と指令信号のコードとこれに対応する当該キャラクター
    画像の変形の程度との対応関係を通信者が任意に決定す
    るキャラクター画像変形量決定手段と、 前記指令信号の送信実行の条件を通信者各々が任意に決
    定する送信条件決定手段と、 を具備したことを特徴とする請求項3記載の画像音声通
    信システム。
  5. 【請求項5】前記キャラクター画像設定手段は、通信者
    各々が任意に通信相手とキャラクター画像との対応付け
    を行うようになされ、 通信実行に際して、通信相手から伝送される信号によっ
    て通信相手を認識し、前記キャラクター画像設定手段に
    よって設定された該通信相手とキャラクター画像との対
    応付けの情報に基づいて当該通信相手に対応つけたキャ
    ラクター画像を前記画像表示手段による表示に適用する
    表示キャラクター選択手段を更に備えたことを特徴とす
    る請求項1記載の画像音声通信システム。
  6. 【請求項6】前記画像表示手段、音声出力手段、および
    音声入力手段は頭部装着型ディスプレイ装置として構成
    されてなるものであることを特徴とする請求項1記載の
    画像音声通信システム。
  7. 【請求項7】前記頭部装着型ディスプレイ装置に配置さ
    れ、これら頭部装着型ディスプレイ装置を用いる当該画
    像音声通信システムにおける通信者の視線を検出するた
    めの視線検出器、頭部の動きを検出するためのヘッドモ
    ーションセンサ、発生された音声を検出するための音声
    検出手段と、 前記視線検出器、ヘッドモーションセンサ、音声検出手
    段の検出出力に応じて前記指令信号を送信する送信手段
    と、 を具備したこと特徴とする請求項1記載の画像音声通信
    システム。
  8. 【請求項8】当該通信者が自己に対応するものとしての
    キャラクターを動かすための制御、および相手側の者に
    対応するものとしてのキャラクターを実空間上に固定し
    ているように映出する映出位置の制御の双方の制御は前
    記ヘッドモーションセンサの出力信号に依拠して行われ
    るように構成されたことを特徴とする請求項7記載の画
    像音声通信システム。
  9. 【請求項9】前記所定のキャラクター画像は複数種の図
    形を組み合わせたものであり、キャラクターデータは各
    図形を指定するコードと各図形の位置関係を表わす座標
    データとを含んで構成され、 前記キャラクター変形手段が変形したキャラクターデー
    タを所定の変換フォーマットに基づいて前記表示手段で
    表示すべき画像信号に変換する第1の変換手段を有する
    ことを特徴とする請求項1記載の画像音声通信システ
    ム。
  10. 【請求項10】画像と音声とを通信するテレビ電話装置
    における送受信方法であって、 通信開始に先立って、当該通信者が各自己に対応するキ
    ャラクターを任意に作成するキャラクター画像作成のス
    テップと、 前記キャラクター画像のうち変形させる部分を上記通信
    者各々が任意に決定する変形部分決定のステップと、 前記変形部分の変形量を上記通信者各々が任意に決定す
    る変形量決定ステップと、 前記変形を実行させる条件を通信者各々が任意に決定す
    る変形実効条件決定ステップと、 を有し、 通信開始直後に、前記変形部分と前記変形量とを対応づ
    けて送信するキャラクター画像送信ステップと、 通信開始後上記キャラクター画像送信ステップに続く期
    間内に前記条件の発生を検出したときに前記変形を促す
    指令を送信する変形指令送信ステップと、 音声を送信するステップと、 受信側において、前記変形指令を受信して前記キャラク
    ター画像のうち変形指定部分を変形指定量だけ変形さ
    せ、その変形画像を表示するステップと、 の上記各ステップを逐次実行することを特徴とするテレ
    ビ電話送受信方法。
  11. 【請求項11】画像と音声とを通信するテレビ電話装置
    における送受信方法であって、 通信開始に先立って、当該通信相手とキャラクター画像
    との対応付けを各通信者が任意に決定するキャラクター
    画像決定のステップと、 通信開始直後に、通信相手を確認し、当該通信相手に対
    応づけた上記キャラクター画像を用意するキャラクター
    画像用意ステップと、 上記キャラクター画像用意ステップに続く期間内で当該
    通信相手から上記キャラクターを変形させる指令を受信
    する変形指令受信ステップと、 上記変形指令受信ステップで受信された上記キャラクタ
    ーを変形させる指令に基づいて当該キャラクター画像を
    変形させ、その変形を施した画像を表示するステップ
    と、 の上記各ステップを逐次実行することを特徴とするテレ
    ビ電話送受信方法。
  12. 【請求項12】通話者の現実の姿に依存しないキャラク
    ターを該通話者の相手方に表示するための表示手段と、 上記表示手段によって表示されるキャラクターを当該通
    話者の通話状況に応じて動かすためのキャラクター制御
    手段と、 を具備したことを特徴とする画像音声通信システム。
JP07006297A 1997-03-24 1997-03-24 画像音声通信システムおよびテレビ電話送受信方法 Expired - Fee Related JP3771989B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP07006297A JP3771989B2 (ja) 1997-03-24 1997-03-24 画像音声通信システムおよびテレビ電話送受信方法
US09/045,525 US6313864B1 (en) 1997-03-24 1998-03-20 Image and voice communication system and videophone transfer method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP07006297A JP3771989B2 (ja) 1997-03-24 1997-03-24 画像音声通信システムおよびテレビ電話送受信方法

Publications (2)

Publication Number Publication Date
JPH10271470A true JPH10271470A (ja) 1998-10-09
JP3771989B2 JP3771989B2 (ja) 2006-05-10

Family

ID=13420690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP07006297A Expired - Fee Related JP3771989B2 (ja) 1997-03-24 1997-03-24 画像音声通信システムおよびテレビ電話送受信方法

Country Status (2)

Country Link
US (1) US6313864B1 (ja)
JP (1) JP3771989B2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999060522A1 (en) * 1998-05-19 1999-11-25 Sony Computer Entertainment Inc. Image processing apparatus and method, and providing medium
JP2001339529A (ja) * 2000-05-30 2001-12-07 Sharp Corp 通信端末装置
JP2002152384A (ja) * 2000-11-09 2002-05-24 Victor Co Of Japan Ltd キャラクターデータ配信支援システム、ユーザー端末、ネットワークサービスサーバー及びキャラクターデータ配信方法
JP2002165194A (ja) * 2000-11-28 2002-06-07 Omron Corp 情報提供システム及び方法
JP2003178311A (ja) * 2002-10-25 2003-06-27 Mitsubishi Electric Corp リアルタイム表情追跡装置
JP2008085421A (ja) * 2006-09-26 2008-04-10 Asahi Kasei Corp テレビ電話機、通話方法、プログラム、声質変換・画像編集サービス提供システム、および、サーバ
JP2010258781A (ja) * 2009-04-24 2010-11-11 Ntt Docomo Inc 携帯端末及び情報伝達方法
JP2011035880A (ja) * 2009-08-06 2011-02-17 Nippon Telegr & Teleph Corp <Ntt> ビデオコミュニケーションシステム、方法およびプログラム
JP2016126500A (ja) * 2014-12-26 2016-07-11 Kddi株式会社 ウェアラブル端末装置およびプログラム
JP2017055851A (ja) * 2015-09-14 2017-03-23 株式会社コーエーテクモゲームス 情報処理装置、表示制御方法、及び表示制御プログラム
JP2020052793A (ja) * 2018-09-27 2020-04-02 株式会社Nttドコモ システム
JP2021053406A (ja) * 2020-11-27 2021-04-08 株式会社コロプラ プログラム、方法、および端末装置
JP2021056818A (ja) * 2019-09-30 2021-04-08 株式会社コロプラ プログラム、方法、および端末装置
JP2021117478A (ja) * 2020-01-23 2021-08-10 株式会社ユピテル 表示装置等
JP2022087111A (ja) * 2019-03-27 2022-06-09 株式会社コロプラ ヘッドマウントデバイスを介して仮想空間を提供するためにコンピュータで実行されるプログラムおよび方法ならびに情報処理装置

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7081915B1 (en) * 1998-06-17 2006-07-25 Intel Corporation Control of video conferencing using activity detection
US6577861B2 (en) 1998-12-14 2003-06-10 Fujitsu Limited Electronic shopping system utilizing a program downloadable wireless telephone
US6512919B2 (en) * 1998-12-14 2003-01-28 Fujitsu Limited Electronic shopping system utilizing a program downloadable wireless videophone
US6208372B1 (en) * 1999-07-29 2001-03-27 Netergy Networks, Inc. Remote electromechanical control of a video communications system
JP4697500B2 (ja) * 1999-08-09 2011-06-08 ソニー株式会社 送信装置および送信方法、受信装置および受信方法、並びに記録媒体
JP2001169257A (ja) * 1999-12-14 2001-06-22 Matsushita Electric Ind Co Ltd テレビ電話機
US6529195B1 (en) * 2000-09-08 2003-03-04 James B. Eberlein Pain migration tracking and display method
US6867797B1 (en) * 2000-10-27 2005-03-15 Nortel Networks Limited Animating images during a call
EP1326445B1 (en) * 2001-12-20 2008-01-23 Matsushita Electric Industrial Co., Ltd. Virtual television phone apparatus
US7106358B2 (en) * 2002-12-30 2006-09-12 Motorola, Inc. Method, system and apparatus for telepresence communications
US7432879B2 (en) * 2003-02-10 2008-10-07 Schonlau William J Personal viewer
JP2004289254A (ja) * 2003-03-19 2004-10-14 Matsushita Electric Ind Co Ltd テレビ電話端末
JP2004304765A (ja) * 2003-03-20 2004-10-28 Fuji Photo Film Co Ltd 画像記録装置および方法並びにプログラム
US7271825B2 (en) * 2004-11-04 2007-09-18 Sony Corporation Kinesiological model-based gestural augmentation of voice communication
US7773111B2 (en) * 2005-03-16 2010-08-10 Lc Technologies, Inc. System and method for perceived image processing in a gaze tracking system
US7407295B2 (en) * 2005-07-26 2008-08-05 Niranjan Damera-Venkata Projection of overlapping sub-frames onto a surface using light sources with different spectral distributions
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US7541566B2 (en) * 2005-12-29 2009-06-02 Nokia Corporation Transmitter, receiver, and system with relative position detecting functionality between transmitters and receivers
CN100405404C (zh) * 2006-08-01 2008-07-23 中国科学院计算技术研究所 一种虚拟人实时绘制方法
US20080231686A1 (en) * 2007-03-22 2008-09-25 Attune Interactive, Inc. (A Delaware Corporation) Generation of constructed model for client runtime player using motion points sent over a network
US20080297585A1 (en) * 2007-05-29 2008-12-04 Ascalade Communications Inc. Integrated cordless voice/video ip phone system
US20090189830A1 (en) * 2008-01-23 2009-07-30 Deering Michael F Eye Mounted Displays
US9812096B2 (en) 2008-01-23 2017-11-07 Spy Eye, Llc Eye mounted displays and systems using eye mounted displays
US8786675B2 (en) * 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
US9886231B2 (en) 2008-03-28 2018-02-06 Kopin Corporation Head worn wireless computer having high-resolution display suitable for use as a mobile internet device
EP2427812A4 (en) 2009-05-08 2016-06-08 Kopin Corp REMOTE CONTROL OF A HOST APPLICATION THROUGH MOTION AND LANGUAGE COMMANDS
US9511289B2 (en) * 2009-07-10 2016-12-06 Valve Corporation Player biofeedback for dynamically controlling a video game state
US11253781B2 (en) 2009-07-10 2022-02-22 Valve Corporation Player biofeedback for dynamically controlling a video game state
EP2355526A3 (en) 2010-01-14 2012-10-31 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP5898842B2 (ja) 2010-01-14 2016-04-06 任天堂株式会社 携帯型情報処理装置、携帯型ゲーム装置
JP5800501B2 (ja) 2010-03-12 2015-10-28 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
JP5170144B2 (ja) * 2010-03-29 2013-03-27 ブラザー工業株式会社 眼鏡型の画像表示装置
US8384770B2 (en) 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
US8633947B2 (en) * 2010-06-02 2014-01-21 Nintendo Co., Ltd. Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method
EP2395769B1 (en) 2010-06-11 2015-03-04 Nintendo Co., Ltd. Image display program, image display system, and image display method
US9122307B2 (en) 2010-09-20 2015-09-01 Kopin Corporation Advanced remote control of host application using motion and voice commands
US10013976B2 (en) 2010-09-20 2018-07-03 Kopin Corporation Context sensitive overlays in voice controlled headset computer displays
JP5739674B2 (ja) 2010-09-27 2015-06-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
US8854356B2 (en) 2010-09-28 2014-10-07 Nintendo Co., Ltd. Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method
US20110181684A1 (en) * 2011-02-07 2011-07-28 InnovatioNet Method of remote video communication and system of synthesis analysis and protection of user video images
CN102637071A (zh) * 2011-02-09 2012-08-15 英华达(上海)电子有限公司 应用于多媒体输入设备的多媒体输入方法
US10627860B2 (en) * 2011-05-10 2020-04-21 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
WO2013101438A1 (en) 2011-12-29 2013-07-04 Kopin Corporation Wireless hands-free computing head mounted video eyewear for local/remote diagnosis and repair
US9398262B2 (en) * 2011-12-29 2016-07-19 Intel Corporation Communication using avatar
US9386268B2 (en) 2012-04-09 2016-07-05 Intel Corporation Communication using interactive avatars
US9357174B2 (en) 2012-04-09 2016-05-31 Intel Corporation System and method for avatar management and selection
US8929954B2 (en) 2012-04-25 2015-01-06 Kopin Corporation Headset computer (HSC) as auxiliary display with ASR and HT input
EP2842055B1 (en) 2012-04-25 2018-06-27 Kopin Corporation Instant translation system
US9442290B2 (en) 2012-05-10 2016-09-13 Kopin Corporation Headset computer operation using vehicle sensor feedback for remote control vehicle
JP6036209B2 (ja) * 2012-11-19 2016-11-30 セイコーエプソン株式会社 虚像表示装置
US9301085B2 (en) 2013-02-20 2016-03-29 Kopin Corporation Computer headset with detachable 4G radio
WO2014153689A1 (en) 2013-03-29 2014-10-02 Intel Corporation Avatar animation, social networking and touch screen applications
US10209955B2 (en) 2013-11-15 2019-02-19 Kopin Corporation Automatic speech recognition (ASR) feedback for head mounted displays (HMD)
US9383816B2 (en) * 2013-11-15 2016-07-05 Kopin Corporation Text selection using HMD head-tracker and voice-command
US9500867B2 (en) 2013-11-15 2016-11-22 Kopin Corporation Head-tracking based selection technique for head mounted displays (HMD)
US9993335B2 (en) 2014-01-08 2018-06-12 Spy Eye, Llc Variable resolution eye mounted displays
US9830728B2 (en) 2014-12-23 2017-11-28 Intel Corporation Augmented facial animation
WO2017058733A1 (en) * 2015-09-29 2017-04-06 BinaryVR, Inc. Head-mounted display with facial expression detecting capability
US10475225B2 (en) 2015-12-18 2019-11-12 Intel Corporation Avatar animation system

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02196585A (ja) * 1989-01-26 1990-08-03 Ricoh Co Ltd 音声信号通信装置
JPH05153581A (ja) * 1991-12-02 1993-06-18 Seiko Epson Corp 顔画像符号化方式
JPH05241540A (ja) * 1992-02-28 1993-09-21 Fujita Corp 視覚情報表示装置
JPH0678247A (ja) * 1992-08-24 1994-03-18 Olympus Optical Co Ltd 頭部装着式ディスプレイ装置
JPH06121311A (ja) * 1992-10-05 1994-04-28 Casio Comput Co Ltd 仮想現実空間供用システム
JPH06205404A (ja) * 1992-12-28 1994-07-22 Casio Comput Co Ltd テレビ電話装置
JPH0738873A (ja) * 1993-07-23 1995-02-07 Atr Tsushin Syst Kenkyusho:Kk 人物像の実時間認識合成方法
JPH07261112A (ja) * 1994-03-22 1995-10-13 Hitachi Ltd 頭部搭載型ディスプレイ装置
JPH0823527A (ja) * 1994-07-07 1996-01-23 Hitachi Ltd テレビ電話システム
JPH09138767A (ja) * 1995-11-14 1997-05-27 Fujitsu Ten Ltd 感情表現の通信装置
JPH10200882A (ja) * 1997-01-10 1998-07-31 Nippon Telegr & Teleph Corp <Ntt> 低ビットレート画像通信装置と通信方法
JPH10197931A (ja) * 1997-01-10 1998-07-31 Nikon Corp カメラのスイッチ構造

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0493084B1 (en) * 1990-12-26 1997-06-04 Canon Kabushiki Kaisha Multi-media communication apparatus
JP3045321B2 (ja) 1991-01-22 2000-05-29 日本電信電話株式会社 ハンドセット形テレビ装置とそれを用いたテレビ電話装置
US5541640A (en) * 1992-06-23 1996-07-30 Larson; Craig R. Videophone for simultaneous audio and video communication via a standard telephone line
JPH06141308A (ja) * 1992-10-23 1994-05-20 Hitachi Ltd 携帯形テレビ電話機
JPH0865647A (ja) 1994-08-22 1996-03-08 Toshiba Corp 携帯テレビ電話装置
JP3674875B2 (ja) 1994-10-24 2005-07-27 株式会社イメージリンク アニメーションシステム
JPH08307841A (ja) * 1995-05-10 1996-11-22 Hitachi Ltd 擬似動画tv電話装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02196585A (ja) * 1989-01-26 1990-08-03 Ricoh Co Ltd 音声信号通信装置
JPH05153581A (ja) * 1991-12-02 1993-06-18 Seiko Epson Corp 顔画像符号化方式
JPH05241540A (ja) * 1992-02-28 1993-09-21 Fujita Corp 視覚情報表示装置
JPH0678247A (ja) * 1992-08-24 1994-03-18 Olympus Optical Co Ltd 頭部装着式ディスプレイ装置
JPH06121311A (ja) * 1992-10-05 1994-04-28 Casio Comput Co Ltd 仮想現実空間供用システム
JPH06205404A (ja) * 1992-12-28 1994-07-22 Casio Comput Co Ltd テレビ電話装置
JPH0738873A (ja) * 1993-07-23 1995-02-07 Atr Tsushin Syst Kenkyusho:Kk 人物像の実時間認識合成方法
JPH07261112A (ja) * 1994-03-22 1995-10-13 Hitachi Ltd 頭部搭載型ディスプレイ装置
JPH0823527A (ja) * 1994-07-07 1996-01-23 Hitachi Ltd テレビ電話システム
JPH09138767A (ja) * 1995-11-14 1997-05-27 Fujitsu Ten Ltd 感情表現の通信装置
JPH10200882A (ja) * 1997-01-10 1998-07-31 Nippon Telegr & Teleph Corp <Ntt> 低ビットレート画像通信装置と通信方法
JPH10197931A (ja) * 1997-01-10 1998-07-31 Nikon Corp カメラのスイッチ構造

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999060522A1 (en) * 1998-05-19 1999-11-25 Sony Computer Entertainment Inc. Image processing apparatus and method, and providing medium
JP2001339529A (ja) * 2000-05-30 2001-12-07 Sharp Corp 通信端末装置
JP2002152384A (ja) * 2000-11-09 2002-05-24 Victor Co Of Japan Ltd キャラクターデータ配信支援システム、ユーザー端末、ネットワークサービスサーバー及びキャラクターデータ配信方法
JP2002165194A (ja) * 2000-11-28 2002-06-07 Omron Corp 情報提供システム及び方法
JP2003178311A (ja) * 2002-10-25 2003-06-27 Mitsubishi Electric Corp リアルタイム表情追跡装置
JP2008085421A (ja) * 2006-09-26 2008-04-10 Asahi Kasei Corp テレビ電話機、通話方法、プログラム、声質変換・画像編集サービス提供システム、および、サーバ
JP2010258781A (ja) * 2009-04-24 2010-11-11 Ntt Docomo Inc 携帯端末及び情報伝達方法
JP2011035880A (ja) * 2009-08-06 2011-02-17 Nippon Telegr & Teleph Corp <Ntt> ビデオコミュニケーションシステム、方法およびプログラム
JP2016126500A (ja) * 2014-12-26 2016-07-11 Kddi株式会社 ウェアラブル端末装置およびプログラム
JP2017055851A (ja) * 2015-09-14 2017-03-23 株式会社コーエーテクモゲームス 情報処理装置、表示制御方法、及び表示制御プログラム
JP2020052793A (ja) * 2018-09-27 2020-04-02 株式会社Nttドコモ システム
JP2022087111A (ja) * 2019-03-27 2022-06-09 株式会社コロプラ ヘッドマウントデバイスを介して仮想空間を提供するためにコンピュータで実行されるプログラムおよび方法ならびに情報処理装置
JP2021056818A (ja) * 2019-09-30 2021-04-08 株式会社コロプラ プログラム、方法、および端末装置
JP2021117478A (ja) * 2020-01-23 2021-08-10 株式会社ユピテル 表示装置等
JP2021053406A (ja) * 2020-11-27 2021-04-08 株式会社コロプラ プログラム、方法、および端末装置

Also Published As

Publication number Publication date
JP3771989B2 (ja) 2006-05-10
US6313864B1 (en) 2001-11-06

Similar Documents

Publication Publication Date Title
JP3771989B2 (ja) 画像音声通信システムおよびテレビ電話送受信方法
US5438357A (en) Image manipulating teleconferencing system
JP2004289254A (ja) テレビ電話端末
JPH11127275A (ja) 通信装置
JPH08205197A (ja) ヒューマンインタフェース装置
JP2012175136A (ja) カメラシステムおよびその制御方法
EP1705911A1 (en) Video conference system
JP4501037B2 (ja) 通信制御システムと通信装置および通信方法
JPWO2018158852A1 (ja) 通話システム
CN112951236A (zh) 一种语音翻译设备及方法
JP5750590B2 (ja) 撮像装置及びインターホン装置、インターホンシステム
JPH09331509A (ja) テレビ電話用蓄積人物映像表示装置
JP2005303683A (ja) 画像送受信装置
JP3027983B2 (ja) 双方向対話型システム
CN213693932U (zh) 一种基于透明显示器的视频会议系统
US20030052962A1 (en) Video communications device and associated method
JPH09107534A (ja) テレビ会議装置及びテレビ会議システム
JP2897627B2 (ja) 会議環境制御装置
CN115118913A (zh) 一种投影视频会议系统及投影视频方法
JP3386200B2 (ja) ゲーム装置およびゲーム制御方法
WO2020006664A1 (zh) 拍摄装置的控制方法、拍摄装置、拍摄系统和存储介质
JP2009065490A (ja) テレビ会議装置
JPH0775075A (ja) テレビ電話装置
JPH10145852A (ja) 携帯形の情報伝達装置
JPH08336166A (ja) 映像視聴装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050628

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051101

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060213

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090217

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100217

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110217

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110217

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120217

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120217

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130217

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees