JP3771989B2 - 画像音声通信システムおよびテレビ電話送受信方法 - Google Patents

画像音声通信システムおよびテレビ電話送受信方法 Download PDF

Info

Publication number
JP3771989B2
JP3771989B2 JP07006297A JP7006297A JP3771989B2 JP 3771989 B2 JP3771989 B2 JP 3771989B2 JP 07006297 A JP07006297 A JP 07006297A JP 7006297 A JP7006297 A JP 7006297A JP 3771989 B2 JP3771989 B2 JP 3771989B2
Authority
JP
Japan
Prior art keywords
character image
speaker
image
character
code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP07006297A
Other languages
English (en)
Other versions
JPH10271470A (ja
Inventor
誠一郎 田端
裕昌 小林
久美 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP07006297A priority Critical patent/JP3771989B2/ja
Priority to US09/045,525 priority patent/US6313864B1/en
Publication of JPH10271470A publication Critical patent/JPH10271470A/ja
Application granted granted Critical
Publication of JP3771989B2 publication Critical patent/JP3771989B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Analytical Chemistry (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)
  • Telephonic Communication Services (AREA)
  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像音声通信システムおよびテレビ電話送受信方法、詳しくは、話者の音声を通信相手側に伝送する際に、該話者の顔等の画像またはこれに代わる画像を通信相手側に伝え、相手の顔等を確認しながら会話を行う、画像音声通信システムおよびテレビ電話送受信方法に関する。
【0002】
【従来の技術】
従来、話者の音声を通信相手側に伝送する際に、該話者の顔等の画像を同時に通信相手側に伝え、相手の顔等を確認しながら会話を行う、いわゆるテレビ電話システムは種々の方式が知られるところにある。これらのテレビ電話システムの多くは既存の電話回線を利用するものであり、話者の音声データ信号とともに顔画像等の画像データ信号を疑似的双方向に略同時に通信相手側に伝送するものである。しかしながら、顔画像データを動画像としてそのままの状態で伝送しようとすると、その情報量の多さ故、既存の電話回線を使用する伝送形態をとる限り困難が伴った。
【0003】
このような事情により、電話回線等、伝送容量の小さい伝送路にもなじむことを目的とし、従来、単位時間あたりの伝送情報量がより少なくてすむように、静止画像を細切れに伝送するテレビ電話方式が採用されている。
【0004】
しかしながら、このようなテレビ電話システムでは、動画像をリアルタイムに正確に伝送することが困難であり、このため、自然な顔画像を相手側に伝送することができず、結果として顔の表情がぎこちないものとなっていた。
【0005】
このような問題点を解消する技術手段として、近年、コンピュータ・グラフィック(CG)技術を用いた通信会議システムが、たとえば特開平7−38873号公報において提案されている。以下、該通信会議システムで用いられる技術手段について簡単に説明する。
【0006】
この技術手段においては、まず予め会議に参加する者の顔像の凹凸等の形状情報や色彩情報をレーザースキャナ等を用いて計測して取り込むとともに、デジタルカメラ等を用いて顔画像の情報を取り込む。そして、上記形状情報にもとづいて3Dのポリゴンデータに変換し、各参加者のワイヤーフレームモデルを作成する。
【0007】
また、会議を行う際には、これら各参加者の顔にマーカーを貼り、さらに頭、腕および身体にその動きを検出するセンサを取り付ける。そして、各参加者の近傍、たとえば各参加者が装着するヘッドギア等にそれぞれ設置されたカメラで上記顔に貼ったマーカーの動きを検出することで顔の動きを検出し、また、頭、腕および身体に取り付けたセンサによりこれら各部の動きを検出する。
【0008】
次に、上述した各部位の動きデータに基づいて上述したように予め作成されているワイヤーフレームモデルをリアルタイムに変形させる。そして、このワイヤーフレームモデルに予め取り込んでおいた色彩を張り付けて対応する参加者のグラフィック像を完成させる。その後、この完成された参加者のグラフィック像を該参加者の動きに合わせてリアルタイムでスクリーンに表示させる。これにより、会議の参加者はこのスクリーン表示をモニタすることで他の参加者の顔の表情等を認識しつつ話し合い等を行うことができるようになっている。
【0009】
このような方式だと、多大なデータ量を必要とする画像データは予め取り込まれており、リアルタイムに変化するデータ量は少なくてすむため、既存の電話回線等、伝送容量の小さい伝送路を使用するテレビ電話システムにおいても話者の動画像をリアルタイムに伝送することが可能となる。
【0010】
【発明が解決しようとする課題】
上記特開平7−38873号公報において提案された通信会議システムは、予め話者の画像データの取り込みや、会話を始める前に話者の顔にマーカーを貼り付けたり、頭、腕、身体にセンサを取り付けるといった繁雑な手間がかかるといった問題点がある。また、会議システム等の業務用ではなく一般家庭での使用を考慮すると、このような繁雑性は極めて不適当な感がある。
【0011】
すなわち、この通信会議システムにおけるテレビ電話システムは、話者たる使用者の顔画像の諸データを予めレーザースキャナ等で計測して取り込む必要があるが、このような大がかりな計測を一般家庭においては行うのはコスト等を考慮すると非常に困難である。また、会話を始める前に顔にマーカーを貼る必要があるが、一般家庭での使用状況を考えるに、電話での会話の度に、特に電話がかかってきた場合等において、その度に顔にマーカーを貼りつけるのは現実的ではない。
【0012】
さらに、会話時にはスクリーン前に居なくてはならないという、通常の音声だけの電話に対して著しい制約が科せられるという点については、それ以前のテレビ電話システムにも共通した問題点である。
【0013】
本発明はかかる問題点に鑑みてなされたものであり、簡単で安価な装置を用い、使用者に手間をかけることなく、話者の顔の動きや表情をリアルタイムに伝送する画像音声通信システムおよびテレビ電話送受信方法を提供することを目的とする。
【0014】
【課題を解決するための手段】
上記の目的を達成するために本発明による第1の画像音声通信システムに用いる画像音声通信装置は、画像表示手段と、通信相手から受信した音声信号を再生するための音声出力手段と、前記画像表示手段による表示に適用するキャラクター画像を記憶するキャラクター画像データ記憶手段と、通信相手から当該キャラクター画像に対して変形を与えるための指令信号コードを受信する変形指令受信手段と、前記指令信号コードに応じて前記キャラクター画像に変形を施すためのキャラクター変形手段と、前記キャラクター変形手段によって変形が施されたキャラクター画像を前記画像表示手段に供給して表示せしめるための手段と、通信実行に際して、通信相手から伝送される信号によって通信相手を認識し、当該通信相手を表すキャラクター画像を選択して前記画像表示手段による表示に適用する表示キャラクター選択手段と、を具備し、
キャラクター画像と指令信号コードとこれに対応する当該キャラクター画像の変形の程度との対応関係を表す第1の情報を会話の開始に先行して伝送し、会話中は、上記指令信号コードのみからなる第2の情報と音声信号とをリアルタイムで伝送することを特徴とする。
【0015】
上記の目的を達成するために本発明による第2の画像音声通信システムに用いる画像音声通信装置は、上記第1の画像音声通信システムに用いる画像音声通信装置において、前記第1の情報におけるキャラクター画像と指令信号コードとこれに対応する当該キャラクター画像の変形の程度との対応関係を送信側の通信者が任意に決定するキャラクター画像変形量決定手段と、前記指令信号コードの送信実行の条件を送信側の通信者が任意に決定する送信条件決定手段とを、さらに具備したことを特徴とする。
【0026】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を説明する。
【0027】
まず、本発明の一実施形態である画像音声通信システムの概要について説明する。
【0028】
この画像音声通信システムは、電話回線等の回線網を介して通信相手の顔画像をモニタしながら音声会話を行う、いわゆるテレビ電話システムに属するものであるが、通信相手の顔画像は通信相手本人の顔画像に限らず所定のキャラクターデータにより形成された画像を用いて対話を行うことを特徴としている。すなわち、対話時において一方の話者がモニタする他方相手側の顔画像は、所定の(任意に設定も可能とする)キャラクターデータにより形成されたキャラクター画像であり、対話に際して相手側の顔に表情変化が生じると、この表情変化に関連する顔主要部の動きに実質的にリアルタイムに対応するように該キャラクター画像を変化させて伝達することを特徴とするものである。
【0029】
そして本画像音声通信システムにおいては、上記所定のキャラクター画像は、送り手側の話者によって予め設定されるようになされており、画像伝送の際には、送り手側話者のキャラクター画像データを一旦、相手側(受け手側)に伝送し、その後、対話時において送り手側話者の変化に応じて当該キャラクター画像の主要部の動きに関するデータのみを送信するようになっている。これにより、画像伝送に要するデータ伝送量は極小ですみ、伝送容量の小さい回路網を使用したテレビ電話システムであっても、相手の顔の表情を実質的にリアルタイムに相手側に伝えることができるようになっている。
【0030】
また、本画像音声通信システムにおいては上記キャラクター画像は、使用者が任意に設定するようになっているが、予め記憶された画像を使用者が選択して用いるようにすることも可能であり、何れにせよこれにより遊び心に満ちた対話を実現することができる。
【0031】
また、本画像音声通信システムにおいては、通信の送受信に使用される端末装置として、使用者が個別に頭部に装着して画像をモニタするHead mounted display(以下、HMDと略記する)を用いていることも特徴とする(図5参照)。
【0032】
以下、図1を参照して本第1の実施形態である画像音声通信システムにおける主要構成部を概略的に説明する。
【0033】
図1は、本第1の実施形態である画像音声通信システムにおいて用いられる画像音声通信装置の主要構成を示したブロック図であり、図中、上段側が送信部の主要構成を、下段側が受信部の主要構成を示している。
【0034】
なお、本第1の実施形態の画像音声通信システムは、一方の話者と相手側他方の話者とが同様の機能を有する装置を使用して通信を行うものであり、互いに話者側の立場と聞き手側の立場とが入れ替わりつつ対話をおこなうようになっている。しかしながら、ここでは便宜上、一方の話者を送り手側話者、他方を受け手側話者とし、それぞれに係る画像音声通信装置を送り手側装置、受け手側装置として説明する。
【0035】
まず、一方の送り手側装置における送信部の構成について説明する。
【0036】
この第1の実施形態の画像音声通信装置における送信部は、送り手側話者のキャラクター画像を生成するキャラクター画像生成手段100と、このキャラクター画像生成手段100によって生成された各種キャラクター画像に係るデータを記憶する第1のキャラクターデータ記憶手段104と、送り手側話者の目、口等の動きを検出し、後述する基準値用の信号を送出すると共に対話時においては送り手側話者の目、口、頭の動きおよび音声を検出し、次段に送出する表情検出手段105と、この表情検出手段105からの検出結果(目、口、頭の動き)を所定の指令信号コード(目の動きコード、口の動きコード、頭の動きコード)に変換して出力する表情コード変換手段108と、上記第1のキャラクターデータ記憶手段104からのデータまたは表情検出手段105からのデータあるいは上記表情コード変換手段108からのデータを所定のタイミングで選択して次段に送出する第1の選択手段107と、この第1の選択手段107によって選択された上記第1のキャラクターデータ記憶手段104からのデータまたは表情検出手段105からのデータあるいは表情コード変換手段108からのデータを相手側装置(受け手側装置)に対して送信するデータ送信手段106と、で主要部が構成されている。
【0037】
なお、上記第1の選択手段107は、端子107aが選択される上記第1のキャラクターデータ記憶手段104出力端がデータ送信手段106に接続され、端子107bが選択されると上記表情検出手段105の出力端あるいは上記表情コード変換手段108の出力端が同データ送信手段106に接続されるようになっている。なお、この第1の選択手段107は、本第1の実施形態の画像音声通信装置においては、ソフト的に接続先を選択するようにしている。
【0038】
上記キャラクター画像生成手段100は、所定のキャラクター画像のデータを入力するキャラクターデータ入力手段101と、このキャラクターデータ入力手段101によって入力された所定のキャラクターデータを、所定のドットデータに変換する第1の変換手段102と、この第1の変換手段102によってドットデータに変換されたキャラクターデータを表示する表示手段103と、を備えている。
【0039】
なお、この表示手段103は、使用者が装着するHMD等に設けられた表示部である。また、このHMDに関しては後に詳述する。
【0040】
上記キャラクターデータ入力手段101は、後述する操作部等で構成されており、使用者(送り手側話者)は、該キャラクターデータ入力手段101を用いて、所定のキャラクター画像のデータを入力するようになっている。この際、使用者は、初期状態のキャラクター画像のデータ(基本キャラクター画像データ)とともに同使用者の目、口等の動きに合わせて変化する表情が変化(変形)したキャラクター画像に係るデータも設定するようになっている。なお、この表情変化に対応したキャラクター画像は、予め設定された指令信号コードに対応するパターンの種類ほど設定する。
【0041】
なお、本実施形態においては、上記キャラクターデータ入力手段101は、所定のキャラクターデータを操作部等で操作して入力する装置を想定し、使用者がキャラクター画像を任意に設定するようにしたが、これに限らず、たとえば、電子カメラ、スキャナ等で採取した任意の画像データ(使用者本人の顔等の実写を含む)であっても良い。
【0042】
さらに、使用者(送り手側話者)は、キャラクターデータ入力手段101および表情検出手段105を用いて、該表情検出手段105で検出した送り手側話者の目、口の動きに基づいて表情変化の基準値を設定するようになっている。なお、基準値とは、当該話者の表情の変化の程度に応じて当該指令信号コードを出力するか否かを判定する際のしきい値を意味する。
【0043】
上記表情検出手段105は、使用者が装着するHMD等に設けられており、上記表情変化の基準値を生成する際に用いる検出手段であるとともに、対話を行う際に送り手側話者の各表情変化(目、口、頭の動き)および音声信号を互いに同期した所定のタイミングで検出して送出する検出手段としての役目も果たすようになっている。
【0044】
上記表情変化の基準値を生成する際には、送り手側話者によるキャラクターデータ入力手段101の操作により、該表情検出手段105からの表情変化の要素のうち目、口の動きに関する検出値が表情コード変換手段108に入力され、この検出値に基づいて表情変化の基準値が生成されるようになっている。なお、この基準値も、予め設定された指令信号コードに対応する種類ほど生成するようになっている。
【0045】
一方、対話時においては、上記所定のタイミングで変化する送り手側話者の表情変化は、表情変化の要素のうち、目、口の動きに関しては、次段の表情コード変換手段108において逐次(実質的にリアルタイムに)所定の指令信号コードに変換され、データ送信手段106を介して受け手側装置に伝送されるようになっている。
【0046】
また、頭の動きのデータは、同表情コード変換手段108において、上記指令信号コードには対応しない別の所定のコードに変換され、データ送信手段106を介して受け手側装置に伝送されるようになっている。
【0047】
さらに、音声信号は、該表情コード変換手段108をバイパスして、データ送信手段106を介して受け手側装置に伝送されるようになっている。
【0048】
なお、上記目、口の動きデータに係る所定の指令信号コードの伝送と、頭の動きデータに係るコードの伝送、音声信号の伝送は、互いに同期して伝送されるようになっている。
【0049】
なお、以上の作業は、第1の変換手段102においてドットデータに変換され逐次、上記表示手段103に表示されるようになっており、使用者は上記作業をモニタしながら行い得るようになっている。
【0050】
一方、上記画像音声通信装置の受信部は、相手側装置のデータ送信手段106より送られてきた所定のデータを受信するデータ受信手段111と、このデータ受信手段111で受信したデータの種別により次段の回路を選択する第2の選択手段112と、この第2の選択手段112で選択された際に相手側のキャラクター画像に係る所定のデータを一時的に記憶する第2のキャラクターデータ記憶手段113と、この第2のキャラクターデータ記憶手段113に記憶された相手側のキャラクター画像に係る所定データと相手側の表情検出手段105で検出されさらに上記表情コード変換手段108でコード化された表情変化のデータとに基づいて相手側のキャラクター画像を加工するキャラクターデータ加工手段114と、このキャラクターデータ加工手段114で加工された相手側キャラクター画像を所定データに変換する第2の変換手段115と、対話時に相手側の表情検出手段105で検出された頭の動きのデータに基づいて画像変形の度合いを演算して出力する画像変形手段117と、対話時に相手側の表情検出手段105で検出された音声信号を再生する音声再生手段118と、相手側のキャラクター画像を表示する表示手段116と、で主要部が構成されている。
【0051】
なお、上記第2の選択手段112においては、詳しくは後述するが通信の初期段階においては、端子112aが選択されるようになっており、このときデータ受信手段111の出力端は上記第2のキャラクターデータ記憶手段113に接続されるようになっている。一方、通信の対話段階においては、端子112bが選択されるようになっており、このとき、同データ受信手段111の出力端は上記第2のキャラクターデータ記憶手段113を迂回してキャラクターデータ加工手段114、上記音声再生手段118に接続されるようになっている。
【0052】
上記第2の変換手段115は、通信の対話段階において、相手側送り手側話者の目、口の動きに伴うキャラクター画像の変形度合いを、送り手側装置から送られてきた指令信号コードを予め設定されている指令信号コードに照らし合わせて決定し、所定の画像処理を施した後、画像変形手段117に送出するようになっている。
【0053】
また、上記画像変形手段117は、通信の対話段階において、相手側送り手側話者の頭の動きに伴うキャラクター画像の変形度合いを所定の演算手法で演算し、上記第2の変換手段115からのデータに所定の画像処理を施した後、相手側のキャラクター画像を実質的にリアルタイムに生成し、表示手段116に表示させるようになっている。
【0054】
なお、送り手側装置から送られてくる、上記頭の動きのデータに係るコードの伝送は、上述したように上記目、口の動きのデータに係る指令信号コードの伝送と同期しているので、受け手側装置の表示手段116においても同期して表示するようになっている。
【0055】
さらに、上記音声再生手段118は、通信の対話段階において、相手側送り手側話者の音声信号を上記目、口の動きのデータに係る指令信号コード、頭の動きのデータに係るコードと同期させて再生するようになっている。
【0056】
次に、このような構成をなす本実施形態の画像音声通信システムの作用を簡単に説明する。
【0057】
送り手側話者は、まず、準備段階として、自身の画像音声通信装置(以下、送り手側装置と略記する)において、自身の初期状態のキャラクター画像(基本キャラクター画像)をキャラクター画像生成手段100内のキャラクターデータ入力手段101によって生成する。なお、送り手側話者は、生成するキャラクター画像を表示手段103をモニタしながら行うようになっている。すなわち、キャラクターデータ入力手段101によって入力されたキャラクターデータは、第1の変換手段102によって所定のドットデータに変換され表示手段103に表示されるようになっている。
【0058】
この後、送り手側話者は、キャラクターデータ入力手段101を用いて、予め記憶されている指令信号コードに対応させて、上記初期状態のキャラクター画像に対して目、口等が変形した、すなわち、表情を変化させたキャラクター画像を所定種類ほど作成するとともに、この変形の度合い(以下、変形キャラクター画像データという)をそれぞれ対応させて生成する。この所定種類は、予め記憶された指令信号コードの数に対応した種類である。
【0059】
次に、表情検出手段105で送り手側話者の目、口の動きの所定データを検出し、これらのデータに基づき、表情コード変換手段108において表情変化の基準値を生成する。この際、この表情変化の基準値は、先ほどキャラクターデータ入力手段101を用いて所定種類ほど生成した、初期状態のキャラクター画像に対して目、口等が変化したキャラクター画像に対応した種類ほど生成されるようになっている。
【0060】
なお、この生成工程の際、各キャラクター画像は、上記第1の変換手段102において各キャラクターデータからドットデータに変換されて表示手段103に表示される。これにより、送り手側話者は表示手段103をモニタしながら上記作業を行いえるようになっている。
【0061】
次に、このようにして上記キャラクター画像生成手段100で生成された各種キャラクターデータ、すなわち、送り手側話者の初期のキャラクター画像のデータ、表情変化に対応したキャラクター画像のデータ、該表情変化に対応する基準値のデータが、送り手側装置の第1のキャラクターデータ記憶手段104に記憶される。
【0062】
以上により、準備段階が完了する。なお、送り手側話者と対話を行う受け手側話者の受け手側装置においても、同様の準備を行うものとする。
【0063】
準備が完了し、相手側装置と通信が開始されると、所定のプロトコルにより初期段階の交渉が行われ、引き続き、まず、第1のキャラクターデータ記憶手段104より、上述した送り手側話者の各種キャラクターデータが出力される。すなわち、送り手側装置においては、上記第1の選択手段107において端子107aが選択され、上記第1のキャラクターデータ記憶手段104から上述した各種キャラクターデータがデータ送信手段106を介して受け手側装置に向けて送出される。
【0064】
受け手側装置は、送り手側装置から送られてきた送り手側話者のキャラクターデータをデータ受信手段111で受信し、第2の選択手段112において端子112aを選択し、上記各種キャラクターデータを第2のキャラクターデータ記憶手段113に記憶する。
【0065】
なお、この交渉段階では、送り手側装置から受け手側装置へ各種キャラクターデータが伝送されると同時に、受け手側装置の各種キャラクターデータも送り手側装置に対して伝送される。したがって、送り手側装置においても、受け手側話者の各種キャラクターデータを自身の第2のキャラクターデータ記憶手段113に記憶する。
【0066】
上記各種キャラクターデータが互いに相手側装置に伝送されると、次に、対話段階に移行する。まず、上記第1の選択手段107,第2の選択手段112において、スイッチがそれぞれ端子107b,端子112bに切換わる。
【0067】
送り手側装置の表情検出手段105で送り手側話者の表情変化のうち、目、口の動きの変化を所定のタイミングで検出し、続いて表情コード変換手段108で該目、口の動きの変化を逐次所定の指令信号コードに変換して、データ送信手段106を介して受け手側装置に送出する。
【0068】
この目、口の動きのデータに係る指令信号コードの伝送に同期して、同じく上記表情検出手段105で頭の動きに係るデータを検出して上記表情コード変換手段108で所定のコードに変換した後、データ送信手段106を介して受け手側装置に送出する。さらに、同目、口の動きのデータに係る指令信号コードの伝送に同期して、同じく上記表情検出手段105で検出した音声信号をデータ送信手段106を介して受け手側装置に送出する。
【0069】
受け手側装置は、データ受信手段111で、送り手側話者の目、口の動きのデータに係る指令信号コードを受信すると、キャラクターデータ加工手段114において、該指令信号コードに応じて第2のキャラクターデータ記憶手段113に記憶されている送り手側話者の各種キャラクターデータを加工する。
【0070】
この後、上記キャラクターデータ加工手段114で加工処理が施された送り手側話者のキャラクターデータが予め記憶されているフォーマットに基づいて第2の変換手段115で変換される。
【0071】
また、受け手側装置は、データ受信手段111で、上記目、口の動きのデータに係る指令信号コードの受信に同期して頭の動きのデータに係るコードを受信する。また、該頭の動きコードに基づいて画像変形手段117で画像の変形の度合いを演算し、上記第2の変換手段115で変換されたキャラクター画像のデータに所定の画像処理を施して表示手段116に表示する。このとき、相手側送り手側話者のキャラクター画像を実質的にリアルタイムに表示する。
【0072】
さらに、受け手側装置は、データ受信手段111で、上記指令信号コードの受信に同期して相手側送り手側話者の音声信号を受信し、該音声信号を音声再生手段118で再生する。
【0073】
以上の通信を要約すると、以下の通りとなる。すなわち、
A:通信前段階
(1):話者は、それぞれ自身の基本となるキャラクター画像を生成する。
(2):話者は、上記基本キャラクター画像に対して、所定の指令信号コードに対応する表情変化(目、口の動き)を付けた新たなキャラクター画像に関するデータ(該基本キャラクター画像に対してどれだけ変形するかのデータ、以下、変形キャラクター画像データとする)を生成する。
(3):話者は、自身の目、口の動きを検出し、所定の指令信号コードに対応する表情変化の基準値(しきい値)を設定する。
【0074】
B:通信初期段階
(1):送り手側装置より、送り手側話者の基本キャラクター画像データが受け手側装置に伝送され、該受け手側装置の記憶部に記憶する。
(2):送り手側装置より、所定の指令信号コードに対応する表情変化を付けた変形キャラクター画像データが受け手側装置に伝送され、該受け手側装置の記憶部に記憶する。
【0075】
C:通信対話段階(送り手側装置)
(1):送り手側話者の目、口の動きを所定のタイミングで検出する。
(2):送り手側話者の目、口の動きの検出結果と上記しきい値に基づいて所定の指令信号コードを逐次、受け手側装置に伝送する。
(3):送り手側話者の頭の動きを所定のタイミングで検出し、この検出結果を逐次、受け手側装置に伝送する。なお、この頭の動きのコードの伝送は、上記(2)における所定の指令信号コードの伝送に同期している。
(4):送り手側話者の音声信号を所定のタイミングで採取し、この音声信号を逐次、受け手側装置に伝送する。なお、この音声信号の伝送は、上記(2)における所定の指令信号コードの伝送に同期している。
【0076】
D:通信対話段階(受け手側装置)
(1):送り手側装置から逐次(実質的にリアルタイムに)送られてくる送り手側話者の目、口の動きに関する所定の指令信号コードを受けとる。
(2):送り手側装置から逐次(実質的にリアルタイムに)送られてくる送り手側話者の頭の動きに関するコードを受けとる(上記(1)に同期)。
(3):送り手側装置から逐次(実質的にリアルタイムに)送られてくる送り手側話者の音声信号を受けとる(上記(1)に同期)。
(4):上記(1)で受け取った指令信号コードに対応する目、口の動きのキャラクター画像データあるいは変形キャラクター画像データを記憶部より検索し読み出す。
(5):上記(4)で読み出したキャラクター画像データあるいは変形キャラクター画像データと、上記(2)で受け取った頭の動きに関するコードに基づいて、送り手側話者のキャラクター画像を実質的にリアルタイムに表示部に表示する。
(6):上記(3)で受け取った音声信号に基づいて、送り手側話者の音声をリアルタイムに再生する。
【0077】
以上、本第1の実施形態の画像音声通信システムの概要を説明したが、以下、該実施形態の画像音声通信システムの具体的な構成、作用を図2ないし図32を参照して説明する。
【0078】
図2は、本発明の第1の実施形態である画像音声通信システムの主要構成を示した説明図である。
【0079】
図に示すように、本実施形態の画像音声通信システムは、当該通信システムを介して対話を行う使用者の頭部に装着され後述する映像生成ボックス2からの所定データに基づいて該使用者に映像、音声を供給するとともに、同使用者の目の動き、頭の動き、口の動き、音声等を映像生成ボックス2に送出するHead mounted display(以下、HMD)1と、このHMD1に接続され同HMD1に対して電力を供給するとともに所定の映像信号、音声信号等を供給する一方、該HMD1より視線信号(目の動きに対応)、ヘッドモーション信号(頭の動きに対応)、音声信号(口の動きに対応)等を受信し、後述する所定の処理を施す映像生成ボックス2と、この映像生成ボックス2に接続され、該映像生成ボックス2に内設されたキャラクターデータ記録部36に対してキャラクターデータ生成用のコントロール信号9を送出するコントローラパッド3と、上記映像生成ボックス2と通常の電話回線を介して接続され、キャラクタデータ、頭の動きコード、目の動きコード、口の動きコード、音声信号(図中、符号8で示す)等の信号の送受信を行う外部装置4とで、主要部が構成されている。
【0080】
まず、上記HMD1について図2、図3、図4を参照して説明する。
【0081】
図3は、上記HMD1を使用者が装着した際の様子を一側方よりみた側面図である。
【0082】
また、図4は、上記HMD1,映像生成ボックス2,コントローラパッド3の接続対応と、これら各部の電気回路的な構成を詳しく示したブロック構成図である。
【0083】
上記HMD1は、図2、図3に示すように使用者の両眼部前方より頭頂部にかけて延設された支持筐体に接眼光学系13,16、ヘッドモーションセンサ11、マイク19、スピーカ20、通話スイッチ24等が配設されて構成されており、当該通信システムを介して対話を行う各使用者の頭部に図示の如く装着されるようになっている。すなわち、使用者に装着された際に、使用者の眼部前方には接眼光学系等からなる映像部が、頭頂部にヘッドモーションセンサ11が、左右の耳部には左右のスピーカ20A,20B(図2参照)が、口部前方には上記支持筐体より延設されたマイク19がそれぞれ配置されるようになっており、耳部の後部において支持部25で頭部に支持するようになっている。また、支持筐体の一側方には、通信開始時におけるオフフックスイッチの役目を果たす通話スイッチ24が配設されている。
【0084】
また、上記支持部25からは映像生成ボックス2と接続する接続コードが延設されており、該映像生成ボックス2より左右の映像信号、音声信号、液晶シャッタ駆動信号、電力(図2中、符号7で示す)等の供給を受けることで所定の動作を行うようになっている。
【0085】
ここで、図3に加え図4を参照してHMD1における接眼光学系周辺の構成をさらに詳しく説明する。
【0086】
上述したように使用者両眼部の前方には、左右の接眼光学系16,13が配置され、これら左接眼光学系16,右接眼光学系13の上方にはそれぞれ左LCD17、右LCD14が配設されている。また、これら左LCD17、右LCD14のさらに上方にはバックライト21が配設され、さらに上記左右の接眼光学系の前方には液晶シャッタ23が配設されている。
【0087】
上記左LCD17、右LCD14はHMD1内部に配設されたLCD駆動回路18によって駆動されるようになっており、該LCD駆動回路18は映像生成ボックス2の制御により動作されるようになっている。また、図示はしないが上記液晶シャッタ23、バックライト21も映像生成ボックス2に接続され、各々駆動制御されるようになっている。
【0088】
すなわち、映像生成ボックス2からの左右の映像信号、液晶シャッタ駆動信号に基づいて上記左LCD17、右LCD14、液晶シャッタ23、バックライト21が動作し、使用者に所定の映像が供給されるようになっている。
【0089】
また、上記左右のスピーカ20A,Bは、映像生成ボックス2からの音声信号に基づいて所定の音声を再生するようになっている。
【0090】
一方、上記左接眼光学系16,右接眼光学系13の近傍には使用者の視線を検出する左視線検出器15,右視線検出器12およびこれらの視線検出用の光源22が配設されている。上記左視線検出器15,右視線検出器12で検出した左右の視線情報は映像生成ボックス2の目の動きコード変換器51に対して送出されるようになっている。
【0091】
そして、この左右の視線検出器15,12からの視線情報は、所定の初期設定情報として用いられるほか、会話時においては使用者の視線の動き(目の動き)の情報として用いられる。なお、詳しくは後述する。
【0092】
また、上記ヘッドモーションセンサ11は、使用者の頭部の動きを3次元的に検出するセンサであり、頭の動きに対応する3次元情報を映像生成ボックス2の頭の動きコード変換器52に対して送出するようになっている。
【0093】
このヘッドモーションセンサ11からのデータも、会話時において使用者の頭の動きの情報として用いられる。
【0094】
さらに、上記マイク19は会話時において通常の音声記録装置として使用者の音声を採取する機能を果たすとともに、所定の条件のもと使用者の口の動きを検出する検出装置としての役目も果たすようになっている。すなわち、所定の初期設定を行う際、該マイク19からの音声信号は映像生成ボックス2の口の動きコード変換器50に対して送出されるようになっている。一方、会話時においては該マイク19で採取した音声信号は映像生成ボックス2の音声信号送信器48に対して送出され通信相手に対して伝送される一方、会話中の使用者の口の動きが検出され映像生成ボックス2の口の動きコード変換器50に対して該情報が送出されるようになっている。なお、詳しくは後述する。
【0095】
次に、上記映像生成ボックス2の構成について図4を参照してさらに詳しく説明する。
【0096】
上記映像生成ボックス2は、電話回線を介して通信相手側の装置となる外部装置4(図2参照)との間で、キャラクタデータ、頭の動きコード、目の動きコード、口の動きコード、音声信号(図2において符号8で示す)等の信号の送受信を行うようになっているが、図4に示すようにその際の送受信器を各種備えている。
【0097】
すなわち、一方の話者が用いる画像音声通信装置(図2中、HMD1,映像生成ボックス2,コントローラパッド3)と、相手側話者が用いる画像音声通信装置である外部装置4との間において、所定のキャラクターデータの送受信はキャラクターデータ送信器31、キャラクターデータ受信器32で行うようになっている。以下、目の動きコード、口の動きコード、頭の動きコードの送受信はそれぞれ、目の動きコード受信器33、目の動きコード送信器45、口の動きコード受信器34、口の動きコード送信器47、頭の動きコード受信器35、頭の動きコード送信器46で行うようになっている。
【0098】
また、通信相手との会話中の音声信号の送受信は、音声信号送信器48、音声信号受信器49で行うようになっている。
【0099】
ところで、本第1の実施形態の画像音声通信システムは、上述したように所定のキャラクター画像を用いて一方の話者と相手側の話者とが対話を行うようになっているが、以下、該映像生成ボックス2内において、キャラクターデータの生成、加工、記憶を行う各装置について、信号の流れに沿ってその構成を説明する。
【0100】
本実施形態の画像音声通信装置においては、対話に用いる送信者のキャラクター画像に係るキャラクターデータは、フォーマット記憶部44に予め記憶されている指令信号コードに対応してキャラクターデータ生成装置43で生成されるようになっている。このキャラクターデータ生成装置43には、図2に示すように接続コードを介して上記コントローラパッド3が接続されている。そして、該コントローラパッド3に配設されたキャラクターデータ生成用コントローラ61、ダイヤルボタン62の操作によりコントロール信号9(図2参照)がキャラクターデータ生成装置43に対して送出され、使用者による任意のキャラクターデータ作成を可能としている。なお、詳しくは後述する。
【0101】
また、上記キャラクターデータ生成装置43で生成される所定のキャラクター画像のデータは、キャラクター画像生成装置39等を介してHMD1に伝送され、該HMD1のモニタ画面上に当該キャラクター画像の作成画面が映し出されるようになっている。
【0102】
ところで、いま、一方の話者を送り手側話者とし、該送り手側話者が使用する装置を送り手側装置とすると、送り手側話者のキャラクター画像および該キャラクター画像に係る各種キャラクターデータは送り手側装置の映像生成ボックス2内のキャラクターデータ生成装置43において生成されるようになっている。すなわち、送り手側話者に対して相手受け手側話者のキャラクターデータは相手受け手側装置のキャラクターデータ生成装置43において生成するようになっている。
【0103】
図4に戻って、上記キャラクターデータ生成装置43は、送り手側話者のキャラクター画像および該キャラクター画像の変形に伴ういくつかのキャラクターデータを生成するようになっている。すなわち、まず、使用者(送り手側話者)は、通信を行う前の準備段階において、該キャラクターデータ生成装置43に接続された上記コントローラパッド3におけるキャラクターデータ生成用コントローラ61、ダイヤルボタン62を操作して、所定のキャラクター画像を任意に生成し、さらに、該キャラクター画像に対して所定の変形を施したキャラクター画像を生成するようになっている。
【0104】
この際、まず、使用者(送り手側話者)自身の初期状態のキャラクター画像である基本キャラクター画像を後述する手法により生成するとともに、同使用者の目、口等の動きに応じて表情が変化(変形)するキャラクター画像に係るデータを設定するようになっている。このとき、該表情変化に対応したキャラクター画像は、フォーマット記憶部44に予め設定記憶された指令信号コードに対応するパターンの種類ほど設定するようになっている。そして、この表情変化に対応したキャラクター画像は、実際は、上記基本キャラクター画像に対する変形量として設定されるようになっている。
【0105】
なお、上記フォーマット記憶部44に記憶されている指令信号コードについては後に詳述する。
【0106】
また、本実施形態においては、上記キャラクター画像の生成および該キャラクター画像を変形させたキャラクター画像のデータ入力は、上述したようにコントローラパッド3をもちいて行ったが、これに限らず、たとえば、電子カメラ、スキャナ等で採取した任意の画像データ(使用者本人の顔等の実写を含む)であっても良い。
【0107】
また、通信前の準備段階においては、上記目の動きコード変換器51あるいは口の動きコード変換器50おいて、使用者(送り手側話者)がHMD1で検出した送り手側話者の目、口の動きに基づく表情変化の基準値を設定するようになっている。
【0108】
なお、基準値とは、当該話者の表情の変化の程度に応じて当該指令信号コードを出力するか否かを判定する際のしきい値を意味する。
【0109】
すなわち、上述したようにHMD1には、上記左右の視線検出器15,12およびマイク19(図3参照)が設けられている。そして、上記左右の視線検出器15,12で送り手側話者の目の動きを、マイク19で同口の動きを検出し、これらの検出結果が図4中、口の動きコード変換器50または目の動きコード変換器51に送出されるようになっている。なお、詳しくは後述する。
【0110】
なお、上記HMD1は、上記表情変化の基準値を設定する際に用いる検出手段であるとともに、対話を行う際に送り手側話者の各表情変化(目、口、頭の動き)および音声信号を互いに同期した所定のタイミングで検出して送出する検出手段としての役目も果たすようになっている。
【0111】
上記キャラクターデータ生成装置43の出力端は、一方で、上述したようにキャラクター画像生成装置39に接続され、さらに該キャラクター画像生成装置39を介してHMD1の表示部(右接眼光学系13,16等の光学系)に接続されている。これにより、使用者は、HMD1を装着することで上記キャラクター画像の生成作業をモニタしながら行うことができるようになっている。
【0112】
また、上記キャラクターデータ生成装置43の出力端は、他方で、キャラクターデータ記憶装置36に接続されている。このキャラクターデータ記憶装置36は、該キャラクターデータ生成装置43で生成した送り手側話者の基本キャラクター画像のデータを記憶すると共に、上記フォーマット記憶部44に記憶された指令信号コードに対応する、上記基本キャラクター画像に所定の変形を施したキャラクター画像のデータ(実際は、該基本キャラクター画像に対する変形量のデータ)を記憶するようになっている。
【0113】
また、キャラクターデータ記憶装置36には上記キャラクターデータ送信器31が接続されており、通信の初期段階において、上記キャラクターデータ記憶装置36に記憶された送り手側話者の基本キャラクター画像、変形キャラクター画像に係るキャラクターデータがキャラクターデータ送信器31より相手受け手側装置のキャラクターデータ受信器32に向けて送信されるようになっている。
【0114】
一方、相手受け手側装置で生成された受け手側話者の基本キャラクター画像、変形キャラクター画像に係るキャラクターデータを受信するキャラクターデータ受信器32の出力端には、該相手受け手側装置で生成された上記各種キャラクターデータを記憶するキャラクターデータ記憶装置37が接続されており、通信初期段階において相手受け手側話者の各種キャラクターデータを一旦記憶するようになっている。
【0115】
以上が、本実施形態の画像音声通信システムにおいて、通信前の準備段階あるいは通信の初期段階で主に用いられる構成要素について説明した。次に、通信が開始された後の対話段階に主に使用される構成要素について説明する。
【0116】
本実施形態の画像音声通信システムは、通信が開始され実際に対話が始まると、上記HMD1により送り手側話者の表情の変化を所定のタイミングで検出し、この表情の変化を所定のコードに変換して送出するようになっている。以下、この表情の変化に応じて送出される所定のコード変換器等について説明する。
【0117】
上記HMD1における上記右視線検出器12,左視線検出器15の出力端は、目の動きコード変換器51に接続され、該目の動きコード変換器51の出力端はさらに目の動きコード送信器45に接続されている。また、該HMD1におけるヘッドモーションセンサ11の出力端は、頭の動きコード変換器52に接続され、該頭の動きコード変換器52の出力端はさらに頭の動きコード送信器46に接続されている。さらに、マイク19の出力端は、口の動きコード変換器50および音声信号送信器48に接続され、上記口の動きコード変換器50の出力端はさらに口の動きコード送信器47に接続されている。
【0118】
通信の対話時において、上記目の動きコード変換器51は、上記HMD1の左右の視線検出器15,12で検出した視線データと上記基準値とに基づいて、所定の条件を満たした場合に送り手側話者の目の動きコードに変換し、目の動きコード送信器45より相手受け手側話者に向けて送出するようになっている。
【0119】
なお、頭の動きに関する基準値は予め工場出荷時に頭の動きコード変換器52に記憶されている。
【0120】
また、頭の動きコード変換器52は、HMD1のヘッドモーションセンサ11で検出した頭の動きデータを受けて該データを送り手側話者の頭の動きコードに変換し、頭の動きコード送信器46より相手受け手側話者に送出するようになっている。
【0121】
さらに、口の動きコード変換器50は、上記HMD1のマイク19で採取した音声信号に基づいて、所定の条件を満たした場合に送り手側話者の口の動きコードに変換し、口の動きコード送信器47より相手側に送出するようになっている。一方、マイク19の音声信号は音声信号送信器48より相手受け手側話者に音声信号として伝送される。また、受け手側話者においては、音声信号は音声信号受信器49で受信し、HMD1のスピーカ20で該音声を再生するようになっている。
【0122】
次に、通信の対話段階において、相手側の装置から伝送される各種キャラクターデータの受信器等について説明する。
【0123】
通信の対話段階において、目の動きコード送信器45,頭の動きコード送信器46,口の動きコード送信器47,音声信号送信器48から送信される送り手側話者の各種データは、それぞれ、目の動きコード受信器33,口の動きコード受信器34,頭の動きコード受信器35,音声信号受信器49で受信するようになっている。
【0124】
上記目の動きコード受信器33,口の動きコード受信器34は何れも相手受け手側装置から送出される目の動きコード,口の動きコードを受信する受信器であり、これら目の動きコード受信器33、口の動きコード受信器34と上記キャラクターデータ記憶装置37の出力端は何れもキャラクターデータ加工装置38に接続されている。
【0125】
上記キャラクターデータ加工装置38は、受信した受け手側話者の目の動きコード、口の動きコードに基づいてキャラクターデータ記憶装置37に記憶されたキャラクターデータのうち“目の動き”および“口の動き”を加工し、該加工結果をキャラクター画像生成装置39に対して出力するようになっている。
【0126】
上記キャラクター画像生成装置39では、上記キャラクターデータ加工装置38で加工された相手側のキャラクターデータに基づいて最終的な相手側のキャラクター画像を生成し、画像変形部41に対して出力するようになっている。なお、詳細は後述する。
【0127】
また、上記頭の動きコード受信器35は、相手受け手側装置から送出される頭の動きコードを受信する受信器であり、この頭の動きコード受信器35の出力端は画像変形量演算部40を経て画像変形部41に接続されている。上記画像変形量演算部40においては上記相手受け手側装置からの頭の動きコードに基づいて画像をどれだけ変形させるかを演算するようになっており、この演算結果に基づいて次段の画像変形部41において、上記キャラクター画像生成装置39で生成された相手側のキャラクター画像を変形させるようになっている。すなわち、頭の動きコード受信器35で受信した相手受け手側話者の頭の動きに応じてキャラクター画像生成装置39で最終的に生成した相手側のキャラクター画像を変形させるようになっている。なお、上記画像変形量演算部40および画像変形部41の作用については、後に詳述する。
【0128】
上記画像変形部41の出力は座標変換部42に接続されており、該画像変形部41で変形処理が施された相手側のキャラクター画像は座標変換部42で座標変換処理が施され、モニタする側のHMD1に送出されるようになっている。このとき、上記座標変換部42における座標変換は、送り手側話者がモニタする画面においては、送り手側話者の頭の動きに応じてモニタ画面上に映し出されている相手のキャラクター画像の変換ベクトルが決定されるようになっている。なお、この座標変換部42の作用については後に詳述する。
【0129】
一方、音声信号受信器49は、相手受け手側装置からの音声信号を受信する受信器であり、受信された受け手側話者の音声信号は、HMD1のスピーカ20に送出され、再生されるようになっている。
【0130】
なお、本実施形態においては、上記マイク19は、HMD1を装着した際に使用者の口部前方に位置するように配設しているが、これに限らず、たとえば、図6に示すようにHMD1の光学系の近傍に配設(図中、符号19A)しても良い。これにより、HMD1をより簡素に構成することができる。
【0131】
以上、本第1の実施形態である画像音声通信システムにおいて、各話者が使用する画像音声通信装置の構成について説明した。
【0132】
次に、本画像音声通信システムの作用について説明する。
まず、具体的な作用の説明に先だって、本画像音声通信システムを実際に使用する際の使用状況を図5に示す。
【0133】
前述したように、互いにそれぞれHMDを装着した状態で対話を行う場合、前述したように一方の話者のモニタ画面には他方の話者のキャラクター画像が表示されている。すなわち、いま、一方の話者を使用者甲、他方の話者を使用者乙とし、使用者甲のキャラクター画像を図中、作成画像II、使用者乙のキャラクター画像を図中、作成画像Iとすると、それぞれ装着したHMD1のモニタ画面(図中、座標面I、座標面IIで示す)には、図示の如く、相手側話者のキャラクター画像が表示されている。
【0134】
本第1の実施形態の画像音声通信システムにおいては、通信を行う前段階として、各話者がその使用する画像音声通信装置に自身のキャラクター画像の設定等、所定の設定を行うようになっている。以下、この通信前段階の作用について説明する。
【0135】
まず、通信前段階の作業として、(1) それぞれ自身の基本となるキャラクター画像を生成する。(2) 上記基本キャラクター画像に対して、所定の指令信号コードに対応する表情変化(目、口の動き)を付けた新たなキャラクター画像に関するデータ(該基本キャラクター画像に対してどれだけ変形するかのデータ、以下、変形キャラクター画像データとする)を生成する。(3) 自身の目、口の動きを検出し、所定の指令信号コードに対応する表情変化の基準値(しきい値)を設定する等を行うようになっている。
【0136】
これらの作業について図7ないし図15を参照して説明する。
本第1の実施形態の画像音声通信システムでは、上述したように送り手側話者で生成するキャラクターデータは上記映像生成ボックス2内のキャラクターデータ生成装置43においてフォーマット記憶部44に記憶された専用の作成ソフトを用いて作成するようになっている。
【0137】
まず、使用者はHMD1を装着し、所定の操作でキャラクターデータ作成モードに設定する。なお、この操作は上記コントローラパッド3のキャラクターデータ生成用コントローラ61、ダイヤルボタン62等を用いて行われる。このキャラクターデータ作成モードに設定されるとキャラクターデータ生成装置43において作成ソフトが起動する。このとき、HMD1のモニタ画面上には図7に示すようなキャラクターデータ作成ソフトの画面が掲示される。以下、図8,図9,図10に示すフローチャートを参照して説明する。
【0138】
まず、キャラクターデータ作成ソフトが起動すると、キャラクター画像の基本図の作成を行う(ステップS1)。このとき、使用者(送り手側話者)はコントローラパッド3のキャラクターデータ生成用コントローラ61、ダイヤルボタン62等を操作し、HMD1のモニタ画面上に展開される図7に示すような作図画面をモニタしながら、自身のキャラクター画像を作成する。
【0139】
いま、使用者(送り手側話者)が自身のキャラクター画像を、たとえば図11に示すような猫の顔に設定したとする。このとき、該キャラクター画像の基本図のキャラクターデータとしては、「顔の輪郭」を示す大きな円1(半径、中心座標および色彩が設定される)と、「目」を示す円3(上記同様半径、中心座標および色彩が設定される)と、「瞳」を示す円2(同、半径、中心座標および色彩が設定される)と、「口」を示す線(長さ、中心座標および色彩が設定される)等が設定される。
【0140】
上記キャラクター画像が完成すると次に該キャラクター画像のキャラクターデータをキャラクターデータ記憶装置36に記憶する(ステップS2)。この後、基本図として記憶された該キャラクター画像を所定の条件に従い加工する(ステップS3)。以下、この加工ルーチンについて図9に示すフローチャートおよび図11〜図14を参照して説明する。
【0141】
図11に示す猫の顔図を基本図とすると、まず、この基本図を加工して視線を左に動かした図を作成する(ステップS11)。具体的には、使用者はコントローラパッド3を用いて図12に示すように、「瞳」を示す上記円2の中心座標データを変更し、図に示すように基本図(図11)に対して視線が左に動いた表情を作成する。次に、上記ステップS11において加工した図において、基本図に対して加工した量(すなわち、瞳の中心座標の移動量)をコード“EL”と共に記憶する(ステップS12)。
【0142】
次に、上記基本図を加工して視線を右に動かした図を作成する(ステップS13)。この場合も上記ステップS11と同様に、使用者はコントローラパッド3を用いて「瞳」を示す上記円2の中心座標データを変更し、基本図(図11)に対して視線が右に動いた表情を作成する。次に、上記ステップS12と同様に、上記ステップS13において加工した加工量をコード“ER”として記憶する(ステップS14)。
【0143】
次に、上記基本図を加工して目を閉じた場合の図を作成する(ステップS15)。具体的には、使用者はコントローラパッド3を用いて図13に示すように、「瞳」を示す上記円2と、「目」を示す円3のうち片方の円のデータを変更して、図示の如く基本図(図11)に対して目を閉じた表情を作成する。次に、上記ステップS15において加工した図において、基本図に対して加工した量をコード“EC”と共に記憶する(ステップS16)。
【0144】
次に、上記基本図を加工して口を動かした場合、すなわち、何等かの音声を発したと考えられる場合の図を作成する(ステップS17)。具体的には、使用者はコントローラパッド3を用いて図14に示すように、「口」を示す上記線のデータを変更して、図示の如く基本図(図11)に対して口を動かした表情を作成する。次に、上記ステップS17において加工した図において、基本図に対して加工した量をコード“M”と共に記憶し(ステップS18)、メインルーチンに戻る。
【0145】
図8に戻って、次に、上記基本図に対して加工された「目の動き」、「口の動き」に対する対応関係を定める操作を行う(ステップS4)。
【0146】
以下、この対応関係の設定操作について図10に示すフローチャートを参照して説明する。
【0147】
使用者(送り手側話者)は上記キャラクター画像の基本図の作成、基本図の加工に引き続いてHMD1を装着する。そして、上記ステップS11〜S18(図9参照)において「目の動き」、「口の動き」に対応して加工した各キャラクター画像に、実際に使用者の「目の動き」、「口の動き」を対応するべく各種検出を行う。
【0148】
まず、使用者の目の動きを検出する。すなわち、まず、使用者が視線を左に動かした場合の視線の動きを検出する(ステップS21)。ここで、この視線検出機構に関して図15および図16〜図19を参照して説明する。
【0149】
図15は、上記視線検出機構とその周辺部を示した説明図である。なお、上記図3,図4に示した構成要素と同様の構成要素には同一の符号を付与して示している。
【0150】
上記左右の接眼光学系13,16はハーフミラー面26を有するプリズムを形成しており、使用者がHMD1を装着した際に使用者の眼球28の前面に配置されるようになっている。また、上記接眼光学系13,16の底面は符号27で示すように凹面ミラーとなっている。さらに、上記接眼光学系13,16のさらに前方には、上記眼球28に向けて赤外線を照射する赤外線光源22と、眼球28で反射した該赤外線光を検出する左右の視線検出器12,15とが配設されている。
【0151】
上記左右の視線検出器12,15の何れもCCD29、検出回路30を備え、上記赤外線光源22から照射された赤外線光で照らされた眼球面、すなわち、黒目(瞳孔位置)を検出するようになっている。このとき、上記眼球面の像は凹面ミラー27で拡大されてCCD29に入射するようになっており、この後、該CCD29に入射した眼球28の像は次段の検出回路30に入力される。そして、この検出回路30において使用者の視線方向とまばたきが検出されるようになっている。
【0152】
なお、上記CCD29,検出回路30による検出精度は高いものである必要はなく、水平方向の分解能は5°位が確保できるようなものでよい。
【0153】
さて、上記検出した使用者の視線方向の動き、まばたき(目を閉じたことを意味する)と、上記ステップS11〜ステップS16で加工・記憶した各キャラクター画像との対応は、本実施形態の画像音声通信システムでは以下に示すように行う。
【0154】
まず、上記検出回路30で検知されるCCD29の暗電流を基準として、このときの電圧0mVを基準電位値とする。そして、たとえば、使用者の瞳の位置がほぼ中心に位置しているときには上記基準電位に対して+20mVの電圧信号が出力されるように設定する(図16参照)。そして、この+20mVの電圧信号を境に、瞳が左に移動したとき、すなわち視線が左に移動したときには基準電位に対して+30mVの電圧信号が、右に移動したときは同+10mVの電圧信号がそれぞれ出力されるように設定する(図17,図18参照)。また、まばたきをして目を閉じたときには、上記基準電位0mVが出力されるように設定する(図19参照)。
【0155】
図10に戻って、上記ステップS21で、使用者が視線を左に動かした場合の視線の動きを検出すると、このとき、上述したように上記検出回路30からは基準電位に対して+30mVの電圧信号が出力される(図18参照、ステップS22)。そして、図示はしないがこのときの電圧信号値+30mVが上記図12のように視線を左に動かした図に対応するコード“EL”の基準値として映像生成ボックス2内の目の動きコード変換器51に記憶される(ステップS23)。
【0156】
次に、使用者は視線を右に動かし、上記視線検出器12,15でこの視線の動きを検出すると(ステップS24)、このとき、上述したように上記検出回路30からは基準電位に対して+10mVの電圧信号が出力される(図17参照、ステップS25)。そして、上記同様にこのときの電圧信号値+10mVが視線を右に動かした図に対応するコード“ER”の基準値として映像生成ボックス2内の目の動きコード変換器51に記憶される(ステップS26)。
【0157】
次に、使用者は目を閉じ、上記視線検出器12,15でこの目が閉じられたことを検出すると(ステップS27)、このとき、上述したように上記検出回路30からは基準電位に対して+0mVの電圧信号が出力される(図19参照、ステップS28)。そして、上記同様にこのときの電圧信号値+0mVが上記図13に示す如く目を閉じたした図に対応するコード“EC”の基準値として映像生成ボックス2内の目の動きコード変換器51に記憶される(ステップS29)。
【0158】
次に、使用者の口の動きを検出する。すなわち、使用者が音声を発したか否かの検出を行う(ステップS30)。ここで、この音声検出機構に関して図20を参照して説明する。
【0159】
図20は、上記音声検出機構とその周辺部を示した説明図である。なお、上記図3,図4に示した構成要素と同様の構成要素には同一の符号を付与して示している。また、図中、符号301,302は、それぞれ送り手側装置,受け手側装置を示しており、その構成要素は同等である。
【0160】
送り手側話者の装置301において、通信前の所定の初期設定を行う準備段階の際、該マイク19からの音声信号は上記口の動きコード変換器50に対して送出されるようになっており、一方、通信対話段階においては該マイク19で採取した音声信号は音声信号送信器48に対して送出され受け手側の装置302に対して伝送される一方、会話中の使用者の口の動きが検出され映像生成ボックス2の口の動きコード変換器50に対して該情報が送出されるようになっている。
【0161】
上記口の動きコード変換器50は、図に示すように、基準音量レベル記憶部50Aと、口の動きコード生成部50Bと、上記基準音量レベル記憶部50Aのオン・オフを制御するスイッチ50Cとで構成されている。上記基準音量レベル記憶部50Aは、スイッチ50Cのオン時のみ動作するようになっており、該スイッチ50Cは、通信前の準備段階であって、基準音量レベルを設定するときのみにオンするようになっている。
【0162】
図10に戻って、基準音量レベルを設定する際には、上記スイッチ50Cがオンしており、使用者(送り手側話者)が音声を発すると(ステップS30)、該音声の音量がコード“M”の基準値として該基準音量レベル記憶部50A(音声検出器)に記憶され(ステップS31)、メインルーチンにリターンする。
【0163】
図8に戻って、上記ステップS4における基準値の設定が終了すると、送り手側話者は、基本キャラクター画像等を再度確認し(ステップS5)、必要ならば上記ステップS1〜ステップS4までの何れかあるいは全てを再度繰り返して所望のキャラクター画像、変形量が得られるまで調整する。
【0164】
以上で、本第1の実施形態の画像音声通信システムにおける、通信前段階の作用、すなわち、送り手側話者のキャラクター画像等のキャラクターデータの生成過程について述べた。
【0165】
次に、通信が開始された以降の作用について説明する。
【0166】
本第1の実施形態の画像音声通信システムにおいては、通信が開始されると、まず、所定のプロトコルにより初期交渉が行われ、引き続き、初期段階として以下に示すデータ転送が行われる。
【0167】
すなわち、まず、送り手側装置より、送り手側話者の基本キャラクター画像データが受け手側装置に転送され、該受け手側装置の記憶部に記憶する。
また、送り手側装置より、所定の指令信号コードに対応する表情変化を付けた変形キャラクター画像データが受け手側装置に転送され、該受け手側装置の記憶部に記憶する。
さらに上記初期段階のデータ転送が終了すると、実際の対話段階に移行し、以下の作業がなされる。
【0168】
まず、送り手側装置においては、送り手側話者の目、口の動きを所定のタイミングで検出する。
次に、送り手側話者の目、口の動きの検出結果と上記しきい値に基づいて所定の指令信号コードを逐次、受け手側装置に伝送する。
また、送り手側話者の頭の動きを所定のタイミングで検出し、この検出結果を逐次、受け手側装置に伝送する。なお、この頭の動きのコードの伝送は、上記所定の指令信号コードの伝送に同期している。
さらに、送り手側話者の音声信号を所定のタイミングで採取し、この音声信号を逐次、受け手側装置に伝送する。なお、この音声信号の伝送は、上記(2)における所定の指令信号コードの伝送に同期している。
【0169】
一方、受け手側装置においては、送り手側装置から逐次(実質的にリアルタイムに)送られてくる送り手側話者の目、口の動きに関する所定の指令信号コードを受けとる。
また、送り手側装置から逐次(実質的にリアルタイムに)送られてくる送り手側話者の頭の動きに関するコードを受けとる。
さらに、送り手側装置から逐次(実質的にリアルタイムに)送られてくる送り手側話者の音声信号を受けとる。
そして、受け取った指令信号コードに対応する目、口の動きのキャラクター画像データあるいは変形キャラクター画像データを記憶部より検索し読み出す。
さらに、読み出したキャラクター画像データあるいは変形キャラクター画像データと、受け取った頭の動きに関するコードに基づいて、送り手側話者のキャラクター画像を実質的にリアルタイムに表示部に表示する。
さらに、受け取った音声信号に基づいて、送り手側話者の音声をリアルタイムに再生する。
【0170】
以下、この通信段階における本第1の実施形態の画像音声通信システムの作用について図21ないし図32を参照して説明する。なお、これらの図においては、図5に示すように一方の使用者を甲、他方を乙とし、それぞれ使用者甲,乙が装着する装置を甲側の装置、乙側の装置とする。
【0171】
図21ないし図23は、本実施形態の画像音声通信システムにおいて通信が開始された後の作用を示したフローチャートである。図21は、通信が開始された後の甲側の装置における通信初期段階の作用を、図22は、甲側の装置における対話(送信)段階の作用を、図23は、乙側の装置における対話(受信)段階の作用をそれぞれ示している。
【0172】
図21に示すように、話者甲が他の任意の話者乙に対して通信を開始しようとする際には、まず、話者甲はHMD1を装着し、通話スイッチ24を操作してオフフックし、通常の電話回線を使用した通話と同様にダイヤルを開始する(ステップS41)。なお、このダイヤル操作は、本実施形態においては、上記コントローラパッド3に配設されたダイヤルボタン62によって行うようになっている。
【0173】
この後、回線が接続され、相手側話者乙との通話が可能となると、すなわち乙側の装置の受信準備ができると(ステップS42)、まず、相手側話者を識別するための、たとえばIDNo.等を選択し、相手側話者を識別する(ステップS43)。この操作は、コントローラパッド3により行われる。
【0174】
この後、甲側装置において上記説明した過程により生成された各種キャラクターデータ、基本キャラクター画像のデータ、キャラクター画像加工量(変形量)に係るデータがキャラクターデータ送信器31(図4参照)より話者乙に対して送信される。すなわち、まず、甲側装置より、話者乙の基本キャラクター画像データが乙側装置に対して送信される(ステップS44)。次に、甲側装置より、所定の指令信号コードに対応する表情変化を付けたキャラクター画像データの加工量データが乙側装置に送信される(ステップS45)。
【0175】
次に、乙側装置より送信される、話者乙の基本キャラクター画像データをキャラクターデータ受信器32で受信し(ステップS46)、該データをキャラクターデータ記憶装置37に記憶する(ステップS47)。次に、、乙側装置より送信される、話者乙の所定の指令信号コードに対応する表情変化を付けたキャラクター画像データの加工量データを同様にキャラクターデータ受信器32で受信し(ステップS48)、該データをキャラクターデータ記憶装置37に記憶する(ステップS49)。
【0176】
次に、話者甲の頭の位置をリセットする(ステップS50)。これは、話者甲が装着したHMD1におけるヘッドモーションセンサ11の位置をリセットする。なお、このリセット動作は、上記ステップS49までの動作が完了した段階で自動的に行われても良いし、使用者が図示しないスイッチ等により行っても良い。
【0177】
このように初期段階の各種キャラクターデータの転送が終了すると、実際の対話段階に移行する。
図22に示すように、まず、甲側装置で、話者甲自身の音声を検出する(ステップS51)。この音声検出は、マイク19で採取した話者甲の音声を音声信号送信器48で検出し、音声を検出すると同音声信号送信器48より音声信号を送信する(ステップS52)。
【0178】
上記マイク19で採取した話者甲の音声は、同時に上記口の動きコード生成部50B(図20参照)に入力され、予め基準音量レベル記憶部50Aで設定された基準音量レベルに達したか否かを判定し(ステップS53)、基準値以上であれば、口の動きコード変換器50内の該規格化音量レベル変換部50Bで口の動きを上記指令信号コードに対応したコード“M”に変換し(ステップS54)、口の動きコード送信器47より乙側装置に送信して(ステップS55)、ステップS56に移行する。
【0179】
上記ステップS51において、話者甲の音声が検出されないとき、また、上記ステップS53において、検出された音声が上記基準値に満たない場合は、ともにステップS56に移行する。
【0180】
上記ステップS56においては、話者甲の目の動きを検出する。これは、上記右視線検出器12,左視線検出器15により話者甲の視線を検出し、該視線の動きが予め上記ステップS23,S26,S29(図10参照)で設定した基準値を満たすときには、上記目の動きコード変換器51(図4参照)で、所定のコード(“EL”,“ER”,“EC”)に変換し(ステップS57)、上記目の動きコード送信器45より乙側装置に送信して(ステップS58)、ステップS59に移行する。
【0181】
上記ステップS56において、話者甲の目の動きが検出されないとき、すなわち視線の動きが上記基準値を満たさないときには、ステップS59に移行する。
【0182】
上記ステップS59においては、話者甲の頭の動きを検出する。これは、HMD1のヘッドモーションセンサ11で話者甲の頭の動きを検出し、この頭の動きを検出すると、頭の動きコード変換器52において所定のコードに変換し(ステップS60)、頭の動きコード送信器46より乙側装置に送信する(ステップS61)。
【0183】
ここで、上記頭の動きの検出およびこの動きの検出がなされた際の処理について図24,図25を参照して説明する。
【0184】
図24は、本実施形態の画像音声通信システムにおいて、使用者がHMD1を装着した様子を正面からみた図であり、図25は、同様に使用者がHMD1を装着した様子を一側面からみた図である。
【0185】
使用者がHMD1を装着した状態で、該使用者の頭の動きとしては、図24に示すようなロール方向、ヨー方向、図25に示すようなピッチ方向の動きが考えられる。本実施形態の画像音声通信システムにおいては、このような使用者の頭の動きを上記ヘッドモーションセンサ11で検出するようになっている。上述したように、対話が開始されると初期段階でヘッドモーションセンサ11の位置がリセットされるようになっている(ステップS50、図21参照)。そして、このリセットされた基準位置よりヘッドモーションセンサ11がどれだけ変位したかを計測することで、使用者の頭の動きを捉えることができる。
【0186】
本実施形態においては、対話時において、上記ヘッドモーションセンサ11の変位を常時検出し、この検出結果に基づいて頭の動きコード変換器52で所定のコードを生成し、上記目、口の動きのコード(指令信号コードに対応したコード)の伝送に同期して受け手側話者に対して送出するようになっている。
【0187】
上記頭の動きに係る所定のコードは、本実施形態においては、上記ロール方向、ヨー方向、ピッチ方向の動きに対応した3種類のコードが用意されている。そして、ヘッドモーションセンサ11の検出結果を受けて上記頭の動きコード変換器52において、使用者の頭がこれらロール方向、ヨー方向、ピッチ方向の何れかあるいは複合された動きをしたと判断すると、これらの動きに対応した上記3種類のコードのうち何れかあるいは複合的に変換し、頭の動きコード送信器46に送出するようになっている。
【0188】
以上、図21,図22を参照して、一方の話者である甲側の送信作用について説明したが、次に、対話段階において甲側からの送信信号を受信する乙側の受信作用について図23を参照して説明する。
【0189】
図23は、乙側の装置における対話受信段階の作用を示したフローチャートである。
【0190】
対話が開始されると、乙側装置は甲側装置からの音声信号の受信の有無を判定する(ステップS71)。これは、甲側装置301(図20参照)の音声信号送信器48から何等かの音声信号が送信されると乙側装置302の音声信号受信器49で受信するようになっており、該ステップS71で音声信号を受信すると、スピーカ20で甲側話者の音声を再生する(ステップS72)。
【0191】
この後、甲側装置の口の動きコード送信器47から送出された所定の口の動きコードを乙側装置の口の動きコード受信器34(図4,図20参照)で受信したか否かを判定し(ステップS73)、該コードが受信されたならば、キャラクターデータ加工装置38(図4参照)において、上述したように該コードに応じてキャラクター画像のデータを加工し(ステップS74)、ステップS75に移行する。
【0192】
また、上記ステップS71において、甲側装置より何等音声を受信しない場合、ステップS73において、口の動きコードを受信しない場合(話者甲に係る何等かの音声は受信するが、音量レベルが所定の基準値より低く甲側装置において口の動きコードが生成されない場合)は、ともにステップS75に移行する。
【0193】
ステップS75においては、乙側装置における動きコード受信器33が、甲側装置における目の動きコード送信器45から送出される所定の目の動きコードを受信したか否かを判定する。ここで、該コードを受信すると、キャラクターデータ加工装置38(図4参照)において、上述したように該コードに応じてキャラクター画像のデータを加工し(ステップS76)、ステップS77に移行する。また、上記ステップS75において、甲側装置からの目の動きコードを受信しない場合は、ステップS77に移行する。
【0194】
ステップS77においては、乙側装置は、上述したようにキャラクター画像生成装置39において甲側話者のキャラクター画像を生成する。このとき、話者乙のHMD1におけるモニタ画面には、たとえば、図11〜図14に示すような話者甲のキャラクター画像が、当該話者甲の目、口の動きに応じて表情を変化させて表示されている。また、このキャラクター画像は、上述したように、話者甲の目、口の動きに応じて実質的にリアルタイムに変化する。
【0195】
この後、ステップS78において、乙側装置における頭の動きコード受信器35が、甲側装置における頭の動きコード送信器46から送信される所定の頭の動きコードを受信したか否かを判定する。この頭の動きコードは、上述したように、ロール方向、ヨー方向、ピッチ方向の動きに対応した3種類のコードである。
【0196】
このステップS78で少なくとも上記何れかのコードを受信すると、乙側装置は、画像変形量演算部40において受信したコードに基づいて画像をどれだけ変形させるかを演算する。そして、この演算結果に基づいて次段の画像変形部41において、上記ステップS77においてキャラクター画像生成装置39で生成された話者甲のキャラクター画像を変形させ(ステップS79)、この後ステップS80に移行する。なお、上記ステップS78において、何れのコードも受信しない場合は、ステップS80に移行する。
【0197】
すなわち、乙側装置の頭の動きコード受信器35で受信した話者甲の頭の動きに応じてキャラクター画像生成装置39で最終的に生成した相手側(甲)のキャラクター画像を変形させる。
【0198】
ここで、この画像変形の具体例について説明する。
図26ないし図28は、本第1の実施形態の画像音声通信システムにおける乙側装置が、甲側装置より頭の動きコードを受信した際に行う画像変形の例を示した図であり、図26は、話者甲のロール方向の頭の動きに対応したコードを受信した際の画像変形の一例、図27は、話者甲のピッチ方向の頭の動きに対応したコードを受信した際の画像変形の一例、図28は、話者甲のヨー方向の頭の動きに対応したコードを受信した際の画像変形の一例をそれぞれ示している。なお、話者甲のキャラクター画像は、上記図14に示したキャラクター画像を例にとって示している。
【0199】
乙側装置が話者甲のロール方向の頭の動きに対応したコードを受信すると、話者乙のHMD1のモニタ画面上には、図26に示すように、キャラクター画像の所定の一点(図に示す例においては、顔の最下点)を中心に座標を回転(ロールの+方向、−方向に応じた回転)させたキャラクター画像が表示される。なお、本図においては、ロール+方向のコードを受信した例を示している。
【0200】
乙側装置が話者甲のピッチ方向の頭の動きに対応したコードを受信すると、話者乙のHMD1のモニタ画面上には、図27に示すように、キャラクター画像に図示の如く周知の台形歪処理(縦方向歪)を施したキャラクター画像が表示される。なお、本図においては、ピッチ+方向のコードを受信した例を示している。
【0201】
乙側装置が話者甲のヨー方向の頭の動きに対応したコードを受信すると、話者乙のHMD1のモニタ画面上には、図28に示すように上記同様キャラクター画像に図示の如く台形歪処理(横方向歪)を施したキャラクター画像が表示される。なお、本図においては、ヨー+方向のコードを受信した例を示している。
【0202】
また、乙側装置が上記3種類の頭の動きのコードを所定時間内に複数受信すると、乙側装置は上記図26ないし図28に示した画像変形を複合してHMD1のモニタ画面上に表示するようになっている。
【0203】
図23に戻って、次に、乙側装置は、話者乙自身の頭の動きを上記ヘッドモーションセンサ11で検出する(ステップS80)。そして、話者乙の頭の動きが検出されると、この検出結果に応じて上記座標変換部42で話者乙自身のモニタ画面に映し出された話者甲のキャラクター画像の座標変換を行う(ステップS81)。
【0204】
ここで、この座標変換について説明する。
【0205】
上記座標変換部42においては、話者乙がモニタする画面において、話者乙の頭の動きに応じてモニタ画面上に映し出されている話者甲のキャラクター画像の変換ベクトルが決定される。本実施形態においては、上記ステップS50における甲側の頭の位置(ヘッドモーションセンサ11の位置)のリセット動作と同様に話者乙の頭の位置もリセットされる。
【0206】
このときの状態を標準位置とすると、話者乙の頭の位置がこの標準位置にあるときは、たとえば図29に示すように話者甲のキャラクター画像はモニタ画面のほぼ中央に位置する。
【0207】
いま、話者乙が自身の頭を上記標準位置よりヨー(+)方向(図24に示すように、話者乙の左方向への回転を(+)方向とする)に移動したとすると、モニタ画面上に表示される話者甲のキャラクター画像は図30に示すように向かって右方向に移動して表示される。
【0208】
また、同様に、話者乙が頭を上記標準位置よりピッチ(+)方向(図25に示すように、話者乙の下方向への回転を(+)方向とする)に移動したとすると、モニタ画面上に表示される話者甲のキャラクター画像は図31に示すように上方向に移動して表示される。
【0209】
さらに、話者乙が頭を上記標準位置よりロール(+)方向(図24に示すように、話者乙の左方向への回転を(+)方向とする)に移動したとすると、モニタ画面上に表示される話者甲のキャラクター画像は図32に示すように向かって時計回りに回転して表示される。
【0210】
以上のように、話者乙のHMD1のモニタ画面には、甲側装置から送出される上記各データに基づいて加工、変形、変換が施された話者甲のキャラクター画像が表示される(ステップS82)。
【0211】
このような、本第1の実施形態の画像音声通信システムによると、以下に示す如く効果を奏する。
【0212】
(1) 自分の顔とは無関係なキャラクター画像で対話を楽しむことができるテレビ電話システムを提供できる。すなわち、上記キャラクター画像は、任意に作成したり、所定のものより選択して使用できる。
【0213】
(2) 簡単な構成の装置で難しい手間もかからず、使用者の顔の動きや表情の変化を実質的にリアルタイムに相手側に伝達することができるテレビ電話システムを提供できる。すなわち、使用者の顔の動きや表情の変化を示す情報は、簡素なデータでよく、高速に送受信することができる。
【0214】
(3) 使用者は特別な意識を持つことなく対話を行うことができるテレビ電話システムを提供できる。すなわち、HMDを装着するだけで良い。
【0215】
(4) 使用者は所定姿勢を強制されることなく対話を行うことができるテレビ電話システムを提供できる。すなわち、特別なディスプレイやカメラに対峙することなく対話できる。
【0216】
(5) 通信開始前に面倒な準備をすることなく、家庭においても容易に使用することができるテレビ電話システムを提供できる。すなわち、表情検出のためのマーカーを顔に張り付けることなく対話を開始できる。
【0217】
次に、本発明の第2の実施形態の画像音声通信システムについて説明する。
本第2の実施形態の基本的な構成、作用は上記第1の実施形態と同様であり、ここでは差異のみの言及にとどめ同一部分の説明は省略する。
【0218】
上記第1の実施形態の画像音声通信システムにおいては、対話段階において一方の話者甲がモニタする他方の話者乙の像は、当該話者乙が乙側装置で設定した話者乙のキャラクタ画像であるが、この第2の実施形態の画像音声通信システムにおいて話者甲がモニタする話者乙の像は、予め甲側装置で任意に設定あるいは記憶された所定のキャラクタ画像を使用することを特徴とする。
【0219】
すなわち、話者甲が自身のHMD1のモニタ上で見る話者乙のキャラクター画像は、話者甲が予め設定あるいは記憶されたキャラクター画像である。このとき、当該乙のキャラクター画像は、乙固有のキャラクター画像として予め話者甲が甲側装置において設定したものを使用してもよいし、あるいは不特定のキャラクター画像を甲側が任意に選択して使用しても良い。
【0220】
また、対話中、話者甲が見る話者乙のキャラクター画像は、任意に切換えて使用されても良い。
【0221】
さらに、通信開始の際、予め設定されたID番号等で互いが認識できるようにすれば、該ID番号に対応した相手側のキャラクター画像を受け手側で選択することもできる。
【0222】
このような、第2の実施形態の画像音声通信システムによると、第1の実施形態に係る上記(2) ないし(5)項で示す効果に加え、以下に示す如く効果を奏する。
【0223】
対話相手のキャラクタ像を受け手側において任意に設定あるいは切換えることができ、楽しい対話を実現することができる。
【0224】
【発明の効果】
以上説明したように本発明によれば、簡単で安価な装置を用い、使用者に手間をかけることなく、話者の顔の動きや表情をリアルタイムに伝送する画像音声通信システムおよびテレビ電話送受信方法を提供できる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態である画像音声通信システムにおいて用いられる画像音声通信装置の主要構成を示したブロック図である。
【図2】本発明の第1の実施形態である画像音声通信システムの主要構成を示したシステム図である。
【図3】上記第1の実施形態の画像音声通信システムにおいて、HMDを使用者が装着した際の様子を一側方よりみた側面図である。
【図4】上記第1の実施形態の画像音声通信システムにおいて、HMD,映像生成ボックス,コントローラパッドの接続対応と、これら各部の電気回路的な構成を詳しく示したブロック構成図である。
【図5】上記第1の実施形態の画像音声通信システムを実際に使用する使用者の状況を示した俯瞰図である。
【図6】上記第1の実施形態の画像音声通信システムにおいて、HMDに設けられるマイクの変形例を示した要部外観斜視図である。
【図7】上記第1の実施形態の画像音声通信システムにおいて、所定キャラクター画像生成ソフトを用いた際のHMDモニタ画面の一例を示した説明図である。
【図8】上記第1の実施形態の画像音声通信システムにおいて、送り手側話者の基本キャラクター画像のデータおよび該キャラクター画像に関連する各種データを生成する作業を示すフローチャートである。
【図9】上記第1の実施形態の画像音声通信システムにおいて、送り手側話者の基本キャラクター画像に所定の加工を施すとともに、該加工に係る所定コードを生成する作業を示すフローチャートである。
【図10】上記第1の実施形態の画像音声通信システムにおいて、送り手側話者の基本キャラクター画像に施された所定加工に係る所定コードの送信基準となる基準値の設定作業を示すフローチャートである。
【図11】上記第1の実施形態の画像音声通信システムにおいて、送り手側話者の基本キャラクター画像の一例を示した図である。
【図12】上記第1の実施形態の画像音声通信システムにおいて、送り手側話者の基本キャラクター画像を加工して生成された、視線を左に動かしたキャラクター画像の一例を示した図である。
【図13】上記第1の実施形態の画像音声通信システムにおいて、送り手側話者の基本キャラクター画像を加工して生成された、目を閉じたキャラクター画像の一例を示した図である。
【図14】上記第1の実施形態の画像音声通信システムにおいて、送り手側話者の基本キャラクター画像を加工して生成された、口を開けたキャラクター画像の一例を示した図である。
【図15】上記第1の実施形態の画像音声通信システムにおける、視線検出機構とその周辺部を示した説明図である。
【図16】上記第1の実施形態の画像音声通信システムにおいて、上記図15に示す視線検出機構で検出する視線に応じて生じる電位と、該電位に対応して設定される視線位置(基準位置)を説明した図である。
【図17】上記第1の実施形態の画像音声通信システムにおいて、上記図15に示す視線検出機構で検出する視線に応じて生じる電位と、該電位に対応して設定される視線位置(右に移動)を説明した図である。
【図18】上記第1の実施形態の画像音声通信システムにおいて、上記図15に示す視線検出機構で検出する視線に応じて生じる電位と、該電位に対応して設定される視線位置(左に移動)を説明した図である。
【図19】上記第1の実施形態の画像音声通信システムにおいて、上記図15に示す視線検出機構で検出する視線に応じて生じる電位と、該電位に対応して設定される視線位置(目を閉じる)を説明した図である。
【図20】上記第1の実施形態の画像音声通信システムにおける音声検出機構とその周辺部を示した説明図である。
【図21】上記第1の実施形態の画像音声通信システムにおいて、通信開始後における、一方の話者甲の通信初期段階の作用を示したフローチャートである。
【図22】上記第1の実施形態の画像音声通信システムにおいて、通信開始後の対話段階における、一方の話者甲の送信作用を示したフローチャートである。
【図23】上記第1の実施形態の画像音声通信システムにおいて、通信開始後の対話段階における、他方の話者乙の作用を示したフローチャートである。
【図24】上記第1の実施形態の画像音声通信システムにおいて、使用者がHMDを装着した様子を正面からみた図である。
【図25】上記第1の実施形態の画像音声通信システムにおいて、使用者がHMDを装着した様子を一側方からみた図である。
【図26】上記第1の実施形態の画像音声通信システムにおける乙側装置が、甲側装置より頭の動きコードを受信した際に行う画像変形の例を示し、話者甲のロール方向の頭の動きに対応したコードを受信した際の画像変形の一例を示した図である。
【図27】上記第1の実施形態の画像音声通信システムにおける乙側装置が、甲側装置より頭の動きコードを受信した際に行う画像変形の例を示し、話者甲のピッチ方向の頭の動きに対応したコードを受信した際の画像変形の一例を示した図である。
【図28】上記第1の実施形態の画像音声通信システムにおける乙側装置が、甲側装置より頭の動きコードを受信した際に行う画像変形の例を示し、話者甲のヨー方向の頭の動きに対応したコードを受信した際の画像変形の一例を示した図である。
【図29】上記第1の実施形態の画像音声通信システムにおける座標変換に係る説明図であって、話者乙の頭の位置が標準位置にあるときの、話者乙のモニタ画面上に表示される話者甲のキャラクター画像の表示例を示した図である。
【図30】上記第1の実施形態の画像音声通信システムにおける座標変換に係る説明図であって、話者乙が自身の頭を標準位置よりヨー方向に移動したときの、話者乙のモニタ画面上に表示される話者甲のキャラクター画像の表示例を示した図である。
【図31】上記第1の実施形態の画像音声通信システムにおける座標変換に係る説明図であって、話者乙が自身の頭を標準位置よりピッチ方向に移動したときの、話者乙のモニタ画面上に表示される話者甲のキャラクター画像の表示例を示した図である。
【図32】上記第1の実施形態の画像音声通信システムにおける座標変換に係る説明図であって、話者乙が自身の頭を標準位置よりロール方向に移動したときの、話者乙のモニタ画面上に表示される話者甲のキャラクター画像の表示例を示した図である。
【符号の説明】
1…HMD
2…映像生成ボックス
3…コントローラパッド
4…外部装置
5…電話回線
11…ヘッドモーションセンサ
12、15…視線検出器
13、16…接眼光学系
14、17…LCD
19…マイク
20…スピーカ
31…キャラクターデータ送信器
32…キャラクターデータ受信器
33…目の動きコード受信器
34…口の動きコード受信器
35…頭の動きコード受信器
36…キャラクターデータ記憶装置(送信側)
37…キャラクターデータ記憶装置(受信側)
38…キャラクターデータ加工装置
39…キャラクター画像生成装置
40…画像変形量演算部
41…画像変形部
42…座標変換部
43…キャラクターデータ生成装置
44…フォーマット記憶部
45…目の動きコード送信器
46…頭の動きコード送信器
47…口の動きコード送信器
48…音声信号送信器
49…音声信号受信器
50…口の動きコード変換器
51…目の動きコード変換器
52…頭の動きコード変換器
100…キャラクター画像生成手段
101…キャラクターデータ入力手段
102…第1の変換手段
103…表示手段
104…第1のキャラクターデータ記憶手段
105…表情検出手段
106…データ送信手段
107…第1の選択手段
108…表情コード変換手段
111…データ受信手段
112…第2の選択手段
113…第2のキャラクターデータ記憶手段
114…キャラクターデータ加工手段
115…第2の変換手段
116…表示手段
117…画像変形手段
118…音声再生手段

Claims (2)

  1. 画像音声通信システムに用いる画像音声通信装置であって、
    画像表示手段と、
    通信相手から受信した音声信号を再生するための音声出力手段と、
    前記画像表示手段による表示に適用するキャラクター画像を記憶するキャラクター画像データ記憶手段と、
    通信相手から当該キャラクター画像に対して変形を与えるための指令信号コードを受信する変形指令受信手段と、
    前記指令信号コードに応じて前記キャラクター画像に変形を施すためのキャラクター変形手段と、
    前記キャラクター変形手段によって変形が施されたキャラクター画像を前記画像表示手段に供給して表示せしめるための手段と、
    通信実行に際して、通信相手から伝送される信号によって通信相手を認識し、当該通信相手を表すキャラクター画像を選択して前記画像表示手段による表示に適用する表示キャラクター選択手段と、
    を具備し、
    キャラクター画像と指令信号コードとこれに対応する当該キャラクター画像の変形の程度との対応関係を表す第1の情報を会話の開始に先行して伝送し、会話中は、上記指令信号コードのみからなる第2の情報と音声信号とをリアルタイムで伝送することを特徴とする画像音声通信装置。
  2. 前記第1の情報におけるキャラクター画像と指令信号コードとこれに対応する当該キャラクター画像の変形の程度との対応関係を送信側の通信者が任意に決定するキャラクター画像変形量決定手段と、
    前記指令信号コードの送信実行の条件を送信側の通信者が任意に決定する送信条件決定手段と、
    を、さらに具備したことを特徴とする請求項に記載の画像音声通信装置。
JP07006297A 1997-03-24 1997-03-24 画像音声通信システムおよびテレビ電話送受信方法 Expired - Fee Related JP3771989B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP07006297A JP3771989B2 (ja) 1997-03-24 1997-03-24 画像音声通信システムおよびテレビ電話送受信方法
US09/045,525 US6313864B1 (en) 1997-03-24 1998-03-20 Image and voice communication system and videophone transfer method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP07006297A JP3771989B2 (ja) 1997-03-24 1997-03-24 画像音声通信システムおよびテレビ電話送受信方法

Publications (2)

Publication Number Publication Date
JPH10271470A JPH10271470A (ja) 1998-10-09
JP3771989B2 true JP3771989B2 (ja) 2006-05-10

Family

ID=13420690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP07006297A Expired - Fee Related JP3771989B2 (ja) 1997-03-24 1997-03-24 画像音声通信システムおよびテレビ電話送受信方法

Country Status (2)

Country Link
US (1) US6313864B1 (ja)
JP (1) JP3771989B2 (ja)

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100575472B1 (ko) * 1998-05-19 2006-05-03 가부시키가이샤 소니 컴퓨터 엔터테인먼트 화상 처리 장치와 방법
US7081915B1 (en) * 1998-06-17 2006-07-25 Intel Corporation Control of video conferencing using activity detection
US6577861B2 (en) * 1998-12-14 2003-06-10 Fujitsu Limited Electronic shopping system utilizing a program downloadable wireless telephone
US6512919B2 (en) * 1998-12-14 2003-01-28 Fujitsu Limited Electronic shopping system utilizing a program downloadable wireless videophone
US6208372B1 (en) * 1999-07-29 2001-03-27 Netergy Networks, Inc. Remote electromechanical control of a video communications system
JP4697500B2 (ja) * 1999-08-09 2011-06-08 ソニー株式会社 送信装置および送信方法、受信装置および受信方法、並びに記録媒体
JP2001169257A (ja) * 1999-12-14 2001-06-22 Matsushita Electric Ind Co Ltd テレビ電話機
JP3953258B2 (ja) * 2000-05-30 2007-08-08 シャープ株式会社 通信端末装置
US6529195B1 (en) * 2000-09-08 2003-03-04 James B. Eberlein Pain migration tracking and display method
US6867797B1 (en) * 2000-10-27 2005-03-15 Nortel Networks Limited Animating images during a call
JP2002152384A (ja) * 2000-11-09 2002-05-24 Victor Co Of Japan Ltd キャラクターデータ配信支援システム、ユーザー端末、ネットワークサービスサーバー及びキャラクターデータ配信方法
JP3760761B2 (ja) * 2000-11-28 2006-03-29 オムロン株式会社 情報提供システム及び方法
US6909453B2 (en) * 2001-12-20 2005-06-21 Matsushita Electric Industrial Co., Ltd. Virtual television phone apparatus
JP3788969B2 (ja) * 2002-10-25 2006-06-21 三菱電機株式会社 リアルタイム表情追跡装置
US7106358B2 (en) * 2002-12-30 2006-09-12 Motorola, Inc. Method, system and apparatus for telepresence communications
US7432879B2 (en) * 2003-02-10 2008-10-07 Schonlau William J Personal viewer
JP2004289254A (ja) * 2003-03-19 2004-10-14 Matsushita Electric Ind Co Ltd テレビ電話端末
JP2004304765A (ja) * 2003-03-20 2004-10-28 Fuji Photo Film Co Ltd 画像記録装置および方法並びにプログラム
US7271825B2 (en) * 2004-11-04 2007-09-18 Sony Corporation Kinesiological model-based gestural augmentation of voice communication
US7773111B2 (en) * 2005-03-16 2010-08-10 Lc Technologies, Inc. System and method for perceived image processing in a gaze tracking system
US7407295B2 (en) * 2005-07-26 2008-08-05 Niranjan Damera-Venkata Projection of overlapping sub-frames onto a surface using light sources with different spectral distributions
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US7541566B2 (en) * 2005-12-29 2009-06-02 Nokia Corporation Transmitter, receiver, and system with relative position detecting functionality between transmitters and receivers
CN100405404C (zh) * 2006-08-01 2008-07-23 中国科学院计算技术研究所 一种虚拟人实时绘制方法
JP2008085421A (ja) * 2006-09-26 2008-04-10 Asahi Kasei Corp テレビ電話機、通話方法、プログラム、声質変換・画像編集サービス提供システム、および、サーバ
US20080231686A1 (en) * 2007-03-22 2008-09-25 Attune Interactive, Inc. (A Delaware Corporation) Generation of constructed model for client runtime player using motion points sent over a network
US9235262B2 (en) 2009-05-08 2016-01-12 Kopin Corporation Remote control of host application using motion and voice commands
US20080297585A1 (en) * 2007-05-29 2008-12-04 Ascalade Communications Inc. Integrated cordless voice/video ip phone system
US20090189830A1 (en) * 2008-01-23 2009-07-30 Deering Michael F Eye Mounted Displays
US8786675B2 (en) * 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
US9812096B2 (en) 2008-01-23 2017-11-07 Spy Eye, Llc Eye mounted displays and systems using eye mounted displays
CN102016975A (zh) 2008-03-28 2011-04-13 寇平公司 适合用作移动式互联网装置的具有高分辨率显示器的手持式无线显示装置
JP2010258781A (ja) * 2009-04-24 2010-11-11 Ntt Docomo Inc 携帯端末及び情報伝達方法
US9511289B2 (en) * 2009-07-10 2016-12-06 Valve Corporation Player biofeedback for dynamically controlling a video game state
US11253781B2 (en) 2009-07-10 2022-02-22 Valve Corporation Player biofeedback for dynamically controlling a video game state
JP5172794B2 (ja) * 2009-08-06 2013-03-27 日本電信電話株式会社 ビデオコミュニケーションシステム、方法およびプログラム
JP5898842B2 (ja) 2010-01-14 2016-04-06 任天堂株式会社 携帯型情報処理装置、携帯型ゲーム装置
EP2355526A3 (en) 2010-01-14 2012-10-31 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP5800501B2 (ja) 2010-03-12 2015-10-28 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
JP5170144B2 (ja) * 2010-03-29 2013-03-27 ブラザー工業株式会社 眼鏡型の画像表示装置
US8633947B2 (en) * 2010-06-02 2014-01-21 Nintendo Co., Ltd. Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method
US8384770B2 (en) 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
EP2395768B1 (en) 2010-06-11 2015-02-25 Nintendo Co., Ltd. Image display program, image display system, and image display method
US10013976B2 (en) 2010-09-20 2018-07-03 Kopin Corporation Context sensitive overlays in voice controlled headset computer displays
US9122307B2 (en) 2010-09-20 2015-09-01 Kopin Corporation Advanced remote control of host application using motion and voice commands
JP5739674B2 (ja) 2010-09-27 2015-06-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
US8854356B2 (en) 2010-09-28 2014-10-07 Nintendo Co., Ltd. Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method
US20110181684A1 (en) * 2011-02-07 2011-07-28 InnovatioNet Method of remote video communication and system of synthesis analysis and protection of user video images
CN102637071A (zh) * 2011-02-09 2012-08-15 英华达(上海)电子有限公司 应用于多媒体输入设备的多媒体输入方法
CN103620527B (zh) * 2011-05-10 2018-08-17 寇平公司 使用动作和语音命令来控制信息显示和远程设备的头戴式计算机
WO2013101438A1 (en) 2011-12-29 2013-07-04 Kopin Corporation Wireless hands-free computing head mounted video eyewear for local/remote diagnosis and repair
US9398262B2 (en) * 2011-12-29 2016-07-19 Intel Corporation Communication using avatar
WO2013152454A1 (en) 2012-04-09 2013-10-17 Intel Corporation System and method for avatar management and selection
WO2013152453A1 (en) 2012-04-09 2013-10-17 Intel Corporation Communication using interactive avatars
US8929954B2 (en) 2012-04-25 2015-01-06 Kopin Corporation Headset computer (HSC) as auxiliary display with ASR and HT input
EP2842055B1 (en) 2012-04-25 2018-06-27 Kopin Corporation Instant translation system
US9442290B2 (en) 2012-05-10 2016-09-13 Kopin Corporation Headset computer operation using vehicle sensor feedback for remote control vehicle
JP6036209B2 (ja) * 2012-11-19 2016-11-30 セイコーエプソン株式会社 虚像表示装置
US9301085B2 (en) 2013-02-20 2016-03-29 Kopin Corporation Computer headset with detachable 4G radio
WO2014153689A1 (en) 2013-03-29 2014-10-02 Intel Corporation Avatar animation, social networking and touch screen applications
US9383816B2 (en) * 2013-11-15 2016-07-05 Kopin Corporation Text selection using HMD head-tracker and voice-command
US9500867B2 (en) 2013-11-15 2016-11-22 Kopin Corporation Head-tracking based selection technique for head mounted displays (HMD)
US10209955B2 (en) 2013-11-15 2019-02-19 Kopin Corporation Automatic speech recognition (ASR) feedback for head mounted displays (HMD)
US9993335B2 (en) 2014-01-08 2018-06-12 Spy Eye, Llc Variable resolution eye mounted displays
US9830728B2 (en) 2014-12-23 2017-11-28 Intel Corporation Augmented facial animation
JP6391465B2 (ja) * 2014-12-26 2018-09-19 Kddi株式会社 ウェアラブル端末装置およびプログラム
JP6706473B2 (ja) * 2015-09-14 2020-06-10 株式会社コーエーテクモゲームス 情報処理装置、表示制御方法、及び表示制御プログラム
US10089522B2 (en) 2015-09-29 2018-10-02 BinaryVR, Inc. Head-mounted display with facial expression detecting capability
WO2017101094A1 (en) 2015-12-18 2017-06-22 Intel Corporation Avatar animation system
JP2020052793A (ja) * 2018-09-27 2020-04-02 株式会社Nttドコモ システム
JP7043449B2 (ja) * 2019-03-27 2022-03-29 株式会社コロプラ ヘッドマウントデバイスを介して仮想空間を提供するためにコンピュータで実行されるプログラムおよび方法ならびに情報処理装置
JP6826645B1 (ja) * 2019-09-30 2021-02-03 株式会社コロプラ プログラム、方法、および端末装置
JP7448142B2 (ja) * 2020-01-23 2024-03-12 株式会社ユピテル 表示装置等
JP7135058B2 (ja) * 2020-11-27 2022-09-12 株式会社コロプラ プログラム、方法、および端末装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02196585A (ja) * 1989-01-26 1990-08-03 Ricoh Co Ltd 音声信号通信装置
EP0493084B1 (en) * 1990-12-26 1997-06-04 Canon Kabushiki Kaisha Multi-media communication apparatus
JP3045321B2 (ja) 1991-01-22 2000-05-29 日本電信電話株式会社 ハンドセット形テレビ装置とそれを用いたテレビ電話装置
JPH05153581A (ja) * 1991-12-02 1993-06-18 Seiko Epson Corp 顔画像符号化方式
JP2936544B2 (ja) * 1992-02-28 1999-08-23 株式会社フジタ 視覚情報表示装置
US5541640A (en) * 1992-06-23 1996-07-30 Larson; Craig R. Videophone for simultaneous audio and video communication via a standard telephone line
JP3159538B2 (ja) * 1992-08-24 2001-04-23 オリンパス光学工業株式会社 頭部装着式ディスプレイ装置
JPH06121311A (ja) * 1992-10-05 1994-04-28 Casio Comput Co Ltd 仮想現実空間供用システム
JPH06141308A (ja) * 1992-10-23 1994-05-20 Hitachi Ltd 携帯形テレビ電話機
JPH06205404A (ja) * 1992-12-28 1994-07-22 Casio Comput Co Ltd テレビ電話装置
JP2534617B2 (ja) * 1993-07-23 1996-09-18 株式会社エイ・ティ・アール通信システム研究所 人物像の実時間認識合成方法
JPH07261112A (ja) * 1994-03-22 1995-10-13 Hitachi Ltd 頭部搭載型ディスプレイ装置
JPH0823527A (ja) * 1994-07-07 1996-01-23 Hitachi Ltd テレビ電話システム
JPH0865647A (ja) 1994-08-22 1996-03-08 Toshiba Corp 携帯テレビ電話装置
JP3674875B2 (ja) 1994-10-24 2005-07-27 株式会社イメージリンク アニメーションシステム
JPH08307841A (ja) * 1995-05-10 1996-11-22 Hitachi Ltd 擬似動画tv電話装置
JPH09138767A (ja) * 1995-11-14 1997-05-27 Fujitsu Ten Ltd 感情表現の通信装置
JPH10197931A (ja) * 1997-01-10 1998-07-31 Nikon Corp カメラのスイッチ構造
JP3557062B2 (ja) * 1997-01-10 2004-08-25 日本電信電話株式会社 低ビットレート画像通信システムおよび低ビットレート画像通信センタ装置および低ビットレート画像通信方法

Also Published As

Publication number Publication date
US6313864B1 (en) 2001-11-06
JPH10271470A (ja) 1998-10-09

Similar Documents

Publication Publication Date Title
JP3771989B2 (ja) 画像音声通信システムおよびテレビ電話送受信方法
US5438357A (en) Image manipulating teleconferencing system
CN100359941C (zh) 可视电话终端
US6064421A (en) Communications device within a doll
JP2010206307A (ja) 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム
US20110267421A1 (en) Method and Apparatus for Two-Way Multimedia Communications
JPH08205197A (ja) ヒューマンインタフェース装置
JP6882797B2 (ja) 会議システム
WO2001082046A2 (en) Human-machine interface apparatus
CN113420177A (zh) 音频数据处理方法、装置、计算机设备及存储介质
CN109061903A (zh) 数据显示方法、装置、智能眼镜及存储介质
JPWO2018158852A1 (ja) 通話システム
US8937635B2 (en) Device, method and system for real-time screen interaction in video communication
JP4501037B2 (ja) 通信制御システムと通信装置および通信方法
JP5813542B2 (ja) 画像コミュニケーションシステム、AR(AugmentedReality)動画生成装置及びプログラム
KR101303203B1 (ko) 정면 영상 생성 영상통화 장치 및 방법
JP2000231644A (ja) 仮想空間における発話者特定方法及びそのプログラムを記録した記録媒体
JPH09331509A (ja) テレビ電話用蓄積人物映像表示装置
JP3027983B2 (ja) 双方向対話型システム
JP2981179B2 (ja) 携帯形の情報伝達装置
JP3386200B2 (ja) ゲーム装置およびゲーム制御方法
KR100945162B1 (ko) 링백톤제공시스템 및 그 방법
JPH0775075A (ja) テレビ電話装置
CN210402846U (zh) 一种手语翻译终端及手语翻译服务器
JP2006065684A (ja) アバタ通信システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050628

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051101

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060213

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090217

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100217

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110217

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110217

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120217

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120217

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130217

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees