JP4465880B2 - 通信装置及び方法 - Google Patents

通信装置及び方法 Download PDF

Info

Publication number
JP4465880B2
JP4465880B2 JP2000576619A JP2000576619A JP4465880B2 JP 4465880 B2 JP4465880 B2 JP 4465880B2 JP 2000576619 A JP2000576619 A JP 2000576619A JP 2000576619 A JP2000576619 A JP 2000576619A JP 4465880 B2 JP4465880 B2 JP 4465880B2
Authority
JP
Japan
Prior art keywords
attention
user
unit
conference
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000576619A
Other languages
English (en)
Inventor
哲二郎 近藤
知之 大月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Application granted granted Critical
Publication of JP4465880B2 publication Critical patent/JP4465880B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/20Aspects of automatic or semi-automatic exchanges related to features of supplementary services
    • H04M2203/2038Call context notifications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/563User guidance or feature selection
    • H04M3/564User guidance or feature selection whereby the feature is a sub-conference

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)
  • Small-Scale Networks (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、通信装置及び方法に関し、特に、ユーザの視線や顔の向きに対応して音量や音質、画質等を調整する通信装置及び方法に関する。
【0002】
【従来の技術】
従来、遠隔会議システムでは、遠く離れている複数の会議室における画像及び音声をネットワークを介して相互に通信し、各会議室において他の会議室の画像及び音声を再生することにより、あたかも1つのテーブルを囲んでいるかのように会議を行うことが可能となっている。
【0003】
【発明が解決しようとする課題】
ところで、従来の遠隔会議システムにおいては、各会議室における会議参加者が同時に発言できるようになされている。このため、複数の会議参加者が同時に発言している場合、従来の遠隔会議システムでは、聞き取りたい発言が他の発言に邪魔されて聞き取り難くなる問題がある。
【0004】
また、従来の遠隔会議システムにおいては、各会議室における画像が全て同じ明るさ、同じ画質となされている。したがって、従来の遠隔会議システムでは、例えば所望の会議室の画像をより明るくして見たり、より詳しく見るようなことはできない。
【0005】
そこで、本発明はこのような状況に鑑みてなされたものであり、例えば、所望の発言を聞き取り易く、また、所望の会議室の画像を見易くすることを可能とする、通信装置及び方法を提供することを目的とする。
【0006】
【課題を解決するための手段】
本発明の通信装置は、3以上の複数の通信装置間で通信を行う通信システムにおける通信装置において、複数の方向を有し、各方向がそれぞれ他の通信装置に対応している状態において、ユーザの向いている方向を検出する方向検出部と、上記方向検出部から供給された上記ユーザが上記各方向に向いている期間を表す情報から、それぞれの方向毎に、上記ユーザが一定時間以上対応する方向に向いていることを検出したとき、上記ユーザの当該対応する方向に対する注目度が高いとして注目度を第1の値に設定し、上記ユーザが一定時間以上対応する方向に向いていることを検出した後、上記ユーザが当該対応する方向とは異なる方向に向いていることを検出したとき、そのタイミングから、上記注目度が上記第1の値に設定された状態で一定時間を経過した後、上記注目度を上記第1の値よりも低い第2の値に設定する注目度検出部と、他の複数の通信装置からの情報を受信する受信部と、それぞれの方向毎に、上記他の複数の通信装置からの情報が上記注目度が高いほどより強調されるように調整する調整部とを備える。
【0007】
ここで、上記注目度検出部は、上記方向検出部が、第1の時間以上同じ方向を検出した時に、上記方向検出部が検出した方向に対する、上記ユーザの注目度が高いと検出する。
【0008】
また、上記注目度検出部は、上記方向検出部が、上記第1の時間以上同じ方向を検出した以降において、他の方向を検出したことに基づいて、上記注目度を低くする。
【0009】
また、上記注目度検出部は、上記方向検出部が上記他の方向を検出したタイミングから第2の時間経過した場合に、上記注目度を低くする。
【0010】
また、上記注目度検出部は、上記方向検出部が上記他の方向を検出したタイミングに応じて徐々に上記注目度を低くする。また、上記注目度検出部は、上記方向検出部が上記他の方向を検出したタイミングから第2の時間経過した場合に、上記注目度を徐々に低くする。
【0011】
また、上記注目度検出部は、上記方向毎に上記注目度を検出する。
【0012】
さらに、上記調整部は、上記方向毎の複数の注目度に基づいて、上記情報を調整する。
【0013】
また、上記方向検出部は、上記ユーザの視線方向を検出する。
【0014】
また、上記方向検出部は、上記ユーザの顔向きを検出する。
【0015】
上記調整部は、上記注目度の高い方向に対応する情報を他の情報に対して相対的に強調された状態に調整する。
【0016】
本発明の通信装置は、上記調整部で調整された情報をユーザに提示する提示部をさらに備える。
【0017】
ここで、上記情報は、音声情報であり、上記調整部は、上記提示部で提示される音声情報を調整する。
【0018】
上記調整部は、上記提示部で提示される音声情報の音量を調整する。
【0019】
また、上記調整部は、上記提示部で提示される音声情報の音質を調整する。
【0020】
また、上記情報は、画像情報であり、上記調整部は、上記提示部で提示される画像情報を調整する。
【0021】
上記調整部は、上記提示部で提示される画像情報の画質を調整する。
【0022】
上記提示部は、上記複数の方向にそれぞれ対応する複数の提示部を備える。
【0023】
本発明の通信装置は、上記ユーザの情報を取得する取得部と、上記取得部で取得された上記ユーザの情報を上記他の通信装置へ送信する送信部とをさらに備える。
【0024】
次に、本発明の通信方法は、3以上の複数の通信装置間で通信を行う通信システムにおける通信方法において、上記複数の通信装置の一つにおいて、複数の方向を有し、各方向がそれぞれ他の通信装置に対応している状態において、ユーザの向いている方向を検出するステップと、上記方向の検出ステップにより供給された上記ユーザが上記各方向に向いている期間を表す情報から、それぞれの方向毎に、上記ユーザが一定時間以上対応する方向に向いていることを検出したとき、上記ユーザの当該対応する方向に対する注目度が高いとして注目度を第1の値に設定し、上記ユーザが一定時間以上対応する方向に向いていることを検出した後、上記ユーザが当該対応する方向とは異なる方向に向いていることを検出したとき、そのタイミングから、上記注目度が上記第1の値に設定された状態で一定時間を経過した後、上記注目度を上記第1の値よりも低い第2の値に設定する注目度を検出するステップと、上記他の複数の通信装置からの受信した情報が上記注目度が高いほどより強調されるように調整するステップとを備える。
【0025】
【発明の実施の形態】
以下、本発明の好ましい実施の形態について、図面を参照しながら説明する。
【0026】
図1は、本発明の通信装置及び方法を適用した一例としての遠隔会議システムの概略構成を示している。なお、本明細書において、システムとは、複数の装置や各部などによる全体的な構成を意味するものである。
【0027】
図1に示す遠隔会議システムでは、複数の遠隔会議装置1A乃至1D(以下、遠隔会議装置1A乃至1Dを個々に区別する必要がない場合、単に遠隔会議装置1と記述する)が例えばISDN(Integrated Services Digita1 Network)2を介して接続されている。遠隔会議装置1は、当該装置1が取り込んだ会議参加者3の画像データ及び音声データを、ISDN2を介して他の遠隔会議装置1に相互に通信するとともに、他の遠隔会議装置1から送信された画像データ及び音声データを再生可能となされている。
【0028】
なお、図1には、図示を簡略化するために4個の遠隔会議装置1A乃至1Dを示したが、さらに多くの遠隔会議装置を接続することも可能である。また、図1には、通信ネットワークとしてISDN2を例に挙げたが、このISDN2の代わりに、例えばケーブルテレビ網、インターネット、ディジタル衛星通信のような他の伝送媒体を用いることも可能である。
【0029】
上記遠隔会議システムを構成する各遠隔会議装置1A乃至1Dは、それぞれ図2に示すような構成を備えている。なお、図2は、複数の遠隔会議装置1A乃至1Dのうち、例えば遠隔会議装置1Aの詳細な構成例を示している。遠隔会議装置1B,1C,1Dの構成は、遠隔会議装置1Aと同様であるので、その説明は省略する。
【0030】
遠隔会議装置1Aは、少なくとも、遠隔会議装置1Bから送信された会議参加者3Bの画像データ及び音声データを再生する再生装置101と、遠隔会議装置1Cから送信された会議参加者3Cの画像データ及び音声データを再生する再生装置102と、遠隔会議装置1Dから送信された会議参加者3Dの画像データ及び音声データを再生する再生装置103とから構成される。これら再生装置101,102,103は、会議参加者3Aと他の会議参加者3B,3C,3Dがあたかも1つのテーブルを囲んで会議を行うかのように配置されている。
【0031】
再生装置101のモニタ部111は、遠隔会議装置1Bから送信された画像データ(会議参加者3B及びその周辺の画像データ)を表示するようになされており、スピーカ121は、遠隔会議装置1Bから送信された音声データ(会議参加者3Bの発言)を再生するようになされている。また、再生装置102のモニタ部112は、遠隔会議装置1Cから送信された画像データ(会議参加者3C及びその周辺の画像データ)を表示するようになされており、スピーカ122は、遠隔会議装置1Cから送信された音声データ(会議参加者3Cの発言)を再生するようになされている。同様に、再生装置103のモニタ部113は、遠隔会議装置1Dから送信された画像データ(会議参加者3D及びその周辺の画像データ)を表示するようになされており、スピーカ123は、遠隔会議装置1Dから送信された音声データ(会議参加者3Dの発言)を再生するようになされている。
【0032】
会議参加者3Aの正面に配置されている再生装置(図2の例では再生装置102)の上部には、会議参加者3Aを撮像するカメラ13、及び会議参加者3Aの発言を集音するマイク14が配設されている。カメラ13が撮像した画像データ、及びマイク14が集音した音声データは、ISDN2を介して遠隔会議装置1B,1C,1Dに送信されるようになされている。
【0033】
ここで、遠隔会議装置1Aは、その主要部の構成として、図3に示す構成要素を備えている。また、図3に示す主要部の構成要素を備えた遠隔会議装置1Aの具体的な構成及び各構成要素の配置は、図4に示すようになされる。
【0034】
これら図3及び図4において、遠隔会議装置1Aは、図2に示したように会議参加者3Aから見た複数の方向がそれぞれ他の遠隔会議装置1B,1C,1Dに対応している場合、当該会議参加者3Aの向いている方向を検出するための方向検出部15と、上記方向検出部15の検出結果に基づいて上記会議参加者3Aの各方向への注目度をそれぞれ検出する注目度検出部131,132,133と、他の遠隔会議装置1B,1C,1Dからの画像データ及び音声データを受信するISDN接続端子17及びデータ送受信部16と、上記他の遠隔会議装置1B,1C,1Dから送られてきた画像データ及び/又は音声データを、上記注目度に応じて調整する調整部161,162,163とを備えている。注目度検出部131とその後段の調整部161は再生装置101に対応して設けられ、注目度検出部132とその後段の調整部162は再生装置102に、そして、注目度検出部133とその後段の調整部163は再生装置103に対応して設けられている。なお、上記方向と注目度の詳細及び具体例については後述する。
【0035】
上記方向検出部15は、カメラ13から供給される会議参加者3Aの画像データを解折し、会議参加者3Aの向いている方向を一定のサンプリングレートで検出し、その検出結果を注目度検出部131,132,133に供給する。
【0036】
すなわち、方向検出部15は、図5Aに示すように、会議参加者3Aの向いている方向及びその方向の継続時間を表す情報として、会議参加者3Bが表示されているモニタ部111の方を向いている期間Ib、会議参加者3Cが表示されているモニタ部112の方を向いている期間Ic、会議参加者3Dが表示されているモニタ部113の方を向いている期間Id、及び、それら各モニタ部111乃至113の何れの方をも向いていない期間Inonを検出する。
【0037】
次に、方向検出部15は、それら検出した各期間Ib,Ic,Id,Inonから、図5Bに示すように、会議参加者3Aがモニタ部111の方を向いている期間Ibのみを抽出した信号を生成し、注目度検出部131に供給する。同様に、方向検出部15は、各期間Ib,Ic,Id,Inonから、会議参加者3Aがモニタ部112の方を向いている期間Icのみを抽出した信号を生成して注目度検出部132に供給し、会議参加者3Aがモニタ部113の方を向いている期間Idのみを抽出した信号を生成して注目度検出部133に供給する。
【0038】
注目度検出部131では、方向検出部15から供給された信号に基づいて、各期間Ibのうちで特に時間Tcont以上続く期間Ibがあるか否か判断し、時間Tcont以上続く期間Ibがあった場合、図5Cに示すように、当該時間Tcontを越えている時間を、会議参加者3Aが特に会議参加者3Bの表示されているモニタ部111に注目している時間として検出する。さらに、注目度検出部131は、上記会議参加者3Aがモニタ部111に注目している時間を検出した場合、その検出のタイミングに基づいて、図5Dに示すように、遠隔会議装置1Bから送信されてきた会議参加者3Bの画像データ及び/又は音声データに対して調整部161が行う調整のためのパラメータP(t)を注目度として求める。
【0039】
具体的に、注目度検出部131は、時刻tにおけるパラメータP(t)を、次式(1)を用いた演算により求める。
【0040】
P(t)=(1−Pmin)A−α(t)+Pmin (1)
なお、式(1)中の最小パラメータPminと定数A、図5に示した時間Tattと時間Tcontは、次式(2)乃至(5)をそれぞれ満足する定数である。
【0041】
0≦Pmin≦1 (2)
A>1 (3)
Tatt≧0 (4)
Tcont≧0 (5)
ここで、例えば変数β(t)=t−(会議参加者3Aが最後にモニタ部111の方向を向いていた時刻)と定義すれば、β(t)<Tattであるとき、式(1)中の変数α(t)の値は0となり、β(t)≧Tattであるとき、式(1)中の変数α(t)の値はβ(t)−Tattとなる。また、「時刻tにおいて会議参加者3Aがモニタ部111の方向を向いている」の定義は、時刻(t−Tcont)から時刻tまでの間、会議参加者3Aがモニタ部111の方向に向いていることである。
【0042】
すなわち、注目度検出部131では、会議参加者3Aがモニタ部111の方を向いた状態で時間Tcontが経過した場合、当該会議参加者3Aはモニタ部111に特に注目していると判定し、図5D及び式(1)に示すようにパラメータP(t)を最大値(=1)に設定する。その後、会議参加者3Aの向いている方向がモニタ部111から外されると、注目度検出部131は、当該外れた時点から時間Tattが経過するまでの間、パラメータP(t)を最大値に保持し、当該Tattが経過した後は上記最大値から最小パラメータPminまで徐々に低下するようにパラメータP(t)を変化させる。
【0043】
また、注目度検出部131と同様に、注目度検出部132では、方向検出部15から供給された信号に基づいて、各期間Icのうちで特に時間Tcont以上続く期間Icがあるか否か判断し、時間Tcont以上続く期間Icがあった場合、当該時間Tcontを越えている時間を、会議参加者3Aが特に会議参加者3Cの表示されているモニタ部112に注目している時間として検出する。さらに、注目度検出部132は、上記会議参加者3Aがモニタ部112に注目している時間を検出した場合、その検出のタイミングに基づいて、遠隔会議装置1Cから送信されてきた会議参加者3Cの画像データ及び/又は音声データに対して調整部162が行う調整のためのパラメータP(t)を注目度として求める。
【0044】
すなわち、注目度検出部132では、会議参加者3Aがモニタ部112の方を向いた状態で時間Tcontが経過した場合、当該会議参加者3Aはモニタ部112に特に注目していると判定してラメータP(t)を最大値(=1)に設定し、その後、会議参加者3Aの向いている方向がモニタ部112から外されると、当該外れた時点から時間Tattが経過するまでの間、パラメータP(t)を最大値に保持し、当該Tattが経過した後は上記最大値から最小パラメータPminまで徐々に低下するようにパラメータP(t)を変化させる。
【0045】
同様に、注目度検出部133では、方向検出部15から供給された信号に基づいて、各期間Idのうちで特に時間Tcont以上続く期間Idがあるか否か判断し、時間Tcont以上続く期間Idがあった場合、当該時間Tcontを越えている時間を、会議参加者3Aが特に会議参加者3Dの表示されているモニタ部113に注目している時間として検出する。さらに、注目度検出部133は、上記会議参加者3Aがモニタ部113に注目している時間を検出した場合、その検出のタイミングに基づいて、遠隔会議装置1Dから送信されてきた会議参加者3Dの画像データ及び/又は音声データに対して調整部163が行う調整のためのパラメータP(t)を注目度として求める。
【0046】
すなわち、注目度検出部133では、会議参加者3Aがモニタ部113の方を向いた状態で時間Tcontが経過した場合、当該会議参加者3Aはモニタ部113に特に注目していると判定してラメータP(t)を最大値(=1)に設定し、その後、会議参加者3Aの向いている方向がモニタ部113から外されると、当該外れた時点から時間Tattが経過するまでの間、パラメータP(t)を最大値に保持し、当該Tattが経過した後は上記最大値から最小パラメータPminまで徐々に低下するようにパラメータP(t)を変化させる。
【0047】
図6には、上記注目度検出部131,132,133において、上記方向検出部15から供給された信号に基づいて、それぞれ対応するモニタ部111,112,113を会議参加者3Aが注目しているか否か検出する際の処理の流れを示す。なお、各注目度検出部131,132,133での処理内容はそれぞれ同じであるため、ここでは注目度検出部131のみを例に挙げて説明する。
【0048】
この図6において、注目度検出部131では、先ずステップS21の処理として、現在時刻tを変数cur_tに格納し、更に、ステップS22として、会議参加者3Aがモニタ部111の方を向いた時刻を表す変数beg_tに、上記現在時刻tを表す変数cur_tの値を格納することにより、初期設定を行う。当該初期設定がなされた後、注目度検出部131の処理は、ステップS23に進む。
【0049】
ステップS23の処理に進むと、注目度検出部131は、会議参加者3Aがモニタ部111の方を向いてからどれだけの時間が経過したかを表す(cur_t)−(beg_t)の演算を行い、その演算により得られた時間が前述した時間Tcont以上であるか否かの判定を行う。ここで、初期設定直後は、変数beg_tと変数cur_tの値が等しいため、(cur_t)−(beg_t)=0となり、したがってこの時の注目度検出部131では、ステップS23にてNoと判定する。
【0050】
ステップS23にてNoと判定すると、注目度検出部131は、ステップS25の処理として、会議参加者3Aがモニタ部111を注目していないとして、図5Cに示したように”0”の値を設定し、ステップS26の処理に進む。
【0051】
ステップS26の処理に進むと、注目度検出部131では、変数cur_tに現在時刻tを格納し、ステップS27の処理に進む。
【0052】
ステップS27の処理に進むと、注目度検出部131は、方向検出部15から供給された期間Ibを表す信号が”1”となっているか否か、すなわち会議参加者3Aがモニタ部111の方を向いているか否かの判断を行う。当該ステップS27の処理においてNOと判定した場合、注目度検出部131では、ステップS28の処理として、変数beg_tにcur_tを格納した後、ステップS23の処理に戻る。一方、ステップS27の処理においてYesと判定した場合、注目度検出部131は、ステップS23の処理に戻る。
【0053】
注目度検出部131では、ステップS23の処理に戻ると、(cur_t)−(beg_t)の演算による時間が時間Tcont以上であるか否かの判定を行う。このステップS23の処理において、(cur_t)−(beg_t)の演算による時間が時間Tcont以上となった場合、注目度検出部131の処理はステップS24に進む。
【0054】
ステップS24の処理に進むと、注目度検出部131は、会議参加者3Aがモニタ部111を注目しているとして、図5Cに示したように”1”の値を設定し、ステップS26以降の処理に進む。このステップS26以降の処理は上述同様である。
【0055】
図7には、上記注目度検出部131,132,133において、前記パラメータPを演算する際の処理の流れを示す。なお、各注目度検出部131,132,133での処理内容はそれぞれ同じであるため、ここでは注目度検出部131のみを例に挙げて説明する。
【0056】
この図7において、注目度検出部131では、先ずステップS31の処理として、現在時刻tを変数cr_tに格納し、更に、ステップS32として、会議参加者3Aがモニタ部111を注目した時刻を表す変数bg_tに、(cr_t−Tinit)の値を格納することにより、初期設定を行う。なお、Tinitは、最終的にパラメータPを計算するときに用いられる前記変数βの初期値であり、所望の初期パラメータに応じて設定されている。当該初期設定がなされた後、注目度検出部131の処理は、ステップS33に進む。
【0057】
ステップS33の処理に進むと、注目度検出部131は、会議参加者3Aがモニタ部111の注目を止めてからの経過時間を表す(cr_t)−(bg_t)の演算を行い、当該演算により得られた値を上記変数βに格納する。
【0058】
次に、注目度検出部131では、ステップS34の処理として、変数βが前記時間Tatt以上であるか否か、すなわち会議参加者3Aがモニタ部111の注目を止めてからの経過時間が時間Tatt以上になったか否かの判定を行う。注目度検出部131は、ステップS34においてNoと判定すると、ステップS36の処理として前記式(1)の変数αに0を格納し、一方、当該ステップS34においてYesと判定すると、ステップS35の処理として前記式(1)の変数αに(β−Tatt)の値を格納する。これらステップS35、ステップS36の処理後、注目度検出部131の処理はステップS37に進む。
【0059】
ステップS37に進むと、注目度検出部131は、前記式(1)によりパラメータPを求め、その後、ステップS38の処理として変数cr_tに現在時刻tを格納する。
【0060】
次に、注目度検出部131は、ステップS39の処理に進み、会議参加者3Aがモニタ部111を注目しているか否か、すなわち、図5Cに示したように”1”となっているか否かを判断する。注目度検出部131は、ステップS39にてNoと判断した場合はステップS33の処理に戻り、ステップS39にてYesと判断した場合はステップS40にて変数bg_tに変数cr_tを格納した後、ステップS33の処理に戻る。このステップS33以降の処理は上述同様である。
【0061】
図3及び図4に戻り、上記注目度検出部131から出力されたパラメータP(t)は調整部161に送られ、注目度検出部132から出力されたパラメータP(t)は調整部162に送られ、注目度検出部133から出力されたパラメータP(t)は調整部163に送られる。調整部161には、データ送受信部16を介して、遠隔会議装置1Bからの画像データ及び音声データが供給され、調整部162には、データ送受信部16を介して、遠隔会議装置1Cからの画像データ及び音声データが供給され、調整部163には、データ送受信部16を介して、遠隔会議装置1Dからの画像データ及び音声データが供給されている。
【0062】
調整部161は、注目度検出部131から供給されたパラメータP(t)を受け取ると、当該パラメータP(t)に基づいて、遠隔会議装置1Bから供給されている会議参加者3Bの音声データ及び/又は画像データを調整する。また、調整部162は、注目度検出部132から供給されたパラメータP(t)を受け取ると、当該パラメータP(t)に基づいて、遠隔会議装置1Cから供給されている会議参加者3Cの音声データ及び/又は画像データを調整する。また、調整部163は、注目度検出部133から供給されたパラメータP(t)を受け取ると、当該パラメータP(t)に基づいて、遠隔会議装置1Dから供給されている会議参加者3Dの音声データ及び/又は画像データを調整する。なお、これら調整部161,162,163での具体的な調整内容の詳細については後述する。
【0063】
調整部161から出力された音声信号はスピーカ121に送られて放音され、画像信号はモニタ部111に送られて表示される。また、調整部162から出力された音声信号はスピーカ122に送られて放音され、画像信号はモニタ部112に送られて表示される。調整部163から出力された音声信号はスピーカ123に送られて放音され、画像信号はモニタ部113に送られて表示される。
【0064】
次に、本実施の形態の遠隔会議装置1Aの方向検出部15で行われる方向検出の具体例について、以下に説明する。
【0065】
方向検出の具体例としては、会議参加者3Aの視線検出を挙げることができる。
【0066】
図8には、方向検出部15にて視線検出を行う場合の処理の流れを示す。
【0067】
図8において、方向検出部15は、ステップS11としてカメラ13が撮像した画像データが供給されると、次のステップS12の処理として、供給された画像の色彩情報を用いて両目の輪郭を検出する。すなわち、方向検出部15は、供給された画像の色彩情報から例えば肌、白目、黒目等の色領域を抽出し、それら抽出した色領域の例えば境界を求めること等により、図9に示すように右目の輪郭E及び左目の輪郭Eを検出する。なお、図9は片目のみを示している。
【0068】
次に、方向検出部15は、ステップS13の処理として、ステップS12で求めた両目のそれぞれの輪郭Eに基づいて、右目の左右端点G1,G2の位置及び左目の左右端点G1,G2の位置を求め、それら右目及び左目のそれぞれの左右端点G1,G2の位置を基準として、図10に示すような鼻孔を探索するための探索範囲NEを決定し、当該探索範囲NE内から鼻孔NHの位置を検出する。すなわち、方向検出部15は、左右両目について、図9に示すように、それぞれ目の輪郭Eを構成する画素集合の重心Qと、目の輪郭Eを構成する画素集合の2次モーメント(線に関する慣性)を最小にする線Mとを求め、さらに、目の輪郭Eを構成する画素集合の中から、上記線Mの方向において重心Qからの距離が最大距離L1,L2となる位置の画素を、重心Qから左右方向に一つずつ求め、これらの画素位置を上記左右端点G1,G2として求める。次いで、方向検出部15は、図10に示すように、上述のようにして求めた右目の左右端点G1,G2の位置と、左目の左右端点G1,G2の位置とを基準とし、それら各左右端点G1,G2から下方側に、鼻孔を探索するための探索範囲NEを決定する。ここで、鼻孔NH部分の画像は他の部分の画像に比べて暗く写るので、方向検出部15は、当該探索範囲NE内で輝度が低い画像部分を鼻孔NHの位置として検出する。
【0069】
次に、方向検出部15は、ステップS14の処理として、図11に示すように、右目の左右端点G1,G2の位置と、左目の左右端点G1,G2の位置と、鼻孔NHの位置との幾何学的な位置関係に基づいて、眼球EBの中心位置EC及び眼球EBの半径rを推定する。
【0070】
さらに、方向検出部15は、ステップS15の処理として、右目の輪郭E及び左目の輪郭E内の画像の輝度情報を用いて、図10に示すように、瞳孔EAの中心位置EACを検出する。
【0071】
次に、方向検出部15は、ステップS16の処理として、図12に示すように、ステップS14で検出した眼球EBの中心位置ECと、ステップS15で検出した瞳孔EAの中心位置EACとを結ぶベクトルEVを演算し、得られたベクトルEVを視線の方向として、そのベクトルEVがモニタ部111乃至113のうちのいずれを向いているかの方向判定を行う。
【0072】
以上の流れにより、方向検出部15では、会議参加者3Aの視線を検出する。
【0073】
なお、上記輪郭Eのような特定の画素集合の2次モーメントを最小にする線Mは、例えば以下のような演算により求めることができる。
【0074】
ここでは、図13に示すように、式(6)で表される直線Mを例に挙げる。
【0075】
xsinθ−ycosθ+ρ=0 (6)
また、輪郭Eの画素集合上の各点(x,y)と上記直線Mとの距離をRとするとき、上記直線Mに関する2次モーメントmは、式(7)のように表すことができる。
【0076】
【数1】
Figure 0004465880
【0077】
すなわち、2次モーメントを最小にする直線Mとは、上記式(7)のmを最小にする直線Mのことである。結論を述べると、上記式(7)のmを最小にするには、上記式(7)中のθ、ρとして、下記式(8),式(9)の条件を満たすものを使用する。
θ:sin2θ=b/(b+(a-c))1/2 ,cos2θ=(a-c)/(b+(a-c))1/2
(8)
ρ:ρ=-xsinθ+ycosθ (9)
なお、式(9)の(xsinθ-ycosθ+ρ=0)は、画素集合の重心を通ることを意味する。
【0078】
但し、上記式(8),式(9)において、a,b,cは下記式(10),式(11),式(12)で表される。なお、(x-y)は画素集合の重心である。
【0079】
【数2】
Figure 0004465880
【0080】
また、本実施の形態の遠隔会議装置1Aの方向検出部15で行われる方向検出の他の具体例としては、会議参加者3Aの顔の向き検出を挙げることができる。
【0081】
図14には、方向検出部15にて顔向き検出を行う場合の処理の流れを示す。
【0082】
図14において、方向検出部15は、ステップS51として、例えば図15Aや図15Bに示すような、カメラ13により撮像された原画像データが供給されると、次のステップS52の処理として、供給された画像の色彩情報を用いて、肌領域と髪領域を検出する。すなわち、方向検出部15は、供給された画像の色彩情報から、例えば肌、髪の色領域を抽出し、それら抽出した色領域により、図16Aや図16Bに示すように、肌領域seと髪領域heを検出する。
【0083】
次に、方向検出部15は、ステップS53の処理として、図17Aや図17Bに示すように、肌領域seと髪領域heの和領域fe(=se+he)の重心fqと、肌領域seの重心sqの検出を行うための枠の設定を行う。ここで、当該枠の設定は、画像の例えば垂直方向の範囲指定により行う。具体的に説明すると、この範囲指定は、例えば髪領域heと肌領域seの和領域feの上端reを基準とし、当該基準の上端reより下方向の区間const_aから区間const_a+const_bの間を範囲とするように行う。
【0084】
続いて、方向検出部15は、ステップS54の処理として、ステップS53にて設定した枠の範囲内において、髪領域heと肌領域seの和領域feの重心fqと、肌領域seの重心sqを求める。なお、これら重心は、後段の処理において、水平方向と垂直方向の両方向についての顔向き検出を行う場合や、水平方向と垂直方向の何れかの方向についての顔向き検出を行う場合に使用されるが、ここでは一例として水平方向についての顔向き検出の際に重心を使用する例を挙げて説明する。
【0085】
方向検出部15は、ステップS54にて髪領域heと肌領域seの和領域feの重心fqと、肌領域seの重心sqとを求めると、ステップS55の処理として、肌領域seの重心sqの値から、髪領域heと肌領域seの和領域feの重心fqの値を引いた差分値を求める。
【0086】
次に、方向検出部15は、ステップS56の処理として、ステップS55にて求めた差分値から顔の向きを検出する。すなわち、上記差分値から顔向きを検出する処理としては、例えば以下のような2つの方法の何れかを用いる。なお、ここでは差分値をX、顔向き角度をYで表現することにし、また、会議参加者3Aがカメラ13の方向を向いている時の角度を0度と定義する。上記ステップS56の処理の一方法例では、当該顔向き検出処理に先立って、予め差分値Xと顔向き角度Yに関する統計をとり、差分値Xに対する顔向き角度Yの値を例えば平均値として求め、図18に示すようにその対応関係のグラフを用意しておき、この図18の対応関係に基づいて、ステップS55にて求めた差分値Xから顔向き角度Yを得る。また、ステップS56の処理の他の方法例では、ステップS55にて求めた差分値Xを用い、次式(13)により顔向き角度Yを求める。
【0087】
Y=asin(X) (13)
以上の流れにより、方向検出部15では、会議参加者3Aの顔向きを検出する。
【0088】
なお、会議参加者3Aの向いている方向を検出する他の具体的な方法としては、例えば、会議参加者3Aの顔に赤外線を照射し、当該会議参加者3Aの顔にて反射された赤外線を受光して生成した画像を用いて、方向検出をを行うことも考えられる。
【0089】
次に、本実施の形態の遠隔会議装置1Aの注目度検出部131,132,133にて検出される注目度と、当該検出された注目度に基づいて調整部161,162,163にて行われる調整処理の具体例について、以下に説明する。
【0090】
注目度検出及び調整処理の第1の具体例としては、前記他の遠隔会議装置1B,1C,1Dから遠隔会議装置1Aに送られてきた音声データを、上記方向検出部15の検出結果に応じて増幅させる処理を挙げることができる。
【0091】
図19には、注目度検出及び調整処理の第1の具体例として、上記方向検出部15の検出結果に応じて音声データを増幅させるようにした場合の遠隔会議装置1Aの主要部の概略構成を示す。また、図19の例の遠隔会議装置1Aの各構成要素の具体的な構成及び配置は図20に示すようになされる。なお、これら図19及び図20において、前述した図3及び図4にそれぞれ対応する構成要素には、図3及び図4と同じ指示符号を付して、それらの説明は省略する。
【0092】
これら図19及び図20において、遠隔会議装置1Aの方向検出部15は、カメラ13からの画像データに基づいて、会議参加者3Aの向いている方向、すなわち例えば前述したように視線或いは顔向きを検出し、その検出結果を、前記注目度検出部131に対応する音量演算部221と、前記注目度検出部132に対応する音量演算部222と、前記注目度検出部133に対応する音量演算部223に供給する。
【0093】
音量演算部221では、方向検出部15から供給された信号に基づき、前記注目度検出部131におけるパラメータP(t)として、後段の増幅器231で音声増幅或いは減衰を行う際の増幅率G(t)を演算により求める。すなわち、音量演算部221は、前記式(1)のパラメータP(t)として増幅率G(t)を求める。なお、この場合、式(1)の最小パラメータPminは最小増幅率Gminとなる。
【0094】
また、音量演算部222では、方向検出部15から供給された信号に基づいて、前記注目度検出部132におけるパラメータP(t)として、後段の増幅器232で音声増幅或いは減衰を行う際の増幅率G(t)を演算により求める。
【0095】
同様に、音量演算部223では、方向検出部15から供給された信号に基づいて、前記注目度検出部133におけるパラメータP(t)として、後段の増幅器233で音声増幅或いは減衰を行う際の増幅率G(t)を演算により求める。
【0096】
上記音量演算部221から出力された増幅率G(t)は増幅器231に送られ、音量演算部222から出力された増幅率G(t)は増幅器232に送られ、音量演算部223から出力された増幅率G(t)は増幅器233に送られる。増幅器231には、データ送受信部16を介して、遠隔会議装置1Bからの音声データが供給され、増幅器232には、データ送受信部16を介して、遠隔会議装置1Cからの音声データが供給され、増幅器233には、データ送受信部16を介して、遠隔会議装置1Dからの音声データが供給されている。
【0097】
増幅器231は、音量演算部221から供給された増幅率G(t)を受け取ると、当該増幅率G(t)に基づいて、遠隔会議装置1Bから供給されている会議参加者3Bの音声を増幅或いは減衰させる。また、増幅器232は、音量演算部222から供給された増幅率G(t)を受け取ると、当該増幅率G(t)に基づいて、遠隔会議装置1Cから供給されている会議参加者3Cの音声を増幅或いは減衰させる。また、増幅器233は、音量演算部223から供給された増幅率G(t)を受け取ると、当該増幅率G(t)に基づいて、遠隔会議装置1Dから供給されている会議参加者3Dの音声を増幅或いは減衰させる。
【0098】
増幅器231から出力された音声信号はスピーカ121に送られて放音される。また、増幅器232から出力された音声信号はスピーカ122に送られて放音される。増幅器233から出力された音声信号はスピーカ123に送られて放音される。
【0099】
図21には、注目度検出及び調整処理の第1の具体例として、上記方向検出部15の検出結果に応じて音声データを増幅させるようにした場合の遠隔会議装置1Aにおける処理の流れを示す。
【0100】
この図21において、遠隔会議装置1Aの方向検出部15は、ステップS1の処理として、カメラ13からの画像データを解折して会議参加者3Aの向いている方向を検出する。
【0101】
次に、遠隔会議装置1Aの音量演算部221,222,223は、ステップS2の処理として、方向検出部15の検出結果に基づいて、それぞれ対応する遠隔会議装置1B,1C,1Dから送信されてきた会議参加者3B,3C,3Dの各音声データに対する各増幅率Gain(t)を前記式(1)を流用して演算し、それぞれ対応する増幅器231乃至233に供給する。
【0102】
次に、遠隔会議装置1Aの増幅器231,232,233は、ステップS3の処理として、それぞれ対応する音量演算部221,222,223から供給された増幅率Gain(t)に基づいて、それぞれ対応する遠隔会議装置1B,1C,1Dから供給された会議参加者3B,3C,3Dの各音声データを増幅或いは減衰し、それぞれ対応するスピー力121,122,123に出力する。
【0103】
これにより、遠隔会議装置1Aのスピーカ121,122,123からは、ステップS4の処理として、それぞれ対応した増幅器231,232,233から入力された音声データに基づく音声が放音される。
【0104】
次に、本実施の形態の遠隔会議装置1Aの注目度検出部131,132,133にて検出される注目度と、当該検出された注目度に基づいて調整部161,162,163にて行われる調整処理の第2の具体例としては、前記他の遠隔会議装置1B,1C,1Dから遠隔会議装置1Aに送られてきた音声データを、上記方向検出部15の検出結果に応じて例えば周波数特性制御するような音質加工処理を挙げることができる。
【0105】
図22には、注目度検出及び調整処理の第2の具体例として、上記方向検出部15の検出結果に応じて音質加工するようにした場合の遠隔会議装置1Aの主要部の概略構成を示す。また、図23の例の遠隔会議装置1Aの各構成要素の具体的な構成及び配置は図24に示すようになされる。なお、これら図22及び図23において、前述した図3及び図4にそれぞれ対応する構成要素には、図3及び図4と同じ指示符号を付して、それらの説明は省略する。
【0106】
これら図22及び図23において、遠隔会議装置1Aの方向検出部15は、カメラ13からの画像データに基づいて、会議参加者3Aの向いている方向、すなわち例えば前述したように視線或いは顔向きを検出し、その検出結果を、前記注目度検出部131に対応する音質演算部281、前記注目度検出部132に対応する音質演算部282、前記注目度検出部133に対応する音質演算部283に供給する。
【0107】
音質演算部281では、方向検出部15から供給された信号に基づき、前記注目度検出部131におけるパラメータP(t)として、後段の音声加工器291での周波数特性制御、すなわちフィルタ処理(例えばローパスフィルタ処理)を行う際のフィルタパラメータK(t)を演算により求める。すなわち、音質演算部281は、前記式(1)のパラメータP(t)としてフィルタパラメータK(t)を求める。なお、この場合、式(1)の最小パラメータPminは最小フィルタパラメータKminとなる。
【0108】
また、音質演算部282では、方向検出部15から供給された信号に基づいて、前記注目度検出部132におけるパラメータP(t)として、後段の音声加工器292でフィルタ処理を行う際のフィルタパラメータK(t)を演算により求める。
【0109】
同様に、音質演算部283では、方向検出部15から供給された信号に基づいて、前記注目度検出部133におけるパラメータP(t)として、後段の音声加工器293でフィルタ処理を行う際のフィルタパラメータK(t)を演算により求める。
【0110】
上記音質演算部281から出力されたフィルタパラメータK(t)は音声加工器291に送られ、音質演算部282から出力されたフィルタパラメータK(t)は音声加工器292に送られ、音質演算部283から出力されたフィルタパラメータK(t)は音声加工器293に送られる。音声加工器291には、データ送受信部16を介して、遠隔会議装置1Bからの音声データが供給され、音声加工器292には、データ送受信部16を介して、遠隔会議装置1Cからの音声データが供給され、音声加工器293には、データ送受信部16を介して、遠隔会議装置1Dからの音声データが供給されている。
【0111】
音声加工器291は、音質演算部281から供給されたフィルタパラメータK(t)を受け取ると、当該フィルタパラメータK(t)に基づいて、遠隔会議装置1Bから供給されている会議参加者3Bの音声データにフィルタ処理、例えば低域濾波処理(LPF処理)を施す。また、音声加工器292は、音質演算部282から供給されたフィルタパラメータK(t)を受け取ると、当該フィルタパラメータK(t)に基づいて、遠隔会議装置1Cから供給されている会議参加者3Cの音声データにフィルタ処理、例えば低域濾波処理を施す。また、音声加工器293は、音質演算部283から供給されたフィルタパラメータK(t)を受け取ると、当該フィルタパラメータK(t)に基づいて、遠隔会議装置1Dから供給されている会議参加者3Dの音声データにフィルタ処理、例えば低域濾波処理を施す。
【0112】
音声加工器291から出力された音声信号はスピーカ121に送られて放音される。また、音声加工器292から出力された音声信号はスピーカ122に送られて放音される。音声加工器293から出力された音声信号はスピーカ123に送られて放音される。
【0113】
図24には、音声加工器291,292,293の具体的構成例を示す。なお、各音声加工器291,292,293はそれぞれ同じ構成を有するため、図24には例えば音声加工器291の構成のみ示す。
【0114】
図24において、端子302には、データ送受信部16を介して遠隔会議装置1Bから供給された図25に示すような周波数特性を有する音声データが入力され、端子301には、音質演算部281から供給された図26に示すような周波数制御特性のフィルタパラメータK(t)が入力される。なお、図26中のFmaxは、入力音声の最大周波数(固定値)である。上記端子302を介した音声データと、端子301を介したフィルタパラメータK(t)は、音声加工器291の主要構成要素であるLPF(ローパスフィルタ)300に入力する。
【0115】
LPF300は、端子302から入力された図25に示す特性を有する音声データに対して、端子301から入力された図26に示すようなK(t)・Fmaxの遮断周波数を有する低域通過のフィルタ処理を施す。これにより、LPF300からは、図27に示すような特性の出力音声データが得られることになる。当該出力音声データは、端子303から後段の構成であるスピーカ121に送られる。このスピーカ121から放音された音声は、注目時に聞き取り易い周波数特性制御がなされた音声となる。
【0116】
図28には、注目度検出及び調整処理の第2の具体例として、上記方向検出部15の検出結果に応じて音声データにフィルタ処理を施すようにした場合の遠隔会議装置1Aにおける処理の流れを示す。
【0117】
この図28において、遠隔会議装置1Aの方向検出部15は、ステップS61の処理として、カメラ13からの画像データを解折して会議参加者3Aの向いている方向を検出する。
【0118】
次に、遠隔会議装置1Aの音質演算部281,282,283は、ステップS62の処理として、方向検出部15の検出結果に基づいて、それぞれ対応する遠隔会議装置1B,1C,1Dから送信されてきた会議参加者3B,3C,3Dの各音声データに対する各フィルタパラメータK(t)を前記式(1)を流用して演算し、それぞれ対応する音声加工器291乃至293に供給する。
【0119】
次に、遠隔会議装置1Aの音声加工器291,292,293は、ステップS63の処理として、それぞれ対応する音質演算部281,282,283から供給されたフィルタパラメータK(t)に基づいて、それぞれ対応する遠隔会議装置1B,1C,1Dから供給された会議参加者3B,3C,3Dの各音声データにフィルタ処理を施し、それぞれ対応するスピー力121,122,123に出力する。
【0120】
これにより、遠隔会議装置1Aのスピーカ121,122,123からは、ステップS64の処理として、それぞれ対応した音声加工器291,292,293から入力された音声データに基づく音声が放音される。
【0121】
以上のように、注目度検出及び調整処理の第2の具体例として、上記方向検出部15の検出結果に応じて音声データをフィルタ処理するようにした場合の遠隔会議装置1Aによれば、会議参加者3Aがモニタ部111,112,113の何れかの方を向いて一定時間Tcont以上経過したとき、会議参加者3Aは当該方向のモニタ部上に写し出されている会議参加者に注目していると判定して、当該注目されている会議参加者の発言の音質を高め、一方、注目されていないモニタ部上に写し出されている会議参加者の発言の音質を低下させることにより、会議参加者3Aが注目している方向のモニタ部上に写し出されている会議参加者の発言を聞き取り易くすることができる。
【0122】
また、当該第2の具体例の場合の遠隔会議装置1Aによれば、会議参加者3Aが、ある方向のモニタ部上に写し出されている会議参加者への注目を止めたときでも、前記時間Tattが経過するまで、その注目していた会議参加者の発言の音質を高い状態に維持し、その後徐々に音質を低下させるようにすることで、例えば会議参加者3Aが注目していた者以外で当該会議に参加している者に、会議参加者3Aが少しずつ向きを変えた場合でも、元々注目していた会議参加者の発言の音質を低下させずに済む。
【0123】
更に、当該第2の具体例の場合の遠隔会議装置1Aによれば、会議参加者3Aが何れかのモニタ部の方を向いて一定時間Tcont以上経過した時に、会議参加者3Aは当該方向のモニタ部の方に注目していると判定するようにしているため、例えば会議参加者3Aの向きに一時的なプレが発生した場合や、各モニタ部の方に一時的に会議参加者3Aが向いた場合に、音質制御が過敏に反応し過ぎることを抑止している。
【0124】
次に、本実施の形態の遠隔会議装置1Aの注目度検出部131,132,133にて検出される注目度と、当該検出された注目度に基づいて調整部161,162,163にて行われる調整処理の第3の具体例としては、前記他の遠隔会議装置1B,1C,1Dから遠隔会議装置1Aに送られてきた画像データを、上記方向検出部15の検出結果に応じて画質加工する処理を挙げることができる。
【0125】
図29には、注目度検出及び調整処理の第3の具体例として、上記方向検出部15の検出結果に応じて画質加工するようにした場合の遠隔会議装置1Aの主要部の概略構成を示す。また、図29の例の遠隔会議装置1Aの各構成要素の具体的な構成及び配置は図30に示すようになされる。なお、これら図29及び図30において、前述した図3及び図4にそれぞれ対応する構成要素には、図3及び図4と同じ指示符号を付して、それらの説明は省略する。
【0126】
これら図29及び図30において、遠隔会議装置1Aの方向検出部15は、カメラ13からの画像データに基づいて、会議参加者3Aの向いている方向、すなわち例えば前述したように視線或いは顔向きを検出し、その検出結果を、前記注目度検出部131に対応する画質演算部311、前記注目度検出部132に対応する画質演算部312、前記注目度検出部133に対応する画質演算部313に供給する。
【0127】
画質演算部311では、方向検出部15から供給された信号に基づき、前記注目度検出部131におけるパラメータP(t)として、後段の画像加工器321で画像加工処理を行う際の画質調整値V(t)を演算により求める。すなわち、画質演算部311は、前記式(1)のパラメータP(t)として画質調整値V(t)を求める。なお、この場合、式(1)の最小パラメータPminは最小制御値Vminとなる。また、画像加工処理としては、例えばR(赤),G(緑),B(青)の原色データのそれぞれのゲインを調整することによる色加工処理や明るさ調整処理、画像の解像度やシャープネスを調整する処理等を挙げることができる。
【0128】
画質演算部312では、方向検出部15から供給された信号に基づいて、前記注目度検出部132におけるパラメータP(t)として、後段の画質加工器322で画像加工処理を行う際の画質調整値V(t)を演算により求める。
【0129】
同様に、画質演算部313では、方向検出部15から供給された信号に基づいて、前記注目度検出部133におけるパラメータP(t)として、後段の画像加工器323で画像加工処理を行う際の画質調整値V(t)を演算により求める。
【0130】
上記画質演算部311から出力された画質調整値V(t)は画像加工器321に送られ、画質演算部312から出力された画質調整値V(t)は画像加工器322に送られ、画質演算部313から出力された画質調整値V(t)は画像加工器323に送られる。画像加工器321には、データ送受信部16を介して、遠隔会議装置1Bからの画像データが供給され、画像加工器322には、データ送受信部16を介して、遠隔会議装置1Cからの画像データが供給され、画像加工器323には、データ送受信部16を介して、遠隔会議装置1Dからの画像データが供給されている。
【0131】
画像加工器321は、画質演算部311から供給された画質調整値V(t)を受け取ると、当該画質調整値V(t)に基づいて、遠隔会議装置1Bから供給されている会議参加者3Bの画像データに画像加工処理を施す。また、画像加工器322は、画質演算部312から供給された画質調整値V(t)を受け取ると、当該画質調整値V(t)に基づいて、遠隔会議装置1Cから供給されている会議参加者3Cの画像データに画像加工処理を施す。また、画像加工器323は、画質演算部313から供給された画質調整値V(t)を受け取ると、当該画質調整値V(t)に基づいて、遠隔会議装置1Dから供給されている会議参加者3Dの画像データに画像加工処理を施す。
【0132】
画像加工器321から出力された画像信号はモニタ部111に送られて画像として表示される。また、画像加工器322から出力された画像信号はモニタ部112に送られて画像として表示される。画像加工器323から出力された画像信号はモニタ部113に送られて画像として表示される。
【0133】
図31には、画像加工器321,322,323の一具体的構成例を示す。なお、各画像加工器321,322,323はそれぞれ同じ構成を有するため、図31には例えば画像加工器321の構成のみ示す。また、この図31の例では、画像加工処理として、R,G,Bの原色データのそれぞれのゲインを調整する処理を例に挙げる。
【0134】
図31において、端子332,333,334には、データ送受信部16を介して遠隔会議装置1Bから供給されたR,G,Bの原色データが入力され、端子331には、画質演算部321から供給された画質調整値V(t)が入力される。上記端子332,333,334を介したR,G,Bの原色データと、端子331を介した画質調整値V(t)は、画像加工器321に入力する。
【0135】
画像加工器321は、端子332,333,334から入力されたR,G,Bの原色データに対して、端子331から入力された画質調整値V(t)による画像加工処理を施す。これにより、画像加工器321からは、R,G,Bの各原色信号にそれぞれ画質調整値V(t)による調整が施された信号が出力される。これら画像加工処理後のR,G,Bのデータは、それぞれ対応する端子335,336,337から出力され、後段の構成であるモニタ部111に送られる。
【0136】
図32には、注目度検出及び調整処理の第3の具体例として、上記方向検出部15の検出結果に応じて画像データに画像加工処理を施すようにした場合の遠隔会議装置1Aにおける処理の流れを示す。
【0137】
この図32において、遠隔会議装置1Aの方向検出部15は、ステップS71の処理として、カメラ13からの画像データを解折して会議参加者3Aの向いている方向を検出する。
【0138】
次に、遠隔会議装置1Aの画質演算部311,312,313は、ステップS72の処理として、方向検出部15の検出結果に基づいて、それぞれ対応する遠隔会議装置1B,1C,1Dから送信されてきた会議参加者3B,3C,3Dの各画像データに対する各画質調整値V(t)を前記式(1)を流用して演算し、それぞれ対応する画像加工器321乃至323に供給する。
【0139】
次に、遠隔会議装置1Aの画像加工器321,322,323は、ステップS73の処理として、それぞれ対応する画質演算部311,312,313から供給された画質調整値V(t)に基づいて、それぞれ対応する遠隔会議装置1B,1C,1Dから供給された会議参加者3B,3C,3Dの各画像データに画像加工処理を施し、それぞれ対応するモニタ部111,112,113に出力する。
【0140】
これにより、遠隔会議装置1Aのモニタ部111,112,113からは、ステップS74の処理として、それぞれ対応した画像加工器321,322,323から入力された画像データに基づく画像が表示される。
【0141】
以上のように、注目度検出及び調整処理の第3の具体例として、上記方向検出部15の検出結果に応じて画像データに画像加工処理を施すようにした場合の遠隔会議装置1Aによれば、会議参加者3Aがモニタ部111,112,113の何れかの方を向いて一定時間Tcont以上経過したとき、会議参加者3Aは当該方向のモニタ部上に写し出されている会議参加者に注目していると判定して、当該注目されている会議参加者の画質(画像の色や明るさ、解像度やシャープネス等)を高め、一方、注目されていないモニタ部上に写し出されている会議参加者の画質を低下させることにより、会議参加者3Aが注目している方向のモニタ部上に写し出されている会議参加者の画像を見易くすることができる。
【0142】
また、当該第3の具体例の場合の遠隔会議装置1Aによれば、会議参加者3Aが、ある方向のモニタ部上に写し出されている会議参加者への注目を止めたときでも、前記時間Tattが経過するまで、その注目していた会議参加者の画質を高い状態に維持し、その後徐々に画質を低下させるようにすることで、例えば会議参加者3Aが注目していた者以外で当該会議に参加している者に、会議参加者3Aが少しずつ向きを変えた場合でも、元々注目していた会議参加者の画質を低下させずに済む。
【0143】
更に、当該第3の具体例の場合の遠隔会議装置1Aによれば、会議参加者3Aが何れかのモニタ部の方を向いて一定時間Tcont以上経過した時に、会議参加者3Aは当該方向のモニタ部の方に注目していると判定するようにしているため、例えば会議参加者3Aの向きに一時的なプレが発生した場合や、各モニタ部の方に一時的に会議参加者3Aが向いた場合に、画質制御が過敏に反応し過ぎることを抑止している。
【0144】
次に、図33には、遠隔会議装置1Aの他の構成例を示す。
【0145】
この図33に示す構成例では、他の遠隔会議装置1B,1C,1Dの各会議参加者3B,3C,3Dの画像を写し出す表示装置として、前述の図2のような各遠隔会議装置1B,1C,1Dのそれぞれに対応したモニタ部111,112,113を設けるのではなく、湾曲した1つのスクリーン31を設けるようにしている。
【0146】
すなわちこの図33の構成例では、会議参加者3Aと共に他の各会議参加者3B,3C,3Dがあたかも1つのテーブルを囲んで会議を行うかのように、スクリーン31上に他の各会議参加者3B,3C,3Dの画像が表示される。
【0147】
カメラ34及びマイクロホン35は、例えば会議参加者3Aの正面に置かれ、当該カメラ34により撮像された会議参加者3Aの画像データとマイクロホン35により集音された会議参加者3Aの音声データは、ISDN2を介して遠隔会議装置1B乃至1Dに送信される。
【0148】
一方、遠隔会議装置1Bから送信されてきた会議参加者3Bの音声データは、その音像がスクリーン31上に表示されている会議参加者3Bの画像近傍に定位するように制御されて、スクリーン31の左右に配置されたスピーカ32,33に供給され、放音される。また、遠隔会議装置1Cから送信されてきた会議参加者3Cの音声データは、その音像がスクリーン31上に表示されている会議参加者3Cの画像近傍に定位するように制御されて、スピーカ32,33に供給され、放音される。同様に、遠隔会議装置1Dから送信されてきた会議参加者3Dの音声データは、その音像がスクリーン31上に表示されている会議参加者3Dの画像近傍に定位するように制御されて、スピーカ32,33に供給され、放音される。
【0149】
また、この図33の構成例において、各会議参加者3B乃至3Dの音声データや画像データは、カメラ34で撮像された会議参加者3Aの画像データを用いて検出される会議参加者3Aの向いている方向に基づいて求められた注目度(パラメータP(t))に応じて、前述したように個別に調整される。
【0150】
次に、図34には、遠隔会議装置1Aの他の構成例を示す。
【0151】
すなわちこの図34には、図33の構成例と同様に湾曲した1つのスクリーン41を設け、さらに二人の会議参加者3A,3Eを同席可能にした場合の遠隔会議装置1Aの構成例を示している。
【0152】
この図34の構成例では、同席する二人の会議参加者3A,3Eと共に、他の各会議参加者3B,3C,3Dがあたかも1つのテーブルを囲んで会議を行うかのように、スクリーン41上に他の各会議参加者3B,3C,3Dの画像が表示される。
【0153】
カメラ44及びマイクロホン46は、例えば会議参加者3Aの正面に置かれ、当該カメラ44により撮像された会議参加者3Aの画像データとマイクロホン46により集音された会議参加者3Aの音声データは、ISDN2を介して遠隔会議装置1B乃至1Dに送信される。
【0154】
また、カメラ45及びマイクロホン47は、例えば会議参加者3Eの正面に置かれ、当該カメラ45により撮像された会議参加者3Eの画像データとマイクロホン47により集音された会議参加者3Eの音声データは、ISDN2を介して遠隔会議装置1B乃至1Dに送信される。
【0155】
一方、遠隔会議装置1Bから送信されてきた会議参加者3Bの音声データは、その音像がスクリーン41上に表示されている会議参加者3Bの画像近傍に定位するように制御されて、スクリーン41の左右に配置されたスピーカ42,43に供給され、放音される。また、遠隔会議装置1Cから送信されてきた会議参加者3Cの音声データは、その音像がスクリーン41上に表示されている会議参加者3Cの画像近傍に定位するように制御されて、スピーカ42,43に供給され、放音される。同様に、遠隔会議装置1Dから送信されてきた会議参加者3Dの音声データは、その音像がスクリーン41上に表示されている会議参加者3Dの画像近傍に定位するように制御されて、スピーカ42,43に供給され、放音される。
【0156】
また、この図34の構成例において、各会議参加者3B乃至3Dの音声データや画像データは、カメラ44で撮像された会議参加者3Aの画像データを用いて検出される会議参加者3Aの向いている方向に基づいて求められた注目度(パラメータP(t))と、カメラ45で撮像された会議参加者3Eの画像データを用いて検出される会議参加者3Eの向いている方向に基づいて求められた注目度(パラメータP(t))との平均値に応じて、前述同様に個別に調整される。なお、画像データについては、会議参加者3Aの方向に基づく注目度(パラメータP(t))と、会議参加者3E方向に基づく注目度(パラメータP(t))との平均値を取らず、それら各注目度(パラメータP(t))に応じて前述同様に個別に調整することも可能である。
【0157】
次に、図35には、遠隔会議装置1Aの他の構成例を示す。
【0158】
すなわちこの図35の構成例は、図34の構成例と同様に湾曲した1つのスクリーン51を設け、さらに二人の会議参加者3A,3Eを同席可能にしているが、図34の構成例のスピーカ42,43に代えて、会議参加者3A,3Eに対して個別にヘッドホン52,53を設けた場合を示している。
【0159】
この図35の構成例では、同席する二人の会議参加者3A,3Eと共に、他の各会議参加者3B,3C,3Dがあたかも1つのテーブルを囲んで会議を行うかのように、スクリーン51上に他の各会議参加者3B,3C,3Dの画像が表示される。
【0160】
カメラ54及びマイクロホン56は、例えば会議参加者3Aの正面に置かれ、当該カメラ54により撮像された会議参加者3Aの画像データとマイクロホン56により集音された会議参加者3Aの音声データは、ISDN2を介して遠隔会議装置1B乃至1Dに送信される。
【0161】
また、カメラ55及びマイクロホン57は、例えば会議参加者3Eの正面に置かれ、当該カメラ55により撮像された会議参加者3Eの画像データとマイクロホン57により集音された会議参加者3Eの音声データは、ISDN2を介して遠隔会議装置1B乃至1Dに送信される。
【0162】
一方、遠隔会議装置1Bから送信されてきた会議参加者3Bの音声データは、その音像がスクリーン51上に表示されている会議参加者3Bの画像近傍に定位するように制御されて、会議参加者3A,3Eが個別に装着するヘッドホン52,53に供給され、放音される。また、遠隔会議装置1Cから送信されてきた会議参加者3Cの音声データは、その音像がスクリーン51上に表示されている会議参加者3Cの画像近傍に定位するように制御されて、会議参加者3A,3Eが個別に装着するヘッドホン52,53に供給され、放音される。同様に、遠隔会議装置1Dから送信されてきた会議参加者3Dの音声データは、その音像がスクリーン51上に表示されている会議参加者3Dの画像近傍に定位するように制御されて、会議参加者3A,3Eが個別に装着するヘッドホン52,53に供給され、放音される。
【0163】
また、この図35の構成例において、各会議参加者3B乃至3Dの音声データや画像データは、カメラ54で撮像された会議参加者3Aの画像データを用いて検出される会議参加者3Aの方向に基づいた注目度(パラメータP(t))と、カメラ55で撮像された会議参加者3Eの画像データを用いて検出される会議参加者3Eの方向に基づいた注目度(パラメータP(t))とに応じて、同様に個別に調整される。なお、各会議参加者3B乃至3Dの音声データや画像データは、会議参加者3Aの方向に基づく注目度(パラメータP(t))と、会議参加者3E方向に基づく注目度(パラメータP(t))との平均値平均値に応じて、個別に調整されるようにしてもよい。
【0164】
次に、図36には、遠隔会議装置1Aの他の構成例を示す。
【0165】
この図36の構成例では、他の遠隔会議装置1B,1C,1Dの各会議参加者3B,3C,3Dの画像データは通信されず、音声データだけが通信される。このため、図36の構成例では、会議参加者3Aと共に、他の各会議参加者3B,3C,3Dがあたかも1つのテーブルを囲んで会議を行うかのように、他の各会議参加者3B,3C,3Dの音声を放音するためのスピーカ61,62,63が配置される。但し、会議参加者3B,3C,3Dの音声データを放音するスピー力61,62,63の近傍には、例えば写真65B,65C,65Dのような各会議参加者3B,3C,3Dを象徴するものが配置される。
【0166】
カメラ64及びマイクロホン66は、例えば会議参加者3Aの正面に置かれ、当該カメラ64により撮像された会議参加者3Aの画像データとマイクロホン66により集音された会議参加者3Aの音声データは、ISDN2を介して遠隔会議装置1B乃至1Dに送信される。
【0167】
遠隔会議装置1Bから送信されてきた会議参加者3Bの音声データはスピーカ61から放音され、遠隔会議装置1Cから送信されてきた会議参加者3Cの音声データはスピーカ62から放音され、遠隔会議装置1Dから送信されてきた会議参加者3Dの音声データはスピーカ63から放音される。
【0168】
また、この図36の構成例において、各会議参加者3B乃至3Dの音声データは、カメラ64で撮像された会議参加者3Aの画像データを用いて検出される会議参加者3Aの方向に基づいた注目度(パラメータP(t))に応じて、同様に個別に調整される。
【0169】
なお、本実施の形態では、方向検出部15を遠隔会議装置内に設けた例を挙げたが、ネットワーク上に独立して設けることも可能である。
【0170】
本実施の形態では、方向検出の具体例として視線と顔向き検出をそれぞれ別個に行う例を挙げたが、それら両方の方向検出を同時に行うことも可能である。また、本実施の形態では、注目度検出結果に応じた調整の具体例として音量、音質、画質の調整をそれぞれ別個に行う例を挙げたが、それらの調整を2つ或いは3つ組み合わせて行うことも可能である。
【0171】
さらに、上述した各処理は例えばコンピュータプログラムにより実行でき、この場合の上記各処理を行うコンピュータプログラムは、磁気ディスク、CD−ROM、DVD−ROM等の情報記縁媒体よりなる提供媒体のほか、インターネット、ディジタル衛星通信などのネットワーク提供媒体を介してユーザに提供することができる。
【0172】
【発明の効果】
以上のように、本発明の通信装置及び方法によれば、撮像したユーザの画像データを用いてユーザの視線や顔の向きを検出し、検出したユーザの視線や顔の向きからユーザの注目度を求め、その注目度に基づいて、複数の他の通信装置から入力される他のユーザの音声や画像を個別に調整するようにしているため、所望の発言を間き取り易くすることが可能となり、また、所望の画像を見易くすることが可能となる。
【図面の簡単な説明】
【図1】 図1は、本発明を適用した遠隔会議システムの構成例を示すブロック図である。
【図2】 図2は、遠隔会議システムを構成する一つの遠隔会議装置の構成例を示すブロック図である。
【図3】 図3は、遠隔会議装置の主要部の構成例を示すブロック図である。
【図4】 図4は、遠隔会議装置の主要部の具体的な構成例を示すブロック図である。
【図5】 図5Aから図5Dは、遠隔会議装置の方向検出部、注目度検出部、調整部の処理動作の説明に用いる図である。
【図6】 図6は、注目検出処理の流れを示すフローチャートである。
【図7】 図7は、注目度の演算処理の流れを示すフローチャートである。
【図8】 図8は、視線検出処理の流れを示すフローチャートである。
【図9】 図9は、目の両端位置検出の説明に用いる図である。
【図10】 図10は、鼻孔の位置検出範囲の説明に用いる図である。
【図11】 図11は、目の両端位置、鼻孔位置、眼球中心位置の説明に用いる図である。
【図12】 図12は、視線の方向検出の説明に用いる図である。
【図13】 図13は、特定の画素集合の2次モーメントを最小にする線の求め方の説明に用いる図である。
【図14】 図14は、顔向き検出処理の流れを示すフローチャートである。
【図15】 図15A、図15Bは、顔向き検出の際の原画像を示す図である。
【図16】 図16A、図16Bは、顔向き検出の際の髪領域と肌領域の説明に用いる図である。
【図17】 図17A、図17Bは、髪領域と肌領域の重心の説明に用いる図である。
【図18】 図18は、顔向き検出の際の差分値と角度の関係例を示す図である。
【図19】 図19は、遠隔会議装置にて音量制御を行う場合の主要部の構成例を示すブロック図である。
【図20】 図20は、遠隔会議装置にて音量制御を行う場合の主要部の具体的な構成例を示すブロック図である。
【図21】 図21は、音量制御処理の流れを示すフローチャートである。
【図22】 図22は、遠隔会議装置にて音質制御を行う場合の主要部の構成例を示すブロック図である。
【図23】 図23は、遠隔会議装置にて音質制御を行う場合の主要部の具体的な構成例を示すブロック図である。
【図24】 図24は、音質制御を行う場合の音声加工器の具体的構成例を示すブロック図である。
【図25】 図25は、音声加工器への入力音声信号の周波数特性を示す図である。
【図26】 図26は、音声加工器の周波数制御特性を示す図である。
【図27】 図27は、音声加工器からの出力音声信号の周波数特性を示す図である。
【図28】 図28は、音質制御処理の流れを示すフローチャートである。
【図29】 図29は、遠隔会議装置にて画質制御を行う場合の主要部の構成例を示すブロック図である。
【図30】 図30は、遠隔会議装置にて画質制御を行う場合の主要部の具体的な構成例を示すブロック図である。
【図31】 図31は、画質制御を行う場合の画像加工器の具体的構成例を示すブロック図である。
【図32】 図32は、画質制御処理の流れを示すフローチャートである。
【図33】 図33は、本発明の遠隔会議装置の他の例として、スクリーン上に会議参加者の画像を表示し、スピーカによる音像を定位させる場合の概略構成を示すブロック図である。
【図34】 図34は、本発明の遠隔会議装置の他の例として、スクリーン上の会議参加者の画像を表示し、二人の会議参加者を同席可能にした場合の概略構成を示すブロック図である。
【図35】 図35は、本発明の遠隔会議装置の他の例として、スクリーン上の会議参加者の画像を表示し、ヘッドホンによる音像を定位させる場合の概略構成を示すブロック図である。
【図36】 図36は、本発明の遠隔会議装置の他の例として、会議参加者の音声のみを通信するようにした場合の概略構成を示すブロック図である。
【符号の説明】
1 遠隔会議装置、15 方向検出部、101,102,103 再生装置、131,132,133 注目度検出部、161,162,163 調整部

Claims (14)

  1. 3以上の複数の通信装置間で通信を行う通信システムにおける通信装置において、
    複数の方向を有し、各方向がそれぞれ他の通信装置に対応している状態において、ユーザの向いている方向を検出する方向検出部と、
    上記方向検出部から供給された上記ユーザが上記各方向に向いている期間を表す情報から、それぞれの方向毎に、上記ユーザが一定時間以上対応する方向に向いていることを検出したとき、上記ユーザの当該対応する方向に対する注目度が高いとして注目度を第1の値に設定し、上記ユーザが一定時間以上対応する方向に向いていることを検出した後、上記ユーザが当該対応する方向とは異なる方向に向いていることを検出したとき、そのタイミングから、上記注目度が上記第1の値に設定された状態で一定時間を経過した後、上記注目度を上記第1の値よりも低い第2の値に設定する注目度検出部と、
    他の複数の通信装置からの情報を受信する受信部と、
    それぞれの方向毎に、上記他の複数の通信装置からの情報が上記注目度が高いほどより強調されるように調整する調整部と
    を備える通信装置。
  2. 上記注目度検出部は、それぞれの方向毎に、上記方向検出部が上記ユーザが一定時間以上対応する方向に向いていることを検出した後、上記ユーザが当該対応する方向とは異なる方向に向いていることを検出したとき、そのタイミングから一定時間を経過した後、上記注目度を上記第1の値から徐々に低くなるように設定する請求項1記載の通信装置。
  3. 上記方向検出部は、上記ユーザの視線方向を検出する請求項1記載の通信装置。
  4. 上記方向検出部は、上記ユーザの顔向きを検出する請求項1記載の通信装置。
  5. 上記調整部で調整された情報をユーザに提示する提示部をさらに備える請求項1記載の通信装置。
  6. 上記情報は、音声情報であり、上記調整部は、上記提示部で提示される音声情報を調整する請求項5記載の通信装置。
  7. 上記調整部は、上記提示部で提示される音声情報の音量を調整する請求項6記載の通信装置。
  8. 上記調整部は、上記提示部で提示される音声情報の音質を調整する請求項6記載の通信装置。
  9. 上記情報は、画像情報であり、上記調整部は、上記提示部で提示される画像情報を調整する請求項5記載の通信装置。
  10. 上記調整部は、上記提示部で提示される画像情報の画質を調整する請求項9記載の通信装置。
  11. 上記提示部は、上記複数の方向にそれぞれ対応する複数の提示部を備える請求項5記載の通信装置。
  12. 上記ユーザの情報を取得する取得部と、上記取得部で取得された上記ユーザの情報を上記他の通信装置へ送信する送信部とをさらに備える請求項1記載の通信装置。
  13. 3以上の複数の通信装置間で通信を行う通信システムにおける通信方法において、
    上記複数の通信装置の一つにおいて、複数の方向を有し、各方向がそれぞれ他の通信装置に対応している状態において、ユーザの向いている方向を検出するステップと、
    上記方向の検出ステップにより供給された上記ユーザが上記各方向に向いている期間を表す情報から、それぞれの方向毎に、上記ユーザが一定時間以上対応する方向に向いていることを検出したとき、上記ユーザの当該対応する方向に対する注目度が高いとして注目度を第1の値に設定し、上記ユーザが一定時間以上対応する方向に向いていることを検出した後、上記ユーザが当該対応する方向とは異なる方向に向いていることを検出したとき、そのタイミングから、上記注目度が上記第1の値に設定された状態で一定時間を経過した後、上記注目度を上記第1の値よりも低い第2の値に設定する注目度を検出するステップと、
    上記他の複数の通信装置からの受信した情報が上記注目度が高いほどより強調されるように調整するステップと
    を備える通信方法。
  14. 上記注目度を検出するステップでは、それぞれの方向毎に、上記方向を検出するステップで上記ユーザが一定時間以上対応する方向に向いていることを検出した後、上記ユーザが当該対応する方向とは異なる方向に向いていることを検出したとき、そのタイミングから一定時間を経過した後、上記注目度を上記第1の値から徐々に低くなるように設定する請求項13記載の通信方法。
JP2000576619A 1998-10-09 1999-10-08 通信装置及び方法 Expired - Fee Related JP4465880B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP28750698 1998-10-09
PCT/JP1999/005587 WO2000022823A1 (fr) 1998-10-09 1999-10-08 Appareil et procede de telecommunication

Publications (1)

Publication Number Publication Date
JP4465880B2 true JP4465880B2 (ja) 2010-05-26

Family

ID=17718230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000576619A Expired - Fee Related JP4465880B2 (ja) 1998-10-09 1999-10-08 通信装置及び方法

Country Status (5)

Country Link
US (1) US6606111B1 (ja)
EP (1) EP1039752A4 (ja)
JP (1) JP4465880B2 (ja)
KR (1) KR100639750B1 (ja)
WO (1) WO2000022823A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9294863B2 (en) 2013-10-15 2016-03-22 Fujitsu Limited Acoustic device, augmented reality acoustic device, acoustic system, acoustic processing method, and recording medium
JP2017103801A (ja) * 2017-01-19 2017-06-08 株式会社Jvcケンウッド 通信端末、通信端末の制御方法、通信端末の制御プログラム

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7224962B1 (en) 1997-10-03 2007-05-29 Karen Jeanne Kite Remote operational screener
US6717607B1 (en) * 2000-04-28 2004-04-06 Swisscom Mobile Ag Method and system for video conferences
JP4442016B2 (ja) * 2000-10-06 2010-03-31 ソニー株式会社 席順決定装置、グループ判定表作成方法、グループ判定表作成装置
EP1425909A4 (en) 2001-08-07 2006-10-18 Polycom Inc SYSTEM AND METHOD FOR HIGH RESOLUTION VIDEOCONFERENCE
US7130446B2 (en) * 2001-12-03 2006-10-31 Microsoft Corporation Automatic detection and tracking of multiple individuals using multiple cues
JP3819852B2 (ja) * 2003-01-29 2006-09-13 富士通株式会社 通信支援方法、通信支援装置、通信支援プログラム及び通信支援プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2004248125A (ja) * 2003-02-17 2004-09-02 Nippon Telegr & Teleph Corp <Ntt> 映像切り替え装置、映像切り替え方法、この方法のプログラムおよびこのプログラムを記録した記録媒体
US7762665B2 (en) 2003-03-21 2010-07-27 Queen's University At Kingston Method and apparatus for communication between humans and devices
US8292433B2 (en) 2003-03-21 2012-10-23 Queen's University At Kingston Method and apparatus for communication between humans and devices
JP2005124160A (ja) * 2003-09-25 2005-05-12 Fuji Photo Film Co Ltd 会議支援システム、情報表示装置、プログラム、及び制御方法
US8824730B2 (en) * 2004-01-09 2014-09-02 Hewlett-Packard Development Company, L.P. System and method for control of video bandwidth based on pose of a person
KR100650022B1 (ko) * 2004-05-13 2006-11-24 한국정보통신대학교 산학협력단 이용자의 위치에 기반한 상황인지형 화상 채팅 시스템 및그 방법
US7636365B2 (en) 2004-05-13 2009-12-22 Korea Advanced Institute Of Science And Technology (Kaist) Smart digital modules and smart digital wall surfaces combining the same, and context aware interactive multimedia system using the same and operation method thereof
US20050280701A1 (en) * 2004-06-14 2005-12-22 Wardell Patrick J Method and system for associating positional audio to positional video
JP4716083B2 (ja) 2004-07-27 2011-07-06 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
US20070005752A1 (en) 2005-06-29 2007-01-04 Jitendra Chawla Methods and apparatuses for monitoring attention of a user during a collaboration session
JP4687266B2 (ja) * 2004-10-20 2011-05-25 富士ゼロックス株式会社 注意喚起装置および方法ならびに情報処理システム
US8209181B2 (en) * 2006-02-14 2012-06-26 Microsoft Corporation Personal audio-video recorder for live meetings
JP5055781B2 (ja) * 2006-02-14 2012-10-24 株式会社日立製作所 会話音声分析方法、及び、会話音声分析装置
JP4787180B2 (ja) * 2007-01-24 2011-10-05 富士フイルム株式会社 撮影装置及び撮影方法
JP4420056B2 (ja) 2007-04-20 2010-02-24 ソニー株式会社 画像処理装置と画像処理方法および画像処理プログラム、並びに再生情報生成装置と再生情報生成方法及び再生情報生成プログラム
US20080320131A1 (en) * 2007-06-22 2008-12-25 International Business Machines Corporation Method, Apparatus or Software for Managing Propagation of the Performance of a Node in a Network
US20090027485A1 (en) * 2007-07-26 2009-01-29 Avaya Technology Llc Automatic Monitoring of a Call Participant's Attentiveness
JP2009060220A (ja) * 2007-08-30 2009-03-19 Konica Minolta Holdings Inc コミュニケーションシステム及びコミュニケーションプログラム
US9060094B2 (en) 2007-09-30 2015-06-16 Optical Fusion, Inc. Individual adjustment of audio and video properties in network conferencing
US20090172100A1 (en) * 2007-12-31 2009-07-02 International Business Machines Corporation Deriving and communicating attention spans in collaborative applications
EP2228987B8 (fr) * 2009-03-12 2021-08-04 Orange Système d'interprétation d'un mouvement d'un interlocuteur, procédé et programme d'ordinateur correspondant.
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US8995688B1 (en) * 2009-07-23 2015-03-31 Helen Jeanne Chemtob Portable hearing-assistive sound unit system
US8330793B2 (en) * 2009-10-09 2012-12-11 Hewlett-Packard Development Company, L.P. Video conference
WO2011051959A1 (en) * 2009-10-30 2011-05-05 Hewlett-Packard Development Company, L.P. Method and apparatus for use with video sequences
US8665309B2 (en) * 2009-11-03 2014-03-04 Northrop Grumman Systems Corporation Video teleconference systems and methods for providing virtual round table meetings
JP2011199847A (ja) * 2010-02-25 2011-10-06 Ricoh Co Ltd 会議システムの端末装置、会議システム
JP5370380B2 (ja) * 2011-01-25 2013-12-18 ソニー株式会社 映像表示方法および映像表示装置
US8520052B2 (en) * 2011-02-02 2013-08-27 Microsoft Corporation Functionality for indicating direction of attention
US9013264B2 (en) 2011-03-12 2015-04-21 Perceptive Devices, Llc Multipurpose controller for electronic devices, facial expressions management and drowsiness detection
JP5367037B2 (ja) * 2011-09-26 2013-12-11 本田技研工業株式会社 顔向き検出装置
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US20140145936A1 (en) * 2012-11-29 2014-05-29 Konica Minolta Laboratory U.S.A., Inc. Method and system for 3d gesture behavior recognition
JP6079535B2 (ja) * 2013-09-30 2017-02-15 株式会社Jvcケンウッド 通信端末、通信端末の出力制御方法、通信端末の出力制御用プログラム
US9407871B2 (en) 2014-03-31 2016-08-02 Electronics And Telecommunications Research Instit Apparatus and method for controlling eye-to-eye contact function
US9530426B1 (en) * 2015-06-24 2016-12-27 Microsoft Technology Licensing, Llc Filtering sounds for conferencing applications
US10860843B1 (en) 2015-08-22 2020-12-08 Bertec Corporation Measurement system that includes at least one measurement assembly, a head-mounted visual display device, and a data processing device
US9916011B1 (en) * 2015-08-22 2018-03-13 Bertec Corporation Force measurement system that includes a force measurement assembly, a visual display device, and one or more data processing devices
US10390736B1 (en) 2015-08-22 2019-08-27 Bertec Corporation Force measurement system that includes a force measurement assembly, at least one visual display device, and one or more data processing devices
US11992746B1 (en) 2015-08-22 2024-05-28 Bertec Corporation Hybrid display system for a force measurement assembly, an exercise device, or an interactive game
US10216262B1 (en) * 2015-08-22 2019-02-26 Bertec Corporation Force management system that includes a force measurement assembly, a visual display device, and one or more data processing devices
US11301045B1 (en) 2015-08-22 2022-04-12 Bertec Corporation Measurement system that includes at least one measurement assembly, a visual display device, and at least one data processing device
US10555688B1 (en) 2015-08-22 2020-02-11 Bertec Corporation Measurement system that includes at least one measurement assembly, a head-mounted visual display device, and a data processing device
USD862127S1 (en) 2016-04-15 2019-10-08 Steelcase Inc. Conference table
US10219614B2 (en) 2016-04-15 2019-03-05 Steelcase Inc. Reconfigurable conference table
USD808197S1 (en) 2016-04-15 2018-01-23 Steelcase Inc. Support for a table
USD838129S1 (en) 2016-04-15 2019-01-15 Steelcase Inc. Worksurface for a conference table
CN107248921A (zh) * 2017-07-21 2017-10-13 北京阿德和合科技有限公司 一种会议方法、客户端及应用其的系统
US10990171B2 (en) * 2018-12-27 2021-04-27 Facebook Technologies, Llc Audio indicators of user attention in AR/VR environment
CN111640424B (zh) * 2019-03-01 2024-02-13 北京搜狗科技发展有限公司 一种语音识别方法、装置和电子设备
JP7292343B2 (ja) * 2021-09-27 2023-06-16 ソフトバンク株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01141479A (ja) * 1987-11-28 1989-06-02 A T R Tsushin Syst Kenkyusho:Kk 視線検出を利用した画像通信装置
JP2743381B2 (ja) * 1988-05-16 1998-04-22 日本電気株式会社 動画像信号の復号化方式
JP2733953B2 (ja) * 1988-05-16 1998-03-30 日本電気株式会社 動画像信号の符号化復号化方式
GB9019538D0 (en) * 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
JPH04205617A (ja) * 1990-11-30 1992-07-27 Toshiba Corp 入出力インターフェース装置
JPH0730877A (ja) * 1993-07-12 1995-01-31 Oki Electric Ind Co Ltd 多地点間マルチメディア通信会議システム
JPH07162532A (ja) 1993-12-07 1995-06-23 Nippon Telegr & Teleph Corp <Ntt> 多地点間通信会議コミュニケーション支援装置
US5500671A (en) * 1994-10-25 1996-03-19 At&T Corp. Video conference system and method of providing parallax correction and a sense of presence
US6037970A (en) 1996-04-05 2000-03-14 Sony Corporation Videoconference system and method therefor
JPH09275533A (ja) 1996-04-08 1997-10-21 Sony Corp 信号処理装置
JPH09319296A (ja) * 1996-05-24 1997-12-12 Canon Inc 表示装置
JPH1056626A (ja) 1996-08-13 1998-02-24 Hitachi Software Eng Co Ltd テレビ会議システム
JPH10136339A (ja) * 1996-10-30 1998-05-22 Sharp Corp 画像情報伝送装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9294863B2 (en) 2013-10-15 2016-03-22 Fujitsu Limited Acoustic device, augmented reality acoustic device, acoustic system, acoustic processing method, and recording medium
JP2017103801A (ja) * 2017-01-19 2017-06-08 株式会社Jvcケンウッド 通信端末、通信端末の制御方法、通信端末の制御プログラム

Also Published As

Publication number Publication date
US6606111B1 (en) 2003-08-12
KR20010032883A (ko) 2001-04-25
KR100639750B1 (ko) 2006-10-31
EP1039752A4 (en) 2007-05-02
WO2000022823A1 (fr) 2000-04-20
EP1039752A1 (en) 2000-09-27

Similar Documents

Publication Publication Date Title
JP4465880B2 (ja) 通信装置及び方法
US6608644B1 (en) Communication system
TWI473009B (zh) 用於加強音訊之系統及用於自一計算裝置輸出音訊之方法
US8115799B2 (en) Method and apparatus for obtaining acoustic source location information and a multimedia communication system
CN108737896B (zh) 一种基于电视机的自动调节喇叭朝向的方法及电视机
US20180220231A1 (en) Suppressing ambient sounds
WO2010150475A1 (ja) 補聴器
JP5335706B2 (ja) 画像表示装置
JP2013057705A (ja) 音声処理装置、音声処理方法および音声出力装置
Francart et al. Enhancement of interaural level differences improves sound localization in bimodal hearing
JPH09275533A (ja) 信号処理装置
JP2008244917A (ja) 受像機制御システム
JP2003230071A (ja) テレビ視聴システム
US11290815B2 (en) Method for personalizing the audio signal of an audio or video stream
CN114157905B (zh) 基于图像识别的电视声音调节方法、装置、电视机
JP4244416B2 (ja) 情報処理装置および方法、並びに記録媒体
KR20130131844A (ko) 음향 보정이 가능한 디스플레이 장치, 청각 레벨 제어 장치 및 방법
EP1146721A1 (en) Communication system
JP3952870B2 (ja) 音声伝送装置、音声伝送方法及びプログラム
JP2007251355A (ja) 対話システム用中継装置、対話システム、対話方法
US11589021B1 (en) Color correction for video communications using display content color information
JP2000004395A (ja) ビデオカメラの画像処理装置及びヘッドマウントディスプレイ
US20240323616A1 (en) Sound processing device, sound processing method, and hearing aid device
WO2023228713A1 (ja) 音声処理装置および方法、情報処理装置、並びにプログラム
US20170125010A1 (en) Method and system for controlling voice entrance to user ears, by designated system of earphone controlled by Smartphone with reversed voice recognition control system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060315

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090619

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091019

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20091106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100215

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140305

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees