JP4716083B2 - 情報処理装置および方法、記録媒体、並びにプログラム - Google Patents

情報処理装置および方法、記録媒体、並びにプログラム Download PDF

Info

Publication number
JP4716083B2
JP4716083B2 JP2004218532A JP2004218532A JP4716083B2 JP 4716083 B2 JP4716083 B2 JP 4716083B2 JP 2004218532 A JP2004218532 A JP 2004218532A JP 2004218532 A JP2004218532 A JP 2004218532A JP 4716083 B2 JP4716083 B2 JP 4716083B2
Authority
JP
Japan
Prior art keywords
user
information
video
unit
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004218532A
Other languages
English (en)
Other versions
JP2006041887A (ja
Inventor
祐介 阪井
直毅 斎藤
幹夫 鎌田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004218532A priority Critical patent/JP4716083B2/ja
Priority to US11/179,560 priority patent/US7975230B2/en
Priority to CNB2005100884554A priority patent/CN100433828C/zh
Publication of JP2006041887A publication Critical patent/JP2006041887A/ja
Priority to US13/105,526 priority patent/US8291326B2/en
Application granted granted Critical
Publication of JP4716083B2 publication Critical patent/JP4716083B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/148Interfacing a video terminal to a particular transmission medium, e.g. ISDN

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置および方法、記録媒体、並びにプログラムに関し、特に、ネットワークを介して接続された他の情報処理装置とともに、同一のコンテンツとそれぞれのユーザの音声や映像を合成し、同期して再生するようにした情報処理装置および方法、記録媒体、並びにプログラムに関する。
従来、遠隔地にいる人同士の交流(以下、遠隔地コミュニケーションと記述する)に用いる装置として、電話、いわゆるテレビ電話、ビデオ会議システム等が存在する。また、パーソナルコンピュータ等を用いてインタネットに接続し、テキストチャット、映像と音声を伴うビデオチャット等を行う方法もある。
さらに、遠隔地コミュニケーションを実行しようとする人がそれぞれパーソナルコンピュータ等を用い、インタネットを介して仮想空間を共有したり、同一のコンテンツを共用することも提案されている(例えば、特許文献1参照)。
特開2003−271530号公報
しかしながら、遠隔地にいる人同士が同一のコンテンツを共用する従来の方法では、主に言語的情報を伝送することでコミュニケーションを行うため、実際に相手と対面して行う対面コミュニケーションと比較して、ユーザ同士の心情や状況が伝わりにくいといった課題があった。
また、同一のコンテンツとともに、相手側の映像および音声も視聴する従来の方法では、相手側の映像および音声と、共用するコンテンツの映像および音声を、ユーザの操作などに応じて最適に合成させるには、機器の操作が煩雑であるため、困難である課題があった。
本発明はこのような状況に鑑みてなされたものであり、遠隔地にいる人同士が同一コンテンツを視聴している際に、複数の映像および音声の合成を、ユーザの状態に応じて簡単に設定することができるようにすることを目的とする。
本発明の情報処理装置は、コンテンツデータを再生する再生手段と、ユーザの音声および映像を含む第1のユーザ状態情報を入力するユーザ情報入力手段と、ネットワークを介して接続されている他の情報処理装置から、他のユーザの音声および映像を含む第2のユーザ状態情報を受信するユーザ情報受信手段と、第1のユーザ状態情報に基づいてユーザの姿勢を分析し、ユーザの姿勢に基づいて、再生中のコンテンツへのユーザの熱中度を分析する情報分析手段と、コンテンツデータの音声および映像と、第2のユーザ状態情報の音声および映像を合成するとともに、ユーザの熱中度に基づいて、第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いを変更する合成手段とを備える。
合成手段には、ユーザの熱中度が高いほど、第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いを低くさせ、ユーザの熱中度が低いほど、第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いを高くさせることができる
分析手段には、さらに、第2のユーザ状態情報に基づいて、他のユーザのコミュニケーションの活性度を分析させ、合成手段には、ユーザの熱中度および他のユーザの活性度のうち少なくとも一方に基づいて、第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いを変更させることができる。
合成手段には、他のユーザの活性度が高いほど、第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いを高くさせ、他のユーザの活性度が低いほど、第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いを低くさせることができる。
第2のユーザ状態情報を、情報分析手段による分析の対象にするか否かを判定する分析対象判定手段をさらに備え、情報分析手段には、分析対象判定手段により第2のユーザ状態情報を分析の対象にしないと判定された場合、第1のユーザ状態情報のみを分析させることができる。
分析手段には、さらに、第1のユーザ状態情報に基づいて、合成手段により合成された映像を出力する出力手段に対するユーザの姿勢を分析させ、合成手段には、ユーザの熱中度および表示手段に対するユーザの姿勢のうち少なくとも一方に基づいて、第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いを変更させることができる。
再生手段には、他の情報処理装置と同一のコンテンツデータを同期再生させることができる。
第1のユーザ状態情報には、ユーザの環境情報も含まれ、第2のユーザ状態情報には、他のユーザの環境情報も含まれるようにすることができる。
合成手段により合成された音声および映像を出力する出力手段をさらに備えるようにすることができる。
情報分析手段による分析結果に基づいて、接続される電子機器を制御する電子機器制御手段をさらに備えるようにすることができる。
情報分析手段による分析結果に基づいて、他の情報処理装置を制御する制御パラメータを設定するパラメータ設定手段と、制御パラメータを、他の情報処理装置に送信する送信手段とさらに備えるようにすることができる。
他の情報処理装置から送信されてくる制御パラメータを受け付けるか否かを判定する受付判定手段をさらに備えるようにすることができる。
本発明の情報処理方法は、ネットワークを介して接続されている他の情報処理装置と通信する情報処理装置が、コンテンツデータを再生する再生ステップと、ユーザの音声および映像を含む第1のユーザ状態情報を入力するユーザ情報入力ステップと、他の情報処理装置から、他のユーザの音声および映像を含む第2のユーザ状態情報を受信するユーザ情報受信ステップと、第1のユーザ状態情報に基づいてユーザの姿勢を分析し、ユーザの姿勢に基づいて、再生中のコンテンツへのユーザの熱中度を分析する情報分析ステップと、コンテンツデータの音声および映像と、第2のユーザ状態情報の音声および映像を合成するとともに、ユーザの熱中度に基づいて、第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いを変更する合成ステップとを含む。
本発明の記録媒体に記録されているプログラムは、ネットワークを介して接続された情報処理装置と通信するコンピュータに、コンテンツデータを再生する再生ステップと、ユーザの音声および映像を含む第1のユーザ状態情報を入力するユーザ情報入力ステップと、情報処理装置から、他のユーザの音声および映像を含む第2のユーザ状態情報を受信するユーザ情報受信ステップと、第1のユーザ状態情報に基づいてユーザの姿勢を分析し、ユーザの姿勢に基づいて、再生中のコンテンツへのユーザの熱中度を分析する情報分析ステップと、コンテンツデータの音声および映像と、第2のユーザ状態情報の音声および映像を合成するとともに、ユーザの熱中度に基づいて、第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いを変更する合成ステップとを実行させる。
本発明のプログラムは、ネットワークを介して接続された情報処理装置と通信するコンピュータに、コンテンツデータを再生する再生ステップと、ユーザの音声および映像を含む第1のユーザ状態情報を入力するユーザ情報入力ステップと、情報処理装置から、他のユーザの音声および映像を含む第2のユーザ状態情報を受信するユーザ情報受信ステップと、第1のユーザ状態情報に基づいてユーザの姿勢を分析し、ユーザの姿勢に基づいて、再生中のコンテンツへのユーザの熱中度を分析する情報分析ステップと、コンテンツデータの音声および映像と、第2のユーザ状態情報の音声および映像を合成するとともに、ユーザの熱中度に基づいて、第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いを変更する合成ステップとを実行させる。
本発明においては、コンテンツデータが再生され、ユーザの音声および映像を含む第1のユーザ状態情報が入力され、ネットワークを介して接続されている他の情報処理装置から、他のユーザの音声および映像を含む第2のユーザ状態情報が受信され、第1のユーザ状態情報に基づいてユーザの姿勢が分析され、ユーザの姿勢に基づいて、再生中のコンテンツへのユーザの熱中度が分析され、コンテンツデータの音声および映像と、第2のユーザ状態情報の音声および映像が合成されるとともに、ユーザの熱中度に基づいて、第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いが変更される。
ネットワークとは、少なくとも2つの装置が接続され、ある装置から、他の装置に対して、情報の伝達をできるようにした仕組みをいう。ネットワークを介して通信する装置は、独立した装置どうしであってもよいし、1つの装置を構成している内部ブロックどうしであってもよい。
また、通信とは、無線通信および有線通信は勿論、無線通信と有線通信とが混在した通信、すなわち、ある区間では無線通信が行われ、他の区間では有線通信が行われるようなものであってもよい。さらに、ある装置から他の装置への通信が有線通信で行われ、他の装置からある装置への通信が無線通信で行われるようなものであってもよい。
本発明によれば、複数の映像および音声の合成を、ユーザの状態に応じて簡単に設定することができる。また、本発明によれば、遠隔地にいる人同士が、より活発で自然なコミュニケーションを行うことができる。
以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。したがって、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。
請求項1に記載の情報処理装置は、コンテンツデータを再生する再生手段(例えば、図4のコンテンツ再生部25)と、ユーザの音声および映像を含む第1のユーザ状態情報を入力するユーザ情報入力手段(例えば、図4の入力部22−1)と、ネットワークを介して接続されている他の情報処理装置(例えば、図1のコミュニケーション装置1−2)から、他のユーザの音声および映像を含む第2のユーザ状態情報を受信するユーザ情報受信手段(例えば、図4の通信部23)と、第1のユーザ状態情報に基づいてユーザの姿勢を分析し、ユーザの姿勢に基づいて、再生中のコンテンツへのユーザの熱中度を分析する情報分析手段(例えば、図4のユーザ特性分析部71)と、コンテンツデータの音声および映像と、第2のユーザ状態情報の音声および映像を合成するとともに、ユーザの熱中度に基づいて、第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いを変更する合成手段(例えば、図4の映像音声合成部26)とを備える。
請求項に記載の情報処理装置は、ユーザ情報受信手段により受信された第2のユーザ状態情報を、情報分析手段による分析の対象にするか否かを判定する分析対象判定手段(例えば、図4の合成制御部84)をさらに備え、情報分析手段は、分析対象判定手段により第2のユーザ状態情報を分析の対象にしないと判定された場合、第1のユーザ状態情報のみを分析する。
請求項に記載の情報処理装置は、合成手段により合成された音声および映像を出力する出力手段(例えば、図4の出力部21)をさらに備える。
請求項11に記載の情報処理装置は、情報分析手段による分析結果に基づいて、他の情報処理装置を制御する制御パラメータを設定するパラメータ設定手段(例えば、図4の制御情報生成部72)と、制御パラメータを、他の情報処理装置に送信する送信手段送信手段(例えば、図4の操作情報出力部87)とをさらに備える。
請求項12に記載の情報処理装置は、他の情報処理装置から送信されてくる制御パラメータを受け付けるか否かを判定する受付判定手段(例えば、図4のセッション管理部81)
をさらに備える。
請求項13に記載の情報処理方法は、ネットワークを介して接続されている他の情報処理装置と通信する情報処理装置が、コンテンツデータを再生する再生ステップ(例えば、図5のステップS4)と、ユーザの音声および映像を含む第1のユーザ状態情報を入力するユーザ情報入力ステップ(例えば、図4の入力部22−1が実行する図5のステップS2)と、他の情報処理装置から、他のユーザの音声および映像を含む第2のユーザ状態情報を受信するユーザ情報受信ステップ(例えば、図4の通信部23が実行する図5のステップS2)と、第1のユーザ状態情報に基づいてユーザの姿勢を分析し、ユーザの姿勢に基づいて、再生中のコンテンツへのユーザの熱中度を分析する情報分析ステップ(例えば、図13のステップS23)と、コンテンツデータの音声および映像と、第2のユーザ状態情報の音声および映像を合成するとともに、ユーザの熱中度に基づいて、第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いを変更する合成ステップ(例えば、図13のステップS28)とを含む。
なお、請求項14に記載の記録媒体および請求項15に記載のプログラムも、上述した請求項13に記載の情報処理方法と基本的に同様の構成であるため、繰り返しになるのでその説明は省略する。
以下、図を参照して本発明の実施の形態について説明する。
図1は、本発明を適用したコミュニケーションシステムの構成例を示している。このコミュニケーションシステムにおいて、コミュニケーション装置1−1は、通信網2を介して他のコミュニケーション装置1(図1の場合、コミュニケーション装置1−2)と接続し、いわゆるTV(テレビジョン)電話機のようにユーザの音声および映像を相互に通信することに加えて、共通のコンテンツを、他のコミュニケーション装置1−2と同期して再生することにより、ユーザ間の遠隔地コミュニケーションを支援するものである。以下、コミュニケーション装置1−1および1−2を個々に区別する必要がない場合、単にコミュニケーション装置1と記述する。
なお、共通のコンテンツは、例えば、テレビジョン放送を受信して得られる番組コンテンツ、予めダウンロード済の映画等のコンテンツ、ユーザ間で供給済の私的なコンテンツ、ゲームや音楽のコンテンツ、または、DVD(Digital Versatile Disk)に代表される光ディスク(図示せぬ)に記録済のコンテンツなどである。
コミュニケーション装置1は、複数のユーザが同時に利用することができる。例えば、図1の場合、コミュニケーション装置1−1は、ユーザA,Bによって使用されており、コミュニケーション装置1−2は、ユーザXによって使用されているものとする。
例えば、共通のコンテンツの映像が図2Aに示すようなものであり、コミュニケーション装置1−1によって撮影されたユーザAの映像が図2Bに示すようなものであり、コミュニケーション装置1−2によって撮影されたユーザXの映像が図2Bに示すようなものであるとする。この場合、コミュニケーション装置1−1のディスプレイ41(図4)には、例えば、図3Aに示すピクチャインピクチャ(picture in picture)、図3Bに示すクロスフェイド(Cross fade)、または図3Cに示すワイプ(wipe)の方式で、コンテンツとユーザの映像が重畳されて表示される。
図3Aに示されたピクチャインピクチャにおいては、コンテンツの映像にユーザの映像が子画面として重畳される。子画面の表示位置およびサイズは任意に変更可能である。また、自身(ユーザA)とコミュニケーション相手(ユーザX)の映像の両方ではなく、一方の子画面だけを表示させることも可能である。
図3Bに示されたクロスフェイドにおいては、コンテンツの映像とユーザ(ユーザAまたはユーザX)の映像が合成されて表示される。このクロスフェイドは、例えばコンテンツの映像として表示された地図上のある位置をユーザが指し示すとき等に用いることができる。
図3Cに示されたワイプにおいては、コンテンツの映像を覆うようにユーザの映像が所定の方向から出現する。例えば、図3Cにおいては、ユーザの映像は、コンテンツの映像の右側から出現している。
これらの合成パターンは、随時変更が可能である。また、図3A乃至図3Cに示された合成パターンにおける各映像の透明度を設定する映像バランス、さらに、図示はしないが、コンテンツとユーザの音声の音量を設定する音量バランスなども、合成パラメータとして随時変更が可能である。これらの合成パターンおよび合成パラメータの変更の履歴は、合成情報として合成情報記憶部64(図4)に記録される。なお、コンテンツとユーザの映像の表示は、上述した合成パターンだけに限らず、これら以外の合成パターンを適用してもよい。
図1に戻る。通信網2は、インタネット等に代表される広帯域なデータ通信網である。コンテンツ供給サーバ3は、コミュニケーション装置1からの要求に応じ、通信網2を介してコンテンツをコミュニケーション装置1に供給する。認証サーバ4は、コミュニケーション装置1のユーザが当該コミュニケーションシステムを利用するに際しての認証、課金等の処理を行う。
放送装置5は、テレビジョン放送等の番組としてコンテンツを送信する。したがって、各コミュニケーション装置1は、放送装置5から放送されるコンテンツを同期して受信し、再生することができる。なお、放送装置5からコミュニケーション装置1に対するコンテンツの送信は無線であってもよいし、有線であってもよい。また、通信網2を介してもかまわない。
標準時刻情報供給装置6は、コミュニケーション装置1に内蔵された時計(標準時刻計時部30(図4))を、標準時刻(世界標準時、日本標準時刻等)に正確に同期させるための標準時刻情報を各コミュニケーション装置1に供給する。なお、標準時刻情報供給装置6からコミュニケーション装置1に対する標準時刻情報の供給は、無線であってもよいし、有線であってもよい。また、通信網2を介してもかまわない。
なお、図1の例においては、コミュニケーション装置1が通信網2を介して2台しか接続されていないが、2台に限らず、コミュニケーション装置1−3およびコミュニケーション装置1−4など、複数台のコミュニケーション装置1が通信網2に接続されている。
次に、コミュニケーション装置1−1の詳細な構成例について、図4を参照して説明する。
コミュニケーション装置1−1において、出力部21は、ディスプレイ41およびスピーカ42より構成され、映像音声合成部26から入力される映像信号および音声信号にそれぞれ対応する映像を表示し、音声を出力する。
入力部22−1および22−2は、ユーザの映像(動画像または静止画像)を撮影するカメラ51−1および51−2、ユーザの音声を集音するマイクロフォン(以下、マイクと称する)52−1および52−2、並びにユーザの周囲の明度や温度等を検出するセンサ53−1および53−2よりそれぞれ構成され、取得した映像、音声、明度、および温度等を含むユーザのリアルタイム(RT)データを、通信部23、記憶部27、およびデータ分析部28に出力する。また、入力部22−1および22−2は、取得したユーザの映像および音声を、映像音声合成部26に出力する。
なお、以下、入力部22−1および22−2、カメラ51−1および51−2、マイク52−1および52−2、並びにセンサ53−1および53−2を、個々に区別する必要がない場合、単に、それぞれ入力部22、カメラ51、マイク52、並びにセンサ53と称する。また、入力部22を複数設け(図4の場合は2つ)、それぞれを複数のユーザ(図1のユーザA,B)に対して指向させるようにしてもよい。
通信部23は、入力部22から入力されるユーザのリアルタイムデータを、通信網2を介してコミュニケーション相手のコミュニケーション装置1−2に送信し、コミュニケーション装置1−2が送信したユーザのリアルタイムデータを受信し、映像音声合成部26および記憶部27に出力する。また、通信部23は、コミュニケーション相手のコミュニケーション装置1−2またはコンテンツ供給サーバ3から通信網2を介して供給されたコンテンツ(以下、適宜、コンテンツデータとも称する)を受信し、コンテンツ再生部25および記憶部27に出力する。さらに、通信部23は、記憶部27に記憶されているコンテンツや、操作情報出力部87からの操作情報や制御情報などを、通信網2を介してコミュニケーション装置1−2に送信する。
放送受信部24は、放送装置5から放送されたテレビジョン放送信号を受信し、得られた放送番組のコンテンツを、コンテンツ再生部25、および、必要に応じて記憶部37に出力する。コンテンツ再生部25は、放送受信部24によって受信された放送番組のコンテンツ、通信部23によって受信されたコンテンツ、記憶部27から読み出されるコンテンツ、または、図示せぬ光ディスクなどから読み出されるコンテンツを再生し、得られたコンテンツの映像および音声を、映像音声合成部26およびデータ分析部28に出力する。
映像音声合成部26は、コンテンツ再生部25から入力されるコンテンツの映像および音声、入力部22から入力されるユーザの映像および音声、通信部23から入力される通信相手(ユーザX)の映像および音声、並びに、ユーザに対するアラート等の文字列などをミキシング(混合して調整すること、すなわち、以下、適宜、合成とも称する)し、その結果得られた映像信号と音声信号を出力部21に出力する。
記憶部27は、コンテンツ記憶部61、ライセンス記憶部62、ユーザ情報記憶部63、および合成情報記憶部64により構成される。コンテンツ記憶部61は、入力部22から供給されるユーザ(ユーザA等)のリアルタイムデータ、通信部23から供給されるコミュニケーション相手(ユーザX)のリアルタイムデータ、放送受信部24によって受信された放送番組のコンテンツ、通信部23から供給されるコンテンツを記憶する。ライセンス記憶部62は、コンテンツ記憶部61に記憶されるコンテンツの、コミュニケーション装置1−1が有するライセンス情報などを記憶する。ユーザ情報記憶部63は、コミュニケーション装置1−1が属するグループなどのプライバシ情報を記憶する。合成情報記憶部64は、合成制御部84により設定が変更された合成パターンや合成パラメータを、合成情報として記憶する。
データ分析部28は、ユーザ特性分析部71および制御情報生成部72により構成され、入力部22から供給されるユーザ(ユーザA等)のリアルタイムデータ、通信部23から供給されるコミュニケーション相手(ユーザX)のリアルタイムデータ、およびコンテンツ再生部25からのコンテンツデータが入力される。
ユーザ特性分析部71は、入力部22から供給されるユーザ(ユーザA等)のリアルタイムデータから得られる、ユーザの姿勢情報、人数情報、音声情報、または周囲の環境情報(すなわち、ユーザの状態情報)などの特性を分析し、分析結果を、制御情報生成部72に出力する。また、ユーザ特性分析部71は、ユーザAのリアルタイムデータだけでなく、通信部23から供給されるコミュニケーション相手(ユーザX)のリアルタイムデータから得られる、ユーザの状態情報などの特性も分析し、分析結果を、制御情報生成部72に出力する。
制御情報生成部72は、コミュニケーション装置1−1を構成する各部に対して、ユーザ特性分析部71からの分析結果に応じた制御を行わせるための制御情報を生成し、生成した制御情報を、制御部32に出力する。例えば、制御情報生成部72は、分析結果に応じた合成パラメータや合成パターンで、コンテンツ再生部25からのコンテンツの映像および音声、通信部23から供給されるコミュニケーション相手のリアルタイムデータの映像および音声を合成させるように、映像音声合成部26を制御するための制御情報を生成し、生成した制御情報を、制御部32に出力する。
また、制御情報生成部72は、コミュニケーション相手であるコミュニケーション装置1−2を構成する各部に対して、ユーザ特性分析部71からの分析結果に応じた制御を行わせるための制御情報を生成し、生成した制御情報を、制御部32に出力する。
通信環境検出部29は、通信部23と通信網2を介したコミュニケーション装置1−2との通信環境(通信レート、通信遅延時間等)を監視して制御部32に出力する。標準時刻計時部30は、制御部32に供給する標準時刻を計時する。標準時刻計時部30は、標準時刻情報供給装置6から供給される標準時刻情報に基づいて自己が刻む標準時刻を修正する。操作入力部31は、リモートコントローラ等からなり、ユーザの操作を受け付けて対応する操作信号を制御部32に入力する。
制御部32は、操作入力部31から入力されるユーザの操作に対応した操作信号や、データ分析部28から入力される制御情報などに基づいて、コミュニケーション装置1−1を構成する各部を制御する。制御部32は、セッション管理部81、視聴記録レベル設定部82、再生同期部83、合成制御部84、再生許可部85、記録許可部86、操作情報出力部87、および電子機器制御部88を含んでいる。なお、図4において、制御部32からコミュニケーション装置1−1を構成する各部への制御ラインの図示は省略されている。
セッション管理部81は、通信部23が通信網2を介してコミュニケーション装置1−2、コンテンツ供給サーバ3、認証サーバ4等と接続する処理を制御する。また、セッション管理部81は、他の装置(例えば、コミュニケーション装置1−2)などからのコミュニケーション装置1−1の各部を制御する制御情報を受け付けるか否かを判定する。
視聴記録レベル設定部82は、ユーザの操作に基づき、入力部22に取得されたユーザのリアルタイムデータやコンテンツ記憶部61に記憶されているユーザ個人のコンテンツが、コミュニケーション相手のコミュニケーション装置1−2において再生可能であるか否か、記録可能であるか否か、記録可能であるなら記録可能な回数等を設定し、この設定情報を、プライバシ情報として、ユーザのリアルタイムデータに付加して、通信部23からコミュニケーション装置1−2に通知させる。再生同期部83は、コミュニケーション相手のコミュニケーション装置1−2と同期して同一のコンテンツが再生されるように、コンテンツ再生部25を制御する。
合成制御部84は、ユーザの操作に従って、ユーザのリアルタイムデータから得られるユーザの状態情報を分析するように、データ分析部28を制御する。また、合成制御部84は、コンテンツの映像および音声とユーザの映像および音声が、ユーザの操作、またはデータ分析部28からの制御情報に従って合成されるように、映像音声合成部26を制御する。すなわち、合成制御部84は、データ分析部28からの制御情報に基づいて、図3A乃至図3Cに示されるような合成パターンおよび合成パラメータの設定を変更し、設定を変更した合成パターンおよび合成パラメータに基づいて、映像音声合成部26を制御する。そして、合成制御部84は、設定を変更した合成パターンおよび合成パラメータを、合成情報として、合成情報記憶部64に記録させる。
再生許可部85は、コンテンツに付加されているライセンス情報やプライバシ情報(コミュニケーション相手の視聴記録レベル設定部82により設定される)等に基づいて当該コンテンツの再生の可否を判定し、判定結果に基づいてコンテンツ再生部25を制御する。記録許可部86は、コンテンツに付加されているライセンス情報やプライバシ情報等に基づき、コンテンツの記録の可否を判定し、判定結果に基づいて記憶部27を制御する。
操作情報出力部87は、ユーザによる操作(テレビジョン放送受信時のチャンネル切り換え操作、コンテンツ再生開始、再生終了、早送り再生の操作等)に対応して、その操作内容と操作時刻を含む操作情報を生成し、通信部23からコミュニケーション相手のコミュニケーション装置1−2に通知させる。この操作情報は、コンテンツの同期再生に利用される。また、操作情報出力部87は、データ分析部28からの制御情報も、通信部23からコミュニケーション相手のコミュニケーション装置1−2に通知させる。
電子機器制御部88は、ユーザによる操作、または、データ分析部28から入力される制御情報に基づき、出力部21や入力部22の出力や入力の設定、コミュニケーション装置1−1の周辺に位置する所定の電子機器(例えば、照明機器、空調機器等。いずれも不図示)を制御する。
なお、コミュニケーション装置1−2の詳細な構成例については、図4に示されたコミュニケーション装置1−1の構成例と同様であるので、その説明は省略する。
次に、コミュニケーション装置1−1によるコミュニケーション装置1−2との遠隔コミュニケーション処理について、図5のフローチャートを参照して説明する。なお、この処理は、コミュニケーション装置1−2においても同様に実行される処理でもある。
このコミュニケーション処理は、コミュニケーション装置1−2との遠隔コミュニケーションの開始を指示する操作が、操作入力部31に入力され、この操作に対応する操作信号が制御部32に入力されたときに開始される。
ステップS1において、通信部23は、セッション管理部81からの制御に基づき、通信網2を介してコミュニケーション装置1−2に接続し、遠隔コミュニケーションの開始を通知し、ステップS2に進む。この通知に対応して、コミュニケーション装置1−2は、遠隔コミュニケーションの開始の受諾を返信する。
ステップS2において、通信部23は、制御部32からの制御に基づき、入力部22から入力されるユーザA等のリアルタイムデータを、通信網2を介してコミュニケーション装置1−2に送信し始めるとともに、コミュニケーション装置1−2から送信されたユーザXのリアルタイムデータの受信を開始し、ステップS3に進む。このとき、入力部22から入力されるユーザA等のリアルタイムデータと、受信されたユーザXのリアルタイムデータは、データ分析部28に入力され、リアルタイムデータのうちの映像および音声は、映像音声合成部26に入力される。
ステップS3において、通信部23は、セッション管理部81からの制御に基づき、通信網2を介して認証サーバ4に接続し、コンテンツ取得のための認証処理を行う。この認証処理の後、通信部23は、通信網2を介してコンテンツ供給サーバ3にアクセスし、ユーザが指定するコンテンツを取得し、ステップS4に進む。このとき、コミュニケーション装置1−2でも同様の処理が行われ、同一のコンテンツが取得されているものとする。
なお、テレビジョン放送されているコンテンツを受信する場合や、既に取得済で記憶部27に記憶されているコンテンツを再生する場合、ステップS3の処理は不要となる。
ステップS4において、コンテンツ再生部25は、再生同期部83の制御に基づき、コミュニケーション装置1−2と同期したコンテンツの再生処理(以下、コンテンツ同期再生処理と記述する)を開始し、ステップS5に進む。このコンテンツ同期再生処理により、コミュニケーション装置1−1および1−2において、同じコンテンツが、標準時刻計時部30(標準時刻情報供給装置6)から供給される標準時刻情報に基づいて同期して再生され、再生されたコンテンツデータは、映像音声合成部26およびデータ分析部28に入力される。
ステップS5において、記憶部27は、遠隔コミュニケーション記録処理を開始し、ステップS6に進む。具体的には、映像音声合成部26は、再生が開始されたコンテンツデータ、入力されたユーザA等のリアルタイムデータに含まれる映像および音声、受信されたユーザXのリアルタイムデータに含まれる映像および音声を、合成制御部84による制御のもと、合成し、合成の結果得られた映像信号および音声信号を出力部21に供給する。なお、このとき、合成制御部84は、ユーザの操作に基づいて予め設定されている合成パターンおよび合成パラメータに基づいて映像音声合成部26の合成処理を制御する。
出力部21は、供給された映像信号に対応する映像を表示し、音声信号に対応する音声を出力する。この段階でユーザ間の映像および音声の通信と、コンテンツの同期再生が開始されたことになる。
そして、再生が開始されたコンテンツ、入力されたユーザA等のリアルタイムデータに含まれる映像および音声、受信されたユーザXのリアルタイムデータに含まれる映像および音声、並びに、これらの合成の状態(合成パターンおよび合成パラメータ)を示す合成情報の記録が開始される。
ステップS6において、データ分析部28および映像音声合成部26は、合成制御部84による制御に従い、ユーザ特性分析ミキシング処理を実行する。この特性分析ミキシング処理の詳細については後述するが、ステップS6においては、データ分析部28により、ユーザのリアルタイムデータから得られる、ユーザの状態情報(姿勢情報、人数情報、音声情報、または環境情報など)の特性が分析され、その分析の結果に基づいて、映像音声合成部26などを制御するための制御情報が生成される。したがって、合成制御部84は、ユーザの操作に基づいて予め設定されている合成パターンおよび合成パラメータではなく、生成される制御情報に基づいて合成パターンおよび合成パラメータを変更し、映像音声合成部26の合成処理を制御する処理を実行する。
ステップS7において、制御部32は、ユーザから遠隔コミュニケーションの終了を指示する操作が行われたか否かを判定し、遠隔コミュニケーションの終了を指示する操作が行われたと判定するまで待機する。ステップS7において、ユーザから遠隔コミュニケーションの終了を指示する操作が行われたと判定された場合、処理はステップS8に進む。
ステップS8において、通信部23は、セッション管理部81からの制御に基づき、通信網2を介してコミュニケーション装置1−2に接続し、遠隔コミュニケーションの終了を通知する。この通知に対応して、コミュニケーション装置1−2は、遠隔コミュニケーションの終了の受諾を返信する。
ステップS9において、記憶部27は、遠隔コミュニケーション記録処理を終了し、遠隔コミュニケーション処理は、終了する。なお、ここまでに記録された、再生されたコンテンツ、ユーザA等のリアルタイムデータに含まれる映像および音声、受信されたユーザXのリアルタイムデータに含まれる映像および音声、並びに合成情報は、今後において、今回の遠隔コミュニケーションが再現されるときに利用される。
以上、コミュニケーション装置1−1による遠隔コミュニケーション処理の説明を終了する。
次に、上述した遠隔コミュニケーション処理のステップS6におけるユーザ特性分析ミキシング処理について詳しく説明する。
図6は、ユーザ特性分析ミキシング処理を行うデータ分析部28の詳細な構成例を示している。なお、図6において、図4における場合と対応する部分には対応する符号を付してあり、その説明は繰り返しになるので省略する。
図6の例において、ユーザ特性分析部71は、分析制御部101、姿勢情報分析部102、人数情報分析部103、音声情報分析部104、および環境情報分析部105により構成される。
分析制御部101は、合成制御部84の制御のもと、ユーザの状態情報のうち、分析を行う対象の情報に応じた各部(姿勢情報分析部102、人数情報分析部103、音声情報分析部104、または環境情報分析部105)を制御し、入力されるユーザAのリアルタイムデータおよびユーザXのリアルタイムデータのうち、対象のリアルタイムデータから得られるユーザの状態情報(特性)を分析させ、分析結果を、制御情報生成部72に供給する。
姿勢情報分析部102は、対象のリアルタイムデータの映像から抽出されるユーザの前後、または左右の姿勢情報に基づく分析処理を実行し、分析結果を分析制御部101に供給する。人数情報分析部103は、入力されるリアルタイムデータに基づいて、遠隔コミュニケーションに参加するユーザ数を分析し、分析結果を分析制御部101に供給する。音声情報分析部104は、対象のリアルタイムデータの音声から抽出される音声情報(例えば、音量や周波数特性)に基づく分析処理を実行し、分析結果を分析制御部101に供給する。
環境情報分析部105は、対象となるリアルタイムデータの明度や温度などユーザの環境情報に基づく分析処理を実行し、分析結果を分析制御部101に供給する。なお、環境情報には、明度や温度の他に、湿度、コミュニケーション装置1−1の移動に応じた加速度、位置情報、あるいは時間帯なども含めることができる。この場合、入力部22には、入力する環境情報に応じたセンサなどが設けられたり、GIS(Geographical Information System)機能が装置内に設けられる。
制御情報生成部72は、分析制御部101からの分析結果に基づいて、コミュニケーション装置1−1の各部が実行する処理を制御する制御情報を生成し、生成した制御情報を、合成制御部84、または電子機器制御部88に供給する。また、制御情報生成部72は、分析制御部101からの分析結果に基づいて、コミュニケーション相手のコミュニケーション装置1−2の各部が実行する処理を制御する制御情報を生成し、生成した制御情報を、操作情報出力部87に供給する。
次に、図7および図8を参照して、ユーザ特性分析ミキシング処理における、リアルタイムデータを用いてのユーザの状態情報分析方法を具体的に説明する。なお、図7および図8の例は、姿勢情報分析部102により実行される分析結果に基づいて、制御情報生成部72が制御情報を生成する処理である。
図7の例においては、ユーザAは、コミュニケーション装置1−1を用いて、図3Aを参照して上述したピクチャインピクチャの方式により、コミュニケーション装置1−2を操作するユーザXと、図5のステップS5における遠隔コミュニケーション記録処理を行っている。
したがって、コミュニケーション装置1−1においては、入力部22により、ユーザAの映像、音声、明度、および温度などを含むリアルタイムデータが取得され、通信部23を介して、コミュニケーション装置1−2に送信されており、コミュニケーション装置1−2からは、通信部23を介して、ユーザXのリアルタイムデータが受信されている。なお、図7の例においては、入力部22として、カメラ51が示されている。
そして、コミュニケーション装置1−1のディスプレイ41には、再生中のコンテンツの映像202の右下部に、コミュニケーション相手であるユーザXの映像が、子画面201として重畳されて表示されている。なお、ユーザ特性分析ミキシング処理を始める前の子画面201の透明度を、基準の透明度とする。
このとき、ユーザAにより、操作入力部31を用いて、ユーザ特性分析ミキシング処理の開始を指示する操作が行われる。
ユーザ特性分析部71には、ユーザA、およびユーザXのリアルタイムデータが入力されており、ユーザ特性分析部71の姿勢情報分析部102は、そのうちのカメラ51より入力されている、図8に示されるユーザAの映像211から、輪郭情報G1を抽出し、ユーザAの基準輪郭G0に基づいて、ユーザAの前後の姿勢情報(姿勢の特性)を分析する。すなわち、姿勢情報分析部102は、ディスプレイ41に対するユーザAの前後の姿勢情報(ユーザAの姿勢の前傾または後傾)に基づいて、再生中のコンテンツへのユーザAの熱中度を分析する。
そして、制御情報生成部72は、姿勢情報分析部102により分析された姿勢情報の分析結果に基づいて、映像の合成において、子画面201の透明度の度合いを制御する制御情報を生成し、さらに、音声の合成において、コンテンツの音声とユーザXの音声の音量バランスを制御する制御情報も生成する。
基準輪郭G0は、姿勢情報分析部102により予め設定される。基準輪郭G0は、例えば、図7の基準姿勢(すなわち、基準輪郭を設定する際の姿勢)のユーザAを、カメラ51で撮影し、撮影された映像内から、動きベクトル解析などの方法により、ユーザAを識別して、ユーザAの基準姿勢の輪郭情報を取得することにより設定される。なお、基準輪郭G0は、ユーザAに、ディスプレイ41に表示される自分を確認させながら設定されるようにしてもよい。
姿勢情報分析部102は、ユーザAの輪郭情報G1と基準輪郭G0の輪郭比e(G1/G0)を求め、図8のグラフ212に示されるように、求めた輪郭比eに基づいて姿勢情報を分析する。
図8のグラフ212においては、縦軸は、姿勢情報を表しており、縦軸の中心の基準姿勢より上は、ユーザの姿勢が前傾姿勢(前)であることを表し、基準姿勢より下は、ユーザの姿勢が後傾姿勢(後)であることを表している。横軸は、輪郭比eの値を表しており、横軸の中心(1)よりも右が、輪郭比eの値が1よりも大きい(+寄りの位置にある)ことを表し、横軸の中心よりも左が輪郭比eの値が1よりも小さい(−寄りの位置にある)ことを表している。
したがって、輪郭比eが1よりも小さい場合、すなわち、ユーザAの輪郭情報G1が基準輪郭G0より小さい場合、姿勢情報分析部102は、ユーザAの姿勢が基準姿勢より後傾しているため、ユーザAが再生中のコンテンツに冷めていると分析する。制御情報生成部72は、その分析に基づいて、子画面201Bに示されるように、基準の子画面201の透明度と比較して、子画面201Bの透明度を低く、すなわち、ユーザXの映像を濃く表示させるように映像を合成する制御情報とともに、ユーザXの音声の音量を大きくするように音声を合成する制御情報を生成する。
一方、データ分析部28は、輪郭比eが1よりも大きい場合、すなわち、ユーザAの輪郭情報G1が基準輪郭G0より大きい場合、姿勢情報分析部102は、ユーザAの姿勢が基準姿勢より前傾しているため、ユーザAが再生中のコンテンツに熱中していると分析する。制御情報生成部72は、その分析に基づいて、子画面201Fに示されるように、基準の子画面201の透明度と比較して、子画面201Fの透明度を高く、すなわち、ユーザXの映像を薄く表示させるように映像を合成する制御情報とともに、ユーザXの音声の音量を小さくするように音声を合成する制御情報を生成する。
なお、図7の例の場合、子画面201の透明度の度合いを設定するようにしたが、子画面201の大きさを設定するようにしてもよい。
以上のように、ユーザAが前傾姿勢の場合、ユーザXの映像を目立たないように表示(合成)させるようにしたので、ユーザAは、子画面表示の設定を行うことなく、簡単に、コンテンツを視聴しやすい環境を得ることができる。また、ユーザAが後傾姿勢の場合、ユーザXの映像を目立つようにしたので、ユーザAは、簡単に、ユーザXとのコミュニケーションを行いやすい環境を得ることができる。
なお、図8の例の場合、ユーザAの前後の姿勢情報を、ユーザAの映像からの輪郭抽出により分析するようにしたが、分析方法は、これに限らず、例えば、ディスプレイ41の左右に2台のカメラ51を設置し、2台のカメラ51からの映像を用いてステレオ視により姿勢情報を抽出して分析を行うようにしてもよいし、また、ディスプレイ41の近傍に赤外線センサを設置し、赤外線を用いての3次元測距方式により姿勢情報を抽出して分析を行うようにしてもよい。
次に、図9および図10を参照して、リアルタイムデータを用いてのユーザの状態情報の分析方法の他の例を具体的に説明する。なお、図9および図10の例は、図7および図8の処理の他の例であり、姿勢情報分析部102により実行される分析結果に基づいて、制御情報生成部72が制御情報を生成する例である。
図9の例においては、ユーザAは、コミュニケーション装置1−1を用いて、図3Aを参照して上述したピクチャインピクチャの方式により、コミュニケーション装置1−2を操作するユーザX、および図示せぬ他のコミュニケーション装置1−3を操作するユーザYと、図5のステップS5における遠隔コミュニケーション記録処理を行っている。
したがって、コミュニケーション装置1−1においては、入力部22により、ユーザAの映像、音声、明度、および温度などを含むリアルタイムデータが取得され、通信部23を介して、コミュニケーション装置1−2および1−3に送信されており、コミュニケーション装置1−2および1−3からは、通信部23を介して、ユーザXおよびユーザYのリアルタイムデータが受信されている。なお、図9の例においては、入力部22として、カメラ51が示されている。
そして、コミュニケーション装置1−1のディスプレイ41には、再生中のコンテンツの映像223に、コミュニケーション相手であるユーザXの映像が、子画面221(コンテンツの映像の右側)として重畳され、ユーザYの映像が、子画面222(コンテンツの映像の左側)として重畳されて表示されている。なお、ユーザ特性分析ミキシング処理を始める前の子画面221および子画面222の大きさを、それぞれ基準の大きさとする。
このとき、ユーザAにより、操作入力部31を用いて、ユーザ特性分析ミキシング処理の開始を指示する操作が行われる。
ユーザ特性分析部71には、ユーザA、ユーザX、およびユーザYのリアルタイムデータが入力されており、ユーザ特性分析部71の姿勢情報分析部102は、そのうちのカメラ51より入力されている、図10に示されるユーザAの映像231から、頭部位置H1を抽出し、ユーザAの基準頭部位置H0に基づいて、ユーザAの姿勢情報を分析する。すなわち、姿勢情報分析部102は、ディスプレイ41に対するユーザAの左右の姿勢情報が、子画面221および222に表示されるユーザへの向きを表すと分析し、ユーザAの姿勢の左右位置を分析する。
そして、制御情報生成部72は、姿勢情報分析部102により分析された姿勢情報の分析結果に基づいて、映像の合成において、子画面221および222の大きさ(表示サイズ)の度合いを制御する制御情報とともに、音声の合成において、コンテンツの音声とユーザXおよびユーザYの音声の音量バランスを制御する制御情報も生成する。
基準頭部位置H0は、姿勢情報分析部102により予め設定される。基準頭部位置H0は、例えば、図8を参照して上述した基準輪郭の設定方法と同様に、図9の基準姿勢(すなわち、基準頭部位置を設定する際の姿勢)のユーザAを、カメラ51で撮影し、撮影された映像内から、動きベクトル解析などの方法により、ユーザAを識別して、ユーザAの基準姿勢の頭部位置情報を取得することにより設定される。
姿勢情報分析部102は、ユーザAの頭部位置H1と基準頭部位置H0を比較し、図10のグラフ232に示されるように、横軸において、基準頭部位置H0を0として、姿勢情報を分析する。
図10のグラフ232においては、縦軸は、姿勢情報を表しており、縦軸の中心の基準姿勢より上は、右寄り姿勢を表し、基準姿勢より下は、左寄り姿勢を表している。横軸は、基準頭部位置H0に対する頭部位置H1を表しており、横軸の中心(0)よりも右が、頭部位置H1が基準頭部位置H0よりも大きい(+寄りの位置にある)ことを表し、横軸の中心よりも左が、頭部位置H1が基準頭部位置H0よりも小さい(−寄りの位置にある)ことを表している。なお、図10のユーザAの映像231においては、図9のディスプレイ41を視聴するユーザAと左右の方向が逆に示されている。すなわち、映像231の−側は、図9の左を表し、+側は、図9の右を表す。
したがって、頭部位置H1が0よりも小さい場合、すなわち、ユーザAの頭部位置H1が基準頭部位置H0より−寄りの位置にある場合、姿勢情報分析部102は、ユーザAの姿勢が基準姿勢より左寄り姿勢であり、ユーザAが、ディスプレイ41(コンテンツの映像の)の左側の子画面222に表示されるユーザYの方を向いていると分析する。制御情報生成部72は、その分析に基づいて、子画面222Lに示されるように、子画面222Lの大きさを、基準の子画面222より大きく表示させるように映像を合成する制御情報とともに、ユーザYの音声の音量を大きくするように音声を合成する制御情報を生成する。また、このとき、制御情報生成部72は、他方の子画面221Sに示されるように、子画面221Sの大きさを、基準の子画面221より小さく表示させるように映像を合成する制御情報とともに、ユーザXの音声の音量を小さくするように音声を合成する制御情報を生成する。
一方、頭部位置H1が0よりも大きい場合、すなわち、ユーザAの頭部位置H1が基準頭部位置H0より+寄りの位置にある場合、姿勢情報分析部102は、ユーザAの姿勢が基準姿勢より右寄りしているため、ユーザAが、ディスプレイ41(コンテンツの映像)の右側の子画面221に表示されるユーザYの方を向いていると分析する。制御情報生成部72は、その分析に基づいて、子画面221Lに示されるように、子画面221Lの大きさを、基準の子画面221より大きく表示させるように映像を合成する制御情報とともに、ユーザYの音声の音量を大きくするように音声を合成する制御情報を生成する。また、このとき、制御情報生成部72は、他方の子画面222Sに示されるように、子画面222Sの大きさを、基準の子画面222より小さく表示させるように映像を合成する制御情報とともに、ユーザXの音声の音量を小さくするように音声を合成する制御情報を生成する。
以上のように、図9および図10の例においては、ユーザAが左寄り姿勢の場合、ユーザYの映像を目立つように、ユーザXの映像を目立たないように表示(合成)させるようにしたので、ユーザAにとって、そのとき会話しているユーザYの表情や、身振り手振りなどが見やすくなるため、ユーザAは、ユーザYとのコミュニケーションを行いやすい環境を得ることができる。逆に、ユーザAが右寄り姿勢の場合、ユーザXの映像を目立つように、ユーザYの映像を目立たないように表示(合成)させるようにしたので、ユーザAにとって、そのとき会話しているユーザXの表情や、身振り手振りなどが見やすくなるため、ユーザAは、ユーザXとのコミュニケーションを行いやすい環境を得ることができる。
これにより、ユーザに対して、会話を行うユーザに向かって話すという、実際の対話式のコミュニケーションと同様な感覚を与えることができ、自然で活発なコミュニケーションが提供される。
なお、図10の例の場合、ユーザAの左右の姿勢情報を、ユーザAの映像からの頭部位置を抽出することにより分析するようにしたが、例えば、ユーザAの目、鼻および口などの分布情報や視線情報を検出することにより、ユーザAの左右の姿勢情報を分析するようにしてもよい。
以上、図7乃至図10の例においては、ユーザAのリアルタイムデータのユーザの状態情報(いまの場合、ユーザの映像)を用いて分析処理を行う例について説明したが、ユーザAのリアルタイムデータだけでなく、遠隔地のコミュニケーション装置から送信されてくるコミュニケーション相手である、他のユーザのリアルタイムデータから得られるユーザの状態情報を分析することによりユーザAのコミュニケーション装置1−1を制御することもできる。
次に、図11および図12を参照して、複数のリアルタイムデータを用いてのユーザの状態情報の分析方法を具体的に説明する。なお、図11および図12の例は、人数情報分析部103および音声情報分析部104により実行される分析結果に基づいて、制御情報生成部72が制御情報を生成する処理の例である。
図11の例においては、ユーザAは、コミュニケーション装置1−1を用いて、図3Aを参照して上述したピクチャインピクチャの方式により、コミュニケーション装置1−2を操作するユーザX、コミュニケーション装置1−3を操作するユーザY、並びに、コミュニケーション装置1−4を操作するユーザZの計4人で、図5のステップS5における遠隔コミュニケーション記録処理を行っている。
したがって、コミュニケーション装置1−1においては、入力部22により、ユーザAの映像、音声、明度、および温度などを含むリアルタイムデータが取得され、通信部23を介して、コミュニケーション装置1−2乃至1−4に送信されており、コミュニケーション装置1−2乃至1−4からは、通信部23を介して、ユーザX、ユーザY、およびユーザZのリアルタイムデータが受信されている。なお、図11の例においては、入力部22として、マイク52が示されている。
そして、コミュニケーション装置1−1のディスプレイ41には、再生中のコンテンツの映像254に、図中左から、コミュニケーション相手であるユーザYの映像が、子画面252(コンテンツの映像の右下部)として重畳され、ユーザXの映像が、子画面251(コンテンツの映像の中央下部)として重畳され、ユーザZの映像が、子画面253(コンテンツの映像の左下部)として重畳されて表示されている。
このとき、ユーザAにより、操作入力部31を用いて、ユーザ特性分析ミキシング処理の開始を指示する操作が行われる。
ユーザ特性分析部71には、ユーザA、ユーザX、ユーザY、およびユーザZのリアルタイムデータが入力されており、ユーザ特性分析部71の人数情報分析部103は、何人のユーザが遠隔コミュニケーション処理に参加しているのかを分析し、さらに、音声情報分析部104は、ユーザA、ユーザX、ユーザY、およびユーザZのリアルタイムデータの音声から、音量や周波数特性などの音声情報(音声特性)を抽出し、抽出した音量や周波数特性に基づいて、コミュニケーションにおけるユーザの活性度(すなわち、盛り上がり指数)を分析する。そして、制御情報生成部72は、音声情報分析部104により分析された音声情報の分析結果に基づいて、コンテンツの映像に合成される子画面251乃至253の大きさ、透明度、または画面効果を制御する制御情報を生成する。
図12のグラフ261の横軸は、時間の経過を表しており、グラフ261は、上から順に、所定の時刻における、ユーザA、ユーザX、ユーザY、およびユーザZの音量を表しており、音量は、上に行くほど、音量が大きいことを表している。また、グラフ262の横軸は、時間の経過を表しており、縦軸は、グラフ261に表される音量の度合いに基づいて分析(推定)される、所定の時刻における各ユーザの相対的な活性度を表しており、縦軸の中心の基準値より上に行くほど活性度が高いことを表している。
すなわち、グラフ261において、ユーザAの音量は、時刻t0の前は、ユーザYやユーザZよりも小さいが、aに示されるように、時刻t0の後において、音量が大きくなっている時間がユーザYやユーザZよりも多い。したがって、グラフ262において、ユーザAの活性度は、時刻t0の前では、基準値より低いが、時刻t0を過ぎてから基準値よりも高くなると分析される。
グラフ261において、ユーザXの音量は、時刻t0の前には、ユーザA、ユーザY、およびユーザZよりも小さい状態が継続しているが、xに示されるように、時刻t0の後において、ユーザA、ユーザY、およびユーザZよりも音量が大きい状態が長く継続している。したがって、グラフ262に示されるように、ユーザXの活性度は、時刻t0の前には、ユーザA、ユーザY、およびユーザZより低く、基準値より低いと分析され、時刻t0を過ぎてから基準値だけでなく、ユーザA、ユーザY、およびユーザZより高くなると分析される。
グラフ261において、ユーザYの音量は、時刻t0の前には、大きい時間がユーザAおよびユーザXよりも多いが、yに示されるように、時刻t0の後において、音量が大きい状態が2箇所ほどあるが、大きい状態がユーザAやユーザXより継続していない。したがって、グラフ262に示されるように、ユーザYの活性度は、時刻t0の前には、ユーザAおよびユーザXより、そして、基準値より少し高いが、時刻t0を過ぎてから基準値より少し低くなると分析される。
グラフ261において、ユーザZの音量は、時刻t0の前には、ユーザA、ユーザX、およびユーザYよりも大きい状態が継続しているが、zに示されるように、時刻t0の後において、ユーザA、ユーザX、およびユーザYよりも音量が小さい状態が継続している。したがって、グラフ262に示されるように、ユーザZの活性度は、時刻t0の前には、ユーザA、ユーザX、およびユーザYよりより高く、基準値より高いと分析され、時刻t0を過ぎてから基準値だけでなく、ユーザA、ユーザX、およびユーザYよりより低くなると分析される。
以上の分析により、ユーザA、ユーザY、およびユーザZと比較して、ユーザXが最大音量を継続する状態が続くと分析されると、制御情報生成部72は、図11の矢印P1に示されるように、ユーザXの映像が出力される子画面251の大きさを、他の子画面252および253よりも大きく表示させるように映像を合成する制御情報を生成する。また、ユーザA、ユーザX、およびユーザYと比較して、ユーザZの音量が小さい状態であり、沈黙状態に近いと分析されると、矢印P2に示されるように、ユーザXの映像が出力される子画面253の大きさを、他の子画面251および252よりも小さく、または、薄く表示させるように映像を合成する制御情報を生成する。
なお、例えば、ユーザA、ユーザX、ユーザY、およびユーザZのリアルタイムデータの音声から、周波数特性が抽出され、ユーザA、ユーザY、およびユーザZと比較して、ユーザXの周波数特性が高い状態が継続すると分析されると、制御情報生成部72は、ユーザXの映像が出力される子画面251に対して、点滅などの画面効果を出す制御情報を生成するようにすることも可能である。
以上のように、図11および図12の例においては、ユーザA自身の音声から抽出される音声情報だけでなく、コミュニケーション相手の音声から抽出される音声情報も分析し、その分析結果に基づいて、コミュニケーションにおいて一番活性度の高い(すなわち、興奮している)ユーザの子画面を大きくするなど、各ユーザが表示される子画面の合成を制御するようにしたので、そのときのコミュニケーションの状況に応じたコミュニケーションを行いやすい環境を得ることができる。もちろん、自分自身の音声情報は、分析せずにコミュニケーション相手の音声情報のみを分析するようにしてもよい。
また、図11および図12の例においては、子画面の表示(合成)制御情報とともに、音声出力の大小に関する制御情報も生成されるようにしてもよい。さらに、図11および図12の例においては、音声に基づいて分析する場合を説明したが、映像などの他のユーザ状態情報に基づいて分析することも可能である。映像の場合、例えば、他のユーザのリアルタイムデータの映像から、他のユーザの視線情報を抽出し、抽出した視線情報に基づいて、ユーザの会話の対象の子画面などの分析が可能である。
なお、図11および図12の例のように、コミュニケーション相手のリアルタイムデータから得られるユーザ状態情報を分析するということは、換言すると、コミュニケーション相手の動作や環境などに応じて、他のユーザAのコミュニケーション装置1−1が制御されてしまうともいえる。このため、ユーザAが望まない操作や効果が発生してしまう場合も生じる。これを抑制するために、ユーザAのコミュニケーション装置1−1においては、図13を参照して後述するように、他のユーザからのリアルタイムデータを分析しないように設定されたり、または、他のユーザのリアルタイムデータの分析結果から生成される制御情報が制限される。
以上の説明においては、ピクチャインピクチャの方式を用いて説明したが、本発明は、ピクチャインピクチャの方式に限らず、図3Bおよび図3Cを参照して上述したクロスフェイドの方式およびワイプの方式、さらに、その他の合成パターンでも適用される。
また、上記説明においては、コミュニケーション相手の映像および音声を、コンテンツの映像およびに合成する場合のみ説明したが、入力部22より入力されたユーザAの映像および音声も、コンテンツの映像および音声に合成するようにしてもよい。
次に、図13のフローチャートを参照して、図5のステップS6のユーザ特性分析ミキシング処理について説明する。
図5のステップS5においては、コミュニケーション記録処理が開始され、合成制御部84は、ユーザの操作に基づいて予め設定されている合成パターンおよび合成パラメータに基づいて、映像音声合成部26の合成処理を制御する処理を実行しており、データ分析部28には、再生されたコンテンツ、入力されるユーザA等のリアルタイムデータ、および受信されたユーザXのリアルタイムデータが、入力されている。
ユーザAにより、操作入力部31を用いて、ユーザ特性分析ミキシング処理の開始を指示する操作が行われる。操作入力部31は、ユーザAの操作に対応する操作信号を、合成制御部84に供給する。合成制御部84は、操作入力部31からの操作信号を入力すると、ステップS21において、ユーザ特性分析ミキシング処理を開始するか否かを判定し、ユーザ特性分析ミキシング処理を開始すると判定した場合、ステップS22に進み、分析対象として、他のユーザのリアルタイムデータも使用するか否かを判定し、分析対象として、他のユーザのリアルタイムデータも使用しないと判定した場合、ステップS23に進む。
分析対象として、他のユーザのリアルタイムデータも使用するか否かは、処理前に予め設定されている。この設定は、もちろん、ユーザAにより操作入力部31を操作することにより変更可能である。
分析制御部101は、ステップS23において、合成制御部84の制御のもと、人数情報分析部103、音声情報分析部104、および環境情報分析部105のうちのいずれかを制御し、ユーザA(自分自身)のリアルタイムデータから得られるユーザ状態情報(特性)を分析させ、分析結果を制御情報生成部72に供給させ、ステップS24に進む。
ステップS24において、制御情報生成部72は、分析制御部101からの分析結果に基づいて、制御情報を生成し、生成した制御情報を、合成制御部84、操作情報出力部87、または電子機器制御部88に供給し、ステップS28に進む。
ステップS23およびS24の処理を具体的に説明すると、例えば、分析制御部101は、姿勢情報分析部102を制御し、ユーザAのリアルタイムデータの映像から姿勢情報を抽出させ、図7乃至図10を参照して上述したように、ユーザの前後、または左右の姿勢情報を分析し、分析結果を制御情報生成部72に供給する。制御情報生成部72は、コンテンツの映像および音声、並びに、コミュニケーション相手であるユーザXの映像および音声を合成する映像音声合成部26を制御するための制御情報(すなわち、合成パターンおよび合成パラメータを設定するための情報)を生成し、合成制御部84に供給する。
また、例えば、分析制御部101は、環境情報分析部105を制御し、ユーザAのリアルタイムデータの明度に基づいて、ユーザAの周囲の環境が暗いか明るいかを分析し、分析結果を制御情報生成部72に供給する。分析制御部101によりユーザAの周囲の環境が暗いと分析された場合、制御情報生成部72は、コミュニケーション装置1−1の周辺に位置する照明機器(図示せぬ)の設定を明るくする制御情報を生成し、電子機器制御部88に供給する。
これに対応して、後述するステップS29において、電子機器制御部88は、生成された制御情報に基づいて、照明機器を明るくする設定をする。これにより、例えば、ディスプレイ41に集中しすぎて部屋を明るくすることを忘れていたユーザが、暗いところで、アニメなどのコンテンツを見てしまい、気分が悪くなるようなことが抑制される。
一方、ステップS22において、分析対象として、他のユーザのリアルタイムデータも使用すると判定した場合、ステップS25に進む。
分析制御部101は、ステップS25において、合成制御部84の制御のもと、人数情報分析部103、音声情報分析部104、および環境情報分析部105のうちのいずれかを制御し、ユーザA(自分自身)およびコミュニケーション相手のリアルタイムデータから得られるユーザ状態情報を分析させ、分析結果を制御情報生成部72に供給させ、ステップS26に進む。
ステップS26において、制御情報生成部72は、分析制御部101からの分析結果に基づいて、制御情報を生成し、ステップS27において、生成された制御情報を拒否するか否かを判定し、生成された制御情報を拒否しないと判定した場合、生成された制御情報を、合成制御部84、操作情報出力部87、または電子機器制御部88に供給し、ステップS28に進む。すなわち、コミュニケーション相手のリアルタイムデータの分析に基づいて実行される制御は、ユーザが望まない操作や効果を発生させる場合、拒否することが可能である。
ステップS25乃至S27の処理を具体的に説明すると、例えば、分析制御部101は、人数情報分析部103および音声情報分析部104を制御し、ユーザAおよびコミュニケーション相手のリアルタイムデータの音声から、コミュニケーション相手の人数や、音量および周波数特性などの音声情報を抽出し、音声情報に基づいて、図11および図12を参照して上述したように、コミュニケーションにおけるユーザの活性度(すなわち、盛り上がり指数)を分析し、分析結果を制御情報生成部72に供給する。制御情報生成部72は、コンテンツの映像および音声、並びに、コミュニケーション相手であるユーザX、ユーザY、並びにユーザZの映像および音声を合成する映像音声合成部26を制御するための制御情報(すなわち、合成パターンおよび合成パラメータを設定するための情報)を生成し、その制御情報が拒否の対象とならなければ、生成した制御情報を、合成制御部84に供給する。
また、例えば、分析制御部101は、音声情報分析部104を制御し、ユーザAおよびコミュニケーション相手のリアルタイムデータの音声から、ユーザAの環境音と、コミュニケーション相手の話し声を比較分析し、分析結果を、制御情報生成部72に供給する。分析制御部101によりユーザAの環境音に対してコミュニケーション相手の話し声が静かであると分析された場合、制御情報生成部72は、スピーカ42のボリュームを大きくする制御情報を生成し、その制御情報が拒否の対象とならなければ、生成した制御情報を、電子機器制御部88に出力する。
なお、このとき、さらに、コミュニケーション相手(例えば、ユーザX)の環境音と、ユーザAの話し声を比較分析し、ユーザXが使用するコミュニケーション装置1−2のスピーカ42のボリュームを大きくする制御情報を生成し、操作情報出力部87に供給し、コミュニケーション装置1−2に送信するようにしてもよい。また、このとき、スピーカのボリュームではなく、合成の音声そのものを制御するようにすることも可能である。
これに対応して、後述するステップS29において、電子機器制御部88は、生成された制御情報に基づいて、スピーカ42のボリュームを大きく設定する。これにより、例えば、騒音が大きい環境で話していることで、自然に大きくなってしまう声(音声情報)を、静かな環境にある相手側のコミュニケーション装置においては、小さく出力することができたり、逆に、静かな環境でぼそぼそ話してしまう声を、騒音が大きい環境にある相手側のコミュニケーション装置においては、大きく出力することができ、相互の環境に応じたコミュニケーションを、簡単に、実現することができる。
さらに、例えば、分析制御部101は、姿勢情報分析部102を制御し、ユーザAおよびコミュニケーション相手のリアルタイムデータから映像から、コミュニケーション相手の姿勢情報を抽出させ、姿勢情報を分析し、分析結果を、制御情報生成部72に供給する。制御情報生成部72は、分析制御部101により、コミュニケーション相手の輪郭が、基準輪郭より大きくなった、すなわち、コミュニケーション装置1−2のディスプレイ41に近づいてきたと分析された場合、制御情報生成部72は、コミュニケーション相手が表示される子画面を大きく表示させるように映像を合成する制御情報を生成し、その制御情報が拒否の対象とならなければ、生成した制御情報を、合成制御部84に出力する。
これに対応して、後述するステップS28において、合成制御部84は、生成された制御情報に基づいて、映像音声合成部62を制御する。これによりコミュニケーション相手が、ディスプレイ41に近づくことにより、ユーザAの興味を引かせるような効果を発生させることができる。
図13に戻って、ステップS28において、合成制御部84は、制御情報生成部72からの制御情報に応じて、映像音声合成部26の合成パターンや合成パラメータを設定し、映像音声合成部26に、コンテンツの映像および音声、並びに、コミュニケーション相手であるユーザの映像および音声を合成させ、ステップS29に進む。
これにより、出力部21を構成するディスプレイ41には、コンテンツの映像およびコミュニケーション相手であるユーザの映像が、ユーザ特性分析部71により分析され、制御情報生成部72により生成された制御情報に応じて表示される。また、出力部21を構成するスピーカ42には、コンテンツの音声およびコミュニケーション相手であるユーザの音声が、ユーザ特性分析部71により分析され、制御情報生成部72により生成された制御情報に応じて出力される。
そして、再生が開始されたコンテンツデータ、送信されたユーザA等のリアルタイムデータに含まれる映像および音声、受信されたユーザXのリアルタイムデータに含まれる映像および音声とともに、制御情報生成部72により生成された制御情報に応じて変更された合成パターンおよび合成パラメータが合成情報として記録される。
ステップS29において、電子機器制御部88は、制御情報生成部72からの制御情報に応じて、コミュニケーション装置1−1の各部(例えば、スピーカ42)の設定音量を制御したり、コミュニケーション装置1−1の周囲に位置する照明機器の設定を明るくするように制御し、ステップS30に進む。
ステップS30において、操作情報出力部87は、制御情報生成部72から、ユーザXが使用するコミュニケーション装置1−2への制御情報を受けると、制御情報を、通信部23、および通信網2を介して、コミュニケーション装置1−2に送信し、ステップS31に進む。なお、制御情報を受信したコミュニケーション装置1−2の処理は、後述する。
ユーザAにより、操作入力部31を用いて、ユーザ特性分析ミキシング処理の終了を指示する操作が行われる。操作入力部31は、ユーザAの操作に対応する操作信号を、合成制御部84に供給する。合成制御部84は、操作入力部31からの操作信号を入力すると、ステップS31において、ユーザ特性分析ミキシング処理を終了するか否かを判定し、ユーザ特性分析ミキシング処理を終了すると判定された場合、ユーザ特性分析ミキシング処理を終了し、図5のステップS6に戻り、ステップS7に進む。
一方、ステップS21において、ユーザ特性分析ミキシング処理を開始しないと判定された場合、ステップS27において、制御情報を拒否すると判定された場合、もしくは、ステップS31において、ユーザ特性分析ミキシング処理を終了すると判定された場合、ユーザ特性分析ミキシング処理は終了され、処理は、図5のステップS6に戻り、ステップS7に進む。すなわち、合成制御部84は、ステップS7で遠隔コミュニケーション処理が終了するまで、ユーザの操作に基づいて予め設定されている合成パターンおよび合成パラメータでの映像音声合成部26の合成処理を制御する処理を継続する。
以上のように、ユーザのリアルタイムデータである映像、音声、明度、または温度などのユーザの状態情報を分析し、分析結果に応じて、コンテンツの映像および音声、ならびにコミュニケーション相手の映像および音声の合成を制御したり、あるいは、コミュニケーション装置の各部の設定を制御するようにしたので、ユーザの状態がリアルタイムに反映されるコミュニケーションを行うことができる。したがって、遠隔地にいながらも対面でコミュニケーションを行っているような効果が引き出される。
また、ユーザにとって、わずらわしく、かつ設定が難しいとされる、これらのコミュニケーション装置の各設定をユーザの好みに設定することを、ユーザの状態に応じて簡単に行うことができるので、ユーザは、設定にかかる手間を省くことができる。
さらに、コミュニケーション相手のコミュニケーション装置も制御することができる。
次に、図14のフローチャートを参照して、図13のステップS30においてコミュニケーション装置1−1から送信された制御情報を受信する、コミュニケーション装置1−2の制御情報受信処理について説明する。
なお、図14の制御情報受信処理は、コミュニケーション装置1−2が、図5のステップS5の後において遠隔コミュニケーション記録処理を行っている間に実行される処理である。すなわち、この処理は、他のコミュニケーション装置1−1によるコンテンツ特性分析結果に応じて、ミキシング処理を行う処理であり、換言すると、ステップS6のコンテンツ特性分析ミキシング処理の他の処理である。
ステップS51において、コミュニケーション装置1−2の通信部23は、コミュニケーション装置1−1の操作情報出力部87から送信されてくる制御情報を受信すると、セッション管理部81に供給する。
ステップS52において、セッション管理部81は、コミュニケーション装置1−1からの制御情報が、ユーザが望まない操作や効果を発生させるものである場合、制御情報を拒否すると判定し、制御情報受信処理を終了する。
なお、コミュニケーション装置1−1からの制御情報の受付または拒否は、コミュニケーション装置1−2において設定することが可能であり、制御情報を一切受け付けないと設定することも可能である。また、受け付けた場合、自分自身のコミュニケーション装置において分析され、生成された制御情報の排他制御のため、優先度を設けたり、あるいは、コミュニケーション装置の間で、マスタとスレーブの関係を予め設定するようにしてもよい。
一方、ステップS52において、セッション管理部81は、コミュニケーション装置1−1からの制御情報を拒否しないと判定した場合、その制御情報を、合成制御部84または電子機器制御部88に供給し、ステップS53に進む。
ステップS53において、合成制御部84は、制御情報生成部72からの制御情報に応じて、映像音声合成部26の合成パターンや合成パラメータを設定し、映像音声合成部26に、コンテンツの映像および音声、並びに、コミュニケーション相手であるユーザの映像および音声を合成させ、ステップS54に進む。
ステップS54において、電子機器制御部88は、制御情報に基づいて、コミュニケーション装置1−2の各部、または、コミュニケーション装置1−2の近傍に位置する電子機器などを制御し、制御情報受信処理を終了する。
以上のように、自分自身のユーザ特性分析部71において分析され、制御情報生成部72において生成された制御情報だけでなく、他のコミュニケーション装置のユーザ特性分析部71において分析され、制御情報生成部72において生成された制御情報も利用することができ、さらに、それを拒否することも可能である。
なお、上記説明においては、各コミュニケーション装置にデータ分析部28を設置する場合を説明したが、通信網2に、サーバを設置し、そのサーバに、データ分析部28を設け、制御情報を各コミュニケーション装置に提供するようにしてもよいし、サーバに、ユーザ特性分析部71のみを設け、分析情報を各コミュニケーション装置に提供するようにしてもよい。
以上のように、遠隔コミュニケーション処理が実行されるので、従来の音声電話機、TV電話機、または、ビデオ会議システムのような遠隔地コミュニケーション装置と比較して、より活発で自然なコミュニケーションが実現される。
すなわち、従来においては、従来のTV装置で、リアルタイムで配信される放送コンテンツ視聴するユーザXが、遠隔地にいるユーザAに音声電話機を使用して、放送コンテンツを視聴した感想を伝えた場合、実際に放送コンテンツを見ていないユーザAには、状況の理解が困難である場合があった。
しかしながら、本発明のコミュニケーション装置を用いることにより、遠隔地にいるユーザAとユーザXが同じ時刻に同じコンテンツを共用することができ、さらに、子画面などにおいて、お互いの映像や音声も同時に再生されるので、遠隔地にいるにも関わらず、あたかも対面でコミュニケーションを行っているような臨場感、一体感、または親近感などを得ることができる。
さらに、ユーザの映像から抽出される、ユーザの姿勢情報や顔の向きなどの映像情報、ユーザの音声から抽出される、歓声、拍手などの音声情報、ユーザの周囲の環境の明度や温度から抽出される環境情報などを用いて、コンテンツとユーザの映像および音声の合成処理などを制御するようにしたので、ユーザの状態、またはユーザのコミュニケーションの状況などに応じて、コミュニケーション装置の各パラメータを、手間をかけることなく、簡単に設定することができる。これにより、さらに、活発で自然なコミュニケーションが実現される。
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。この場合、例えば、図1のコミュニケーション装置1−1および1−2は、図15に示されるようなパーソナルコンピュータ401により構成される。
図15において、CPU(Central Processing Unit)411は、ROM(Read Only Memory) 412に記憶されているプログラム、または、記憶部418からRAM(Random Access Memory)413にロードされたプログラムに従って各種の処理を実行する。RAM413にはまた、CPU411が各種の処理を実行する上において必要なデータなどが適宜記憶される。
CPU411、ROM412、およびRAM413は、バス414を介して相互に接続されている。このバス414にはまた、入出力インタフェース415も接続されている。
入出力インタフェース415には、キーボード、マウスなどよりなる入力部416、CRT(Cathode Ray Tube),LCD(Liquid Crystal Display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部417、ハードディスクなどより構成される記憶部418、モデム、ターミナルアダプタなどより構成される通信部419が接続されている。通信部419は、無線などのネットワークを介しての通信処理を行う。
入出力インタフェース415にはまた、必要に応じてドライブ420が接続され、磁気ディスク421、光ディスク422、光磁気ディスク423、或いは半導体メモリ424などが適宜装着され、それから読み出されたコンピュータプログラムが、必要に応じて記憶部418にインストールされる。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば、汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
この記録媒体は、図15に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク421(フレキシブルディスクを含む)、光ディスク422(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク423(MD(Mini-Disk)(商標)を含む)、もしくは半導体メモリ424などよりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM412や、記憶部418に含まれるハードディスクなどで構成される。
なお、本明細書において、フローチャートに示されるステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
本発明のコミュニケーションシステムの構成例を示す図である。 図1のコミュニケーションシステムにおいて用いられる映像の例を示す図である。 コンテンツとユーザの映像の合成パターンの例を示す図である。 図1のコミュニケーション装置の構成例を示すブロック図である。 図1のコミュニケーション装置の遠隔コミュニケーション処理を説明するフローチャートである。 図4のデータ分析部の詳細な構成例を示す図である。 ユーザ状態情報の分析方法の一例を説明する図である。 ユーザ状態情報の分析方法の一例を説明する図である。 ユーザ状態情報の分析方法の他の例を説明する図である。 ユーザ状態情報の分析方法の他の例を説明する図である。 複数のリアルタイムデータを用いてのユーザ状態情報の分析方法の例を説明する図である。 複数のリアルタイムデータを用いてのユーザ状態情報の分析方法の例を説明する図である。 図5のステップS6のユーザ特性分析ミキシング処理を説明するフローチャートである。 図13のステップS30の処理に対応して実行される、制御情報受信処理を説明するフローチャートである。 本発明を適用するパーソナルコンピュータの構成例を示すブロック図である。
符号の説明
1−1,1−2 コミュニケーション装置,2 通信網,3 コンテンツ供給サーバ,21 出力部,22−1,22−2 入力部,23 通信部,26 映像音声合成部,28 データ分析部,31 操作入力部,32 制御部,41 ディスプレイ,42 スピーカ,51−1,51−2 カメラ,52−1,52−2 マイク,53−1,53−2 センサ,71 ユーザ特性分析部,72 制御情報生成部,81 セッション管理部,84 合成制御部,87 操作情報出力部,88 電子機器制御部,101 分析制御部,102 姿勢情報分析部,103 人数情報分析部,104 音声情報分析部,105 環境情報分析部

Claims (15)

  1. コンテンツデータを再生する再生手段と、
    ユーザの音声および映像を含む第1のユーザ状態情報を入力するユーザ情報入力手段と、
    ネットワークを介して接続されている他の情報処理装置から、他のユーザの音声および映像を含む第2のユーザ状態情報を受信するユーザ情報受信手段と、
    前記第1のユーザ状態情報に基づいて前記ユーザの姿勢を分析し、前記ユーザの姿勢に基づいて、再生中のコンテンツへの前記ユーザの熱中度を分析する情報分析手段と、
    前記コンテンツデータの音声および映像と、前記第2のユーザ状態情報の音声および映像を合成するとともに、前記ユーザの熱中度に基づいて、前記第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いを変更する合成手段と
    を備える情報処理装置。
  2. 前記合成手段は、前記ユーザの熱中度が高いほど、前記第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いを低くし、前記ユーザの熱中度が低いほど、前記第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いを高くする
    請求項1に記載の情報処理装置。
  3. 前記分析手段は、さらに、前記第2のユーザ状態情報に基づいて、前記他のユーザのコミュニケーションの活性度を分析し、
    前記合成手段は、前記ユーザの熱中度および前記他のユーザの活性度のうち少なくとも一方に基づいて、前記第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いを変更する
    請求項1に記載の情報処理装置。
  4. 前記合成手段は、前記他のユーザの活性度が高いほど、前記第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いを高くし、前記他のユーザの活性度が低いほど、前記第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いを低くする
    請求項に記載の情報処理装置。
  5. 前記第2のユーザ状態情報を、前記情報分析手段による分析の対象にするか否かを判定する分析対象判定手段をさらに備え、
    前記情報分析手段は、前記分析対象判定手段により前記第2のユーザ状態情報を分析の対象にしないと判定された場合、前記第1のユーザ状態情報のみを分析する
    請求項に記載の情報処理装置。
  6. 前記分析手段は、さらに、前記第1のユーザ状態情報に基づいて、前記合成手段により合成された映像を出力する出力手段に対する前記ユーザの姿勢を分析し、
    前記合成手段は、前記ユーザの熱中度および前記表示手段に対する前記ユーザの姿勢のうち少なくとも一方に基づいて、前記第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いを変更する
    請求項1に記載の情報処理装置。
  7. 前記再生手段は、前記他の情報処理装置と同一のコンテンツデータを同期再生する
    請求項1に記載の情報処理装置。
  8. 前記第1のユーザ状態情報には、前記ユーザの環境情報も含まれ、
    前記第2のユーザ状態情報には、前記他のユーザの環境情報も含まれる
    請求項1に記載の情報処理装置。
  9. 前記合成手段により合成された音声および映像を出力する出力手段をさらに備える
    請求項1に記載の情報処理装置。
  10. 前記情報分析手段による分析結果に基づいて、接続される電子機器を制御する電子機器制御手段をさらに備える
    請求項1に記載の情報処理装置。
  11. 前記情報分析手段による分析結果に基づいて、前記他の情報処理装置を制御する制御パラメータを設定するパラメータ設定手段と、
    前記制御パラメータを、前記他の情報処理装置に送信する送信手段と
    をさらに備える請求項1に記載の情報処理装置。
  12. 前記他の情報処理装置から送信されてくる制御パラメータを受け付けるか否かを判定する受付判定手段を
    さらに備える請求項1に記載の情報処理装置。
  13. ネットワークを介して接続されている他の情報処理装置と通信する情報処理装置が、
    コンテンツデータを再生する再生ステップと、
    ユーザの音声および映像を含む第1のユーザ状態情報を入力するユーザ情報入力ステップと、
    前記他の情報処理装置から、他のユーザの音声および映像を含む第2のユーザ状態情報を受信するユーザ情報受信ステップと、
    前記第1のユーザ状態情報に基づいて前記ユーザの姿勢を分析し、前記ユーザの姿勢に基づいて、再生中のコンテンツへの前記ユーザの熱中度を分析する情報分析ステップと、
    前記コンテンツデータの音声および映像と、前記第2のユーザ状態情報の音声および映像を合成するとともに、前記ユーザの熱中度に基づいて、前記第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いを変更する合成ステップと
    を含む情報処理方法。
  14. ネットワークを介して接続された情報処理装置と通信するコンピュータに、
    コンテンツデータを再生する再生ステップと、
    ユーザの音声および映像を含む第1のユーザ状態情報を入力するユーザ情報入力ステップと、
    前記情報処理装置から、他のユーザの音声および映像を含む第2のユーザ状態情報を受信するユーザ情報受信ステップと、
    前記第1のユーザ状態情報に基づいて前記ユーザの姿勢を分析し、前記ユーザの姿勢に基づいて、再生中のコンテンツへの前記ユーザの熱中度を分析する情報分析ステップと、
    前記コンテンツデータの音声および映像と、前記第2のユーザ状態情報の音声および映像を合成するとともに、前記ユーザの熱中度に基づいて、前記第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いを変更する合成ステップと
    を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
  15. ネットワークを介して接続された情報処理装置と通信するコンピュータに、
    コンテンツデータを再生する再生ステップと、
    ユーザの音声および映像を含む第1のユーザ状態情報を入力するユーザ情報入力ステップと、
    前記情報処理装置から、他のユーザの音声および映像を含む第2のユーザ状態情報を受信するユーザ情報受信ステップと、
    前記第1のユーザ状態情報に基づいて前記ユーザの姿勢を分析し、前記ユーザの姿勢に基づいて、再生中のコンテンツへの前記ユーザの熱中度を分析する情報分析ステップと、
    前記コンテンツデータの音声および映像と、前記第2のユーザ状態情報の音声および映像を合成するとともに、前記ユーザの熱中度に基づいて、前記第2のユーザ状態情報の音声および映像のうち少なくとも一方の合成する度合いを変更する合成ステップと
    を実行させるためのプログラム。
JP2004218532A 2004-07-27 2004-07-27 情報処理装置および方法、記録媒体、並びにプログラム Expired - Fee Related JP4716083B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004218532A JP4716083B2 (ja) 2004-07-27 2004-07-27 情報処理装置および方法、記録媒体、並びにプログラム
US11/179,560 US7975230B2 (en) 2004-07-27 2005-07-13 Information-processing apparatus, information-processing methods, recording mediums, and programs
CNB2005100884554A CN100433828C (zh) 2004-07-27 2005-07-27 信息处理装置、信息处理方法
US13/105,526 US8291326B2 (en) 2004-07-27 2011-05-11 Information-processing apparatus, information-processing methods, recording mediums, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004218532A JP4716083B2 (ja) 2004-07-27 2004-07-27 情報処理装置および方法、記録媒体、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2006041887A JP2006041887A (ja) 2006-02-09
JP4716083B2 true JP4716083B2 (ja) 2011-07-06

Family

ID=35733636

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004218532A Expired - Fee Related JP4716083B2 (ja) 2004-07-27 2004-07-27 情報処理装置および方法、記録媒体、並びにプログラム

Country Status (3)

Country Link
US (2) US7975230B2 (ja)
JP (1) JP4716083B2 (ja)
CN (1) CN100433828C (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006041884A (ja) 2004-07-27 2006-02-09 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2006041888A (ja) * 2004-07-27 2006-02-09 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2006041885A (ja) * 2004-07-27 2006-02-09 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP4501063B2 (ja) * 2004-07-27 2010-07-14 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
JP4845581B2 (ja) * 2006-05-01 2011-12-28 三菱電機株式会社 画像及び音声通信機能付テレビジョン放送受像機
JP2008072447A (ja) * 2006-09-14 2008-03-27 Fujitsu Ltd 画像配信システム、画像配信プログラム、画像配信方法
JP2008259000A (ja) * 2007-04-06 2008-10-23 Sony Corp テレビ会議装置、制御方法、およびプログラム
KR101520659B1 (ko) * 2008-02-29 2015-05-15 엘지전자 주식회사 개인용 비디오 레코더를 이용한 영상 비교 장치 및 방법
KR101564392B1 (ko) * 2009-01-16 2015-11-02 삼성전자주식회사 사용자의 관심도에 기초한 감상물 자동제공방법 및 이를 적용한 비디오 기기
JP5299018B2 (ja) * 2009-03-26 2013-09-25 ソニー株式会社 情報処理装置、コンテンツ処理方法及びプログラム
US9268398B2 (en) * 2009-03-31 2016-02-23 Voispot, Llc Virtual meeting place system and method
SG171495A1 (en) * 2009-12-01 2011-06-29 Creative Tech Ltd Methods and systems for consuming media content among a group of at least two entities
JP2012038210A (ja) * 2010-08-10 2012-02-23 Sony Corp 情報処理装置、情報処理方法、コンピュータプログラム及びコンテンツ表示システム
US9317598B2 (en) * 2010-09-08 2016-04-19 Nokia Technologies Oy Method and apparatus for generating a compilation of media items
US8874538B2 (en) 2010-09-08 2014-10-28 Nokia Corporation Method and apparatus for video synthesis
JP5740972B2 (ja) * 2010-09-30 2015-07-01 ソニー株式会社 情報処理装置および情報処理方法
JP5724283B2 (ja) * 2010-10-15 2015-05-27 ソニー株式会社 情報処理装置、同期方法およびプログラム
KR101839406B1 (ko) * 2011-09-27 2018-03-19 삼성전자 주식회사 디스플레이장치 및 그 제어방법
KR20130134785A (ko) * 2012-05-31 2013-12-10 엘지전자 주식회사 유저 입력 리스폰스 출력 방법 및 이를 위한 홈 디바이스
JP5733298B2 (ja) * 2012-12-28 2015-06-10 カシオ計算機株式会社 表示制御装置、表示制御方法及びプログラム
JP2014188303A (ja) * 2013-03-28 2014-10-06 Nintendo Co Ltd ゲームシステム、ゲームプログラム、ゲーム処理方法、およびゲーム装置
CN104183253B (zh) * 2013-05-24 2018-05-11 富泰华工业(深圳)有限公司 音乐播放系统、装置及方法
JP6191248B2 (ja) 2013-06-04 2017-09-06 富士通株式会社 情報処理装置及び情報処理プログラム
CN106463110A (zh) * 2014-06-03 2017-02-22 索尼公司 信息处理设备、信息处理方法和程序
CN105094808B (zh) * 2015-06-26 2018-04-10 努比亚技术有限公司 一种控制装置及方法
CN105100644A (zh) * 2015-07-15 2015-11-25 西安诺瓦电子科技有限公司 视频源无缝切换方法
JP6665446B2 (ja) * 2015-08-21 2020-03-13 ヤマハ株式会社 情報処理装置、プログラム及び音声合成方法
CN106209878A (zh) * 2016-07-20 2016-12-07 北京邮电大学 基于WebRTC的多媒体数据传输方法及装置
CN109951730A (zh) * 2017-12-21 2019-06-28 深圳市晟江科技有限公司 一种视频源切换的方法、系统和视频终端
JP7135335B2 (ja) * 2018-02-23 2022-09-13 日本電気株式会社 視聴履歴記録システム、視聴履歴記録装置、記録方法及びプログラム
CN108965769B (zh) * 2018-08-28 2020-02-14 腾讯科技(深圳)有限公司 视频显示方法及装置
JP7530079B2 (ja) * 2019-07-19 2024-08-07 株式会社フォーサイト 学習システム、学習講義提供方法、およびプログラム
JP7371584B2 (ja) * 2020-07-27 2023-10-31 トヨタ紡織株式会社 観光ガイドシステム
US11487498B2 (en) * 2021-01-20 2022-11-01 Nvidia Corporation Volume control for audio and video conferencing applications

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040261127A1 (en) * 1991-11-25 2004-12-23 Actv, Inc. Digital interactive system for providing full interactivity with programming events
JPH0662400A (ja) * 1992-08-12 1994-03-04 Hitachi Ltd 会議制御方式
SG67927A1 (en) * 1993-10-20 1999-10-19 Videoconferencing Sys Inc Adaptive videoconferencing system
JPH07336660A (ja) * 1994-06-14 1995-12-22 Matsushita Electric Ind Co Ltd テレビ会議システム
US6477239B1 (en) * 1995-08-30 2002-11-05 Hitachi, Ltd. Sign language telephone device
JP2751923B1 (ja) * 1997-02-05 1998-05-18 日本電気株式会社 多地点テレビ会議システムおよび多地点テレビ会議装置
US20080010365A1 (en) * 1997-07-25 2008-01-10 Eric Schneider Methods, products, systems, and devices for processing reusable information
IL134881A (en) * 1997-09-04 2004-05-12 Discovery Communicat Inc Device for accessing and controlling video over a computer network, including image correction
WO2000022823A1 (en) * 1998-10-09 2000-04-20 Sony Corporation Communication apparatus and method
JP4442016B2 (ja) * 2000-10-06 2010-03-31 ソニー株式会社 席順決定装置、グループ判定表作成方法、グループ判定表作成装置
US7039676B1 (en) * 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
US20020133520A1 (en) * 2001-03-15 2002-09-19 Matthew Tanner Method of preparing a multimedia recording of a live presentation
JP2003111106A (ja) * 2001-09-28 2003-04-11 Toshiba Corp 集中度取得装置並びに集中度を利用した装置及びシステム
JP2003163906A (ja) * 2001-11-27 2003-06-06 Nippon Telegr & Teleph Corp <Ntt> テレビ会議システム及びテレビ会議方法
JP2004088327A (ja) * 2002-08-26 2004-03-18 Casio Comput Co Ltd 通信端末、通信端末処理プログラム、および画像配信サーバ、画像配信処理プログラム
WO2004027685A2 (en) * 2002-09-19 2004-04-01 The Penn State Research Foundation Prosody based audio/visual co-analysis for co-verbal gesture recognition
AU2003289106A1 (en) * 2002-12-27 2004-07-29 Hiroshi Arisawa Multi-view-point video capturing system
AU2003299570A1 (en) * 2003-11-26 2005-07-21 International Business Machines Corporation Coupon exchange network and service bureau
US7061521B2 (en) * 2003-12-16 2006-06-13 Vugate Inc. Video conference system providing private and attorney-client privileged communications
US7886024B2 (en) * 2004-07-01 2011-02-08 Microsoft Corporation Sharing media objects in a network
JP2006041886A (ja) 2004-07-27 2006-02-09 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム

Also Published As

Publication number Publication date
US7975230B2 (en) 2011-07-05
US8291326B2 (en) 2012-10-16
CN1728816A (zh) 2006-02-01
CN100433828C (zh) 2008-11-12
US20060026207A1 (en) 2006-02-02
US20110216155A1 (en) 2011-09-08
JP2006041887A (ja) 2006-02-09

Similar Documents

Publication Publication Date Title
JP4716083B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP4655190B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
US20240420401A1 (en) Video display device and display control method for same
US8958686B2 (en) Information processing device, synchronization method, and program
JP7294337B2 (ja) 情報処理装置及び情報処理方法、並びに情報処理システム
CN112261481B (zh) 互动视频的创建方法、装置、设备及可读存储介质
JP2006041886A (ja) 情報処理装置および方法、記録媒体、並びにプログラム
US8391671B2 (en) Information processing device and method, recording medium, and program
US20230179756A1 (en) Information processing device, information processing method, and program
JP4572615B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
CN1981524B (zh) 信息处理设备和方法
JP2013062640A (ja) 信号処理装置、信号処理方法、およびプログラム
EP1912175A1 (en) System and method for generating a video signal
JP2010157906A (ja) 映像表示装置
WO2023130715A1 (zh) 一种数据处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品
CN1981525B (zh) 信息处理设备和信息处理方法
WO2019097802A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2003339034A (ja) ネットワーク会議システム、ネットワーク会議方法およびネットワーク会議プログラム
JP2004194009A (ja) 利用者映像提示用サーバ装置及び利用者用端末装置並びに両者を用いた利用者映像提示方法
WO2023042436A1 (ja) 情報処理装置および方法、並びにプログラム
CN121334405A (zh) 直播流处理方法、直播显示方法、设备、存储介质和产品
CN118202669A (zh) 信息处理装置、信息处理方法和程序
HK40038194B (en) Method and apparatus for creating interactive video, device and readable storage medium
CN117640269A (zh) 在线会议的会议内容呈现方法、装置、设备、介质及产品
JP2008136079A (ja) 記憶再生装置及び記憶再生プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110112

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110316

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140408

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees