JP7067481B2 - 情報処理装置、情報処理方法、プログラム、およびコミュニケーションシステム - Google Patents

情報処理装置、情報処理方法、プログラム、およびコミュニケーションシステム Download PDF

Info

Publication number
JP7067481B2
JP7067481B2 JP2018546254A JP2018546254A JP7067481B2 JP 7067481 B2 JP7067481 B2 JP 7067481B2 JP 2018546254 A JP2018546254 A JP 2018546254A JP 2018546254 A JP2018546254 A JP 2018546254A JP 7067481 B2 JP7067481 B2 JP 7067481B2
Authority
JP
Japan
Prior art keywords
information
video
user
viewer
communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018546254A
Other languages
English (en)
Other versions
JPWO2018074263A1 (ja
Inventor
仕豪 温
充 勝股
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2018074263A1 publication Critical patent/JPWO2018074263A1/ja
Application granted granted Critical
Publication of JP7067481B2 publication Critical patent/JP7067481B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/155Conference systems involving storage of or access to video conference sessions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)
  • Telephonic Communication Services (AREA)

Description

本開示は、情報処理装置、情報処理方法、プログラム、およびコミュニケーションシステムに関し、特に、より円滑なコミュニケーションを行うことができるようにした情報処理装置、情報処理方法、プログラム、およびコミュニケーションシステムに関する。
一般的に、映像コンテンツは、撮影時のカメラワークによって視点位置および視線方向が決定されており、視聴者は、視点位置および視線方向が制限された映像を視聴することになる。従って、そのような映像コンテンツを視聴している視聴者は、映像が過去の時点において撮影されたものであると容易に気付くことができる。即ち、映像コンテンツの視点位置および視線方向が制限されていることより、視聴者は、自由に動いて見回すことができる現実空間との相違を見分けることができる。
一方、近年、VR(Virtual Reality)技術が進化しており、自由に視点位置および視線方向を変更することができる映像コンテンツが作成されている。このような映像コンテンツにより再現されるVR空間では、視聴者は、自由に動いて見回すことができ、VR空間と現実世界とのギャップが大幅に狭められていることに満足することができる。
また、特許文献1には、コミュニケーションを図りたい人物を選別するためのデータを提示し、そのデータに基づいて該当すると判断された人物とのコミュニケーションを可能とするコミュニケーションシステムが開示されている。
特開2002-215942号公報
ところで、VR技術のさらなる進歩に伴って、視聴者がVR空間を現実空間のように知覚することができるようになると予測される。そのため、視聴者が、VR空間内において仮想的に存在する人々を、そこに実在する現実的な人々であると誤認してしまい、VR空間内の仮想的な人物に対して話しかけるようなことも発生すると想定される。しかしながら、視聴者の話しかけに対してVR空間内の仮想的な人物が応答することができないのは当然であり、自由に視点位置および視線方向を変更することができる映像コンテンツを介してコミュニケーションを図るための工夫が求められている。
本開示は、このような状況に鑑みてなされたものであり、より円滑なコミュニケーションを行うことができるようにするものである。
本開示の第1の側面の情報処理装置は、視聴者が映像を視聴しているときに、その映像に映されていると認識された人物の現在の状況を示す情報として、前記人物を監視することにより決定され、前記人物がコミュニケーションに応答できるか否かを示す情報を少なくとも含む現状情報を通信により取得する現状情報通信部と、前記現状情報通信部が取得した前記現状情報を、前記映像を視聴している視聴者に提示する現状情報提示部と、前記視聴者が前記人物に対するコミュニケーションを図ろうとして声かけを行ったときに、前記視聴者が視聴中の前記映像の内容を把握可能な情報および再生時刻を示す情報を視聴情報として取得する取得部とを備え、前記現状情報通信部は、前記取得部が取得した前記視聴情報を前記人物側の情報処理装置に送信する。
本開示の第1の側面の情報処理方法またはプログラムは、視聴者が映像を視聴しているときに、その映像に映されていると認識された人物の現在の状況を示す情報として、前記人物を監視することにより決定され、前記人物がコミュニケーションに応答できるか否かを示す情報を少なくとも含む現状情報を通信により取得し、取得した前記現状情報を、前記映像を視聴している視聴者に提示し、前記視聴者が前記人物に対するコミュニケーションを図ろうとして声かけを行ったときに、前記視聴者が視聴中の前記映像の内容を把握可能な情報および再生時刻を示す情報を視聴情報として取得し、前記視聴情報を前記人物側の情報処理装置に送信するステップを含む。
本開示の第1の側面においては、聴者が映像を視聴しているときに、その映像に映されていると認識された人物の現在の状況を示す情報として、人物を監視することにより決定され、人物がコミュニケーションに応答できるか否かを示す情報を少なくとも含む現状情報が通信により取得され、その現状情報が、映像を視聴している視聴者に提示され、視聴者が人物に対するコミュニケーションを図ろうとして声かけを行ったときに、視聴者が視聴中の映像の内容を把握可能な情報および再生時刻を示す情報が視聴情報として取得され、視聴情報人物側の情報処理装置に送信される。
本開示の第2の側面の情報処理装置は、ユーザが映されている映像を視聴している視聴者が、前記ユーザコミュニケーションを図ろうとして声かけを行ったことに応じて送信されてくる前記視聴者の視聴情報として、前記映像の内容を把握可能な情報および再生時刻を示す情報を取得する現状情報通信部と、前記現状情報通信部が取得した前記視聴情報を前記ユーザに提示する現状情報提示部とを備える。
本開示の第2の側面の情報処理方法またはプログラムは、ユーザが映されている映像を視聴している視聴者が、前記ユーザコミュニケーションを図ろうとして声かけを行ったことに応じて送信されてくる前記視聴者の視聴情報として、前記映像の内容を把握可能な情報および再生時刻を示す情報を取得し、取得した前記視聴情報を前記ユーザに提示するステップを含む。
本開示の第2の側面においては、ユーザが映されている映像を視聴している視聴者が、ユーザコミュニケーションを図ろうとして声かけを行ったことに応じて送信されてくる視聴者の視聴情報として、映像の内容を把握可能な情報および再生時刻を示す情報が取得され、その視聴情報がユーザに提示される。
本開示の第3の側面のコミュニケーションシステムは、視聴者が映像を視聴しているときに、その映像に映されていると認識された人物の現在の状況を示す情報として、前記人物を監視することにより決定され、前記人物がコミュニケーションに応答できるか否かを示す情報を少なくとも含む現状情報を通信により取得する現状情報通信部と、前記現状情報通信部が取得した前記現状情報を、前記映像を視聴している視聴者に提示する現状情報提示部と、前記視聴者が前記人物に対するコミュニケーションを図ろうとして声かけを行ったときに、前記視聴者が視聴中の前記映像の内容を把握可能な情報および再生時刻を示す情報を視聴情報として取得する取得部とを有し、前記現状情報通信部は、前記取得部が取得した前記視聴情報を前記人物側の情報処理装置に送信する前記視聴者側の情報処理装置と、ユーザが映されている映像を視聴している視聴者が、前記ユーザコミュニケーションを図ろうとして声かけを行ったことに応じて送信されてくる前記視聴者の視聴情報として、前記映像の内容を把握可能な情報および再生時刻を示す情報を取得する現状情報通信部と、前記現状情報通信部が取得した前記視聴情報を前記ユーザに提示する現状情報提示部とを有する前記人物側の情報処理装置とを備える。
本開示の第3の側面においては、聴者が映像を視聴しているときに、その映像に映されていると認識された人物の現在の状況を示す情報として、人物を監視することにより決定され、人物がコミュニケーションに応答できるか否かを示す情報を少なくとも含む現状情報が通信により取得され、その現状情報が、映像を視聴している視聴者に提示され、視聴者が人物に対するコミュニケーションを図ろうとして声かけを行ったときに、視聴者が視聴中の映像の内容を把握可能な情報および再生時刻を示す情報が視聴情報として取得され、視聴情報人物側の情報処理装置に送信される。一方、ユーザが映されている映像を視聴している視聴者が、ユーザコミュニケーションを図ろうとして声かけを行ったことに応じて送信されてくる視聴者の視聴情報として、映像の内容を把握可能な情報および再生時刻を示す情報が取得され、その視聴情報がユーザに提示される。
本開示の第1乃至第3の側面によれば、より円滑なコミュニケーションを行うことができる。
本技術を適用したコミュニケーションシステムの一実施の形態の構成例を示すブロック図である。 通信相手の現状情報に基づく処理の一例を説明する図である。 通信相手の現状情報に基づく処理の他の例を説明する図である。 視聴者側のコミュニケーション処理を説明するフローチャートである。 通信相手側のコミュニケーション処理を説明するフローチャートである。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
<コミュニケーションシステムの構成例>
図1は、本技術を適用したコミュニケーションシステムの一実施の形態の構成例を示すブロック図である。
図1に示されているコミュニケーションシステム11は、2台の情報処理装置12Aおよび情報処理装置12Bが通信を行うように構成されており、情報処理装置12AのユーザAと情報処理装置12BのユーザBとの間でコミュニケーションが行われる。なお、コミュニケーションシステム11は、2台以上の情報処理装置12が通信を行うような構成としてもよい。
また、コミュニケーションシステム11では、後述するように、情報処理装置12Aにおいて映像が再生され、その映像を視聴する情報処理装置12AのユーザAを視聴者とも称する。また、情報処理装置12Aにおいて再生される映像に映されている人物であって、情報処理装置12AのユーザAから通信を求められる相手となる情報処理装置12BのユーザBを通信相手とも称する。
情報処理装置12Aには、音声入力部13A、撮影部14A、出力部15A、操作部16A、および通信部17Aが接続されており、情報処理装置12Aは、コミュニケーション処理部21Aおよび再生処理部22を備えて構成される。
音声入力部13Aは、例えば、音声を入力するマイクロホンにより構成され、情報処理装置12AのユーザAが発話する音声を、情報処理装置12Aに入力する。
撮影部14Aは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどを用いた撮影装置により構成され、情報処理装置12AのユーザAを撮影して得られる映像を、情報処理装置12Aに入力する。
出力部15Aは、例えば、映像を表示するディスプレイや、音声を出力するスピーカなどにより構成され、情報処理装置12Aにおいて再生される映像および音声を出力して、情報処理装置12AのユーザAに視聴させる。また、出力部15Aは、情報処理装置12Aおよび情報処理装置12Bが通信を行うことにより、情報処理装置12Bから送信されるユーザBの映像および音声を出力する。
操作部16Aは、例えば、各種のボタンやタッチパネルなどにより構成され、情報処理装置12AのユーザAによる操作に応じた操作信号を、情報処理装置12Aに入力する。
通信部17Aは、例えば、インターネットなどのネットワークを介して、データ通信や、音声および映像による通信(いわゆるビデオ通話)などを行うための通信モジュールにより構成され、情報処理装置12Aと情報処理装置12Bとの間の通信を行う。
コミュニケーション処理部21Aは、現状情報取得部31A、現状情報通信部32A、現状情報処理部33A、現状情報提示部34A、映像音声通信制御部35A、映像音声取得部36A、および映像音声通信部37Aを備えて構成される。例えば、コミュニケーション処理部21Aは、情報処理装置12Bと通信を行ってユーザAがユーザBとコミュニケーションを図ろうとする際に、そのコミュニケーションがスムーズに行われるように支援するアシスタントシステムとして機能する。
現状情報取得部31Aは、再生処理部22により再生される映像を情報処理装置12AのユーザAが視聴しているときに、ユーザAの現状情報を取得して、現状情報通信部32Aに供給する。例えば、現状情報取得部31Aは、ユーザAが視聴している映像の内容を示す情報や、映像の再生時刻を示す情報などを、ユーザAの現状情報として取得する。さらに、現状情報取得部31Aは、例えば、ユーザAが、自由視点タイムシフト映像により再現されるVR空間の中にいるとき、映像の再生時刻や、ユーザAの視点位置および視線方向などの視聴状況を示す情報を、ユーザAの現状情報として取得する。
現状情報通信部32Aは、ユーザAが視聴している映像に映されていると認識された人物を通信相手として、その人物の現在の状況を表す現状情報を取得する。例えば、情報処理装置12BのユーザBが映像に映されている場合、現状情報通信部32Aは、情報処理装置12Bの現状情報通信部32Bと通信することにより通信相手となるユーザBの現状情報を取得し、現状情報処理部33Aに供給する。また、現状情報通信部32Aは、ユーザAがユーザBとコミュニケーションを図ろうとしたとき、現状情報取得部31Aから供給されるユーザAの現状情報を、情報処理装置12Bの現状情報通信部32Bに送信する。
現状情報処理部33Aは、現状情報通信部32Aから供給されるユーザBの現状情報に基づいて、例えば、ユーザBがユーザAとのコミュニケーションに応答できるか否かを判定する処理を行い、その判定結果を現状情報提示部34Aに供給する。また、現状情報処理部33Aは、ユーザBがユーザAとのコミュニケーションに応答できると判定した場合には、その判定結果を映像音声通信制御部35Aに通知する。
現状情報提示部34Aは、現状情報処理部33Aから供給される判定結果を、即ち、ユーザBがユーザAとのコミュニケーションに応答できるか否かを、ユーザAに提示する。例えば、現状情報提示部34Aは、ユーザBの現状情報に基づく判定結果について、出力部15Aのディスプレイにメッセージを表示したり、出力部15Aのスピーカから音声を出力したりすることで、ユーザAに提示することができる。なお、現状情報提示部34Aは、現状情報通信部32Aが取得したユーザBの現状情報そのものを、ユーザAに提示してもよい。
映像音声通信制御部35Aは、ユーザBがユーザAとのコミュニケーションに応答できるという判定結果が現状情報処理部33Aから供給されると、映像音声通信部37Aに対して情報処理装置12Bと通信を行うように制御する。
映像音声取得部36Aは、音声入力部13Aから入力されるユーザAの音声、および、撮影部14Aから入力されるユーザAの映像を取得して、映像音声通信部37Aに供給する。
映像音声通信部37Aは、通信部17Aを介して、情報処理装置12Bの映像音声通信部37Bとの間で、映像および音声による通信を行うことができる。例えば、映像音声通信部37Aは、映像音声通信制御部35Aによる制御に従って、映像音声取得部36Aから供給されるユーザAの音声および映像を映像音声通信部37Bに送信する。そして、映像音声通信部37Aは、映像音声通信部37Bから送信されてくるユーザBの音声および映像を受信して、出力部15Aから出力させる。
再生処理部22は、映像記録部41、映像再生制御入力部42、および映像再生制御部43を備えて構成される。例えば、再生処理部22は、360°の無指向性を有し、視点位置および視線方向を自由に変更することができるとともに、再生時刻を自由に移動させることができる映像である自由視点タイムシフト映像を再生する処理を行って、ユーザAに視聴させる。即ち、自由視点タイムシフト映像は、全天球を撮影可能な撮影装置により撮影された動画像からなる全天球動画像コンテンツであり、全天球の動画像に対して視点を自由に変更させることが可能な映像である。なお、視線方向だけが変更可能な映像であってもよい。
映像記録部41は、ハードディスク装置や光学ディスクに対して、自由視点タイムシフト映像を記録することができる。また、映像記録部41は、再生中の自由視点タイムシフト映像について、映像の再生時刻や、視点位置および視線方向などの視聴状況を記録することができる。
映像再生制御入力部42は、ユーザAが操作部16Aに対する操作を行って、所望の自由視点タイムシフト映像を選択して再生を指示すると、ユーザAにより選択された自由視点タイムシフト映像の再生を行うように映像再生制御部43に対する制御を行う。また、出力部15Aとして、ユーザAの頭部に装着可能なヘッドマウントディスプレイを用いる場合、映像再生制御入力部42は、ユーザAの視線方向と相関性を有する頭部の位置や向きなどの姿勢を追跡して取得する。そして、映像再生制御入力部42は、ユーザAの頭部の姿勢を示す情報を映像再生制御部43に供給して、ユーザAの視線に合わせて、自由視点タイムシフト映像の視線方向を変更させる。
例えば、情報処理装置12Aでは、慣性を計測するIMU(Inertial Measurement Unit)を、出力部15Aとして用いられるヘッドマウントディスプレイに組み込むことにより、ユーザAの頭部の姿勢を把握することができる。または、情報処理装置12Aでは、ユーザAを撮影する撮影部14Aから入力される映像を画像解析することにより、ユーザAの頭部の姿勢を把握することができる。さらに、情報処理装置12Aでは、ヘッドマウントディスプレイやユーザAの頭部などにマーカまたは特徴点を付けて、それらの位置を追跡することにより、ユーザAの頭部の姿勢を把握することができる。また、IMUと撮影部14Aとを組み合わせて使用してもよい。
映像再生制御部43は、ユーザAによる選択に従った自由視点タイムシフト映像を映像記録部41から読み出して再生する制御を行い、再生した映像を出力部15Aのディスプレイに表示させる。さらに、映像再生制御部43は、映像再生制御入力部42から供給されるユーザAの頭部の姿勢を示す情報に従って、映像の一部をトリミングして出力部15Aに供給することで、ユーザAの視線に合わせた視線方向の映像を表示させることができる。
なお、情報処理装置12Bには、情報処理装置12Aと同様に、音声入力部13B、撮影部14B、出力部15B、操作部16B、および通信部17Bが接続されている。また、情報処理装置12Bは、コミュニケーション処理部21Aと同じ構成のコミュニケーション処理部21Bを備えて構成されており、コミュニケーション処理部21Bにおいて行われる処理については、後述する。
以上のようにコミュニケーションシステム11は構成されており、映像に映されているユーザBの現状情報を取得してユーザAに提示することで、ユーザAは、実際のユーザBの状態を把握した上で、ユーザBに対するコミュニケーションを図ることができる。また、コミュニケーションシステム11では、ユーザAの現状情報を取得してユーザBに提示して、ユーザBがユーザAの視聴状況を把握した後に、ユーザAからユーザBへのコミュニケーションを開始することができる。従って、コミュニケーションシステム11を利用することで、ユーザAおよびユーザBは、より円滑なコミュニケーションを行うことができる。
ここで、コミュニケーション処理部21Aにおいて行われる処理について、さらに説明する。
上述したように、現状情報取得部31A、現状情報通信部32A、現状情報処理部33A、および、現状情報提示部34Aは、再生処理部22により再生される映像に映されているユーザBの現状情報を、ユーザAに提示するための処理を実行する。また、映像音声通信制御部35A、映像音声取得部36A、および映像音声通信部37Aは、ユーザAおよびユーザBを映像および音声により接続してコミュニケーションを行わせる処理を実行する。
例えば、現状情報処理部33Aは、ユーザAが話しかける準備ができているか否か、および、ユーザBが通話可能であるか否かに基づいて、ユーザAに対する提示を現状情報提示部34Aに行わせるように制御する処理を行う。
即ち、現状情報処理部33Aは、ユーザAが話しかける準備ができており、かつ、ユーザBが通話可能である場合には、ユーザBが通信可能であることをユーザAに提示するように現状情報提示部34Aに対する制御を行う。また、現状情報処理部33Aは、ユーザAが話しかける準備ができており、かつ、ユーザBが通話可能でない場合には、ユーザBが通信可能でないことをユーザAに提示するように現状情報提示部34Aに対する制御を行う。一方、現状情報処理部33Aは、ユーザAが話しかける準備ができていない場合には、ユーザBが通話可能であるか否かに関わらず、ユーザAが不必要な情報によって煩わされることを回避するために、ユーザAに対する提示を行わないように現状情報提示部34Aに対する制御を行う。
このように、現状情報処理部33Aは、現状情報通信部32Aから供給されるユーザAおよびユーザBの現状情報に基づいて、様々な判断を行うことができる。さらに、現状情報処理部33Aは、ユーザAが話しかける準備ができているか否か、および、ユーザBが通話可能であるか否かだけでなく、ユーザBの現状情報をユーザAに提示する仕方について容易に拡張することができる。また、ユーザAの現状情報をユーザBに提示する仕方についても同様である。
その他、例えば、情報処理装置12Bの現状情報取得部31Bとしてモーションセンサを利用して、ユーザBの動きを監視してもよい。この場合、しばらくの間、ユーザBの動きを検出することができなければ、ユーザBは寝ていると推測される。その結果、現状情報処理部33Aは、例えば、映像に映されているユーザBの頭の周りに、寝ていることを示すマーク「Zzz・・・」を表示させることで、ユーザBが寝ていることをユーザAに提示するように現状情報提示部34Aに対する制御を行う。
このように、現状情報処理部33Aは、ユーザBが通話可能であるか否かを、ユーザBが映されている映像に重畳して表示させることで、ユーザAに認識させることができる。その一例として、上述したように、寝ていることを示すマーク「Zzz・・・」を表示することが説明されている。同様に、その他の多くの表示方法により、映像に映されているVR空間内の様々な人々の現状情報を、視聴者であるユーザAに提示することができる。
また、映像音声通信制御部35Aは、現状情報通信部32Aから供給されるユーザAまたはユーザBの現状情報を、ユーザAおよびユーザBを接続するのに適切であるかどうかを決定するのに使用することができる。例えば、映像音声通信制御部35Aは、現状情報通信部32Aから取得した現状情報に従ってユーザBが通話可能である場合、ユーザAの音声情報または映像情報の情報処理装置12Bへの送信を開始するように映像音声通信部37Aに対する制御を行う。そして、この場合、映像音声通信部37Aは、情報処理装置12Bの映像音声通信部37Bから送信されてくるユーザBの音声情報または映像情報の受信を開始する。
なお、映像音声通信部37Aが情報処理装置12Bに送信するユーザAの音声情報または映像情報は、映像音声取得部36Aにより取得される。例えば、映像音声取得部36Aは、いわゆるウェブカメラとして構成される音声入力部13Aおよび撮影部14Aにより、ユーザAの音声および映像を同時に取得することができる。また、映像音声通信部37Aにより受信されたユーザBの音声情報または映像情報は、例えば、いわゆるテレビセットとして構成される出力部15Aに供給される。これにより、ユーザAは、ユーザBの映像および音声を視聴することができ、ユーザAおよびユーザBは、互いにコミュニケーションを図ることができる。
このような処理が、コミュニケーション処理部21Aを構成する各ブロックにより行われる。
同様に、コミュニケーション処理部21Bにおいて行われる処理について説明する。
現状情報取得部31B、現状情報通信部32B、現状情報処理部33B、および、現状情報提示部34Bは、ユーザAの現状情報を、ユーザBに提示するための処理を実行する。また、映像音声通信制御部35B、映像音声取得部36B、および映像音声通信部37Bは、映像音声通信制御部35A、映像音声取得部36A、および映像音声通信部37Aと同様に、ユーザAおよびユーザBを映像および音声により接続してコミュニケーションを行わせる処理を実行する。
現状情報取得部31Bは、例えば、ユーザBに対して通信可能であるかどうかを確認することで、ユーザBの現状情報を取得することができる。または、現状情報取得部31Bは、例えば、ユーザBを監視することにより、ユーザBが通信可能であるかどうかを決定し、ユーザBの現状情報を取得することができる。
現状情報通信部32Bは、コミュニケーション処理部21Aの現状情報通信部32Aと通信を行って、視聴者であるユーザAの現状情報を受信するとともに、現状情報取得部31Bから供給されるユーザBの現状情報を送信する。例えば、現状情報通信部32Bが受信するユーザAの現状情報としては、ユーザAが視聴している自由視点タイムシフト映像の再生時刻、並びに、自由視点タイムシフト映像により再現されるVR空間内におけるユーザAの視点位置および視線方向を使用することができる。
また、本実施の形態では、VR空間内にいるユーザAの現状情報(映像の再生時刻、ユーザAの視点位置および視線方向)に基づいて、現状情報処理部33Bは、ユーザAのVR空間の視聴状況をユーザBが理解するのに有用な提示を行うように現状情報提示部34Bに対する制御を行う。例えば、現状情報提示部34Bが、ユーザBに提示するユーザAの現状情報としては、ユーザAがユーザBに対する声かけを行う前に視聴していた30秒の映像を使用することができる。
なお、ユーザAの現状情報としては多数の様々な種類があり、ユーザAに何が起こっているのかをユーザBが理解するのに役立つものをユーザAの現状情報として使用することで、ユーザBが、ユーザAの状況を早急に把握するのに有益であると考えられる。例えば、ユーザAの現状情報として、ユーザAが映像を見ているときに発話した発話内容や、映像を見ているユーザAの顔の表情から推測される感情などを使用することができる。
現状情報通信部32Bにより受信されたユーザAの現状情報、および、現状情報処理部33Bにより行われる処理について、以下の具体例を参照して説明する。
例えば、ユーザAの現状情報が、ユーザAの感情が「怒り」であり、ユーザAの発話内容が「これはひどい」であり、ユーザAが視聴している映像が「先週のユーザBによるピアノの練習」である場合について説明する。この場合、現状情報処理部33Bは、第1の例として、「ユーザAは、あなたの先週のピアノの練習を見て怒りながら「これはひどい」と言いました」というメッセージを生成する処理を行うことができる。または、現状情報処理部33Bは、第2の例として、ユーザAが声かけを行う前に見た30秒の映像を表示させるとともに、ユーザAの発話を録音した音声「これはひどい」を出力させる処理を行うことができる。
従って、ユーザBは、例えば、現状情報処理部33Bが生成したメッセージを見ることにより、ユーザAの状況を容易に理解することができる。また、このメッセージは、ユーザBが、ユーザAの声かけに応じて会話を行うための準備をするのに役立つものとなる。
ところで、現状情報提示部34Bの構成は、現状情報処理部33Bが行う処理によって異なるものとなる。例えば、現状情報処理部33Bが映像を表示するように処理を行う場合には、現状情報提示部34Bは、出力部15Bのディスプレイに映像を表示することができるように構成される。また、現状情報処理部33Bが音声を出力するように処理を行う場合には、現状情報提示部34Bは、出力部15Bのスピーカから音声を出力することができるように構成される。
また、映像音声通信制御部35Bは、現状情報通信部32Bから供給されるユーザAまたはユーザBの現状情報を、ユーザAおよびユーザBを接続するのに適切であるかどうかを決定するのに使用することができる。例えば、映像音声通信制御部35Bは、ユーザAとの通話が可能であるかをユーザBに質問するという簡易的な方法によって、ユーザAおよびユーザBを接続するか否かを決定することができる。
そして、映像音声通信制御部35Bは、ユーザBがユーザAと通話可能である場合、ユーザBの音声情報または映像情報の情報処理装置12Aへの送信を開始するように映像音声通信部37Bに対する制御を行う。そして、この場合、映像音声通信部37Bは、情報処理装置12Aの映像音声通信部37Aから送信されてくるユーザAの音声情報または映像情報の受信を開始する。
なお、映像音声通信部37Bが情報処理装置12Aに送信するユーザBの音声情報または映像情報は、映像音声取得部36Bにより取得される。例えば、映像音声取得部36Bは、いわゆるウェブカメラとして構成される音声入力部13Bおよび撮影部14Bにより、ユーザBの音声および映像を同時に取得することができる。また、映像音声通信部37Bにより受信されたユーザAの音声情報または映像情報は、例えば、いわゆるテレビセットとして構成される出力部15Bに供給される。これにより、ユーザBは、ユーザAの映像および音声を視聴することができ、ユーザAおよびユーザBは、互いにコミュニケーションを図ることができる。
<現状情報に基づく処理>
図2および図3を参照して、コミュニケーションシステム11において、通信相手および視聴者それぞれの現状情報に基づいて行われる処理の例について説明する。
例えば、図2には、情報処理装置12AのユーザAが、情報処理装置12BのユーザBが映されている映像を視聴し、その映像中のユーザBに対して「今、ちょっといいかな」という声かけを行う状況が示されている。このとき、ユーザAが視聴している映像のユーザBは、過去に撮影されたものであり、現状のユーザBは寝ている状況であって応答できないことがあると想定される。
そこで、コミュニケーション処理部21Aにより機能が提供されるアシスタントシステムSは、ユーザAの声かけに対して、ユーザBの現状情報に基づいて「寝ているからダメ」というメッセージを提示することができる。
このように、コミュニケーションシステム11を利用することで、映像に映っているユーザBの現状がユーザAとのコミュニケーションを図ることができるか否かを判定して、その判定結果をユーザAに提示することができる。これにより、コミュニケーションシステム11は、寝ているユーザBを呼び起こして機嫌を損ねるような状況を回避することができる。また、ユーザAも、ユーザBが応答できない理由を認識することができるので、後日、ユーザBと円滑なコミュニケーションを行うことができる。
また、図3には、図2と同様に、情報処理装置12AのユーザAが、情報処理装置12BのユーザBが映されている映像を視聴し、その映像中のユーザBに対して「このアイデアいいですね」という声かけを行う状況が示されている。このとき、ユーザBは、ユーザAが視聴している映像について何も把握してないと、「いきなり何の話なの!」と応答することが想定される。
そこで、コミュニケーション処理部21Aにより機能が提供されるアシスタントシステムSは、ユーザAの声かけに対して、ユーザAの現状情報として「昨日の特許ブレストの録画を見ているよ。アイデアがいいって」というメッセージを予めユーザBに提示させる。これにより、ユーザBは、ユーザAが視聴している映像の内容を事前に把握することができ、ユーザAの声かけに対してスムーズに返答することができる。
このように、コミュニケーションシステム11を利用することで、映像に映っているユーザBに対して、ユーザAが、どのような内容のコミュニケーションを取ろうとしているかを予め提示することができる。これにより、コミュニケーションシステム11は、ユーザBが突然のコミュニケーションに驚くような状況を回避することができるので、ユーザAおよびユーザBは、より円滑なコミュニケーションを行うことができる。
<コミュニケーション処理>
図4は、情報処理装置12Aにおいて実行されるコミュニケーション処理を説明するフローチャートである。
例えば、ユーザAが操作部16Aに対する操作を行って、所望の自由視点タイムシフト映像を選択して、その再生を指示すると処理が開始される。
ステップS11において、映像再生制御入力部42は、ユーザAにより選択された自由視点タイムシフト映像の再生を行うように映像再生制御部43に対する制御を行う。これに従って、映像再生制御部43は、映像記録部41に記録されている自由視点タイムシフト映像を読み出し、自由視点タイムシフト映像を再生して出力部15Aから出力する。これにより、ユーザAは、自由視点タイムシフト映像により再現されるVR空間内で、仮想的に、その映像が記録された時点におけるユーザBと一緒にいる状態となる。
ステップS12において、現状情報通信部32Aは、ユーザAが視聴している映像に映されているユーザBを通信相手とし、情報処理装置12Bの現状情報通信部32Bと通信を行って、現時点における実際のユーザBの現状情報を取得する。そして、現状情報提示部34Aは、現状情報通信部32Aが取得したユーザBの現状情報を、ユーザAに提示する。
ステップS13において、現状情報処理部33Aは、音声入力部13Bから入力される音声に基づいて、ユーザAにより、再生中の自由視点タイムシフト映像に映されている通信相手であるユーザBに対する声かけが行われたか否かを判定する。
ステップS13において、現状情報処理部33Aが、ユーザAによりユーザBに対する声かけが行われていないと判定した場合、処理はステップS11に戻り、以下、同様の処理が繰り返して行われる。
一方、ステップS13において、現状情報処理部33Aが、ユーザAによりユーザBに対する声かけが行われたと判定した場合、処理はステップS14に進む。このとき、ユーザAは、ステップS12で提示されたユーザBの現状情報を把握したうえで、ユーザBに対する声かけを行っている。
ステップS14において、映像音声通信部37Aは、ユーザAおよびユーザBのコミュニケーションを図るため、情報処理装置12Bの映像音声通信部37Bに対する映像および音声による通信を接続するための接続処理を行う。
ステップS15において、現状情報取得部31Aは、視聴者であるユーザAの現状情報を取得して、現状情報通信部32Aに供給する。そして、現状情報通信部32Aは、現状情報取得部31Aから供給されたユーザAの現状情報を、情報処理装置12Bの現状情報通信部32Bに送信する。
ステップS16において、現状情報処理部33Aは、通信相手である情報処理装置12BのユーザBからの通信許可が得られたか否かを判定する。例えば、後述する図5のS23において、ユーザAとの通信を行うと判定されるのに伴って、通信を許可することを示す情報が情報処理装置12Bから送信されてくると、現状情報処理部33Aは、通信許可が得られたと判定する。
ステップS16において、現状情報処理部33Aが、通信相手である情報処理装置12BのユーザBからの通信許可が得られたと判定した場合、処理はステップS17に進む。
ステップS17において、現状情報処理部33Aは通信許可が得られたことを映像音声通信制御部35Aに通知し、映像音声通信制御部35Aは、映像音声通信部37Aに対して情報処理装置12Bと通信を行うように制御する。これに従い、映像音声通信部37Aは、映像音声通信部37Bとの間で映像および音声による通信を行い、視聴者であるユーザAは、視聴中の映像に映されているユーザBを通信相手として、コミュニケーションを行うことができる。
ステップS17の処理後、または、ステップS16で通信相手である情報処理装置12BのユーザBからの通信許可が得られなかったと判定された場合、処理はステップS11に戻り、以下、同様の処理が繰り返して行われる。
図5は、情報処理装置12Bにおいて実行されるコミュニケーション処理を説明するフローチャートである。
ステップS21において、映像音声通信部37Bは、視聴者であるユーザAから通信の接続処理が行われたか否かを判定し、通信の接続処理が行われたと判定されるまで処理を待機する。例えば、視聴者であるユーザAによる声かけに従って、上述の図4のステップS14において、映像音声通信部37Aが、映像および音声による通信を接続するための接続処理を行うと、映像音声通信部37Bは、通信の接続処理が行われたと判定し、処理はステップS22に進む。
ステップS22において、現状情報通信部32Aは、上述の図4のステップS15において現状情報通信部32Aから送信されてくるユーザAの現状情報を取得する。そして、現状情報提示部34Bは、現状情報通信部32Bが取得したユーザAの現状情報を、ユーザBに提示する。
ステップS23において、現状情報処理部33Bは、視聴者であるユーザAとの通信を行うか否かを判定する。例えば、ユーザBが、操作部16Bに対して通信を許可する操作を行ったときには、現状情報処理部33Bは、視聴者との通信を行うと判定する。一方、例えば、ユーザBが寝ている場合など、ユーザBによる操作が行われないときには、現状情報処理部33Bは、視聴者との通信を行わない判定する。
ステップS23において、現状情報処理部33Bが、視聴者であるユーザAとの通信を行うと判定した場合、通信を許可することを示す情報が情報処理装置12Aに送信され、処理はステップS24に進む。
ステップS24において、映像音声通信制御部35Bは、映像音声通信部37Bに対して情報処理装置12Aと通信を行うように制御する。これに従い、映像音声通信部37Bは、映像音声通信部37Aとの間で映像および音声による通信を行い、映像に映されているユーザBは、その映像の視聴者であるユーザAとコミュニケーションを行うことができる。
ステップS24の処理後、または、ステップS23で視聴者であるユーザAとの通信を行わないと判定された場合、処理はステップS21に戻り、以下、同様の処理が繰り返して行われる。
以上のように、情報処理装置12Aおよび情報処理装置12Bがコミュニケーション処理を行うことにより、ユーザAおよびユーザBは、互いの現状情報を確認した後に、映像および音声による通信を行うことができる。これにより、ユーザAおよびユーザBは、より円滑なコミュニケーションを行うことができる。
なお、上述のフローチャートを参照して説明した各処理は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。また、プログラムは、1のCPUにより処理されるものであっても良いし、複数のCPUによって分散処理されるものであっても良い。
また、上述した一連の処理(情報処理方法)は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラムが記録されたプログラム記録媒体からインストールされる。
図6は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、キーボード、マウス、マイクロホンなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107、ハードディスクや不揮発性のメモリなどよりなる記憶部108、ネットワークインタフェースなどよりなる通信部109、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア111を駆動するドライブ110が接続されている。
以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU101)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア111に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア111をドライブ110に装着することにより、入出力インタフェース105を介して、記憶部108にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。その他、プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。
なお、本技術は以下のような構成も取ることができる。
(1)
再生中の映像に映されている人物を通信相手として、前記通信相手の現在の状況を示す現状情報を通信により取得する現状情報通信部と、
前記現状情報通信部が取得した前記通信相手の現状情報を、前記映像を視聴している視聴者に提示する現状情報提示部と
を備える情報処理装置。
(2)
前記映像は、自由視点タイムシフト映像である
上記(1)に記載の情報処理装置。
(3)
前記現状情報通信部が取得した前記通信相手の現状情報に基づいて、前記通信相手が前記視聴者とのコミュニケーションに応答できるか否かを判定する処理を行って、その判定結果を前記通信相手の現状情報として前記視聴者に提示させる現状情報処理部
をさらに備える上記(1)または(2)に記載の情報処理装置。
(4)
前記視聴者が前記通信相手に対するコミュニケーションを図ろうとしたときに、前記視聴者の現在の状況を示す現状情報を取得する現状情報取得部
をさらに備え、
前記現状情報通信部は、前記現状情報取得部が取得した前記視聴者の現状情報を前記通信相手側の情報処理装置に送信する
上記(1)から(3)までのいずれかに記載の情報処理装置。
(5)
前記映像は、前記視聴者により視点位置および視線方向を自由に変更することができるとともに、前記視聴者により再生時刻を自由に移動することができる自由視点タイムシフト映像であり、
前記視聴者の現状情報として、前記自由視点タイムシフト映像の視聴状況を示す情報が用いられる
上記(4)に記載の情報処理装置。
(6)
前記通信相手との間で、映像および音声による通信を行う映像音声通信部
をさらに備える
上記(1)から(5)までのいずれかに記載の情報処理装置。
(7)
再生中の映像に映されている人物を通信相手として、前記通信相手の現在の状況を示す現状情報を通信により取得し、
取得した前記通信相手の現状情報を、前記映像を視聴している視聴者に提示する
ステップを含む情報処理方法。
(8)
再生中の映像に映されている人物を通信相手として、前記通信相手の現在の状況を示す現状情報を通信により取得し、
取得した前記通信相手の現状情報を、前記映像を視聴している視聴者に提示する
ステップを含む情報処理をコンピュータに実行させるプログラム。
(9)
ユーザが映されている映像を視聴している視聴者が、前記ユーザを通信相手としてコミュニケーションを図ろうとしたことに応じて送信されてくる前記視聴者の現在の状況を示す現状情報を取得する現状情報通信部と、
前記現状情報通信部が取得した前記視聴者の現状情報を前記ユーザに提示する現状情報提示部と
を備える情報処理装置。
(10)
前記ユーザの現在の状況を示す現状情報を取得する現状情報取得部
をさらに備え、
前記現状情報通信部は、前記現状情報取得部が取得した前記ユーザの現状情報を前記視聴者側の情報処理装置に送信する
上記(9)に記載の情報処理装置。
(11)
前記ユーザが前記視聴者と通話可能であるか否かの判定結果に従って、前記視聴者との間で、映像および音声による通信を行う映像音声通信部
をさらに備える上記(9)または(10)に記載の情報処理装置。
(12)
ユーザが映されている映像を視聴している視聴者が、前記ユーザを通信相手としてコミュニケーションを図ろうとしたことに応じて送信されてくる前記視聴者の現在の状況を示す現状情報を取得し、
取得した前記視聴者の現状情報を前記ユーザに提示する
ステップを含む情報処理方法。
(13)
ユーザが映されている映像を視聴している視聴者が、前記ユーザを通信相手としてコミュニケーションを図ろうとしたことに応じて送信されてくる前記視聴者の現在の状況を示す現状情報を取得し、
取得した前記視聴者の現状情報を前記ユーザに提示する
ステップを含む情報処理をコンピュータに実行させるプログラム。
(14)
再生中の映像に映されている人物を通信相手として、前記通信相手の現在の状況を示す現状情報を通信により取得する現状情報通信部と、
前記現状情報通信部が取得した前記通信相手の現状情報を、前記映像を視聴している視聴者に提示する現状情報提示部と
を有する前記視聴者側の情報処理装置と、
ユーザが映されている映像を視聴している視聴者が、前記ユーザを通信相手としてコミュニケーションを図ろうとしたことに応じて送信されてくる前記視聴者の現在の状況を示す現状情報を取得する現状情報通信部と、
前記現状情報通信部が取得した前記視聴者の現状情報を前記ユーザに提示する現状情報提示部と
を有する前記通信相手側の情報処理装置と
を備えるコミュニケーションシステム。
なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
11 コミュニケーションシステム, 12 情報処理装置, 13 音声入力部, 14 撮影部, 15 出力部, 16 操作部, 17 通信部, 21 コミュニケーション処理部, 22 再生処理部, 31 現状情報取得部, 32 現状情報通信部, 33 現状情報処理部, 34 現状情報提示部, 35 映像音声通信制御部, 36 映像音声取得部, 37 映像音声通信部, 41 映像記録部, 42 映像再生制御入力部, 43 映像再生制御部

Claims (13)

  1. 視聴者が映像を視聴しているときに、その映像に映されていると認識された人物の現在の状況を示す情報として、前記人物を監視することにより決定され、前記人物がコミュニケーションに応答できるか否かを示す情報を少なくとも含む現状情報を通信により取得する現状情報通信部と、
    前記現状情報通信部が取得した前記現状情報を、前記映像を視聴している視聴者に提示する現状情報提示部と、
    前記視聴者が前記人物に対するコミュニケーションを図ろうとして声かけを行ったときに、前記視聴者が視聴中の前記映像の内容を把握可能な情報および再生時刻を示す情報を視聴情報として取得する取得部と
    を備え、
    前記現状情報通信部は、前記取得部が取得した前記視聴情報を前記人物側の情報処理装置に送信する
    情報処理装置。
  2. 前記映像は、自由視点タイムシフト映像である
    請求項1に記載の情報処理装置。
  3. 前記現状情報通信部が取得した前記現状情報に基づいて、前記人物が前記視聴者とのコミュニケーションに応答できるか否かを判定する処理を行って、その判定結果を前記視聴者に提示させる現状情報処理部
    をさらに備える請求項1に記載の情報処理装置。
  4. 前記映像は、前記視聴者により視点位置および視線方向を自由に変更することができるとともに、前記視聴者により再生時刻を自由に移動することができる自由視点タイムシフト映像であり、
    前記視聴情報として、前記自由視点タイムシフト映像における視点位置および視線方向を示す情報がさらに用いられる
    請求項1に記載の情報処理装置。
  5. 前記人物との間で、映像および音声による通信を行う映像音声通信部
    をさらに備える請求項1に記載の情報処理装置。
  6. 視聴者が映像を視聴しているときに、その映像に映されていると認識された人物の現在の状況を示す情報として、前記人物を監視することにより決定され、前記人物がコミュニケーションに応答できるか否かを示す情報を少なくとも含む現状情報を通信により取得し、
    取得した前記現状情報を、前記映像を視聴している視聴者に提示し、
    前記視聴者が前記人物に対するコミュニケーションを図ろうとして声かけを行ったときに、前記視聴者が視聴中の前記映像の内容を把握可能な情報および再生時刻を示す情報を視聴情報として取得し、
    前記視聴情報を前記人物側の情報処理装置に送信する
    ステップを含む情報処理方法。
  7. 視聴者が映像を視聴しているときに、その映像に映されていると認識された人物の現在の状況を示す情報として、前記人物を監視することにより決定され、前記人物がコミュニケーションに応答できるか否かを示す情報を少なくとも含む現状情報を通信により取得し、
    取得した前記現状情報を、前記映像を視聴している視聴者に提示し、
    前記視聴者が前記人物に対するコミュニケーションを図ろうとして声かけを行ったときに、前記視聴者が視聴中の前記映像の内容を把握可能な情報および再生時刻を示す情報を視聴情報として取得し、
    前記視聴情報を前記人物側の情報処理装置に送信する
    ステップを含む情報処理をコンピュータに実行させるプログラム。
  8. ユーザが映されている映像を視聴している視聴者が、前記ユーザコミュニケーションを図ろうとして声かけを行ったことに応じて送信されてくる前記視聴者の視聴情報として、前記映像の内容を把握可能な情報および再生時刻を示す情報を取得する現状情報通信部と、
    前記現状情報通信部が取得した前記視聴情報を前記ユーザに提示する現状情報提示部と
    を備える情報処理装置。
  9. 前記ユーザの現在の状況を示す情報として、前記ユーザを監視することにより決定され、前記ユーザがコミュニケーションに応答できるか否かを示す情報を少なくとも含む現状情報を取得する取得部
    をさらに備え、
    前記現状情報通信部は、前記取得部が取得した前記ユーザの現状情報を前記視聴者側の情報処理装置に送信する
    請求項8に記載の情報処理装置。
  10. 前記ユーザが前記視聴者と通話を許可する操作を行うのに従って、前記視聴者との間で、映像および音声による通信を行う映像音声通信部
    をさらに備える請求項8に記載の情報処理装置。
  11. ユーザが映されている映像を視聴している視聴者が、前記ユーザコミュニケーションを図ろうとして声かけを行ったことに応じて送信されてくる前記視聴者の視聴情報として、前記映像の内容を把握可能な情報および再生時刻を示す情報を取得し、
    取得した前記視聴情報を前記ユーザに提示する
    ステップを含む情報処理方法。
  12. ユーザが映されている映像を視聴している視聴者が、前記ユーザコミュニケーションを図ろうとして声かけを行ったことに応じて送信されてくる前記視聴者の視聴情報として、前記映像の内容を把握可能な情報および再生時刻を示す情報を取得し、
    取得した前記視聴情報を前記ユーザに提示する
    ステップを含む情報処理をコンピュータに実行させるプログラム。
  13. 視聴者が映像を視聴しているときに、その映像に映されていると認識された人物の現在の状況を示す情報として、前記人物を監視することにより決定され、前記人物がコミュニケーションに応答できるか否かを示す情報を少なくとも含む現状情報を通信により取得する現状情報通信部と、
    前記現状情報通信部が取得した前記現状情報を、前記映像を視聴している視聴者に提示する現状情報提示部と、
    前記視聴者が前記人物に対するコミュニケーションを図ろうとして声かけを行ったときに、前記視聴者が視聴中の前記映像の内容を把握可能な情報および再生時刻を示す情報を視聴情報として取得する取得部と
    を有し、
    前記現状情報通信部は、前記取得部が取得した前記視聴情報を前記人物側の情報処理装置に送信する
    前記視聴者側の情報処理装置と、
    ユーザが映されている映像を視聴している視聴者が、前記ユーザコミュニケーションを図ろうとして声かけを行ったことに応じて送信されてくる前記視聴者の視聴情報として、前記映像の内容を把握可能な情報および再生時刻を示す情報を取得する現状情報通信部と、
    前記現状情報通信部が取得した前記視聴情報を前記ユーザに提示する現状情報提示部と
    を有する前記人物側の情報処理装置と
    を備えるコミュニケーションシステム。
JP2018546254A 2016-10-20 2017-10-06 情報処理装置、情報処理方法、プログラム、およびコミュニケーションシステム Active JP7067481B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016205944 2016-10-20
JP2016205944 2016-10-20
PCT/JP2017/036454 WO2018074263A1 (ja) 2016-10-20 2017-10-06 情報処理装置、情報処理方法、プログラム、およびコミュニケーションシステム

Publications (2)

Publication Number Publication Date
JPWO2018074263A1 JPWO2018074263A1 (ja) 2019-08-08
JP7067481B2 true JP7067481B2 (ja) 2022-05-16

Family

ID=62018618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018546254A Active JP7067481B2 (ja) 2016-10-20 2017-10-06 情報処理装置、情報処理方法、プログラム、およびコミュニケーションシステム

Country Status (4)

Country Link
US (1) US10574939B2 (ja)
JP (1) JP7067481B2 (ja)
CN (1) CN109845246B (ja)
WO (1) WO2018074263A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003242095A (ja) 2002-02-15 2003-08-29 Nippon Telegr & Teleph Corp <Ntt> 仮想空間表示方法及びその装置と、仮想空間表示プログラム及びそのプログラムを記録した記録媒体
JP2007243605A (ja) 2006-03-08 2007-09-20 Sharp Corp 通信装置、通信方法及びプログラム
JP2008520011A (ja) 2004-11-09 2008-06-12 ソニー エリクソン モバイル コミュニケーションズ, エービー 提供された気分データに応じて、呼に関連して個人画像を提供する方法及び装置
WO2009136605A1 (ja) 2008-05-08 2009-11-12 株式会社エヌ・ティ・ティ・ドコモ 仮想空間提供装置、プログラム及び仮想空間提供システム
WO2012001919A1 (ja) 2010-06-28 2012-01-05 日本電気株式会社 通信装置、通信システム、通信方法および通信プログラム
WO2015079865A1 (ja) 2013-11-27 2015-06-04 シャープ株式会社 入力装置、コミュニケーション情報の特定方法、処理装置、表示装置、プログラム、および記録媒体

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002215942A (ja) 2001-01-23 2002-08-02 Nec Corp 抽象的フィルタがついたコミュニケーションシステム
US7768543B2 (en) * 2006-03-09 2010-08-03 Citrix Online, Llc System and method for dynamically altering videoconference bit rates and layout based on participant activity
US8392503B2 (en) * 2007-06-19 2013-03-05 Cisco Technology, Inc. Reporting participant attention level to presenter during a web-based rich-media conference
US20110063440A1 (en) * 2009-09-11 2011-03-17 Neustaedter Carman G Time shifted video communications
US8970663B2 (en) * 2009-12-07 2015-03-03 Hewlett-Packard Development Company, L.P. 3D video conference
US9313454B2 (en) * 2011-06-07 2016-04-12 Intel Corporation Automated privacy adjustments to video conferencing streams
US8964008B2 (en) * 2011-06-17 2015-02-24 Microsoft Technology Licensing, Llc Volumetric video presentation
CN102394924A (zh) * 2011-10-28 2012-03-28 上海汉翔信息技术有限公司 移动通信终端装置实现联系人列表状态管理的系统及方法
JP5483761B2 (ja) * 2012-06-29 2014-05-07 株式会社ソニー・コンピュータエンタテインメント 映像出力装置、立体映像観察デバイス、映像提示システム、および映像出力方法
US8913189B1 (en) * 2013-03-08 2014-12-16 Amazon Technologies, Inc. Audio and video processing associated with visual events
US9100540B1 (en) * 2013-03-14 2015-08-04 Ca, Inc. Multi-person video conference with focus detection
CN105376515B (zh) * 2014-09-02 2019-03-19 华为技术有限公司 用于视频通讯的通讯信息的呈现方法、装置及系统
EP3335418A1 (en) * 2015-08-14 2018-06-20 PCMS Holdings, Inc. System and method for augmented reality multi-view telepresence
CN105847778B (zh) * 2016-03-29 2018-06-19 朱光喜 360°多视点3d全息视频采集方法、设备及实现方法
CN106027598B (zh) * 2016-04-28 2019-05-31 北京奇虎科技有限公司 业务信息的显示处理方法和系统、服务器

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003242095A (ja) 2002-02-15 2003-08-29 Nippon Telegr & Teleph Corp <Ntt> 仮想空間表示方法及びその装置と、仮想空間表示プログラム及びそのプログラムを記録した記録媒体
JP2008520011A (ja) 2004-11-09 2008-06-12 ソニー エリクソン モバイル コミュニケーションズ, エービー 提供された気分データに応じて、呼に関連して個人画像を提供する方法及び装置
JP2007243605A (ja) 2006-03-08 2007-09-20 Sharp Corp 通信装置、通信方法及びプログラム
WO2009136605A1 (ja) 2008-05-08 2009-11-12 株式会社エヌ・ティ・ティ・ドコモ 仮想空間提供装置、プログラム及び仮想空間提供システム
WO2012001919A1 (ja) 2010-06-28 2012-01-05 日本電気株式会社 通信装置、通信システム、通信方法および通信プログラム
WO2015079865A1 (ja) 2013-11-27 2015-06-04 シャープ株式会社 入力装置、コミュニケーション情報の特定方法、処理装置、表示装置、プログラム、および記録媒体

Also Published As

Publication number Publication date
US20190253664A1 (en) 2019-08-15
CN109845246B (zh) 2021-12-14
WO2018074263A1 (ja) 2018-04-26
CN109845246A (zh) 2019-06-04
JPWO2018074263A1 (ja) 2019-08-08
US10574939B2 (en) 2020-02-25

Similar Documents

Publication Publication Date Title
AU2019216671B2 (en) Method and apparatus for playing video content from any location and any time
US20180324229A1 (en) Systems and methods for providing expert assistance from a remote expert to a user operating an augmented reality device
JP4380524B2 (ja) 情報処理装置及び情報処理方法
US11240567B2 (en) Video content switching and synchronization system and method for switching between multiple video formats
CN109416562B (zh) 用于虚拟现实的装置、方法和计算机可读介质
CN105983233B (zh) 游戏历程记录装置、游戏历程记录方法及游戏历程互动方法
US20090202223A1 (en) Information processing device and method, recording medium, and program
JP7283384B2 (ja) 情報処理端末、情報処理装置、および情報処理方法
US20120144312A1 (en) Information processing apparatus and information processing system
JP5764005B2 (ja) 再生装置および再生方法
US10225467B2 (en) 360° video multi-angle attention-focus recording
US11086587B2 (en) Sound outputting apparatus and method for head-mounted display to enhance realistic feeling of augmented or mixed reality space
JP7067481B2 (ja) 情報処理装置、情報処理方法、プログラム、およびコミュニケーションシステム
EP3486753B1 (en) Method for realtime 360 degree video perspective view path determination
US10645361B2 (en) System and method for realtime 360 degree video perspective view path determination
EP3633587A1 (en) An apparatus and associated methods for presentation of comments
JP5921245B2 (ja) 撮像装置及びその制御方法
CN112383827B (zh) 一种视频播放控制方法及装置
JP2004248125A (ja) 映像切り替え装置、映像切り替え方法、この方法のプログラムおよびこのプログラムを記録した記録媒体
JP7030233B1 (ja) 会議支援システム、会議支援方法、および会議支援プログラム
US20240129562A1 (en) Systems personalized spatial video/light field content delivery
WO2020170831A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2019044572A1 (ja) 情報処理装置および方法、並びにプログラム
JP2007123960A (ja) 記録再生装置及び記録再生方法
JP2012074813A (ja) 再生装置およびその制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220411

R151 Written notification of patent or utility model registration

Ref document number: 7067481

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151