JPWO2018230160A1 - 情報処理システム、情報処理方法、およびプログラム - Google Patents

情報処理システム、情報処理方法、およびプログラム Download PDF

Info

Publication number
JPWO2018230160A1
JPWO2018230160A1 JP2019525169A JP2019525169A JPWO2018230160A1 JP WO2018230160 A1 JPWO2018230160 A1 JP WO2018230160A1 JP 2019525169 A JP2019525169 A JP 2019525169A JP 2019525169 A JP2019525169 A JP 2019525169A JP WO2018230160 A1 JPWO2018230160 A1 JP WO2018230160A1
Authority
JP
Japan
Prior art keywords
user
information
hand
point
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019525169A
Other languages
English (en)
Other versions
JP7143847B2 (ja
Inventor
哲男 池田
哲男 池田
祐介 阪井
祐介 阪井
晴夫 大場
晴夫 大場
新島 誠
誠 新島
智裕 石井
智裕 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2018230160A1 publication Critical patent/JPWO2018230160A1/ja
Priority to JP2022147329A priority Critical patent/JP7468588B2/ja
Application granted granted Critical
Publication of JP7143847B2 publication Critical patent/JP7143847B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/567Multimedia conference systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ある場所における操作体の操作に適応的に生成される当該操作体に対応する画像を別の場所に表示させることが可能な、情報処理システム、情報処理方法、およびプログラムを提案する。【解決手段】第1の場所に位置する第1のユーザに関連する操作体の操作に応じた、第2の場所に位置する第2のユーザとのコミュニケーションのための第1の伝達情報を取得する情報取得部と、前記第1の伝達情報に基づいて特定される、前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる出力制御部と、を備える、情報処理システム。【選択図】図1

Description

本開示は、情報処理システム、情報処理方法、およびプログラムに関する。
従来、例えばテレビ会議システムなど、遠隔地間のコミュニケーションを実現するための技術が各種開発されている。
例えば、下記特許文献1には、複数の情報処理装置間において共通の表示画面を共有可能とするとともに、一方の作業空間に存在する実オブジェクトの情報を他方の作業空間に表示情報として提示する技術が記載されている。
国際公開第2017/033544号
しかしながら、特許文献1に記載の技術では、ある場所における操作体の操作に適応的に当該操作体に対応する画像を生成して別の場所に表示させることは考慮されていなかった。
そこで、本開示では、ある場所における操作体の操作に適応的に生成される当該操作体に対応する画像を別の場所に表示させることが可能な、新規かつ改良された情報処理システム、情報処理方法、およびプログラムを提案する。
本開示によれば、第1の場所に位置する第1のユーザに関連する操作体の操作に応じた、第2の場所に位置する第2のユーザとのコミュニケーションのための第1の伝達情報を取得する情報取得部と、前記第1の伝達情報に基づいて特定される、前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる出力制御部と、を備える、情報処理システムが提供される。
また、本開示によれば、第1の場所に位置する第1のユーザに関連する操作体の操作に応じた、第2の場所に位置する第2のユーザとのコミュニケーションのための第1の伝達情報を取得することと、前記第1の伝達情報に基づいて特定される、前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像をプロセッサが前記第2の場所内の表示面に表示させることと、を含む、情報処理方法が提供される。
また、本開示によれば、コンピュータを、第1の場所に位置する第1のユーザに関連する操作体の操作に応じた、第2の場所に位置する第2のユーザとのコミュニケーションのための第1の伝達情報を取得する情報取得部と、前記第1の伝達情報に基づいて特定される、前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる出力制御部、として機能させるためのプログラムが提供される。
以上説明したように本開示によれば、ある場所における操作体の操作に適応的に生成される当該操作体に対応する画像を別の場所に表示させることができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
複数の地点に設置されている情報処理システム10が通信網22を介して接続されている例を示した図である。 本開示の各実施形態に共通する情報処理システム10の構成例を示した図である。 各実施形態に共通する情報処理システム10の別の構成例を示した図である。 各実施形態に共通する情報処理システム10の別の構成例を示した図である。 各実施形態に共通する情報処理システム10の別の構成例を示した図である。 ユーザが部屋着を着ている様子を示した図である。 ユーザがスクリーン20上で手指のポインティング位置を移動させている様子を示した図である。 図7に示した状況において手のポインティング位置の情報のみを別の地点に伝達することにより、当該手の動きを再現した例を示した図である。 第1の実施形態に係る情報処理システム10の機能構成を示したブロック図である。 スクリーン20上のユーザの手の指位置、手位置、腕位置、および、手の形状の特定例を示した図である。 第1の実施形態に係る情報生成再現規則DB130の構成例を示した図である。 第1の実施形態に係るユーザの手に対応する画像の生成例を示した図である。 図7に示した状況における、第1の実施形態に係るユーザの手に対応する画像の表示例を示した図である。 第1の実施形態に係る「伝達情報生成時の処理の流れ」を示したフローチャートである。 第1の実施形態に係る「伝達情報の生成処理」の流れを示したフローチャートである。 第1の実施形態に係る「伝達情報再現時の処理の流れ」を示したフローチャートである。 第1の実施形態に係る「伝達情報のチェック処理」の流れを示したフローチャートである。 第1の実施形態に係る「伝達情報に基づいた出力処理」の流れを示したフローチャートである。 第2の実施形態に係る情報生成再現規則DB130の構成例の一部を示した図である。 第2の実施形態に係るドラッグ操作に基づく一枚の付箋の画像32の表示位置の変更例を示した図である。 第2の実施形態に係るドラッグ操作に基づく付箋のグループの画像34の表示位置の変更例を示した図である。 第2の実施形態に係るユーザの書き込み操作に基づく軌跡の画像の表示例を示した図である。 第2の実施形態に係るユーザの書き込み操作に基づく軌跡の画像の別の表示例を示した図である。 第3の実施形態に係る情報適合規則DB132の構成例を示した図である。 第1の実施形態に係る手の画像30の表示例を示した図である。 第1の実施形態に係る手の画像30の別の表示例を示した図である。 第3の実施形態に係る、図22Bに示した伝達情報に対応する手の画像30の表示例を示した図である。 第4の実施形態に係る情報生成再現規則DB130の構成例を示した図である。 「地点A」において二人のユーザがスクリーン20を囲んでいる例を示した図である。 「地点B」において二人のユーザがスクリーン20を囲んでいる例を示した図である。 第4の実施形態に係る、地点Aおよび地点Bに位置する各ユーザの手の画像の表示例を示した図である。 ユーザの胴体から近くの位置をユーザが手でポインティングした際の、第1の実施形態に係る手の画像30の表示例を示した図である。 ユーザの胴体から遠くの位置をユーザが手でポインティングした際の、第1の実施形態に係る手の画像30の表示例を示した図である。 第5の実施形態に係る情報適合規則DB132の構成例を示した図である。 図25Bに示した伝達情報の補正後の手の画像の表示例を示した図である。 付箋32に対して手を伸ばしている状況における、第1の実施形態に係る手の画像30の表示例を示した図である。 第6の実施形態に係る情報生成再現規則DB130の構成例の一部を示した図である。 第6の実施形態に係る、図28に示した状況における手の画像の表示例を示した図である。 地点A内のスクリーン20の近辺にユーザが位置している例を示した図である。 地点B内のスクリーン20の近辺にユーザが位置している例を示した図である。 地点C内のスクリーン20の近辺にユーザが位置している例を示した図である。 図31A〜図31Cに示した状況における、第1の実施形態に係る手の画像30の表示例を示した図である。 第7の実施形態に係る情報適合規則DB132の構成例の一部を示した図である。 図31A〜図31Cに示した状況における、第7の実施形態に係る手の画像30の表示例を示した図である。 地点Aのスクリーン20‐1上に教材が配置されており、かつ、地点Aのテーブルの撮影画像が地点Bのスクリーン20上に表示されている例を示した図である。 図34Aに示した状況における地点Aでの、第1の実施形態に係る手の画像30の表示例を示した図である。 第8の実施形態に係る情報適合規則DB132の構成例の一部を示した図である。 第8の実施形態に係る教師の腕位置の補正例を模式的に示した図である。 図34Aに示した状況における地点Aでの、第8の実施形態に係る手の画像30の表示例を示した図である。 第9の実施形態に係る情報生成再現規則DB130の構成例の一部を示した図である。 第9の実施形態に係るユーザの仮想的な腕位置の決定例を示した図である。 第9の実施形態に係る仮想的な腕位置と仮想的な手位置との決定例を示した図である。 ポインティング位置の移動時における仮想的な腕位置と仮想的な手位置との移動例を示した図である。 第10の実施形態に係る情報生成再現規則DB130の構成例を示した図である。 他地点のユーザと自地点のユーザとの親交度が低い場合における他地点のユーザの手の画像の表示例を示した図である。 他地点のユーザと自地点のユーザとの親交度が高い場合における他地点のユーザの手の画像の表示例を示した図である。 他地点のユーザの手の画像30と自地点のユーザの手2とが重なった領域に所定のエフェクトを重畳して表示させる例を示した図である。 第11の実施形態に係る情報生成再現規則DB130の構成例の一部を示した図である。 第11の実施形態に係る発話の収音結果に応じてユーザの手の画像の表示を変化させる例を示した図である。 第12の実施形態に係る情報生成再現規則DB130の構成例の一部を示した図である。 他地点においてセンシングされた音量の空間的分布の例を示した図である。 図44Aに示したタイミングにおける、当該他地点から取得される伝達情報に基づいて特定されたユーザの手の位置情報の例を示した図である。 第12の実施形態に係る、図44Aに示したタイミングにおける発話者の腕位置に対応する部分のみにエフェクトを重畳して表示させる例を示した図である。 第13の実施形態に係る情報生成再現規則DB130の構成例の一部を示した図である。 第13の実施形態に係る、他地点のユーザの発話の音声認識結果の表示例を示した図である。 第13の実施形態に係る、他地点のユーザの発話の音声認識結果の別の表示例を示した図である。 第14の実施形態に係る情報生成再現規則DB130の構成例の一部を示した図である。 第14の実施形態に係る、他地点のユーザの発話の音量強度が最も大きい方向に当該発話の音を定位させる例を示した図である。 第15の実施形態に係る情報生成再現規則DB130の構成例の一部を示した図である。 地点Aのスクリーン20上に付箋32が配置されている例を示した図である。 地点Bのスクリーン20上に付箋32が配置されている例を示した図である。 第15の実施形態に係る「地点A」において配置された付箋32の画像をフォーカスして表示させる例を示した図である。 第16の実施形態に係る、個々の付箋32に対するポインティングの累計回数に応じた当該付箋32に対応する画像の表示例を示した図である。 第16の実施形態に係る、個々の付箋32に対するポインティングの累計回数に応じた当該付箋32に対応する画像の別の表示例を示した図である。 第16の実施形態に係る、個々の付箋32に対するポインティングの累計回数に応じた当該付箋32に対応する画像の別の表示例を示した図である。 第17の実施形態に係る、他地点のスクリーン20上のオブジェクトに対応する画像の自地点のスクリーン20における表示例を示した図である。 第17の実施形態に係る、他地点のスクリーン20上のオブジェクトに対応する画像の自地点のスクリーン20における表示例を示した図である。 第17の実施形態に係る、他地点のスクリーン20上のオブジェクトに対応する画像の自地点のスクリーン20における表示例を示した図である。 第17の実施形態に係る、他地点のスクリーン20上のオブジェクトに対応する画像の自地点のスクリーン20における表示例を示した図である。 第18の実施形態に係る、異なる地点間の議論の記録データを時間方向に分割および結合する例を示した図である。 第18の実施形態に係る、異なる地点間の議論の記録データを時間方向に分割および結合する例を示した図である。 第18の実施形態に係る、異なる地点間の議論の記録データを時間方向に分割および結合する例を示した図である。 第18の実施形態に係る、異なる地点間の議論の記録データを時間方向に分割および結合する例を示した図である。 第18の実施形態に係る、異なる地点間の議論の記録データを空間方向に分割および結合する例を示した図である。 第18の実施形態に係る、異なる地点間の議論の記録データを空間方向に分割および結合する例を示した図である。 第18の実施形態に係る、異なる地点間の議論の記録データを空間方向に分割および結合する例を示した図である。 第18の実施形態に係る、異なる地点間の議論の記録データを空間方向に分割および結合する例を示した図である。 自地点のスクリーン20の外観の例を示した図である。他地点に共有されるオブジェクトの選択例を示した図である。 図55Aに示したタイミングにおける他地点のスクリーン20の外観の例を示した図である。 第19の実施形態に係る、自地点のスクリーン20の映像の共有を中断する操作例を示した図である。 図56Aに示した操作による、他地点における該当のスクリーン20の映像の表示例を示した図である。 第20の実施形態に係る、複数の地点に設置されているテレプレゼンスシステム80が通信網22を介して接続されている例を示した図である。 ある地点における情報処理システム10およびテレプレゼンスシステム80の利用例を示した図である。 第20の実施形態に係る、情報処理システム10およびテレプレゼンスシステム80の機能構成例を示したブロック図である。 各実施形態に共通する情報処理システム10のハードウェア構成の例を示した説明図である。
以下に添付図面を参照しながら、本開示の好適な実施形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の構成を、必要に応じてテーブル90aおよびテーブル90bのように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、テーブル90aおよびテーブル90bを特に区別する必要が無い場合には、単にテーブル90と称する。
また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
1.情報処理システムの構成
2.第1の実施形態
3.第2の実施形態
4.第3の実施形態
5.第4の実施形態
6.第5の実施形態
7.第6の実施形態
8.第7の実施形態
9.第8の実施形態
10.第9の実施形態
11.第10の実施形態
12.第11の実施形態
13.第12の実施形態
14.第13の実施形態
15.第14の実施形態
16.第15の実施形態
17.第16の実施形態
18.第17の実施形態
19.第18の実施形態
20.第19の実施形態
21.第20の実施形態
22.ハードウェア構成
23.変形例
<<1.情報処理システムの構成>>
まず、本開示の各実施形態に共通する情報処理システムの構成例について、図1を参照して説明する。各実施形態では、地点ごとに情報処理システム10が設置されている場面を想定する。ここで、地点は、本開示に係る「場所」の一例である。例えば、図1に示したように、複数の地点(例えば3地点以上)の各々に情報処理システム10が設置されている。そして、各地点の情報処理システム10は、後述する通信網22を介して互いに通信可能に接続され得る。
本明細書において、システムとは、所定の処理を実行するための構成を意味し得る。システムは、1つの装置から構成されてもよいし、または、複数の装置から構成されてもよい。また、各実施形態に係る情報処理システム10も、情報処理システム10全体として所定の処理を実行可能に構成されていればよく、情報処理システム10内のどの構成を1つの装置とみなすかは任意であってよい。
なお、本明細書および図面において、各地点の情報処理システム10を、「情報処理システム10」の後に異なる数字を付して区別する場合がある。例えば「地点A」の情報処理システム10を情報処理システム10‐1、「地点B」の情報処理システム10を情報処理システム10‐2などのように記載する場合がある。
<1−1.通信網22>
通信網22は、通信網22に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網22は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網22は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
<1−2.情報処理システム10>
図2は、各実施形態に係る情報処理システム10の一構成例を示す図である。図2を参照すると、各実施形態に係る情報処理システム10aは、入力部120aおよび出力部124aを備える。
{1−2−1.出力部124}
出力部124aは、各種の情報をテーブル90a上に表示する。出力部124aは、投影部(プロジェクタ)を含み得る。例えば、図2に示したように、出力部124aは、テーブル90aの上方に、天井から吊り下げられた状態でテーブル90aと所定の距離離隔して配置され得る。この場合、出力部124aは、テーブル90aの天面に情報を投影し得る。例えば、出力部124aは、ペンダントライトやデスクスタンドライトであってもよい。このように上方からテーブル90aの天面に情報を表示する方式を「プロジェクション型」とも呼称する。また、以下では、テーブル90の天面をスクリーン20と称する場合がある。スクリーン20は、出力部124による投影の対象となる面(表示面)を含む。
例えば、出力部124aは、後述する表示処理部122の制御に従って、仮想的な表示オブジェクトを表示する。表示オブジェクトは、例えば、ウィンドウやUIオブジェクトなどである。UIオブジェクトは、ユーザによる各種の操作(選択や入力など)を受け付ける所定の画像(静止画像や動画像)である。例えば、UIオブジェクトは、GUI(Graphical User Interface)部品(例えば、ボタン、スライダー、チェックボックス、テキストボックス、ソフトウェアキーボード等)を含む画像である。また、UIオブジェクトは、ウィンドウ内に配置され得る。
さらに、出力部124aは、例えばスピーカーなどの音声出力装置を含み得る。例えば、出力部124aは、表示処理部122等の制御に従って音を出力する。
{1−2−2.入力部120}
入力部120aは、例えば、1つのレンズでテーブル90aを撮像するカメラを含む。または、入力部120aは、2つのレンズでテーブル90aを撮像することにより、奥行き方向の情報を記録することが可能なステレオカメラを含み得る。ステレオカメラとしては、例えば可視光カメラや、赤外線等の不可視光を検出可能な不可視光カメラ等が用いられ得る。また、入力部120aは、ユーザが発する音声や、周囲の環境の環境音を収音するマイクロフォン等の音声入力装置をさらに含み得る。
上記のカメラが入力部120aとして用いられる場合、情報処理システム10aは、そのカメラが撮像した画像(撮像画像)を解析することにより、スクリーン20上に位置する物体(例えばユーザの手など)の位置を検出することができる。また、入力部120aとしてステレオカメラが用いられる場合には、情報処理システム10aは、当該ステレオカメラによる撮像画像を解析することにより、スクリーン20上に位置する物体の位置情報に加えて、当該物体の深度情報を取得することができる。情報処理システム10aは、当該深度情報に基づいて、スクリーン20へのユーザの手の接触若しくは近接、及びスクリーン20からの手の離脱を検出することが可能である。なお、入力部120aは、ステレオカメラの代わりに、デプスセンサ(例えばtime of flight方式のセンサや、structured light方式のセンサなど)を有してもよい。この場合、デプスセンサが、スクリーン20上に位置する物体の深度情報を取得することが可能である。
各実施形態では、入力部120aにより撮像される画像に基づいて、スクリーン20上における操作体(例えばユーザの手や、スタイラス等の各種の操作部材など)の位置が検出され、そして、検出された操作体の位置に基づいて各種の情報が入力され得る。つまり、ユーザは、スクリーン20上で操作体を動かすことにより、各種の操作入力を行うことができる。例えば、ウィンドウやUIオブジェクトに対するユーザの手の接触が検出されることにより、当該ウィンドウやUIオブジェクトに対する操作入力が行われることになる。
また、入力部120aに含まれるカメラは、テーブル90aの天面を撮影するだけでなく、テーブル90aの周囲に存在するユーザを撮影してもよい。この場合、情報処理システム10aは、入力部120aによる撮像画像に基づいて、テーブル90aの周囲におけるユーザの位置を検出することができる。また、情報処理システム10aは、当該撮像画像に基づいて、個々のユーザを特定し得る身体的な特徴(顔や体の大きさ等)を抽出することにより、ユーザの個人認識を行ってもよい。
前述した例に限定されず、他の方法によりユーザの操作入力が実行されてもよい。例えば、入力部120aは、テーブル90aの天面(スクリーン20a)上にタッチパネルとして設置されてもよく、そして、ユーザの操作入力は、当該タッチパネルに対するユーザの指等の接触によって検出されてもよい。また、入力部120aに含まれるカメラに対するジェスチャによってユーザの操作入力が検出されてもよい。
{1−2−3.変形例}
以上、各実施形態に係る情報処理システム10aの構成について説明した。なお、各実施形態に係る情報処理システム10の構成は図2に示した例に限定されず、例えば図3〜図5に示したような構成であってもよい。
(1−2−3−1.変形例1)
図3は、各実施形態に係る情報処理システム10の別の構成例(情報処理システム10b)を示す図である。図3に示したように、情報処理システム10bでは、テーブル90bの下方に出力部124bが配置される。出力部124bは、例えばプロジェクタであり、当該テーブル90bの天板に向かって下側から情報を投影する。例えば、テーブル90bの天板は、ガラス板や透明プラスチック板等の透明な材質で形成される。そして、出力部124bによって投影された情報は、(当該天板を透過して)テーブル90bの天面(スクリーン20b)に表示される。このようにテーブル90bの下から情報を出力部124bに投影させることによりスクリーン20bに情報を表示する方式を「リアプロジェクション型」とも称する。
また、図3に示す例では、スクリーン20b(表示面)に入力部120bが設けられる。入力部120bは、例えばタッチパネルによって構成される。この場合、スクリーン20bへの操作体の接触が当該タッチパネルによって検出されることにより、ユーザによる操作入力が行われる。但し、かかる例に限定されず、図2に示した情報処理システム10aと同様に、テーブル90bの下方にテーブル90bと離隔して入力部120bが設置されてもよい。この場合、入力部120bはカメラを含み、そして、テーブル90bの天板越しに、スクリーン20b上に位置する操作体を当該カメラは撮影し得る。そして、当該撮影画像に基づいて当該操作体の位置が検出され得る。
(1−2−3−2.変形例2)
図4は、各実施形態に係る情報処理システム10のさらに別の構成例(情報処理システム10c)を示す図である。図4に示したように、情報処理システム10cでは、タッチパネル式のディスプレイが、その表示面を上方に向けた状態でテーブル90c上に設置される。情報処理システム10cでは、入力部120c及び出力部124cは、当該タッチパネル式のディスプレイとして一体的に構成され得る。つまり、ディスプレイの表示画面(スクリーン20c)に各種の情報が表示され、そして、当該ディスプレイの表示画面に対する操作体の接触がタッチパネルによって検出されることにより、ユーザによる操作入力が行われる。なお、情報処理システム10cにおいても、図2に示した情報処理システム10aと同様に、出力部124cの上方にカメラ(入力部120cの一例)が設置されてもよい。この場合、当該カメラによる撮影画像に基づいて、テーブル90cの周囲に位置する個々のユーザの位置等が検出され得る。
(1−2−3−3.変形例3)
図5は、各実施形態に係る情報処理システム10のさらに別の構成例(情報処理システム10d)を示す図である。図5に示したように、情報処理システム10dは、例えばHMD(Head Mounted Display)などの頭部装着型デバイス(例えば眼鏡型デバイスなど)として構成され得る。当該頭部装着型デバイスは、入力部120d(図示省略)及び出力部124d(図示省略)を含み得る。出力部124dは、透過型の表示装置として構成されてもよい。この場合、出力部124dは、頭部装着型デバイスに含まれる右目用レンズおよび左目用レンズの各々(または、ゴーグル型レンズ)の少なくとも一部の領域を投影面(スクリーン20d)として映像を投影し得る。
または、出力部124dは、非透過型の表示装置として構成されてもよい。例えば、出力部124dは、LCD(Liquid Crystal Display)、または、OLED(Organic Light Emitting Diode)などを含んで構成され得る。この場合、入力部120dに含まれるカメラは、当該頭部装着型デバイスを装着するユーザの前方の映像を撮影し、そして、出力部124dは、撮影された映像を逐次表示してもよい。これにより、ユーザは、出力部124dに表示される映像を介して、ユーザの前方の風景を見ることができる。
{1−2−4.課題の整理}
以上、各実施形態に係る情報処理システム10の構成について説明した。ところで、異なる地点に位置するユーザ間で、それぞれの地点の入力部120により取得される情報に基づいてコミュニケーション可能であることが望まれる。
この場合、仮に各地点の入力部120により取得される映像自体を共有しようとすると、リアルタイムに画像処理を行う必要があるので、計算負荷が大きく、かつ、伝達コストが大きくなり得る。
また、映像自体が伝達される場合、コミュニケーション(例えば議論など)に必要のない情報も伝達され得るので、コミュニケーションの妨げになり得る。例えば、ある地点がユーザの自宅であり、そして、図6に示したように、当該ユーザが部屋着を着ている場合では、当該ユーザの部屋着や、当該ユーザの身体情報(例えば腕の体毛など)の映像が当該別の地点に位置する他のユーザに伝達され得る。しかしながら、ユーザによっては、自分の服装や皮膚などの映像が、別の地点に位置する他のユーザに見られることを望まないケースも想定される。この場合、ユーザは、遠隔地のユーザとの議論に集中し難くなり得る。または、遠隔地のユーザとコミュニケーションを行うために、ユーザは、あえて別の服に着替える必要性を感じるなど、不便に感じ得る。
なお、各地点の入力部120により取得される情報のうち、ユーザのポインティング位置のみを別の地点に伝達する方法も考えられる。例えば、図7に示したように、ユーザの手が操作体として用いられる場面において、当該手のポインティング位置の情報のみを別の地点に伝達する方法も考えられる。しかしながら、この方法では、例えば図8に示したように、当該別の地点のスクリーン20‐2において、ポインティング位置(図8に示した例では人差し指の位置)の変化と同じ変化量(つまり同じ方向および同じ距離)で例えば手首や腕などが動く映像92が表示され得る。このため、当該別の地点に位置するユーザは、映像92を見た際に臨場感が乏しいと感じ得る。
そこで、上記事情を一着眼点にして、各実施形態に係る情報処理システム10を創作するに至った。各実施形態に係る情報処理システム10は、第1の地点に位置する第1のユーザに関連する操作体の操作に応じた、第2の地点に位置する第2のユーザとのコミュニケーションのための第1の伝達情報を取得し、そして、当該第1の伝達情報に基づいて特定される、当該第2の地点における当該操作体のポインティング位置と、当該第2の地点における当該第1のユーザの第1の仮想的な位置とに基づいて生成される当該操作体に対応する画像を当該第2の地点内の表示面に表示させることが可能である。これにより、異なる地点間で円滑なコミュニケーションを実現可能としつつ、当該地点間で伝送される情報量を削減することができる。
ここで、ユーザに関連する操作体とは、当該ユーザの手であってもよいし、または、当該ユーザが使用中の操作用デバイス(例えばスタイラス、マウス、キーボード、または、タッチパネルなど)であってもよい。
例えば、当該操作体が当該ユーザの手である場合には、当該第1の伝達情報は、当該手のポインティング位置の情報、当該手の位置情報、および、(当該手と同じ側の)腕の位置情報を含み得る。さらに、当該第1の伝達情報は、当該手の形状(例えば、該当の手が開いているか否かなど)を含んでもよい。ここで、手の位置(以下、手位置と称する場合がある)は、本開示に係る「第2の仮想的な位置」の一例である。また、腕の位置(以下、腕位置と称する場合がある)は、本開示に係る「第1の仮想的な位置」の一例である。または、当該操作体が当該操作用デバイスである場合には、当該第1の伝達情報は、当該操作用デバイスに対応するポインティング位置の情報を含み得る。以下では、当該操作体がユーザの手である例を中心として説明を行う。
なお、本明細書および図面において「手」という記載は、主として手(hand)自体を意味する表現として用いられるが、かかる例に限定されず、手指、腕、または、これらの部位のうちの2以上(例えば上肢など)を意味する表現として用いられる場合がある。以下、各実施形態の内容について順次詳細に説明を行う。
<<2.第1の実施形態>>
<2−1.機能構成>
まず、第1の実施形態に係る機能構成について詳細に説明する。図9は、第1の実施形態に係る情報処理システム10の機能構成を示したブロック図である。図9に示すように、情報処理システム10は、処理部100、入力部120、表示処理部122、出力部124、通信部126、および、記憶部128を含む。なお、以下では、上記の説明と同様の内容については説明を省略する。
{2−1−1.表示処理部122}
表示処理部122は、一または複数の処理回路(例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unitなど)を含んで構成され得る。表示処理部122は、入力部120が取得した入力情報に基づき、出力部124により表示されるグラフィックスに関する処理を行う。例えば、表示処理部122は、ウィンドウなどの表示オブジェクトの描画制御を行ったり、個々の表示オブジェクトに対するユーザの操作に応じた描画処理などを行う。
さらに、表示処理部122は、入力部120が取得した入力情報(例えば撮像画像など)を、後述する処理部100へ出力し得る。また、表示処理部122は、処理部100により処理された情報を処理部100から受け取り、そして、当該情報に基づいて描画処理を行う。
{2−1−2.処理部100}
処理部100は、一または複数の処理回路(例えば、後述するCPU150など)を含んで構成され得る。処理部100は、入力部120が取得した入力情報に基づいて各種の処理を行う。
また、図9に示すように、処理部100は、情報生成部102、送信制御部104、情報取得部106、および、出力制御部108を有する。
{2−1−3.情報生成部102}
情報生成部102は、入力部120が取得した各種の情報に基づいて、他地点に位置する他のユーザとのコミュニケーションのための伝達情報を生成する。
例えば、情報生成部102は、まず、入力部120が取得した各種の情報に基づいて、自地点における個々のユーザが使用中の操作体(例えば当該ユーザの手など)に関する情報を取得する。そして、情報生成部102は、取得した情報に応じて当該伝達情報を生成する。例えば、当該伝達情報は、当該操作体に関する情報よりも情報量が少ない。一例として、当該伝達情報は、当該操作体に関する情報が抽象化された情報である。ここで、自地点は、本開示に係る第2の地点の一例である。自地点は、該当の情報処理システム10が位置する地点(現在の地点)であり得る。
(2−1−3−1.生成例1)
例えば、当該操作体がユーザの手である場合には、情報生成部102は、入力部120が取得した入力情報(撮像画像など)と、後述する情報生成再現規則DB130とに基づいて、当該伝達情報を生成する。ここで、情報生成再現規則DB130は、伝達情報の生成時のルールと、他地点から伝達情報が受信された際の当該伝達情報の再現(例えば当該伝達情報に応じた映像の表示)時のルールとが登録されているデータベースである。図11は、情報生成再現規則DB130の構成例を示した図である。図11に示したように、情報生成再現規則DB130では、例えば、ID1300、情報タイプ1302、生成時条件1304、生成時処理1306、および、再現時処理1308が関連付けられている。ID1300には、伝達情報に含まれ得る個々の情報タイプの識別情報が記録される。情報タイプ1302には、該当のIDに対応する情報の種類(タイプ)が記録される。生成時条件1304には、情報生成部102が該当の情報タイプの情報を生成する際の条件が記録される。生成時処理1306には、該当の情報タイプの情報の生成時に情報生成部102が行う処理の内容が記録される。再現時処理1308には、伝達情報が他地点で受信された際に、当該伝達情報に含まれる該当の情報タイプの情報を再現する際の処理内容が記録される。
図11に示した例では、情報生成部102は、まず、入力部120が取得した入力情報に基づいて、スクリーン20上に位置する個々の手に関して、スクリーン20に対する手指、手、および、腕の各々の位置情報、および、手の形状を特定する。例えば、図10に示した例では、情報生成部102は、入力部120が取得した撮像画像に基づいて、手2aに関して、手指の位置情報Pf0を(500,600)、手の位置情報Ph0を(640,800)、腕の位置情報Pa0を(700,1080)とそれぞれ特定する。さらに、情報生成部102は、手2aの形状を「手の平が閉じている形状」と特定する。
さらに、情報生成部102は、スクリーン20‐1上に配置されている個々のオブジェクトに関する情報(例えば位置、形状、および、テクスチャなど)を当該入力情報に基づいて特定してもよい。さらに、情報生成部102は、自地点における音情報(例えば該当のユーザが発した音声や、環境音など)を当該入力情報に基づいて特定してもよい。そして、情報生成部102は、これらの情報を全て含むように伝達情報を生成し得る。
(2−1−3−2.生成例2)
または、当該操作体が操作用デバイスである場合には、情報生成部102は、当該操作用デバイスから取得される操作情報と、情報生成再現規則DB130とに基づいて、当該伝達情報を生成する。例えば、情報生成部102は、少なくとも当該操作用デバイスのポインティング位置を含むように当該伝達情報を生成する。
{2−1−4.送信制御部104}
送信制御部104は、他地点に対する、情報生成部102により生成された伝達情報の送信を制御する。例えば、送信制御部104は、現在通信中の個々の他地点の情報処理システム10に対して、生成された伝達情報を、後述する通信部126に送信させる。
{2−1−5.情報取得部106}
情報取得部106は、通信部126により他地点から受信される伝達情報を受信又は読出し処理などを行うことにより通信部126から取得する。
{2−1−6.出力制御部108}
出力制御部108は、情報取得部106により取得された伝達情報に基づいて、出力部124に対する各種の情報の出力の制御を行う。例えば、出力制御部108は、取得された伝達情報に基づいて特定される、自地点(つまり、該当の情報処理システム10が位置する地点)における、当該伝達情報に対応する操作体(例えば当該伝達情報の送信元(の地点内)のユーザの手など)のポインティング位置と、自地点における、当該伝達情報の送信元のユーザの腕位置とに基づいて生成される当該操作体に対応する画像を、自地点内のスクリーン20(表示面)に表示させる。
一例として、出力制御部108は、まず、取得された伝達情報に含まれる、当該送信元の地点におけるユーザの手指、手、および、腕の各々の位置情報に基づいて、自地点における、当該送信元のユーザの手のポインティング位置と、当該送信元のユーザの仮想的な手の位置と、当該送信元のユーザの仮想的な腕の位置とを特定する。次に、出力制御部108は、特定した、自地点における、当該送信元のユーザの手のポインティング位置と、当該送信元のユーザの仮想的な手の位置と、当該送信元のユーザの仮想的な腕の位置と、当該伝達情報に含まれる手の形状の情報とに基づいて、例えば図12に示したような、当該送信元のユーザの手に対応する画像を例えば実物大で生成(再構成)する。例えば、出力制御部108は、当該ユーザの手のポインティング位置と、当該ユーザの仮想的な手の位置と、当該ユーザの仮想的な腕の位置と、当該手の形状の情報と、所定の手のモデリングデータとに基づいて、当該ユーザの手に対応する画像を生成する。そして、出力制御部108は、例えば図13に示したように、生成した画像を自地点内のスクリーン20に表示させる。
この表示例によれば、例えば図7に示したように、送信元の地点においてユーザの手が操作体として用いられ、かつ、当該ユーザが手を動かすことによりポインティング位置を移動させる場面において、出力制御部108は、当該送信元の地点のユーザの手に関して、手首や関節の動きが反映された自然な手の動きを再現することができる。例えば、図7に示した手2aに対応する伝達情報が受信された際には、出力制御部108は、当該伝達情報に基づいて、図13に示した画像30aを自地点のスクリーン20‐2に表示させる。同様に、図7に示した手2bに対応する伝達情報が受信された際には、出力制御部108は、当該伝達情報に基づいて、図13に示した画像30bを自地点のスクリーン20‐2に表示させる。このように、例えば図8に示した公知の技術と比較して、より自然な手の動きを再現することができる。例えば、遠隔地とミーティングを行う場面において、ポインティング情報を変えることなく、違和感のない映像を遠隔地に提示することができる。
{2−1−7.通信部126}
通信部126は、送信制御部104の制御に従って、他地点の情報処理システムとの間で各種の情報を送受信する。例えば、通信部126は、送信制御部104の制御に従って、情報生成部102により生成された伝達情報を、現在通信中の他地点の各々の情報処理システム10へ送信する。また、通信部126は、他地点の情報処理システム10により生成された伝達情報を当該他地点から受信する。
例えば、同一地点の情報処理システム10内の通信の場合には、通信部126は、一般的なプロセス間通信を行う。また、異なる地点間の通信の場合には、通信部126は、通信網22を介して通信を行う。
{2−1−8.記憶部128}
記憶部128は、各種のデータや各種のソフトウェアを記憶する。例えば、記憶部128は、情報生成再現規則DB130および情報適合規則DB132を記憶する。情報適合規則DB132は、他地点から受信された伝達情報をユーザに提示することの妥当性を判断するための規則が登録されているデータベースである。情報適合規則DB132は、例えば、リレーショナルデータベースやルックアップテーブルのような形状で実現され得る。
図21は、情報適合規則DB132の構成例を示した図である。図21に示したように、情報適合規則DB132では、例えば、ID1320、情報タイプ1322、チェック対象1324、適合条件1326、および、条件不成立時処理1328が関連付けられている。ここで、ID1320には、個々の適合規則の識別番号が記録される。情報タイプ1322には、該当のIDに対応する適合規則に含まれ得る情報の種類(タイプ)が記録される。チェック対象1324には、該当の適合規則においてチェックされる対象の種類が記録される。適合条件1326には、該当のチェック対象が適合であると判定される条件が記録される。条件不成立時処理1328には、該当のチェック対象が適合ではないと判定された際に実行される処理の内容が記録される。
<2−2.処理の流れ>
以上、第1の実施形態に係る機能構成について説明した。次に、第1の実施形態に係る処理の流れについて、「2−2−1.伝達情報生成時の処理の流れ」および「2−2−2.伝達情報再現時の処理の流れ」において説明する。なお、各地点における情報処理システム10は、基本的に、「伝達情報生成時の処理の流れ」および「伝達情報再現時の処理の流れ」を並行的に実行し得る。
{2−2−1.伝達情報生成時の処理の流れ}
(2−2−1−1.全体的な流れ)
まず、図14および図15を参照して、「伝達情報生成時の処理の流れ」について説明する。図14は、第1の実施形態に係る「伝達情報生成時の処理」の全体的な流れを示したフローチャートである。
図14に示したように、まず、情報生成部102は、入力部120により例えばリアルタイムに取得された入力情報を受信又は読出し処理などを行うことにより、表示処理部122から取得する。例えば、情報生成部102は、入力部120によりリアルタイムに撮影された、ユーザの手の画像を(当該入力情報の一部として)表示処理部122から取得する(S101)。
続いて、情報生成部102は、後述する「伝達情報の生成処理」を行う(S103)。
続いて、通信部126は、送信制御部104の制御に従って、S103で生成された伝達情報を、例えば通信中の他地点の情報処理システム10の各々へ送信する(S105)。
続いて、処理部100は、ユーザによる終了操作が行われたか否かを判定する(S107)。終了操作が行われていない場合には(S107:No)、処理部100は、再びS101以降の処理を繰り返す。一方、終了操作が行われた場合には(S107:Yes)、当該処理の流れは終了する。
(2−2−1−2.伝達情報の生成処理)
ここで、図15を参照して、S103(「伝達情報の生成処理」)の内容について詳細に説明する。図15に示したように、まず、情報生成部102は、処理対象の生成規則の番号を示す変数Iに「1」を設定する(S151)。そして、情報生成部102は、情報生成再現規則DB130に格納されている生成規則の総数をNに設定する(S153)。
そして、IがN以下である限り(S155:Yes)、情報生成部102は、以下のS157〜S165の処理を行う。なお、IがNよりも大きくなった場合には(S155:No)、当該「伝達情報の生成処理」は終了する。
具体的には、まず、情報生成部102は、情報生成再現規則DB130に格納されているI番目の生成規則で定義されている全ての情報タイプの情報が、S101で取得された入力情報に含まれているか否かを判定する。例えば、I番目の生成規則において情報タイプとして指の位置情報が定義されている場合には、情報生成部102は、S101で取得された入力情報内に指の位置情報が含まれているか否かを判定する。また、I番目の生成規則において情報タイプとして音声が定義されている場合には、情報生成部102は、所定の閾値以上の音量の収音結果が、S101で取得された入力情報内に含まれているか否かを判定する(S157)。少なくとも一つの情報タイプの情報が当該入力情報に含まれていない場合には(S157:No)、情報生成部102は、後述するS165の処理を行う。
一方、全ての情報タイプの情報が当該入力情報に含まれている場合には(S157:Yes)、情報生成部102は、次に、情報生成再現規則DB130においてI番目の生成規則に関連付けられている生成時条件が成立するか否かを判定する(S159)。当該生成時条件が成立しないと判定した場合には(S159:No)、情報生成部102は、後述するS165の処理を行う。
一方、当該生成時条件が成立すると判定した場合には(S159:Yes)、情報生成部102は、情報生成再現規則DB130においてI番目の生成規則に関連付けられている生成時処理を行う(S161)。
そして、情報生成部102は、S161の処理結果を、生成対象の伝達情報内に格納する。例えば、情報生成部102は、ユーザの手指、手、および、腕の位置情報を当該生成対象の伝達情報内に格納する(S163)。
続いて、情報生成部102は、Iに「1」を加算する(S165)。その後、情報生成部102は、再びS155以降の処理を繰り返す。
{2−2−2.伝達情報再現時の処理の流れ}
(2−2−2−1.全体的な流れ)
次に、図16〜図18を参照して、「伝達情報再現時の処理の流れ」について説明する。図16は、第1の実施形態に係る「伝達情報再現時の処理」の全体的な流れを示したフローチャートである。
図16に示したように、まず、通信部126は、他地点の情報処理システム10により生成された伝達情報を当該他の情報処理システム10から受信する。そして、情報取得部106は、受信された伝達情報を受信又は読出し処理などを行うことにより通信部126から取得する(S201)。
続いて、出力制御部108は、後述する「伝達情報のチェック処理」を行う(S203)。
続いて、出力制御部108は、後述する「伝達情報に基づいた出力処理」を行う(S205)。
続いて、処理部100は、ユーザによる終了操作が行われたか否かを判定する(S207)。終了操作が行われていない場合には(S207:No)、処理部100は、再びS201以降の処理を繰り返す。一方、終了操作が行われた場合には(S207:Yes)、当該処理の流れは終了する。
(2−2−2−2.伝達情報のチェック処理)
ここで、図17を参照して、S203(「伝達情報のチェック処理」)の内容について詳細に説明する。図17に示したように、まず、出力制御部108は、処理対象の適合規則の番号を示す変数Iに「1」を設定する(S221)。そして、出力制御部108は、情報適合規則DB132に格納されている適合規則の総数をNに設定する(S223)。
そして、IがN以下である限り(S225:Yes)、出力制御部108は、以下のS227〜S235の処理を行う。なお、IがNよりも大きくなった場合には(S225:No)、当該「伝達情報のチェック処理」は終了する。
具体的には、まず、出力制御部108は、情報適合規則DB132に格納されているI番目の適合規則で定義されている全ての情報タイプの情報が、S201で取得された伝達情報に含まれているか否かを判定する(S227)。少なくとも一つの情報タイプの情報が当該伝達情報に含まれていない場合には(S227:No)、出力制御部108は、後述するS235の処理を行う。
一方、全ての情報タイプの情報が当該伝達情報に含まれている場合には(S227:Yes)、出力制御部108は、情報生成再現規則DB130においてI番目の適合規則に関連付けられているチェック対象を特定する。そして、出力制御部108は、例えば当該伝達情報などに基づいて当該チェック対象の値を特定する(S229)。
続いて、出力制御部108は、情報生成再現規則DB130においてI番目の適合規則に関連付けられている適合条件を、S229で特定された値が満たすか否かを判定する(S231)。当該適合条件を、S229で特定された値が満たす場合には(S231:Yes)、出力制御部108は、後述するS235の処理を行う。
一方、当該適合条件を、S229で特定された値が満たさない場合には(S231:No)、出力制御部108は、情報生成再現規則DB130においてI番目の適合規則に関連付けられている条件不成立時処理を行う(S233)。
続いて、出力制御部108は、Iに「1」を加算する(S235)。その後、出力制御部108は、再びS225以降の処理を繰り返す。
(2−2−2−3.伝達情報に基づいた出力処理)
ここで、図18を参照して、S205(「伝達情報に基づいた出力処理」)の内容について詳細に説明する。図18に示したように、まず、出力制御部108は、処理対象の再現規則の番号を示す変数Iに「1」を設定する(S251)。そして、出力制御部108は、情報生成再現規則DB130に格納されている再現規則の総数をNに設定する(S253)。
そして、IがN以下である限り(S255:Yes)、出力制御部108は、以下のS257〜S261の処理を行う。なお、IがNよりも大きくなった場合には(S255:No)、当該「伝達情報に基づいた出力処理」は終了する。
具体的には、まず、出力制御部108は、情報生成再現規則DB130に格納されているI番目の再現規則で定義されている全ての情報タイプの情報が、S201で取得された伝達情報に含まれているか否かを判定する(S257)。少なくとも一つの情報タイプの情報が当該伝達情報に含まれていない場合には(S257:No)、出力制御部108は、後述するS261の処理を行う。
一方、全ての情報タイプの情報が当該伝達情報に含まれている場合には(S257:Yes)、出力制御部108は、情報生成再現規則DB130においてI番目の再現規則に関連付けられている再現時処理を行う(S259)。
続いて、出力制御部108は、Iに「1」を加算する(S261)。その後、出力制御部108は、再びS255以降の処理を繰り返す。
<2−3.効果>
{2−3−1.効果1}
以上説明したように、第1の実施形態に係る情報処理システム10は、他地点に位置する第1のユーザに関連する操作体の操作に応じた、自地点に位置する第2のユーザとのコミュニケーションのための第1の伝達情報を取得し、そして、当該第1の伝達情報に基づいて特定される、自地点における当該操作体のポインティング位置と、自地点における当該第1のユーザの腕位置とに基づいて生成される当該操作体に対応する画像を自地点内の表示面に表示させる。このため、異なる地点間で円滑なコミュニケーションを実現可能としつつ、当該地点間で伝送される情報量を削減することができる。
例えば、当該情報処理システム10は、入力部120により取得される入力情報(映像など)自体を共有する代わりに、当該入力情報に基づいて生成されるコミュニケーションに必要な情報のみを伝達情報として他地点へ共有する。このため、コミュニケーションに集中することを阻害する成分をカットすることができるので、異なる地点間のユーザがよりコミュニケーションに集中可能となることが期待できる。例えば、異なる地点間のユーザが、自分の皮膚や服装等を気にせずに、気兼ねなく議論に参加することができる。また、同様の理由により、異なる地点間のユーザがより円滑に議論を行うことができたり、相手の意図をより理解しやすくなることが期待できる。
{2−3−2.効果2}
また、情報処理システム10は、他地点のユーザの手指、手、および、腕の各々の位置情報に基づいて、自地点における当該他地点のユーザの手指、手、および、腕の各々の位置情報を特定し、そして、これらの位置情報に基づいて当該他地点のユーザの手を示す画像を生成し、そして、自地点内の表示面に表示させることが可能である。このため、他地点のユーザの手の動きを自地点において自然に再現することができる。その結果、例えば、他地点のユーザが情報を操作する過程を自地点のユーザが理解することができる。
<<3.第2の実施形態>>
以上、第1の実施形態について説明した。次に、本開示に係る第2の実施形態について説明する。第2の実施形態では、異なる地点に位置するユーザ間でブレインストーミングを行う場面を想定する。後述するように、第2の実施形態によれば、異なる地点間でユーザがオブジェクトを操作して議論する際に、誰がどのオブジェクトを操作しているかをユーザは明確に理解することができる。
<3−1.構成>
第2の実施形態に係る情報処理システム10に含まれる構成要素は、(図9に示した)第1の実施形態と同一であってよい。なお、後述する第2の実施形態〜第19の実施形態に関しても同様であり得る。以下では、第1の実施形態とは異なる機能を有する構成要素についてのみ説明を行う。
{3−1−1.情報生成再現規則DB130}
第2の実施形態に係る情報生成再現規則DB130では、図11に示した登録内容に加えて、図19に示した登録内容がさらに追加され得る。
{3−1−2.情報生成部102}
第2の実施形態に係る情報生成部102は、スクリーン20上の例えばオブジェクトが配置されていない領域において手をスライドさせる操作(以下、書き込み操作と称する場合がある)が行われたことが検出された場合には、当該書き込み操作に対応するユーザの手のポインティング位置の並びを点群として、送信対象の伝達情報内にさらに格納する。
{3−1−3.出力制御部108}
第2の実施形態に係る出力制御部108は、他地点から受信された伝達情報に基づいて当該他地点において少なくとも一つのオブジェクトを移動させる操作が特定された場合には、当該少なくとも一つのオブジェクトに対応する画像の、スクリーン20上の表示位置を、特定された操作に応じて移動させる。例えば、他地点のユーザの手が当該他地点において少なくとも一つのオブジェクトに接触しながらスライドされることが当該伝達情報に基づいて特定された場合には、出力制御部108は、当該少なくとも一つのオブジェクトに対応する画像の表示位置を、特定されたスライドに応じて移動させる。ここで、オブジェクトは、実オブジェクトであってもよいし、例えばスクリーン20に表示されている仮想オブジェクトであってもよい。
または、他地点の表示面上で書き込み操作が行われたことが当該伝達情報に基づいて特定された場合には、出力制御部108は、当該書き込み操作に対応する当該他地点のユーザの手のポインティング位置の軌跡を示す画像を自地点の表示面上にさらに表示させることが可能である。
ここで、図20A〜図20Dを参照して、上記の出力制御部108の機能についてより詳細に説明する。以下では、他地点のスクリーン20‐1上に複数の付箋が配置されている例について説明する。当該複数の付箋は、実オブジェクトであってもよいし、仮想オブジェクト(例えば、スクリーン20‐2上に投影された映像など)であってもよい。この場合、自地点の出力制御部108は、当該複数の付箋の各々の画像32を自地点のスクリーン20‐2上に表示(投影など)させ得る。
(3−1−3−1.具体例1)
そして、当該複数の付箋のうちの一枚を当該他地点のユーザが指1本でドラッグする操作が当該他地点において検出されたとする。この場合、出力制御部108は、まず、当該他地点から取得された伝達情報に基づいて当該指のドラッグ操作を特定し得る。そして、図20Aに示したように、出力制御部108は、当該ドラッグ操作の対象の付箋の画像32の表示位置を、特定されたドラッグ操作に応じて移動させ得る。
(3−1−3−2.具体例2)
または、当該複数の付箋のうちの複数枚のグループを当該他地点のユーザが手の平でドラッグする操作が当該他地点において検出されたとする。この場合、出力制御部108は、まず、当該他地点から取得された伝達情報に基づいて当該手の平のドラッグ操作を特定し得る。そして、図20Bに示したように、出力制御部108は、当該ドラッグ操作の対象の付箋のグループの画像34の表示位置を、特定されたドラッグ操作に応じて移動させ得る。
(3−1−3−3.具体例3)
または、当該他地点のスクリーン20上の、付箋が存在しない領域において当該他地点のユーザがドラッグする操作(書き込み操作)が当該他地点において検出されたとする。この場合、出力制御部108は、まず、当該他地点から取得された伝達情報に基づいて、当該他地点において現在までに書き込みされた情報(点群)を特定し得る。そして、図20Cまたは図20Dに示したように、出力制御部108は、特定された点群を順に結んだ線分36を自地点のスクリーン20‐2上に表示(投影など)させ得る。例えば、出力制御部108は、当該他地点における書き込み操作に追従させて、書き込まれた点群から構成される線分36をリアルタイムに更新し、そして、更新された線分36を自地点のスクリーン20‐2上に表示させる。
<3−2.効果>
以上説明したように、第2の実施形態によれば、異なる地点間でユーザが付箋を操作して議論する際に、誰がどの付箋を操作しているかをユーザは明確に理解することができる。
さらに、第2の実施形態によれば、自地点のスクリーン20に表示される、当該他地点のユーザの手の画像と、自地点において出力される当該他地点のユーザの音声とに基づいて、異なる地点間のユーザ同士で、対面している場合と同様に自然にコミュニケーションを行うことができる。例えば代名詞(「これ」や「それ」など)などの、意味が曖昧な言葉を他地点のユーザが発話する場合であっても、当該他地点のユーザが何を対象に議論しているかを自地点のユーザは容易に把握することができる。
<<4.第3の実施形態>>
以上、第2の実施形態について説明した。次に、本開示に係る第3の実施形態について説明する。図22Aおよび図22Bは、第1の実施形態に係る出力制御部108により表示される手の画像30の例を示した図である。図22Bでは、送信元の地点において誤検出や通信エラーなどが発生したことにより、受信された伝達情報内に手の位置情報Phとして不正確な値が格納されており、そして、当該伝達情報に基づいて手の画像が生成された例を示している。
図22Bに示した画像30bでも、当該他地点のユーザのポインティング位置Pfを自地点のユーザは理解可能であるが、より自然な形状(例えば、手首の曲がり角度が人間の標準の可動範囲内である形状)の手の画像を表示可能であることが望ましい。
後述するように、第3の実施形態によれば、他地点から受信される伝達情報に基づいて、より自然な形状の手の画像を表示させることができる。
<4−1.構成>
{4−1−1.情報適合規則DB132}
図21は、第3の実施形態に係る情報適合規則DB132の構成例を示した図である。図21に示した例では、適合規則が一つだけ定められており、そして、当該適合規則では、他地点から受信される伝達情報に基づいて特定される、他地点のユーザの指位置と手位置とがなす直線と、当該ユーザの手位置と腕位置とがなす直線との間の角度がチェック対象として定められている。さらに、当該適合規則では、当該角度が「−30度以上30度以下である場合」が適合であると定められている。
{4−1−2.出力制御部108}
(4−1−2−1.伝達情報の補正)
第3の実施形態に係る出力制御部108は、他地点から取得される伝達情報に基づいて特定される、当該他地点のユーザの手のポインティング位置、自地点における当該他地点のユーザの手位置、および、自地点における当該他地点のユーザの腕位置の関係が所定の関係になった場合には、当該他地点のユーザの腕位置および/または手位置を当該他地点のユーザの手のポインティング位置に基づいて補正することが可能である。
例えば、図22Bでは、指位置と手位置とがなす直線と、手位置と腕位置とがなす直線との間の角度の適合範囲を「A」と示している。しかしながら、図22Bに示した例では、他地点から受信された伝達情報に基づいて特定された、指位置と手位置とがなす直線と、手位置と腕位置とがなす直線との間の角度の値は、「B」だけ当該適合範囲からずれている。この場合、出力制御部108は、当該角度が適合ではないと判定する。そして、出力制御部108は、当該他地点のユーザの腕位置および/または手位置を、当該他地点のユーザの手のポインティング位置に基づいて補正する。
ここで、図22Cを参照して、上記の補正例についてより詳細に説明する。図22Cに示したように、出力制御部108は、まず、スクリーン20における、当該他地点のユーザの腕位置Paの最寄りの辺に対して、当該ユーザの指位置(手のポインティング位置)Pfから垂直に降ろした直線と当該辺との交点を、新たな腕位置Pvaとして設定する。次に、出力制御部108は、当該他地点のユーザの指位置Pfと当該新たな腕位置Pvaとを結ぶ線分において、手の大きさ分だけ当該指位置Pfからずらした点の位置を新たな手位置Pvhとして設定する。そして、出力制御部108は、当該ユーザの腕位置Paを当該新たな腕位置Pvaに補正し、かつ、当該ユーザの手位置Phを当該新たな手位置Pvhに補正する。
(4−1−2−2.補正後の手の画像の表示)
さらに、出力制御部108は、上記の補正後に、該当の他地点のユーザの手のポインティング位置と、補正後の当該ユーザの手位置と、補正後の当該ユーザの腕位置とに基づいて、当該他地点のユーザの手に対応する画像を生成する。そして、出力制御部108は、図22Cに示したように、生成した画像を自地点内のスクリーン20に表示させる。
<4−2.効果>
以上説明したように、第3の実施形態によれば、他地点から受信される伝達情報に基づいて、より自然な形状の手の画像を表示させることができる。例えば、他地点から受信される伝達情報に対応するユーザのポインティング位置を変えることなく、当該ユーザの手(手首など)の形状がより自然となるように当該ユーザの手位置および腕位置を補正することができる。
<<5.第4の実施形態>>
以上、第3の実施形態について説明した。次に、本開示に係る第4の実施形態について説明する。後述するように、第4の実施形態によれば、他地点から受信される伝達情報に基づいて、より単純化、または、より匿名化した手の画像を表示させることができる。
<5−1.構成>
{5−1−1.情報生成再現規則DB130}
第4の実施形態に係る情報生成再現規則DB130では、図11に示した登録内容に加えて、図23に示した登録内容が追加され得る。図23では、個々のユーザに対応する手の画像を、個々のユーザの職種に対応する色で描画することが再現時処理として定義されている例を示している。
{5−1−2.情報生成部102}
第4の実施形態に係る情報生成部102は、自地点の個々のユーザに関して、当該ユーザの属性情報(例えば職種や性別など)を、当該ユーザに対応する伝達情報内にさらに格納する。
{5−1−3.出力制御部108}
第4の実施形態に係る出力制御部108は、他地点から取得される伝達情報に基づいて生成される、当該伝達情報に対応するユーザの手の画像の表示パラメータの値を、当該伝達情報に含まれる当該ユーザの属性情報に応じて変更する。当該表示パラメータは、例えば、表示色、描画される線の太さ、または、描画される線種などであってもよい。
ここで、図24A〜図24Cを参照して、上記の機能についてより詳細に説明する。図24Aに示したように、「地点A」では、エンジニアであるユーザ4a、および、デザイナであるユーザ4bがスクリーン20‐3を囲んでいる場面を想定する。同様に、図24Bに示したように、「地点B」では、デザイナであるユーザ4c、および、エンジニアであるユーザ4dがスクリーン20‐3を囲んでいる場面を想定する。この場合、例えば「地点C」における出力制御部108は、図24Cに示したように、地点Aおよび地点B内の各ユーザ4に関して、当該ユーザの職種がエンジニアである場合には当該ユーザの手の画像を例えば赤色(図24Cに示した例では実線)で表示面に表示させ得る。さらに、出力制御部108は、地点Aおよび地点B内の各ユーザ4に関して、当該ユーザの職種がデザイナである場合には当該ユーザの手の画像を例えば青色(図24Cに示した例では破線)で表示面に表示させ得る。
<5−2.効果>
以上説明したように、第4の実施形態によれば、他地点から取得される伝達情報に対応するユーザの手の画像の表示色を、当該伝達情報に含まれる当該ユーザの職種に応じて変更する。このため、ユーザの手の画像をより単純化、または、より匿名化して表示させることができる。例えば、ユーザごとに色分けされる場合や、地点ごとに色分けされる場合と比較して、表示される画像が単純化され、かつ、匿名化され得る。その結果、異なる地点のユーザ間の議論がより円滑化することや、異なる地点に位置するユーザ同士が互いの意図を理解しやすくなることが期待できる。
<<6.第5の実施形態>>
以上、第4の実施形態について説明した。次に、本開示に係る第5の実施形態について説明する。まず、第5の実施形態を創作するに至った背景について、図25Aおよび図25Bを参照して説明する。図25Aの左図は、スクリーン20におけるユーザの胴体から比較的近くの位置を当該ユーザが手でポインティング(指差し)している例を示した図である。図25Bの左図は、スクリーン20におけるユーザの胴体から遠くの位置を当該ユーザが手でポインティングしている例を示した図である。
図25Aおよび図25Bに示した例では、地点間で送信される伝達情報内に当該ユーザの腕の太さの情報は格納されていないことを想定している。この場合、例えば肘関節の位置を特定不可能などの理由により、第1の実施形態では、図25Bの右図に示したように、前腕の長さが不自然に長いような画像30bが表示され得る。
なお、この事象を改善するために、ユーザの腕の太さの情報を伝達情報内に格納する方法も考えられる。しかしながら、この方法では、手の画像の面積(例えば、腕の領域の面積)がより大きくなる。その結果、コミュニケーション(議論など)時にユーザが邪魔に感じ得る。
後述するように、第5の実施形態によれば、他地点内のユーザの胴体から遠くの位置を当該ユーザがポインティングする場合であっても、当該ポインティング時の伝達情報に基づいて、より自然な形状の手の画像を表示させることができる。
<6−1.構成>
{6−1−1.情報適合規則DB132}
第5の実施形態に係る情報適合規則DB132では、図21に示した適合規則に加えて(または代わりに)、図26に示した適合規則が登録され得る。図26に示した適合規則では、他地点から受信される伝達情報に基づいて特定される当該他地点のユーザの手位置と腕位置との間の距離がチェック対象として定められている。さらに、当該適合規則では、当該距離が「300ピクセル」以下である場合が適合であると定められている。
{6−1−2.出力制御部108}
(6−1−2−1.伝達情報の補正)
第5の実施形態に係る出力制御部108は、他地点から取得される伝達情報に基づいて特定される、当該他地点のユーザの手位置と当該ユーザの腕位置との間の距離が所定の距離よりも大きくなった場合には、当該ユーザの指位置および当該ユーザの手位置を、自地点における当該ユーザの腕位置に基づいて補正することが可能である。
図26に示した例では、他地点から受信された伝達情報に取得される伝達情報に基づいて特定される、当該他地点のユーザの手位置と当該ユーザの腕位置との距離が「300ピクセル」よりも大きい場合には、出力制御部108は、まず、当該距離が適合ではないと判定する。そして、出力制御部108は、当該ユーザの指位置および当該ユーザの手位置を、自地点における当該ユーザの腕位置に基づいて補正する。
ここで、図27を参照して、上記の補正例についてより詳細に説明する。図27に示したように、例えば、出力制御部108は、まず、自地点における当該他地点のユーザの腕位置Paから「300ピクセル」だけ離れた位置を、新たな指位置Pvfとして設定する。次に、出力制御部108は、当該ユーザのポインティング位置Pfと当該新たな指位置Pvfとを結ぶ直線上で、かつ、当該新たな指位置Pvfから腕位置Paの方へ所定の距離だけずらした点の位置を、新たな手位置Pvhとして設定する。そして、出力制御部108は、当該ユーザの手の位置Phを当該新たな手位置Pvhに補正する。
(6−1−2−2.補正後の手の画像の表示)
さらに、出力制御部108は、上記の補正後に、図27の右図に示したように、新たに設定された指位置Pvfと、補正後の当該ユーザの手位置Pvhと、当該ユーザの腕位置Paとに基づいて、当該ユーザの手に対応する画像を生成する。そして、出力制御部108は、生成した手の画像を自地点内のスクリーン20に表示させる。同時に、出力制御部108は、当該ユーザの手のポインティング位置Pfを示す画像38(例えば点の画像など)を当該手の画像と関連付けてスクリーン20に表示させる。例えば、図27の右図に示したように、出力制御部108は、当該手の画像30のうちの指位置Pvfと当該ポインティング位置Pfとを結ぶ線分をスクリーン20にさらに表示させる。
<6−2.効果>
以上説明したように、第5の実施形態によれば、他地点内のユーザの胴体から遠くの位置を当該ユーザがポインティングする場合であっても、当該ポインティング時の伝達情報に基づいて、より自然な形状の手の画像を表示させることができる。さらに、当該手の画像のサイズを抑制することができるので、コミュニケーションの邪魔になることを防止できる。
<<7.第6の実施形態>>
以上、第5の実施形態について説明した。次に、本開示に係る第6の実施形態について説明する。まず、第6の実施形態を創作するに至った背景について図28を参照して説明する。図28は、他地点のユーザが付箋32に対して手を伸ばしている状況における、第1の実施形態に係る出力制御部108による当該ユーザの手の画像30の表示例を示した図である。第1の実施形態では、基本的に当該ユーザの指の高さ情報(以下「z座標」とも称する)が考慮されずに、当該ユーザの手の画像がスクリーン20に表示される。このため、図28に示したように、例えば画像30aの表示時や画像30bの表示時において、付箋32をポインティングするために当該ユーザが手を伸ばしている途中であるのか、あるいは、すでに当該ユーザは付箋32をポインティングしているのかを画像30を閲覧中のユーザは判別し難い。
なお、他地点から取得される伝達情報に含まれるz座標が一定の値以上である場合に限り、手の画像30を表示させる方法も考えられる。しかしながら、この方法では、ユーザのポインティング位置に画像30が突然表示され得るので、閲覧中のユーザに不自然に感じられ得る。
後述するように、第6の実施形態によれば、他地点のユーザが手を伸ばしている途中において、当該ユーザが何らかのオブジェクトをポインティングしているか否かを区別可能なように当該ユーザの手の画像を表示させることができる。
<7−1.構成>
{7−1−1.情報生成再現規則DB130}
第6の実施形態に係る情報生成再現規則DB130では、図11に示した登録内容に加えて、図29に示した登録内容が追加され得る。図29では、他地点から取得される伝達情報に含まれるz座標に応じて、当該伝達情報に対応する手の画像の透明度を変更することが再現時処理として定義されている例を示している。
{7−1−2.情報生成部102}
第6の実施形態に係る情報生成部102は、入力部120により取得された入力情報から特定される、自地点のスクリーン20を基準としたユーザの手の高さのセンシング結果を、当該ユーザに対応する伝達情報内にさらに格納する。
{7−1−3.出力制御部108}
第6の実施形態に係る出力制御部108は、他地点から取得される伝達情報に基づいて生成される、当該伝達情報に対応するユーザの手の画像の表示パラメータの値を、当該伝達情報に含まれる当該ユーザの手の高さ情報に応じて変更する。当該表示パラメータは、例えば、透明度、表示色、または、手の画像の輪郭線のぼかしの度合いなどであってもよい。
例えば、図30に示したように、出力制御部108は、当該伝達情報に含まれる当該ユーザの手の高さ情報が示す値が大きいほど、当該ユーザの手の画像の透明度を高くする。この表示例によれば、ユーザがスクリーン20上をホバー中(例えば、ポインティング対象のオブジェクトに対してユーザが手を伸ばしている途中など)である場合には当該手の画像は薄く表示される。また、ユーザが何らかのオブジェクトをポインティング中である場合には当該手の画像は濃く表示される。従って、操作者の意図を明確に提示することができる。
または、出力制御部108は、第1の閾値と、第1の閾値よりも大きい第2の閾値と、当該手の高さ情報が示す値とに基づいて、当該ユーザの手の画像の透明度を変更してもよい。例えば、当該手の高さ情報が示す値が当該第1の閾値未満である場合には、出力制御部108は、当該ユーザの手の画像の透明度を低く設定する(例えば「0%」など)。また、当該手の高さ情報が示す値が当該第1の閾値以上で、かつ、第2の閾値未満である場合には、出力制御部108は、当該ユーザの手の画像の透明度を高く設定する(例えば「50%」など)。また、当該手の高さ情報が示す値が当該第2の閾値以上である場合には、出力制御部108は、当該ユーザの手の画像を非表示にしてもよい。
<7−2.効果>
以上説明したように、第6の実施形態によれば、他地点のユーザが手を伸ばしている途中において、当該ユーザが何らかのオブジェクトをポインティングしているか否かを区別可能なように当該ユーザの手の画像を表示させることができる。このため、他地点のユーザの意図がより容易に理解可能になる。
<<8.第7の実施形態>>
以上、第6の実施形態について説明した。次に、本開示に係る第7の実施形態について説明する。まず、第7の実施形態を創作するに至った背景について、図31A〜図31Dを参照して説明する。
第7の実施形態では、複数の地点を結んでミーティングを行う場面を想定する。図31A〜図31Cでは、各地点(「地点A」、「地点B」、および「地点C」)において、ユーザがスクリーン20に対して同じ側(図31A〜図31Cに示した例では下側)にそれぞれ位置している例を示している。
前述したように、第1の実施形態に係る出力制御部108は、基本的には、他地点におけるスクリーン20と当該他地点のユーザの腕位置との位置関係を維持しながら、自地点のスクリーン20‐4上に当該ユーザの手の画像を表示させ得る。このため、図31A〜図31Cに示した状況では、図31Dに示したように、各ユーザの手がスクリーン20‐4の同じ辺から伸びているように各ユーザの手の画像30が表示される。従って、複数の画像30が重なり得るので、視認性が悪くなり得る。さらに、他地点の各ユーザの手が自分の手元から伸びているように表示されるので、自地点のユーザは操作時に不自然(または不快)に感じ得る。
後述するように、第7の実施形態によれば、各地点の各ユーザのポインティング位置を維持しつつ、各ユーザの手の画像を視認性高く表示させることができる。
<8−1.構成>
{8−1−1.情報適合規則DB132}
第7の実施形態に係る情報適合規則DB132では、図21に示した適合規則に加えて(または代わりに)、図32に示した適合規則が登録され得る。図32に示した適合規則では、自地点のスクリーンの一辺に存在する(他地点の各ユーザの)腕位置の個数がチェック対象として定められている。さらに、当該適合規則では、当該腕位置の個数が「2個」以下である場合が適合であると定められている。
{8−1−2.出力制御部108}
(8−1−2−1.表示位置の変更)
第7の実施形態に係る出力制御部108は、複数の他地点から取得される個々の伝達情報に基づいて、当該伝達情報に対応するユーザの、自地点における手のポインティング位置と、当該ユーザの手位置と、当該ユーザの腕位置とを特定する。さらに、特定された個々のユーザの腕位置の関係が所定の関係になった場合には、出力制御部108は、当該個々のユーザの手に対応する画像の表示位置を当該ユーザが位置する地点に応じて変更する。
ここで、図32を参照して、上記の機能についてより詳細に説明する。例えば、複数の他地点の個々のユーザの自地点における腕位置のうち、自地点のスクリーン20の一辺に存在する腕位置の個数が「3個」以上になった場合には、出力制御部108は、当該腕位置の個数が適合ではないと判定する。そして、出力制御部108は、当該複数の他地点の個々のユーザのポインティング位置を維持しつつ、自地点のスクリーン20の一辺に存在する腕位置の個数が「2個」以下になるように当該個々のユーザの腕位置を補正する。例えば、出力制御部108は、個々のユーザが位置する地点ごとに、当該個々のユーザの腕位置がスクリーン20の別々の辺に位置するように、当該個々のユーザの腕位置を振り分けてもよい。
さらに、出力制御部108は、腕位置が移動された各ユーザに関して、移動後の当該ユーザの腕位置と当該ユーザのポインティング位置とに基づいて当該ユーザの手位置を補正する。
(8−1−2−2.表示色の変更)
さらに、出力制御部108は、例えば図33に示したように、個々のユーザが位置する地点ごとに、当該個々のユーザの手の画像30の表示色を異ならせてもよい。なお、図33では、画像30aおよび画像30bがそれぞれ、(図31Aに示した)「地点A」の各ユーザ4に対応する手の画像を示している。また、画像30cが、(図31Bに示した)「地点B」のユーザ4cに対応する手の画像を示している。また、画像30dおよび画像30eがそれぞれ、(図31Cに示した)「地点C」の各ユーザ4に対応する手の画像を示している。
<8−2.効果>
以上説明したように、第7の実施形態によれば、各地点の各ユーザのポインティング位置を維持しつつ、各ユーザの手の画像を視認性高く表示させることができる。そして、ユーザビリティを向上させることができる。
<<9.第8の実施形態>>
以上、第7の実施形態について説明した。次に、本開示に係る第8の実施形態について説明する。まず、第8の実施形態を創作するに至った背景について、図34Aおよび図34Bを参照して説明する。
第8の実施形態では、遠隔地から教師が生徒に対して教育指導を行う場面を想定する。例えば、図34Aに示したように、地点Aのテーブル上に教材が配置されており、そして、地点Aのテーブルが撮影された映像が地点Bに送信され、かつ、地点Bのスクリーン20上に表示される。そして、地点Bのスクリーン20に表示されている(当該映像に含まれる)当該教材の向きと、地点Aにおける教材の向きとは同じであることを想定する。
前述したように、第1の実施形態に係る出力制御部108は、基本的には、他地点におけるスクリーン20とユーザの腕位置との位置関係を維持しながら、自地点のスクリーン20‐4上に当該ユーザの手の画像を表示させ得る。このため、図34Aに示した状況では、図34Bに示したように、地点Aに位置する生徒の手元に、(地点Bに位置する)教師の手の画像30aが表示される。このため、当該生徒は教材を見難くなるので、学習の妨げになり得る。
後述するように、第8の実施形態によれば、遠隔地の教師のポインティング位置を維持しつつ、教師の手の画像を視認性高く表示させることができる。
<9−1.構成>
{9−1−1.情報適合規則DB132}
第8の実施形態に係る情報適合規則DB132では、図21に示した適合規則に加えて(または代わりに)、図35に示した適合規則が登録され得る。図35に示した適合規則では、自地点のスクリーンの一辺に存在する(他地点の各ユーザの)腕位置の個数がチェック対象として定められている。さらに、当該適合規則では、当該腕位置の個数が「1個」以下である場合が適合であると定められている。
{9−1−2.出力制御部108}
(9−1−2−1.伝達情報の補正)
第8の実施形態に係る出力制御部108は、他地点から取得される伝達情報に基づいて特定される、自地点における当該他地点のユーザの腕位置と自地点のユーザの腕位置との関係が所定の関係になった場合には、当該他地点のユーザの腕位置を、自地点のユーザの腕位置と当該他地点のユーザの手のポインティング位置とに基づいて補正する。
ここで、図35を参照して、上記の機能についてより詳細に説明する。例えば、図35に示したように、自地点のスクリーン20の一辺に存在するユーザの腕位置の個数が「2個」以上になった場合には、出力制御部108は、まず、当該腕位置の個数が適合ではないと判定する。そして、出力制御部108は、当該他地点のユーザのポインティング位置を維持しつつ、自地点のスクリーン20の一辺に存在する腕位置の個数が「1個」以下になるように、当該他地点のユーザの腕位置を他の辺に移動させる。図34Aに示した例では、出力制御部108は、図36Aに示したように、地点Aにおける(地点Bに位置する)教師の(仮想的な)腕位置が生徒の反対側の辺に位置するように、教師の腕位置を移動させてもよい。
さらに、出力制御部108は、腕位置が移動されたユーザの手位置を、移動後の当該ユーザの腕位置と当該ユーザのポインティング位置とに基づいて補正する。
(9−1−2−2.補正後の手の画像の表示)
さらに、出力制御部108は、上記の補正後に、図36Bに示したように、該当の他地点のユーザ(図36Bに示した例では「教師」)の手のポインティング位置と、補正後の当該ユーザの手位置と、補正後の当該ユーザの腕位置とに基づいて、当該ユーザの手に対応する画像を生成する。そして、出力制御部108は、生成した画像を自地点内のスクリーン20に表示させる。
<9−2.効果>
以上説明したように、第8の実施形態によれば、遠隔地の教師のポインティング位置を維持しつつ、教師の手の画像を視認性高く表示させることができる。例えば、生徒と教師の双方が実際には同じ方向から教材を見ながらも、あたかも教師が対面して指導しているような映像を生徒に対して提示することができる。
<<10.第9の実施形態>>
以上、第8の実施形態について説明した。次に、本開示に係る第9の実施形態について説明する。第9の実施形態では、少なくとも一つの地点のユーザが例えばマウスなどの操作用デバイスを使用することにより、他の地点のユーザとコミュニケーションする場面を想定する。このような場合、操作体として手が用いられる地点では、ユーザの手位置や腕位置が取得可能であるのに対して、操作体としてマウスが使用される地点では、通常、マウスのカーソル位置の情報だけしか取得できない。
後述するように、第9の実施形態によれば、他地点のユーザが操作用デバイスを使用する場合であっても、当該他地点から取得される伝達情報に応じて、当該ユーザに対応する手が自然に動く画像をスクリーン20に表示させることができる。
<10−1.構成>
{10−1−1.情報生成再現規則DB130}
第9の実施形態に係る情報生成再現規則DB130では、図11に示した登録内容に加えて、図37に示した登録内容が追加され得る。図37では、他の地点から取得される伝達情報に含まれるカーソル位置の情報に基づいて手の画像を生成することが再現時処理として定義されている例を示している。
{10−1−2.情報生成部102}
第9の実施形態に係る情報生成部102は、ユーザが操作用デバイスを使用している場合には、入力部120により取得された入力情報から特定される、当該操作用デバイスのポインティング位置の情報(例えばx座標およびy座標など)を、当該ユーザに対応する伝達情報内にさらに格納する。なお、入力部120は当該操作用デバイスを含んでもよい。また、入力部120と当該操作用デバイスとは有線通信または無線通信により通信可能に構成されていてもよい。
{10−1−3.出力制御部108}
(10−1−3−1.手の画像の生成)
第9の実施形態に係る出力制御部108は、他地点から取得される伝達情報内に操作用デバイスのポインティング位置の情報が含まれる場合には、当該ポインティング位置の情報から特定される自地点におけるポインティング位置と、自地点のスクリーンの各辺との位置関係に基づいて、自地点における当該他地点のユーザの仮想的な手位置および当該ユーザの仮想的な腕位置を決定する。そして、出力制御部108は、自地点におけるポインティング位置と、決定された仮想的な手位置と、決定された仮想的な腕位置とに基づいて、当該他地点のユーザの手の画像を生成する。
ここで、図38A〜図38Bを参照して、上記の機能についてより詳細に説明する。例えば、出力制御部108は、まず、取得された伝達情報に含まれる操作用デバイスのポインティング位置に対応する自地点のスクリーン20上の位置を、当該他地点のユーザの指位置として決定する。次に、出力制御部108は、図38Aおよび図38Bに示したように、スクリーン20における、決定された指位置(Pf)に最も近い辺と、当該指位置からの当該辺に対する垂直線との交点位置を当該ユーザの仮想的な腕位置として決定する。そして、出力制御部108は、図38Bに示したように、当該ユーザの指位置(Pf)と、当該ユーザの仮想的な腕位置(Pva)と、所定の手モデルとに基づいて、当該ユーザの仮想的な手位置(Pvh)を決定する。
(10−1−3−2.手の画像の表示)
さらに、出力制御部108は、生成された手の画像をスクリーン20上に表示させる。
なお、操作用デバイスのポインティング位置が変更される際(例えばマウスカーソルが移動される際)に、当該ユーザの仮想的な手位置および仮想的な腕位置を単純に当該カーソル位置の移動に合わせて平行移動させると、不自然な動きであると閲覧者は感じ得る。例えば、閲覧者は、遠隔地のユーザがマウス等を操作していることが分かってしまう。
そこで、他地点において操作用デバイスのポインティング位置が変更される際には、出力制御部108は、当該他地点のユーザの仮想的な手位置および仮想的な腕位置を、当該操作用デバイスのポインティング位置の変更量よりも小さい量だけ当該ポインティング位置の変更に追従して変更させることが可能である。例えば、図38Cに示したように、当該ポインティング位置がPf0からPf1へと移動される際には、出力制御部108は、当該ポインティング位置の移動方向と同じ方向へ、Pf0とPf1との距離よりも小さい距離だけ当該ユーザの仮想的な手位置(Pvh)を移動させる。また、出力制御部108は、当該ポインティング位置の移動方向と同じ方向へ、当該ユーザの仮想的な手位置の移動量よりもさらに小さい距離だけ当該ユーザの仮想的な腕位置(Pva)を移動させる。
これにより、例えば、他地点においてマウスのカーソル位置(つまりポインティング位置)が移動されたことが検出された際には、当該ポインティング位置の変化に沿った自然な手の動きを自地点において提示することができる。
<10−2.効果>
以上説明したように、第9の実施形態によれば、他地点のユーザが操作用デバイスを使用する場合であっても、当該他地点から取得される伝達情報に応じて、当該ユーザに対応する手が自然に動く画像をスクリーン20に表示させることができる。これにより、全てのユーザが手で操作しているような映像を各地点で提示することができるので、コミュニケーションの円滑化につながる。
<<11.第10の実施形態>>
以上、第9の実施形態について説明した。次に、本開示に係る第10の実施形態について説明する。一般的に、異なる地点間のユーザが初めてミーティングを行う場面では、当該異なる地点に位置する個々のユーザは、自己の全ての情報を他のユーザに開示することに関して抵抗感を抱き得る。
後述するように、第10の実施形態によれば、他地点のユーザとの親交度に応じて、当該他地点のユーザに開示される情報量(情報の種類など)を増減させることができる。
<11−1.構成>
{11−1−1.情報生成再現規則DB130}
図39は、第10の実施形態に係る情報生成再現規則DB130の構成例を示した図である。図39では、図11に示した情報生成再現規則DB130aと比較して、ユーザの性別情報、手の大きさ、および、腕の太さが情報タイプとしてさらに定義されている例を示している。
{11−1−2.情報生成部102}
第10の実施形態に係る情報生成部102は、入力部120により取得された入力情報から特定される、例えばユーザの性別情報、手の大きさ、および、腕の太さなどを当該ユーザに対応する伝達情報内にさらに格納する。
なお、ユーザの性別情報は、予め記憶部128に格納されていてもよいし、または、当該情報処理システム10の利用時にユーザにより入力されてもよい。また、手の大きさ、および、腕の太さは、例えば入力部120により撮影される画像に対する認識に基づいて特定され得る。
{11−1−3.情報取得部106}
第10の実施形態に係る情報取得部106は、他地点の個々のユーザと自地点のユーザとの親交度を示す情報をさらに取得し得る。ここで、当該親交度を示す情報は、例えば、異なる地点のユーザ間で行われた所定の行動に応じて特定されてもよい。例えば、当該ユーザ間で自己紹介や、アイスブレーキング(ice breaking)を目的とした簡単なゲームなどが行われたことが検出された場合には、当該ユーザ間の親交度が所定の閾値(図39に示した例では「親交レベルが2」)以上に達したと特定されてもよい。または、図40Cに示したように、自地点のスクリーン20上に表示された他地点のユーザの手の画像と、自地点のユーザの手との間で握手のような動作が行われたことが検出された場合には、当該ユーザ間の親交度が当該所定の閾値以上に達したと特定されてもよい。
なお、当該握手の動作が検出された際には、図40Cに示したように、出力制御部108は、当該他地点のユーザの手の画像30と自地点のユーザの手2とが重なった領域のみに所定のエフェクト44(例えば所定の色で塗りつぶすなど)をさらに重畳して表示させてもよい。この表示例によれば、実際には伝達できない、握手に基づく触覚情報を個々のユーザに錯覚させる効果が期待できる。
または、当該親交度を示す情報は、例えば、所定のSNS(Social Networking Service)における他地点の個々のユーザおよび自地点のユーザの登録情報などに基づいて特定されてもよい。
{11−1−4.出力制御部108}
第10の実施形態に係る出力制御部108は、他地点の各ユーザの手の画像の表示態様を、当該各ユーザと自地点のユーザとの親交度に応じて変更する。例えば、他地点のユーザと自地点のユーザとの親交度が当該所定の閾値未満である間は、出力制御部108は、当該他地点のユーザの身体的特徴および性別を反映させずに、当該他地点のユーザの手の画像を表示させる。この場合、例えば図40Aに示したように、出力制御部108は、他地点における該当のユーザの指位置、手位置、腕位置、および、手形状のみが反映された手の画像を表示させてもよい。この表示例によれば、ユーザ間の親交度が低い場合には、各ユーザの身体的な情報は互いに伝達されないので、各ユーザの心理的抵抗は小さくなり得る。
また、他地点のユーザと自地点のユーザとの親交度が所定の閾値以上になった後は、出力制御部108は、当該他地点のユーザの身体的特徴(例えば手の大きさや腕の太さなど)や性別をさらに反映させた表示態様で当該他地点のユーザの手の画像を表示させてもよい。この場合、例えば図40Bに示したように、出力制御部108は、当該他地点から取得される伝達情報に含まれる当該ユーザの手の大きさに応じて、当該ユーザの手の画像における手の大きさを変更してもよい。また、出力制御部108は、当該他地点から取得される伝達情報に含まれる当該ユーザの腕の太さに応じて、当該ユーザの手の画像における腕の太さを変更してもよい。また、出力制御部108は、当該他地点のユーザの性別に応じて、当該ユーザの手の画像の表示色を変更してもよい(例えば、女性の場合は赤色で表示し、男性の場合は青色で表示するなど)。
なお、変形例として、例えば、ファシリテーションを行う役割の地点の出力制御部108は、現在通信中の全ての他地点の個々のユーザに関して、常に、当該ユーザの全ての情報を反映させた表示態様で当該ユーザの手の画像を表示させてもよい。
<11−2.効果>
以上説明したように、第10の実施形態によれば、他地点のユーザとの親交度に応じて、当該他地点のユーザに開示される情報量(情報の種類など)を増減させることができる。その結果、各ユーザが当該システムをより気軽に利用できることが期待できる。
<<12.第11の実施形態>>
以上、第10の実施形態について説明した。次に、本開示に係る第11の実施形態について説明する。
第11の実施形態では、各地点において、入力部120はマイクロフォン(音声入力装置)を一台のみ含み、かつ、出力部124はスピーカー(音声出力装置)を一台のみ含むことを想定する。この場合、仮に、通信中の複数の他の地点に位置するユーザが同時に発話したことが検出される場合には、出力部124は、当該発話された音を同時に出力し得る。その結果、どの地点のどのユーザが現在話しているかを、自地点のユーザは分からなくなり得る。
後述するように、第11の実施形態によれば、他地点のユーザの発話の収音結果に応じて、当該他地点のユーザの手の画像の表示態様を変更することができる。
<12−1.構成>
{12−1−1.情報生成再現規則DB130}
第11の実施形態に係る情報生成再現規則DB130では、図11に示した登録内容に加えて、図41に示した登録内容がさらに追加され得る。
{12−1−2.情報生成部102}
第11の実施形態に係る情報生成部102は、入力部120により取得されたユーザの発話の収音結果を当該ユーザに対応する伝達情報内にさらに格納する。
{12−1−3.出力制御部108}
第11の実施形態に係る出力制御部108は、他地点から取得される伝達情報に含まれるユーザの発話の収音結果に応じて、当該ユーザの手の画像の表示態様を変更する。例えば、図41に示したように、出力制御部108は、収音された発話の音量に応じて、当該ユーザの手の画像の透明度や表示色を変化させてもよい。
または、図42に示したように、出力制御部108は、一定以上の音量の発話が収音されたタイミングにおいて、当該発話をしたユーザに対応する手の画像(図42に示した例では画像30a)を点滅させてもよい。
<12−2.効果>
以上説明したように、第11の実施形態によれば、他地点のユーザの発話の収音結果に応じて、当該他地点のユーザの手の画像の表示態様を変更することができる。このため、例えば「コレを見て下さい」などの代名詞を用いて他地点のユーザが発話した場合であっても、当該ユーザがどのオブジェクト(項目等)をポインティングしているのかを、自地点のユーザは容易に理解することができる。
また、音の強弱や発話のタイミングを反映して該当の画像の表示を変化させることができる。従って、例えば図42に示したように、複数の他地点のユーザと同時にコミュニケーションをしている場面であっても、現在出力されている発話と、当該発話者(他地点のユーザ)に対応する手の画像との関係を、自地点のユーザは容易に理解することができる。
<<13.第12の実施形態>>
以上、第11の実施形態について説明した。次に、本開示に係る第12の実施形態について説明する。第12の実施形態では、各地点において、入力部120はマイクロフォン(音声入力装置)を複数台含むことを想定する。例えば、当該複数のマイクロフォンは、マイクアレイとして構成されている。また、各地点において、主に複数のユーザが位置することを想定する。
後述するように、第12の実施形態によれば、他地点においてセンシングされた音量の空間的分布に応じて、当該他地点のユーザの手の画像の表示態様を変更することができる。
<13−1.構成>
{13−1−1.情報生成再現規則DB130}
第12の実施形態に係る情報生成再現規則DB130では、図11に示した登録内容に加えて、図43に示した登録内容がさらに追加され得る。
{13−1−2.情報生成部102}
第12の実施形態に係る情報生成部102は、入力部120によりセンシングされた(自地点における)音量の空間的分布を示す情報を伝達情報内にさらに格納する。
{13−1−3.出力制御部108}
第12の実施形態に係る出力制御部108は、他地点から取得された伝達情報に含まれる、当該他地点においてセンシングされた音量の空間的分布を示す情報と、当該伝達情報に基づいて特定された、当該伝達情報に対応するユーザの腕位置とに応じて、当該ユーザの発話状況を示す画像をスクリーン20上にさらに表示させることが可能である。
ここで、図44A〜図44Cを参照して、上記の機能についてより詳細に説明する。例えば、他地点の音量の空間的分布を示す情報に基づいて、図44Aに示したような音量の分布46が特定されたとする。図44Aでは、図44Aの右下側に対応する方向から到来した音の大きさが、他の方向と比べて大きいことを示している。また、図44Bは、図44Aに示したタイミングにおける当該他地点の一人のユーザに対応する伝達情報に基づいて特定された、自地点における当該ユーザの指位置、手位置、および、腕位置の例を示している。なお、図44Bでは、一人のユーザの手のみを示しているが、かかる例に限定されず、当該他地点には複数のユーザが同時に位置し得る。
この場合、例えば、出力制御部108は、まず、図44Aに示した音量の分布46に基づいて、発話者の方向(および位置)を特定する。次に、出力制御部108は、取得された個々の伝達情報から特定される個々のユーザの腕位置のうち、特定された発話者の方向に最も近い腕位置に対応するユーザを当該発話者として特定する。そして、図44Cに示したように、出力制御部108は、当該発話者の腕位置に対応する部分のみに、発話中であることを示すエフェクト48を重畳して表示させる。
変形例として、出力制御部108は、エフェクト48を表示させる代わりに(あるいは、加えて)、当該発話者の手の画像の透明度や表示色を変化させてもよいし、または、当該発話者の手の画像を点滅させてもよい。
<13−2.効果>
以上説明したように、第12の実施形態によれば、他地点においてセンシングされた音量の空間的分布に応じて、当該他地点のユーザの手の画像の表示態様を変更することができる。
<<14.第13の実施形態>>
以上、第12の実施形態について説明した。次に、本開示に係る第13の実施形態について説明する。第13の実施形態では、(第12の実施形態と同様に)各地点において、入力部120はマイクロフォン(音声入力装置)を複数台含むことを想定する。
後述するように、第13の実施形態によれば、他地点のユーザの発話の音声認識結果を当該ユーザの手の画像とともにスクリーン20上に表示させることができる。
<14−1.構成>
{14−1−1.情報生成再現規則DB130}
第13の実施形態に係る情報生成再現規則DB130では、図11に示した登録内容に加えて、図45に示した登録内容がさらに追加され得る。
{14−1−2.情報生成部102}
第13の実施形態に係る情報生成部102は、入力部120により取得されたユーザの発話の収音結果を音声認識し得る。そして、情報生成部102は、入力部120によりセンシングされた(自地点における)音量の空間的分布を示す情報と、当該発話の音声認識結果の文字列と、収音された音データとを伝達情報内にさらに格納する。
{14−1−3.出力制御部108}
(14−1−3−1.表示例1)
第13の実施形態に係る出力制御部108は、他地点から取得された伝達情報に含まれる発話の音声認識結果の文字列を、当該伝達情報に対応するユーザの手の画像と関連付けてスクリーン20に表示させる。例えば、出力制御部108は、取得された伝達情報に基づいて特定される、ユーザの発話時において、当該発話の音声認識結果の文字列を当該ユーザの手の画像と関連付けてスクリーン20に表示させる。
一例として、出力制御部108は、まず、取得された伝達情報に含まれる、センシングされた音量の空間的分布を示す情報に基づいて、当該伝達情報に対応するユーザが発話しているか(または直前に発話したか)否かを判定する。そして、当該ユーザが発話していると判定された際には、出力制御部108は、例えば図46Aに示したように、当該伝達情報に含まれる当該発話の音声認識結果の文字列50を、自地点における当該ユーザの腕位置付近に表示させる。
または、出力制御部108は、当該ユーザのポインティング位置に対応するオブジェクトと関連付けて、当該発話の音声認識結果の文字列を表示させてもよい。例えば、出力制御部108は、当該ユーザのポインティング先のオブジェクトの近辺に、当該発話の音声認識結果の文字列を表示させてもよい。
(14−1−3−2.表示例2)
さらに、出力制御部108は、当該音声認識結果の文字列に対する形態素解析の結果から得られる一以上のキーワード(例えば名詞など)をタグ情報としてスクリーン20上にさらに表示させてもよい。例えば、出力制御部108は、まず、当該音声認識結果の文字列に対する形態素解析を行う。そして、図46Bに示したように、出力制御部108は、当該音声認識結果の文字列50、および、当該形態素解析の結果から得られた一以上のキーワード52を、当該ユーザのポインティング先のオブジェクト32と関連付けて表示させてもよい。
さらに、出力制御部108は、当該音声認識結果の文字列に対する形態素解析の結果から得られる一以上のキーワード(タグ情報)を他の各種の情報と関連付けて記憶部128に格納してもよい。当該他の各種の情報は、例えば、当該音声認識結果、該当の発話を行ったユーザの識別情報、当該ユーザが発話時にポインティングしていたオブジェクトの識別情報、該当の発話の日時情報、または、該当のコミュニケーション時の音声バイナリデータなどを含んでもよい。
これにより、これらの情報を会議の議事録として活用することができる。また、会議の録画データ(または録音データ)を再生して当該会議を振り返る場面において、当該録画データとともにタグ情報を表示することができるので、臨場感が向上し得る。さらに、タグ情報や他の種類の情報をキーにして検索を行うことも可能であるので、後に、所望の会議の録画データを検索したり、または、ある録画データのうち所望の再生タイミングを検索することが可能となる。
<14−2.効果>
以上説明したように、第13の実施形態によれば、他地点のユーザの発話の音声認識結果を、当該他地点のユーザの手の画像とともに表示させることができる。
<<15.第14の実施形態>>
以上、第13の実施形態について説明した。次に、本開示に係る第14の実施形態について説明する。第14の実施形態では、各地点において、入力部120はマイクロフォン(音声入力装置)を複数台含み、かつ、出力部124はスピーカー(音声出力装置)を複数台含むことを想定する。
後述するように、第14の実施形態によれば、他地点において収音されたユーザの発話の音像を、自地点における当該ユーザの腕位置付近に定位させることができる。
<15−1.構成>
{15−1−1.情報生成再現規則DB130}
第14の実施形態に係る情報生成再現規則DB130では、図11に示した登録内容に加えて、図47に示した登録内容がさらに追加され得る。
{15−1−2.情報生成部102}
第14の実施形態に係る情報生成部102は、(第13の実施形態と同様に)入力部120によりセンシングされた(自地点における)音量の空間的分布を示す情報と、収音された音データとを伝達情報内にさらに格納する。
{15−1−3.出力制御部108}
第14の実施形態に係る出力制御部108は、取得された伝達情報に含まれる、センシングされた音量の空間的分布を示す情報に基づいて、当該伝達情報に含まれる音データを、出力部124に含まれる複数のマイクロフォンに出力させる。例えば、出力制御部108は、図48に示したように、当該音量の空間的分布を示す情報が示す音量強度が最も大きい方向(角度)に当該発話の音を定位させるように、当該複数のマイクロフォンの出力を制御する。これにより、当該他地点においてユーザが発話した向きと同じ向きから、自地点において当該発話の音が聞こえるような表現を実現することができる。
<15−2.効果>
以上説明したように、第14の実施形態によれば、他地点において収音されたユーザの発話の音像を、自地点における当該ユーザの腕位置付近に定位させることができる
<<16.第15の実施形態>>
以上、第14の実施形態について説明した。次に、本開示に係る第15の実施形態について説明する。後述するように、第15の実施形態によれば、いずれかの他地点のユーザが発話したことが検出された際に、当該他地点において配置されたオブジェクトを強調して表示させることができる。例えば当該オブジェクトをフォーカスして表示させることができる。
第15の実施形態では、地点ごとに当該地点内のユーザが予め配置したオブジェクトが記憶されていることを想定する。例えば、図50Aに示したように、地点Aにおいて付箋32aがスクリーン20‐1上に予め配置された場合には、地点Aと付箋32aとが関連付けて例えば記憶部128内に記憶される。また、図50Bに示したように、地点Bにおいて付箋32bおよび付箋32cがスクリーン20‐2上に予め配置された場合には、地点Bと、付箋32bおよび付箋32cとが関連付けて例えば記憶部128内に記憶される。
<16−1.構成>
{16−1−1.情報生成再現規則DB130}
第15の実施形態に係る情報生成再現規則DB130では、図11に示した登録内容に加えて、図49に示した登録内容がさらに追加され得る。
{16−1−2.情報生成部102}
第15の実施形態に係る情報生成部102は、(第11の実施形態と同様に)入力部120により取得されたユーザの発話の収音結果を当該ユーザに対応する伝達情報内にさらに格納する。
{16−1−3.出力制御部108}
第15の実施形態に係る出力制御部108は、例えば現在通信中の複数の他地点の各々から取得された伝達情報に基づいて、当該伝達情報に対応するユーザが発話したことが特定された際には、記憶部128に記憶されている、当該伝達情報に対応する地点において予め配置されたオブジェクト(および/または、当該他地点のユーザの手の画像)を強調して表示させる。例えば、「地点A」内のユーザが発話したことが検出された際には、出力制御部108は、図50Cに示したように、「地点A」において予め配置された付箋32aの画像をそのまま表示させ、かつ、その他のオブジェクト(図50Cに示した例では付箋32bおよび付箋32c)の画像をぼかして表示させてもよい。または、出力制御部108は、その他のオブジェクトの画像をそのまま表示させながら、付箋32aの画像をより強調して表示させてもよい(例えば点滅させたり、輝度を上げるなど)。
<16−2.効果>
以上説明したように、第15の実施形態によれば、いずれかの他地点のユーザが発話したことが検出された際に、当該他地点において配置されたオブジェクトを強調して表示させることができる。
例えば、議論の途中において「さっきのコレが」など、言葉が不足して発話された場合であっても、当該発話者の地点において配置されたオブジェクトが強調して表示され得るので、当該ユーザの発話の意図が理解しやすい。例えば、過去の議論において当該地点のユーザがどのような意図で該当のオブジェクトを配置したのかを他の地点のユーザは容易に理解することができる。このため、例えば全てのオブジェクトが一様に表示される場合と比べて、コンテキストを補いながらユーザはディスカッションすることができる。
<<17.第16の実施形態>>
以上、第15の実施形態について説明した。次に、本開示に係る第16の実施形態について説明する。後述するように、第16の実施形態によれば、ユーザがオブジェクトをポインティングした回数に応じて、当該オブジェクトに対応する画像の表示態様を変更することができる。
<17−1.構成>
{17−1−1.処理部100}
第16の実施形態に係る処理部100は、スクリーン上に配置(または表示)されているオブジェクトごとに、少なくとも一人のユーザが当該オブジェクトをポインティングした回数を記録し、そして、当該回数を例えば記憶部128に保存する。
{17−1−2.出力制御部108}
第16の実施形態に係る出力制御部108は、オブジェクトごとの、当該オブジェクトがポインティングされた累計回数に応じて、当該オブジェクトに対応する画像の表示態様を変更する。例えば、出力制御部108は、ポインティングされた回数が多いオブジェクトほど目立たせるように、個々のオブジェクトに対応する画像の表示態様を変更する。
ここで、図51A〜図51Cを参照して、上記の機能についてより詳細に説明する。図51A〜図51Cでは、スクリーン20上に3個の付箋32(オブジェクト)が配置されており、かつ、当該3個の付箋32のうち付箋32bに対するポインティングの累計回数が最も多い例を示している。例えば、図51Aの右図に示したように、出力制御部108は、個々の付箋32に関して、ユーザが当該付箋32をポインティングした累計回数が多いほど、当該付箋32に対応する画像の表示サイズを大きくしてもよい。
または、図51Bの右図に示したように、出力制御部108は、個々の付箋32に関して、ユーザが当該付箋32をポインティングした累計回数に応じて当該付箋32を光らせてもよい。例えば、出力制御部108は、ユーザがポインティングした累計回数が所定の回数以上である付箋32だけを光らせてもよい。
または、図51Cの右図に示したように、出力制御部108は、個々の付箋32に関して、ユーザが当該付箋32をポインティングした累計回数が多いほど、当該付箋32に記載されている個々の文字をより太く表示させたり、または、より大きく表示させてもよい。
<17−2.効果>
以上説明したように、第16の実施形態によれば、ユーザがオブジェクトをポインティングした回数に応じて、当該オブジェクトに対応する画像の表示態様を変更することができる。これにより、個々のオブジェクトに対応する画像を見るだけで、ユーザは、個々のオブジェクトの重要度を把握することができる。
<<18.第17の実施形態>>
以上、第16の実施形態について説明した。次に、本開示に係る第17の実施形態について説明する。後述するように、第17の実施形態によれば、他地点のスクリーン上に配置(または表示)されているオブジェクトに対応する画像を自地点のスクリーン上に表示させる際に、自地点のユーザの属性情報に応じて当該画像の表示態様を適切に変更することができる。
ここで、ユーザの属性情報は、例えば、ユーザの年齢、性別、国籍、または、使用言語などを含む。なお、各実施形態に係る情報処理システム10の利用開始時に個々のユーザにより自分の属性情報が予め登録されてもよい。または、処理部100は、個々のユーザの発話内容や声質などの認識結果に基づいて、個々のユーザの年齢や国籍を推定してもよい。または、処理部100は、個々のユーザの手や腕の大きさなどの認識結果に基づいて、個々のユーザの年齢や性別を推定してもよい。
<18−1.構成>
{18−1−1.出力制御部108}
第17の実施形態に係る出力制御部108は、他地点のスクリーン上に配置(または表示)されているオブジェクトに対応する画像を自地点のスクリーン上に表示させる際に、自地点のユーザの属性情報に応じて当該画像の表示態様を変更する。
ここで、図52A〜図52Dを参照して、上記の機能についてより詳細に説明する。図52A〜図52Dでは、他地点(「地点A」)のスクリーン20上に3個の付箋32(オブジェクト)が表示されており、かつ、当該3個の付箋32の各々に対応する画像を自地点(「地点B」、「地点C」、「地点D」、または「地点E」)のスクリーン20上に表示させる例を示している。例えば、図52Aに示したように、出力制御部108は、「地点A」のスクリーン20上に表示されている個々の付箋32に関して、自地点(「地点B」)に位置する一以上のユーザの位置に応じて、当該付箋32に対応する画像の表示方向を回転させてもよい。
または、出力制御部108は、当該オブジェクト内に記載されている文字列を自地点のユーザの知識レベルや認識レベルに応じて変換し、そして、変換後の画像を自地点のスクリーン上に表示させてもよい。例えば、自地点(「地点C」)のユーザが子どもである場合には、図52Bに示したように、出力制御部108は、「地点A」のスクリーン20上に表示されている個々の付箋32に関して、当該付箋32に記載されている文字列を、同一の言語の、子ども向けの文字列に変換し、そして、変換後の文字列を含む画像を自地点のスクリーン上に表示させてもよい。図52Bでは「片仮名」の文字列が「ひらがな」の文字列に変換された例を示している。
または、自地点(「地点C」)のユーザが高齢者である場合には、図52Cに示したように、出力制御部108は、「地点A」のスクリーン20上に表示されている個々の付箋32に関して、当該付箋32内の個々の文字をより太くされたり、または、より拡大された画像を自地点のスクリーン上に表示させてもよい。
または、図52Dに示したように、出力制御部108は、「地点A」のスクリーン20上に表示されている付箋32に関して、当該付箋32に記載されている文字列を、自地点(「地点D」)のユーザの使用言語(図52Dに示した例では「英語」)に翻訳し、そして、翻訳語の文字列を含む画像を自地点のスクリーン上に表示させてもよい。
<18−2.効果>
以上説明したように、第17の実施形態によれば、他地点のスクリーン上に配置(または表示)されているオブジェクトに対応する画像を自地点のスクリーン上に表示させる際に、自地点のユーザの属性情報に応じて当該画像の表示態様を適切に変更することができる。これにより、例えば、異なる地点間の会議時において、地点ごとのユーザの知識レベルや認識レベルが異なっていたり、または、使用言語が異なる場合であっても、上記の処理がリアルタイムに行わることにより、各ユーザはストレスなくディスカッションすることができる。
<<19.第18の実施形態>>
以上、第17の実施形態について説明した。次に、本開示に係る第18の実施形態について説明する。後述するように、第18の実施形態によれば、異なる地点間の議論の記録データを時間方向または空間方向に分割したり、結合することができる。
第18の実施形態では、異なる地点間で議論が行われる際に、処理部100は、当該議論中の各ユーザの手指の動きの情報と、スクリーン20上に配置(または表示)されている個々のオブジェクトの情報とを例えば定期的に記憶部128に記録する。
<19−1.時間方向の結合>
ここで、図53A〜図53Dを参照して、第18の実施形態に係る異なる地点間の議論の記録データを時間方向に分割および結合する例について説明する。図53Aおよび図53Bは、複数の地点間で行われた議論中に取得された、当該複数の地点のスクリーン20上に配置されている個々のオブジェクト32の位置関係の例を示した図である。例えば、図53Aは、当該議論の開始時のオブジェクト32の位置関係を示している。また、図53Bは、当該議論の終了時のオブジェクト32の位置関係を示している。
その後、ユーザは、時間を遡ること(例えば記録された映像を再生するなど)により、議論をやり直すことが可能である。そして、議論をやり直した結果、図53Bのタイミングにおけるスクリーン20の状態が(図53Bの代わりに)図53Cに示したような状態に変化したとする。この場合、一回目の議論の記録データと、二回目の議論の記録データとから所望な箇所だけをユーザはそれぞれ抽出し、そして、例えば図53Dに示したように、抽出したデータ同士を合成することが可能である。
または、議論に参加していないユーザも当該議論の内容を後で参照することができ、臨場感高く議論を追体験することができる。その際、再生スピードを調整することもできる。また、第18の実施形態によれば、各ユーザの手指の動きの情報と、スクリーン20上に配置(または表示)されている個々のオブジェクトの情報とだけを保存するだけでよく、例えば議論の内容を映像として保存する必要がない。このため、記録されるデータ量を抑制することができる。
<19−2.空間方向の結合>
次に、図54A〜図54Dを参照して、第18の実施形態に係る異なる地点間の議論の記録データを空間方向に分割および結合する例について説明する。例えば、まず、複数の地点間で一緒に議論を行う。図54Bは、当該複数の地点間で行われた議論中に取得された、当該複数の地点のスクリーン20上に配置されている個々のオブジェクト32の位置関係の例を示した図である。
その後、例えば地点ごとや、所定のグループごとに分かれて、当該議論中に取得された記録データを利用しながらそれぞれ議論を行うことが可能である。例えば、「グループA」と「グループB」とに分かれ、そして、各グループで議論を行う。その結果、「グループA」では、例えば図54Aのタイミングにおけるスクリーン20の状態が(図54Aの代わりに)図54Bに示したような状態に変化したとする。また、「グループB」では、例えば図54Aのタイミングにおけるスクリーン20の状態が(図54Aの代わりに)図54Cに示したような状態に変化したとする。
この場合、ユーザは「グループA」の議論の記録データと、「グループB」の議論の記録データとを持ち寄ることにより、例えば図54Dに示したような合成データを得ることができる。さらに、各グループの議論の結果を比較することもできる。
{19−2−1.変形例}
さらに、合成された記録データに関して、出力制御部108は、各オブジェクトを操作したグループや、オブジェクトごとの重要度などに応じて、各オブジェクトに対応する画像の表示態様を変更してもよい。例えば、出力制御部108は、より多くのグループで重要と判断されたオブジェクトの画像を、他のオブジェクトの画像よりも強調して表示させてもよい。
<19−3.効果>
以上説明したように、第18の実施形態によれば、異なる地点間の議論の記録データを時間方向または空間方向に分割したり、結合することができる。
<<20.第19の実施形態>>
以上、第18の実施形態について説明した。次に、本開示に係る第19の実施形態について説明する。後述するように、第19の実施形態によれば、異なる地点間でコミュニケーションを行う場面において、自地点の情報を所望のタイミングだけ他地点と共有したり、または、所望のタイミングだけ他地点と共有しないようにユーザがコントロールすることができる。
<20−1.構成>
{20−1−1.送信制御部104}
(20−1−1−1.共有されるオブジェクトの指示)
第19の実施形態に係る送信制御部104は、自地点のスクリーン20上に配置(または表示)されている一以上のオブジェクトのうち、ユーザにより指定されたオブジェクトの情報だけを他地点の情報処理システム10へ通信部126に送信させる。
ここで、図55Aおよび図55Bを参照して、上記の機能についてより詳細に説明する。図55Aは、自地点(「地点A」)のスクリーン20‐1の外観の例を示した図である。また、図55Bは、図55Aに示したタイミングにおける他地点(「地点B」)のスクリーン20‐2の外観の例を示した図である。
図55Aの右図に示したように、付箋32aが「地点B」と共有されていない状況において、例えば付箋32aをポインティングしながら「コレが」と発話することなどにより、付箋32aを「地点B」と共有するように自地点のユーザが指示したとする。この場合、送信制御部104は、まず、「地点Bと共有されるオブジェクト」のグループの中に付箋32aを追加する。そして、送信制御部104は、当該グループに含まれる個々のオブジェクトの情報(例えば撮像画像など)を「地点B」へ通信部126に送信させる。これにより、図55Bの右図に示したように、「地点B」のスクリーン20‐2b上には、付箋32aに対応する画像が新たに表示されるようになる。
この制御例によれば、例えば、他地点と共有することをユーザが指示していない全てのオブジェクト(例えば図55Aに示したコーヒーカップ32など)の情報は、当該他地点に表示されない。従って、自地点のテーブルが片付いていない場合であっても、ユーザは、抵抗感なく会議を行うことができる。そして、話題とすべき必要最小限のオブジェクトだけを他地点と共有して会議を行うことができる。
(20−1−1−2.共有される画面に関する指示)
さらに、送信制御部104は、他地点と共有される画面に関する表示指示情報を、ユーザの指定に基づいて当該他地点へ通信部126に送信させることが可能である。当該他地点と共有される画面は、自地点のスクリーン20の撮像画像に応じた画面であり得る。
例えば、図56Aに示したように、自地点のスクリーン20に表示されている、画面の共有を中断するためのGUIボタン70をユーザが押下している間は、送信制御部104は、当該他地点と共有される画面をぼやかして表示させるための表示指示情報を当該他地点へ通信部126に送信させる。これにより、図56Bに示したように、当該他地点では、当該画面がぼやけて表示される。
この制御例によれば、自地点のスクリーン20の映像を他地点と共有するタイミングをユーザが明示的に指示することができる。例えば、会議の途中において、他地点のユーザに見られたくない資料のみを共有しないように指示したり、または、他地点のユーザに聞かれたくない議論のみを共有しないように指示することができる。
<20−2.効果>
以上説明したように、第19の実施形態によれば、異なる地点間でコミュニケーションを行う場面において、自地点の情報を所望のタイミングだけ他地点と共有したり、または、所望のタイミングだけ他地点と共有しないようにユーザがコントロールすることができる。
<<21.第20の実施形態>>
以上、第19の実施形態について説明した。ところで、ある場所に位置するユーザが操作体(例えばユーザの手など)を操作する際に、当該操作体に対応する画像とともに、操作時の当該ユーザの撮像映像を別の場所に表示可能であると、臨場感がさらに向上し得る。
次に、本開示に係る第20の実施形態について説明する。後述するように、第20の実施形態によれば、ある場所に位置するユーザが操作体を操作する際に、当該操作体に対応する画像と、当該ユーザを含む空間の撮像映像とを別の場所に同時に表示させることが可能である。
<21‐1.システム>
まず、第20の実施形態に係るシステムの構成例について、図57および図58を参照して説明する。図57に示したように、第20の実施形態では、地点(場所)ごとに、情報処理システム10(図57では図示省略)およびテレプレゼンスシステム80が設置されていることを想定する。テレプレゼンスシステム80は、例えばビデオ会議システムである。
図58は、ある地点(「地点A」)における情報処理システム10およびテレプレゼンスシステム80の利用例を示した図である。図58に示した例では、3つの地点(「地点A」、「地点B」、および「地点C」)間で通信中であり、かつ、地点A内のユーザは、(情報処理システム10の)出力部124の手前に位置している。そして、出力部124は、(第1〜第19の実施形態と同様に)出力制御部108の制御に従って、他の各地点(地点Bおよび地点C)から取得された伝達情報に基づいて生成される画像を、地点A内のスクリーン20(例えばテーブル90の天板など)に表示している。
そして、例えば出力部124よりも後方に位置するスクリーン24(壁面など)には、地点Bから受信された、例えばリアルタイムに地点Bの内部が撮像された映像が、後述する出力部824aにより表示(例えば投影)されている。当該映像は、地点B内の一以上のユーザ(例えば当該ユーザの正面)および当該一以上のユーザの周囲の空間が撮像された映像であり得る。なお、スクリーン24は、本開示に係る第2の表示面の一例である。
さらに、図58に示したように、地点Cから受信された、例えばリアルタイムに地点Cの内部が撮像された映像が、例えば地点A内のユーザの横方向に配置されている出力部824bに表示されている。当該映像は、地点C内の一以上のユーザ(例えば当該ユーザの正面)および当該一以上のユーザの周囲の空間が撮像された映像であり得る。
上記の表示例によれば、地点A内のユーザは、スクリーン20に表示される地点Bおよび地点C内の各ユーザに対応する手の画像と、地点Bおよび地点C内の各ユーザが例えばリアルタイムに撮像された映像とを同時に見ることができる。このため、異なる地点間のユーザ同士で、さらに臨場感高くコミュニケーションを行うことができる。
<21‐2.構成>
以上、第20の実施形態に係るシステムの構成例について説明した。次に、第20の実施形態に係る機能構成について詳細に説明する。図59は、第20の実施形態に係る情報処理システム10およびテレプレゼンスシステム80の機能構成の例を示したブロック図である。なお、図59に示した機能構成を有する情報処理システム10およびテレプレゼンスシステム80は、各地点にそれぞれ設置され得る。
{21−2−1.情報処理システム10}
第20の実施形態に係る情報処理システム10の機能構成は、前述した第1〜第19の実施形態のうちの一以上と同様であり得る。例えば、第20の実施形態に係る情報処理システム10は、図1〜図56Bを参照して説明した全ての機能や処理を同様に実行可能であってよい。
例えば、図33等を参照して説明した第7の実施形態と同様に、出力制御部108は、現在通信中の複数の他の地点に位置する個々のユーザの手に対応する画像の表示位置を当該個々のユーザが位置する地点に応じて変更してもよい。図58に示した例では、出力制御部108は、テレプレゼンスシステム80により各地点に対応するスクリーン24の位置や、当該スクリーン24に表示される当該地点の撮像映像中の個々のユーザの表示位置に応じて、スクリーン20における当該ユーザに対応する手の画像の表示位置を決定(または変更)してもよい。例えば、出力制御部108は、各地点に対応するスクリーン24に表示される当該地点内の個々のユーザの表示位置と、スクリーン20に投影される当該ユーザに対応する手の画像の表示位置とが対応するように(例えば位置関係が整合するように)、スクリーン20における当該手の画像の表示位置を決定してもよい。
例えば、情報処理システム10は、スクリーン24に表示されている地点B内のユーザの手に対応する画像を、図58におけるスクリーン24の側を基準としてスクリーン20に表示してもよい。また、情報処理システム10は、出力部824bに表示されている地点C内のユーザの手に対応する画像を出力部824bの側を基準としてスクリーン20に表示してもよい。
{21−2−2.テレプレゼンスシステム80}
図59に示したように、第20の実施形態に係るテレプレゼンスシステム80は、処理部800、撮像部820、収音部822、出力部824、および、通信部826を含む。
(21−2−2−1.処理部800)
処理部800(出力制御部と称する場合もある)は、一または複数の処理回路(例えばCPUやGPUなど)を含んで構成され得る。処理部800は、テレプレゼンスシステム80を統括的に制御する。
例えば、処理部800は、一以上の他地点から受信される当該他地点の撮像映像および音声を出力部824に出力させる。一例として、図58に示したように、処理部800は、受信された一以上の他地点の撮像映像を、地点ごとに別々の出力部824に表示(例えば投影など)させる。
また、処理部800は、例えば撮像部820によりリアルタイムに撮像された映像、および、収音部822によりリアルタイムに収音された音データを、例えば現在通信中の他の全ての地点へ通信部826に逐次送信させる。
(21−2−2−2.撮像部820)
撮像部820は、外光をレンズを通して例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子に結像させることにより、画像(動画像など)を撮影する。例えば、撮像部820は、自地点(つまり、該当のテレプレゼンスシステム80が設置されている地点)に位置する一以上のユーザの外観および当該一以上のユーザの周囲の空間を撮像する。
さらに、撮像部820は、例えば2つのレンズを用いて撮像することにより奥行き方向の情報を記録可能なステレオカメラを含んでもよい。
(21−2−2−3.収音部822)
収音部822は、例えばマイクロフォン等の音声入力装置から構成される。収音部822は、自地点で発せられる音(例えば自地点内のユーザの発話など)を収音する。
(21−2−2−4.出力部824)
出力部824は、例えばプロジェクタ、LCD、または、OLEDなどの表示装置を含み得る。さらに、出力部824は、例えばスピーカーなどの音声出力装置を含み得る。出力部824は、処理部800の制御に従って、映像を表示(投影など)したり、音を出力する。
(21−2−2−5.通信部826)
通信部826は、他地点のテレプレゼンスシステム80との間で各種の情報を送受信する。例えば、通信部826は、処理部800の制御に従って、撮像部820により撮像された映像や、収音部822により収音された音データなどを他地点のテレプレゼンスシステム80へ送信する。また、通信部826は、他地点で撮影された映像などを当該他地点のテレプレゼンスシステム80から受信する。
{21−2−3.変形例}
なお、第20の実施形態に係る機能構成は、前述した例に限定されない。例えば、情報処理システム10とテレプレゼンスシステム80とは別々に設けられる代わりに、一体的に構成されてもよい。一例として、処理部800が設けられる代わりに、前述した処理部800の全ての機能を処理部100が有してもよい。同様に、入力部120、撮像部820、および、収音部822は一体的に構成されてもよい。また、出力部124と出力部824とは一体的に構成されてもよい。また、通信部126と通信部826とは一体的に構成されてもよい。
<21‐3.効果>
以上説明したように、第20の実施形態によれば、ある場所に位置するユーザが操作体を操作する際に、当該操作体に対応する画像と、当該ユーザを含む空間の撮像映像とを別の場所に同時に表示させることが可能である。このため、異なる地点間のユーザ同士で、さらに臨場感高くコミュニケーションを行うことができる。
<<22.ハードウェア構成>>
以上、第20の実施形態について説明した。次に、各実施形態に共通する情報処理システム10のハードウェア構成について、図60を参照して説明する。図60に示すように、情報処理システム10は、CPU150、ROM(Read Only Memory)152、RAM(Random Access Memory)154、バス156、インターフェース158、入力装置160、出力装置162、ストレージ装置164、および、通信装置166を備える。
CPU150は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理システム10内の動作全般を制御する。また、CPU150は、情報処理システム10において処理部100および表示処理部122の機能を実現し得る。CPU150は、マイクロプロセッサなどのプロセッサにより構成され得る。
ROM152は、CPU150が使用するプログラムや演算パラメータなどの制御用データなどを記憶する。
RAM154は、例えば、CPU150により実行されるプログラムなどを一時的に記憶する。
バス156は、CPUバスなどから構成される。バス156は、CPU150、ROM152、および、RAM154を相互に接続する。
インターフェース158は、入力装置160、出力装置162、ストレージ装置164、および通信装置166をバス156と接続する。
入力装置160は、ユーザが情報を入力するための入力手段(例えばタッチパネル、ボタン、スイッチ、ダイヤル、レバー、または、マイクロフォンなど)を含む。さらに、入力装置160は、ユーザによる入力に基づいて入力信号を生成し、かつ、当該入力信号をCPU150に出力する入力制御回路などを含む。入力装置160は、情報処理システム10において入力部120の機能を実現し得る。
出力装置162は、例えば、プロジェクタ、液晶ディスプレイ装置、OLED(Organic Light Emitting Diode)装置、または、ランプなどの表示装置を含む。また、出力装置162は、スピーカーなどの音声出力装置を含む。出力装置162は、情報処理システム10において出力部124の機能を実現し得る。
ストレージ装置164は、データ格納用の装置である。ストレージ装置164は、例えば、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、または、記憶媒体に記録されたデータを削除する削除装置などを含む。ストレージ装置164は、情報処理システム10において記憶部128の機能を実現し得る。
通信装置166は、通信網22に接続するための通信デバイス等で構成された通信インターフェースである。また、通信装置166は、無線LAN対応通信装置、LTE(Long Term Evolution)対応通信装置、または有線による通信を行うワイヤー通信装置であってもよい。通信装置166は、情報処理システム10において通信部126の機能を実現し得る。
<<23.変形例>>
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
<23−1.変形例1>
各実施形態に係る情報処理システム10の構成は前述した例に限定されない。例えば、図9では、表示処理部122と処理部100とが別々に設けられる例を示したが、かかる例に限定されず、表示処理部122と処理部100とは一体的に構成されてもよい。
また、図9では、情報取得部106が処理部100に含まれる例を示したが、かかる例に限定されず、情報取得部106は、入力部120または表示処理部122と一体的に構成されてもよい。
<23−2.変形例2>
各実施形態に係る処理部100を含む装置(情報処理装置)は、入力部120、表示処理部122、または、出力部124のうちの一以上を含んでもよい。例えば、当該情報処理装置は、処理部100、表示処理部122、および、出力部124を含むプロジェクタであってもよい。
または、当該情報処理装置は、テーブル90と一体的に構成されてもよい。または、当該情報処理装置は、入力部120、表示処理部122、および、出力部124のうちの少なくとも一つと通信網22を介して接続されていてもよい。例えば、当該情報処理装置は、サーバ、汎用PC(Personal Computer)、タブレット型端末、ゲーム機、スマートフォンなどの携帯電話、携帯型音楽プレーヤ、テレビジョン受信機、例えばHMD(Head Mounted Display)、AR(Augmented Reality)グラス、または、スマートウォッチなどのウェアラブルデバイス、または、ロボットなどであってもよい。
<23−3.変形例3>
前述した処理の流れにおける各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並行的に又は個別的に処理されてもよい。また、記載されたステップのうちの一部が省略されたり、または、別のステップがさらに追加されてもよい。
また、前述した各実施形態によれば、CPU150、ROM152、およびRAM154などのハードウェアを、前述した各実施形態に係る情報処理システム10(特に処理部100)の各構成と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、当該コンピュータプログラムが記録された記憶媒体も提供される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
第1の場所に位置する第1のユーザに関連する操作体の操作に応じた、第2の場所に位置する第2のユーザとのコミュニケーションのための第1の伝達情報を取得する情報取得部と、
前記第1の伝達情報に基づいて特定される、前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる出力制御部と、
を備える、情報処理システム。
(2)
前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置との間の前記第1のユーザの第2の仮想的な位置が、前記第1の伝達情報に基づいてさらに特定され、
前記操作体に対応する画像は、前記第1のユーザの第2の仮想的な位置にさらに基づいて生成される、前記(1)に記載の情報処理システム。
(3)
前記情報取得部は、前記第1の場所内の表示面上に位置する少なくとも一つのオブジェクトのセンシング結果をさらに取得し、
前記出力制御部は、前記少なくとも一つのオブジェクトに対応する画像を前記第2の場所内の表示面にさらに表示させる、前記(2)に記載の情報処理システム。
(4)
前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
前記少なくとも一つのオブジェクトを移動させる操作が前記第1の伝達情報に基づいて特定された場合には、前記出力制御部は、前記少なくとも一つのオブジェクトに対応する画像の表示位置を、特定された前記操作に応じて移動させる、前記(3)に記載の情報処理システム。
(5)
前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
前記操作体のポインティング位置は、前記第1のユーザの手のポインティング位置であり、
前記第1の場所内の表示面上で前記第1のユーザの手がスライドされたことが前記第1の伝達情報に基づいて特定された場合には、前記出力制御部は、当該スライド中の前記第1のユーザの手のポインティング位置の軌跡を示す画像を前記第2の場所内の表示面にさらに表示させる、前記(2)または(3)に記載の情報処理システム。
(6)
前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
前記操作体のポインティング位置は、前記第1のユーザの手のポインティング位置であり、
前記第1のユーザの手のポインティング位置と、前記第1のユーザの第2の仮想的な位置と、前記第1のユーザの第1の仮想的な位置との関係が所定の関係になった場合には、前記第1のユーザの第1の仮想的な位置、および/または、前記第1のユーザの第2の仮想的な位置は、前記第1のユーザの手のポインティング位置に基づいて補正され、かつ、
前記出力制御部は、前記第1のユーザの手のポインティング位置と、補正後の前記第1のユーザの第2の仮想的な位置と、補正後の前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる、前記(2)〜(5)のいずれか一項に記載の情報処理システム。
(7)
前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
前記操作体のポインティング位置は、前記第1のユーザの手のポインティング位置であり、
前記第1のユーザの第2の仮想的な位置と前記第1のユーザの第1の仮想的な位置との距離が所定の距離よりも大きくなった場合には、前記第1のユーザの手のポインティング位置、および、前記第1のユーザの第2の仮想的な位置はそれぞれ、前記第1のユーザの第1の仮想的な位置に基づいて補正され、かつ、
前記出力制御部は、補正後の前記第1のユーザの手のポインティング位置と、補正後の前記第1のユーザの第2の仮想的な位置と、前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させ、かつ、
補正前の前記第1のユーザの手のポインティング位置を示す画像を前記操作体に対応する画像と関連付けて前記第2の場所内の表示面にさらに表示させる、前記(2)〜(6)のいずれか一項に記載の情報処理システム。
(8)
前記第1の伝達情報は、前記第1のユーザの属性情報をさらに含み、
前記出力制御部は、前記操作体に対応する画像の表示パラメータの値を前記第1のユーザの属性情報に応じて変更する、前記(2)〜(7)のいずれか一項に記載の情報処理システム。
(9)
前記情報取得部は、前記第1のユーザと前記第2のユーザとの親交度を示す情報をさらに取得し、
前記出力制御部は、前記操作体に対応する画像の表示態様を、前記第1のユーザと前記第2のユーザとの親交度に応じて変更する、前記(2)〜(8)のいずれか一項に記載の情報処理システム。
(10)
前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
前記第1の伝達情報は、前記第1の場所内の表示面を基準とした前記第1のユーザの手の高さのセンシング結果をさらに含み、
前記出力制御部は、前記操作体に対応する画像の表示パラメータの値を、前記第1のユーザの手の高さのセンシング結果に応じて変更する、前記(2)〜(9)のいずれか一項に記載の情報処理システム。
(11)
前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
前記操作体のポインティング位置は、前記第1のユーザの手のポインティング位置であり、
前記情報取得部は、前記第1の場所を含む、前記第2の場所以外の複数の場所に位置する複数のユーザの各々に関して、当該ユーザの手の操作に応じた前記第2のユーザとのコミュニケーションのための、当該ユーザに対応する伝達情報をさらに取得し、
前記複数のユーザの各々に関して、前記第2の場所における当該ユーザの手のポインティング位置と前記第2の場所における当該ユーザの第1の仮想的な位置とが、当該ユーザに対応する伝達情報に基づいて特定され、
前記出力制御部は、前記複数のユーザの各々に関して、当該ユーザの手のポインティング位置と前記第2の場所における当該ユーザの第1の仮想的な位置とに基づいて生成される、当該ユーザの手に対応する画像を前記第2の場所内の表示面に表示させ、かつ、
前記第2の場所における前記複数のユーザの各々の第1の仮想的な位置の関係が所定の関係になった場合には、前記出力制御部は、前記複数のユーザの各々に関して、当該ユーザの手に対応する画像の表示位置を当該ユーザが位置する場所に応じて変更する、前記(1)〜(10)のいずれか一項に記載の情報処理システム。
(12)
前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
前記操作体のポインティング位置は、前記第1のユーザの手のポインティング位置であり、
前記第1のユーザの第1の仮想的な位置と前記第2の場所における前記第2のユーザの位置との関係が所定の関係になった場合には、前記第1のユーザの第1の仮想的な位置は、前記第2のユーザの位置と前記第1のユーザの手のポインティング位置とに基づいて補正され、かつ、
前記出力制御部は、前記第1のユーザの手のポインティング位置と、補正後の前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる、前記(2)〜(11)のいずれか一項に記載の情報処理システム。
(13)
前記第1のユーザに関連する操作体は、前記第1のユーザが使用する操作用デバイスであり、
前記第2の場所における前記第1のユーザの第1の仮想的な位置は、前記第2の場所における前記操作体のポインティング位置に基づいて決定され、
前記操作体のポインティング位置が変更される場合には、前記第1のユーザの第1の仮想的な位置は、前記操作体のポインティング位置の変更量よりも小さい量だけ当該変更に追従して変更され、かつ、
前記出力制御部は、変更後の前記操作体のポインティング位置と、変更後の前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる、前記(2)〜(12)のいずれか一項に記載の情報処理システム。
(14)
前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
前記操作体に対応する画像は、前記第1のユーザの手を示す画像であり、
前記第1の伝達情報は、前記第1のユーザの発話の収音結果を含み、
前記出力制御部は、前記第1のユーザの手を示す画像の表示態様を前記第1のユーザの発話の収音結果に応じて変更する、前記(2)〜(13)のいずれか一項に記載の情報処理システム。
(15)
前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
前記操作体に対応する画像は、前記第1のユーザの手を示す画像であり、
前記第1の伝達情報は、前記第1の場所においてセンシングされた音量の空間的分布を示す情報をさらに含み、
前記出力制御部は、前記第1の場所においてセンシングされた音量の空間的分布と、前記第1のユーザの第1の仮想的な位置とに応じて、前記第1のユーザの発話状況を示す画像を前記第2の場所内の表示面にさらに表示させる、前記(2)〜(14)のいずれか一項に記載の情報処理システム。
(16)
前記第1の伝達情報は、前記第1のユーザの発話の収音結果を含み、
前記出力制御部は、前記第1のユーザの発話の収音結果に対する音声認識の結果を、前記操作体に対応する画像、または、前記第2の場所における前記操作体のポインティング位置と関連付けて前記第2の場所内の表示面にさらに表示させる、前記(2)〜(15)のいずれか一項に記載の情報処理システム。
(17)
前記第1の伝達情報は、前記第1のユーザの発話の収音結果と、前記第1の場所においてセンシングされた音量の空間的分布を示す情報とをさらに含み、
前記第2の場所には、複数の音声出力部が配置されており、
前記出力制御部は、さらに、前記第1の場所においてセンシングされた音量の空間的分布に応じて、前記第1のユーザの発話の収音結果を前記複数の音声出力部に出力させる、前記(2)〜(16)のいずれか一項に記載の情報処理システム。
(18)
前記第1の伝達情報は、前記第1のユーザの発話の収音結果を含み、
前記第1のユーザが発話したことが検出された際に、前記出力制御部は、前記第1の場所において配置された第1のオブジェクトに対応する画像の方が、前記第1の場所以外の場所において配置された第2のオブジェクトに対応する画像よりも視認性が高くなるように、前記第1のオブジェクトに対応する画像および前記第2のオブジェクトに対応する画像を前記第2の場所内の表示面に表示させる、前記(2)〜(17)のいずれか一項に記載の情報処理システム。
(19)
第1の場所に位置する第1のユーザに関連する操作体の操作に応じた、第2の場所に位置する第2のユーザとのコミュニケーションのための第1の伝達情報を取得することと、
前記第1の伝達情報に基づいて特定される、前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像をプロセッサが前記第2の場所内の表示面に表示させることと、
を含む、情報処理方法。
(20)
コンピュータを、
第1の場所に位置する第1のユーザに関連する操作体の操作に応じた、第2の場所に位置する第2のユーザとのコミュニケーションのための第1の伝達情報を取得する情報取得部と、
前記第1の伝達情報に基づいて特定される、前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる出力制御部、
として機能させるためのプログラム。
(21)
第1の場所に位置する第1のユーザに関連する操作体の操作に応じた、第2の場所に位置する第2のユーザとのコミュニケーションのための第1の伝達情報と、前記操作体の操作時を含む期間において撮像された、前記第1のユーザを含む空間の撮像映像とを取得する情報取得部と、
前記第1の伝達情報に基づいて特定される、前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の第1の表示面に表示させ、かつ、
前記撮像映像を前記第2の場所内の第2の表示面に表示させる出力制御部と、
を備える、情報処理システム。
10 情報処理システム
20 スクリーン
22 通信網
90 テーブル
100 処理部
102 情報生成部
104 送信制御部
106 情報取得部
108 出力制御部
120 入力部
122 表示処理部
124 出力部
126 通信部
128 記憶部
130 情報生成再現規則DB
132 情報適合規則DB

Claims (20)

  1. 第1の場所に位置する第1のユーザに関連する操作体の操作に応じた、第2の場所に位置する第2のユーザとのコミュニケーションのための第1の伝達情報を取得する情報取得部と、
    前記第1の伝達情報に基づいて特定される、前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる出力制御部と、
    を備える、情報処理システム。
  2. 前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置との間の前記第1のユーザの第2の仮想的な位置が、前記第1の伝達情報に基づいてさらに特定され、
    前記操作体に対応する画像は、前記第1のユーザの第2の仮想的な位置にさらに基づいて生成される、請求項1に記載の情報処理システム。
  3. 前記情報取得部は、前記第1の場所内の表示面上に位置する少なくとも一つのオブジェクトのセンシング結果をさらに取得し、
    前記出力制御部は、前記少なくとも一つのオブジェクトに対応する画像を前記第2の場所内の表示面にさらに表示させる、請求項2に記載の情報処理システム。
  4. 前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
    前記少なくとも一つのオブジェクトを移動させる操作が前記第1の伝達情報に基づいて特定された場合には、前記出力制御部は、前記少なくとも一つのオブジェクトに対応する画像の表示位置を、特定された前記操作に応じて移動させる、請求項3に記載の情報処理システム。
  5. 前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
    前記操作体のポインティング位置は、前記第1のユーザの手のポインティング位置であり、
    前記第1の場所内の表示面上で前記第1のユーザの手がスライドされたことが前記第1の伝達情報に基づいて特定された場合には、前記出力制御部は、当該スライド中の前記第1のユーザの手のポインティング位置の軌跡を示す画像を前記第2の場所内の表示面にさらに表示させる、請求項2に記載の情報処理システム。
  6. 前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
    前記操作体のポインティング位置は、前記第1のユーザの手のポインティング位置であり、
    前記第1のユーザの手のポインティング位置と、前記第1のユーザの第2の仮想的な位置と、前記第1のユーザの第1の仮想的な位置との関係が所定の関係になった場合には、前記第1のユーザの第1の仮想的な位置、および/または、前記第1のユーザの第2の仮想的な位置は、前記第1のユーザの手のポインティング位置に基づいて補正され、かつ、
    前記出力制御部は、前記第1のユーザの手のポインティング位置と、補正後の前記第1のユーザの第2の仮想的な位置と、補正後の前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる、請求項2に記載の情報処理システム。
  7. 前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
    前記操作体のポインティング位置は、前記第1のユーザの手のポインティング位置であり、
    前記第1のユーザの第2の仮想的な位置と前記第1のユーザの第1の仮想的な位置との距離が所定の距離よりも大きくなった場合には、前記第1のユーザの手のポインティング位置、および、前記第1のユーザの第2の仮想的な位置はそれぞれ、前記第1のユーザの第1の仮想的な位置に基づいて補正され、かつ、
    前記出力制御部は、補正後の前記第1のユーザの手のポインティング位置と、補正後の前記第1のユーザの第2の仮想的な位置と、前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させ、かつ、
    補正前の前記第1のユーザの手のポインティング位置を示す画像を前記操作体に対応する画像と関連付けて前記第2の場所内の表示面にさらに表示させる、請求項2に記載の情報処理システム。
  8. 前記第1の伝達情報は、前記第1のユーザの属性情報をさらに含み、
    前記出力制御部は、前記操作体に対応する画像の表示パラメータの値を前記第1のユーザの属性情報に応じて変更する、請求項2に記載の情報処理システム。
  9. 前記情報取得部は、前記第1のユーザと前記第2のユーザとの親交度を示す情報をさらに取得し、
    前記出力制御部は、前記操作体に対応する画像の表示態様を、前記第1のユーザと前記第2のユーザとの親交度に応じて変更する、請求項2に記載の情報処理システム。
  10. 前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
    前記第1の伝達情報は、前記第1の場所内の表示面を基準とした前記第1のユーザの手の高さのセンシング結果をさらに含み、
    前記出力制御部は、前記操作体に対応する画像の表示パラメータの値を、前記第1のユーザの手の高さのセンシング結果に応じて変更する、請求項2に記載の情報処理システム。
  11. 前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
    前記操作体のポインティング位置は、前記第1のユーザの手のポインティング位置であり、
    前記情報取得部は、前記第1の場所を含む、前記第2の場所以外の複数の場所に位置する複数のユーザの各々に関して、当該ユーザの手の操作に応じた前記第2のユーザとのコミュニケーションのための、当該ユーザに対応する伝達情報をさらに取得し、
    前記複数のユーザの各々に関して、前記第2の場所における当該ユーザの手のポインティング位置と前記第2の場所における当該ユーザの第1の仮想的な位置とが、当該ユーザに対応する伝達情報に基づいて特定され、
    前記出力制御部は、前記複数のユーザの各々に関して、当該ユーザの手のポインティング位置と前記第2の場所における当該ユーザの第1の仮想的な位置とに基づいて生成される、当該ユーザの手に対応する画像を前記第2の場所内の表示面に表示させ、かつ、
    前記第2の場所における前記複数のユーザの各々の第1の仮想的な位置の関係が所定の関係になった場合には、前記出力制御部は、前記複数のユーザの各々に関して、当該ユーザの手に対応する画像の表示位置を当該ユーザが位置する場所に応じて変更する、請求項1に記載の情報処理システム。
  12. 前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
    前記操作体のポインティング位置は、前記第1のユーザの手のポインティング位置であり、
    前記第1のユーザの第1の仮想的な位置と前記第2の場所における前記第2のユーザの位置との関係が所定の関係になった場合には、前記第1のユーザの第1の仮想的な位置は、前記第2のユーザの位置と前記第1のユーザの手のポインティング位置とに基づいて補正され、かつ、
    前記出力制御部は、前記第1のユーザの手のポインティング位置と、補正後の前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる、請求項2に記載の情報処理システム。
  13. 前記第1のユーザに関連する操作体は、前記第1のユーザが使用する操作用デバイスであり、
    前記第2の場所における前記第1のユーザの第1の仮想的な位置は、前記第2の場所における前記操作体のポインティング位置に基づいて決定され、
    前記操作体のポインティング位置が変更される場合には、前記第1のユーザの第1の仮想的な位置は、前記操作体のポインティング位置の変更量よりも小さい量だけ当該変更に追従して変更され、かつ、
    前記出力制御部は、変更後の前記操作体のポインティング位置と、変更後の前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる、請求項2に記載の情報処理システム。
  14. 前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
    前記操作体に対応する画像は、前記第1のユーザの手を示す画像であり、
    前記第1の伝達情報は、前記第1のユーザの発話の収音結果を含み、
    前記出力制御部は、前記第1のユーザの手を示す画像の表示態様を前記第1のユーザの発話の収音結果に応じて変更する、請求項2に記載の情報処理システム。
  15. 前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
    前記操作体に対応する画像は、前記第1のユーザの手を示す画像であり、
    前記第1の伝達情報は、前記第1の場所においてセンシングされた音量の空間的分布を示す情報をさらに含み、
    前記出力制御部は、前記第1の場所においてセンシングされた音量の空間的分布と、前記第1のユーザの第1の仮想的な位置とに応じて、前記第1のユーザの発話状況を示す画像を前記第2の場所内の表示面にさらに表示させる、請求項2に記載の情報処理システム。
  16. 前記第1の伝達情報は、前記第1のユーザの発話の収音結果を含み、
    前記出力制御部は、前記第1のユーザの発話の収音結果に対する音声認識の結果を、前記操作体に対応する画像、または、前記第2の場所における前記操作体のポインティング位置と関連付けて前記第2の場所内の表示面にさらに表示させる、請求項2に記載の情報処理システム。
  17. 前記第1の伝達情報は、前記第1のユーザの発話の収音結果と、前記第1の場所においてセンシングされた音量の空間的分布を示す情報とをさらに含み、
    前記第2の場所には、複数の音声出力部が配置されており、
    前記出力制御部は、さらに、前記第1の場所においてセンシングされた音量の空間的分布に応じて、前記第1のユーザの発話の収音結果を前記複数の音声出力部に出力させる、請求項2に記載の情報処理システム。
  18. 前記第1の伝達情報は、前記第1のユーザの発話の収音結果を含み、
    前記第1のユーザが発話したことが検出された際に、前記出力制御部は、前記第1の場所において配置された第1のオブジェクトに対応する画像の方が、前記第1の場所以外の場所において配置された第2のオブジェクトに対応する画像よりも視認性が高くなるように、前記第1のオブジェクトに対応する画像および前記第2のオブジェクトに対応する画像を前記第2の場所内の表示面に表示させる、請求項2に記載の情報処理システム。
  19. 第1の場所に位置する第1のユーザに関連する操作体の操作に応じた、第2の場所に位置する第2のユーザとのコミュニケーションのための第1の伝達情報を取得することと、
    前記第1の伝達情報に基づいて特定される、前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像をプロセッサが前記第2の場所内の表示面に表示させることと、
    を含む、情報処理方法。
  20. コンピュータを、
    第1の場所に位置する第1のユーザに関連する操作体の操作に応じた、第2の場所に位置する第2のユーザとのコミュニケーションのための第1の伝達情報を取得する情報取得部と、
    前記第1の伝達情報に基づいて特定される、前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる出力制御部、
    として機能させるためのプログラム。
JP2019525169A 2017-06-12 2018-04-24 情報処理システム、情報処理方法、およびプログラム Active JP7143847B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022147329A JP7468588B2 (ja) 2017-06-12 2022-09-15 情報処理装置、情報処理システム、および情報処理方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017115265 2017-06-12
JP2017115265 2017-06-12
PCT/JP2018/016509 WO2018230160A1 (ja) 2017-06-12 2018-04-24 情報処理システム、情報処理方法、およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022147329A Division JP7468588B2 (ja) 2017-06-12 2022-09-15 情報処理装置、情報処理システム、および情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2018230160A1 true JPWO2018230160A1 (ja) 2020-04-16
JP7143847B2 JP7143847B2 (ja) 2022-09-29

Family

ID=64660806

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019525169A Active JP7143847B2 (ja) 2017-06-12 2018-04-24 情報処理システム、情報処理方法、およびプログラム
JP2022147329A Active JP7468588B2 (ja) 2017-06-12 2022-09-15 情報処理装置、情報処理システム、および情報処理方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022147329A Active JP7468588B2 (ja) 2017-06-12 2022-09-15 情報処理装置、情報処理システム、および情報処理方法

Country Status (6)

Country Link
US (2) US11048326B2 (ja)
EP (1) EP3640786B1 (ja)
JP (2) JP7143847B2 (ja)
CN (1) CN110770688A (ja)
DE (1) DE112018002980T5 (ja)
WO (1) WO2018230160A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11087489B2 (en) * 2019-06-03 2021-08-10 Disney Enterprises, Inc. Systems and methods to facilitate interaction by one or more participants with content presented across multiple distinct physical locations
JP7243541B2 (ja) * 2019-09-17 2023-03-22 沖電気工業株式会社 情報処理装置、情報処理方法、プログラム、および、情報処理システム
JP7339604B2 (ja) * 2019-11-12 2023-09-06 オムロン株式会社 動作認識装置、動作認識方法、動作認識プログラム及び動作認識システム
JP7442940B2 (ja) * 2020-07-07 2024-03-05 アルプスアルパイン株式会社 近接検知装置
US11076128B1 (en) * 2020-10-20 2021-07-27 Katmai Tech Holdings LLC Determining video stream quality based on relative position in a virtual space, and applications thereof
JP2023079161A (ja) * 2021-11-26 2023-06-07 ソニーグループ株式会社 表示制御装置、表示制御方法、及びプログラム
WO2023157653A1 (ja) * 2022-02-18 2023-08-24 ソニーグループ株式会社 情報処理装置及び情報処理方法
WO2023181634A1 (ja) * 2022-03-24 2023-09-28 ソニーグループ株式会社 情報処理装置、情報処理方法及び記録媒体

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11224152A (ja) * 1998-02-05 1999-08-17 Ricoh Co Ltd 遠隔会議支援システム
JP2000231644A (ja) * 1999-02-08 2000-08-22 Nippon Telegr & Teleph Corp <Ntt> 仮想空間における発話者特定方法及びそのプログラムを記録した記録媒体
JP2010170354A (ja) * 2009-01-23 2010-08-05 Seiko Epson Corp 共有情報表示装置、共有情報表示方法およびコンピュータプログラム
JP2011145794A (ja) * 2010-01-13 2011-07-28 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム
WO2012081194A1 (ja) * 2010-12-17 2012-06-21 パナソニック株式会社 医療支援装置、医療支援方法および医療支援システム
JP2015228054A (ja) * 2014-05-30 2015-12-17 和俊 尾花 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
JP2015228256A (ja) * 2011-03-29 2015-12-17 クアルコム,インコーポレイテッド 各ユーザの視点に対する共有デジタルインターフェースのレンダリングのためのシステム
WO2016002445A1 (ja) * 2014-07-03 2016-01-07 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017034658A (ja) * 2015-08-03 2017-02-09 株式会社リコー 映像処理装置、映像処理方法、及び映像処理システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8234578B2 (en) * 2006-07-25 2012-07-31 Northrop Grumman Systems Corporatiom Networked gesture collaboration system
CN101611371B (zh) 2007-12-07 2016-06-08 索尼株式会社 输入设备、控制设备、控制系统、手持设备和控制方法
JP5233708B2 (ja) * 2009-02-04 2013-07-10 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20100315413A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Surface Computer User Interaction
US9053455B2 (en) 2011-03-07 2015-06-09 Ricoh Company, Ltd. Providing position information in a collaborative environment
US9662563B2 (en) * 2012-10-22 2017-05-30 Rolled Up Gaming Partners Table game
CN105264572B (zh) * 2013-04-04 2018-09-21 索尼公司 信息处理设备、信息处理方法和程序
JP6359333B2 (ja) 2014-05-09 2018-07-18 シャープ株式会社 テレコミュニケーションシステム
US10545716B2 (en) 2015-08-24 2020-01-28 Sony Corporation Information processing device, information processing method, and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11224152A (ja) * 1998-02-05 1999-08-17 Ricoh Co Ltd 遠隔会議支援システム
JP2000231644A (ja) * 1999-02-08 2000-08-22 Nippon Telegr & Teleph Corp <Ntt> 仮想空間における発話者特定方法及びそのプログラムを記録した記録媒体
JP2010170354A (ja) * 2009-01-23 2010-08-05 Seiko Epson Corp 共有情報表示装置、共有情報表示方法およびコンピュータプログラム
JP2011145794A (ja) * 2010-01-13 2011-07-28 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム
WO2012081194A1 (ja) * 2010-12-17 2012-06-21 パナソニック株式会社 医療支援装置、医療支援方法および医療支援システム
JP2015228256A (ja) * 2011-03-29 2015-12-17 クアルコム,インコーポレイテッド 各ユーザの視点に対する共有デジタルインターフェースのレンダリングのためのシステム
JP2015228054A (ja) * 2014-05-30 2015-12-17 和俊 尾花 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
WO2016002445A1 (ja) * 2014-07-03 2016-01-07 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017034658A (ja) * 2015-08-03 2017-02-09 株式会社リコー 映像処理装置、映像処理方法、及び映像処理システム

Also Published As

Publication number Publication date
EP3640786A1 (en) 2020-04-22
CN110770688A (zh) 2020-02-07
US11048326B2 (en) 2021-06-29
EP3640786B1 (en) 2022-10-26
US20200209951A1 (en) 2020-07-02
WO2018230160A1 (ja) 2018-12-20
US20210318749A1 (en) 2021-10-14
DE112018002980T5 (de) 2020-02-20
US11703941B2 (en) 2023-07-18
JP7143847B2 (ja) 2022-09-29
JP7468588B2 (ja) 2024-04-16
EP3640786A4 (en) 2020-07-01
JP2022188081A (ja) 2022-12-20

Similar Documents

Publication Publication Date Title
JP7143847B2 (ja) 情報処理システム、情報処理方法、およびプログラム
JP7366196B2 (ja) 広範囲同時遠隔ディジタル提示世界
JP7100092B2 (ja) ワードフロー注釈
US11669298B2 (en) Virtual and real object recording in mixed reality device
CN110506249B (zh) 信息处理设备、信息处理方法和记录介质
CN110460799A (zh) 创意相机
CN111726536A (zh) 视频生成方法、装置、存储介质及计算机设备
US11151796B2 (en) Systems and methods for providing real-time composite video from multiple source devices featuring augmented reality elements
TWI647593B (zh) 模擬環境顯示系統及方法
US11423627B2 (en) Systems and methods for providing real-time composite video from multiple source devices featuring augmented reality elements
US20210004599A1 (en) Real time object surface identification for augmented reality environments
TW201228332A (en) Mobile electronic device
WO2022199500A1 (zh) 一种模型训练方法、场景识别方法及相关设备
CN112105983A (zh) 增强的视觉能力
WO2019123888A1 (ja) 情報処理システム、情報処理方法、および、プログラム
WO2023124972A1 (zh) 显示状态切换方法、装置及系统、电子设备、存储介质
WO2022179279A1 (zh) 交互方法、电子设备与交互系统
CN112034986A (zh) 基于ar的交互方法、终端设备以及可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220829

R151 Written notification of patent or utility model registration

Ref document number: 7143847

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151