WO2021153413A1 - 情報処理装置、情報処理システム及び情報処理方法 - Google Patents

情報処理装置、情報処理システム及び情報処理方法 Download PDF

Info

Publication number
WO2021153413A1
WO2021153413A1 PCT/JP2021/002042 JP2021002042W WO2021153413A1 WO 2021153413 A1 WO2021153413 A1 WO 2021153413A1 JP 2021002042 W JP2021002042 W JP 2021002042W WO 2021153413 A1 WO2021153413 A1 WO 2021153413A1
Authority
WO
WIPO (PCT)
Prior art keywords
viewer
information processing
artist
angle
processing device
Prior art date
Application number
PCT/JP2021/002042
Other languages
English (en)
French (fr)
Inventor
孝悌 清水
一真 高橋
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to EP21747621.7A priority Critical patent/EP4099275A4/en
Priority to CN202180010474.2A priority patent/CN115004132A/zh
Priority to JP2021574692A priority patent/JPWO2021153413A1/ja
Priority to US17/790,413 priority patent/US11907434B2/en
Publication of WO2021153413A1 publication Critical patent/WO2021153413A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays

Abstract

ユーザが指差ジェスチャにより選択したオブジェクトを選択オブジェクトとして検出する検出部(110)を備え、前記検出部は、前記指差ジェスチャに対応する前記ユーザの手の手首の位置を示す第1の基準点と、前記指差ジェスチャに対応する前記ユーザの腕の付け根から床面へ垂直におろした第1の垂線上における前記手首の高さに対応する第2の基準点とを結んだ第1の線分から前記手首側へ向かって延長する第1の延長線に基づき、前記選択オブジェクトを検出する、情報処理装置(100)を提供する。

Description

情報処理装置、情報処理システム及び情報処理方法
 本開示は、情報処理装置、情報処理システム及び情報処理方法に関する。
 アーティスト等の人物(ユーザ)を多視点から撮像し、撮像した複数の画像を立体的に合成して実写ボリュメトリック(立体映像)を生成し、当該人物から離れた遠隔地にて投影又は表示された実写ボリュメトリックを多数の視聴者に鑑賞してもらうというコンテンツの提供方法がある。そして、このようなコンテンツの提供方法においては、当該コンテンツの提供によって生み出される体験をより良いものとするために、アーティストと視聴者とが同一空間に存在して双方が直接的にやり取りを行っているように感じられるインタラクティブな体験を視聴者に提供することが求められる。
 例えば、インタラクティブな体験の一例としては、アーティストと当該アーティストが選択した視聴者(選択オブジェクト)との間で、システム(情報処理システム)を介して対話を行うことが挙げられる。このような場合、例えば、システムは、アーティストが対話する視聴者を選択する選択動作をセンサでセンシングし、当該センサによるセンシングデータに基づき、選択された視聴者を検出する。そして、上記システムは、選択された視聴者側のデバイスとアーティスト側のデバイスとを通信接続して、対話のためのチャネルを形成する。
OutlinAR: an assisted interactive model building system with reduced computational effort、Pished・Bunnun、Walterio W.Mayol-Cuevas、2008 7th IEEE/ACM International Symposium on Mixed and Augmented Reality、IEEE
 しかしながら、これまで検討されてきたシステム(情報処理システム)においては、アーティスト(ユーザ)が選択した視聴者(オブジェクト)を精度よく検出することが難しかったり、アーティストに、選択動作として不自然な動作を行うことを要求するものであったりした。
 そこで、本開示では、ユーザによる、自然で、且つ、直感的な選択動作によって選択されたオブジェクトを、精度よく、選択することができる、情報処理装置、情報処理システム及び情報処理方法を提案する。
 本開示によれば、ユーザが指差ジェスチャにより選択したオブジェクトを選択オブジェクトとして検出する検出部を備え、前記検出部は、前記指差ジェスチャに対応する前記ユーザの手の手首の位置を示す第1の基準点と、前記指差ジェスチャに対応する前記ユーザの腕の付け根から床面へ垂直におろした第1の垂線上における前記手首の高さに対応する第2の基準点とを結んだ第1の線分から前記手首側へ向かって延長する第1の延長線に基づき、前記選択オブジェクトを検出する、情報処理装置が提供される。
 また、本開示によれば、ユーザが指差ジェスチャにより選択したオブジェクトを選択オブジェクトとして検出する検出部を備え、前記検出部は、前記指差ジェスチャに対応する前記ユーザの手の手首の位置を示す第1の基準点と、前記指差ジェスチャに対応する前記ユーザの腕の付け根から床面へ垂直におろした第1の垂線上における前記手首の高さに対応する第2の基準点とを結んだ第1の線分から前記手首側へ向かって延長する第1の延長線に基づき、前記選択オブジェクトを検出する、情報処理システムが提供される。
 さらに、本開示によれば、ユーザが指差ジェスチャにより選択したオブジェクトを選択オブジェクトとして検出するための情報処理方法であって、情報処理装置により、前記指差ジェスチャに対応する前記ユーザの手の手首の位置を示す第1の基準点と、前記指差ジェスチャに対応する前記ユーザの腕の付け根から床面へ垂直におろした第1の垂線上における前記手首の高さに対応する第2の基準点とを結んだ第1の線分から前記手首側へ向かって延長する第1の延長線に基づき、前記選択オブジェクトを検出することを含む、情報処理方法が提供される。
本開示の実施形態に係る双方向視聴システム1の概略的構成を示したシステム図である。 本開示の実施形態に係る配信者側サーバ100の機能構成を示す図である。 本開示の実施形態に係るマルチカメラシステム130aの構成を示す図である。 本開示の実施形態に係る視聴者側クライアント200の機能構成を示す図である。 本開示の実施形態に係るHMD260aの外観構成を示す図である。 本開示の実施形態に係るハプティクス・デバイス260cの外観構成を示す図である。 本開示の実施形態の概要を説明するための説明図である。 本開示の第1の実施形態に係る検出ユニット100aの機能構成を示す図である。 本開示の第1の実施形態に係る判定部112の動作を説明するための説明図(その1)である。 本開示の第1の実施形態に係る判定部112の動作を説明するための説明図(その2)である。 本開示の第1の実施形態に係る判定部112の動作を説明するための説明図(その3)である。 本開示の第1の実施形態に係る情報処理方法のフローチャート図である。 本開示の第1の実施形態を説明するための説明図である。 本開示の第1の実施形態の変形例1を説明するための説明図である。 本開示の第1の実施形態の変形例1に係る情報処理方法のフローチャート図である。 本開示の第1の実施形態の変形例2を説明するための説明図である。 本開示の第1の実施形態の変形例3を説明するための説明図である。 本開示の第2の実施形態を説明するための説明図(その1)である。 本開示の第2の実施形態を説明するための説明図(その2)である。 本開示の第2の実施形態に係る情報処理方法のフローチャート図である。 本開示の実施形態の実施例1を説明するための説明図である。 本開示の実施形態の実施例2を説明するための説明図である。 本開示の実施形態の実施例3を説明するための説明図である。 本開示の実施形態の実施例4を説明するための説明図である。 本開示の実施形態の実施例5を説明するための説明図である。 本開示の実施形態の実施例6を説明するための説明図である。 本開示の実施形態の実施例7を説明するための説明図である。 本開示の実施形態の実施例8を説明するための説明図である。 本開示の実施形態の実施例9を説明するための説明図である。 本開示の実施形態の実施例10を説明するための説明図である。 配信者側サーバ100の機能を実現するコンピュータの一例を示すハードウェア構成図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書及び図面において、実質的に同一又は類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一又は類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 なお、以下の説明においては、仮想オブジェクトとは、アーティスト(ユーザ)や視聴者によって実空間に存在する現実物体のように知覚することができる仮想物体(Virtuar Object)のことを意味する。例えば、仮想オブジェクトは、テキスト、アイコン又はアニメーション等といった様々な形態を有することができる。
 また、以下の説明においては、特に断りがない場合には、アーティストとは、当該アーティストを表すCG(Computer Graphics)画像のほか、実写ボリュメトリックなどを含む仮想オブジェクトであってもよいし、AR(Augmented Reality)においては実空間に存在するアーティスト自身であってもよい。また、視聴者も同様に、当該視聴者を表すCG画像のほか、実写ボリュメトリックなどを含む仮想オブジェクトであってもよいし、ARにおいては実空間に存在する視聴者自身であってもよい。
 なお、説明は以下の順序で行うものとする。
 1. 双方向視聴システム1
    1.1 双方向視聴システム1の概要
    1.2 配信者側サーバ100の詳細構成
    1.3 マルチカメラシステム130aの詳細構成
    1.4 視聴者側クライアント200の詳細構成
    1.5 HMD260aの外観構成
    1.6 ハプティクス・デバイス260cの外観構成
 2. 本開示の技術的背景
 3. 本開示の実施形態の概要
 4. 第1の実施形態
   4.1 検出ユニット100aの詳細構成
   4.2 情報処理方法
   4.3 変形例1
   4.4 変形例2
   4.5 変形例3
 5. 第2の実施形態
   5.1 検出モード
   5.2 情報処理方法
 6. 実施形態に係る実施例
   6.1 実施例1
   6.2 実施例2
   6.3 実施例3
   6.4 実施例4
   6.5 実施例5
   6.6 実施例6
   6.7 実施例7
   6.8 実施例8
   6.9 実施例9
   6.10 実施例10
 7. まとめ
 8. ハードウェア構成について
 9. 補足
 <<1. 双方向視聴システム1>>
 <1.1 双方向視聴システム1の概要>>
 まずは、本開示の実施形態の詳細を説明する前に、図1を参照して、本開示の実施形態に係る双方向視聴システム(情報処理システム)1の概要を説明する。図1は、本開示の実施形態に係る双方向視聴システム1の概略的構成を示したシステム図である。以下の説明においては、双方向視聴システム1では、アーティスト(配信者、ユーザ)と視聴者とは異なる実空間に存在していても、同一の実空間に存在していてもよい。当該双方向視聴システム1においては、視聴者は、例えば、視聴者側の仮想空間に表示された実写ボリュメトリック(立体映像)又は実空間に投影等(以下の説明において、「表示」には「投影等」が含まれるものとする)されたCG画像(例えば、アバター等)を介してアーティストの姿を視聴することとなり、アーティストは、アーティスト側の仮想空間に描画されたCG画像(例えば、アバター等)や実写ボリュメトリック等又は実空間に表示されたCG画像(例えば、アバター等)を介して視聴者の姿を確認することができる。さらに、本実施形態においては、双方向視聴システム1は、アーティストが(例えば対話対象の)視聴者を選択する選択動作をセンサでセンシングし、当該センサによるセンシングデータに基づき、アーティストにより選択された視聴者を検出する。そして、双方向視聴システム1は、選択された視聴者側のデバイスとアーティスト側のデバイスとを通信接続して、選択された視聴者とアーティストとの間での対話のためのチャネルを形成する。
 なお、ここで説明する双方向視聴システム1は、本開示の実施形態で用いられる情報処理システムの一例であり、本開示の実施形態においては、このようなシステムの利用に限定されるものではない。例えば、本開示の実施形態では、アーティストと視聴者とが物理的に離れた実空間に存在する場合(例えば、スタジオと自宅の部屋等)において視聴者にコンテンツを提供するものであってもよいし、アーティストと視聴者とが同一実空間に存在する場合(例えば、コンサート、イベント等)において視聴者にコンテンツを提供するものであってもよい。これらのような場合、情報処理システムが、アーティストの選択した視聴者が保持又は装着しているデバイス(例えば、HMD(Head Mounted Display)、スマートフォン等)や近傍のデバイス(例えば、照明、プロジェクタ、スピーカ等)を制御したりすることが想定される。
 また、以下の説明では、アーティストと視聴者とが物理的に離れた実空間に存在し、互いに同じ仮想空間を共有する(すなわち、それぞれのアバター等が同一の仮想空間内に存在する)場合(以下、VR(Virtual Reality)空間共有という)を例示するが、これに限定されず、アーティストと視聴者とが同じ実空間に存在し、この実空間内にCG画像等を表示する場合(以下、AR空間共有という)など、仮想空間と実空間とを何らかの形でリンクさせることが可能な種々のシステムに対して、本開示に係る技術を適用することが可能である。ただし、VR空間共有では、アーティストと視聴者とが属する実空間が物理的に離れていることは必須ではなく、同一実空間内に両者が存在しつつ仮想空間(以下、VR空間ともいう)を共有していてもよい。同様に、AR空間共有では、アーティストと視聴者とが属する実空間が同一であることは必須ではなく、物理的に離れた実空間にそれぞれが存在しつつ拡張空間(以下、AR空間ともいう)を共有していてもよい。
 図1に示すように、本実施形態に係る双方向視聴システム1は、例えば、配信者側サーバ(情報処理装置)100と、マルチカメラシステム130aと、配信者側表示部160a、視聴者側表示部260bと、視聴者側クライアント200と、HMD260aと、ハプティクス・デバイス260cとを含むことができる。配信者側サーバ100と視聴者側クライアント200とは、インターネット300等のような各種の通信ネットワークを介して互いに通信することができる。なお、双方向視聴システム1に含まれる各装置の数は、図1に図示された数に限定されるものではなく、さらに多くてもよい。また、双方向視聴システム1は、図1において図示されない装置を含んでいてもよい。例えば、双方向視聴システム1は、汎用PC(Personal Computer)、タブレット型端末、ゲーム機、スマートフォン等の携帯電話、携帯型メディアプレーヤ、スピーカ、プロジェクタ、ディスプレイ(デジタルサイネージ等)、ヘッドフォン、スマートグラス、スマートウォッチ等のウェアラブルデバイス、もしくは、ロボット(例えば、ヒューマノイド型ロボット又は自動運転車等)等を含むことができる。以下に、本開示の実施形態に係る双方向視聴システム1に含まれる各装置の概略について説明する。
 (配信者側サーバ100)
 配信者側サーバ100は、1人又は複数のアーティスト(ユーザ)に関する少なくとも1つのセンシングデータ(撮像画像、モーションデータ、音声、位置情報等)を取得することができる。さらに、配信者側サーバ100は、取得したセンシングデータを処理して、配信用コンテンツデータ(例えば、実写ボリュメトリック、CG画像、音声データ等)を生成し、後述する視聴者側クライアント200へ配信することができる。また、配信者側サーバ100は、1人又は複数の視聴者(オブジェクト)に関する少なくとも1つのセンシングデータ(例えば、位置情報、撮像画像、モーションデータ、音声等)に基づく配信データ(例えば、位置情報、姿勢情報、音声データ等)を、視聴者側クライアント200から取得することができる。なお、配信者側サーバ100の詳細構成については後述する。
 (マルチカメラシステム130a)
 マルチカメラシステム130aは、アーティストを多視点から撮像する複数の可視光カメラ132(図3 参照)等を含み、撮像等によって得られたセンシングデータ(例えば、撮像画像)を上述した配信者側サーバ100へ出力することができる。当該カメラ132は、アーティストの周囲又は周囲に存在する実物体等を撮像してもよい。当該マルチカメラシステム130aは、アーティストを撮像する複数の可視光カメラ132だけでなく、アーティストの身体の一部に装着されたマーカ134b(図3 参照)を撮像する赤外線(IR)カメラ134aを含んでいてもよく、アーティストの身体の姿勢をセンシングするデプスセンサ136(図3 参照)を含んでいてもよい。また、マルチカメラシステム130aは、アーティストの身体の一部に装着された複数の慣性センサ(Inertial Measurement Unit:IMU)(図示省略)を含んでいてもよい。各IMUは、加速度センサ(図示省略)や、角速度センサ(図示省略)を含み、得られたセンシングデータによってアーティストの姿勢や、動きをセンシングすることができる。なお、本実施形態においては、マルチカメラシステム130aは、IMU以外にも、モーションセンサとして、地磁気センサ(図示省略)、気圧センサ(図示省略)等を含んでいてもよい。
 さらに、マルチカメラシステム130aは、ユーザの位置をセンシングする位置センサ(図示省略)、アーティストの音声やアーティストの周囲の周囲環境音をセンシングするサウンドセンサ(図示省略)、アーティストの視線をセンシングする視線センサ(図示省略)、アーティストの生体情報をセンシングする生体情報センサ(図示省略)(例えば、心拍、脈拍、脳波、呼吸、発汗、筋電位、皮膚温度、皮膚電気抵抗、眼球運動、又は、瞳孔径等をセンシングするセンサ)、アーティストによって入力されるテキスト等を受け付ける入力装置(図示省略)を含んでいてもよく、特に限定されるものではない。
 より具体的には、例えば、上述した位置センサは、アーティストの位置をセンシングするセンサであり、GNSS(Global Navigation Satellite System)受信機等であることができる。この場合、位置センサは、GNSS衛星からの信号に基づいてアーティストの現在地の緯度・経度の情報(グローバル座標系での位置情報)を示すセンシングデータを取得する。また、例えば、RFID(Radio Frequency Identification)、Wi-Fiのアクセスポイントなどは、無線基地局の情報等からユーザの相対的な位置関係をセンシングすることが可能なため、本実施形態においては、これらのような通信装置を位置センサとして利用してもよい。なお、マルチカメラシステム130aの詳細構成については後述する。
 (配信者側表示部160a)
 配信者側表示部160aは、例えば、配信者側サーバ100と通信可能に接続する、アーティストの保持するタブレット(図示省略)やスマートフォン(図示省略)、アーティストの存在する実空間に設置されるプロジェクタ(図示省略)、ディスプレイ(図示省略)等によって実現される。配信者側表示部160aは、アーティストの存在する実空間に、テキスト、アイコン又はアニメーション等を表示することができる。例えば、配信者側表示部160aは、アーティストと異なる空間に存在する複数の視聴者の像を、アバター(CG画像)等の仮想オブジェクトの形態で、アーティストの存在する実空間に表示することができる。この際、アーティスト側で表現された仮想空間(実質的に実空間と等価であってもよい。以下同様)におけるアーティストと視聴者の像との相対的な位置関係が、視聴者側の仮想空間に表示されたアーティストの像(例えば、実写ボリュメトリック等)と各視聴者との相対的な位置関係と対応するように、視聴者の像は表示されることとなる。
 (視聴者側クライアント200)
 視聴者側クライアント200は、上述した配信者側サーバ100から取得した配信コンテンツデータを取得し、取得した配信コンテンツデータを、HMD260a、視聴者側表示部260b、ハプティクス・デバイス260cを介して視聴者に提供することができる。なお、HMD260aは、基本的にはVR空間共有を目的としたデバイスであるが、AR空間共有にも使用することができる。同様に、視聴者側表示部260bは、基本的にはAR空間共有を目的としたデバイスであるが、VR空間共有にも使用することができる。
 また、視聴者側クライアント200は、1人又は複数の視聴者に関する少なくとも1つのセンシングデータ(撮像画像、モーションデータ、音声、位置情報等)を取得して、配信者側サーバ100へ送信することができる。なお、視聴者側クライアント200の詳細構成については後述する。
 (HMD260a)
 HMD260aは、視聴者側クライアント200に通信可能に接続し、配信コンテンツデータに基づき、仮想空間の映像を表示することができる。例えば、HMD260aは、アーティストの実写ボリュメトリックを仮想空間に表示することができる。この際、聴者側の仮想空間に表示されたアーティストの像と視聴者との相対的な位置関係が、アーティスト側で表現された仮想空間における視聴者の像とアーティストとの相対的な位置関係と対応することが好ましい。
 HMD260aは、例えば、図7に示すような、視聴者の頭部に装着される眼鏡型のHMDにより実現されることができる。そして、装着時に視聴者の眼前に位置する眼鏡レンズ部分に相当する表示部(図示省略)は、眼鏡レンズ部分の外側を視認することができる透過型、又は、眼鏡レンズ部分の外側を視認することができない非透過型ディスプレイであり、仮想オブジェクトを表示することができる。なお、上述の説明においては、HMD260aは、視聴者の頭部に装着されて、視聴者側クライアント200と通信可能に接続しているものとして説明したが、本実施形態においてはこれに限定されるものではない。本実施形態においては、例えば、HMD260aは、アーティストの頭部に装着されて、配信者側サーバ100と通信可能に接続していてもよい。
 また、HMD260aが光学シースルー又はビデオシースルーの機能を備えている場合には、HMD260aは、AR空間共有を実現するための表示デバイスにもなり得る。例えば、HMD260aが非透過型ディスプレイである場合は、視聴者の表情や視聴者の周囲を撮像するカメラ(図示省略)によって撮像された、視聴者の存在する実空間の像を上記非透過型ディスプレイに表示することもできる(ビデオシースルー)。このように、HMD260aが光学シースルー又はビデオシースルーの機能を備えている場合、HMD260aは、例えば、視聴者の存在する実空間に、アーティストの実写ボリュメトリックを表示することができる。
 さらに、HMD260aは、スピーカ(図示省略)、IMU(図示省略)、地磁気センサ(図示省略)、気圧センサ(図示省略)、位置センサ(図示省略)、サウンドセンサ(図示省略)、視線センサ(図示省略)、生体情報センサ(図示省略)等を含んでいてもよい。なお、HMD260aの外観例については後述する。
 さらに、本実施形態においては、双方向視聴システム1は、頭部に装着されるメガネ型のウェアラブルデバイスであるHMD260a以外にも、他の形態のウェアラブルデバイス(図示省略)を含んでいてもよい。例えば、当該ウェアラブルデバイスとしては、イヤーデバイス(ヘッドフォン)型、アンクレット型、腕輪型、首輪型、グローブ型、パッド型、バッチ型、衣服型等の各種形態のウェアラブルデバイスを挙げることができる。
 (視聴者側表示部260b)
 視聴者側表示部260bは、視聴者側クライアント200と通信可能に接続する、視聴者の保持するタブレット(図示省略)やスマートフォン(図示省略)、視聴者の存在する実空間に設置されるプロジェクタ(図示省略)、ディスプレイ(図示省略)等によって実現される。視聴者側表示部260bは、視聴者の存在する実空間に、テキスト、アイコン又はアニメーション等を表示することができる。例えば、視聴者側表示部260bは、アーティストの像を視聴者の存在する実空間に表示することができる。この際、聴者側で表現された仮想空間におけるアーティストの像と視聴者との相対的な位置関係が、アーティスト側で表現された仮想空間における視聴者の像とアーティストとの相対的な位置関係と対応することが好ましい。
 (ハプティクス・デバイス260c)
 ハプティクス・デバイス260cは、視聴者側クライアント200に通信可能に接続し、視聴者が保持又は視聴者の身体の一部に装着され、配信コンテンツデータに従って振動等することにより、視聴者に触覚刺激を与えることができる。例えば、ハプティクス・デバイス260cは、視聴者に振動を与える振動装置(図示省略)、視聴者に電気的に刺激を与える電気刺激装置(図示省略)等を含むことができる。さらに、ハプティクス・デバイス260cは、IMU(図示省略)、地磁気センサ(図示省略)、気圧センサ(図示省略)、位置センサ(図示省略)、サウンドセンサ(図示省略)、生体情報センサ(図示省略)等を含んでいてもよい。また、このような視聴者に触覚刺激を与える装置は、上述したHMD260aや各種のウェアラブルデバイス、視聴者が保持するスアートフォン等に含まれていてもよい。なお、ハプティクス・デバイス260cの外観例については後述する。
 <1.2 配信者側サーバ100の詳細構成>
 次に、本開示の実施形態に係る双方向視聴システム1に含まれる各装置の詳細構成について順次説明する。まずは、配信者側サーバ100の詳細構成を、図2を参照して説明する。図2は、本開示の実施形態に係る配信者側サーバ100の機能構成を示す図である。先に説明したように、本実施形態に係る配信者側サーバ100は、アーティストに関する少なくとも1つのセンシングデータを取得し、取得したセンシングデータを処理して、配信用コンテンツデータを生成し、視聴者側クライアント200へ配信することができる。図2に示すように、配信者側サーバ100は、検出ユニット100aと、配信者側データ取得部102と、画像データ生成部116と、映像ストリーミング処理部118と、身体位置情報生成部120と、3Dモデル位置情報生成部122と、コンテンツデータ生成部124と、配信部126とを主に有する。以下に、配信者側サーバ100の各機能ブロックについて順次説明する。なお、検出ユニット100aの説明については、本開示の実施形態の要部であることから、後述する。
 (配信者側データ取得部102)
 配信者側データ取得部102は、アーティストに関するセンシングデータ(例えば、撮像画像、モーションデータ、音声、位置情報等)を、マルチカメラシステム130a等から取得し、後述する検出ユニット100a、画像データ生成部116及び身体位置情報生成部120に出力することができる。例えば、配信者側データ取得部102は、例えば、マルチカメラシステム130aから、多視点からのアーティストの撮像画像を取得し、画像データ生成部116に出力する。また、配信者側データ取得部102は、マルチカメラシステム130aからのアーティストの姿勢や動きのわかる撮像画像やIMU(図示省略)からのアーティストの姿勢や動きに関するセンシングデータを取得し、身体位置情報生成部120に出力する。なお、図2では図示を省略しているものの、配信者側サーバ100は、1人又は複数の視聴者に関する少なくとも1つのセンシングデータ(例えば、撮像画像、モーションデータ、音声、位置情報等)やこれに基づいて生成される配信データを視聴者側クライアント200から取得する視聴者側データ取得部を含み、当該視聴者側データ取得部は、取得したデータを後述する画像データ生成部116に出力することができる。
 (画像データ生成部116)
 画像データ生成部116は、マルチカメラシステム130aの多視点カメラから取得した映像を表示用データとして生成する。さらに、画像データ生成部116は、生成した表示用データを後述する映像ストリーミング処理部118に出力することができる。例えば、VR空間共有では演者映像(例えば、実写ボリュメトリック)+CG画像(例えば、アバター)、AR空間共有では演者映像+CG画像、実世界ではCG画像が、配信者側サーバ100から視聴者側クライアント200へ伝送される。
 (映像ストリーミング処理部118)
 映像ストリーミング処理部118は、生成した表示用データに対して、ストリーミング配信するための処理を行い、後述するコンテンツデータ生成部124に出力することができる。
 (身体位置情報生成部120)
 身体位置情報生成部120は、マルチカメラシステム130aから取得したアーティストの姿勢や動きのわかる撮像画像や複数のIMU(図示省略)から取得したアーティストの姿勢や動きに関するセンシングデータに基づいて、アーティストの位置情報及び姿勢情報を生成することができる。さらに、身体位置情報生成部120は、生成したアーティストの位置情報及び姿勢情報を、後述する3Dモデル位置情報生成部122に出力することができる。
 (3Dモデル位置情報生成部122)
 3Dモデル位置情報生成部122は、位置情報及び姿勢情報に基づき、アーティストの身体の位置や姿勢をスケルトン構造により表現するスケルトン情報を含む3Dモデル位置情報を生成することができる。そして、3Dモデル位置情報生成部122は、生成した3Dモデル位置情報を、後述するコンテンツデータ生成部124に出力することができる。例えば、スケルトン構造は、アーティストの身体の各部位の情報と、部位間を結ぶ線分であるボーンとを含む。なお、スケルトン構造における部位は、例えば身体の末端部位や関節部位等に対応する。また、スケルトン構造におけるボーンは例えば人間の骨に相当し得るが、ボーンの位置や数は必ずしも実際の人間の骨格と整合していなくてもよい。
 (コンテンツデータ生成部124)
 コンテンツデータ生成部124は、立体画像データ及び3Dモデル位置情報に基づき、配信コンテンツデータ(例えば、立体画像データのアーティストの像に、スケルトン情報を組み合わせる等)を生成し、後述する配信部126へ出力することができる。
 (配信部126)
 配信部126は、配信コンテンツデータを視聴者側クライアント200へ配信することができる。
 なお、本実施形態においては、配信者側サーバ100に含まれる各機能ブロックは、図2に示される機能ブロックに限定されるものではない。
 <1.3 マルチカメラシステム130aの詳細構成>
 次に、マルチカメラシステム130aの詳細構成を、図3を参照して説明する。図3は、本開示の実施形態に係るマルチカメラシステム130aの構成を示す図である。先に説明したように、本実施形態に係るマルチカメラシステム130aは、アーティスト600を多視点から撮像する複数の可視光カメラ132等を含み、当該カメラ132によって得られた撮像画像を上述した配信者側サーバ100へ出力することができる。
 詳細には、図3に示すように、アーティスト600を取り囲むように、複数の可視光カメラ132が設置され、これらカメラ132は、アーティスト600を異なるアングルで撮像する。従って、複数のカメラ132の相対的位置関係を考慮して、各カメラ132で取得された撮像画像を合成することにより、立体的なアーティスト600の像を得ることができる。さらに、本実施形態においては、各撮像画像からアーティスト600の身体の各部位の画像を抽出し、各カメラ132の位置に基づいて処理を行うことにより、アーティスト600の各部位の位置情報や姿勢情報を取得することができる。なお、当該マルチカメラシステム130aは、先に説明したように、複数の可視光カメラ132だけでなく、アーティスト600の身体の一部に装着されたマーカ134bを撮像するIRカメラ134aを含んでいてもよく、アーティスト600の姿勢をセンシングするデプスセンサ136を含んでいてもよい。
 また、本実施形態においては、例えば、上記撮像画像を合成したり、撮像画像からアーティスト600の身体の各部位の位置や姿勢等の情報を取得したりするために、アーティスト600側の実空間上に仮想的に設けられた原点を基準とする、ローカル座標系が設定される。例えば、各カメラ132の位置、アーティスト600の身体の各部位の位置、アーティスト600が立っている床面についても、ローカル座標系によって表現することができる。
 また、マルチカメラシステム130aは、先に説明したように、アーティスト600の身体の一部に装着された複数のIMU(図示省略)を含んでいてもよく、IMUは、加速度センサ(図示省略)や、角速度センサ(図示省略)を含むことができる。本実施形態においては、複数のIMUから取得したアーティストの姿勢や動きに関するセンシングデータに基づいて、各IMUの装着部位の位置の位置情報及び姿勢情報を生成し、さらに、アーティスト600の身体の位置や姿勢をスケルトン構造により表現するスケルトン情報を含む3Dモデル位置情報を生成することができる。詳細には、本実施形態においては、例えば慣性航法(Inertial Navigation System)を用いて、IMUからのセンシングデータからIMUの装着部位の位置を計算することができ、IMUの位置情報等により、順運動学(FK:Forward Kinematics)計算によりスケルトン情報を取得することができる。ここで、順運動学計算とは、各関節部位の姿勢に基づいて、末端部位の位置を計算する手法である。また、本実施形態においては、上述した順運動学計算ではなく、逆運動学(IK:Inverse Kinematics)計算を用いてスケルトン情報を取得してもよい。逆運動学計算とは、末端部位の位置に基づいて、各関節部位の姿勢を計算する手法である。
 なお、本実施形態においては、マルチカメラシステム130aに含まれる各装置は、図3に示される装置に限定されるものではない。
 <1.4 視聴者側クライアント200の詳細構成>
 次に、視聴者側クライアント200の詳細構成を、図4を参照して説明する。図4は、本開示の実施形態に係る視聴者側クライアント200の機能構成を示す図である。先に説明したように、本実施形態に係る視聴者側クライアント200は、配信者側サーバ100から取得した配信コンテンツデータを取得し、取得した配信コンテンツデータを、HMD260a、視聴者側表示部260b、ハプティクス・デバイス260c等を介して視聴者に提供することができる。図4に示すように、視聴者側クライアント200は、配信データ取得部202と、コンテンツ処理部204と、タイミング同期部206、212と、出力制御部208と、視聴者側データ取得部210と、出力データ処理部214と、配信部216とを主に有する。以下に、視聴者側クライアント200の各機能ブロックについて順次説明する。
 (配信データ取得部202)
 配信データ取得部202は、配信者側サーバ100から配信コンテンツデータを取得し、後述するコンテンツ処理部204に出力することができる。
 (コンテンツ処理部204)
 コンテンツ処理部204は、取得した配信コンテンツデータを、HMD260a、視聴者側表示部260b、ハプティクス・デバイス260c等を介して視聴者に提供するための処理を行い、後述するタイミング同期部206に出力することができる。
 (タイミング同期部206、212)
 タイミング同期部206は、HMD260a、視聴者側表示部260b、ハプティクス・デバイス260c等を介して視聴者に提供するための処理がなされた各配信コンテンツデータの出力タイミングを同期させ、後述する出力制御部208に出力することができる。また、タイミング同期部212は、後述する視聴者側データ取得部210からの複数のセンシングデータを同期させ、後述する出力データ処理部214に出力することができる。
 (出力制御部208)
 出力制御部208は、タイミング同期部206からの処理がなされた各配信コンテンツデータに基づき、HMD260a、視聴者側表示部260b、ハプティクス・デバイス260c等を制御することができる。
 (視聴者側データ取得部210)
 視聴者側データ取得部210は、1人又は複数の視聴者に関する少なくとも1つのセンシングデータ(例えば、撮像画像、モーションデータ、音声、位置情報等)を取得して、タイミング同期部212へ出力することができる。
 (出力データ処理部214)
 出力データ処理部214は、タイミング同期部212からのセンシングデータを、配信者側サーバ100へ配信するための処理を行い、後述する配信部216に出力することができる。
 (配信部216)
 配信部216は、出力データ処理部214で処理されたセンシングデータを配信者側サーバ100へ配信することができる。
 なお、本実施形態においては、視聴者側クライアント200に含まれる各機能ブロックは、図4に示される機能ブロックに限定されるものではない。
 <1.5 HMD260aの外観構成>
 次に、HMD260aの外観構成を、図5を参照して説明する。図5は、本開示の実施形態に係るHMD260aの外観構成を示す図である。先に説明したように、本実施形態に係るHMD260aは、配信コンテンツデータ等に従って仮想空間の映像を表示することができる。
 図5に示すように、HMD260aは、例えば、視聴者の頭部に装着される眼鏡型のHMDにより実現される。詳細には、装着時に視聴者の眼前に位置する眼鏡レンズ部分に相当する表示部(図示省略)は、眼鏡レンズ部分の外側を視認することができる透過型、又は、眼鏡レンズ部分の外側を視認することができない非透過型ディスプレイであってもよい。
 なお、AR空間共有の場合には、HMD260aの光学シースルー又はビデオシースルーの機能を利用することになるが、その場合、HMD260aを眼鏡のように常時装着する場合であっても、視聴者は周囲の実空間を知覚することが可能であるため、視聴者の通常の生活に与える影響を抑えることができる。このような場合、上記表示部は、スルー状態のまま、テキストや図等の画像を表示することができ、すなわち、拡張現実(Augmented Reality:AR)として、実空間に仮想オブジェクトを表示してもよい。このような透過型ディスプレイは、例えば、ハーフミラーや透明な導光板を用いて、透明な導光部等からなる虚像光学系を視聴者の眼前に保持し、当該虚像光学系の内側に仮想オブジェクトを表示させる。
 また、本実施形態においては、上記HMD260aは、視聴者の両眼に対して仮想オブジェクトを表示する形態に限定されるものではなく、視聴者の片眼に対してのみ仮想オブジェクトを表示する形態を持っていてもよい。さらに、本実施形態においては、上記表示部は、視聴者の網膜に直接的に映像を投影するLED(Light Emitting Diode)光源等として実現されてもよい。すなわち、HMD260aは、プロジェクション型のHMDとして実現されてもよい。
 なお、本実施形態においては、HMD260aの形態は、図5に示す例に限定されるものではなく、例えば、ヘルメットタイプ(例えば、ヘルメットのバイザー部分がディスプレイに相当する)のHMDであってもよい。
 また、HMD260aは、先に説明したように、視聴者の表情や視聴者の周囲を撮像するカメラ(図示省略)、スピーカ(図示省略)、位置センサ(図示省略)等を含むことができる。
 さらに、本実施形態においては、例えば、上記位置センサによって、視聴者の位置を取得したりするために、視聴者側の実空間上に仮想的に設けられた原点を基準とする、ローカル座標系が設定されてもよい。さらにまた、視聴者側の仮想空間に表示されるアーティスト600の像(例えば、実写ボリュメトリック等)の位置についても、上記ローカル座標系によって表現することができる。さらに、視聴者側の実空間でのローカル座標系における視聴者とアーティスト600の像との相対的位置関係は、上述したアーティスト600側の実空間でのローカル座標系におけるアーティスト600と視聴者の像との相対的位置関係に対応する(例えば、一致、相似等)。すなわち、アーティスト側の実空間に設定されたローカル座標系と視聴者側の実空間に設定されたローカル座標系とアーティスト600と視聴者610とで共有する仮想空間の座標系とを整合させておくことで、アーティスト側でのアーティスト600と視聴者610との位置関係をそのまま視聴者側で再現することが可能となる。
 <1.6 ハプティクス・デバイス260cの外観構成>
 次に、ハプティクス・デバイス260cの外観構成を、図6を参照して説明する。図6は、本開示の実施形態に係るハプティクス・デバイス260cの外観構成を示す図である。先に説明したように、ハプティクス・デバイス260cは、視聴者が保持又は視聴者の身体の一部に装着され、配信コンテンツデータに従って振動等することにより、視聴者に触覚刺激を与える装置である。
 例えば、ハプティクス・デバイス260cは、図6に示すようなコントローラ型のハプティクス・デバイスであることができる。具体的には、ハプティクス・デバイス260cの円筒状の把持部内には、振動装置(図示省略)が設けられており、当該振動装置が配信コンテンツデータ等に従って振動することにより、把持部を把持する視聴者に振動を与えることができる。また、ハプティクス・デバイス260cには、上記振動装置以外にも、視聴者に電気的に刺激を与える電気刺激装置(図示省略)等を含むことができる。さらに、ハプティクス・デバイス260cには、図6に示すように、配信コンテンツデータ等に従って、光を放射する照射装置が含まれていてもよい。
 なお、本実施形態においては、ハプティクス・デバイス260cの形態は、図6に示す例に限定されるものではなく、例えば、視聴者の身体に装着されるベスト形状のハプティクス・デバイスであってもよい。
 <<2. 本開示の技術的背景>>
 さらに、本開示の実施形態の詳細を説明する前に、本発明者らが本開示の実施形態を創作するに至る背景について説明する。
 先に説明したように、例えば、アーティスト600の実写ボリュメトリックを生成し、当該アーティスト600から離れた遠隔地にて表示された実写ボリュメトリックを多数の視聴者に鑑賞してもらうというコンテンツの提供方法がある。このような方法では、当該コンテンツの提供によって生み出される体験をより良いものとするために、アーティスト600と視聴者とが同一空間に存在して双方が直接的にやり取りを行っているように感じられるインタラクティブな体験を視聴者に提供することが求められる。そして、インタラクティブな体験の一例としては、アーティスト600と当該アーティスト600が選択した視聴者との間で対話を行うことが挙げられる。このような場合、例えば、上記コンテンツを提供する双方向視聴システム1は、アーティスト600が対話する視聴者を選択する選択動作をセンサでセンシングし、当該センサによるセンシングデータに基づき、選択された視聴者を検出する。そして、上記双方向視聴システム1は、選択された視聴者側のデバイスとアーティスト600側のデバイスとを通信接続して、対話のためのチャネルを形成する。
 本発明者らは、このような双方向視聴システム1の検討を鋭意進めていたが、その過程で、双方向視聴システム1が、アーティスト600にとって、負担の少ない、快適なものとなるためには、上記選択動作は、当該アーティスト600にとって、自然で、且つ、直感的な動作(Natual User Interface:NUI)であることが好ましいと考えていた。しかしながら、これまで検討されてきた双方向視聴システム1では、アーティスト600が選択した視聴者を精度よく検出することが難しかったり、アーティスト600に、選択動作として不自然な動作を行うことを要求するものであったりと、本発明者らが求めるような水準に到達しているとはいえなかった。
 詳細には、これまで検討されてきた双方向視聴システム1では、例えば、アーティスト600が選択した視聴者に対して顔や胸を向ける選択動作を検出する。言い換えると、当該双方向視聴システム1は、アーティスト600の顔の向きや胸の向きをセンサでセンシングし、センシングした向きに基づいてアーティスト600が選択した視聴者を検出する。この場合、顔や胸は面積が広いことから検出面が広く、センサによってこれらの向きをセンシングすることが容易である。しかしながら、選択した視聴者に対して顔や胸を向けるという動作は、アーティスト600にとっては、自然で、且つ、直感的な動作であるとは言い難いことから、当該双方向視聴システム1は、アーティスト600にとって、負担の少ない、快適なものであるとはいなかった。
 また、アーティスト600にとって、自然で、且つ、直感的な選択動作の1つとして、選択した視聴者を指差しする指差ジェスチャを挙げることができる。このような動作であれば、日常的な動作であるため、アーティスト600の腕に負担がかかることを避けることができる。
 そこで、本発明者らは、双方向視聴システム1において、アーティスト600の指差ジェスチャでの指先の示す方向をセンサでセンシングし、センシングした方向に基づいて、アーティスト600が選択した視聴者を検出する場合を検討した。この場合、先に説明したように、指差ジェスチャは、自然で、且つ、直感的な動作であることから、アーティスト600に負担がかかることはない。しかしながら、指先の面積が非常に狭いことから、検出面が狭く、センサによってその向きまで精度よくセンシングすることは難しい。加えて、指差ジェスチャは、ヒトの動作であることから、指先の姿勢が所定の時間の間に固定されることが難しく、従って、センサによって指先の向きを精度よくセンシングすることは難しい。
 このような状況において、本発明者らは、アーティスト600による、自然で、且つ、直感的な選択動作によって選択された視聴者を、精度よく、選択することができる、以下に説明する本開示の実施形態を創作するに至ったのである。
 <<3. 本開示の実施形態の概要>>
 図7を参照して、本発明者らが創作した本開示の実施形態の概要を説明する。図7は、本開示の実施形態の概要を説明するための説明図である。
 本開示の実施形態においては、アーティスト600の選択動作として、選択した視聴者に向けて指差しを行う指差ジェスチャを採用する。このような動作は、先に説明したように、日常生活の中で選択した物体等を指し示すために行う動作であり、自然で、且つ、直感的な動作であることから、アーティスト600に負担がかかることはない。さらに、このような動作は、視聴者等からも直感的にその意味を把握することができることから、好ましい動作であるといえる。なお、本開示の実施形態においては、上述のような指差ジェスチャに限定されるものではなく、他のジェスチャであってもよく、アーティスト600の身体による所定の動き(例えば、ダンス、ボディランゲージ等)であってもよく、空中に仮想的に軌跡を描くような行為を行うような空中ペインティング動作等であってもよい。
 そして、本開示の実施形態に係る双方向視聴システム1の配信者側サーバ100は、以下のようにして、アーティスト600が選択した視聴者を検出することができる。詳細には、配信者側サーバ100は、アーティスト600が指差ジェスチャにより選択した視聴者を検出する検出ユニット100a(図8 参照)を有する。当該検出ユニット100aは、図7に示すように、指差ジェスチャに対応するアーティスト(ユーザ)600の手602の手首の位置を示す基準点(第1の基準点)Aと、当該指差ジェスチャに対応するアーティスト600の腕604の付け根(基準点C)から床面700へ垂直におろした垂線(第1の垂線)500上における手首の高さに対応する基準点(第2の基準点)Bとを結んだ線分(第1の線分)510から当該手首側へ向かって延長する延長線(第1の延長線)520に基づき、視聴者(オブジェクト)を選択オブジェクトとして検出する。より具体的には、上記検出ユニット100aは、延長線(第1の延長線)520上の点に対応する視聴者(オブジェクト)を選択オブジェクトとして検出する。なお、この際、アーティスト600側で表現された仮想空間における、アーティスト600と視聴者の像との相対的な位置関係が、視聴者側で表示された仮想空間における、視聴者とアーティスト600の像との相対的な位置関係と対応しているものとする。
 本開示の実施形態においては、基準点A及び基準点Cの相対位置と床面700とを検出することにより、アーティスト600が指差ジェスチャにより選択した視聴者を選択することができる。本開示の実施形態によれば、アーティスト600の手602の手首の位置を示す基準点A、及び、当該指差ジェスチャに対応するアーティスト600の腕604の付け根の位置を示す基準点Cは、センサで容易に検出することができることから、上述した方法によってアーティスト600が選択した視聴者を容易に選択することができる。さらに、本開示の実施形態においては、アーティスト600の選択動作として、選択した視聴者に向けて指差を行う指差ジェスチャを採用しており、指差ジェスチャは、先に説明したように、日常生活の中で選択した物体等を指し示すために行う動作であり、自然で、且つ、直感的な動作であることから、アーティスト600に負担がかかることはない。すなわち、本開示の実施形態によれば、アーティスト600による、自然で、且つ、直感的な選択動作によって選択された視聴者を、精度よく、選択することができる。その結果、双方向視聴システム1により、アーティスト600と特定の視聴者とが同一空間に存在して双方が直接的にやり取りを行っているように感じられるインタラクティブなコミュニケーション体験を当該視聴者に容易に提供することが可能となり、例えば、当該視聴者はアーティスト600との一体感をより強く感じることができる。
 なお、上述の説明では、選択されるオブジェクトは、表示されたアーティスト600の実写ボリュメトリックの周囲に存在する視聴者(ヒト)であるものとしたが、本開示の実施形態においては、これに限定されるものではない。例えば、選択されるオブジェクトは、アーティスト600の周囲に存在する視聴者(ヒト)であってもよく、アーティスト600又はアーティスト600の像の周囲に存在する、動物、静物(本・文具・絵画・写真・花瓶・家具、各種装置(ロボット、照明、タブレット、スマートフォン、ディスプレイ、HMD、スマートグラス、スピーカ等)(実オブジェクト)であることができる。さらに、本開示の実施形態においては、選択されるオブジェクトは、ディスプレイやプロジェクタ等の配信者側表示部160aによって表示された各種表示(平面映像(ウィンドウ、メニュー)又は立体映像(立体グラフィックモデル、アバター等)(仮想オブジェクト)等であることができる。また、本開示の実施形態においては、アーティスト600と選択されるオブジェクトとは、共有する仮想空間上に位置していることを前提に、同一実空間上に位置していてもよく、異なる実空間上に位置していてもよい。
 また、本実施形態においては、基準点A及び基準点Cの位置を検出する方法としては、マルチカメラシステム130aによって得られた撮像画像から検出してもよく、アーティスト600の身体の一部に装着されたマーカ134bを撮像するIRカメラ134aによる撮像画像から検出してもよく、アーティストの身体の姿勢を検出するデプスセンサ136によるセンシングデータから検出してもよい。また、本実施形態においては、基準点A及び基準点Cの位置は、アーティスト600の身体の一部に装着された複数のIMU(図示省略)、地磁気センサ(図示省略)、気圧センサ(図示省略)等によって得られたセンシングデータから検出してもよい。以下に、このような本開示の各実施形態の詳細を順次説明する。
 <<4. 第1の実施形態>>
 <4.1 検出ユニット100aの詳細構成>
 まずは、図8から図11を参照して、上述した検出ユニット100aの詳細構成を説明する。図8は、第1の実施形態に係る検出ユニット100aの機能構成を示す図であり、図9から図11は、第1の実施形態に係る判定部112の動作を説明するための説明図である。
 図8に示すように、検出ユニット100aは、配信者側データ取得部102と、ジェスチャ認識部104と、レーザポイント出力制御部mと、視聴者側データ取得部108と、検出部110と、判定部112と、対オブジェクト出力制御部114とを主に有する。なお、図8には、配信者側データ取得装置130、配信者側出力装置160、視聴者側データ取得装置230、及び視聴者側出力装置260も図示されており、詳細には、配信者側データ取得装置130は、上述したマルチカメラシステム130a等を含み、配信者側出力装置160は、上述した配信者側表示部160a等を含む。また、視聴者側データ取得装置230及び視聴者側出力装置260は、上述したHMD260aやハプティクス・デバイス260c等を含む。以下に、検出ユニット100aの各機能ブロックについて順次説明する。
 (配信者側データ取得部102)
 配信者側データ取得部102は、1人又は複数のアーティスト600に関する少なくとも1つのセンシングデータ(例えば、撮像画像、モーションデータ、音声、位置情報等)を、マルチカメラシステム130a等から取得し、後述するジェスチャ認識部104に出力することができる。
 (ジェスチャ認識部104)
 ジェスチャ認識部104は、上記センシングデータに基づいて、アーティスト600が指差ジェスチャによって視聴者を選択するポインティング行為を認識することができる。詳細には、ジェスチャ認識部104は、例えば、指差ジェスチャに対応するアーティスト600の腕604の付け根の位置を示す基準点(第3の基準点)Cと、アーティスト600の手602の手首の位置を示す基準点(第1の基準点)Aとを結んだ線分(第2の線分)512(図9 参照)、及び、基準点Cから床面700へ垂直におろした垂線(第1の垂線)500を含む平面において、線分512と垂線500とがなす角の角度が所定の範囲(例えば、20°以上)にある場合に、ポインティング行為を認識する。そして、ジェスチャ認識部104は、後述するレーザポイント出力制御部106及び検出部110に、認識結果を出力する。
 (レーザポイント出力制御部106)
 レーザポイント出力制御部106は、上記指差ジェスチャで指し示す先をアーティスト600が視認しやすくして、より安定して指差ジェスチャで選択先を明示することができるように、レーザポイントやビーム矢印を表示させることができる。具体的には、レーザポイント出力制御部106は、アーティスト600の存在する実空間に、上記指差ジェスチャの指先に沿って、当該指先から所定の距離まで伸びるビーム矢印を表示させることができる。また、レーザポイント出力制御部106は、同様に、アーティスト600の存在する実空間に、上記指差ジェスチャの指先に沿って、上記指差ジェスチャの指先から所定の距離分離れた位置にレーザポイントを表示することができる。この際、レーザポイント出力制御部106は、アーティスト600の保持するタブレット(図示省略)やスマートフォン(図示省略)や、アーティスト600の装着するHMD(図示省略)や、アーティスト600の存在する実空間に設置されるプロジェクタ(図示省略)等を制御して、表示を行う。
 (視聴者側データ取得部108)
 視聴者側データ取得部108は、視聴者側クライアント200から、1人又は複数の視聴者に関する少なくとも1つのセンシングデータ(例えば、撮像画像、モーションデータ、音声、位置情報等)もしくはこれらを処理して得られた配信データを取得し、後述する検出部110に出力することができる。
 (検出部110)
 検出部110は、アーティスト600が指差ジェスチャにより選択した視聴者を選択オブジェクトとして検出することができる。詳細には、検出部110は、指差ジェスチャに対応するアーティスト600の手602の手首の位置を示す基準点(第1の基準点)Aと、指差ジェスチャに対応するアーティスト600の腕604の付け根(基準点C)から床面700へ垂直におろした垂線(第1の垂線)500上における手首の高さに対応する基準点(第2の基準点)Bとを結んだ線分(第1の線分)510から手首側へ向かって延長する延長線(第1の延長線)520に基づき、選択した視聴者を検出することができる。より詳細には、検出部110は、延長線520上の点に対応する視聴者を選択オブジェクトとして検出することができる。そして、検出部110は、検出結果を後述する判定部112に出力することができる。
 (判定部112)
 判定部112は、アーティスト600が指差ジェスチャによって視聴者を選択するポインティング行為が所定の安定条件を満たしているかを判定することができる。そして、判定部112は、判定結果を後述する対オブジェクト出力制御部114に出力することができる。
 例えば、判定部112は、図9に示すように、指差ジェスチャに対応するアーティスト600の腕604の付け根の位置を示す基準点(第3の基準点)Cと、アーティスト600の手602の手首の位置を示す基準点(第1の基準点)Aとを結んだ線分(第2の線分)512、及び、基準点Cから床面700へ垂直におろした垂線(第1の垂線)500を含む平面において、線分512と垂線500とがなす角の角度θが、所定の時間内において所定の範囲にある場合に、ポインティング行為が安定条件を満たしていると判定する。詳細には、判定部112は、所定の時間(例えば、1秒間)内に、上記角の角度θを所定の回数取得し、取得した値に基づき分散σを算出し、さらに算出した標準偏差σが所定の値内であれば、上記ポインティング行為が安定条件を満たしていると判定する。
 より具体的には、本実施形態においては、例えば、下記の数式(1)に従い、分散σ及び標準偏差σを算出する。なお、数式(1)においては、θが所定の回数(i=1~n)だけ取得された角度を示し、θ(上線付)がθの平均値を示す。
Figure JPOXMLDOC01-appb-M000001
 もしくは、本実施形態においては、判定部112は、図10に示すように、空間原点O(アーティスト600が存在する実空間上に仮想的に設定される)から指差ジェスチャに対応するアーティスト600の手602の手首までの距離Dが、所定の時間内において所定の範囲にある場合に、ポインティング行為が安定条件を満たしていると判定してもよい。詳細には、判定部112は、所定の時間内に、上記距離Dを所定の回数取得し、取得した値に基づき分散σを算出し、さらに算出した標準偏差σが所定の値内であれば、ポインティング行為が安定条件を満たしていると判定する。
 より具体的には、本実施形態においては、下記の数式(1)に従い、分散σ及び標準偏差σを算出することができる。なお、数式(1)においては、Dが所定の回数(i=1~n)だけ取得された距離を示し、D(上線付)がDの平均値を示す。
Figure JPOXMLDOC01-appb-M000002
 図11に示すように、標準偏差σが小さい場合には、角度θ又は距離Dのばらつきが少なく、標準偏差σが大きい場合には、角度θ又は距離Dのばらつきが大きい。従って、算出された標準偏差σが所定の値内であれば、所定の時間において、アーティスト600の指差ジェスチャは安定的に選択した視聴者を意図したように示していると考えることができる。本実施形態においては、アーティスト600の指差ジェスチャが安定しているかどうかを統計的に判定することにより、指差ジェスチャやそれが指し示す先を誤って検出することを避けることができ、検出のロバスト性をより高めることができる。
 なお、本実施形態においては、分散σ及び標準偏差σを用いて安定条件を満たしているかを判定することに限定されるものではなく、他の指標や他の統計値を用いて判定してもよい。
 (対オブジェクト出力制御部114)
 対オブジェクト出力制御部114は、例えば、複数の視聴者側デバイス(例えば、スマートフォン、ウェアラブルデバイス等)とアーティスト600側デバイス(例えば、スマートフォン、ウェアラブルデバイス等)との間で通信を行い、選択された視聴者側のデバイスとアーティスト600側のデバイスとの間を対話可能に接続することができる。
 また、対オブジェクト出力制御部114は、選択された視聴者に応じて、当該視聴者側デバイスや、近傍のデバイス(例えば、照明、プロジェクタ、スピーカ等)等に対して、点滅、音声出力等の所定の動作を行うように制御することができる。例えば、対オブジェクト出力制御部114は、選択された視聴者のHMD260aに表示された仮想空間に、テキスト、アイコン又はアニメーション等といった様々な形態を有する仮想オブジェクト(所定の画像)を表示してもよい(VR空間共有)。若しくは、対オブジェクト出力制御部114は、選択された視聴者の存在する実空間に設置されたプロジェクタ(図示省略)を制御して、当該視聴者に、テキスト、アイコン又はアニメーション等といった様々な形態を有する仮想オブジェクト(所定の画像)を重畳して表示してもよい(AR空間共有)。
 さらに、本実施形態においては、対オブジェクト出力制御部114は、例えば、選択オブジェクトとしてのディスプレイ(図示省略)に表示された画像を消滅、拡大、縮小、変化させたり、テキスト、画像等のコンテンツの再生、停止させたりするような制御を行ってもよい。また、対オブジェクト出力制御部114は、例えば、スピーカ(図示省略)の音声を再生、停止させたり、スピーカの音声出力の指向を変化させたりしてもよい。また、対オブジェクト出力制御部114は、例えば、選択オブジェクトとしてのロボット(図示省略)を動作させてもよい。
 なお、本実施形態においては、検出ユニット100aに含まれる各機能ブロックは、図8に示される機能ブロックに限定されるものではない。
 <4.2 情報処理方法>
 以上、本実施形態に係る検出ユニット100aの各機能ブロックについて詳細に説明した。次に、本実施形態に係る情報処理方法について、図12及び図13を参照して説明する。図12は、本実施形態に係る情報処理方法のフローチャート図であり、図13は、本実施形態を説明するための説明図である。図12に示すように、本実施形態に係る情報処理方法には、ステップS101からステップS107までの複数のステップが含まれている。以下に、本実施形態に係る情報処理方法に含まれる各ステップの詳細を説明する。
 まずは、検出ユニット100aは、1人又は複数のアーティスト600に関する少なくとも1つのセンシングデータに基づいて、アーティスト600が指差ジェスチャによって視聴者を選択するポインティング行為を行っているかどうかを判定する(ステップS101)。検出ユニット100aは、アーティスト600が指差ジェスチャを行っている場合(ステップS101:Yes)には、ステップS102へ進み、アーティスト600が指差ジェスチャを行っていない場合(ステップS101:No)には、上述したステップS101の処理へ戻る。
 検出ユニット100aは、上記指差ジェスチャで指し示す先をアーティスト600が視認しやすくして、より安定して指差ジェスチャで選択先を明示することができるように、レーザポイント及びビーム矢印を表示させる(ステップS102)。
 検出ユニット100aは、図13に示すように、上記延長線520上の点に対応する視聴者(オブジェクト)610が存在するかどうかを判定する(ステップS103)。例えば、本実施形態においては、検出ユニット100aは、アーティスト600及び視聴者610の位置情報に基づき、アーティスト600側で表現された仮想空間におけるアーティスト600と視聴者610の像との相対的な位置関係を取得する。そして、検出ユニット100aは、当該相対的な位置関係に基づいて、図13に示すように、上記延長線520上に視聴者(又は、視聴者に対応する座標)610が存在するかどうかを判定することができる。そして、検出ユニット100aは、延長線520上の点に対応する視聴者610bが存在する場合(ステップS103:Yes)には、ステップS104へ進み、延長線520上の点に対応する視聴者610が存在しない場合(ステップS103:No)には、上述したステップS101の処理へ戻る。
 さらに、検出ユニット100aは、選択された視聴者(オブジェクト)610が装着するHMD260a等を制御して、レーザポイント(図示省略)等の表示を継続する(ステップS104)。
 次に、検出ユニット100aは、アーティスト600が指差ジェスチャによって視聴者610を選択するポインティング行為が所定の安定条件を満たしているかを判定する(ステップS105)。そして、検出ユニット100aは、所定の安定条件を満たしている場合(ステップS105:Yes)には、ステップS106へ進み、所定の安定条件を満たしていない場合(ステップS105:No)には、上述したステップS101の処理へ戻る。
 そして、検出ユニット100aは、アーティスト600が指差ジェスチャにより選択した視聴者(オブジェクト)610を選択オブジェクトとして検出する(ステップS106)。
 次に、検出ユニット100aは、選択された視聴者610側のデバイスとアーティスト600側のデバイスとの間を対話可能に接続する。さらに、検出ユニット100aは、各視聴者610が装着するHMD260a等を制御して、選択された視聴者610に重畳して、仮想オブジェクトを表示する(ステップS107)。そして、検出ユニット100aは、上述したステップS101の処理へ戻る。
 以上のように、本実施形態においては、基準点A及び基準点Cを検出することにより、アーティスト600が指差ジェスチャにより選択した視聴者610を検出する。詳細には、本実施形態によれば、アーティスト600の手602の手首の位置を示す基準点A、及び、当該指差ジェスチャに対応するアーティスト600の腕604の付け根の位置を示す基準点Cは、容易に検出することができることから、上述した方法によってアーティスト600が選択した視聴者610を容易に選択することができる。さらに、本実施形態においては、アーティスト600の選択動作として、選択した視聴者610に向けて指差を行う指差ジェスチャを採用しており、指差ジェスチャは、先に説明したように、日常生活の中で選択した物体等を指し示すために行う動作であり、自然で、且つ、直感的な動作であることから、アーティスト600に負担がかかることはない。すなわち、本実施形態によれば、アーティスト600による、自然で、且つ、直感的な選択動作によって選択された視聴者610を、精度よく、選択することができる。
 <4.3 変形例1>
 上述した第1の実施形態においては、延長線520上の点に対応する視聴者610が存在するかどうかで、アーティスト600が選択した視聴者610を検出していた。しかしながら、本実施形態では、このような方法で検出することに限定されるものではなく、他の方法で行うこともできる。そこで、以下においては、図14及び図15を参照して、本実施形態の変形例1として、他の方法に用いた選択した視聴者610の検出方法について説明する。図14は、本実施形態の変形例1を説明するための説明図であり、図15は、本実施形態の変形例1に係る情報処理方法のフローチャート図である。
 本変形例においては、第1の実施形態と同様に、検出ユニット100aは、指差ジェスチャに対応するアーティスト(ユーザ)600の手602の手首の位置を示す基準点(第1の基準点)Aと、指差ジェスチャに対応するアーティスト600の腕604の付け根(基準点C)から床面700へ垂直におろした垂線(第1の垂線)500上における手首の高さに対応する基準点(第2の基準点)Bとを結んだ線分(第1の線分)510から手首側へ向かって延長する延長線(第1の延長線)520を取得する。さらに、本変形例においては、図14に示すように、延長線520上に位置する点から床面700へ垂直におろした垂線(第2の垂線)502上に、上記垂線502に沿って伸びる長辺を持つ矩形状のコライダを仮想的に設置する。そして、本変形例においては、当該コライダ内に位置する視聴者610cを選択オブジェクトとして検出する。なお、本変形例においては、当該コライダの大きさは、選択したオブジェクトの大きさや、目的に応じて、適宜変更することができる。
 以上のような、本変形例によれば、上述したコライダを視聴者610の存在する実空間上に仮想的に設定し、コライダ内に位置する視聴者610を検出することにより、精度よく、且つ、漏れなく、アーティスト600が選択した視聴者610を容易に選択することができる。
 次に、本変形例に係る情報処理方法について、図15を参照して説明する。図15に示すように、本変形例に係る情報処理方法には、ステップS201からステップS208までの複数のステップが含まれている。本変形例のステップS202及びステップS203は、図12に示される第1の実施形態におけるステップS101及びステップS102における処理と同様の処理を行う。さらに、本変形例のステップS205からステップS208までは、図12に示される第1の実施形態におけるステップS104からステップS107までにおける処理と同様の処理を行う。従って、以下の説明においては、上述の第1の実施形態と異なるステップS201及びステップS204のみを説明し、第1の実施形態と共通する他のステップについては、その説明を省略する。
 検出ユニット100aは、選択オブジェクト(視聴者)610の検出モードを、上述したような、延長線520上に位置する点から床面700へ垂直におろした垂線502上に仮想的に設置されるコライダを用いたモードに設定する(ステップS201)。
 検出ユニット100aは、図14に示すように、上記コライダ内に視聴者(オブジェクト)610が存在するかどうかを判定する(ステップS204)。そして、検出ユニット100aは、コライダ内に視聴者610cが存在する場合(ステップS204:Yes)には、ステップS205へ進み、コライダ内に視聴者610が存在しない場合(ステップS204:No)には、上述したステップS202へ戻る。
 <4.4 変形例2>
 選択した視聴者610の検出は、以下のように変形することもできる。そこで、図16を参照して、本実施形態の変形例2として、他の方法に用いた選択した視聴者の検出方法について説明する。図16は、本実施形態の変形例2を説明するための説明図である。
 本変形例においては、第1の実施形態と同様に、検出ユニット100aは、指差ジェスチャに対応するアーティスト600の手602の手首の位置を示す基準点(第1の基準点)Aと、指差ジェスチャに対応するアーティスト600の腕604の付け根(基準点C)から床面700へ垂直におろした垂線(第1の垂線)500上における手首の高さに対応する基準点(第2の基準点)Bとを結んだ線分(第1の線分)510から手首側へ向かって延長する延長線(第1の延長線)520を取得する。さらに、本変形例においては、図16に示すように、延長線520を軸とし、且つ、基準点Aを頂点とする円錐形状の空間530に含まれる視聴者610cをオブジェクトとして検出する。なお、本変形例においては、上記円錐形の軸の長さや、底面の径の大きさについては、選択された視聴者610の検出状況等に応じて、動的に変化させてもよい。
 本変形例によれば、上述したような円錐形状の空間530を視聴者610の存在する実空間上に仮想的に設定し、円錐形状の空間530内に含まれる視聴者610を検出することにより、精度よく、且つ、漏れなく、アーティスト600が選択した視聴者610を容易に選択することができる。
 <4.5 変形例3>
 上述した第1の実施形態及び各変形例においては、延長線520に基づいて、一人の視聴者(オブジェクト)610を検出していた。しかしながら、本実施形態では、このように一人の視聴者610を検出することに限定されるものではなく、複数人の視聴者610を検出してもよい。そこで、以下においては、図17を参照して、本実施形態の変形例3として、複数人の視聴者610を検出する例を説明する。図17は、本実施形態の変形例3を説明するための説明図である。
 まずは、本変形例においては、検出ユニット100aは、図17に示すように、延長線520上の点に対応する一人目の視聴者610bを選択オブジェクトとして検出する。そして、検出ユニット100aは、検出した視聴者610bに選択済のラベル付けを行い、視聴者610bの情報を取得する。次に、検出ユニット100aは、アーティスト600の像から見て、視聴者610bの後方に位置して隠れてしまっている、延長線520上の点に対応する他の視聴者610cの検出を行う。そして、検出ユニット100aは、視聴者610bと同様に、視聴者610cの検出、ラベル付け、情報取得を行う。このような動作を繰り返すことにより、本変形例においては、複数の視聴者610を選択することができる。
 <<5. 第2の実施形態>>
 <5.1 検出モード>
 本開示の実施形態においては、アーティスト600の指差ジェスチャの状態に応じて、選択した視聴者610を検出する検出モードを動的に変更してもよい。そこで、図9、図18及び図19を参照して、本開示の第2の実施形態として、検出モードを切り替える実施形態を説明する。図18及び図19は、本開示の第2の実施形態を説明するための説明図である。
 本実施形態においては、例えば、3つの検出モード間で、検出モードを切り替えるものとする。詳細には、本実施形態においては、図9に示すように、指差ジェスチャに対応するアーティスト(ユーザ)600の腕604の付け根の位置を示す基準点(第3の基準点)Cと、指差ジェスチャに対応するアーティスト600の手602の手首の位置を示す基準点(第1の基準点)Aとを結んだ線分(第2の線分)512、及び、基準点Cから床面700へ垂直におろした垂線(第1の垂線)500を含む平面において、線分512と垂線500とがなす角の角度θに応じて、検出モードを切り替える。
 本実施形態における、上記角度θと検出モードとの関係は、例えば、以下の表1にまとめることができる。
Figure JPOXMLDOC01-appb-T000003
 詳細には、例えば、図9に示すように、角度θが、20°(第1の角度)以上、90°(第2の角度)以下である場合には、第1の実施形態で説明したように、延長線(第1の延長線)520上の点に対応する視聴者610を選択オブジェクトとして検出する(第1の検出モード)。
 また、例えば、図18に示すように、角度θが、90°(第2の角度)よりも大きい場合には、第2の検出モードで検出を行う。第2の検出モードにおいては、図18に示すように、線分(第2の線分)512から手首側へ向かって延長する延長線(第2の延長線)522上の点に対応する視聴者610を選択オブジェクトとして検出する。例えば、角度θが、90°よりも大きい場合には、アーティスト600は、指差ジェスチャによって自身の上方に位置する視聴者610を指し示したいと考えられる。そこで、本実施形態においては、このようなアーティスト600の意図を反映させて当該アーティスト600が選択した視聴者610を検出するために、第1の検出モードと異なる第2の検出モードで検出を行う。
 さらに、例えば、図19に示すように、角度θが、20°(第1の角度)よりも小さい場合には、選択オブジェクトを検出しない第3の検出モードを行う。例えば、角度θが、20°よりも小さい場合には、アーティスト600は、指差ジェスチャによって選択した視聴者610を指示しようとしていないと考えられる。そこで、本実施形態においては、このようなアーティスト600の意図を反映させるために、選択オブジェクトの検出を実施しない。
 以上のように、本実施形態によれば、線分512と垂線500とがなす角の角度θに応じて、検出モードを切り替えることにより、アーティスト600の意図を反映させて、当該アーティスト600が選択した視聴者610を選択する、選択しないようにすることができる。なお、上述の説明で示した具体的な角度の数値は、あくまでも例示であり、本実施形態においては、上述の数値に限定されるものではなく、閾値となる値は、アーティスト600の意図をより反映させるように、選択されることが好ましい。
 <5.2 情報処理方法>
 次に、本実施形態に係る情報処理方法について、図20を参照して説明する。図20は、本実施形態に係る情報処理方法のフローチャート図である。図20に示すように、本実施形態に係る情報処理方法には、ステップS301からステップS308までの複数のステップが含まれている。本実施形態のステップS301からステップS305までは、図12に示される第1の実施形態におけるステップS101及びステップS105における処理と同様の処理を行う。さらに、本実施形態のステップS307及びステップS308は、図12に示される第1の実施形態におけるステップS106及びステップS107における処理と同様の処理を行う。従って、以下の説明においては、上述の第1の実施形態と異なるステップS306のみを説明し、第1の実施形態と共通する他のステップについては、その説明を省略する。
 検出ユニット100aは、線分512と垂線500とがなす角の角度θに応じて、検出モードを決定する(ステップS306)。
 以上のように、本実施形態によれば、線分512と垂線500とがなす角の角度θに応じて、検出モードを切り替えることにより、アーティスト600の意図を反映させて、当該アーティスト600が選択した視聴者610を選択する、選択しないようにすることができる。
 <<6. 実施例>>
 以上、本開示の第1及び第2の実施形態について説明した。次に、具体的な実施例を示しながら、本実施形態の例をより具体的に説明する。なお、以下に示す実施例は、第1及び第2の実施形態のあくまでも一例であって、第1及び第2の実施形態が下記の実施例に限定されるものではない。
 <6.1 実施例1>
 まずは、実施例1について、図21を参照して説明する。実施例1は、VR空間共有の実施例であり、図21は、本開示の実施形態の実施例1を説明するための説明図である。本実施例においては、アーティスト600と視聴者610とは異なる実空間に存在し、図21は、アーティスト600が存在する実空間を示している。当該実空間においては、視聴者610側の仮想空間に表示されたアーティスト600の実写ボリュメトリックと各視聴者610との相対的な位置関係を保持しつつ、視聴者610に対応するアバター(立体CG画像)612a~612eが表示されているものとする。さらに、視聴者610側の仮想空間には、パフォーマンスを行うアーティスト600の実写ボリュメトリックとともに、アーティスト600が歌唱するサウンドも配信されているものとする。
 そして、本実施例においては、アーティスト600が指差ジェスチャにより、対話を行う視聴者610に対応するアバター612aを選択することにより、アーティスト600と当該アバター612aに対応する視聴者610との対話が可能となる。その際、選択したアバター612a上に、選択されたことを明示するレーザポイント表示620(仮想オブジェクト)が表示されてもよく、アバター612aの形状、色彩、模様等が、選択されたことを明示するように変化してもよい。
 なお、本実施例においては、表示されたアバター612の代わりに、アーティスト600が存在する実空間又は仮想空間に配置されたロボット(実オブジェクト)(図示省略)を用いてもよく、この場合、選択されたロボットは、移動したり、所定の動作をしたりすることができる。例えば、複数のロボットが、アーティストの指先ジェスチャに従って、移動したり、仮想空間上にマスゲームのような所定の形を形成したりしてもよい。
 <6.2 実施例2>
 次に、実施例2について、図22を参照して説明する。実施例2は、AR空間共有の実施例であり、図22は、本開示の実施形態の実施例2を説明するための説明図である。本実施例においては、パフォーマンス(例えば、ダンス等)を行うアーティスト600と視聴者610とは同一実空間に存在し、図21は、当該実空間を示している。
 そして、本実施例においては、アーティスト600が指差ジェスチャにより指し示した壁等の上に、プロジェクタ260dによりレーザポイント表示620が表示される。さらに、本実施例においては、レーザポイント表示620が表示された場所に向かって、スピーカ260eが所定の音声を出力する。この際、スピーカ260eの音声出力の指向性を制御して、レーザポイント表示620が表示された場所に向かって所定の音声を出力してもよく、指向性を持つスピーカ260eの位置を移動させて、レーザポイント表示620が表示された場所に向かって所定の音声を出力してもよい。さらに、本実施例においては、ダンスするアーティストの指先ジェスチャの指し示す方向が移動することに従って、レーザポイント表示620が表示される位置が移動したり、レーザポイント表示620が変化したり、音声の出力先が移動したり、出力された音声が変化してもよい。
 本実施例においては、視聴者は、アーティスト600のパフォーマンスを直接的に視聴するだけでなく、アーティスト600の指差ジェスチャによって奏されるコンテンツ(表示、音声)も同時に楽しむことができる。
 また、本実施例においては、各視聴者610に装着されたIMU(図示省略)等からのモーションデータに基づいて、複数の視聴者610の動きの同期性(腕の振上げ動作の高さ成分ベクトルの変動タイミング等)を検出し、同期性のレベルに応じて、レーザポイント表示620の表示形態(例えば、パーティクル表示等)等を変化させてもよい。また、同期性が高い場合には、所定の表示(アーティスト600が所定の動作を行う画像)等を追加的に行ってもよい。さらに、本実施例においては、アーティスト600や視聴者610の撮像画像やモーションデータ等を格納しておき、格納したデータを用いてコンテンツを再編集する(背景等を入れ替える等)こともできる。
 <6.3 実施例3>
 次に、実施例3について、図23を参照して説明する。実施例3は、VR空間共有の実施例であり、図23は、本開示の実施形態の実施例3を説明するための説明図である。本実施例においては、アーティスト600と視聴者610とは異なる実空間に存在する。図23(詳細には、図23の右側)は、視聴者610が、HMD260a又はスマートフォン260fを用いて視聴しているVR画像を示しているものとする。当該VR画像においては、視聴者610側の仮想空間に表示されたアーティスト600の実写ボリュメトリック600aと、アーティスト600が指差ジェスチャにより指し示した仮想空間上の壁に表示されたレーザポイント表示620とが含まれる。
 なお、本実施例においては、上記レーザポイント表示620は、アーティスト600と視聴者610との間で共有される仮想空間上に表示されてもよい。また、上記レーザポイント表示620は、アーティスト600の指差ジェスチャの変化に応じて、模様や色彩等が変化してもよく、指差ジェスチャの変化に応じて波紋が変化する等のアニメーションであってもよい。さらに、本実施例においては、アーティスト600が対話を行う視聴者610を選択した場合、選択された視聴者610のみが、アーティスト600の実写ボリュメトリック600aを視認できるようにしてもよく、もしくは、選択された視聴者610が視認する実写ボリュメトリック600aのみが、拡大、縮小したり、変化したりしてもよい。また、本実施例においては、アーティスト600によるサウンドコンテンツは、HMD260a又はスマートフォン260fを介して、視聴者610に提供されてもよい。本実施例においては、視聴者610とは異なる実空間に存在するアーティスト600のパフォーマンスの画像やサウンドを、複数の視聴者610に同時に提供することができる。
 <6.4 実施例4>
 次に、実施例4について、図24を参照して説明する。実施例4は、AR空間共有の実施例であり、図24は、本開示の実施形態の実施例4を説明するための説明図である。本実施例においては、アーティスト600と視聴者610とは異なる実空間に存在し、視聴者610が、プロジェクタ260d(例えば、多軸駆動プロジェクタ等)により視聴者610側の実空間上の壁に表示されたアーティスト600の実写ボリュメトリック600aを視認しているものとする。さらに、本実施例においては、視聴者610が存在する実空間には、複数の大型ディスプレイ260g、260hが設置されているものとする。そして、本実施例においては、アーティスト600が指差ジェスチャにより選択した大型ディスプレイ260gに、レーザポイント表示620が表示されることができる。
 <6.5 実施例5>
 次に、実施例5について、図25を参照して説明する。実施例5は、AR空間共有の実施例であり、図25は、本開示の実施形態の実施例5を説明するための説明図である。本実施例においては、アーティスト600と視聴者610とは同一実空間に存在し、図25は、当該実空間を示している。そして、本実施例においては、アーティスト600が指差ジェスチャにより選択した視聴者610の保持する、双方向視聴システム1と通信可能なサイリウム260iが点灯する。なお、本実施例においては、アーティスト600が選択した視聴者610のみを照明(スポットライト照射)するようにしてもよい(この場合、視聴者610を照明する照明装置は、双方向視聴システム1と通信可能であるものとする)。さらに、本実施例においては、サイリウム260iに限定されるものではなく、ハプティクス・デバイス260cであってもよく、視聴者610が着席する座席(図示省略)であってもよく、特に限定されるものではない。
 <6.6 実施例6>
 次に、実施例6について、図26を参照して説明する。実施例6は、AR空間共有の実施例であり、図26は、本開示の実施形態の実施例6を説明するための説明図である。本実施例においては、アーティスト600と視聴者610とは同一実空間に存在し、図26は、当該実空間を示している。さらに、本実施例においては、当該実空間には、双方向視聴システム1と通信可能な複数の照明260jが設置されているものとする。そして、本実施例においては、アーティスト600が指差ジェスチャにより選択した照明260jが点灯する。なお、本実施例においては、照明260jが点灯することに限定されるものではなく、選択した照明260jの光の色や明るさが変化してもよい。
 なお、本開示の実施形態においては、指差ジェスチャを行うのはアーティスト600に限定されるものではなく、例えば、アスリート(スポーツイベント)、教師(教育)、オペレータ(遠隔操作)、医師(遠隔医療支援)等であってもよい。
 <6.7 実施例7>
 次に、実施例7について、図27を参照して説明する。実施例7は、VR空間共有及びAR空間共有に共通の実施例であり、図27は、本開示の実施形態の実施例7を説明するための説明図である。上述した本開示の実施形態は、例えば、ディスプレイ800内の表示(VR空間共有の場合は仮想空間内に配置されたディスプレイ内の表示)を選択して、操作する際に用いることができる。例えば、図27に示すように、ディスプレイ800内の表示802をジェスチャによって選択し(図27の左側に示す)、さらに異なるジェスチャを行うことにより、表示802を消すことができる(図27の右側に示す)。なお、本実施例においては、検出ユニット100aは、手602の撮像画像やIMU等で取得したモーションデータ等により、手602によるジェスチャを認識することが可能であるものとする。
 <6.8 実施例8>
 次に、実施例8について、図28を参照して説明する。実施例8は、VR空間共有及びAR空間共有に共通の実施例であり、図28は、本開示の実施形態の実施例8を説明するための説明図である。図28に示すように、ディスプレイ800内のウィンドウ804(VR空間共有の場合は仮想空間内に配置されたディスプレイ内のウィンドウ)を指差ジェスチャによって選択し(図28の左側に示す)、さらに、指差ジェスチャで指し示す方向を移動させることにより、ウィンドウ804の位置を移動させることができる(図28の右側に示す)。なお、本実施例においては、指差ジェスチャに限定されるものではなく、手のひらをにぎるようなジェスチャなど、種々のジェスチャを適用することが可能である。
 <6.9 実施例9>
 次に、実施例9について、図29を参照して説明する。実施例9は、VR空間共有及びAR空間共有に共通の実施例であり、図29は、本開示の実施形態の実施例9を説明するための説明図である。図29に示すように、ディスプレイ800内のメニュー表示806(VR空間共有の場合は仮想空間内に配置されたディスプレイ内のメニュー表示)をジェスチャによって選択し、さらに異なるジェスチャを行うことにより、選択したメニュー表示806を確定させることができる。なお、本実施例においては、検出ユニット100aは、手602の撮像画像やIMU等で取得したモーションデータ等により、手602によるジェスチャを認識することが可能であるものとする。
 <6.10 実施例10>
 さらに、実施例10について、図30を参照して説明する。実施例10は、VR空間共有及びAR空間共有に共通の実施例であり、図30は、本開示の実施形態の実施例10を説明するための説明図である。図30に示すように、ディスプレイ800内のサブコンテンツ(例えば、動画、スライドショー等)808(VR空間共有の場合は仮想空間内に配置されたディスプレイ内のサブコンテンツ)をジェスチャによって選択し(図30の左側に示す)、さらに異なるジェスチャを行うことにより、選択したサブコンテンツ808を停止させることができる(図30の右側に示す)。なお、本実施例においては、検出ユニット100aは、手602の撮像画像やIMU等で取得したモーションデータ等により、手602によるジェスチャを認識することが可能であるものとする。
 <<7. まとめ>>
 以上説明したように、本開示の実施形態及び変形例においては、基準点A及び基準点Cを検出することにより、アーティスト600が指差ジェスチャにより選択した視聴者を検出することができる。本実施形態によれば、アーティスト600の手602の手首の位置を示す基準点A、及び、当該指差ジェスチャに対応するアーティスト600の腕604の付け根の位置を示す基準点Cは、センサで容易に検出することができることから、配信者であるアーティスト600は指し示したい視聴者を容易に選択することができる。さらに、本実施形態においては、アーティスト600の選択動作として、選択した視聴者に向けて指差を行う指差ジェスチャを採用しており、指差ジェスチャは、先に説明したように、日常生活の中で選択した物体等を指し示すために行う動作であり、自然で、且つ、直感的な動作であることから、アーティスト600に(特に腕604に)負担がかかることはない。すなわち、本実施形態によれば、アーティスト600による、自然で、且つ、直感的な選択動作によって選択された視聴者を、精度よく、選択することができる。その結果、双方向視聴システム1により、アーティスト600と特定の視聴者とが同一空間に存在して、双方が直接的にやり取りを行っているように感じられるインタラクティブなコミュニケーション体験を当該視聴者に提供することが可能となり、当該視聴者はアーティスト600との一体感を感じることができる。
 なお、本開示の実施形態は、音楽やスポーツ等のイベント、エンタテイメント等に適用するだけに限定されるものではなく、ロボット等の遠隔操作、教育、医療支援等にも適用することができる。
 <<8. ハードウェア構成について>>
 上述してきた各実施形態に係る配信者側サーバ100等の情報処理装置は、例えば図31に示すような構成のコンピュータ1000によって実現される。以下、本開示の各実施形態に係る配信者側サーバ100を例に挙げて説明する。図31は、配信者側サーバ100の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500、及び入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
 CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
 ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
 HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係る情報処理プログラムを記録する記録媒体である。
 通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
 入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
 例えば、コンピュータ1000が本開示の実施形態に係る配信者側サーバ100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされた情報処理プログラムを実行することにより、検出ユニット100a等の機能を実現する。また、HDD1400には、本開示の実施形態に係る情報処理プログラム等が格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
 また、本実施形態に係る情報処理装置は、例えばクラウドコンピューティング等のように、ネットワークへの接続(または各装置間の通信)を前提とした、複数の装置からなるシステムに適用されてもよい。つまり、上述した本実施形態に係る情報処理装置は、例えば、複数の装置により本実施形態に係る情報処理方法に係る処理を行う情報処理システムとして実現することも可能である。
 <<9. 補足>>
 また、以上に説明した実施形態は、例えば、コンピュータを本実施形態に係る情報処理装置として機能させるためのプログラム、及びプログラムが記録された一時的でない有形の媒体を含むことができる。また、上記プログラムをインターネット等の通信回線(無線通信も含む)を介して頒布してもよい。
 さらに、上述した各実施形態の処理における各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。さらに、各ステップの処理方法についても、必ずしも記載された方法に沿って処理されなくてもよく、例えば、他の機能ブロックによって他の方法で処理されていてもよい。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、又は上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 ユーザが指差ジェスチャにより選択したオブジェクトを選択オブジェクトとして検出する検出部を備え、
 前記検出部は、前記指差ジェスチャに対応する前記ユーザの手の手首の位置を示す第1の基準点と、前記指差ジェスチャに対応する前記ユーザの腕の付け根から床面へ垂直におろした第1の垂線上における前記手首の高さに対応する第2の基準点とを結んだ第1の線分から前記手首側へ向かって延長する第1の延長線に基づき、前記選択オブジェクトを検出する、
 情報処理装置。
(2)
 前記検出部は、前記第1の延長線上の点に対応する前記オブジェクトを前記選択オブジェクトとして検出する、上記(1)に記載の情報処理装置。
(3)
 前記検出部は、前記第1の延長線上に位置する点から前記床面へ垂直におろした第2の垂線に対応する前記オブジェクトを前記選択オブジェクトとして検出する、上記(1)に記載の情報処理装置。
(4)
 前記検出部は、前記第1の延長線を軸とし、且つ、前記第1の基準点を頂点とする円錐形状の空間に対応する前記オブジェクトを前記選択オブジェクトとして検出する、上記(1)に記載の情報処理装置。
(5)
 前記検出部は、複数の前記選択オブジェクトを検出する、上記(1)~(4)のいずれか1つに記載の情報処理装置。
(6)
 前記指差ジェスチャに対応する前記ユーザの腕の付け根の位置を示す第3の基準点と、前記第1の基準点とを結んだ第2の線分、及び、前記第1の垂線を含む平面において、前記第2の線分と前記第1の垂線とがなす角の角度に応じて、前記検出部の検出モードを切り替える、上記(1)に記載の情報処理装置。
(7)
 前記角の角度が、第1の角度以上、第2の角度以下である場合には、
 前記検出部は、前記第1の延長線に基づき、選択オブジェクトを検出する第1の検出モードを実行する、
 上記(6)に記載の情報処理装置。
(8)
 前記角の角度が前記第2の角度よりも大きい場合には、
 前記検出部は、前記第2の線分から前記手首側へ向かって延長する第2の延長線に基づき前記選択オブジェクトを検出する第2の検出モードを実行する、
 上記(7)に記載の情報処理装置。
(9)
 前記角の角度が前記第1の角度よりも小さい場合には、
 前記検出部は、前記選択オブジェクトを検出しない第3の検出モードを実行する、
 上記(7)又は(8)に記載の情報処理装置。
(10)
 前記ユーザが前記指差ジェスチャによって前記選択オブジェクトを選択するポインティング行為が所定の安定条件を満たしているかを判定する判定部をさらに備え、
 前記判定部は、前記角の角度、又は、空間原点から前記指差ジェスチャに対応する前記ユーザの手の手首までの距離が、所定の時間内において所定の範囲にある場合に、前記ポインティング行為が前記安定条件を満たしていると判定し、
 前記検出部は、判定結果に基づいて前記選択オブジェクトを検出する、
 上記(6)~(9)のいずれか1つに記載の情報処理装置。
(11)
 前記判定部は、前記角の角度、又は、前記距離の値を複数取得し、取得した値に基づき統計値を算出し、算出した前記統計値に基づき、前記ポインティング行為が前記安定条件を満たしているか否かを判定する、
 上記(10)に記載の情報処理装置。
(12)
 前記オブジェクトは、実空間上の実オブジェクトである、上記(1)~(11)のいずれか1つに記載の情報処理装置。
(13)
 前記実オブジェクトは、ヒト、動物、静物、ロボット、照明、通信機器、及び、ディスプレイのうちの少なくとも1つを含む、上記(12)に記載の情報処理装置。
(14)
 前記ロボット、前記照明、前記通信機器、及び、前記ディスプレイのうちの少なくとも1つに所定の動作を行わせるように制御する制御部をさらに備える、上記(13)に記載の情報処理装置。
(15)
 検出された前記選択オブジェクトに所定の画像を重畳して表示する表示部をさらに備える、上記(12)に記載の情報処理装置。
(16)
 前記オブジェクトは、仮想空間上の仮想オブジェクトである、上記(1)~(11)のいずれか1つに記載の情報処理装置。
(17)
 前記ユーザ及び前記オブジェクトは、同一実空間上に位置している、上記(1)~(16)のいずれか1つに記載の情報処理装置。
(18)
 前記ユーザ及び前記オブジェクトは、異なる空間上に位置している、上記(1)~(16)のいずれか1つに記載の情報処理装置。
(19)
 ユーザが指差ジェスチャにより選択したオブジェクトを選択オブジェクトとして検出する検出部を備え、
 前記検出部は、前記指差ジェスチャに対応する前記ユーザの手の手首の位置を示す第1の基準点と、前記指差ジェスチャに対応する前記ユーザの腕の付け根から床面へ垂直におろした第1の垂線上における前記手首の高さに対応する第2の基準点とを結んだ第1の線分から前記手首側へ向かって延長する第1の延長線に基づき、前記選択オブジェクトを検出する、
 情報処理システム。
(20)
 ユーザが指差ジェスチャにより選択したオブジェクトを選択オブジェクトとして検出するための情報処理方法であって、
 情報処理装置により、前記指差ジェスチャに対応する前記ユーザの手の手首の位置を示す第1の基準点と、前記指差ジェスチャに対応する前記ユーザの腕の付け根から床面へ垂直におろした第1の垂線上における前記手首の高さに対応する第2の基準点とを結んだ第1の線分から前記手首側へ向かって延長する第1の延長線に基づき、前記選択オブジェクトを検出することを含む、
 情報処理方法。
  1  双方向視聴システム
  100  配信者側サーバ
  100a  検出ユニット
  102  配信者側データ取得部
  104  ジェスチャ認識部
  106  レーザポイント出力制御部
  108  視聴者側データ取得部
  110  検出部
  112  判定部
  114  対オブジェクト出力制御部
  116  画像データ生成部
  118  映像ストリーミング処理部
  120  身体位置情報生成部
  122  3Dモデル位置情報生成部
  124  コンテンツデータ生成部
  126  配信部
  130  配信者側データ取得装置
  130a  マルチカメラシステム
  132  カメラ
  134a  IRカメラ
  134b  マーカ
  136  デプスセンサ
  160  配信者側出力装置
  160a  配信者側表示部
  200  視聴者側クライアント
  202  配信データ取得部
  204  コンテンツ処理部
  206、212  タイミング同期部
  208  出力制御部
  210  視聴者側データ取得部
  214  出力データ処理部
  216  配信部
  230  視聴者側データ取得装置
  260  視聴者側出力装置
  260a  HMD
  260b  視聴者側表示部
  260c  ハプティクス・デバイス
  260d  プロジェクタ
  260e  スピーカ
  260f  スマートフォン
  260g、260h、800  ディスプレイ
  260i  サイリウム
  260j  照明
  300  インターネット
  500、502  垂線
  510、512  線分
  520、522  延長線
  530  空間
  600  アーティスト
  600a  実写ボリュメトリック
  602  手
  604  腕
  610a、610b、610c、610d、610e、610f  視聴者
  612a、612b、612c、612d、612e  アバター
  620  レーザポイント表示
  700  床面
  802  表示
  804  ウィンドウ
  806  メニュー表示
  808  サブコンテンツ
  A、B、C  基準点
  D  距離
  O  原点

Claims (20)

  1.  ユーザが指差ジェスチャにより選択したオブジェクトを選択オブジェクトとして検出する検出部を備え、
     前記検出部は、前記指差ジェスチャに対応する前記ユーザの手の手首の位置を示す第1の基準点と、前記指差ジェスチャに対応する前記ユーザの腕の付け根から床面へ垂直におろした第1の垂線上における前記手首の高さに対応する第2の基準点とを結んだ第1の線分から前記手首側へ向かって延長する第1の延長線に基づき、前記選択オブジェクトを検出する、
     情報処理装置。
  2.  前記検出部は、前記第1の延長線上の点に対応する前記オブジェクトを前記選択オブジェクトとして検出する、請求項1に記載の情報処理装置。
  3.  前記検出部は、前記第1の延長線上に位置する点から前記床面へ垂直におろした第2の垂線に対応する前記オブジェクトを前記選択オブジェクトとして検出する、請求項1に記載の情報処理装置。
  4.  前記検出部は、前記第1の延長線を軸とし、且つ、前記第1の基準点を頂点とする円錐形状の空間に対応する前記オブジェクトを前記選択オブジェクトとして検出する、請求項1に記載の情報処理装置。
  5.  前記検出部は、複数の前記選択オブジェクトを検出する、請求項1に記載の情報処理装置。
  6.  前記指差ジェスチャに対応する前記ユーザの腕の付け根の位置を示す第3の基準点と、前記第1の基準点とを結んだ第2の線分、及び、前記第1の垂線を含む平面において、前記第2の線分と前記第1の垂線とがなす角の角度に応じて、前記検出部の検出モードを切り替える、請求項1に記載の情報処理装置。
  7.  前記角の角度が、第1の角度以上、第2の角度以下である場合には、
     前記検出部は、前記第1の延長線に基づき、選択オブジェクトを検出する第1の検出モードを実行する、
     請求項6に記載の情報処理装置。
  8.  前記角の角度が前記第2の角度よりも大きい場合には、
     前記検出部は、前記第2の線分から前記手首側へ向かって延長する第2の延長線に基づき前記選択オブジェクトを検出する第2の検出モードを実行する、
     請求項7に記載の情報処理装置。
  9.  前記角の角度が前記第1の角度よりも小さい場合には、
     前記検出部は、前記選択オブジェクトを検出しない第3の検出モードを実行する、
     請求項7に記載の情報処理装置。
  10.  前記ユーザが前記指差ジェスチャによって前記選択オブジェクトを選択するポインティング行為が所定の安定条件を満たしているかを判定する判定部をさらに備え、
     前記判定部は、前記角の角度、又は、空間原点から前記指差ジェスチャに対応する前記ユーザの手の手首までの距離が、所定の時間内において所定の範囲にある場合に、前記ポインティング行為が前記安定条件を満たしていると判定し、
     前記検出部は、判定結果に基づいて前記選択オブジェクトを検出する、
     請求項6に記載の情報処理装置。
  11.  前記判定部は、前記角の角度、又は、前記距離の値を複数取得し、取得した値に基づき統計値を算出し、算出した前記統計値に基づき、前記ポインティング行為が前記安定条件を満たしているか否かを判定する、
     請求項10に記載の情報処理装置。
  12.  前記オブジェクトは、実空間上の実オブジェクトである、請求項1に記載の情報処理装置。
  13.  前記実オブジェクトは、ヒト、動物、静物、ロボット、照明、通信機器、及び、ディスプレイのうちの少なくとも1つを含む、請求項12に記載の情報処理装置。
  14.  前記ロボット、前記照明、前記通信機器、及び、前記ディスプレイのうちの少なくとも1つに所定の動作を行わせるように制御する制御部をさらに備える、請求項13に記載の情報処理装置。
  15.  検出された前記選択オブジェクトに所定の画像を重畳して表示する表示部をさらに備える、請求項12に記載の情報処理装置。
  16.  前記オブジェクトは、仮想空間上の仮想オブジェクトである、請求項1に記載の情報処理装置。
  17.  前記ユーザ及び前記オブジェクトは、同一実空間上に位置している、請求項1に記載の情報処理装置。
  18.  前記ユーザ及び前記オブジェクトは、異なる空間上に位置している、請求項1に記載の情報処理装置。
  19.  ユーザが指差ジェスチャにより選択したオブジェクトを選択オブジェクトとして検出する検出部を備え、
     前記検出部は、前記指差ジェスチャに対応する前記ユーザの手の手首の位置を示す第1の基準点と、前記指差ジェスチャに対応する前記ユーザの腕の付け根から床面へ垂直におろした第1の垂線上における前記手首の高さに対応する第2の基準点とを結んだ第1の線分から前記手首側へ向かって延長する第1の延長線に基づき、前記選択オブジェクトを検出する、
     情報処理システム。
  20.  ユーザが指差ジェスチャにより選択したオブジェクトを選択オブジェクトとして検出するための情報処理方法であって、
     情報処理装置により、前記指差ジェスチャに対応する前記ユーザの手の手首の位置を示す第1の基準点と、前記指差ジェスチャに対応する前記ユーザの腕の付け根から床面へ垂直におろした第1の垂線上における前記手首の高さに対応する第2の基準点とを結んだ第1の線分から前記手首側へ向かって延長する第1の延長線に基づき、前記選択オブジェクトを検出することを含む、
     情報処理方法。
PCT/JP2021/002042 2020-01-29 2021-01-21 情報処理装置、情報処理システム及び情報処理方法 WO2021153413A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP21747621.7A EP4099275A4 (en) 2020-01-29 2021-01-21 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING SYSTEM, AND INFORMATION PROCESSING METHOD
CN202180010474.2A CN115004132A (zh) 2020-01-29 2021-01-21 信息处理装置、信息处理系统和信息处理方法
JP2021574692A JPWO2021153413A1 (ja) 2020-01-29 2021-01-21
US17/790,413 US11907434B2 (en) 2020-01-29 2021-01-21 Information processing apparatus, information processing system, and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-012995 2020-01-29
JP2020012995 2020-01-29

Publications (1)

Publication Number Publication Date
WO2021153413A1 true WO2021153413A1 (ja) 2021-08-05

Family

ID=77079883

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/002042 WO2021153413A1 (ja) 2020-01-29 2021-01-21 情報処理装置、情報処理システム及び情報処理方法

Country Status (5)

Country Link
US (1) US11907434B2 (ja)
EP (1) EP4099275A4 (ja)
JP (1) JPWO2021153413A1 (ja)
CN (1) CN115004132A (ja)
WO (1) WO2021153413A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037434A (ja) * 2007-08-02 2009-02-19 Tokyo Metropolitan Univ 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム
JP2016184203A (ja) * 2015-03-25 2016-10-20 トヨタ自動車株式会社 ポインティング入力装置
JP2017090615A (ja) * 2015-11-09 2017-05-25 三菱自動車工業株式会社 音声認識制御システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4035610B2 (ja) * 2002-12-18 2008-01-23 独立行政法人産業技術総合研究所 インタフェース装置
US8971572B1 (en) * 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
US9684372B2 (en) * 2012-11-07 2017-06-20 Samsung Electronics Co., Ltd. System and method for human computer interaction
TW201510771A (zh) * 2013-09-05 2015-03-16 Utechzone Co Ltd 指向位置偵測裝置及其方法、程式及電腦可讀取紀錄媒體
JP6851133B2 (ja) * 2014-01-03 2021-03-31 ハーマン インターナショナル インダストリーズ インコーポレイテッド ユーザに方向付けられた個人情報アシスタント
US20150309681A1 (en) * 2014-04-23 2015-10-29 Google Inc. Depth-based mode switching for touchless gestural interfaces
JPWO2016157951A1 (ja) * 2015-03-31 2018-01-25 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
JP2018528551A (ja) * 2015-06-10 2018-09-27 ブイタッチ・コーポレーション・リミテッド ユーザー基準空間座標系上におけるジェスチャー検出方法および装置
JP6488946B2 (ja) * 2015-08-21 2019-03-27 富士通株式会社 制御方法、プログラム及び制御装置
US11176745B2 (en) * 2019-09-20 2021-11-16 Facebook Technologies, Llc Projection casting in virtual environments

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037434A (ja) * 2007-08-02 2009-02-19 Tokyo Metropolitan Univ 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム
JP2016184203A (ja) * 2015-03-25 2016-10-20 トヨタ自動車株式会社 ポインティング入力装置
JP2017090615A (ja) * 2015-11-09 2017-05-25 三菱自動車工業株式会社 音声認識制御システム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
PISHED BUNNUNWALTERIO W. MAYOL-CUEVAS: "7th IEEE/ACM International Symposium on Mixed and Augmented Reality", 2008, IEEE, article "OutlinAR: an assisted interactive model building system with reduced computational effort"
See also references of EP4099275A4
YATA, YUKIHIRO; WATANABE, KEN; NAGAO, KATASHI: "Natural Interface of Personal Intelligent Vehicles by Hand Gesture Recognition", PROCEEDINGS OF THE 75TH NATIONAL CONVENTION OF THE INFORMATION PROCESSING SOCIETY OF JAPAN, 6 March 2013 (2013-03-06), pages 4-101 - 4-102, XP009530202 *

Also Published As

Publication number Publication date
EP4099275A1 (en) 2022-12-07
CN115004132A (zh) 2022-09-02
US20230071828A1 (en) 2023-03-09
US11907434B2 (en) 2024-02-20
EP4099275A4 (en) 2023-07-05
JPWO2021153413A1 (ja) 2021-08-05

Similar Documents

Publication Publication Date Title
JP7366196B2 (ja) 広範囲同時遠隔ディジタル提示世界
EP3427130B1 (en) Virtual reality
US7817104B2 (en) Augmented reality apparatus and method
US20150070274A1 (en) Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements
JP2022549853A (ja) 共有空間内の個々の視認
CN109643161A (zh) 动态进入和离开由不同hmd用户浏览的虚拟现实环境
US20210350604A1 (en) Audiovisual presence transitions in a collaborative reality environment
JP6470859B1 (ja) ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
JP2023139098A (ja) 画像生成装置および画像生成方法
US20180299948A1 (en) Method for communicating via virtual space and system for executing the method
US20160320833A1 (en) Location-based system for sharing augmented reality content
US10564801B2 (en) Method for communicating via virtual space and information processing apparatus for executing the method
JP2023015061A (ja) プログラム
Suma et al. Sharing space in mixed and virtual reality environments using a low-cost depth sensor
WO2018115840A1 (en) Virtual reality content control
US20220405996A1 (en) Program, information processing apparatus, and information processing method
WO2021153413A1 (ja) 情報処理装置、情報処理システム及び情報処理方法
WO2022075152A1 (ja) 情報処理装置、情報処理方法及び情報配信システム
US20220230357A1 (en) Data processing
JP2019160295A (ja) ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
JP7111848B2 (ja) プログラム、情報処理装置、および方法
EP4206867A1 (en) Peripheral tracking system and method
WO2022107294A1 (ja) Vr映像空間生成システム
US20240078767A1 (en) Information processing apparatus and information processing method
JP2024047006A (ja) 情報処理システムおよびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21747621

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021574692

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021747621

Country of ref document: EP

Effective date: 20220829