JP2017062598A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2017062598A
JP2017062598A JP2015187005A JP2015187005A JP2017062598A JP 2017062598 A JP2017062598 A JP 2017062598A JP 2015187005 A JP2015187005 A JP 2015187005A JP 2015187005 A JP2015187005 A JP 2015187005A JP 2017062598 A JP2017062598 A JP 2017062598A
Authority
JP
Japan
Prior art keywords
image
observer
information processing
virtual space
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015187005A
Other languages
English (en)
Inventor
翼 塚原
Tsubasa Tsukahara
翼 塚原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2015187005A priority Critical patent/JP2017062598A/ja
Priority to US15/743,921 priority patent/US10855925B2/en
Priority to PCT/JP2016/068146 priority patent/WO2017051570A1/ja
Priority to EP16848360.0A priority patent/EP3355278A4/en
Publication of JP2017062598A publication Critical patent/JP2017062598A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • G09G5/026Control of mixing and/or overlay of colours in general
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】より利便性が高い仮想空間の画像を観察者に視認させる情報処理装置、情報処理方法、およびプログラムを提供する。【解決手段】仮想空間の画像に対する観察者の注視点または注視対象に基づいて、前記仮想空間の画像を規定する仮想カメラの画角を制御する制御部と、前記仮想空間の画像に関する情報を出力する画像情報出力部と、を備える、情報処理装置。【選択図】図1

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
近年、観察者に対する出力インタフェースとして、仮想空間の画像を用いることが検討されている。
例えば、下記の特許文献1に開示されるようなテレビ会議システムにおいて、仮想空間の画像を適用することが検討されている。具体的には、テレビ会議システムにおいて、実空間の画像ではなく、空間内を自由に視点変更することが可能な仮想空間の画像を観察者に視認させることが検討されている。このような場合、観察者は、様々な視点の画像を視認することができるため、より多くの情報を知覚することができる。
このような仮想空間の画像における視点の変更は、一般的に仮想空間の画像を規定する仮想カメラの画角を、仮想空間の原点を基準として制御することによって行われる。
特開2009−81881号公報
しかしながら、観察者が視認したい対象とは無関係な仮想空間の原点を基準として仮想カメラの画角が制御された場合、観察者は視認したい対象を見失いやすかった。したがって、上記の方法によって制御された仮想カメラの画角に含まれる仮想空間の画像は、観察者にとって利便性が低かった。
そこで、本開示では、より利便性が高い仮想空間の画像を観察者に視認させることが可能な情報処理装置、情報処理方法、およびプログラムを提案する。
本開示によれば、仮想空間の画像に対する観察者の注視点または注視対象に基づいて、前記仮想空間の画像を規定する仮想カメラの画角を制御する制御部と、前記仮想空間の画像に関する情報を出力する画像情報出力部と、を備える、情報処理装置が提供される。
また、本開示によれば、演算処理装置により、仮想空間の画像に対する観察者の注視点または注視対象に基づいて、前記仮想空間の画像を規定する仮想カメラの画角を制御することと、前記仮想空間の画像に関する情報を出力することと、を含む、情報処理方法が提供される。
さらに、本開示によれば、コンピュータを仮想空間の画像に対する観察者の注視点または注視対象に基づいて、前記仮想空間の画像を規定する仮想カメラの画角を制御する制御部と、前記仮想空間の画像に関する情報を出力する画像情報出力部と、として機能させる、プログラムが提供される。
本開示によれば、観察者が視認したい対象に基づいて仮想カメラの画角を制御することが可能である。
以上説明したように本開示によれば、観察者は、より利便性が高い仮想空間の画像を視認することが可能である。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の第1の実施形態に係る情報処理装置の概要を説明する説明図である。 比較例に係る仮想カメラの画角の制御を説明する説明図である。 同実施形態に係る仮想カメラの画角の制御を説明する説明図である。 同実施形態に係る情報処理装置の機能構成を説明するブロック図である。 仮想カメラの画角の回転を説明する説明図である。 仮想カメラのズームインまたはズームアウトを説明する説明図である。 仮想カメラのズームインにおける画像例を示す説明図である。 仮想カメラの平行移動を説明する説明図である。 仮想カメラの平行移動における画像例を示す説明図である。 画像生成部が生成するポイントクラウド画像を示す模式図である。 画像生成部が生成するメッシュ画像を示す模式図である。 同実施形態に係る情報処理装置の動作の一例を示すフローチャート図である。 同実施形態に係る情報処理装置の第1の用途例を説明する説明図である。 同実施形態に係る情報処理装置の第2の用途例を説明する説明図である。 本開示の第2の実施形態に係る情報処理装置の機能構成を示したブロック図である。 同実施形態に係る情報処理装置の使用例を説明する説明図である。 同実施形態に係る情報処理装置の使用例を説明する説明図である。 同実施形態に係る情報処理装置の使用例を説明する説明図である。 同実施形態の第1の変形例に係る情報処理装置について説明する説明図である。 同実施形態の第2の変形例に係る情報処理装置について説明する説明図である。 本開示の各実施形態に係る情報処理装置のハードウェア構成例を示したブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態
1.1.情報処理装置の概要
1.2.情報処理装置の構成
1.3.情報処理装置の動作
1.4.情報処理装置の用途
2.第2の実施形態
2.1.情報処理装置の構成
2.2.情報処理装置の用途
2.3.変形例
3.ハードウェア構成例
4.まとめ
<1.第1の実施形態>
[1.1.情報処理装置の概要]
まず、図1〜図2Bを参照して、本開示の一実施形態に係る情報処理装置の概要について説明する。図1は、本実施形態に係る情報処理装置の概要を説明する説明図である。また、図2Aは、比較例に係る仮想カメラの画角の制御を説明する説明図であり、図2Bは、本実施形態に係る仮想カメラの画角の制御を説明する説明図である。
図1に示すように、本実施形態に係る情報処理装置は、観察者2によって視認される仮想空間の画像5を生成するものである。仮想空間とは、情報処理装置が実行する情報処理によって構築された仮想上の三次元空間である。また、仮想空間の画像5とは、該仮想空間の所定の位置に設置された仮想カメラにて、該仮想空間を撮像した場合に得られる画像である。
このような仮想空間の画像5は、例えば、テレビ電話、およびテレビ会議などに用いることができる。例えば、仮想空間の画像5は、遠隔地の実空間に存在する被観察者の画像30を含む画像であってもよい。
仮想空間の画像5の内容は、上述したように仮想空間内に設定された仮想カメラの画角によって規定される。情報処理装置は、仮想カメラの画角を制御することによって、観察者2に視認される仮想空間の画像5を変更することができる。具体的には、情報処理装置は、仮想空間内における仮想カメラの位置および向きを制御することにより、様々な視点からの仮想空間の画像を観察者2に視認させることができる。
ここで、観察者2によって視認されている対象とは無関係な固定点(例えば、仮想空間における原点など)を回転中心として仮想カメラの画角を回転させる場合、観察者2により視認されている対象を仮想カメラの画角の中央に捉え続けることは困難であった。
例えば、図2Aに示す被観察者の画像31を含む仮想空間の画像51Aにおいて、仮想空間の固定点41を回転中心として仮想カメラの画角を回転させた場合、回転後の画像51Bでは、被観察者の画像31は、画像51Bの中央から外れた位置に移動してしまう。これは、仮想カメラの画角を回転させる場合、回転中心から対象が離れるほど、回転によって対象が大きく移動してしまうためである。
すなわち、このような仮想カメラの画角の制御では、観察者2が視認したい対象を中央に捉えたまま、仮想カメラの位置および向きを制御することは困難であった。特に、仮想カメラの画角の回転中心である固定点と、視認したい対象との距離が離れている場合、小さな画角の回転でも視認したい対象が仮想カメラの画角から外れてしまうことがあり、利便性が低かった。
一方、本実施形態に係る情報処理装置は、仮想空間の画像における観察者2の注視点または注視対象に基づいて仮想カメラの画角を制御する。例えば、図2Bに示す被観察者の画像32を含む仮想空間の画像52Aにおいて、画像52Aの中から観察者2の視線情報に基づいて注視点を検出し、検出した注視点に基づいた基準点42を回転中心として仮想カメラの画角を回転させる。このような場合、回転後の画像52Bでは、被観察者の画像32を画像52Bの中央に位置させることができる。これは、多くの場合、観察者2は、視認したい対象を注視しているため、観察者2の注視点に基づいた基準点42を回転中心として仮想カメラの画角を回転させることによって、観察者2が視認している対象の移動量を小さくすることができるためである。
このような本実施形態に係る情報処理装置によれば、観察者2が視認したい対象を仮想空間の画像の中央に捉えたまま、仮想カメラの画角を制御し、仮想空間内を自由に視点変更することができる。また、本実施形態に係る情報処理装置によれば、仮想カメラの画角が変更された際に、観察者2によって視認されている対象が仮想カメラの画角から外れ、観察者2が視認していた対象を見失うことを防止することができる。したがって、本実施形態に係る情報処理装置は、観察者2に対する仮想空間の画像の利便性を向上させることができる。
さらに、本実施形態に係る情報処理装置によれば、仮想カメラの画角を制御するための基準となる点を仮想空間内において動的に変更することができる。このような場合、観察者2は、視認したい対象を注視することによって、仮想カメラの画角の制御の基準点を変更することができる。これにより、本実施形態に係る情報処理装置は、観察者2に直感的に仮想カメラの位置および向きを変更させることができ、様々な視点の仮想空間の画像を視認させることが可能である。
なお、本実施形態に係る情報処理装置は、仮想空間の画像を表示する表示装置であってもよく、仮想空間の画像を生成し、外部の表示装置に画像情報を出力する情報処理装置であってもよい。例えば、本実施形態に係る情報処理装置は、透過型または遮蔽型のヘッドマウントディスプレイ装置、全天周に画像を表示することができるドーム型ディスプレイ、液晶表示装置および有機エレクトロルミネッセンス表示装置などの表示装置、三次元画像を表示可能な3D表示装置、ならびに二次元画像または三次元画像を表示することができるプロジェクタ表示装置などであってもよく、これらの表示装置に画像情報を出力する情報処理装置であってもよい。
ここで、本実施形態に係る情報処理装置にて生成される仮想空間の画像は、例えば、実空間に設置された撮像装置によって撮像された画像に基づいて生成されたものであってもよく、実空間に設置された各種センサの測定結果に基づいて生成されたものであってもよい。また、仮想空間の画像は、実空間の情報等に基づかずに生成されたものであってもよいことは言うまでもない。具体的には、仮想空間の画像は、実空間に設置された少なくとも1つ以上のデプスセンサによって測定されたデプス情報に基づいて生成されたポイントクラウド画像であってもよい。ここで、デプスセンサとは、センサから対象までの距離を測定し、測定した距離をデプス情報として出力することが可能なセンサである。また、ポイントクラウド画像とは、デプスセンサから対象までの距離に基づいて、対象を仮想空間上に配置された点の集合として表現した画像である。
[1.2.情報処理装置の構成]
次に、図3〜図8を参照して、本実施形態に係る情報処理装置の構成を説明する。図3は、本実施形態に係る情報処理装置1の機能構成を説明するブロック図である。
図3に示すように、情報処理装置1は、注視点検出部100と、基準点設定部110と、画角制御情報取得部120と、制御部130と、入力部140と、画像情報出力部150と、画像生成部160と、を備える。
注視点検出部100は、観察者2の注視点を検出する。注視点検出部100が注視点を検出する方法は、公知の方法を用いることができる。例えば、注視点検出部100は、撮像装置によって撮像された観察者2の画像を解析し、眼球の中心および瞳孔を検出することで注視点を検出してもよい。また、注視点検出部100は、赤外線を観察者2の眼球に照射することで取得した角膜表面での反射光と、撮像装置により検出した瞳孔の位置とを用いて注視点を検出してもよい。
さらに、注視点検出部100は、観察者2の視線を検出し、観察者2の視線と仮想空間の画像(例えば、仮想空間において最前面の対象)との交点を観察者2の注視点としてもよい。また、注視点を検出するセンサの検出限界等により注視点が検出できず、観察者2の視線のみが検出される場合、注視点検出部100は、観察者2の視線と、センサの検出限界との交点を観察者2の注視点としてもよい。
基準点設定部110は、観察者2の注視点に基づいて、仮想空間内に基準点を設定する。具体的には、基準点設定部110は、注視点検出部100によって検出された観察者2の注視点に基づいて、仮想空間内に仮想カメラの画角を制御するための基準点を設定する。なお、観察者2が仮想空間の画像を視認していない場合、基準点設定部110は、仮想空間内に基準点を設定しなくともよく、後述する制御部130は、仮想空間の画角の制御を行わなくともよい。
例えば、基準点設定部110は、観察者2の注視点と基準点とが常に一致するように基準点を設定してもよい。また、基準点設定部110は、所定のタイミングにおける観察者2の注視点を基準点として設定し、一定周期(例えば、1分ごとなど)にて基準点を更新してもよい。また、基準点設定部110は、観察者2の注視点の移動量が所定の期間(例えば、5秒間など)、閾値未満である場合、当該タイミングにおける観察者2の注視点を基準点として設定してもよい。さらに、基準点設定部110は、観察者2の注視点を所定の期間(例えば、10秒間など)にて移動平均した点を基準点として設定してもよい。
画角制御情報取得部120は、仮想空間の画像を規定する仮想カメラの画角を制御することを指示する情報を取得する。具体的には、画角制御情報取得部120は、仮想空間の画像を規定する仮想カメラの位置および向きを制御することを指示する情報を取得する。
例えば、画角制御情報取得部120は、観察者2からの入力を受け付ける入力装置を備え、該入力装置によって観察者2からの仮想カメラの画角を制御することを指示する情報が入力されてもよい。このような入力装置としては、例えば、タッチパネル、マウス、キーボード、ボタン、スイッチおよびレバーなどを例示することができる。
また、画角制御情報取得部120は、観察者2の頭部の動きを検出し、観察者2の頭部の動きに関する情報を仮想カメラの画角を制御する情報として取得してもよい。なお、観察者2の頭部の動きは、例えば、撮像装置によって撮像された観察者2の画像の解析、または観察者2の頭部に備えられた加速度センサ等の測定により、検出することが可能である。
制御部130は、観察者2の注視点に基づいて設定された基準点に基づいて、仮想カメラの画角を制御する。具体的には、制御部130は、画角制御情報取得部120により取得された仮想カメラの画角を制御することを指示する情報に応じて、基準点設定部110によって設定された基準点を用いて仮想カメラの画角を制御する。なお、制御部130は、観察者2から仮想カメラの画角を固定することを指示する入力を受けた場合、または視線情報から観察者2が仮想空間の画像を視認していないと判断される場合、仮想カメラの画角を固定するように制御を切り替えてもよい。
例えば、画角制御情報取得部120が観察者2からの入力を受け付ける入力装置である場合、制御部130は、観察者2によって入力された仮想カメラの画角の回転の指示に応じて、基準点を回転中心として仮想カメラの画角を回転させてもよい。また、制御部130は、観察者2によって入力された仮想カメラのズームインまたはズームアウトの指示に応じて、基準点に対して仮想カメラをズームインまたはズームアウトさせてもよい。
例えば、画角制御情報取得部120が観察者2の頭部の動きを検出するものである場合、制御部130は、観察者2の頭部の動きに応じて、基準点を回転中心として仮想カメラの画角を回転させてもよい。また、制御部130は、観察者2の頭部の動きに応じて、基準点に対して仮想カメラをズームインまたはズームアウトさせてもよく、観察者2の頭部の動きに応じて、基準点に対して仮想カメラを平行移動させてもよい。
このような観察者2の頭部の動きに応じて、仮想カメラの動きおよび向きを制御する場合について、図4〜図6Bを参照して、より具体的に説明する。図4は、仮想カメラの画角の回転を説明する説明図である。また、図5Aは、仮想カメラのズームインまたはズームアウトを説明する説明図であり、図5Bは、仮想カメラのズームインにおける画像例を示す説明図である。さらに、図6Aは、仮想カメラの平行移動を説明する説明図であり、図6Bは、仮想カメラの平行移動における画像例を示す説明図である。
図4に示すように、観察者2の頭部が回転した場合、制御部130は、基準点を回転中心として仮想カメラの画角を回転させる。具体的には、制御部130は、観察者2の頭部の回転の方向と、仮想カメラの画角の回転の方向とが基準点を中心として対称になるように仮想カメラの画角を回転させる。このような制御によれば、制御部130は、観察者2に対して、より違和感が少ない仮想空間の画像を視認させることができる。また、制御部130は、仮想空間の画像5に被観察者の画像が含まれる場合、頭部を回転させた観察者2と、仮想空間の画像5の被観察者との視線が合うように仮想カメラの画角を回転させることができる。なお、観察者2の頭部の回転とは、図4に示す左右方向の回転に限らず、上下方向の回転(例えば、見上げる、または見下ろす動作による回転)をも含むことは言うまでもない。
また、図5Aに示すように、観察者2の頭部が仮想空間の画像5(すなわち、表示装置)に近づいた、または離れた場合、制御部130は、基準点に対して仮想カメラをズームインまたはズームアウトする。具体的には、制御部130は、観察者2の頭部が仮想空間の画像5に近づいた場合、仮想カメラを基準点に向かってズームインさせる。また、制御部130は、観察者2の頭部が仮想空間の画像から離れた場合、仮想カメラを基準点からズームアウトさせる。
例えば、図5Bに示す被観察者の画像33を含む仮想空間の画像53Aに対して、観察者2が頭部を接近させた場合、観察者2は、注視点に基づく基準点42に向かってズームインした仮想空間の画像53Bを視認することができる。このような場合、観察者2は、頭部の動きにより、直感的に仮想カメラを制御し、より違和感が少ない仮想空間の画像を視認することができる。
また、図6Aに示すように、観察者2の頭部が仮想空間の画像5(すなわち、表示装置)に対して左右に平行移動した場合、制御部130は、基準点に対して仮想カメラの画角を左右に平行移動させる。具体的には、制御部130は、観察者の頭部の仮想空間の画像5に対する平行移動の方向と、仮想カメラの画角の平行移動の方向とが基準点に対して対称になるように仮想カメラの画角を平行移動させる。このような制御によれば、制御部130は、観察者2が仮想空間の画像5に対して移動した場合でも、視認している対象が並進するように移動した仮想空間の画像5を観察者2に視認させることができる。
例えば、図6Bに示す被観察者の画像34を含む仮想空間の画像54Aに対して、観察者2が右側に平行移動した場合、観察者2は、基準点42に対して、被観察者の画像34が右側に平行移動した仮想空間の画像54Bを視認することができる。このような場合、観察者2は、仮想空間の画像に対して平行移動した場合でも、視認している対象を正面に捉え続けることができる。
さらに、制御部130は、上記の制御を複合して実行してもよい。具体的には、観察者2の頭部が回転した場合、制御部130は、基準点に対して仮想カメラを回転させ、かつ平行移動させてもよい。また、観察者2の頭部が平行移動した場合、制御部130は、基準点に対して仮想カメラを平行移動させ、かつ回転させてもよい。制御部130は、このような制御を複合して実行することにより、観察者2の頭部の動きに対して、より違和感のない自然な仮想カメラの制御を行うことができる。
なお、観察者2の頭部の動き量に対応する仮想カメラの動き量は、観察者2が仮想空間の画像を視認するにあたって違和感が少なくなるように、適宜設定することが好ましい。また、上記の仮想カメラの動き量は、観察者2が仮想空間の画像中の被観察者に対して目線を合わせたいのか、観察者2が仮想空間の画像中の被観察者と共同作業をしたいのか、または観察者2が仮想空間の画像中の被観察者と空間を共有したいのか等の目的に基づいて設定されてもよい。
入力部140には、仮想空間の画像を生成するための情報が入力される。例えば、入力部140は、実空間に設置された撮像装置、または各種センサ(例えば、デプスセンサ)などであってもよい。また、入力部140は、実空間に設置された撮像装置、または各種センサなどからの情報が入力されるUSB(Universal Serial Bus)インタフェース、イーサネット(登録商標)インタフェース、IEEE802.11規格インタフェース等の有線または無線の外部入力インタフェースであってもよい。
画像情報出力部150は、仮想カメラの画角の制御に関する情報を含む仮想空間の画像に関する情報を出力する。また、画像情報出力部150は、入力部140に入力された仮想空間の画像を生成するための情報をさらに出力してもよい。例えば、画像情報出力部150は、仮想空間の画像に関する情報を画像生成部160に出力する内部バス、ブリッジまたはインタフェースなどであってもよく、仮想空間の画像に関する情報を情報処理装置1の外部に備えらえた画像生成部160に出力するUSBインタフェース、イーサネットインタフェース、IEEE802.11規格インタフェース等の有線または無線の外部出力インタフェースであってもよい。
画像生成部160は、画像情報出力部150から出力された仮想空間の画像に関する情報に基づいて、仮想空間の画像を生成する。具体的には、画像生成部160は、入力部140に入力された仮想空間の画像を生成するための情報と、制御部130によって制御された仮想カメラの画角とに基づいて、仮想空間の画像を生成する。例えば、画像生成部160は、まず、仮想空間の画像を生成するための情報に基づいて仮想空間を生成し、次に、仮想カメラの画角に含まれる仮想空間の画像を生成してもよい。
また、画像生成部160は、生成した仮想空間の画像において、観察者2の注視点を明示する画像を生成してもよい。このような場合、観察者2は、仮想カメラの画角を制御する際に、自身の注視点から制御の基準点を把握することができるため、より直感的に仮想カメラの画角の制御を指示することができる。
ここで、画像生成部160が生成する仮想空間の画像について、図7および図8を参照して説明する。図7は、画像生成部160が生成するポイントクラウド画像を示す模式図であり、図8は、画像生成部160が生成するメッシュ画像を示す模式図である。
図7に示すように、画像生成部160は、仮想空間内の対象をドット、キューブ、またはスクエアの集合にて表現したポイントクラウド画像を生成してもよい。ポイントクラウド画像とは、対象を仮想空間上に配置された点の集合として表現した画像である。具体的には、ポイントクラウド画像は、対象までの距離を測定するデプスセンサと、対象の色を検出する撮像装置とを用い、対象の色および立体形状を点の集合として表現することで生成される。
デプスセンサが対象までの距離を測定する方法は、公知のものを使用することができるが、例えば、赤外線等を照射し、照射した赤外線の反射光が戻るまでの時間から対象までの距離を測定する方法、赤外線等でパターンを照射し、対象に映ったパターンの歪みから対象までの距離を測定する方法、またはステレオカメラにて撮像した画像をマッチングし、画像同士の視差から対象までの距離を測定する方法などを用いることができる。
また、図8に示すように、画像生成部160は、対象をポリゴンなどで表現したメッシュ画像を生成してもよい。なお、画像生成部160による仮想空間の画像の表現方法としては、上記に限定されず、公知のものを使用することが可能である。
このような構成により、本実施形態に係る情報処理装置1は、観察者2の注視点または注視対象に基づいて設定された基準点にて、仮想空間の画像を規定する仮想カメラの画角を制御することができる。これにより、情報処理装置1は、観察者2が視認したい対象を仮想空間の画像の中央に捉えたまま仮想カメラの画角を制御し、観察者2に仮想空間内を自由に視点変更させることができる。したがって、情報処理装置1は、観察者2に対して、視認したい対象が仮想カメラの画角から外れることが少なく、利便性が高い仮想空間の画像を視認させることができる。
[1.3.情報処理装置の動作]
続いて、図9を参照して、本実施形態に係る情報処理装置1の動作について説明する。図9は、本実施形態に係る情報処理装置1の動作の一例を示すフローチャート図である。ただし、以下で示す動作例は、あくまで例示であり、本実施形態に係る情報処理装置の動作が以下で示す例示に限定されるわけではない。
図9に示すように、まず、入力部140からの情報に基づいて、画像生成部160は、画像カメラの画角に含まれる仮想空間の画像を生成する(S101)。ここで、入力部140からの情報とは、例えば、デプスセンサによって測定された実空間の対象のデプス情報、および撮像装置によって測定された実空間の対象の色情報などである。次に、画角制御情報取得部120を介して、観察者2による仮想カメラの画角の制御の指示を取得する(S103)。なお、観察者2による仮想カメラの画角の制御の指示とは、例えば、観察者2の頭部の動きなどである。
続いて、注視点検出部100は、仮想空間の画像における観察者2の注視点を検出し(S105)、基準点設定部110は、観察者2の注視点に基づいて、仮想空間内に基準点を設定する(S107)。次に、制御部130は、観察者2の指示に応じ、設定された基準点を用いて、仮想カメラの画角を制御する(S109)。さらに、画像情報出力部150は、仮想カメラの画角に関する情報を含む仮想空間の画像に関する情報を出力し、画像生成部160は、制御部130による制御後の仮想カメラの画角に含まれる仮想空間の画像を生成する。これにより、観察者2は、自由に仮想カメラの画角を制御し、仮想空間の画像を視認することができる。
[1.4.情報処理装置の用途]
次に、図10および図11を参照して、上記にて説明した本実施形態に係る情報処理装置1の用途例について説明する。図10は、本実施形態に係る情報処理装置1の第1の用途例を説明する説明図であり、図11は、本実施形態に係る情報処理装置1の第2の用途例を説明する説明図である。
(第1の用途例)
図10に示すように、本実施形態に係る情報処理装置1の第1の用途例は、それぞれ離れた場所に存在する観察者2と、被観察者3との間で、画像および音声を介したコミュニケーションを行うためのテレビ電話またはテレビ会議システムである。
具体的には、観察者2は、本実施形態に係る情報処理装置1を用いて、仮想空間の画像5Aに含まれる被観察者の画像30を視認しながらコミュニケーションを行うことができる。また、同様に、被観察者3は、本実施形態に係る情報処理装置1を用いて仮想空間の画像5Bに含まれる観察者の画像20を視認しながら、コミュニケーションを行うことができる。このような場合、例えば、仮想空間の画像5Aは、被観察者3が存在する実空間に基づいたものであってもよく、仮想空間の画像5Bは、観察者2が存在する実空間に基づいたものであってもよい。
本実施形態に係る情報処理装置1によれば、観察者2は、仮想空間において視点変更するために、仮想カメラの画角を制御した場合でも、被観察者の画像30が仮想カメラの画角から外れて見失うことを防止することができる。したがって、観察者2、および被観察者3は、より質が高いコミュニケーションを行うことができる。
(第2の用途例)
図11に示すように、本実施形態に係る情報処理装置1の第2の用途例は、あらかじめ収録された時系列の仮想空間の画像5を順次再生することで、観察者2が事象(例えば、会議など)の画像30A、30B、および30Cを自由な視点にて視認することを可能にする画像再生装置である。
具体的には、仮想空間の画像5は、遠隔地等の実空間に基づいたリアルタイムの画像ではなく、例えば、あらかじめ収録された会議または作業などの事象の画像である。観察者2は、仮想空間内を自由に視点変更しながら、時系列の仮想空間の画像5を視認することで、事象の画像30A、30B、および30Cを自由な視点で把握することができる。
また、このような時系列の仮想空間の画像5は、実際の事象の速度に対して再生速度を可変として再生されてもよい。これによれば、時系列の仮想空間の画像5の再生速度を実際の事象の速度よりも速くすることで、観察者2は、実際の時間よりも短時間で事象を把握することが可能である。また、時系列の仮想空間の画像5の再生速度を実際の事象の速度よりも遅くすることで、観察者2は、より深く事象を把握することも可能である。
本実施形態に係る情報処理装置1によれば、観察者2は、注視点または注視対象に基づいた基準点を用いて、仮想カメラの画角を制御することができるため、過去の事象を再生した仮想空間の画像を自由な視点で視認することができる。したがって、観察者2は、再生した過去の事象を様々な視点で多面的に把握することができる。
以上にて、本開示の第1の実施形態に係る情報処理装置1について、詳細に説明した。
<2.第2の実施形態>
次に、図12〜図17を参照して、本開示の第2の実施形態に係る情報処理装置について説明する。
本実施形態に係る情報処理装置は、1対1、または1対複数による共同作業を行うためのものであり、被観察者3に対して、観察者2の視点である仮想カメラの位置および向きを通知する手段を備えるものである。また、本実施形態に係る情報処理装置は、共同作業を円滑に行うために、被観察者3に対する観察者2からの操作および指示などの干渉に関する情報を出力する手段を備えるものである。
[2.1.情報処理装置の構成]
まず、図12を参照して、本実施形態に係る情報処理装置の構成について説明する。図12は、本実施形態に係る情報処理装置1Aの機能構成を示したブロック図である。
図12に示すように、情報処理装置1Aは、注視点検出部100と、基準点設定部110と、画角制御情報取得部120と、制御部130と、入力部140と、画像情報出力部150と、画像生成部160と、干渉情報取得部170と、出力部180と、を備える。
なお、注視点検出部100、基準点設定部110、画角制御情報取得部120、制御部130、入力部140、画像情報出力部150、および画像生成部160の具体的な構成については、第1の実施形態にて説明した構成と実質的に同様であるため、ここでの詳細な説明は省略する。
干渉情報取得部170は、仮想空間に対応し、被観察者3が存在する実空間への観察者2からの干渉に関する情報を取得する。具体的には、干渉情報取得部170は、観察者2から被観察者3に対する共同作業の注意喚起および操作などの干渉に関する情報を取得する。例えば、干渉情報取得部170は、観察者2から、実空間内の特定の対象へ被観察者3の注意を向けるための注意喚起を促す情報を取得してもよい。また、干渉情報取得部170は、観察者2から、実空間内の機器(例えば、空調機器、照明機器、および情報機器など)を操作するための操作情報を取得してもよい。
このような干渉情報取得部170は、例えば、観察者2からの入力を受け付ける入力装置を備えており、該入力装置によって上記の干渉情報が入力されることで、実空間への干渉情報を取得する。観察者2からの入力を受け付ける入力装置としては、例えば、タッチパネル、マウス、キーボード、ボタン、マイクロフォン、スイッチおよびレバーなどを例示することができる。
出力部180は、仮想空間における仮想カメラの位置および向きに関する情報を出力する。仮想カメラの位置および向きに関する情報は、例えば、被観察者3に対して、観察者2の視点を通知するために用いられる。
例えば、被観察者3が透過型または遮蔽型のヘッドマウントディスプレイ装置を装着している場合、観察者2の視点は、仮想カメラの位置および向きを表す画像を仮想空間の画像に重畳することによって被観察者3に通知されてもよい。また、被観察者3がヘッドマウントディスプレイ装置以外の表示装置を視認している場合、観察者2の視点は、仮想カメラの位置および向きを表す画像を該表示装置に表示させることによって被観察者3に通知されてもよい。ここで、仮想カメラの位置および向きを表す画像とは、例えば、観察者2の頭部の画像、火の玉、および光球などであってもよい。
例えば、被観察者3がヘッドフォン、イヤフォン、スピーカ等によって音声を聴取している場合、観察者2の視点は、3次元音場制御により、被観察者3の音声が仮想カメラの位置および向きを表す位置から発せられたように再生されることによって被観察者3に通知されてもよい。
また、出力部180は、干渉情報取得部170により取得された仮想空間に対応する実空間への干渉に関する情報を出力する。実空間への干渉に関する情報は、例えば、被観察者3に対して、共同作業を支援するために用いられる。
例えば、被観察者3が透過型または遮蔽型のヘッドマウントディスプレイ装置を装着している場合、特定の対象への注意喚起は、アラート画像を仮想空間の画像に重畳することによって被観察者3に通知されてもよい。また、被観察者3がヘッドマウントディスプレイ装置以外の表示装置を視認している場合、特定の対象への注意喚起は、文字、またはアラート画像を該表示装置に表示させることによって被観察者3に通知されてもよい。ここで、アラート画像とは、点滅する光源の画像、矢印の画像などであってもよい。
例えば、被観察者3がヘッドフォン、イヤフォン、スピーカ等によって音声を聴取している場合、特定の対象への注意喚起は、3次元音場制御により、アラート音声が特定の対象が存在する位置から発せられたように再生されることによって被観察者3に通知されてもよい。
また、出力部180は、ネットワークを介して情報処理装置1Aと接続された実空間内の機器(例えば、空調機器、照明機器、および情報機器など)に対して、観察者2からの操作情報を出力することにより、被観察者3に代わって観察者2が実空間内の機器を操作できるようにしてもよい。
このような出力部180は、例えば、通信網と接続可能な有線によるケーブル通信を行うケーブル通信装置、有線または無線LAN対応通信装置であってもよい。また、出力部180は、例えば、USBインタフェース、イーサネットインタフェース、IEEE802.11規格インタフェース等の有線または無線の外部出力インタフェースであってもよい。出力部180は、例えば、ネットワーク等を介して、これらの情報を被観察者3が存在する実空間に出力することにより、上記の制御を行うことができる。
このような構成により、出力部180から被観察者3に対して、仮想カメラの位置および向きに関する情報を出力することができるため、観察者2は、被観察者3との共同作業を円滑に進めることが可能である。また、出力部180から被観察者3が存在する実空間に対して、観察者2の干渉に関する情報を出力することができるため、観察者2は、被観察者3との共同作業を支援することが可能である。
[2.2.情報処理装置の使用例]
次に、図13〜図15を参照して、本実施形態に係る情報処理装置1Aの使用例について説明する。図13〜図15は、本実施形態に係る情報処理装置1Aの使用例を説明する説明図である。
図13に示すように、本実施形態に係る情報処理装置1Aの一使用例は、それぞれ別の遠隔地に存在する観察者2A、2B、および2Cが共通の仮想空間内にてテレビ会議などを行う場合の使用例である。具体的には、観察者2A、2B、および2Cは、それぞれ透過型または遮蔽型のヘッドマウントディスプレイ装置を装着し、共通の仮想空間の画像を視認することによって仮想空間を共有している。なお、仮想空間には、例えば、机および椅子などの仮想オブジェクトが配置されていてもよい。
例えば、観察者2Cが視認する仮想空間の画像71には、観察者2Aおよび2Bの画像20Aおよび20Bが表示される。また、観察者2Cは、視線情報に基づいた基準点にて仮想カメラの画角の制御を指示することによって、仮想空間における視点(すなわち、仮想カメラの位置および向き)を変更することができる。これによれば、観察者2Cは、仮想空間内を自由に視点変更しながら、観察者2Aおよび2Bとのテレビ会議等に参加することができる。なお、観察者2Cが視点変更した場合、観察者2Aおよび2Bが視認する仮想空間の画像において、観察者2Cの画像は、観察者2Cが変更した視点の位置に移動していることが好ましい。
また、図14に示すように、本実施形態に係る情報処理装置1Aの一使用例は、遠隔地に存在する観察者2Bおよび2Cと、被観察者3とが共同作業を行う場合の使用例である。具体的には、観察者2Bおよび2C、および被観察者3は、それぞれ透過型または遮蔽型のヘッドマウントディスプレイ装置を装着し、観察者2Bおよび2Cは、実空間7に対応する仮想空間の画像を視認している。また、被観察者3は、実空間7に観察者2Bおよび2Cの視点位置を表す画像が重畳された画像を視認している。なお、観察者2Bおよび2Cが視認する仮想空間には、実空間7に存在する机および椅子などが仮想オブジェクトとして配置されていてもよい。
例えば、観察者2Cが視認する仮想空間の画像73には、被観察者3の画像30、および観察者2Bの画像20Bが表示される。ここで、遠隔地に存在する観察者2Bの画像20Bは、実空間7に存在する被観察者3の画像30と区別されて、例えば、頭部の画像のみが表示されてもよい。また、観察者2Cは、視線情報に基づいた基準点にて仮想カメラの画角の制御を指示することによって、仮想空間における視点(すなわち、仮想カメラの位置および向き)を変更することができる。これによれば、観察者2Cは、仮想空間内を自由に視点変更しながら、被観察者3に対して、共同作業の支援を行うことができる。
また、被観察者3が視認する画像72には、観察者2Bおよび2Cの視点に対応する位置に仮想カメラの位置および向きを表す画像20Bおよび20Cが表示される。例えば、観察者2Bおよび2Cが仮想空間において視点変更した場合、仮想カメラの位置および向きを表す画像20Bおよび20Cの位置も対応する位置に変更される。これによれば、被観察者3は、観察者2Bおよび2Cがいずれの位置から視認しているかを把握することができるため、より円滑なコミュニケーションを行うことができる。なお、仮想カメラの位置および向きを表す画像20Bおよび20Cは、例えば、観察者2Bおよび2Cの頭部の画像であってもよく、他にも火の玉、または光球などの画像であってもよい。
さらに、図15に示すように、本実施形態に係る情報処理装置1Aの一使用例は、遠隔地に存在する観察者2Bおよび2Cと、被観察者3とが共同作業を行う場合の使用例である。具体的には、観察者2Bおよび2Cは、それぞれ透過型または遮蔽型のヘッドマウントディスプレイ装置を装着し、観察者2Bおよび2Cは、実空間7に対応した仮想空間の画像を視認している。また、被観察者3は、透過型または遮蔽型のヘッドマウントディスプレイ装置および他の表示装置等を視認しておらず、観察者2Bおよび2Cと音声のみにてコミュニケーションを行っている。なお、観察者2Bおよび2Cが視認する仮想空間には、実空間7に存在する机および椅子などが仮想オブジェクトとして配置されていてもよい。
例えば、観察者2Cが視認する仮想空間の画像74には、被観察者3の画像30、および観察者2Bの画像20Bが表示される。また、観察者2Cは、視線情報に基づいた基準点にて仮想カメラの画角の制御を指示することによって、仮想空間における視点(すなわち、仮想カメラの位置および向き)を変更することができる。これによれば、観察者2Cは、仮想空間内を自由に視点変更しながら、被観察者3に対して、共同作業の支援を行うことができる。
また、被観察者3には、三次元音場制御技術により、観察者2Bおよび2Cの音声が観察者2Bおよび2Cの視点に対応する位置から発せられたように聴取される。例えば、観察者2Bおよび2Cが仮想空間において視点変更した場合、観察者2Bおよび2Cの音声が発せられたと被観察者3が感じる位置も視点変更後の位置に変更される。これによれば、被観察者3は、観察者2Bおよび2Cがいずれの位置から視認しているかを音声が発せられた位置によって把握することができるため、より円滑なコミュニケーションを行うことができる。
さらに、観察者2Bおよび2Cが実空間7内の対象8を指し示し、被観察者3の注意喚起をした場合、被観察者3には、観察者2Bおよび2Cの音声、またはアラート音声が対象8から発せられたように聴取されてもよい。これによれば、被観察者3に対して、音声によって対象8への注意喚起を行うことができる。したがって、被観察者3は、観察者2Bおよび2Cとさらに円滑な共同作業を行うことができる。
[2.3.変形例]
続いて、図16および図17を参照して、本実施形態の変形例に係る情報処理装置1Aについてそれぞれ説明する。図16は、本実施形態の第1の変形例に係る情報処理装置1Aについて説明する説明図である。図17は、本実施形態の第2の変形例に係る情報処理装置1Aについて説明する説明図である。
(第1の変形例)
図16に示すように、例えば、観察者2が被観察者3の作業を支援するために、仮想空間において仮想カメラの画角を制御した場合、仮想カメラが被観察者3の内部(すなわち、仮想空間の画像の裏側)に入り込んでしまうことがある。このとき、被観察者3の画像が被観察者3の手元の画像と重畳してしまうため、観察者2は、被観察者3の手元を視認しづらくなってしまうことがあった。
このような場合、本変形例に係る情報処理装置1Aは、被観察者3の頭部および体部392の画像を非表示とし、被観察者3の手部391のみを表示させるように制御してもよい。これにより、情報処理装置1Aは、観察者2に対して、被観察者3の手元を明確に視認することができる仮想空間の画像を生成し、観察者2による被観察者3への作業支援を容易にすることができる。
また、本変形例に係る情報処理装置1Aは、仮想カメラが被観察者3の内部に入り込んだ場合、被観察者3の頭部および体部392の画像をフレーム(すなわち、外郭)のみの表示としてもよい。これにより、情報処理装置1Aは、被観察者3の頭部および体部392を透過させて、観察者2に被観察者3の手元を視認させることができる。さらに、本変形例に係る情報処理装置1Aは、仮想カメラが被観察者3の内部に入り込んだ場合、被観察者3の頭部および体部392の画像の色を、観察者2に注意を喚起させる色に変更してもよい。これにより、情報処理装置1Aは、観察者2に仮想カメラが被観察者3の内部に入り込んでいることを明確に認識させることができる。
なお、被観察者3の頭部および体部392と、手部391との区別は、例えば、撮像装置等によって撮像した被観察者3の画像を機械学習アルゴリズムによる画像解析にてパターン認識することで判別することが可能である。
また、本変形例は、仮想カメラが被観察者3の内部に入り込んだ場合に限られない。例えば、仮想カメラが仮想空間内の机などの物体の内部に入り込んだ場合、本変形例に係る情報処理装置1Aは、入り込んだ物体の一部を非表示とすることで、観察者2に対する仮想空間の視野を確保してもよい。これによれば、情報処理装置1Aは、仮想空間内の物体の内部に仮想カメラが入り込んだ場合でも、仮想空間内の複数の物体の画像が重畳してしまうことを防止し、視認性の高い仮想空間の画像を生成することができる。
(第2の変形例)
図17に示すように、本実施形態の変形例に係る情報処理装置1Aでは、実空間7における被観察者3に対応する仮想空間の画像を生成するために、デプスセンサ9Aまたは9Bが用いられる。例えば、デプスセンサ9Aは、机等に設置されていてもよく、デプスセンサ9Bは、ドローン等の飛行体に設置されていてもよい。
ここで、デプスセンサは、センサから対象までの距離を測定するものであるため、一方向からのデプス情報しか測定することできない。そのため、仮想カメラの画角を回転させた場合、実空間7においてデプス情報が測定されておらず、仮想空間が生成されていない領域が仮想カメラの画角に含まれる可能性があった。そこで、本変形例では、仮想カメラの画角の制御に伴い、デプスセンサの位置および向きも制御することにより、デプス情報が測定されておらず、仮想空間が生成されていない領域が仮想カメラの画角に含まれることを抑制するものである。
具体的には、机等に設置されているデプスセンサ9Aにおいて、仮想カメラの画角の制御に伴い、デプスセンサ9Aの向きを上下左右に回転させることによって、デプス情報を測定する方向を変更してもよい。これにより、デプス情報が測定されておらず、仮想空間が生成されない領域が仮想カメラの画角に含まれることを抑制することができる。
また、ドローン等の飛行体に設置されているデプスセンサ9Bにおいて、仮想カメラの画角の制御に伴い、飛行体の位置および向きを制御することによって、デプス情報を測定する方向を変更してもよい。例えば、仮想空間における仮想カメラの位置および向きと、実空間における飛行体に設置されたデプスセンサ9Bの位置および向きとが一致するように飛行体を制御することにより、デプス情報を測定する方向を変更してもよい。これにより、デプス情報が測定されておらず、仮想空間が生成されない領域が仮想カメラの画角に含まれることを抑制することができる。
したがって、情報処理装置1Aは、デプスセンサ9Aおよび9Bに対して、仮想カメラの位置および向きに関する情報を出力することによって、上述した制御を行うことができる。これによれば、情報処理装置1Aは、仮想空間を生成するためのデプスセンサが少ない場合でも、効率的に仮想空間を生成し、観察者2に利便性の高い仮想空間の画像を提供することができる。
<3.ハードウェア構成>
以下では、図18を参照して、本開示の各実施形態に係る情報処理装置1のハードウェア構成の一例について説明する。図18は、各実施形態に係る情報処理装置1のハードウェア構成例を示したブロック図である。なお、各実施形態に係る情報処理装置1による情報処理は、ソフトウェアとハードウェアとの協働によって実現される。
図18に示すように、情報処理装置1は、CPU(Central Processing Unit)201と、ROM(Read Only Memory)203と、RAM(Random Access Memory)205と、ブリッジ211と、内部バス207および209と、インタフェース213と、入力装置215と、出力装置217と、ストレージ装置219と、ドライブ221と、接続ポート223と、通信装置225と、を備える。
CPU201は、演算処理装置および制御装置として機能し、ROM203等に記憶された各種プログラムに従って、情報処理装置1の動作全般を制御する。ROM203は、CPU201が使用するプログラム、演算パラメータを記憶し、RAM205は、CPU201の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。例えば、CPU201は、基準点設定部110、制御部130、画像生成部160等の機能を実行してもよい。
これらCPU201、ROM203およびRAM205は、ブリッジ211、内部バス207および209等により相互に接続されている。また、CPU201、ROM203およびRAM205は、インタフェース213を介して入力装置215、出力装置217、ストレージ装置219、ドライブ221、接続ポート223および通信装置225とも接続されている。
入力装置215は、タッチパネル、キーボード、マウス、ボタン、マイクロフォン、スイッチおよびレバーなどの各種情報が入力される入力装置、ならびに撮像装置、デプスセンサ、および赤外線センサなどの各種情報を測定するセンサ類を含む。また、入力装置215は、入力または測定された情報に基づいて入力信号を生成し、CPU201に出力するための入力制御回路なども含む。例えば、入力装置215は、注視点検出部100、画角制御情報取得部120、および干渉情報取得部170等の機能を実行してもよい。
出力装置217は、例えば、透過型または遮蔽型のヘッドマウントディスプレイ装置、全天周に画像を表示することができるドーム型ディスプレイ、液晶表示装置および有機エレクトロルミネッセンス表示装置などの表示装置、三次元画像を表示可能な3D表示装置、ならびに二次元画像または三次元画像を表示することができるプロジェクタ表示装置などの各種表示装置を含み、また、スピーカおよびヘッドフォンなどの音声出力装置を含む。
ストレージ装置219は、情報処理装置1の記憶部の一例として構成されるデータ格納用の装置である。ストレージ装置219は、記憶媒体、記憶媒体にデータを記憶する記憶装置、記憶媒体からデータを読み出す読み出し装置、および記憶されたデータを削除する削除装置を含んでもよい。
ドライブ221は、記憶媒体用リードライタであり、情報処理装置1に内蔵、または外付けされる。例えば、ドライブ221は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記憶されている情報を読み出し、RAM203に出力する。また、ドライブ221は、リムーバブル記憶媒体に情報を書き込むことも可能である。
接続ポート223は、例えば、USBポート、イーサネットポート、IEEE802.11規格ポート、および光オーディオ端子等のような外部接続機器を接続するための接続ポートで構成された接続インタフェースである。例えば、接続ポート223は、入力部140、および出力部180等の機能を実行してもよい。また、画像生成部160が情報処理装置1の外部に存在する場合、接続ポート223は、画像情報出力部150等の機能を実行してもよい。
通信装置225は、例えば、公衆回線網などのネットワーク10に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置225は、有線によるケーブル通信を行うケーブル通信装置であってもよく、有線または無線LAN対応通信装置であってもよい。例えば、通信装置225は、出力部180の機能を実行してもよい。
また、情報処理装置1に内蔵されるCPU、ROMおよびRAMなどのハードウェアを上述した情報処理装置1の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
<4.まとめ>
以上にて説明したように、本開示の第1の実施形態に係る情報処理装置1によれば、観察者2の注視点または注視対象に基づいて設定された基準点にて、仮想空間の画像を規定する仮想カメラの画角を制御する。これにより、情報処理装置1は、観察者2により視認される対象が仮想カメラの画角から外れることがなく、利便性が高い仮想空間の画像を観察者2に視認させることができる。
また、本開示の第2の実施形態に係る情報処理装置1Aによれば、被観察者3が存在する実空間7に対して、観察者2の視点を表す仮想カメラの位置および向きに関する情報を出力することができる。これにより、情報処理装置1Aは、被観察者3に対して、観察者2がどの位置から視認しているのかを通知することができるため、より円滑なコミュニケーションを行わせることができる。
さらに、本開示の第2の実施形態に係る情報処理装置1Aによれば、被観察者3が存在する実空間7への観察者2による干渉に関する情報を出力することができる。これにより、情報処理装置1Aは、被観察者3と、観察者2との共同作業の効率を向上させることができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
仮想空間の画像に対する観察者の注視点または注視対象に基づいて、前記仮想空間の画像を規定する仮想カメラの画角を制御する制御部と、
前記仮想空間の画像に関する情報を出力する画像情報出力部と、
を備える、情報処理装置。
(2)
前記制御部は、前記注視点または注視対象が前記仮想空間の画像に含まれるように、前記仮想カメラの画角を制御する、前記(1)に記載の情報処理装置。
(3)
前記注視点または注視対象に基づいて、前記仮想空間内に基準点を設定する基準点設定部をさらに備え、
前記制御部は、前記基準点が前記仮想空間の画像に含まれるように、前記仮想カメラの画角を制御する、前記(1)または(2)に記載の情報処理装置。
(4)
前記制御部は、前記基準点を回転中心にして、前記仮想カメラの画角を回転させる、前記(3)に記載の情報処理装置。
(5)
前記制御部は、前記仮想カメラの画角を移動させる、前記(3)または(4)に記載の情報処理装置。
(6)
前記観察者の視線情報に基づいて、前記仮想空間の画像における前記観察者の注視点を検出する注視点検出部をさらに備え、
前記基準点設定部は、所定のタイミングにおける前記観察者の注視点を前記基準点として設定する、前記(3)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記観察者の視線情報に基づいて、前記仮想空間の画像における前記観察者の注視点を検出する注視点検出部をさらに備え、
前記基準点設定部は、前記観察者の注視点を所定の期間にて移動平均した点を前記基準点として設定する、前記(3)〜(5)のいずれか一項に記載の情報処理装置。
(8)
前記制御部は、前記観察者の頭部の動きに応じて、前記仮想カメラの画角を制御する、前記(1)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記制御部は、前記基準点に対して、前記観察者の頭部の動きの方向と、前記仮想カメラの画角の動きの方向とが対称となるように前記仮想カメラの画角を制御する、前記(3)〜(6)のいずれか一項に記載の情報処理装置。
(10)
前記制御部は、前記観察者からの入力、または前記観察者の視線情報に基づいて、前記仮想カメラの画角を固定するか、または移動もしくは回転可能とするかを切り替える、前記(1)〜(9)のいずれか一項に記載の情報処理装置。
(11)
前記仮想空間は、被観察者を含む三次元空間である、前記(1)〜(10)のいずれか一項に記載の情報処理装置。
(12)
前記仮想空間の画像は、デプスセンサによって測定されたデプス情報に基づいて生成される、前記(1)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記デプスセンサの向きは、前記仮想カメラの画角に応じて制御される、前記(12)に記載の情報処理装置。
(14)
前記デプスセンサは、飛行体に備えられ、
前記飛行体は、前記仮想カメラの画角に応じて制御される、前記(13)に記載の情報処理装置。
(15)
前記仮想空間における前記仮想カメラの位置および向きに関する情報を出力する出力部をさらに備える、前記(1)〜(14)のいずれか一項に記載の情報処理装置。
(16)
前記仮想空間に対応する実空間への前記観察者の干渉に関する情報を出力する出力部をさらに備える、前記(1)〜(15)のいずれか一項に記載の情報処理装置。
(17)
前記仮想カメラが前記仮想空間に存在する被観察物の内部に位置する場合、前記仮想空間の画像において、前記被観察物の少なくとも一部は、非表示に制御される、前記(1)〜(16)のいずれか一項に記載の情報処理装置。
(18)
前記被観察物は、前記仮想空間に存在する被観察者である、前記(17)に記載の情報処理装置。
(19)
演算処理装置により、仮想空間の画像に対する観察者の注視点または注視対象に基づいて、前記仮想空間の画像を規定する仮想カメラの画角を制御することと、
前記仮想空間の画像に関する情報を出力することと、
を含む、情報処理方法。
(20)
コンピュータを
仮想空間の画像に対する観察者の注視点または注視対象に基づいて、前記仮想空間の画像を規定する仮想カメラの画角を制御する制御部と、
前記仮想空間の画像に関する情報を出力する画像情報出力部と、
として機能させる、プログラム。
1、1A 情報処理装置
2 観察者
3 被観察者
100 注視点検出部
110 基準点設定部
120 画角制御情報取得部
130 制御部
140 入力部
150 画像情報出力部
160 画像生成部
170 干渉情報取得部
180 出力部

Claims (20)

  1. 仮想空間の画像に対する観察者の注視点または注視対象に基づいて、前記仮想空間の画像を規定する仮想カメラの画角を制御する制御部と、
    前記仮想空間の画像に関する情報を出力する画像情報出力部と、
    を備える、情報処理装置。
  2. 前記制御部は、前記注視点または注視対象が前記仮想空間の画像に含まれるように、前記仮想カメラの画角を制御する、請求項1に記載の情報処理装置。
  3. 前記注視点または注視対象に基づいて、前記仮想空間内に基準点を設定する基準点設定部をさらに備え、
    前記制御部は、前記基準点が前記仮想空間の画像に含まれるように、前記仮想カメラの画角を制御する、請求項1に記載の情報処理装置。
  4. 前記制御部は、前記基準点を回転中心にして、前記仮想カメラの画角を回転させる、請求項3に記載の情報処理装置。
  5. 前記制御部は、前記仮想カメラの画角を移動させる、請求項3に記載の情報処理装置。
  6. 前記観察者の視線情報に基づいて、前記仮想空間の画像における前記観察者の注視点を検出する注視点検出部をさらに備え、
    前記基準点設定部は、所定のタイミングにおける前記観察者の注視点を前記基準点として設定する、請求項3に記載の情報処理装置。
  7. 前記観察者の視線情報に基づいて、前記仮想空間の画像における前記観察者の注視点を検出する注視点検出部をさらに備え、
    前記基準点設定部は、前記観察者の注視点を所定の期間にて移動平均した点を前記基準点として設定する、請求項3に記載の情報処理装置。
  8. 前記制御部は、前記観察者の頭部の動きに応じて、前記仮想カメラの画角を制御する、請求項1に記載の情報処理装置。
  9. 前記制御部は、前記基準点に対して、前記観察者の頭部の動きの方向と、前記仮想カメラの画角の動きの方向とが対称となるように前記仮想カメラの画角を制御する、請求項3に記載の情報処理装置。
  10. 前記制御部は、前記観察者からの入力、または前記観察者の視線情報に基づいて、前記仮想カメラの画角を固定するか、または移動もしくは回転可能とするかを切り替える、請求項1に記載の情報処理装置。
  11. 前記仮想空間は、被観察者を含む三次元空間である、請求項1に記載の情報処理装置。
  12. 前記仮想空間の画像は、デプスセンサによって測定されたデプス情報に基づいて生成される、請求項1に記載の情報処理装置。
  13. 前記デプスセンサの向きは、前記仮想カメラの画角に応じて制御される、請求項12に記載の情報処理装置。
  14. 前記デプスセンサは、飛行体に備えられ、
    前記飛行体は、前記仮想カメラの画角に応じて制御される、請求項13に記載の情報処理装置。
  15. 前記仮想空間における前記仮想カメラの位置および向きに関する情報を出力する出力部をさらに備える、請求項1に記載の情報処理装置。
  16. 前記仮想空間に対応する実空間への前記観察者の干渉に関する情報を出力する出力部をさらに備える、請求項1に記載の情報処理装置。
  17. 前記仮想カメラが前記仮想空間に存在する被観察物の内部に位置する場合、前記仮想空間の画像において、前記被観察物の少なくとも一部は、非表示に制御される、請求項1に記載の情報処理装置。
  18. 前記被観察物は、前記仮想空間に存在する被観察者である、請求項17に記載の情報処理装置。
  19. 演算処理装置により、仮想空間の画像に対する観察者の注視点または注視対象に基づいて、前記仮想空間の画像を規定する仮想カメラの画角を制御することと、
    前記仮想空間の画像に関する情報を出力することと、
    を含む、情報処理方法。
  20. コンピュータを
    仮想空間の画像に対する観察者の注視点または注視対象に基づいて、前記仮想空間の画像を規定する仮想カメラの画角を制御する制御部と、
    前記仮想空間の画像に関する情報を出力する画像情報出力部と、
    として機能させる、プログラム。

JP2015187005A 2015-09-24 2015-09-24 情報処理装置、情報処理方法、およびプログラム Pending JP2017062598A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015187005A JP2017062598A (ja) 2015-09-24 2015-09-24 情報処理装置、情報処理方法、およびプログラム
US15/743,921 US10855925B2 (en) 2015-09-24 2016-06-17 Information processing device, information processing method, and program
PCT/JP2016/068146 WO2017051570A1 (ja) 2015-09-24 2016-06-17 情報処理装置、情報処理方法、およびプログラム
EP16848360.0A EP3355278A4 (en) 2015-09-24 2016-06-17 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015187005A JP2017062598A (ja) 2015-09-24 2015-09-24 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2017062598A true JP2017062598A (ja) 2017-03-30

Family

ID=58385907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015187005A Pending JP2017062598A (ja) 2015-09-24 2015-09-24 情報処理装置、情報処理方法、およびプログラム

Country Status (4)

Country Link
US (1) US10855925B2 (ja)
EP (1) EP3355278A4 (ja)
JP (1) JP2017062598A (ja)
WO (1) WO2017051570A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018173829A (ja) * 2017-03-31 2018-11-08 株式会社ルクレ 仮想会議プログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10607398B2 (en) * 2016-07-04 2020-03-31 Colopl, Inc. Display control method and system for executing the display control method
CN107093210B (zh) * 2017-04-20 2021-07-16 北京图森智途科技有限公司 一种激光点云标注方法及装置
CN109299184B (zh) * 2018-07-31 2022-04-29 武汉大学 一种近地空间三维点云统一编码可视化方法
CN109756620B (zh) * 2018-12-15 2021-07-23 深圳壹账通智能科技有限公司 基于手机的虚拟摄像头识别方法及相关设备
CN114651448A (zh) * 2019-11-15 2022-06-21 索尼集团公司 信息处理系统、信息处理方法和程序
CN111880654A (zh) * 2020-07-27 2020-11-03 歌尔光学科技有限公司 一种图像显示方法、装置、穿戴设备及存储介质
US20230138434A1 (en) * 2021-10-31 2023-05-04 Zoom Video Communications, Inc. Extraction of user representation from video stream to a virtual environment

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003179800A (ja) * 2001-12-13 2003-06-27 Sony Corp 多視点画像生成装置、画像処理装置、および方法、並びにコンピュータ・プログラム
JP4195991B2 (ja) * 2003-06-18 2008-12-17 パナソニック株式会社 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ
JP4297804B2 (ja) 2004-02-19 2009-07-15 任天堂株式会社 ゲーム装置及びゲームプログラム
JP4525362B2 (ja) * 2005-01-26 2010-08-18 積水ハウス株式会社 住宅用3次元cgシステム
JP5170993B2 (ja) * 2006-07-31 2013-03-27 株式会社東芝 画像処理装置及び該画像処理装置を備える医用診断装置
JP2009237680A (ja) * 2008-03-26 2009-10-15 Namco Bandai Games Inc プログラム、情報記憶媒体および画像生成システム
JP5411473B2 (ja) * 2008-09-16 2014-02-12 株式会社バンダイナムコゲームス プログラム及びゲーム装置
JP2009081881A (ja) 2008-11-28 2009-04-16 Sony Corp 画像処理装置および方法、並びに記録媒体
WO2010116506A1 (ja) 2009-04-09 2010-10-14 富士通株式会社 指紋認証サーバ装置、指紋認証クライアント装置および指紋認証方法
JP5478205B2 (ja) * 2009-11-13 2014-04-23 任天堂株式会社 ゲーム装置、ゲームプログラム、ゲームシステムおよびゲーム制御方法
JP5237312B2 (ja) * 2010-01-29 2013-07-17 株式会社コナミデジタルエンタテインメント ゲームプログラム、ゲーム装置、ゲーム制御方法
JP2011255119A (ja) * 2010-06-11 2011-12-22 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
JP5800473B2 (ja) * 2010-06-11 2015-10-28 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
EP2604180A4 (en) * 2010-08-09 2017-07-05 National University Corporation Shizuoka University Gaze point detection method and gaze point detection device
JP5614211B2 (ja) * 2010-09-30 2014-10-29 株式会社セガ 画像処理プログラム及びコンピュータ読み取り可能な記録媒体
US9041853B2 (en) * 2010-12-01 2015-05-26 Nec Casio Mobile Communications, Ltd. Mobile terminal, method of image processing, and program
US9196306B2 (en) 2011-01-28 2015-11-24 Apple Inc. Smart scaling and cropping
JP5691568B2 (ja) * 2011-01-28 2015-04-01 ソニー株式会社 情報処理装置、報知方法及びプログラム
JP2012212237A (ja) * 2011-03-30 2012-11-01 Namco Bandai Games Inc 画像生成システム、サーバシステム、プログラム及び情報記憶媒体
US20130231590A1 (en) 2012-03-04 2013-09-05 Corbett Allan, Inc. System and method for analyzing gait and recommending footwear with a mobile computer device
EP2685351A1 (en) 2012-07-10 2014-01-15 Thomson Licensing Method for calibration free gaze tracking using low cost camera
US20140002581A1 (en) * 2012-06-29 2014-01-02 Monkeymedia, Inc. Portable proprioceptive peripatetic polylinear video player
JP6131540B2 (ja) * 2012-07-13 2017-05-24 富士通株式会社 タブレット端末、操作受付方法および操作受付プログラム
JP6103526B2 (ja) * 2013-03-15 2017-03-29 オリンパス株式会社 撮影機器,画像表示機器,及び画像表示機器の表示制御方法
US10137363B2 (en) * 2013-06-20 2018-11-27 Uday Parshionikar Gesture based user interfaces, apparatuses and control systems
US20150003819A1 (en) * 2013-06-28 2015-01-01 Nathan Ackerman Camera auto-focus based on eye gaze
CA2917962A1 (en) * 2013-07-25 2015-01-29 Square Enix Holdings Co., Ltd. Image processing program, server device, image processing system, and image processing method
JP2015026172A (ja) * 2013-07-25 2015-02-05 株式会社スクウェア・エニックス 画像処理プログラムおよび画像処理装置
ITBO20130431A1 (it) 2013-08-01 2015-02-02 01Wiring S R L Metodo per controllare l'orientamento di una videocamera mobile atta a filmare una coppia di atleti in movimento su di un campo di gara, e corrispondente sistema per filmare atleti in movimento
JP5804007B2 (ja) * 2013-09-03 2015-11-04 カシオ計算機株式会社 動画生成システム、動画生成方法及びプログラム
JP2015125641A (ja) * 2013-12-26 2015-07-06 キヤノンマーケティングジャパン株式会社 情報処理装置、その制御方法、及びプログラム
US9616339B2 (en) * 2014-04-24 2017-04-11 Microsoft Technology Licensing, Llc Artist-directed volumetric dynamic virtual cameras
US9779633B2 (en) * 2014-08-08 2017-10-03 Greg Van Curen Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same
US9599821B2 (en) * 2014-08-08 2017-03-21 Greg Van Curen Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space
WO2016040673A2 (en) * 2014-09-10 2016-03-17 Oregon Health & Science University Animation-based autism spectrum disorder assessment
CN105866949B (zh) * 2015-01-21 2018-08-17 成都理想境界科技有限公司 能自动调节景深的双目ar头戴设备及景深调节方法
US10853625B2 (en) * 2015-03-21 2020-12-01 Mine One Gmbh Facial signature methods, systems and software
US20180321493A1 (en) * 2015-11-11 2018-11-08 Lg Electronics Inc. Hmd and method for controlling same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018173829A (ja) * 2017-03-31 2018-11-08 株式会社ルクレ 仮想会議プログラム

Also Published As

Publication number Publication date
EP3355278A4 (en) 2019-03-27
EP3355278A1 (en) 2018-08-01
US20180205888A1 (en) 2018-07-19
US10855925B2 (en) 2020-12-01
WO2017051570A1 (ja) 2017-03-30

Similar Documents

Publication Publication Date Title
WO2017051570A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7275227B2 (ja) 複合現実デバイスにおける仮想および実オブジェクトの記録
JP6340017B2 (ja) 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
EP3008698B1 (en) Head-mountable apparatus and systems
CN107710284B (zh) 用于在虚拟图像生成系统中更有效地显示文本的技术
US20200258314A1 (en) Information processing device, information processing method, and recording medium
WO2014199155A1 (en) Head-mountable apparatus and systems
WO2017126433A1 (ja) 情報処理装置およびユーザガイド提示方法
US11151804B2 (en) Information processing device, information processing method, and program
US10582190B2 (en) Virtual training system
WO2020017435A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US10831443B2 (en) Content discovery
US20210400234A1 (en) Information processing apparatus, information processing method, and program
JP2018007180A (ja) 映像表示装置、映像表示方法及び映像表示プログラム
WO2018216327A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US12032169B2 (en) Spectator view of virtual and physical objects
US20230258942A1 (en) Spectator view of virtual and physical objects
US20200302761A1 (en) Indicator modes
CN115004132A (zh) 信息处理装置、信息处理系统和信息处理方法