JP6939801B2 - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP6939801B2
JP6939801B2 JP2018539525A JP2018539525A JP6939801B2 JP 6939801 B2 JP6939801 B2 JP 6939801B2 JP 2018539525 A JP2018539525 A JP 2018539525A JP 2018539525 A JP2018539525 A JP 2018539525A JP 6939801 B2 JP6939801 B2 JP 6939801B2
Authority
JP
Japan
Prior art keywords
user
information processing
rotation
rotation center
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018539525A
Other languages
English (en)
Other versions
JPWO2018051592A1 (ja
Inventor
安田 亮平
亮平 安田
野田 卓郎
卓郎 野田
和田 成司
成司 和田
前田 毅
毅 前田
加奈 松浦
加奈 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2018051592A1 publication Critical patent/JPWO2018051592A1/ja
Application granted granted Critical
Publication of JP6939801B2 publication Critical patent/JP6939801B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。
近年、3次元空間に存在するオブジェクトをユーザの視点位置に対して相対的に回転させる技術が知られている。ここで、ユーザの視点位置は、オブジェクトをユーザがどこから見ているかを示す位置(オブジェクトの位置を基準としたユーザの視野を形成する3次元的な相対位置)を意味し得る。視点位置に対するオブジェクトの相対的な回転によって、ユーザは視点位置を変更しながらオブジェクトを観測することが可能となる。
例えば、オブジェクトの例として、カメラによって撮像された画像を、ユーザによる回転操作に基づいて回転させながら表示する技術が開示されている(例えば、特許文献1参照。)。かかる技術においては、オブジェクトの回転中心は、あらかじめ決められているのが一般的である。一例として、オブジェクトの回転中心が、オブジェクトの中心にあらかじめ決められている場合などがある。
特開2016−115965号公報
しかし、ユーザの視点位置に対する相対的なオブジェクトの回転をよりユーザが望むように行う技術が提供されることが望ましい。
本開示によれば、3次元空間におけるオブジェクトの位置と前記3次元空間におけるユーザによる指示方向とに応じた回転中心を決定する回転中心決定部と、前記回転中心に基づいて、前記オブジェクトを前記ユーザの視点位置に対して相対的に回転させる回転制御部と、を備える、情報処理装置が提供される。
本開示によれば、3次元空間におけるオブジェクトの位置と前記3次元空間におけるユーザによる指示方向とに応じた回転中心を決定することと、プロセッサにより、前記回転中心に基づいて、前記オブジェクトを前記ユーザの視点位置に対して相対的に回転させることと、を含む、情報処理方法が提供される。
本開示によれば、コンピュータを、3次元空間におけるオブジェクトの位置と前記3次元空間におけるユーザによる指示方向とに応じた回転中心を決定する回転中心決定部と、前記回転中心に基づいて、前記オブジェクトを前記ユーザの視点位置に対して相対的に回転させる回転制御部と、を備える情報処理装置として機能させるためのプログラムが提供される。
以上説明したように本開示によれば、ユーザの視点位置に対する相対的なオブジェクトの回転をよりユーザが望むように行うことが可能な技術が提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
オブジェクトの回転中心があらかじめ決められている場合におけるオブジェクト回転の例について説明するための図である。 本開示の第1の実施形態に係る情報処理装置の機能構成例を示す図である。 本開示の第1の実施形態に係る情報処理装置の第1の例を示す図である。 、本開示の第1の実施形態に係る情報処理装置の第1の例において仮想空間に存在する仮想オブジェクトの例を示す図である。 本開示の第1の実施形態の第1の例においてユーザの視野に写る仮想オブジェクトの例を示す図である。 本開示の第1の実施形態の第1の例においてユーザの視野に写る仮想オブジェクトの例を示す図である。 視点カメラが全天周カメラである場合における視野の形成について説明するための図である。 エンベロープ面を用いて回転中心を決定する例を説明するための図である。 仮想オブジェクトと視点カメラとの位置関係の例を示す図である。 仮想オブジェクトが視点カメラに衝突してしまう場合の第1の解決策について説明するための図である。 仮想オブジェクトが視点カメラに衝突してしまう場合の第2の解決策について説明するための図である。 視点位置と仮想オブジェクトとの距離と回転速度との関係の例を説明するための図である。 視点位置と仮想オブジェクトとの距離と回転速度との関係の例を説明するための図である。 回転可能範囲を示す情報の出力例を示す図である。 仮想オブジェクトの回転が限界に達したことを示す情報の出力例を示す図である。 本開示の第1の実施形態に係る情報処理装置の第2の例を示す図である。 本開示の第1の実施形態に係る情報処理装置の第2の例において仮想空間に存在する仮想オブジェクトの例を示す図である。 本開示の第1の実施形態に係る情報処理装置の第3の例を示す図である。 本開示の第1の実施形態に係る情報処理装置の第3の例において仮想空間に存在する仮想オブジェクトの例を示す図である。 本開示の第1の実施形態に係る情報処理装置の第4の例を示す図である。 本開示の第1の実施形態に係る情報処理装置の第5の例を示す図である。 本開示の第2の実施形態に係る情報処理装置の機能構成例を示す図である。 本開示の第2の実施形態に係る情報処理装置の第1の例を示す図である。 本開示の第2の実施形態に係る情報処理装置の第1の例において実空間に存在する実オブジェクトの例を示す図である。 本開示の第2の実施形態に係る情報処理装置の第2の例を示す図である。 本開示の第2の実施形態に係る情報処理装置の第2の例において実空間に存在する実オブジェクトの例を示す図である。 本開示の第2の実施形態に係る情報処理装置の第3の例を示す図である。 本開示の第2の実施形態に係る情報処理装置の第3の例において実空間に存在する実オブジェクトの例を示す図である。 本開示の第2の実施形態に係る情報処理装置の第4の例を示す図である。 本開示の第2の実施形態に係る情報処理装置の第5の例を示す図である。 本開示の第2の実施形態に係る情報処理装置の第5の例において実空間に存在する実オブジェクトの例を示す図である。 本開示の第2の実施形態に係る情報処理装置の第6の例を示す図である。 本開示の第2の実施形態に係る情報処理装置の第6の例において実空間に存在する実オブジェクトの例を示す図である。 本開示の第2の実施形態に係る情報処理装置の第7の例を示す図である。 本開示の第2の実施形態に係る情報処理装置の第7の例において実空間に存在する実オブジェクトの例を示す図である。 情報処理装置のハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一または類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態の説明
1.1.機能構成例
1.2.全体的な機能
2.第2の実施形態の説明
2.1.機能構成例
2.2.全体的な機能
3.ハードウェア構成例
4.むすび
まず、本開示の実施形態の前提構成について説明する。本開示の実施形態においては、3次元空間に存在するオブジェクトをユーザの視点位置に対して相対的に回転させる。ここで、ユーザの視点位置は、オブジェクトをユーザがどこから見ているかを示す位置(オブジェクトの位置を基準としたユーザの視野を形成する3次元的な相対位置)を意味し得る。視点位置に対するオブジェクトの相対的な回転によって、ユーザは視点位置を変更しながらオブジェクトを観測することが可能となる。
例えば、本開示の実施形態においては、操作オブジェクトとしてカメラによって撮像された画像が、ユーザによる回転操作に基づいて回転されながら表示される。、ユーザの回転操作に基づいてオブジェクトを回転させる場合、オブジェクトの回転中心は、通常はあらかじめ所定の位置に決められる。例えば、オブジェクトの回転中心は、オブジェクトの中心にあらかじめ決められうる。
オブジェクトの回転中心があらかじめ決められている場合におけるオブジェクト回転の例について、図1を参照して説明する。図1では、仮想オブジェクトが仮想空間に存在し、視点位置に仮想的に存在する視点カメラによって撮像される場合を想定する。図1を参照すると、このように撮像された画像によって、視野53−1が提供されている。図1に示した例では、視野53−1に提供される仮想オブジェクト60−1の例として、脳の3次元モデル(以下、「3次元モデル」を単に「3Dモデル」とも言う。)が表示されている。
なお、本明細書においては、視点位置に現実的または仮想的に存在する視点カメラ51によって撮像された画像の表示を介して、ユーザが仮想オブジェクトまたは実オブジェクトを間接的に観測する例を主に説明する。しかし、例えば、視点位置に直接的にユーザが存在する場合も想定される。かかる場合には、ユーザが直接的に仮想オブジェクトまたは実オブジェクトを観測してもよい。このとき、視点カメラ51は、特に存在していなくてもよい。
ここで、視野53−1を観測したユーザが、仮想オブジェクト60−1において、ユーザの観測希望領域61をさらに詳細に観測したいと考えた場合を想定する。図1に示した例では、観測希望領域61が溝部であり、ユーザがこの溝部の左奥側を右手前側から覗き込みたいと考えた場合を想定する。かかる場合、ユーザは仮想オブジェクト60−1に対して(上から見て時計回りに)回転させる操作を行うことによって、この溝部の左奥側を右手前側から覗き込むことが可能である。
ここで、仮想オブジェクト60−1の中心位置が回転中心62−1としてあらかじめ決められている場合、回転中心62−1を基準として仮想オブジェクト60−1が回転すると、観測希望領域61がユーザの所望するように提供されない可能性がある。視野53−2には、回転後の仮想オブジェクト60−1が写っているが、観測希望領域61が奥側に遠ざかり、かつ、視野53−2の中央付近から大きく離れてしまっている。
かかる場合、ユーザは仮想オブジェクト60−1を移動させる操作を行うことによって、観測希望領域61を視野53−2の中央付近に位置させることが可能である。視野53−3には、移動後の仮想オブジェクト60−1が写っている。また、ユーザは仮想オブジェクト60−1を拡大させる操作を行うことによって、仮想オブジェクト60−1を拡大させることが可能である。しかし、仮想オブジェクト60−1を移動または拡大させる操作は、ユーザにとって煩雑である場合がある。
そこで、本明細書においては、ユーザの視点位置に対する相対的なオブジェクトの回転をよりユーザが望むように行う技術について主に説明する。なお、図1には、仮想空間に存在する仮想オブジェクト60−1がオブジェクトの例としてユーザの視野53−1に提供されている。しかし、後に説明するように、本開示の実施形態において、オブジェクトは、実空間に存在する実オブジェクトであってもよい。
以上、本開示の実施形態の背景について説明した。
<1.第1の実施形態の説明>
続いて、本開示の第1の実施形態について説明する。本開示の第1の実施形態においては、仮想空間に存在する仮想オブジェクトを回転させる例を主に説明する。
[1.1.機能構成例]
まず、本開示の第1の実施形態に係る情報処理装置の機能構成例について説明する。図2は、本開示の第1の実施形態に係る情報処理装置の機能構成例を示す図である。図2に示したように、情報処理装置10Aは、制御部110、指示方向検出部120、操作検出部130、記憶部150Aおよび出力部160を有している。
なお、本明細書においては、制御部110、指示方向検出部120、操作検出部130、記憶部150Aおよび出力部160が、同一のデバイス(情報処理装置10A)の内部に存在する例を主に説明する。しかし、これらのブロックが存在する位置は特に限定されない。例えば、後に説明するように、これらのブロックの一部は、サーバなどに存在していてもよい。
制御部110は、情報処理装置10Aの各部の制御を実行する。図2に示したように、制御部110は、出力制御部111、データ取得部112、回転中心決定部113、回転制御部114、移動制御部115を備える。これらの各機能ブロックについての詳細は、後に説明する。なお、制御部110は、例えば、CPU(Central Processing Unit;中央演算処理装置)などで構成されていてよい。制御部110がCPUなどといった処理装置によって構成される場合、かかる処理装置は、電子回路によって構成されてよい。
指示方向検出部120は、3次元空間におけるユーザによる指示方向(以下、単に「指示方向」とも言う。)を検出することが可能である。本明細書においては、指示方向としてユーザの視線を用いる場合を主に説明する。ここで、ユーザの視線は、どのようにして検出されてもよい。一例として、ユーザの視線は、指示方向検出部120が撮像装置を有する場合、撮像装置によって得られた画像に写る目領域に基づいて検出されてよい。しかし、指示方向は、ユーザの視線に限定されない。
例えば、指示方向は、ユーザの動きを検出するモーションセンサによる検出結果に基づいて検出されてもよい(モーションセンサによって検出された3次元空間における位置を先とする指示方向が検出されてもよい)。モーションセンサは、加速度センサによって加速度を検出してもよいし、ジャイロセンサ(例えば、指輪型ジャイロマウスなど)によって角速度を検出してもよい。あるいは、指示方向は、触感型デバイスによる検出結果に基づいて検出されてもよい。触感型デバイスの例としては、ペン型の触感デバイスが挙げられる。
あるいは、指示方向は、所定の物体が指し示す方向(例えば、棒の先端が指し示す方向など)であってもよいし、ユーザの指が指し示す方向であってもよい。所定の物体が指し示す方向およびユーザの指が指し示す方向は、指示方向検出部120が撮像装置を有する場合、撮像装置によって得られた画像に写る物体および指に基づいて検出されてよい。あるいは、指示方向は、ユーザの顔認識結果に基づいて検出されてもよい。例えば、指示方向検出部120が撮像装置を有する場合、撮像装置によって得られた画像に基づいて両目間の中心位置が認識され、両目間の中心位置から伸びる直線が指示方向として検出されてもよい。
あるいは、指示方向は、マーカの認識結果に基づいて検出されてもよい。例えば、3次元空間に2次元マーカが配置され、指示方向検出部120が可視光カメラを有する場合、可視光カメラによる撮像によって得られた画像に写る2次元マーカの位置に基づいて、指示方向が検出されてもよい。また、3次元空間に赤外線反射マーカが配置され、指示方向検出部120が赤外線カメラを有する場合、赤外線反射マーカにおける赤外線の反射光を赤外線カメラによって撮像し、撮像によって得られた画像に写る赤外線反射マーカの位置に基づいて、指示方向が検出されてもよい。
あるいは、指示方向は、音声認識結果に基づいて検出されてもよい。例えば、図1に示した例において、ユーザが指示方向の先として、仮想オブジェクト60−1の中央を指定したい場合には、仮想オブジェクト60−1の中央を表現する発話(例えば、「脳のセンタ」などといった発話)を行えばよい。そうすれば、かかる発話に対する音声認識結果として、テキストデータ「脳のセンタ」が得られ、このテキストデータ「脳のセンタ」に基づいて、仮想オブジェクト60−1の中央を先とする指示方向が検出され得る。
あるいは、複数の手法によって同時に指示方向を検出可能である場合、複数の手法のいずれかが利用対象として選択されてもよい。例えば、複数の手法の中で最も指示方向の検出精度が高い手法(例えば、マーカの認識結果に基づく検出手法など)が利用対象として選択されてもよい。このとき、検出精度はあらかじめ決められていてもよいし、その時々で計算されてもよい。あるいは、複数の手法の中で最も方向指示が最も直感的な手法(例えば、視線の検出手法など)が利用対象として選択されてもよい。
操作検出部130は、ユーザによって入力される操作を検出することが可能である。なお、本明細書においては、ユーザによって入力される操作の例として、オブジェクトの回転操作および移動操作を主に説明する。ここで、オブジェクトの回転操作および移動操作は、どのようにして検出されてもよい。一例として、オブジェクトの回転操作および移動操作は、ユーザの動きに基づいて検出されてよい。例えば、ユーザの動きがある方向への回転を示す場合、当該方向への回転操作が検出されてよい。また、ユーザの動きがある方向への移動を示す場合、当該方向への移動操作が検出されてよい。
ユーザの動きの検出はどのようになされてもよい。例えば、操作検出部130が撮像装置を有する場合、撮像装置によって得られた画像からユーザの動きが検出されてもよい。あるいは、操作検出部130は、モーションセンサによってユーザの動きを検出してもよい。モーションセンサは、加速度センサによって加速度を検出してもよいし、ジャイロセンサによって角速度を検出してもよい。あるいは、ユーザの動きは、音声認識結果に基づいて検出されてもよい。
あるいは、オブジェクトの回転操作および移動操作は、スイッチ、レバーおよびボタンなどに対する操作であってもよい。また、オブジェクトの回転操作および移動操作は、ユーザの身体の位置(例えば、頭部の位置など)および姿勢(例えば、全身の姿勢など)などに基づいて検出されてもよい。また、オブジェクトの回転操作および移動操作は、筋電(例えば、顎の筋電、腕の筋電など)によって検出されてもよいし、脳波によって検出されてもよい。
記憶部150Aは、制御部110によって実行されるプログラムを記憶したり、プログラムの実行に必要なデータを記憶したりする記録媒体である。また、記憶部150Aは、制御部110による演算のためにデータを一時的に記憶する。記憶部150Aは、磁気記憶部デバイスであってもよいし、半導体記憶デバイスであってもよいし、光記憶デバイスであってもよいし、光磁気記憶デバイスであってもよい。特に、本開示の第1の実施形態において、記憶部150Aは、3次元モデルに関する情報(例えば、3次元モデルの形状、大きさ、位置、向きなどの情報)を、3Dモデル情報151として記憶している。
出力部160は、各種の情報を出力する。例えば、出力部160は、ユーザに視認可能な表示を行うことが可能なディスプレイを含んでよく、ディスプレイは、プロジェクタであってもよいし、液晶ディスプレイであってもよいし、有機EL(Electro−Luminescence)ディスプレイであってもよい。また、出力部160は、音声出力装置を含んでもよい。あるいは、出力部160は、ユーザに触覚を提示する触覚提示装置を含んでもよい。
以上、本開示の第1の実施形態に係る情報処理装置10Aの機能構成例について説明した。
[1.2.全体的な機能]
続いて、本開示の第1の実施形態に係る情報処理装置10Aの機能詳細について説明する。図3は、本開示の第1の実施形態に係る情報処理装置10Aの第1の例を示す図である。図4は、本開示の第1の実施形態に係る情報処理装置10Aの第1の例において仮想空間に存在する仮想オブジェクトの例を示す図である。図3に示すように、情報処理装置10Aは、ユーザUの頭部に装着され、指示方向検出部120および出力部160を有している。
図3に示すように、第1の例においては、情報処理装置10AがAR(Augmented Reality)用のHMD(Head Mounted Display)である場合を主に想定する。しかし、情報処理装置10Aは、AR用のHMDに限定されない。例えば、情報処理装置10Aは、VR(Virtual Reality)用のHMDであってもよいし、テレビジョン装置であってもよいし、PC(Personal Computer)であってもよいし、スマートフォンであってもよいし、他の電子機器であってもよい。
図4を参照すると、仮想空間20−1に仮想オブジェクト40−1が存在し、視点位置に視点カメラ51が仮想的に存在している。そして、視点カメラ51によって仮想オブジェクト40−1が撮像されて得られる画像が、出力制御部111による制御に従って出力部160によって表示されることによって、ユーザUに視野53−1が提供される。図3に示した例では、視野53−1に写る仮想オブジェクト60−1の例として、脳の3Dモデルが示されている。
ここで、視野53−1を観測したユーザUが、ユーザUの観測希望領域61をさらに詳細に観測したいと考えた場合を想定する。図3に示した例では、観測希望領域61が溝部であり、ユーザUがこの溝部の左奥側を右手前側から覗き込みたいと考えた場合を想定する。かかる場合、ユーザUは仮想オブジェクト60−1に対して(上から見て時計回りに)回転させる操作を行うことによって、この溝部の左奥側を右手前側から覗き込むことが可能である。
上記では、図1を参照して仮想オブジェクト60−1の中心位置が回転中心62−1としてあらかじめ決められている前提構成を説明した。一方、本開示の第1の実施形態においては、指示方向検出部120が、実空間におけるユーザUの視線を検出し、実空間におけるユーザUの視線に対応する仮想空間20−1におけるユーザUの視線52をユーザUによる指示方向の例として検出する。そして、データ取得部112が、仮想空間20−1におけるユーザUの視線52を取得するとともに、3Dモデル情報151から仮想空間20−1における仮想オブジェクト40−1の位置を取得する。
このとき、回転中心決定部113は、仮想空間20−1における仮想オブジェクト40−1の位置と仮想空間20−1におけるユーザUの視線とに基づいて、回転中心を決定する。図4には、仮想空間20−1におけるユーザUの視線52が示されており、回転中心決定部113が、仮想空間20−1におけるユーザUの視線52と仮想オブジェクト40−1の表面との交点を回転中心42−2として決定する例が示されている。視野53−1には、仮想空間20−1における回転中心42−2に対応する点として、回転中心62−2が写っている。
回転制御部114は、回転中心42−2に基づいて、仮想オブジェクト40−1をユーザUの視点位置(視点カメラ51の位置)に対して相対的に回転させる。かかる構成によれば、ユーザUの視点位置に対する相対的な仮想オブジェクト40−1の回転をよりユーザUが望むように行うことが可能となる。なお、本明細書においては、仮想オブジェクト40−1の回転が、ユーザUの回転操作に基づいて行われることを主に想定する。しかし、仮想オブジェクト40−1の回転は、ユーザUの回転操作によらずに自動的に行われてもよい。
また、本明細書において用いられる「回転」という用語は、回転中心からの距離を一定に保ちながらオブジェクト(仮想オブジェクトまたは実オブジェクト)の一部が動くことを意味する。したがって、回転中心には、オブジェクト(仮想オブジェクトまたは実オブジェクト)の一部が存在してもよいし、存在しなくてもよい。すなわち、本明細書において用いられる「回転」とは、3次元空間における実質的な位置の変化を伴わない特定の軸を基準とした運動である「自転」や、特定の円軌道上の運動である「公転」といった種々の運動態様を含みうる概念である。さらに、本明細書において、オブジェクトの回転角度は限定されない。例えば、オブジェクトの回転角度は、360度未満であってもよい。
さらに、本開示の第1の実施形態において、仮想オブジェクト40−1は、ユーザUの視点位置に対して相対的に回転されればよい。したがって、回転制御部114は、回転中心42−2を基準として、仮想オブジェクト40−1を直接的に回転させてもよいし、視点位置(視点カメラ51の位置)を直接的に回転させてもよい。以下では、回転制御部114が、回転中心42−2を基準として、視点位置(視点カメラ51の位置)を直接的に回転させる例を主に説明する。
図5および図6は、本開示の第1の実施形態の第1の例においてユーザUの視野に写る仮想オブジェクト60−1の例を示す図である。図5に示したように、視野53−1には、回転前の仮想オブジェクト60−1が写っている。そして、視野53−3には、回転後の仮想オブジェクト60−1が写っている。このとき、仮想空間20−1における仮想オブジェクト40−1は、ユーザUの視線52と仮想オブジェクト40−1の表面との交点を回転中心42−2として回転するため、観測希望領域61はさほど遠ざからず、かつ、視野53−3の中央からさほど離れずに移動する。
ユーザUは、視野53−3に提供される仮想オブジェクト60−1の向きが所望の向きに一致した場合には、仮想空間20−1に存在する仮想オブジェクト40−1に対する回転操作を停止すればよい。そうすれば、回転制御部114によって仮想オブジェクト40−1の回転が停止される。このとき、回転操作の停止まで、回転中心42−2は不変であってもよいし、変更されてもよい。回転中心42−2の変更は、ユーザUの視線52の変更によって実現される。
移動制御部115は、回転中心42−2が決定された場合、回転中心62−2がユーザUの視野53−3の所定位置に合うように仮想オブジェクト60−1を視野53−3に対して相対的に並進移動させるとよい(仮想オブジェクト40−1を視点カメラ51に対して相対的に並進移動させるとよい)。そうすれば、ユーザUにとってより観測しやすい仮想オブジェクト60−1を提供することが可能になる。ここで、所定位置は特に限定されない。
例えば、回転中心62−2が合わせられる所定位置は、視野53−3の中央であってもよい。視野53−4を参照すると、回転中心62−2が視野53−3の中央に合うように仮想オブジェクト60−1が視野53−3に対して相対的に移動されている。あるいは、回転中心62−2が合わせられる所定位置は、視野53−3の内側であってもよい。すなわち、移動制御部115は、回転中心62−2が視野53−3の外側に存在する場合、視野53−3の内側に回転中心62−2が存在するように視野53−3に対して仮想オブジェクト60−1を相対的に並進移動させてもよい。
視野53−3に対する仮想オブジェクト60−1の相対的な並進移動は、様々な手法によって実現され得る。例えば、移動制御部115は、仮想空間20−1において視点カメラ51を並進移動させてもよい。あるいは、移動制御部115は、視点カメラ51のデジタルズーム機能によって視野53−4を切り出すウィンドウ位置を変更してもよい。あるいは、移動制御部115は、視点カメラ51が全天周カメラである場合には、撮像された映像から視野53−4を形成する画像を選択すればよい。
図7は、視点カメラ51が全天周カメラである場合における視野53−4の形成について説明するための図である。図7に示すように、視点カメラ51が全天周カメラである場合、例えば、視点カメラ51は、水平方向360度、垂直方向180度に渡って撮像を行って全天周映像を得ることが可能である。そこで、移動制御部115は、視点カメラ51の撮像方向を特定することによって、全天周映像から視野53−4を形成するための画像を得ることが可能である。
図6に戻って説明を続ける。視野53−3に対する仮想オブジェクト60−1の相対的な並進移動のタイミングは限定されない。例えば、移動制御部115は、仮想オブジェクト60−1の回転と同時に、視野53−3に対して仮想オブジェクト60−1を相対的に並進移動させてもよい。あるいは、移動制御部115は、仮想オブジェクト60−1の回転の前または後に、視野53−3に対して仮想オブジェクト60−1を相対的に並進移動させてもよい。
また、移動制御部115は、無条件に視野53−3に対して仮想オブジェクト60−1を相対的に並進移動させてもよいが、条件付きで視野53−3に対して仮想オブジェクト60−1を相対的に並進移動させてもよい。例えば、移動制御部115は、事前設定がなされている場合に、視野53−3に対して仮想オブジェクト60−1を相対的に並進移動させてもよい。あるいは、移動制御部115は、仮想オブジェクト60−1の種類が所定の種類である場合に、視野53−3に対して仮想オブジェクト60−1を相対的に並進移動させてもよい。
上記においては、ユーザの視線と(オブジェクトの位置に応じた所定の面の一例としての)オブジェクトの表面との交点が回転中心として決定される例を示した。しかし、オブジェクトの形状が複雑な場合などに、ユーザの視線とオブジェクトの表面との交点が回転中心になってしまうと、ユーザの所望するようにオブジェクトが回転しない場合が生じ得る。一例として、ユーザがオブジェクトの表面に存在する溝の手前側を観測している場合であっても、ユーザの視線とオブジェクトの表面との交点は、溝の奥側になってしまうため、溝の奥側が回転中心になってしまい、ユーザの所望するようにオブジェクトが回転しない場合があり得る。
そこで、以下では、よりユーザの所望するようにオブジェクトを回転させるための技術を説明する。オブジェクトの例として、仮想オブジェクトを回転させる場合を説明する。具体的には、仮想オブジェクトの位置に応じた所定の面の例として、仮想オブジェクトの全体または一部を覆う面(以下、「エンベロープ面」とも言う。)を想定する。そして、回転中心決定部113は、仮想空間における仮想オブジェクトのエンベロープ面と仮想空間における視線との交点を回転中心として決定する。
図8は、エンベロープ面を用いて回転中心を決定する例を説明するための図である。図8に示すように、仮想空間20−1に仮想オブジェクト40−1が存在する場合を想定する。また、回転中心決定部113は、仮想オブジェクト40−1の全体を覆うエンベロープ面54を算出する。このとき、回転中心決定部113は、仮想空間20−1におけるユーザUの視線52とエンベロープ面54との交点を回転中心42−3として決定してよい。これによって、ユーザが実際に観測している溝の手前側が回転中心になるため、ユーザがより所望するように仮想オブジェクト40−1が回転する可能性が高まる。
なお、ここでは、回転中心決定部113が、仮想オブジェクト40−1の位置に応じた所定の面の例として、なだらかなエンベロープ面を算出する例を想定した。しかし、仮想オブジェクト40−1の位置に応じた所定の面は、なだらかな面ではなく、仮想オブジェクト40−1の表面の凹凸がある程度反映された面であってもよい。
例えば、回転中心決定部113は、仮想オブジェクト40−1の位置に応じた所定の面の例として、仮想オブジェクト40−1の表面をvoxel単位(3次元空間における正規格子単位)で抽象化したvoxel面を算出してもよい。これによって、voxel面はエンベロープ面よりも単純化して表現されるため、仮想オブジェクト40−1の位置に応じた所定の面の計算、および、当該所定の面とユーザの視線との交点の計算の負荷が低減される。
以上においては、仮想オブジェクト40−1の位置に応じた所定の面の例として、仮想オブジェクト40−1の表面、エンベロープ面、および、voxel面について説明した。ここで、仮想オブジェクト40−1の位置に応じた所定の面の例として、これらのいずれの面が利用されるかは限定されない。例えば、回転中心決定部113は、ユーザUによる選択操作に従って、仮想オブジェクト40−1の位置に応じた所定の面を選択してもよい。
あるいは、回転中心決定部113は、仮想オブジェクト40−1の形状の複雑さに応じて、仮想オブジェクト40−1の位置に応じた所定の面を選択してもよい。例えば、回転中心決定部113は、仮想オブジェクト40−1の形状の複雑さが閾値を超える場合に、エンベロープ面またはvoxel面を選択し、仮想オブジェクト40−1の形状の複雑さが閾値以下の場合に、仮想オブジェクト40−1の表面を選択してもよい。
なお、仮想オブジェクト40−1の形状の複雑さはどのように算出されてもよい。一例として、回転中心決定部113は、仮想オブジェクト40−1の形状の複雑さを、仮想オブジェクト40−1の表面の各位置における深さの分散値によって算出してもよい。仮想オブジェクト40−1の表面の各位置は、仮想オブジェクト40−1の表面全体の各位置であってもよいし、仮想オブジェクト40−1の表面の一部(例えば、視野に写る部分など)の各位置であってもよい。
以上においては、回転制御部114は、回転中心に基づいて、仮想オブジェクトをユーザの視点位置に対して相対的に回転させる場合について説明した。しかし、仮想オブジェクトをユーザの視点位置に対して相対的に回転させた場合、仮想オブジェクトが視点カメラに衝突してしまい、ユーザの視野に仮想オブジェクトの一部が写らない状況が起こり得る。そこで、回転制御部114は、回転中心と視点位置との位置関係に基づいて、視点位置の回転軌道を制御するとよい。かかる例について説明する。
図9は、仮想オブジェクトと視点カメラとの位置関係の例を示す図である。図9を参照すると、視点カメラ51からユーザの視線52が伸びており、視線52と仮想オブジェクト40−2との交点が回転中心42−2として決定されている。かかる仮想オブジェクト40−2と視点カメラ51との位置関係を前提として、仮想オブジェクト40−2が視点カメラ51に衝突してしまう場合の第1の解決策について、図10を参照しながら説明し、第2の解決策について、図11を参照しながら説明する。
図10は、仮想オブジェクト40−2が視点カメラ51に衝突してしまう場合の第1の解決策について説明するための図である。図10には、図9に示した仮想オブジェクト40−2と視点カメラ51との位置関係が、上方から見下ろすような角度によって示されている。ここでは、回転中心42−2を基準として、視点位置(視点カメラ51の位置)を直接的に回転させる場合を想定する。図10を参照すると、視点カメラ51の軌道55−1が示されている。
ここで、図10に示した例では、視点カメラ51の軌道55−1の外側に仮想オブジェクト40−2がはみ出すという状況が起きている。そのため、視点カメラ51が軌道55−1に沿って回転した場合、仮想オブジェクト40−2が視点カメラ51に衝突してしまう。そこで、かかる状況において、回転制御部114は、軌道55−2の内側に仮想オブジェクト40−2が収まるように軌道55−1を変形させるとよい。図10には、変形後の軌道55−2が楕円で示されているが、変形後の軌道55−2の形状は特に限定されない。
このような軌道55−1の制御によって、仮想オブジェクト40−2が視点カメラ51に衝突してしまい、ユーザの視野に仮想オブジェクトの一部が写らなくなってしまう状況を防ぐことが可能となる。一方、このような軌道55−1の制御によって、回転中心42−2と視点カメラ51との距離が一定ではなくなるため、ユーザの視野に写る仮想オブジェクトのサイズが変化してしまう。そこで、回転制御部114は、視点カメラ51の回転と同時に、視点カメラ51のズームを制御することによって、ユーザの視野に写る仮想オブジェクトのサイズを一定にしてもよい。
図11は、仮想オブジェクト40−2が視点カメラ51に衝突してしまう場合の第2の解決策について説明するための図である。図11には、図9に示した仮想オブジェクト40−2と視点カメラ51との位置関係が、上方から見下ろすような角度によって示されている。図10に示した例と同様に、回転中心42−2を基準として、視点位置(視点カメラ51の位置)を直接的に回転させる場合を想定する。図11を参照すると、視点カメラ51の軌道55−1が示されている。
ここで、図11に示した例においても、視点カメラ51の軌道55−1の外側に仮想オブジェクト40−2がはみ出すという状況が起きている。そのため、視点カメラ51が軌道55−1に沿って回転した場合、仮想オブジェクト40−2が視点カメラ51に衝突してしまう。そこで、かかる状況において、回転制御部114は、軌道55−3の内側に仮想オブジェクト40−2が収まるように軌道55−1を拡大させるとよい。図10には、拡大後の軌道55−3が円で示されている。
図11に示した例では、図10に示した例と異なり、拡大前の軌道55−1と拡大後の軌道55−3とが不連続になっている。そのため、拡大前の軌道55−1から拡大後の軌道55−3に視点カメラ51を移動させる必要がある。拡大前の軌道55−1から拡大後の軌道55−3への視点カメラ51の移動は、回転制御部114によって自動的に制御されてもよいし、回転制御部114によってユーザに視点カメラ51の移動指示がなされた場合には、ユーザの手動によってなされてもよい。
図10に示した例と同様に、図11に示した例においても、軌道55−1の制御によって、仮想オブジェクト40−2が視点カメラ51に衝突してしまい、ユーザの視野に仮想オブジェクトの一部が写らなくなってしまう状況を防ぐことが可能となる。
以上においては、視点位置の回転軌道を制御する例について説明した。ここで、オブジェクトの回転速度は一定であってもよいし、可変であってもよい。オブジェクトの回転速度が可変である場合、回転速度はどのように制御されてもよい。例えば、回転制御部114は、オブジェクトに関するパラメータに応じた回転速度に従って、オブジェクトをユーザの視点位置に対して相対的に回転させてもよい。
ここで、オブジェクトに関するパラメータの種類は特に限定されない。例えば、オブジェクトに関するパラメータは、オブジェクトの形状の複雑さ、オブジェクトの大きさ、および、視点位置とオブジェクトとの距離の少なくともいずれか一つを含んでよい。
例えば、オブジェクトの形状の複雑さが高いほど、オブジェクトの観測に時間を要することが想定されるため、回転速度は遅いとよい。オブジェクトの形状の複雑さは、上記したように算出され得る。また、オブジェクトが大きいほど、オブジェクトの観測に時間を要することが想定されるため、回転速度は遅いとよい。
また、視点位置とオブジェクトとの距離が小さいほど、視野に写るオブジェクトが大きくなり、オブジェクトの観測に時間を要することが想定されるため、回転速度は遅いとよい。視点位置とオブジェクトとの距離と回転速度との関係の例について、オブジェクトが仮想オブジェクトである場合を想定して説明する。ただし、オブジェクトは仮想オブジェクではなく、実オブジェクトであってもよい。
図12は、視点位置と仮想オブジェクトとの距離と回転速度との関係の例を説明するための図である。図12を参照すると、視野53−5には、視点位置からの距離が最も遠い仮想オブジェクト60−1が写っている。このとき、視野53−5には仮想オブジェクト60−1が最も小さく写るため、ユーザは仮想オブジェクト60−1の全体を大まかに観測することが想定される。そのため、回転制御部114は、回転速度を最も早くしてよい。
また、図12を参照すると、視野53−6には、視点位置からの距離が少し小さい仮想オブジェクト60−1が写っている。このとき、視野53−6には仮想オブジェクト60−1が少し大きく写るため、ユーザは仮想オブジェクト60−1を少し細かく観測するようになることが想定される。そのため、回転制御部114は、回転速度を少し遅くするとよい。
また、図12を参照すると、視野53−7には、視点位置からの距離が最も小さい仮想オブジェクト60−1が写っている。このとき、視野53−7には仮想オブジェクト60−1が最も大きく写るため、ユーザは仮想オブジェクト60−1をさらに細かく観測するようになることが想定される。そのため、回転制御部114は、回転速度を最も遅くするとよい。
以上においては、オブジェクトの回転速度を制御する例について説明した。ところで、上記においては、指示方向検出部120がユーザの視線を検出する例について説明したが、指示方向検出部120によってユーザの視線が検出されない場合もあり得る。例えば、指示方向検出部120が撮像装置を有する場合、撮像装置の撮像範囲に目領域が収まっていない場合もあれば、画像に目領域が不鮮明に写っており視線が検出されない場合もある。
そこで、出力制御部111は、視線が検出されない場合、視線が検出されないことを示す情報の出力を制御するとよい。視線が検出されないことを示す情報は、視覚情報としてディスプレイによって出力されてもよいし、音声情報として音声出力装置によって出力されてもよいし、触覚情報として触覚提示装置によって出力されてもよい。以下では、視線が検出されないことを示す情報が、視覚情報としてディプレイによって出力される例を説明する。なお、以下の説明においても、オブジェクトの例として仮想オブジェクトを想定する。
図13は、視線が検出されないことを示す情報の出力例を示す図である。図13を参照すると、視野53−8に仮想オブジェクト60−2が写っている。しかし、ユーザが仮想オブジェクト60−2を見ておらず、ユーザの視線が検出されない場合を想定する。かかる場合、出力制御部111は、ユーザの視線が検出されないことを示す情報の出力を制御する。図13に示した例では、出力制御部111によって、ユーザの視線が検出されないことを示す視覚情報(非検出情報56)の出力が制御されている。非検出情報56の形状、大きさ、色などは特に限定されない。
なお、ユーザの視線が検出されない場合には、視線以外の指示方向を検出可能である場合には、視線の代わりに視線以外の指示方向が利用されてよい。視線以外の指示方向は、上記した各種の指示方向であってよい。また、ユーザの視線が検出されない場合には、ユーザによる前回の指示方向に基づく回転中心が利用されてもよいし、ユーザによる指示方向が過去に検出されていない場合には、デフォルト設定がされている位置が回転中心として利用されてもよい。
以上においては、視線が検出されないことを示す情報の出力例について説明した。上記においては、オブジェクトの回転範囲に制限がない場合について説明した。しかし、何らかの要因でオブジェクトの回転範囲に制限がある場合もあり得る。例えば、オブジェクトが仮想オブジェクトである場合、仮想オブジェクトをある角度から撮像した画像しか用意されていない場合もあり得る。あるいは、オブジェクトが実オブジェクトである場合、カメラアームで視点カメラを回転させる場合などには、視点カメラの回転に制限がある場合もあり得る。あるいは、実オブジェクトの回転に制限がある場合もある。
そこで、出力制御部111は、視点位置に対するオブジェクトの相対的な回転可能範囲を示す情報の出力を制御するとよい。そうすれば、ユーザは、オブジェクトをどの程度回転させることが可能であるかを容易に理解することが可能となる。以下においては、オブジェクトが仮想オブジェクトである場合を想定して説明する。
図14は、回転可能範囲を示す情報の出力例を示す図である。図14を参照すると、視野53−1に仮想オブジェクト60−2が写っている。また、仮想オブジェクト60−2の回転中心42−2が示されている。例えば、仮想オブジェクト60−2が水平方向および垂直方向に回転可能である場合を想定する。このとき、図14に示すように、出力制御部111は、水平方向の回転可能範囲を示す情報57−1と垂直方向の回転可能範囲を示す情報57−2とを出力させるとよい。
なお、出力制御部111によって、現在の仮想オブジェクト60−2の水平方向の回転角度を示すマーク58−1の出力が制御されており、現在の仮想オブジェクト60−2の垂直方向の回転角度を示すマーク58−2の出力が制御されている。上から見て反時計回りに仮想オブジェクト60−2が回転すると、その回転に対応する長さだけ水平方向の回転角度を示すマーク58−1が左に移動する。一方、上から見て時計回りに仮想オブジェクト60−2が回転すると、その回転に対応する長さだけ水平方向の回転角度を示すマーク58−1が右に移動する。
また、右から見て反時計回りに仮想オブジェクト60−2が回転すると、その回転に対応する長さだけ垂直方向の回転角度を示すマーク58−2が上に移動する。一方、右から見て時計回りに仮想オブジェクト60−2が回転すると、その回転に対応する長さだけ垂直方向の回転角度を示すマーク58−2が下に移動する。
回転可能範囲を示す情報57−1の左右端は、それぞれ仮想オブジェクト60−2の水平方向の回転角度が限界に到達したときに水平方向の回転角度を示すマーク58−1が到達する位置を示す。一方、回転可能範囲を示す情報57−2の上下端は、それぞれ仮想オブジェクト60−2の垂直方向の回転角度が限界に到達したときに垂直方向の回転角度を示すマーク58−2が到達する位置を示す。
図14に示した例では、仮想オブジェクト60−2の前面が真正面に視野53−9に写っている場合を基準角度としている。そこで、図14においては、仮想オブジェクト60−2の水平方向の回転角度が、その基準角度を基準として、+45度から+45度まで変化し得る場合を示している。また、図14においては、現在の仮想オブジェクト60−2の水平方向の回転角度が、その基準角度を基準として、+38度である場合を示している。
また、図14においては、仮想オブジェクト60−2の垂直方向の回転角度が、その基準角度を基準として、0度から+30度まで変化し得る場合を示している。また、図14においては、現在の仮想オブジェクト60−2の垂直方向の回転角度が、その基準角度を基準として、+23度である場合を示している。なお、仮想オブジェクト60−2の基準角度および回転角度の範囲は、図14に示した例に限定されない。
以上においては、オブジェクトの回転可能範囲を示す情報の出力例について説明した。しかし、出力制御部111は、回転可能範囲を示す情報の出力に追加して、または、回転可能範囲を示す情報の出力の代わりに、視点位置に対するオブジェクトの相対的な回転が回転可能範囲の限界に達した場合、視点位置に対するオブジェクトの相対的な回転が回転可能範囲の限界に達したことを示す情報の出力を制御してもよい。そうすれば、ユーザは、オブジェクトの回転が限界に達したことを容易に理解することが可能となる。
ここで、オブジェクトの回転が限界に達したことを示す情報は、視覚情報としてディスプレイによって出力されてもよいし、音声情報として音声出力装置によって出力されてもよいし、触覚情報として触覚提示装置によって出力されてもよい。以下では、オブジェクトの回転が限界に達したことを示す情報が、視覚情報としてディプレイによって出力される例を説明する。なお、以下の説明においても、オブジェクトが仮想オブジェクトである場合を想定して説明する。
図15は、仮想オブジェクト60―2の回転が限界に達したことを示す情報の出力例を示す図である。図15を参照すると、視野53−10に仮想オブジェクト60−2が写っている。ここで、ユーザが仮想オブジェクト60−2に対して(上から見て反時計回りに)回転操作をするが、仮想オブジェクト60−2の当該方向の回転が限界に達している場合を想定する。かかる場合、出力制御部111は、仮想オブジェクト60−2の回転が限界に達したことを示す情報の出力を制御する。
図15に示した例では、出力制御部111によって、仮想オブジェクト60−2の回転が限界に達したことを示す情報を示す視覚情報(限界到達情報59)の出力が制御されている。限界到達情報59の形状、大きさ、色などは特に限定されない。しかし、仮想オブジェクト60−2の手前側の面のうち奥側に回転する領域(図15に示した例では、回転方向が上から見て反時計回りであれば、回転中心42−2の右側領域が奥側に回転するため、回転中心42−2の右側領域)に限界到達情報59が表示されれば、ユーザは直感的に回転が限界に到達した方向を理解することが可能である。
なお、出力制御部111は、限界到達情報59を一度出力させたら、仮想オブジェクト60−2の回転角度の限界到達が解除されない限り、限界到達情報59を出力させ続けてもよい。あるいは、出力制御部111は、限界到達情報59を一度出力させたら、所定時間が経過した段階で、限界到達情報59を自動的に消去してもよい。そうすれば、限界到達情報59が出力され続けることによってユーザが感じる煩わしさを低減することが可能となる。
以上においては、オブジェクトの回転が限界に達したことを示す情報の出力例について説明した。以上においては、オブジェクトの回転中心が視点位置から遠い場合であっても、オブジェクトの回転軌道を特に変更しない例を説明した。しかし、オブジェクトの回転中心が視点位置から遠い場合には、オブジェクトの回転を把握しづらい場合がある(例えば、オブジェクトが並進移動しているように見えてしまう場合がある)。
そこで、回転中心決定部113は、回転中心が視点位置から所定の距離よりも遠くに存在する場合、回転中心を前記視点位置に近づけてもよい。そうすれば、ユーザにとってオブジェクトの回転が把握しやすくなる。所定の距離は、あらかじめ決められていてもよいし、ユーザによって設定可能であってもよい。
また、上記においては、オブジェクトが出力部160によって平面上に2次元的に表示される例を主に説明した。しかし、オブジェクトが空間上に3次元的に表示される場合もあり得る(3D表示される場合もあり得る)。あるいは、ユーザが視点位置に存在する場合、ユーザが実空間に存在する実オブジェクトを直接的に観測する場合もあり得る。かかる場合には、ユーザによって観測されるオブジェクトの位置が奥行きに依存して、ユーザの輻輳角が変化することが想定される。
そこで、回転中心決定部113は、オブジェクトが空間上に3次元的に表示される場合、ユーザの輻輳角に基づいて3次元空間におけるオブジェクトの奥行き情報を算出してもよい。そして、回転中心決定部113は、算出したオブジェクトの奥行き情報と指示方向とに基づいて、回転中心を決定してもよい。より具体的には、回転中心決定部113は、奥行き情報が示す面と指示方向との交点を回転中心として決定すればよい。例えば、回転中心決定部113は、撮像装置によって得られた画像からユーザの輻輳角を検出すればよい。
以上においては、本開示の第1の実施形態に係る情報処理装置10Aの第1の例を説明した。続いて、本開示の第1の実施形態に係る情報処理装置10Aの第2の例を説明する。図16は、本開示の第1の実施形態に係る情報処理装置10Aの第2の例を示す図である。図17は、本開示の第1の実施形態に係る情報処理装置10Aの第2の例において仮想空間に存在する仮想オブジェクトの例を示す図である。図16に示すように、情報処理装置10Aは、ユーザUが存在する部屋内に据え置かれており、指示方向検出部120および出力部160を有している。
図17に示すように、第2の例においては、情報処理装置10Aがテレビジョン装置である場合を主に想定する。図17を参照すると、仮想空間20−1に仮想オブジェクト40−1が存在し、視点位置に視点カメラ51が仮想的に存在している。そして、視点カメラ51によって仮想オブジェクト40−1が撮像されて得られる画像が、出力制御部111による制御に従って出力部160によって表示されることによって、ユーザUに視野53−1が提供される。図16を参照すると、視野53−1に写る仮想オブジェクト60−1の例として、脳の3Dモデルが示されている。
第2の例においても、指示方向検出部120が、実空間におけるユーザUの視線を検出し、実空間におけるユーザUの視線に対応する仮想空間20−1におけるユーザUの視線52をユーザUによる指示方向の例として検出する。このとき、第2の例において、指示方向検出部120は、実空間におけるユーザUの視線に基づいて、視野53−1におけるユーザUの観測点を検出し、視野53−1におけるユーザUの観測点に対応する仮想空間20−1におけるユーザUの視線52をユーザUによる指示方向の例として検出する。第2の例においても、第1の例と同様に、仮想オブジェクト40−1が相対的に回転される。
図18は、本開示の第1の実施形態に係る情報処理装置10Aの第3の例を示す図である。図19は、本開示の第1の実施形態に係る情報処理装置10Aの第3の例において仮想空間に存在する仮想オブジェクトの例を示す図である。図18に示すように、情報処理装置10Aは、ユーザUが存在する部屋内に据え置かれており、指示方向検出部120および出力部160を有している。
図19に示すように、第3の例においても、情報処理装置10Aがテレビジョン装置である場合を主に想定する。図19を参照すると、仮想空間20−3に仮想オブジェクト40−3が存在し、視点位置に視点カメラ51が仮想的に存在している。そして、視点カメラ51によって仮想オブジェクト40−3が撮像されて得られる画像が、出力制御部111による制御に従って出力部160によって表示されることによって、ユーザUに視野53−11が提供される。図18を参照すると、視野53−11に写る仮想オブジェクト60−3の例として、部屋の3Dモデルが示されている。第3の例においても、第2の例と同様に、仮想オブジェクト40−3が相対的に回転される。
図20は、本開示の第1の実施形態に係る情報処理装置10Aの第4の例を示す図である。図20に示すように、情報処理装置10Aは、ユーザU2の頭部に装着され、指示方向検出部120および出力部160を有している。ユーザU2とは異なるユーザU1は、コンピュータC1の画面を閲覧している。コンピュータC1は、3Dモデル情報を管理しており、3Dモデル情報に基づく仮想オブジェクトを画面に表示するとともに、3Dモデル情報を情報処理装置10Aに送信する。第4の例においても、第1の例と同様に、情報処理装置10AがAR用のHMDである場合を主に想定する。
図20を参照すると、仮想空間に仮想オブジェクト40−4が存在し、視点位置に視点カメラが仮想的に存在している。そして、視点カメラによって仮想オブジェクト40−4が撮像されて得られる画像が、出力制御部111による制御に従って出力部160によって表示されることによって、ユーザUに視野が提供される。図20を参照すると、仮想オブジェクト40−4の例として、心臓が示されている。第4の例においても、第1の例と同様に、仮想オブジェクト40−4が相対的に回転される。
図21は、本開示の第1の実施形態に係る情報処理装置10Aの第5の例を示す図である。第5の例においても、情報処理装置10Aが、ユーザの頭部に装着される場合を想定する。第5の例においても、第1の例と同様に、情報処理装置10AがAR用のHMDである場合を主に想定する。
第5の例においては、仮想空間に仮想オブジェクトとして風景写真が存在し、視点位置に視点カメラが仮想的に存在する。そして、視点カメラによって風景写真が撮像されて得られる画像が、出力制御部111による制御に従って出力部160によって表示されることによって、ユーザに視野53−12が提供される。
例えば、視野53−12において、下部に写る建物に視線が当てられると、下部に写る建物の位置が回転中心42−4として決定される。かかる状況において、ユーザによって風景写真を時計回りに回転させる操作が行われると、風景写真が時計回りに回転するとともに、下部に写る建物が視野53−12の中央に位置するように風景写真を移動する(視野53−13)。
一方、視野53−12において、上部に写る建物に視線が当てられると、上部に写る建物の位置が回転中心42−3として決定される。かかる状況において、ユーザによって風景写真を時計回りに回転させる操作が行われると、風景写真が時計回りに回転するとともに、上部に写る建物が視野53−12の中央に位置するように風景写真を移動する(視野53−14)。
なお、図21に示した例では、視点が当てられる対象が建物であったが、視点が当てられる対象は、建物以外であってもよく、区画であってもよい。また、図21に示した例では、回転されるオブジェクトが風景写真であったが、回転されるオブジェクトは、風景写真以外であってもよく、地図であってもよい。また、ここでは、風景写真が2次元データである場合を想定したが、風景写真が3次元データである場合には、建物と視線との交点が回転中心として3次元的に決定され、風景写真が3次元的に回転されてもよい。
以上において、本開示の第1の実施形態について説明した。
<2.第2の実施形態の説明>
続いて、本開示の第2の実施形態について説明する。本開示の第2の実施形態においては、実空間に存在する実オブジェクトを回転させる例を主に説明する。なお、本開示の第1の実施形態において既に説明した仮想オブジェクトの回転の機能は、実オブジェクトの回転の機能に対しても同様に適用され得る。そこで、本開示の第2の実施形態においては、実オブジェクトの回転の機能のうち、仮想オブジェクトの回転の機能と異なる点を主に説明する。
[2.1.機能構成例]
まず、本開示の第2の実施形態に係る情報処理装置の機能構成例について説明する。図22は、本開示の第2の実施形態に係る情報処理装置の機能構成例を示す図である。図22に示したように、情報処理装置10Bは、奥行き情報検出部140を有しており、記憶部150Bが3Dモデル情報151を記憶していない点が、本開示の第1の実施形態に係る情報処理装置10Bと異なっている。以下では、これらの相違点について主に説明する。
なお、本明細書においては、制御部110、指示方向検出部120、操作検出部130、奥行き情報検出部140、記憶部150Bおよび出力部160が、同一のデバイス(情報処理装置10B)の内部に存在する例を主に説明する。しかし、これらのブロックが存在する位置は特に限定されない。例えば、後に説明するように、これらのブロックの一部は、サーバなどに存在していてもよい。
奥行き情報検出部140は、実空間に存在する実オブジェクトの奥行き情報を検出する。ここで、実オブジェクトの奥行き情報の検出手法は特に限定されない。例えば、奥行き情報検出部140は、レーザ距離計によって実オブジェクトの奥行き情報を検出してもよいし、デプスセンサによって実オブジェクトの奥行き情報を検出してもよいし、ステレオカメラによって実オブジェクトの奥行き情報を検出してもよいし、カメラレンズの焦点距離、カメラによって撮像される画像サイズ、および、イメージセンサのサイズに基づいて、実オブジェクトの奥行き情報が検出されてもよい。
以上、本開示の第2の実施形態に係る情報処理装置10Bの機能構成例について説明した。
[2.2.全体的な機能]
続いて、本開示の第2の実施形態に係る情報処理装置10Bの機能詳細について説明する。図23は、本開示の第2の実施形態に係る情報処理装置10Bの第1の例を示す図である。図24は、本開示の第2の実施形態に係る情報処理装置10Bの第1の例において実空間に存在する実オブジェクトの例を示す図である。図23に示すように、情報処理装置10Bは、ユーザUが存在する部屋内に据え置かれており、指示方向検出部120および出力部160を有している。
図23に示すように、第1の例においては、情報処理装置10Bがテレビジョン装置である場合を主に想定する。図24を参照すると、実空間20−4に実オブジェクト40−4が存在し、実オブジェクト40−4を異なる位置からそれぞれ撮像する設置カメラ71−1および設置カメラ71−2が存在している。設置カメラ71の数は特に限定されない。また、実空間20−4には、現実的な視点位置に仮想的な視点カメラ51が設置されている。そして、設置カメラ71−1および設置カメラ71−2それぞれによって実オブジェクト40−4が撮像されて得られる映像が、出力制御部111によって繋ぎ合わされて、仮想的な視点カメラ51によって撮像される自由視点映像が生成される。
出力制御部111によって生成した自由視点映像が出力部160によって表示されることによって、ユーザUに視野53−15が提供される。図23を参照すると、視野53−15に写る実オブジェクト60−4の例として、サッカー競技場(選手達を含む)が示されている。なお、実オブジェクト60−4は、サッカー競技場に限定されない。例えば、実オブジェクト60−4は、音楽が演奏されるライブ会場であってもよいし、監視カメラによって撮像される監視対象領域であってもよい。
本開示の第2の実施形態においては、指示方向検出部120が、ユーザUが存在する空間におけるユーザUの視線を検出し、当該空間におけるユーザUの視線に対応する実空間20−4におけるユーザUの視線52をユーザUによる指示方向の例として検出する。そして、データ取得部112が、実空間20−4におけるユーザUの視線52を取得するとともに、奥行き情報検出部140から実空間20−4における実オブジェクト40−4の位置を取得する。
このとき、回転中心決定部113は、実空間20−4における実オブジェクト40−4の奥行き情報に対応する面と実空間20−4におけるユーザUの視線とに基づいて、回転中心を決定する。図24には、実空間20−4におけるユーザUの視線52が示されており、回転中心決定部113が、実空間20−4におけるユーザUの視線52と実オブジェクト40−4の奥行き情報に対応する面との交点を回転中心42−2として決定する例が示されている。視野53−15には、実空間20−4における回転中心42−2に対応する点として、回転中心62−2が写っている。
回転制御部114は、回転中心42−2に基づいて、実オブジェクト40−4をユーザUの視点位置(視点カメラ51の位置)に対して相対的に回転させる。かかる構成によれば、ユーザUの視点位置に対する相対的な実オブジェクト40−4の回転をよりユーザUが望むように行うことが可能となる。なお、本明細書においては、実オブジェクト40−4の回転が、ユーザUの回転操作に基づいて行われることを主に想定する。しかし、実オブジェクト40−4の回転は、ユーザUの回転操作によらずに自動的に行われてもよい。
さらに、本開示の第2の実施形態においても、実オブジェクト40−4は、ユーザUの視点位置に対して相対的に回転されればよい。したがって、回転制御部114は、回転中心42−2を基準として、実オブジェクト40−4を直接的に回転させてもよいし、視点位置(視点カメラ51の位置)を直接的に回転させてもよい。以下では、回転制御部114が、回転中心42−2を基準として、視点位置(視点カメラ51の位置)を直接的に回転させる例を主に説明する。
移動制御部115は、回転中心42−2が決定された場合、回転中心62−2がユーザUの視野53−15の所定位置に合うように実オブジェクト60−4を視野53−15に対して相対的に並進移動させるとよい(実オブジェクト40−4を視点カメラ51に対して相対的に並進移動させるとよい)。そうすれば、ユーザUにとってより観測しやすい実オブジェクト60−4を提供することが可能になる。ここで、所定位置は特に限定されない。
例えば、回転中心62−2が合わせられる所定位置は、視野53−15の中央であってもよい。また、回転中心62−2に存在する選手は時々刻々と動くことが想定されるため、回転制御部114は、回転中心62−2に存在する選手をトラッキングしてもよい。そして、回転制御部114は、トラッキングに基づいて、回転中心62−2を選手に追従させてもよい。そうすれば、移動制御部115は、回転中心62−2に存在する選手をユーザUの視野53−15の所定位置(例えば、視野53−15の中央)に常に合わせることが可能である。
上記においては、ユーザの視線と(実オブジェクトの奥行き情報に応じた所定の面の一例としての)実オブジェクトの奥行き情報に対応する面との交点が回転中心として決定される例を示した。しかし、本開示の第1の実施形態と同様に、回転中心決定部113は、実空間における実オブジェクトのエンベロープ面と実空間における視線との交点を回転中心として決定してもよい。あるいは、回転中心決定部113は、実オブジェクトの奥行き情報に応じた所定の面の例として、実オブジェクトの表面をvoxel単位で抽象化したvoxel面を算出してもよい。
なお、実空間を撮像するカメラのフォーカス位置が適切に制御されるとよい。より具体的には、奥行き情報検出部140によって、回転中心42−2の奥行き情報が得られる。そこで、出力制御部111は、回転中心42−2の奥行き情報に基づいて、カメラのフォーカス位置を制御するとよい。より具体的には、出力制御部111は、回転中心42−2の奥行き情報、カメラによって撮像される画像サイズ、および、イメージセンサのサイズに基づいて、カメラのフォーカス位置を制御するとよい。そうすれば、回転中心42−2の周辺がより鮮明に写る視野がユーザに提供され得る。
図25は、本開示の第2の実施形態に係る情報処理装置10Bの第2の例を示す図である。図26は、本開示の第2の実施形態に係る情報処理装置10Bの第2の例において実空間に存在する実オブジェクトの例を示す図である。図25に示すように、情報処理装置10Bは、ユーザUが存在する部屋内に据え置かれており、指示方向検出部120および出力部160を有している。
図25に示すように、第2の例においても、情報処理装置10Bがテレビジョン装置である場合を主に想定する。図26を参照すると、実空間20−5に実オブジェクト40−5が存在し、実オブジェクト40−5を異なる位置からそれぞれ撮像する設置カメラ71−1および設置カメラ71−2が存在している。設置カメラ71の数は特に限定されない。また、実空間20−5には、現実的な視点位置に仮想的な視点カメラ51が設置されている。そして、設置カメラ71−1および設置カメラ71−2それぞれによって実オブジェクト40−5が撮像されて得られる映像が、出力制御部111によって繋ぎ合わされて、仮想的な視点カメラ51によって撮像される自由視点映像が生成される。
出力制御部111によって生成した自由視点映像が出力部160によって表示されることによって、ユーザUに視野53−16が提供される。図25を参照すると、視野53−16に写る実オブジェクト60−5の例として、車両が示されている。なお、実オブジェクト60−5は、車両に限定されない。本例においても、本開示の第2の実施形態の第1の例と同様に、仮想オブジェクト40−5が相対的に回転される。
図27は、本開示の第2の実施形態に係る情報処理装置10Bの第3の例を示す図である。図28は、本開示の第2の実施形態に係る情報処理装置10Bの第3の例において実空間に存在する実オブジェクトの例を示す図である。図27に示すように、情報処理装置10Bは、ユーザUが存在する部屋内に据え置かれており、指示方向検出部120および出力部160を有している。
図27に示すように、第3の例においても、情報処理装置10Bがテレビジョン装置である場合を主に想定する。図28を参照すると、実空間20−6に実オブジェクト40−6が存在し、現実的な視点位置にステレオカメラ72が存在している。そして、ステレオカメラ72によって実オブジェクト40−6が撮像されて得られる映像が、出力部160によって表示されることによって、ユーザUに視野53−17が提供される。図27を参照すると、視野53−17に写る実オブジェクト60−6の例として、機械が示されている。なお、実オブジェクト60−6は、機械に限定されない。
本例においては、指示方向検出部120が、ユーザUが存在する空間におけるユーザUの視線を検出し、当該空間におけるユーザUの視線に対応する実空間20−6におけるユーザUの視線52をユーザUによる指示方向の例として検出する。そして、データ取得部112が、実空間20−6におけるユーザUの視線52を取得するとともに、ステレオカメラ72から実空間20−6における実オブジェクト40−6の位置を取得する。
本例においては、ロボットアーム73によってステレオカメラ72が直接的に回転されることで、実オブジェクト40−6が相対的に回転される。なお、ステレオカメラ72を回転させるのは、ロボットアーム73に限定されない。例えば、ロボットアーム73の代わりに、移動可能なロボットがステレオカメラ72を回転させてもよい。
図29は、本開示の第2の実施形態に係る情報処理装置10Bの第4の例を示す図である。図29に示すように、情報処理装置10Bは、ユーザUが存在する手術室内に据え置かれており、指示方向検出部120および出力部160を有している。また、手術室内には、手術台74が存在している。
図29に示すように、第4の例においても、情報処理装置10Bがモニタである場合を主に想定する。図29を参照すると、実空間20−7に実オブジェクト40−7が存在し、現実的な視点位置にステレオカメラ72が存在している。そして、ステレオカメラ72によって実オブジェクト40−7が撮像されて得られる映像が、出力部160によって表示されることによって、ユーザUに視野53−18が提供される。図29を参照すると、視野53−18に写る実オブジェクト60−7の例として、被手術者が示されている。
本例においては、指示方向検出部120が、ユーザUの視線を検出し、ユーザUの視線に対応する実空間20−7におけるユーザUの視線52をユーザUによる指示方向の例として検出する。そして、データ取得部112が、実空間20−7におけるユーザUの視線52を取得するとともに、ステレオカメラ72から実空間20−7における実オブジェクト40−7の位置を取得する。
本例においては、ロボットアーム73によってステレオカメラ72が直接的に回転されることで、実オブジェクト40−7が相対的に回転される。なお、ステレオカメラ72を回転させるのは、ロボットアーム73に限定されない。例えば、ロボットアーム73の代わりに、移動可能なロボットがステレオカメラ72を回転させてもよい。また、本例では、ロボットアーム73によってステレオカメラ72が直接的に回転される例を示したが、手術台74が直接的に回転されることで、手術台74の上に存在する実オブジェクト40−7が回転されてもよい。
図30は、本開示の第2の実施形態に係る情報処理装置10Bの第5の例を示す図である。図31は、本開示の第2の実施形態に係る情報処理装置10Bの第5の例において実空間に存在する実オブジェクトの例を示す図である。図30に示すように、情報処理装置10Bは、ユーザUが回転操作および移動操作などを入力可能なコントローラであり、指示方向検出部120および出力部160を有している。
図31を参照すると、実空間20−8に実オブジェクト40−8が存在し、現実的な視点位置に視点カメラ51が存在している。図30および図31に示す例では、視点カメラ51がドローンに搭載されている。そして、視点カメラ51によって実オブジェクト40−8が撮像されて得られる映像が、出力部160によって表示されることによって、ユーザUに視野53−19が提供される。図30を参照すると、視野53−19に写る実オブジェクト60−8の例として、ロボットが示されている。なお、実オブジェクト60−8は、ロボットに限定されない。
本例においては、指示方向検出部120が、ユーザUが存在する空間におけるユーザUの視線を検出し、当該空間におけるユーザUの視線に対応する実空間20−8におけるユーザUの視線52をユーザUによる指示方向の例として検出する。そして、データ取得部112が、実空間20−8におけるユーザUの視線52を取得するとともに、視点カメラ51(例えば、デプスカメラ)から実空間20−8における実オブジェクト40−8の位置を取得する。
本例においては、視点カメラ51を搭載するドローンが直接的に回転されることで、実オブジェクト40−8が相対的に回転される。図31には、視点カメラ51を搭載するドローンの軌道55が示されている。なお、図30では、情報処理装置10Bが、ユーザUが操作するコントローラである場合を説明した。しかし、情報処理装置10Bは、ユーザUが操作するコントローラに限定されず、ウェアラブルデバイスであってもよい。そして、ウェアラブルデバイスが指示方向検出部120および出力部160を有していてもよい。
図32は、本開示の第2の実施形態に係る情報処理装置10Bの第6の例を示す図である。図33は、本開示の第2の実施形態に係る情報処理装置10Bの第6の例において実空間に存在する実オブジェクトの例を示す図である。図30に示すように、情報処理装置10Bは、ヘリコプターに搭乗しているユーザUの頭部に装着されており、指示方向検出部120を有している。なお、情報処理装置10Bは、出力部160を特に有していなくてよい。
図33を参照すると、実空間20−9に実オブジェクト40−9が存在し、現実的な視点位置に視点カメラ51が存在している。図32および図33に示す例では、視点カメラ51がヘリコプターに搭載されている。本例では、ユーザUがヘリコプターから見下ろして直接目にする風景によって、ユーザUの視野が形成される。図33を参照すると、視野に写る実オブジェクト40−9の例として、ロボットが示されている。なお、実オブジェクト40−9は、ロボットに限定されない。
本例においては、指示方向検出部120が、ユーザUの視線と指示方向検出部120の向きとに基づいて、実空間20−9におけるユーザUの視線52をユーザUによる指示方向の例として検出する。そして、データ取得部112が、実空間20−9におけるユーザUの視線52を取得するとともに、視点カメラ51(例えば、デプスカメラ)から実空間20−9における実オブジェクト40−9の位置を取得する。
本例においては、視点カメラ51を搭載するヘリコプターが直接的に回転されることで、実オブジェクト40−9が相対的に回転される。図33には、視点カメラ51を搭載するヘリコプターの軌道55が示されている。なお、図32では、情報処理装置10Bが、ユーザUの頭部に装着される場合を説明した。しかし、情報処理装置10Bは、据え置き型のデバイスであってもよい。そして、据え置き型のデバイスが指示方向検出部120を有していてもよい。
図34は、本開示の第2の実施形態に係る情報処理装置10Bの第7の例を示す図である。図35は、本開示の第2の実施形態に係る情報処理装置10Bの第7の例において実空間に存在する実オブジェクトの例を示す図である。図34に示すように、情報処理装置10Bは、ユーザUが存在する部屋内に据え置かれており、指示方向検出部120および出力部160を有している。
図34に示すように、第7の例においても、情報処理装置10Bがテレビジョン装置である場合を主に想定する。図35を参照すると、実空間20−10に実オブジェクト40−10が存在し、現実的な視点位置にステレオカメラ72が存在している。そして、ステレオカメラ72によって実オブジェクト40−10が撮像されて得られる映像が、出力部160によって表示されることによって、ユーザUに視野53−20が提供される。図34を参照すると、視野53−20に写る実オブジェクト60−10の例として、瓦礫が示されている。なお、実オブジェクト60−10は、瓦礫に限定されない。
本例においては、指示方向検出部120が、ユーザUが存在する空間におけるユーザUの視線を検出し、当該空間におけるユーザUの視線に対応する実空間20−10におけるユーザUの視線52をユーザUによる指示方向の例として検出する。そして、データ取得部112が、実空間20−10におけるユーザUの視線52を取得するとともに、ステレオカメラ72から実空間20−10における実オブジェクト40−10の位置を取得する。
本例においては、ロボットアーム73によって実オブジェクト40−10が直接的に回転される。なお、実オブジェクト40−10を回転させるのは、ロボットアーム73に限定されない。例えば、ロボットアーム73の代わりに、移動可能なロボットが実オブジェクト40−10を回転させてもよい。
<3.ハードウェア構成例>
次に、図36を参照して、本開示の実施形態に係る情報処理装置10のハードウェア構成について説明する。図36は、本開示の実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。
図36に示すように、情報処理装置10は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置10は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置10は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置10は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置10内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時的に記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、ユーザの音声を検出するマイクロフォンを含んでもよい。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置10の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりする。また、後述する撮像装置933も、ユーザの手の動き、ユーザの指などを撮像することによって、入力装置として機能し得る。このとき、手の動きや指の向きに応じてポインティング位置が決定されてよい。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro−Luminescence)ディスプレイ、プロジェクタなどの表示装置、ホログラムの表示装置、スピーカおよびヘッドホンなどの音出力装置、ならびにプリンタ装置などであり得る。出力装置917は、情報処理装置10の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音として出力したりする。また、出力装置917は、周囲を明るくするためライトなどを含んでもよい。
ストレージ装置919は、情報処理装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置10に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High−Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置10と外部接続機器929との間で各種のデータが交換され得る。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどであり得る。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、測距センサ、加速度センサ、ジャイロセンサ、地磁気センサ、振動センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置10の筐体の姿勢など、情報処理装置10自体の状態に関する情報や、情報処理装置10の周辺の明るさや騒音など、情報処理装置10の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
<4.むすび>
以上説明したように、本開示の実施形態によれば、3次元空間におけるオブジェクトの位置と3次元空間におけるユーザによる指示方向とに応じた回転中心を決定する回転中心決定部と、回転中心に基づいて、オブジェクトをユーザの視点位置に対して相対的に回転させる回転制御部と、を備える、情報処理装置10が提供される。かかる構成によれば、ユーザの視点位置に対する相対的なオブジェクトの回転をよりユーザが望むように行うことが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記した情報処理装置10の動作が実現されれば、各構成の位置は特に限定されない。具体的な一例として、制御部110が有する各ブロック(出力制御部111、データ取得部112、回転中心決定部113、回転制御部114および移動制御部115)の一部または全部は、サーバなどに存在していてもよい。
例えば、出力制御部111がサーバに存在するとき、出力制御部111による出力制御は、サーバからクライアントへの出力情報の送信を含み得る。例えば、回転制御部114がサーバに存在するとき、回転制御部114による回転制御は、サーバからクライアントへの回転情報の送信を含み得る。さらに、移動制御部115がサーバに存在するとき、移動制御部115による移動制御は、サーバからクライアントへの移動情報の送信を含み得る。このように、情報処理装置10はいわゆるクラウドコンピューティングによって達成され得る。
また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記した制御部110が有する機能と同等の機能を発揮させるためのプログラムも作成可能である。また、該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
3次元空間におけるオブジェクトの位置と前記3次元空間におけるユーザによる指示方向とに応じた回転中心を決定する回転中心決定部と、
前記回転中心に基づいて、前記オブジェクトを前記ユーザの視点位置に対して相対的に回転させる回転制御部と、
を備える、情報処理装置。
(2)
前記回転制御部は、前記回転中心を基準として、前記オブジェクトまたは前記視点位置を回転させる、
前記(1)に記載の情報処理装置。
(3)
前記回転制御部は、前記回転中心を基準として、前記視点位置を回転させ、前記回転中心と前記視点位置との位置関係に基づいて、前記視点位置の回転軌道を制御する、
前記(2)に記載の情報処理装置。
(4)
前記情報処理装置は、
前記回転中心が決定された場合、前記回転中心が前記ユーザの視野の所定位置に合うように前記オブジェクトを前記視野に対して相対的に移動させる移動制御部を備える、
前記(1)〜(3)のいずれか一項に記載の情報処理装置。
(5)
前記回転制御部は、前記オブジェクトに関するパラメータに応じた回転速度に従って、前記オブジェクトを前記ユーザの視点位置に対して相対的に回転させる、
前記(1)〜(4)のいずれか一項に記載の情報処理装置。
(6)
前記パラメータは、前記オブジェクトの形状の複雑さ、前記オブジェクトの大きさ、および、前記視点位置と前記オブジェクトとの距離の少なくともいずれか一つを含む、
前記(5)に記載の情報処理装置。
(7)
前記指示方向は、前記ユーザの視線、モーションセンサによる検出結果、触感型デバイスによる検出結果、所定の物体が指し示す方向、前記ユーザの指が指し示す方向、前記ユーザの顔認識結果、マーカの認識結果および音声認識結果の少なくともいずれか一つを含む、
前記(1)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記回転中心決定部は、前記回転中心が前記視点位置から所定の距離よりも遠くに存在する場合、前記回転中心を前記視点位置に近づける、
前記(1)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記回転中心決定部は、前記ユーザの輻輳角に基づいて前記3次元空間における前記オブジェクトの奥行き情報を算出し、前記奥行き情報と前記指示方向とに基づいて、前記回転中心を決定する、
前記(1)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記情報処理装置は、
前記視点位置に対する前記オブジェクトの相対的な回転可能範囲を示す情報の出力を制御する出力制御部を備える、
前記(1)〜(9)のいずれか一項に記載の情報処理装置。
(11)
前記情報処理装置は、
前記視点位置に対する前記オブジェクトの相対的な回転が回転可能範囲の限界に達した場合、前記相対的な回転が前記回転可能範囲の限界に達したことを示す情報の出力を制御する出力制御部を備える、
前記(1)〜(9)のいずれか一項に記載の情報処理装置。
(12)
前記情報処理装置は、
前記視点位置に現実的または仮想的に存在するカメラによって得られる前記オブジェクトの画像の表示を制御する出力制御部を備える、
前記(1)〜(9)のいずれか一項に記載の情報処理装置。
(13)
前記出力制御部は、前記回転中心の奥行き情報に基づいて、前記カメラのフォーカス位置を制御する、
前記(12)に記載の情報処理装置。
(14)
前記情報処理装置は、
前記指示方向が検出されない場合、前記指示方向が検出されないことを示す情報の出力を制御する出力制御部を備える、
前記(1)〜(9)のいずれか一項に記載の情報処理装置。
(15)
前記3次元空間は、仮想空間であり、
前記オブジェクトは、仮想オブジェクトであり、
前記視点位置は、前記仮想空間に存在する仮想的な視点位置である、
前記(1)〜(14)のいずれか一項に記載の情報処理装置。
(16)
前記回転中心決定部は、前記仮想空間における前記仮想オブジェクトの位置に応じた所定の面と前記仮想空間における前記指示方向との交点を前記回転中心として決定する、
前記(15)に記載の情報処理装置。
(17)
前記3次元空間は、実空間であり、
前記オブジェクトは、実オブジェクトであり、
前記視点位置は、前記実空間に存在する現実的な視点位置である、
前記(1)〜(14)のいずれか一項に記載の情報処理装置。
(18)
前記回転中心決定部は、前記実空間における前記実オブジェクトの奥行き情報に応じた所定の面と前記実空間における前記指示方向との交点を前記回転中心として決定する、
前記(17)に記載の情報処理装置。
(19)
3次元空間におけるオブジェクトの位置と前記3次元空間におけるユーザによる指示方向とに応じた回転中心を決定することと、
プロセッサにより、前記回転中心に基づいて、前記オブジェクトを前記ユーザの視点位置に対して相対的に回転させることと、
を含む、情報処理方法。
(20)
コンピュータを、
3次元空間におけるオブジェクトの位置と前記3次元空間におけるユーザによる指示方向とに応じた回転中心を決定する回転中心決定部と、
前記回転中心に基づいて、前記オブジェクトを前記ユーザの視点位置に対して相対的に回転させる回転制御部と、
を備える情報処理装置として機能させるためのプログラム。
10(10A,10B) 情報処理装置
20 空間(実空間,仮想空間)
40 オブジェクト(実オブジェクト,仮想オブジェクト)
42 回転中心
51 視点カメラ
52 視線
53 視野
54 エンベロープ面
55 軌道
56 非検出情報
57 回転可能範囲
58 マーク
59 限界到達情報
60 オブジェクト(実オブジェクト,仮想オブジェクト)
61 観測希望領域
62 回転中心
71 設置カメラ
72 ステレオカメラ
73 ロボットアーム
74 手術台
110 制御部
111 出力制御部
112 データ取得部
113 回転中心決定部
114 回転制御部
115 移動制御部
120 指示方向検出部
130 操作検出部
140 情報検出部
150(150A,150B)記憶部
151 3Dモデル情報
160 出力部

Claims (18)

  1. 3次元空間におけるオブジェクトの位置と前記3次元空間におけるユーザによる指示方向とに応じた回転中心を決定する回転中心決定部と、
    前記回転中心に基づいて、前記オブジェクトを前記ユーザの視点位置に対して相対的に回転させる回転制御部と、
    前記視点位置に現実的または仮想的に存在するカメラによって得られる前記オブジェクトの画像の表示を制御する出力制御部と、
    を備える、情報処理装置であって、
    前記指示方向は、前記出力制御部によって出力された複数の画像をそれぞれ視聴する複数のユーザのうち一の画像を視聴するユーザから検出される、当該ユーザの視線、モーションセンサによる検出結果、触感型デバイスによる検出結果、指が指し示す方向、顔認識結果、および音声認識結果の少なくともいずれか一つを含む、
    情報処理装置。
  2. 前記回転制御部は、前記回転中心を基準として、前記オブジェクトまたは前記視点位置を回転させる、
    請求項1に記載の情報処理装置。
  3. 前記回転制御部は、前記回転中心を基準として、前記視点位置を回転させ、前記回転中心と前記視点位置との位置関係に基づいて、前記視点位置の回転軌道を制御する、
    請求項2に記載の情報処理装置。
  4. 前記情報処理装置は、
    前記回転中心が決定された場合、前記回転中心が前記複数の画像のうち一の画像を視聴するユーザの視野の所定位置に合うように前記オブジェクトを前記視野に対して相対的に移動させる移動制御部を備える、
    請求項1〜3のいずれか一項に記載の情報処理装置。
  5. 前記回転制御部は、前記オブジェクトに関するパラメータに応じた回転速度に従って、前記オブジェクトを前記複数の画像のうち一の画像を視聴するユーザの視点位置に対して相対的に回転させる、
    請求項1〜4のいずれか一項に記載の情報処理装置。
  6. 前記パラメータは、前記オブジェクトの形状の複雑さ、前記オブジェクトの大きさ、および、前記視点位置と前記オブジェクトとの距離の少なくともいずれか一つを含む、
    請求項5に記載の情報処理装置。
  7. 前記回転中心決定部は、前記回転中心が前記視点位置から所定の距離よりも遠くに存在する場合、前記回転中心を前記視点位置に近づける、
    請求項1〜のいずれか一項に記載の情報処理装置。
  8. 前記回転中心決定部は、前記複数の画像のうち一の画像を視聴するユーザの輻輳角に基づいて前記3次元空間における前記オブジェクトの奥行き情報を算出し、前記奥行き情報と前記指示方向とに基づいて、前記回転中心を決定する、
    請求項1〜のいずれか一項に記載の情報処理装置。
  9. 前記出力制御部は、
    前記視点位置に対する前記オブジェクトの相対的な回転可能範囲を示す情報の出力を制御する
    請求項1〜のいずれか一項に記載の情報処理装置。
  10. 前記出力制御部は、
    前記視点位置に対する前記オブジェクトの相対的な回転が回転可能範囲の限界に達した場合、前記相対的な回転が前記回転可能範囲の限界に達したことを示す情報の出力を制御する
    請求項1〜9のいずれか一項に記載の情報処理装置。
  11. 前記出力制御部は、前記回転中心の奥行き情報に基づいて、前記カメラのフォーカス位置を制御する、
    請求項1〜10のいずれか一項に記載の情報処理装置。
  12. 前記出力制御部は、
    前記指示方向が検出されない場合、前記指示方向が検出されないことを示す情報の出力を制御する、
    請求項1〜11のいずれか一項に記載の情報処理装置。
  13. 前記3次元空間は、仮想空間であり、
    前記オブジェクトは、仮想オブジェクトであり、
    前記視点位置は、前記仮想空間に存在する仮想的な視点位置である、
    請求項1〜12のいずれか一項に記載の情報処理装置。
  14. 前記回転中心決定部は、前記仮想空間における前記仮想オブジェクトの位置に応じた所定の面と前記仮想空間における前記指示方向との交点を前記回転中心として決定する、
    請求項13に記載の情報処理装置。
  15. 前記3次元空間は、実空間であり、
    前記オブジェクトは、実オブジェクトであり、
    前記視点位置は、前記実空間に存在する現実的な視点位置である、
    請求項1〜12のいずれか一項に記載の情報処理装置。
  16. 前記回転中心決定部は、前記実空間における前記実オブジェクトの奥行き情報に応じた所定の面と前記実空間における前記指示方向との交点を前記回転中心として決定する、
    請求項15に記載の情報処理装置。
  17. プロセッサにより、
    3次元空間におけるオブジェクトの位置と前記3次元空間におけるユーザによる指示方向とに応じた回転中心を決定することと
    記回転中心に基づいて、前記オブジェクトを前記ユーザの視点位置に対して相対的に回転させることと、
    前記視点位置に現実的または仮想的に存在するカメラによって得られる前記オブジェクトの画像の表示を制御することと、を含み、
    前記指示方向は、前記制御によって出力された複数の画像をそれぞれ視聴する複数のユーザのうち一の画像を視聴するユーザから検出される、当該ユーザの視線、モーションセンサによる検出結果、触感型デバイスによる検出結果、指が指し示す方向、顔認識結果、および音声認識結果の少なくともいずれか一つを含む、
    情報処理方法。
  18. コンピュータを、
    3次元空間におけるオブジェクトの位置と前記3次元空間におけるユーザによる指示方向とに応じた回転中心を決定する回転中心決定部と、
    前記回転中心に基づいて、前記オブジェクトを前記ユーザの視点位置に対して相対的に回転させる回転制御部と、
    前記視点位置に現実的または仮想的に存在するカメラによって得られる前記オブジェクトの画像の表示を制御する出力制御部と、
    を備える情報処理装置として機能させるためのプログラムであって、
    前記指示方向は、前記出力制御部によって出力された複数の画像をそれぞれ視聴する複数のユーザのうち一の画像を視聴するユーザから検出される、当該ユーザの視線、モーションセンサによる検出結果、触感型デバイスによる検出結果、指が指し示す方向、顔認識結果、および音声認識結果の少なくともいずれか一つを含む、
    プログラム。
JP2018539525A 2016-09-14 2017-06-14 情報処理装置、情報処理方法およびプログラム Active JP6939801B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016179211 2016-09-14
JP2016179211 2016-09-14
PCT/JP2017/021920 WO2018051592A1 (ja) 2016-09-14 2017-06-14 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2018051592A1 JPWO2018051592A1 (ja) 2019-06-24
JP6939801B2 true JP6939801B2 (ja) 2021-09-22

Family

ID=61619882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018539525A Active JP6939801B2 (ja) 2016-09-14 2017-06-14 情報処理装置、情報処理方法およびプログラム

Country Status (5)

Country Link
US (1) US11151804B2 (ja)
EP (1) EP3514763A4 (ja)
JP (1) JP6939801B2 (ja)
CN (1) CN109716396A (ja)
WO (1) WO2018051592A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2019294617A1 (en) 2018-06-27 2021-02-18 SentiAR, Inc. Gaze based interface for augmented reality environment
JP2021184116A (ja) * 2018-09-07 2021-12-02 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
US10997630B2 (en) * 2018-12-20 2021-05-04 Rovi Guides, Inc. Systems and methods for inserting contextual advertisements into a virtual environment
CN110045827B (zh) 2019-04-11 2021-08-17 腾讯科技(深圳)有限公司 虚拟环境中虚拟物品的观察方法、装置及可读存储介质
US11491658B2 (en) * 2019-07-23 2022-11-08 Toyota Research Institute, Inc. Methods and systems for automatically annotating items by robots

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07175944A (ja) * 1993-12-17 1995-07-14 Mutoh Ind Ltd 3次元モデルの配置方法
JPH08249500A (ja) * 1995-03-13 1996-09-27 Hitachi Ltd 3次元図形の表示方法
JP2000020754A (ja) * 1998-07-07 2000-01-21 Nec Corp モデル表示装置
US20070206030A1 (en) 2006-03-06 2007-09-06 The Protomold Company, Inc. Graphical user interface for three-dimensional manipulation of a part
JP5120108B2 (ja) * 2008-06-27 2013-01-16 株式会社ニコン デジタルフォトフレーム
CN101383051B (zh) * 2008-09-27 2011-03-23 四川虹微技术有限公司 一种基于图像重投影的视图合成方法
JP2011227759A (ja) * 2010-04-21 2011-11-10 Nikon Corp 画像表示装置およびプログラム
US8907957B2 (en) * 2011-08-30 2014-12-09 Apple Inc. Automatic animation generation
US20130100117A1 (en) * 2011-10-21 2013-04-25 Digital Artforms, Inc. Systems and methods for human-computer interaction using a two handed interface
JP5920911B2 (ja) * 2011-11-10 2016-05-18 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN103247072B (zh) * 2013-04-15 2016-08-03 青岛海信宽带多媒体技术有限公司 基于安卓系统实现三维旋转界面的方法及装置
US9384595B2 (en) * 2013-05-15 2016-07-05 Google Inc. Computing devices and methods for navigating around a surface of three-dimensional (3D) coordinate system representations of 3D objects
JP5886242B2 (ja) * 2013-06-10 2016-03-16 ヤフー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP6173095B2 (ja) 2013-07-29 2017-08-02 北勢工業株式会社 スライド式の矩形状マンホール
JP6048898B2 (ja) * 2013-08-21 2016-12-21 パナソニックIpマネジメント株式会社 情報表示装置、情報表示方法および情報表示プログラム
JP2016115965A (ja) * 2014-12-11 2016-06-23 ソニー株式会社 医療用眼鏡型表示装、情報処理装置及び情報処理方法

Also Published As

Publication number Publication date
CN109716396A (zh) 2019-05-03
US11151804B2 (en) 2021-10-19
EP3514763A4 (en) 2019-12-04
WO2018051592A1 (ja) 2018-03-22
JPWO2018051592A1 (ja) 2019-06-24
US20190172271A1 (en) 2019-06-06
EP3514763A1 (en) 2019-07-24

Similar Documents

Publication Publication Date Title
JP6939801B2 (ja) 情報処理装置、情報処理方法およびプログラム
TWI722280B (zh) 用於多個自由度之控制器追蹤
JP7095602B2 (ja) 情報処理装置、情報処理方法及び記録媒体
JP2022000640A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
EP3000020B1 (en) Hologram anchoring and dynamic positioning
EP3528024B1 (en) Information processing device, information processing method, and program
JP2013258614A (ja) 画像生成装置および画像生成方法
CN111373347B (zh) 用于虚拟现实内容的提供的装置、方法和计算机程序
WO2017030193A1 (ja) 情報処理装置、情報処理方法、及びプログラム
EP3355278A1 (en) Information processing device, information processing method, and program
JP2023126474A (ja) 拡張現実のためのシステムおよび方法
WO2020179027A1 (ja) ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム
WO2018146922A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6219037B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
CN113677412B (zh) 信息处理装置、信息处理方法和程序
JP6534972B2 (ja) 映像表示装置、映像表示方法及び映像表示プログラム
WO2019054037A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US11972037B2 (en) Head mounted information processing apparatus and head mounted display system
WO2023179369A1 (zh) 控制装置的定位方法、装置、设备、存储介质及计算机程序产品
JP7452533B2 (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200608

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210816

R151 Written notification of patent or utility model registration

Ref document number: 6939801

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151