JP7480388B2 - ヘッドマウント情報処理装置 - Google Patents

ヘッドマウント情報処理装置 Download PDF

Info

Publication number
JP7480388B2
JP7480388B2 JP2023069361A JP2023069361A JP7480388B2 JP 7480388 B2 JP7480388 B2 JP 7480388B2 JP 2023069361 A JP2023069361 A JP 2023069361A JP 2023069361 A JP2023069361 A JP 2023069361A JP 7480388 B2 JP7480388 B2 JP 7480388B2
Authority
JP
Japan
Prior art keywords
virtual object
display
unit
head
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023069361A
Other languages
English (en)
Other versions
JP2023099046A (ja
Inventor
尚久 高見澤
康宣 橋本
義憲 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Priority to JP2023069361A priority Critical patent/JP7480388B2/ja
Publication of JP2023099046A publication Critical patent/JP2023099046A/ja
Application granted granted Critical
Publication of JP7480388B2 publication Critical patent/JP7480388B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステムに関し、特に、仮想オブジェクトにおける位置の把握に有効な技術に関する。
近年、仮想現実(Virtual Reality:VR)技術や拡張現実(Augmented Reality:AR)技術などが、ゲームや各種シミュレーションに利用されている。仮想現実は、現実に似せた仮想世界を作り出し、あたかもそこにいるような感覚を体験する技術である。拡張現実は、現実世界にデジタル情報を付与してCG(Computer Graphics)などで作った仮想空間(仮想オブジェクト)を現実世界に反映し拡張していく技術である。
これらの技術を具現化するツールとしては、表示部やカメラ部などを頭部に装着するヘッドマウント情報処理装置が広く用いられている。この種のヘッドマウント情報処理装置は、構造上表示範囲に制約があり、視野範囲が狭いという問題があった。
この問題を解決する技術としては、例えば仮想空間内における視野を適切に拡大させた広視野画像を生成することにより、視野が広くなり、視野外となっていた仮想オブジェクトなども適切に表示するものがある(例えば特許文献1参照)。
特開2009-244936号公報
特許文献1の技術では、前述したように仮想空間における視野を拡大させて広範囲にある仮想オブジェクトを表示することが記載されている。しかしながら、拡張現実(AR)空間で現実の物体、または現実世界を現わす実写物体や仮想現実(VR)空間の他の仮想物体の裏側に仮想オブジェクトが配置されている場合には、幾ら視野を広げても仮想オブジェクトの存在自体を視認できないという問題がある。
本発明の目的は、仮想現実あるいは拡張現実により表示される仮想オブジェクトの存在位置などを容易に把握することができる技術を提供することにある。
本発明の前記ならびにその他の目的と新規な特徴については、本明細書の記述および添付図面から明らかになるであろう。
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、次のとおりである。
すなわち、代表的なヘッドマウント情報処理装置は、仮想オブジェクト生成処理部、入力操作部、カメラ部、表示部、および制御部を有する。前記仮想オブジェクト生成処理部は、前記仮想オブジェクトを生成する。入力操作部は、情報を設定および入力する。
カメラ部は、現実空間を撮像する。表示部は、カメラ部が撮像する実写画像および仮想オブジェクト生成処理部が生成する仮想オブジェクトを表示する。制御部は、仮想オブジェクト生成処理部および表示部を制御する。
制御部は、前記入力操作部からの入力に基づいて前記仮想オブジェクト生成処理部が生成した視野範囲外に配置された仮想オブジェクトを前記表示部に一覧表示させる。
本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。
仮想オブジェクトの配置場所などを的確に視認することができるので、利便性を向上させることができる。
実施の形態1によるヘッドマウント情報処理装置における構成の一例を示すブロック図である。 図1のヘッドマウント情報処理装置が有する表示部によるユーザ視界の一例を示す説明図である。 図1のヘッドマウント情報処理装置における使用状況の周囲全景例を模式的に示した説明図である。 図3に示した全景例における実風景の一例を示す説明図である。 図1のヘッドマウント情報処理装置による表示画面の一例を示す説明図である。 図5の点線部分を表示しない場合の表示例を示した説明図である。 図1のヘッドマウント情報処理装置による実写物体の背景画像の表示例を示す説明図である。 図1のヘッドマウント情報処理装置による表示画面の他例を示す説明図である。 図1のヘッドマウント情報処理装置における仮想オブジェクトの姿勢操作による表示画面の一例を示す説明図である。 図9に続く姿勢操作後の仮想オブジェクトの表示の一例を示す説明図である。 図9に続く姿勢操作後の仮想オブジェクトの表示の他の例を示す説明図である。 図1のヘッドマウント情報処理装置による姿勢操作後の仮想オブジェクトを全天球表示画面の枠外に表示する例を示す説明図である。 図1のヘッドマウント情報処理装置による姿勢操作後の仮想オブジェクトを全天球表示画面内に重ねて表示する例を示す説明図である。 図1のヘッドマウント情報処理装置による仮想の小型物体の配置例を模式的に示した説明図である。 図14に示した配置例による表示視野画面の一例を示す説明図である。 図1のヘッドマウント情報処理装置による小型物体の表示の一例を示す説明図である。 図1のヘッドマウント情報処理装置による表示部における表示視野画面の一例を示す説明図である。 図1のヘッドマウント情報処理装置による表示部における表示視野画面の他の例を示す説明図である。 図1のヘッドマウント情報処理装置による全天球画像を背景として表示した際の表示画面の一例を示す説明図である。 実施の形態2によるヘッドマウントディスプレイシステムにおける構成の一例を示すブロック図である。
実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。
(実施の形態1)
以下、実施の形態を詳細に説明する。
〈ヘッドマウント情報処理装置の構成例〉
図1は、本実施の形態1によるヘッドマウント情報処理装置100における構成の一例を示すブロック図である。
ヘッドマウント情報処理装置100は、図1に示すように、カメラ部111、右目視線検出部112、左目視線検出部113、加速度センサ部114、ジャイロセンサ部115、地磁気センサ部116、振動発生部117、外周音マイク118、発声音マイク119、ヘッドフォン120、入力操作部121、仮想オブジェクト生成処理部122、仮想オブジェクト姿勢操作処理部123、仮想オブジェクト変形操作処理部124、制御部125、メモリ部128、表示部130、深度センサ部131、刺激発生部132などから構成されている。これら各機能ブロックは、バス140を介して相互に接続されている。
カメラ部111は、ヘッドマウント情報処理装置100に設置されており、ユーザ周辺の風景などを撮影する。カメラ部111は複数のカメラであってもよいし、あるいは1台または複数のカメラを組み合わせることによって全天球の画像を撮影できる360度全天球カメラであってもよい。
仮想オブジェクト生成処理部122は、現実空間とは異なる仮想空間の物体である仮想オブジェクトを生成する。例えば、仮想オブジェクト生成処理部122は、メモリ部128に記憶された仮想オブジェクトの雛形データを仮想オブジェクト生成処理部122が読み込み、入力操作部121を用いたユーザ操作に従い、仮想オブジェクトデータを生成し、表示部130に表示すると共に、メモリ部128に記憶する。
仮想オブジェクトの雛形データは必ずしも必要ではなく、ユーザ操作により雛形なしで直接仮想オブジェクトデータを生成してもよい。例えば、入力操作部121を用いたユーザ操作により、実空間上に仮想オブジェクトの各頂点となる8点を指定することで、直方体の仮想オブジェクトを生成することが可能である。
ここでは、後述する図4に示す現実空間の風景に重ねて仮想オブジェクトを表示する通常表示に加えて、全ての仮想オブジェクトを視野内で一覧できる一覧表示モードを設ける。
さらに、この一覧表示モードは、オリジナルモードと加工モードとに分けられる。オリジナルモードは、後述する図19に示すように、仮想オブジェクトが通常表示で視認できる態様であり、仮想オブジェクトを一覧視野内に収めて表示するモードである。一方、加工モードは、通常表示で視認できる表示態様を離れて、一覧表示において仮想オブジェクトが見やすくなるように表示態様を調整したものである。
仮想オブジェクト姿勢操作処理部123は、一覧表示時に仮想オブジェクトの姿勢情報を変更し、仮想オブジェクトが一覧表示(加工モード)において視認しやすい姿勢になるように操作する。仮想オブジェクト変形操作処理部124は、一覧表示(加工モード)時に加えて元の仮想オブジェクトの表示(通常表示)にも姿勢の変更が反映されるように姿勢情報を変更する。
仮想オブジェクト姿勢操作処理部123は、表示部130に表示された仮想オブジェクトを回転させたり拡大や縮小させたりして、視認しやすい形状の姿勢になるように仮想オブジェクトの姿勢を操作する。仮想オブジェクト姿勢操作処理部123による姿勢操作結果は、一覧表示(加工モード)時のみ有効であり、元のオブジェクトの姿勢、形状、および向きなどには影響を与えない。
仮想オブジェクト変形操作処理部124は、表示部130に表示された仮想オブジェクトに対して変形操作を行う。この変形操作は、例えば仮想オブジェクトの向きを変える、大きさを変える、形状を変える、一部分を削除する、あるいは全部を削除する、などである。
変形操作の結果は、一覧表示(加工モード)の表示に反映されると共に、元の仮想オブジェクトの姿勢、形状、向きなどにも反映される。
制御部125は、例えばCPU(Central Processing Unit)などからなる。制御部125は、OS(Operating System)や動作制御用アプリケーションなどのプログラム126を実行することによって、各機能ブロックを制御し、ヘッドマウント情報処理装置100全体の動作を制御する。
制御部125では、入力操作部121にて入力された仮想オブジェクト表示を指示する仮想オブジェクト表示指示情報に応じて、仮想オブジェクト生成処理部122にて生成される各仮想オブジェクトを表示部130の表示視野内に収めて配置して表示する制御を行う。
この制御例としては、ヘッドマウント情報処理装置100の全周囲風景を示す全天球画像を表示部130の表示視野画面上に投影して反映し、仮想オブジェクトが実際に存在している全天球画像上の位置に仮想オブジェクトを配置して表示する。
また、他の制御例としては、表示視野画面内に小型物体、例えば透明な小型の球形などを配置して表示し、小型物体上には仮想オブジェクトのミニチュア(小型模型)を配置して表示する。ミニチュアの配置位置としては、仮想オブジェクトが実際に存在する位置を小型物体上に反映させた位置にすればよい。
また、制御部125は、表示視野内に配置された視認しにくい仮想オブジェクトに対しては、仮想オブジェクト姿勢操作処理部123にて仮想オブジェクトの全体形状が視認しやすいように姿勢を操作された状態で仮想オブジェクトを表示させるように制御する。制御部125は、バス140にて接続されている各センサ、検出部などの機能ブロックからの入力情報も使用して表示映像を生成する。
メモリ部128は、フラッシュメモリなどに例示される不揮発性半導体メモリからなり、前述した各種のプログラム126、および仮想オブジェクトや実写画像などの情報データ127などを記憶する。
表示部130は、例えば液晶パネルなどにより構成されている。表示部130は、現実空間の実写画像や仮想オブジェクトを表示する。また、ユーザへの呈示通知情報や動作状態などの表示内容を画面表示する。
例えば、カメラ部111にて撮影された実写画像の表示や、仮想オブジェクト表示に際しては、ヘッドマウント情報処理装置100の全周囲風景を示す全天球画像上で仮想オブジェクトが存在している位置に仮想オブジェクトを配置して表示する。あるいは仮想オブジェクトのミニチュアが配置されている小型物体を表示する。
表示部130は、半透過型の表示デバイスであってもよく、その場合、透過して見える現実空間に重畳して、仮想オブジェクトなどを表示してもよい。
ここでは、表示部130が半透過型である場合の説明を行うが、表示部130が半透過型でない場合には、カメラ部111により撮影された現実空間の映像に重畳して仮想オブジェクトなどを表示してもよい。
〈ユーザの視界例〉
図2は、図1のヘッドマウント情報処理装置100が有する表示部130によるユーザ視界の一例を示す説明図である。
この図2は、前述したように表示部130が半透過型とした例を示したものであり、表示部130には、制御部125がメモリ部128に記録されている仮想オブジェクトデータを読み出して仮想オブジェクトのみが表示されている。それ以外の部分には、表示されているものがなく、表示部130の先の現実空間の風景1801が透過して見える。
表示部130を通して現実空間の風景1801を見ることで、ユーザには、図2の上方に示す風景1803のように、現実空間の風景上に仮想オブジェクトが存在しているように見える。
図2において、右目視線検出部112および左目視線検出部113は、それぞれ右目、左目の視線を検出する。なお、視線を検出する処理は、アイトラッキング処理として一般的に用いられている周知技術を利用すればよい。
例えば、角膜反射を利用した方法では、赤外線LED(Light Emitting Diode)をユーザの顔に照射して赤外線カメラなどによって撮影し、赤外線LEDの照射でできた反射光の角膜上の位置、すなわち角膜反射を基準点とし、該角膜反射の位置に対する瞳孔の位置に基づいて、視線を検出する技術が知られている。
加速度センサ部114は、単位時間当たりの速度の変化である加速度を検出するセンサであり、動き、振動、および衝撃などを捉えることができる。ジャイロセンサ部115は、回転方向の角速度を検出するセンサであり、縦、横、および斜めの姿勢の状態を捉えることができる。
これら加速度センサ部114およびジャイロセンサ部115を用いることによって、ヘッドマウント情報処理装置100を装備しているユーザの頭部の動きを検出することができる。
地磁気センサ部116は、地球の磁力を検出するセンサであり、ヘッドマウント情報処理装置100の向いている方向を検出する。地磁気センサ部116は、例えば前後方向と左右方向とに加え上下方向の地磁気も検出する3軸タイプを用いることによって、頭部の動きに対する地磁気変化を捉まえることができる。これにより、頭部の動きを検出することも可能である。
これら加速度センサ部114、ジャイロセンサ部115、および地磁気センサ部116により、ユーザが装着しているヘッドマウント情報処理装置100の動きや変動を詳しく検出することができる。
振動発生部117は、制御部125の制御によって振動を発生させるものであり、ヘッドマウント情報処理装置100にて発信されたユーザへの通知情報を振動に変換する。振動発生部117は、例えば密接装着されているユーザの頭部などに振動を発生させることにより、ユーザへの通知を確実に伝えることができる。
外周音マイク118および発声音マイク119は、外部からの音声やユーザ自身の発声を集音する。ヘッドフォン120は、ユーザの耳部に装着され、ユーザへの音声を聞き取るものであり、ユーザへの通知情報を音声で知らしめることができる。
なお、発声音マイク119は、骨伝導マイクなどの音声入力デバイスであってもよい。ヘッドフォン120は、スピーカあるいは骨伝導イヤホンなどの音声出力デバイスであってもよい。
深度センサ部131は、物体までの距離を面で測定する。深度センサ部131には、例えば、赤外線やレーザなどの反射を利用したものがあるが、取り付け位置の異なる複数のカメラにて撮影した画像の視差から距離情報を得るなど、他の方式で実現してもよい。
深度センサ部131で取得した距離情報を制御部125が解析することにより、手の動き、および身体の動きなどを検出することが可能である。手の動き、および身体の動きなどの解析には、カメラ部111で撮影された画像から得られる情報を合わせて使用してもよい。
刺激発生部132は、制御部125からの制御によって皮膚で知覚できる刺激を発生させるものであり、ヘッドマウント情報処理装置100から発信されたユーザへの通知情報を皮膚で知覚できる刺激に変換する。
皮膚で知覚できる刺激には、圧力、温感、冷感、あるいは電気刺激などがある。刺激発生部132は、密接装着されているユーザ頭部の皮膚で知覚できる刺激を発生させることにより、ユーザーへの通知を確実に伝えることができる。
入力操作部121は、例えばキーボードやキーボタン、またはタッチパッドなどからなり、ユーザが入力したい情報を設定入力する。入力操作部121は、ヘッドマウント情報ユーザが入力操作を行いやすい位置に設ければよい。あるいはヘッドマウント情報処理装置100の本体から分離して、有線や無線にて接続された形態であってもよい。
ヘッドマウントディスプレイから分離した入力操作装置の例としては、ジャイロセンサや加速度センサなどを用いた3次元空間位置入力装置である空間マウス、身体を映したカメラ映像から身体に装着したコントローラ自身の空間位置を検出して入力に用いるコントローラなどがある。
また、表示部130の表示画面内に入力操作画面を表示させ、右目視線検出部112および左目視線検出部113により検出した視線が向いている入力操作画面上の位置により入力操作情報を取り込んでもよい。あるいは、ポインタを入力操作画面上に表示させて入力操作部121によりポインタを操作して入力操作情報を取り込んでもよい。
カメラ部111を含む各センサ、すなわち加速度センサ部114、ジャイロセンサ部115、地磁気センサ部116、および深度センサ部131にて検出したユーザの頭部の動きに合わせてポインタを移動し、入力操作情報を取り込んでもよい。
さらに、ユーザが入力操作を示す音声を発声し、発声音マイク119で集音して入力操作情報を取り込んでもよい。ユーザの手の動き、身体の動きをカメラ部111の撮影画像、深度センサなどで取り込んで制御部125にて解析し、ゼスチャ入力として入力操作情報を取り込んでもよい。
入力操作に発声や表示、身体の動きを用いることにより、頭部に装着されているヘッドマウント情報処理装置100の使い勝手を一層向上させることが可能である。
以上の構成により、入力操作部などにて入力された仮想オブジェクト表示を指示する仮想オブジェクト表示要求指示に応じて、全ての仮想オブジェクトを表示部130の表示視野内に収めて配置して一覧表示することが可能となる。その結果、全ての仮想オブジェクトの存在を容易に視認することができる。
さらには、形状、配置状態などが不明瞭な仮想オブジェクトに対しては、その仮想オブジェクトを回転したり拡大や縮小したりして仮想オブジェクトの姿勢を操作することにより、仮想オブジェクトの形状および全容を的確に視認でき、使い勝手よく仮想オブジェクトを特定できるという効果が得られる。
〈ヘッドマウント情報処理装置の動作例〉
次に、図1のヘッドマウント情報処理装置100の動作について説明する。
図3は、図1のヘッドマウント情報処理装置100における使用状況の周囲全景例を模式的に示した説明図である。
図3において、ヘッドマウント情報処理装置100を装着しているユーザ200の前方正面には、机201およびパソコン202が置かれている。また、ユーザ200の右側には、収納ボックス203が置かれており、ユーザ200の後方背面には、本棚204が置かれている。
仮想オブジェクト生成処理部122にて生成された仮想オブジェクトとしては、正面後方に仮想オブジェクト211、机201の裏側に仮想オブジェクト212、机201の右側後方に仮想オブジェクト213、収納ボックス203の後方に仮想オブジェクト214、机201の左側後方に仮想オブジェクト215、および本棚204の右側後方に仮想オブジェクト216がそれぞれ配置されている。
図4は、図3に示した全景例における実風景の一例を示す説明図である。
図4(a)は、ヘッドマウント情報処理装置100を使用するユーザから前方正面を見たときの実写風景、すなわち図3に示した周囲全景状態において、ヘッドマウント情報処理装置100を装着したユーザの視界を示したものである。
ユーザの現在の視野内の座標位置に配置された仮想オブジェクト211,213は、表示されるが、視野外の座標位置に配置された仮想オブジェクト214、216は、表示されない。
部分的に視野内の座標位置に配置された仮想オブジェクト215は、一部分のみしか表示されず、また、机201の裏側にある仮想オブジェクト212は、表示されない。
図4(b)は、ヘッドマウント情報処理装置100を使用するユーザから後方背面を見たときの実写風景、すなわち図3の周囲全景状態において、ヘッドマウント情報処理装置100を装着したユーザが後方背面を向いた状態の視界を示したものである。
図4(b)に示すようにヘッドマウント情報処理装置100を装着したユーザが後方背面を向いた状態においては、視野内の座標位置に配置された仮想オブジェクト216が表示されるが、仮想オブジェクト216以外は視野外の座標位置に配置されるため表示されない。
このように、ヘッドマウント情報処理装置100を装着したユーザの頭の向きの視野外の座標位置に配置された仮想オブジェクトについては、表示されない。
図5は、図1のヘッドマウント情報処理装置100による表示画面の一例を示す説明図である。図5は、ヘッドマウント情報処理装置100による仮想オブジェクトを表示視野画面内に収めて配置させて仮想オブジェクトを一覧表示させた表示画面の一例を示したものである。
図5の点線で示した部分は、実写物体を背景として表示した場合の例で、仮想オブジェクトとの位置関係を分かりやすく示すためのものであり、表示は行わなくてもよい。なお、以下、図8~図11についても、図5と同様に点線にて示した部分の表示は行わなくてもよい。
この場合、ヘッドマウント情報処理装置100は、図5に示すように、ヘッドマウント情報処理装置100の全周囲風景を示す全天球画像を表示部130の表示視野画面上に投影して反映し、投影反映された全天球画像上で仮想オブジェクトが存在している位置に仮想オブジェクトを配置して、仮想オブジェクトを一覧表示する。
これにより、例えば仮想オブジェクト212などのように、現実の物体である机201の裏側に配置される仮想オブジェクトについても存在を視認することが可能となる。その結果、周囲全景に存在する全ての仮想オブジェクトの存在を、存在位置とともに視認することができる。
図6は、図5の点線部分を表示しない場合の表示例を示した説明図である。図7は、図1のヘッドマウント情報処理装置100による実写物体の背景画像の表示例を示す説明図である。
図5では、仮想オブジェクトとの位置関係を分かりやすく示すため実写物体の背景画像を点線で示しているが、実際の表示では、図6に示すように点線が表示されない。
あるいは、制御部125は、全周囲全景に存在する全ての仮想オブジェクトを表示させる際に、図7に示すように、図5の点線で示した机201、パソコン202、収納ボックス203、および本棚204などの実写物体を背景画像として表示させるようにしてもよい。
これにより、現実空間と仮想オブジェクトとの位置関係を認識しやすくすることができる。例えば、図5に示すように背面の本棚204の右側上部に仮想オブジェクト216がある場合、背景画像としての本棚の右上部位置に仮想オブジェクトが表示されていれば、仮想オブジェクト位置を認識しやすくなる。
なお、ヘッドマウント情報処理装置100の全周囲風景を示す全天球画像は、一度に全天球の画像を撮影できる360度全天球カメラを使用して取得してもよいし、あるいは通常画角カメラの画像をつなぎ合わせて取得してもよい。
また、取得できた一部の範囲だけの画像を用いてもよく、例えば、180度全天周画像など、全天球でなく一部の範囲の画像でほぼ全ての仮想オブジェクトの存在を視認可能な場合などでは、同様な作用、効果が得られることは明白である。
図8は、図1のヘッドマウント情報処理装置100による表示画面の他例を示す説明図である。図8に示す例では、図5の一覧表示の仮想オブジェクトの中から選択した仮想オブジェクトを手前の予め定めた位置に表示させた場合の表示画面を示している。
この場合、ユーザは、図5に示した一覧表示された仮想オブジェクトの中から、例えば仮想オブジェクト211を選択する。そして、ユーザが表示部130の表示視野内の背景部分に仮想オブジェクトの一覧表示を残したまま、選択した仮想オブジェクトを予め定めた位置に拡大して配置する操作を行うことによって、図8の仮想オブジェクト501のように表示させる。
予め定めた位置に拡大しながら配置する操作は、オブジェクトを選択することにより自動で配置まで行ってもよいし、選んだオブジェクトを引き寄せるような自然な操作により手動で配置をするようにしてもよい。また、オブジェクトは、配置する際に合わせて拡大率を決定する操作を行い、拡大率を変更してもよい。
以上の動作は、制御部125が主体となり実行する。制御部125は、入力操作部121から入力されたユーザ操作に従い、メモリ部128に記憶されているオブジェクトの形状および表示位置などの情報データ127を読み出し、選択したオブジェクトの形状、表示位置の情報を変更したものを表示部130に表示する。
これにより、一覧表示では見にくかった仮想オブジェクトをよりはっきりと視認することができる。予め定めた位置は、メモリ部128に予め記憶されている初期値を用いるようにしてもよい。初期値は、例えば視認しやすい位置などとする。
あるいは、制御部125は、ユーザが入力操作部121から入力した設定情報をメモリ部128に書き込むことにより、その都度設定した設定情報を用いるようにしてもよい。この場合、設定情報としては、例えば、身体の正面の手の稼動範囲部分などとすると、仮想オブジェクトを視認しやすく、姿勢操作や変形操作などを行いやすい。
選択した仮想オブジェクトを視認確認した後、選択仮想オブジェクトは、表示部130の表示視野内の背景部分の配置操作前の元の位置に戻される。この動作は、制御部125により視認確認終了操作後に自動で行われる。
引き続き、別の仮想オブジェクトを選択して、予め定めた位置に持ってきて配置する操作を行う場合、前に選択された仮想オブジェクトは元の位置に戻り、元々の仮想オブジェクトの一覧表示画像が背景として残っている。よって、次の仮想オブジェクトの配置操作、視認確認を容易に行うことができる。
一方、1つの仮想オブジェクトを選択して配置操作を行い、その後別の仮想オブジェクトの配置操作を行わない場合は、配置操作による視認確認終了後、仮想オブジェクトを元の位置に戻す際に仮想オブジェクトの一覧表示画像を消して、仮想オブジェクトを本来存在している位置に重畳表示した表示視野画面に戻してもよい。
また、仮想オブジェクトを予め定めた位置に配置する配置操作時において、仮想オブジェクトの一覧表示が邪魔になるなどの場合には、背景部分の仮想オブジェクトの一覧表示画像を消してもよい。
あるいはカメラ部111にて予め撮影した現実空間の実写画像を表示部130に表示した上に仮想オブジェクトを本来存在する位置に重畳表示するようにしてもよい。例えば、仮想オブジェクトを実世界の背景の寸法にあわせて配置したい場合などに使用すると、使い勝手を向上させることができる。
〈仮想オブジェクトの姿勢操作例〉
続いて、図1のヘッドマウント情報処理装置による仮想オブジェクトの姿勢操作の動作について説明する。
図9は、図1のヘッドマウント情報処理装置100における仮想オブジェクトの姿勢操作による表示画面の一例を示す説明図である。図10は、図9に続く姿勢操作後の仮想オブジェクトの表示の一例を示す説明図である。図11は、図9に続く姿勢操作後の仮想オブジェクトの表示の他の例を示す説明図である。
なお、図9~図11において、図3に示され同一の符号を付された部分は、図3で既に説明した動作と同一の動作を有するので、それらの詳細説明は省略する。
図5で説明したように、全天球画像上に仮想オブジェクトを配置して表示することにより全ての仮想オブジェクトの存在を視認できるが、そのままでは仮想オブジェクトの全体の形状を視認しにくい場合がある。
そこで、表示視野内に配置された視認しにくい仮想オブジェクトに対しては、仮想オブジェクト姿勢操作処理部123にて仮想オブジェクトの全体形状が視認しやすいように仮想オブジェクトの姿勢を操作し、姿勢操作後の仮想オブジェクトを一覧表示(加工モード)上の元の位置に戻して表示する。
以上の動作は、仮想オブジェクト姿勢操作処理部123がメモリ部128に記憶されているオブジェクトの形状および表示位置などの情報データ127を読み出し、選択したオブジェクトの形状、表示位置の情報を変更したものをメモリ部128に書き込む。制御部125は、メモリ部128から読み込んだ情報を表示部130に表示する。
例えば、図9に示した仮想オブジェクト215は、本来立方体の形状であるが、全天球画像上での表示形状では立方体と視認特定できない表示形状である。そこで、仮想オブジェクト姿勢操作処理部123は、仮想オブジェクト215をまずは姿勢操作しやすい手前の予め定めた位置の表示位置に、必要に応じて拡大させながら移動させる。
その後、仮想オブジェクト姿勢操作処理部123は、移動した仮想オブジェクト215を3次元的回転動作含めて回転させて、全体形状が視認しやすい表示形状に姿勢操作を行い、仮想オブジェクト601に示す表示形状に変換する。
全体形状が視認しやすい表示形状については、予め仮想オブジェクト生成時の雛形となる形状データに、そのオブジェクトの視認しやすい向き、大きさ、および色などの情報(姿勢情報)を紐付けててメモリ部128に記録し、その情報を生成された仮想オブジェクトに使用してもよい。また、ユーザが仮想オブジェクトごとに指定した姿勢情報をメモリ部128に記憶して、表示時に使用するようにしてもよい。
さらに、仮想オブジェクト姿勢操作処理部123による姿勢操作後、一覧表示(加工モード)上の元の位置に戻して、図10に示すように、仮想オブジェクト701として表示させるようにしてもよい。
図11は、仮想オブジェクト215以外の仮想オブジェクトに対しても姿勢操作を行った場合の仮想オブジェクトの表示形状を示している。図9に示す仮想オブジェクト213,214,216に対し、仮想オブジェクト215と同様、仮想オブジェクト姿勢操作処理部123が回転による姿勢操作を行う。これによって、仮想オブジェクト213,214,216は、図11に示すように仮想オブジェクト813,814,816にて示す表示形状にそれぞれ変換される。
また、図9の仮想オブジェクト211に対しては、拡大による姿勢操作を行う。これによって、仮想オブジェクト211は、図11の仮想オブジェクト811の表示形状に変換される。その結果、視認特定しやすい表示形状で仮想オブジェクトを表示することができる。
このように、仮想オブジェクト姿勢操作処理部123が、全体形状が視認しにくい仮想オブジェクトに対して姿勢操作を行うことにより、全体形状が視認特定可能な表示形状の仮想オブジェクトに変換する。それにより、仮想オブジェクトの全体形状、全容を的確に把握することが可能となる。
また、仮想オブジェクトに対して予め視認し易い姿勢情報が設定されている場合には、仮想オブジェクトを予め定めた位置に移動してから姿勢操作をするのではなく、制御部125による一覧表示(加工モード)開始時に、仮想オブジェクト姿勢操作処理部123が自動で設定されている姿勢情報に基づいた姿勢操作を行った後の仮想オブジェクトを表示するようにしてもよい。
また、仮想オブジェクト相互の配置や位置関係は変えずに、選択した仮想オブジェクトが正面に来るように、仮想オブジェクトの空間全体を回転してもよい。すなわち、ユーザが体を仮想オブジェクトの方向に回転させる代わりに、仮想オブジェクトの空間全体を回転させる。
〈変形操作例〉
続いて、変形操作について説明する。
仮想オブジェクト変形操作処理部124は、図9に示すように仮想オブジェクト215を手前の予め定めた位置、例えば仮想オブジェクト601の位置に移動させた状態にて変形操作を行うことができる。
この場合、変形操作は、仮想オブジェクト変形操作処理部124が選択したオブジェクトの形状および表示位置の情報を変更した後にメモリ部128に書き込む。ここで、仮想オブジェクトの形状は、向き、大きさ、および角度などを含む。制御部125は、メモリ部128に格納された情報に基づいて、仮想オブジェクト601を表示部130に表示する。
変形操作の結果は、元の仮想オブジェクトの表示状態にも反映される。例えば、変形操作によりオブジェクトの向きを変えた場合は、一覧表示(加工モード)のための表示のみならず、仮想オブジェクト自身の向きが変わるため、前述した図4(a)、図4(b)に示す現実空間の風景に重ねて仮想オブジェクトを表示する通常表示に遷移した場合でも、仮想オブジェクトは変形操作後の向きで表示される。変形操作時には、変形前の元の仮想オブジェクトの向き、大きさなどを含む形状を半透過で表示したままにする、あるいは視野内の変形操作に用いない場所に表示するなどしてもよい。
これにより、変形前の元の仮想オブジェクトと変形後の仮想オブジェクトとの向きおよび大きさなどを含む形状との差分を分かりやすく表示することができる。
仮想オブジェクトに対して、姿勢操作あるいは変形操作のどちらを行うかについては、例えば入力操作部121に設けられる図示しない操作モード切り替えボタンなどで操作前に指定する。
姿勢操作と変形操作を組み合わせて、仮想オブジェクトを姿勢操作により拡大して見やすくした後に変形操作を行ってもよい。姿勢操作により仮想オブジェクトに適用した拡大、縮小などの操作を変形操作に適用してもよい。
〈姿勢操作後の表示例〉
次に、姿勢操作後の仮想オブジェクトの表示例について説明する。
図12は、図1のヘッドマウント情報処理装置100による姿勢操作後の仮想オブジェクトを全天球表示画面の枠外に表示する例を示す説明図である。図13は、図1のヘッドマウント情報処理装置100による姿勢操作後の仮想オブジェクトを全天球表示画面内に重ねて表示する例を示す説明図である。
図12、図13において、図3に示され同一の符号を付された部分は、図3で既に説明した動作と同一の動作を有するので、それらの詳細説明は省略する。
まず、全天球画面上には、図12に示すように、姿勢操作前の仮想オブジェクト211~216をその存在位置にそれぞれ表示し、加えて、姿勢操作後の仮想オブジェクト212,701,811,813,814,816を全天球画面の枠外下部のエリア901にリスト表示する。
また、エリア901内での姿勢操作後の各仮想オブジェクト212,701,811,813,814,816の配置位置は、全天球画面上の姿勢操作前の仮想オブジェクト211~216の存在位置と表示画面の縦方向にほぼ揃えた位置とする。
以上の動作は、仮想オブジェクト姿勢操作処理部123がメモリ部128に記憶されているオブジェクトの形状、表示位置などの情報データ127を読み込んで、選択したオブジェクトの形状、表示位置などを変更した後にメモリ部128に書き込む。その後、制御部125がメモリ部128から読み込んだ情報に基づいて、仮想オブジェクトの表示位置および大きさなどを調整して表示部130に表示する。
あるいは図13に示すように、全天球画面上に姿勢操作前の仮想オブジェクト211~216をその存在位置に表示し、該全天球画面の下方に設けられるエリア1001に姿勢操作後の仮想オブジェクト212,701,811,813,814,816を全天球画面上に透過するようにリスト表示してもよい。
また、姿勢操作前の仮想オブジェクト211~216の位置は、エリア1001における姿勢操作後の各仮想オブジェクト212,701,811,813,814,816の配置位置が表示画面の縦方向にそれぞれ対応するように揃える。
以上の動作は、仮想オブジェクト姿勢操作処理部123がメモリ部128に記憶されているオブジェクトの形状、表示位置などの情報データ127を読み込んで、選択したオブジェクトの形状、表示位置などを変更した後にメモリ部に書き込む。
その後、制御部125がメモリ部128から読み込んだ情報に基づいて、仮想オブジェクトの表示位置、大きさ、および透過度などを調整して表示部130に表示する。
これらにより、姿勢操作前仮想オブジェクトと姿勢操作後の仮想オブジェクトとを同時に視認することができ、仮想オブジェクトの特定をより一層確実にすることができる。
なお、図12では、姿勢操作後の仮想オブジェクトを表示するエリア901を表示視野画面の枠外下方に配置した例を示したが、エリア901は、表示視野画面の枠外上方に配置してもよい。
また、図12および図13では、姿勢操作後の仮想オブジェクトを表示するエリア901,1001に、仮想オブジェクトを画面の横方向に並べて配置する例を示したが、画面の縦方向に並べて配置してもよい。エリア901,1001は、画面内のどの位置に配置してもよい。
〈仮想オブジェクトを一覧表示例〉
続いて、図5で示した全天球画像による仮想オブジェクトの一覧表示に代えて、小型物体を用いて仮想オブジェクトを一覧表示する例について説明する。
図14は、図1のヘッドマウント情報処理装置100による仮想の小型物体の配置例を模式的に示した説明図である。
図14は、ヘッドマウント情報処理装置の周囲にある仮想オブジェクトおよび仮想の小型物体における配置例を示したものである。
図15は、図14に示した配置例による表示視野画面の一例を示す説明図である。
図15は、図14に示した配置例において、ヘッドマウント情報処理装置100を使用するユーザから前方正面を見て、仮想オブジェクトの存在位置に対応する形で仮想オブジェクトのミニチュアである小型模型を仮想の小型物体上に配置し、現実空間の視界に仮想の小型物体を重畳表示した例を示している。
図14および図15において、図1、図3に示す同一の符号を付された部分は、図1、図3で既に説明した動作と同一の動作を有するので、それらの詳細説明は省略する。
ヘッドマウント情報処理装置100を装着しているユーザ200の前方には、図14に示すように、小型物体の例として小型の球体1101が仮想設置されている。球体1101は、仮想オブジェクト1102,1103,1104の小型模型であるミニチュア1105,1106,1107が収納されて表示される領域、すなわちミニチュア表示領域である。
ミニチュア1105,1106,1107は、球体1101内に各仮想オブジェクト1102,1103,1104の存在位置に対応するようにそれぞれ配置されている。
また、仮想オブジェクト1102,1103,1104とそれに対応する各々のミニチュア1105,1106,1107とは、仮想ライン1108,1109,1110にてそれぞれ繋がれることによって対応付けされている。
なお、ユーザ200の前方正面には、机201、パソコン202、ユーザ200の右側には、収納ボックス203、ユーザ200の後方背面には本棚204が置かれており、周囲状況は、図3で説明したと同様である(図14には図示せず)。
図14に示した配置例において、表示部130の表示視野画面では、図15に示すように、ユーザ200の前方正面の現実空間の視界にある机201、パソコン202に重畳して、仮想オブジェクト1102,1103,1104のミニチュア1105,1106,1107を配置した球体1101が表示視野内の左上方に表示される。
よって、図15に示した表示画面例からわかるように、ヘッドマウント情報処理装置100を装着したユーザ200の位置を中心に全周囲にある全ての仮想オブジェクトのミニチュアが現実空間に重畳して、球体1101内に投影反映して表示される。これによって、ミニチュアによる仮想オブジェクトの一覧表示を可能にすることができる。
また、仮想オブジェクト1102~1103とミニチュア1105~1107とを繋ぐ仮想ライン1108,1109,1110をたどっていくことにより、ユーザ200は仮想オブジェクトの存在する位置を容易に推定することができる。
なお、図14において、点線で示した仮想ライン1112のように仮想オブジェクト1102とそのミニチュア1105との間を仮想ラインで繋ぐと、仮想ラインがユーザ200の身体を貫いてしまう。
その場合には、仮想オブジェクトと仮想オブジェクトのミニチュアとの位置関係の把握が困難になる恐れがある。よって、例えば仮想ライン1108に示すようにユーザ200の身体を避けて、曲線にて仮想オブジェクト1102とそのミニチュア1105と繋ぐことにより、仮想ラインをたどりやすくする。それにより、仮想オブジェクトの存在する位置を推定しやすくすることができる。
制御部125は、メモリ部128に記憶されている仮想オブジェクトのデータおよび座標情報などを読み込み、メモリ部128に記憶されているプログラム126に従って、図15に示す球体1101、各仮想オブジェクト1102,1103,1104のミニチュア1105,1106,1107、および仮想ライン1108,1109,1110などを表示画像として生成し、表示部130に表示する。仮想オブジェクトの姿勢操作が必要な場合は、適宜仮想オブジェクト姿勢操作処理部123が処理を行う。
ミニチュアと仮想オブジェクトとを仮想ラインで繋いだ場合、現実の物体に仮想ラインが重なってしまう場合がある。例えば図15に示すミニチュア1107と仮想オブジェクト1104とを繋ぐ仮想ライン1111では、机201やパソコン202などと重なっている。
このような場合には、図15に示すようにミニチュア1107と仮想オブジェクト1104とを繋ぐ仮想ラインを曲線の仮想ライン1110として、現実の物体に重ならないようにする。これにより、仮想ラインをたどりやすくすることが可能となり、仮想オブジェクトの存在する位置を推定しやすくすることができる。
さらに、図16に示すように球体1101内に配置された仮想オブジェクトのミニチュア1105,1106,1107は、ユーザ200の操作によって、球体1101を表示部130の表示画面の略中央部手前に拡大しながら回転させて表示することにより、形状認識を容易にすることができる。これによって、仮想オブジェクトの形状など全容をより一層的確に視認することができる。
〈表示視野画面例〉
図17は、図1のヘッドマウント情報処理装置100による表示部130における表示視野画面の一例を示す説明図である。
図17は、ユーザ200が前方正面から向きを変えて右側正面を向いた際の表示視野画面を示している。
なお、図17において、図1、図3、および図14に示され同一の符号を付された部分は、図1、図3、および図14で既に説明した動作と同一の動作を有するので、それらの詳細説明は省略する。
まず、ユーザ200の向きが前方正面から右側正面に移動すると、図17に示すように、右側正面にある現実の物体である収納ボックス203が視界の中央に位置する。それに伴い、収納ボックス203の上部に存在する仮想オブジェクト1104は、表示画面中央上部に表示される。
また、球体1101自体は、表示視野内の左上隅に表示されるが、ユーザ200の右横向き移動に伴って、球体1101内の各仮想オブジェクトのミニチュア1105~1107は、右横回転した形で表示される。
すなわち、図17に示すように、球体1101内の中心部にミニチュア1107が位置するように、ミニチュア1105~1107が回転して表示される。また、表示部130の表示画面中央に表示された仮想オブジェクト1104と、仮想オブジェクト1104のミニチュア1107とは、仮想ライン1110で繋がれて表示される。
すなわち、ヘッドマウント情報処理装置100を装着しているユーザ200が向く方向を変えると、表示視野内の球体1101の位置は変わらないが、向く方向に応じて球体1101が回転し、球体1101内のミニチュア1105~1107の配置角度がユーザ200の移動向きに応じて変わる。それに伴い、球体1101内のミニチュア1107と仮想オブジェクト1104とを繋いでいる仮想ライン1110についても引きなおすように変化する。
そして、ヘッドマウント情報処理装置100を装着しているユーザ200が向く方向を変えた場合、例えば前方正面から右側正面などに向きを変えても、表示部130の表示画面内に表示されている球体1101にてユーザ200の全周囲にある全ての仮想オブジェクトをミニチュア一覧表示により確認することができる。
さらに、球体1101内のミニチュアから実際の仮想オブジェクトに繋いだ仮想ラインをたどることにより、球体1101内のミニチュアから実際の仮想オブジェクトの位置を容易に認識することができる。また、仮想ラインの方向や曲がり方で仮想オブジェクトの位置を推定することも可能になる。
なお、ヘッドマウント情報処理装置100自体の向きや回転などの動きは、ユーザの姿勢変化に起因する外界情報の変化を解析することにより、把握することができる。これによって、ヘッドマウント情報処理装置100の変化レベルを捉えることができる。
よって、ヘッドマウント情報処理装置100の向き変化により、例えば当初表示視野外の位置に存在していた仮想オブジェクトが表示視野内に入ることなど、仮想オブジェクト表示の状態変化を認識することができる。その結果、仮想オブジェクトをあるべき位置に表示することを可能にしている。
ここで、ヘッドマウント情報処理装置100自体の向きや回転などの動きの検出には、ヘッドマウント情報処理装置100が備えている加速度センサ部114、ジャイロセンサ部115、あるいは地磁気センサ部116などを用いる。
あるいはヘッドマウント情報処理装置100自体の向きや回転などの動きは、カメラ部111や深度センサ部131などで得られたユーザの姿勢変化に起因する外界情報の変化を解析することにより得ることができる。
図18は、図1のヘッドマウント情報処理装置100による表示部130における表示視野画面の他の例を示す説明図である。
図18は、ユーザが前方正面から向きを変えて後方背面を向いたときの表示視野画面の一例を示したものである。
図18において、図1、図3、図14に示され同一の符号を付された部分は、図1、図3、図14で既に説明した動作と同一の動作を有するので、それらの詳細説明は省略する。
ユーザ200の向きが後方背面に移動すると、図18に示すように、後方背面にある本棚204が視界の中央に位置するとともに、本棚204の上部に存在する仮想オブジェクト1102は、表示部130の表示画面中央上部に表示される。
また、球体1101自体は表示視野内の左上隅に表示されるが、ユーザ200の背面向き移動に伴って、球体1101および球体1101内の各仮想オブジェクトのミニチュアは背面向きに回転した形で表示される。
すなわち、図18に示すように、表示画面中央上部に表示される仮想オブジェクト1102のミニチュア1105が球体1101の正面に位置するように回転される。球体1101には、各ミニチュア1105,1106,1107が配置された形で表示される。
また、表示画面中央に表示された仮想オブジェクト1102と、仮想オブジェクト1102のミニチュア1105とは、仮想ライン1108で繋がれて表示される。すなわち、ヘッドマウント情報処理装置100を装着しているユーザ200が向く方向を変えると、表示視野内の球体1101の位置は変わらないが、向く方向に応じて球体1101が回転し、球体1101の仮想オブジェクトのミニチュアの配置角度がユーザの移動向きに応じて変わる。さらに、球体1101内のミニチュアと仮想オブジェクトとを繋いでいるラインも引きなおす形で変化する。
そして、図17での説明と同様、ヘッドマウント情報処理装置100を装着しているユーザが向く方向を変えても、例えば前方正面から後方背面に向きを変えても、ユーザ200が向いた方向の現実空間に重畳して、表示画面内に表示されている球体1101にてユーザの全周囲にある全ての仮想オブジェクトをミニチュア一覧表示により確認できる。
さらには、球体1101内のミニチュア1105から実際の仮想オブジェクト1102に繋いだ仮想ライン1108をたどることにより、球体1101内のミニチュア1105から実際の仮想オブジェクト1102の位置を容易に認識することができる。
図19は、図1のヘッドマウント情報処理装置100による全天球画像を背景として表示した際の表示画面の一例を示す説明図である。
図19において、図1、図3、および図14に示され同一の符号を付された部分は、図1、図3、図14で既に説明した動作と同一の動作を有するので、それらの詳細説明は省略する。
この図19に示す表示例の場合、仮想オブジェクトのミニチュアを配置した球体1101とともに、全ての仮想オブジェクトを表示画面内に表示することができ、仮想オブジェクトの配置位置を容易に視認できる。
以上、小型物体としては小型の球体の場合を説明したが、仮想オブジェクトが存在する空間に対応した形状の小型物体を用いてもよい。その場合、実際の空間との関係を認識しやすいという効果が出てくる。例えば、部屋のような立方体型の閉じた空間ならば立方体の小型物体を使用してもよい。
また、仮想オブジェクトの種類ごとに小型物体を分けてもよい。例えば色分けされた小型物体が縮小状態でいくつも並んでいて、選択した小型物体に関連付けされた仮想オブジェクトのグループの情報のみ表示してもよい。あるいは、小型物体を重ねることで全ての仮想オブジェクトを表示してもよい。
また、小型物体の表示が不要な場合には一旦隠すなどの操作を行ってもよい。また、仮想オブジェクトのミニチュアの表示に際しては、実際の形状に拘らず特定の記号、例えば「☆」などを用いてもよいし、仮想オブジェクトの分類ごとに記号の色分けをしてもよい。
このように仮想オブジェクトのミニチュアを簡略化して表示することは、大まかに仮想オブジェクトの存在を視認する場合には有効となる。
また、小型物体を表示視野内に固定して常に表示するだけではなく、小型物体を特定の空間位置に固定して表示してもよい。この場合、ユーザが向きを変えたとき、小型物体は表示視野から外れることとなる。また、小型物体だけでなくラインも固定されることなるが、ユーザにとって視野方向による仮想オブジェクトや小型物体の位置混乱を避けやすくなる。
小型物体上の仮想オブジェクトのミニチュアと実際の仮想オブジェクトとを繋ぐラインは、仮想オブジェクトの種類によりラインの色、太さ、およびラインの種類などを変えてもよい。
例えば、仮想オブジェクトである書類ウインドには、黒の細いライン、仮想オブジェクトであるキャラクタには、黄色の太い破線ライン、などとしてもよい。また、仮想ラインを触れると、つながっている先の仮想オブジェクトのプレビューを正面に表示させてもよい。
あるいは、ラインをつかんで引っぱる動作で実際の仮想オブジェクトを正面に移動させ、使用後投げ上げるなどの動作によって元の位置に戻るようにしてもよい。
現実空間の風景に重ねて仮想オブジェクトを表示する通常表示に遷移する動作においては、一覧表示画面で選択した仮想オブジェクトをマーキングしてから通常表示に戻すと、そこまでラインが引かれるようにしてもよい。
同様に、選択した仮想オブジェクトをゆっくり元の位置に戻すことにより目で追えるようにしてもよい。これらは選択の有無にかかわらず全ての仮想オブジェクトに対して行ってもよい。
また、ユーザによる入力操作部121などからの要求指示や、ヘッドマウント情報処理装置100で行われる操作や表示の動作などの際に、その要求指示、操作動作、および表示動作などを示す情報を表示部130にて表示して通知することにより、ユーザにヘッドマウント情報処理装置の稼動状態を確実に知らしめ認識させることができる。
要求指示、操作動作、および表示動作などを示す情報は、ヘッドフォン120から音声でユーザに発声したり、ユーザに密着している振動発生部117にて振動を発生したり、あるいは刺激発生部132にて刺激を発生したりして通知するようにしてもよい。
以上により、仮想オブジェクトがヘッドマウント情報処理装置100の視野範囲外などにあっても、仮想オブジェクトの存在、形状、配置場所など全容を的確に視認することができる。
その結果、使い勝手よく仮想オブジェクトの特定を可能とするヘッドマウント情報処理装置100を実現することができる。
(実施の形態2)
〈ヘッドマウントディスプレイシステムの構成例〉
図20は、本実施の形態2によるヘッドマウントディスプレイシステム1700における構成の一例を示すブロック図である。
ヘッドマウントディスプレイシステム1700は、図20に示すようにヘッドマウント情報処理装置100、仮想オブジェクト生成サーバ装置1702、およびネットワーク1703から構成されている。
図20に示すヘッドマウント情報処理装置100は、図1に示した同一符号を付された各機能ブロックの構成に加えて、通信部1704および送受信アンテナ1705が新たに設けられている。その一方、図20のヘッドマウント情報処理装置100には、仮想オブジェクト生成処理部122が設けられていない。
仮想オブジェクト生成サーバ装置1702は、仮想オブジェクト生成処理部1711、メモリ部1712、制御部1713、通信部1714、および送受信アンテナ1715などから構成されている。仮想オブジェクト生成サーバ装置1702における各機能ブロックは、バス1720を介して相互に接続されている。なお、図20において、図1の実施例と同一処理部分には同じ符号を付しており、それらの説明は省略する。
ヘッドマウントディスプレイシステム1700において、仮想オブジェクト生成サーバ装置1702が有する仮想オブジェクト生成処理部1711は、仮想オブジェクトを生成する。
メモリ部1712は、仮想オブジェクト生成処理部1711が生成した仮想オブジェクトを保存する。通信部1714は、メモリ部1712が保存した仮想オブジェクトを送受信アンテナ1715から通信ネットワークであるネットワーク1703を経由してヘッドマウント情報処理装置100に送信する。ヘッドマウント情報処理装置100では、ネットワーク1703を経由して送信された仮想オブジェクトを受信する。
また、図20において、ヘッドマウント情報処理装置100での仮想オブジェクトの表示処理自体は、図1で示した実施例の場合と同様であるが、仮想オブジェクトの生成をヘッドマウント情報処理装置100とは別装置である仮想オブジェクト生成サーバ装置1702で行うことが異なる。
仮想オブジェクト生成サーバ装置1702において、メモリ部1712は、ヘッドマウント情報処理装置100のメモリ部128と同様、フラッシュメモリなどの不揮発性半導体メモリである。
メモリ部1712は、仮想オブジェクト生成サーバ装置1702の制御部1713が使用する各種プログラムや生成された仮想オブジェクトなど記憶する。通信部1714は、ネットワーク1703を介してヘッドマウント情報処理装置100と通信を行う通信インタフェースであり、ヘッドマウント情報処理装置100と情報の送受信を行う。
制御部1713は、例えばCPUなどからなり、メモリ部1712に記憶格納されているOSや動作制御用アプリケーションなどのプログラムを実行することによって、各機能ブロックを制御し、仮想オブジェクト生成サーバ装置1702全体を制御する。
制御部1713は、仮想オブジェクト生成処理部1711での仮想オブジェクトの生成や、生成された仮想オブジェクトのメモリ部1712への保存を制御する。また、制御部1713は、ヘッドマウント情報処理装置100からの仮想オブジェクトの送信出力要求に応じて、生成された仮想オブジェクトをヘッドマウント情報処理装置100に送信するように制御する。
これにより、仮想オブジェクトの生成をヘッドマウント情報処理装置100でなく、ヘッドマウント情報処理装置100と分離された仮想オブジェクト生成サーバ装置1702を用いて行うことにより、取り扱える仮想オブジェクト情報量の大規模化が可能になる。同時に複数の場所で複数のヘッドマウント情報処理装置100に対してそれぞれ要求された仮想オブジェクトを生成して配信することが可能となる。
その結果、同時に複数のヘッドマウント情報処理装置100にて使い勝手よく仮想オブジェクトの全容視認を容易に実現することができる。
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。
なお、本発明は上記した実施の形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
また、ある実施の形態の構成の一部を他の実施の形態の構成に置き換えることが可能であり、また、ある実施の形態の構成に他の実施の形態の構成を加えることも可能である。また、各実施の形態の構成の一部について、他の構成の追加、削除、置換をすることが可能である。
また、上記の各構成、機能、処理部、処理機能などは、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウエアで実現してもよい。各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリや、ハードディスク、SSD(Solid State Drive)などの記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
100 ヘッドマウント情報処理装置
111 カメラ部
112 右目視線検出部
113 左目視線検出部
114 加速度センサ部
115 ジャイロセンサ部
116 地磁気センサ部
117 振動発生部
118 外周音マイク
119 発声音マイク
120 ヘッドフォン
121 入力操作部
122 仮想オブジェクト生成処理部
123 仮想オブジェクト姿勢操作処理部
124 仮想オブジェクト変形操作処理部
125 制御部
128 メモリ部
130 表示部
131 深度センサ部
132 刺激発生部
140 バス
1700 ヘッドマウントディスプレイシステム
1702 仮想オブジェクト生成サーバ装置
1703、ネットワーク
1711 仮想オブジェクト生成処理部
1712 メモリ部
1713 制御部
1714 通信部
1715 送受信アンテナ
1720 バス

Claims (10)

  1. 仮想オブジェクトを生成する仮想オブジェクト生成処理部と、
    情報を設定および入力する入力操作部と、
    現実空間を撮像するカメラ部と、
    前記カメラ部が撮像する実写画像および前記仮想オブジェクト生成処理部が生成する仮想オブジェクトを表示する表示部と、
    前記表示部に表示される前記仮想オブジェクトを変形させる変形操作を行う仮想オブジェクト変形操作処理部と、
    前記仮想オブジェクト生成処理部および前記表示部および前記仮想オブジェクト変形操作処理部を制御する制御部と、
    を有し、
    前記制御部は、前記入力操作部からの入力に基づいて前記仮想オブジェクト生成処理部が生成した視野範囲外に配置された仮想オブジェクトを前記表示部に一覧表示させ、前記表示部に前記一覧表示された仮想オブジェクトを前記仮想オブジェクト変形操作処理部が変形操作するように制御する、
    ヘッドマウント情報処理装置。
  2. 請求項に記載のヘッドマウント情報処理装置において、
    前記制御部は、前記仮想オブジェクト変形操作処理部が前記仮想オブジェクトの変形操作を行う際に、変形操作を行う前記仮想オブジェクトを前記表示部の予め設定されている位置に移動して表示させる、
    ヘッドマウント情報処理装置。
  3. 請求項1または2に記載のヘッドマウント情報処理装置において、
    前記制御部は、前記視野範囲外に配置された仮想オブジェクトを位置情報を伴って前記表示部に一覧表示させる、
    ヘッドマウント情報処理装置。
  4. 請求項1または2に記載のヘッドマウント情報処理装置において、
    前記カメラ部は、全天球の画像を撮影する全天球カメラであり、
    前記制御部は、前記表示部に前記仮想オブジェクトを一覧表示する際に、前記表示部に前記カメラ部が撮像した全天球画像を表示させる、
    ヘッドマウント情報処理装置。
  5. 請求項に記載のヘッドマウント情報処理装置において、
    前記制御部は、前記入力操作部の操作により仮想オブジェクトが選択された際に、選択された前記仮想オブジェクトを拡大して前記表示部の予め設定した位置に移動して表示させる、
    ヘッドマウント情報処理装置。
  6. 請求項1または2に記載のヘッドマウント情報処理装置において、
    前記制御部は、前記仮想オブジェクトのリスト表示を一覧表示画面の表示領域と異なる表示領域に表示させる、
    ヘッドマウント情報処理装置。
  7. 請求項1または2に記載のヘッドマウント情報処理装置において、
    前記制御部は、前記仮想オブジェクトのリスト表示を一覧表示画面に重畳するように前記表示部に表示させる、
    ヘッドマウント情報処理装置。
  8. 請求項1または2に記載のヘッドマウント情報処理装置において、
    前記制御部は、前記仮想オブジェクトを小型化したミニチュアおよび前記ミニチュアを表示する領域であるミニチュア表示領域をそれぞれ生成し、前記ミニチュアを前記ミニチュア表示領域内に収めて前記表示部に表示させる、
    ヘッドマウント情報処理装置。
  9. 請求項に記載のヘッドマウント情報処理装置において、
    前記ミニチュア表示領域は、球体形状である、
    ヘッドマウント情報処理装置。
  10. 請求項に記載のヘッドマウント情報処理装置において、
    前記制御部は、前記仮想オブジェクトと前記ミニチュア表示領域に収めて表示される前記仮想オブジェクトに対応する同じ形状の前記ミニチュアとを繋ぐ仮想ラインを生成して前記表示部に表示させる、
    ヘッドマウント情報処理装置。
JP2023069361A 2019-03-06 2023-04-20 ヘッドマウント情報処理装置 Active JP7480388B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023069361A JP7480388B2 (ja) 2019-03-06 2023-04-20 ヘッドマウント情報処理装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021503345A JP7268130B2 (ja) 2019-03-06 2019-03-06 ヘッドマウント情報処理装置
PCT/JP2019/008931 WO2020179027A1 (ja) 2019-03-06 2019-03-06 ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム
JP2023069361A JP7480388B2 (ja) 2019-03-06 2023-04-20 ヘッドマウント情報処理装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021503345A Division JP7268130B2 (ja) 2019-03-06 2019-03-06 ヘッドマウント情報処理装置

Publications (2)

Publication Number Publication Date
JP2023099046A JP2023099046A (ja) 2023-07-11
JP7480388B2 true JP7480388B2 (ja) 2024-05-09

Family

ID=72337788

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021503345A Active JP7268130B2 (ja) 2019-03-06 2019-03-06 ヘッドマウント情報処理装置
JP2023069361A Active JP7480388B2 (ja) 2019-03-06 2023-04-20 ヘッドマウント情報処理装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021503345A Active JP7268130B2 (ja) 2019-03-06 2019-03-06 ヘッドマウント情報処理装置

Country Status (4)

Country Link
US (2) US12056826B2 (ja)
JP (2) JP7268130B2 (ja)
CN (1) CN113498531A (ja)
WO (1) WO2020179027A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11029805B2 (en) * 2019-07-10 2021-06-08 Magic Leap, Inc. Real-time preview of connectable objects in a physically-modeled virtual space
WO2022201430A1 (ja) * 2021-03-25 2022-09-29 京セラ株式会社 ウェアラブル端末装置、プログラムおよび表示方法
WO2022208612A1 (ja) * 2021-03-29 2022-10-06 京セラ株式会社 ウェアラブル端末装置、プログラムおよび表示方法
WO2024057498A1 (ja) * 2022-09-15 2024-03-21 マクセル株式会社 文字情報表示装置及び文字情報表示方法
WO2024111790A1 (ko) * 2022-11-21 2024-05-30 삼성전자주식회사 가상 객체를 제어하기 위한 시각적 객체를 표시하기 위한 웨어러블 장치 및 그 방법

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005251118A (ja) 2004-03-08 2005-09-15 Canon Inc 画像処理方法、画像処理装置
JP2012168798A (ja) 2011-02-15 2012-09-06 Sony Corp 情報処理装置、オーサリング方法及びプログラム
WO2014162825A1 (ja) 2013-04-04 2014-10-09 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
JP2016184296A (ja) 2015-03-26 2016-10-20 富士通株式会社 表示制御方法、表示制御プログラム、及び情報処理装置
WO2016170717A1 (ja) 2015-04-23 2016-10-27 ソニー株式会社 ウェアラブルディスプレイ、情報処理システム及び制御方法
WO2017098822A1 (ja) 2015-12-10 2017-06-15 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US20170309079A1 (en) 2016-04-21 2017-10-26 Magic Leap, Inc. Visual aura around field of view
WO2018042658A1 (ja) 2016-09-05 2018-03-08 マクセル株式会社 携帯情報端末、頭部装着表示システム、及びその音声出力制御方法
US20180136816A1 (en) 2016-11-15 2018-05-17 Google Llc Location globe in virtual reality
WO2019026713A1 (ja) 2017-08-04 2019-02-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4714231B2 (ja) 2008-03-28 2011-06-29 株式会社コナミデジタルエンタテインメント 画像生成装置、広視野画像生成方法、および、プログラム
US9097891B2 (en) * 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
JP6611501B2 (ja) 2015-07-17 2019-11-27 キヤノン株式会社 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体
US10511895B2 (en) * 2015-10-09 2019-12-17 Warner Bros. Entertainment Inc. Cinematic mastering for virtual reality and augmented reality
JP6646208B2 (ja) * 2015-10-28 2020-02-14 富士通株式会社 表示制御方法、表示制御プログラムおよび情報処理装置
JP6457446B2 (ja) 2016-08-23 2019-01-23 株式会社コロプラ 仮想空間におけるコミュニケーションを支援するための方法および装置ならびに当該方法をコンピュータに実行させるためのプログラム
US20180059788A1 (en) 2016-08-23 2018-03-01 Colopl, Inc. Method for providing virtual reality, program for executing the method on computer, and information processing apparatus
US11014242B2 (en) * 2018-01-26 2021-05-25 Microsoft Technology Licensing, Llc Puppeteering in augmented reality

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005251118A (ja) 2004-03-08 2005-09-15 Canon Inc 画像処理方法、画像処理装置
JP2012168798A (ja) 2011-02-15 2012-09-06 Sony Corp 情報処理装置、オーサリング方法及びプログラム
WO2014162825A1 (ja) 2013-04-04 2014-10-09 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
JP2016184296A (ja) 2015-03-26 2016-10-20 富士通株式会社 表示制御方法、表示制御プログラム、及び情報処理装置
WO2016170717A1 (ja) 2015-04-23 2016-10-27 ソニー株式会社 ウェアラブルディスプレイ、情報処理システム及び制御方法
WO2017098822A1 (ja) 2015-12-10 2017-06-15 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US20170309079A1 (en) 2016-04-21 2017-10-26 Magic Leap, Inc. Visual aura around field of view
WO2018042658A1 (ja) 2016-09-05 2018-03-08 マクセル株式会社 携帯情報端末、頭部装着表示システム、及びその音声出力制御方法
US20180136816A1 (en) 2016-11-15 2018-05-17 Google Llc Location globe in virtual reality
WO2019026713A1 (ja) 2017-08-04 2019-02-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
WO2020179027A1 (ja) 2020-09-10
US12056826B2 (en) 2024-08-06
CN113498531A (zh) 2021-10-12
JP2023099046A (ja) 2023-07-11
JPWO2020179027A1 (ja) 2021-12-02
US20220172439A1 (en) 2022-06-02
JP7268130B2 (ja) 2023-05-02
US20240338914A1 (en) 2024-10-10

Similar Documents

Publication Publication Date Title
JP7480388B2 (ja) ヘッドマウント情報処理装置
US11875013B2 (en) Devices, methods, and graphical user interfaces for displaying applications in three-dimensional environments
US11615596B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US20220084279A1 (en) Methods for manipulating objects in an environment
US20230418432A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments
EP3311249B1 (en) Three-dimensional user input
JP2020042802A (ja) 3次元コンテンツ内の場所に基づく仮想要素モダリティ
EP3262505B1 (en) Interactive system control apparatus and method
JP2006127158A (ja) 画像処理方法、画像処理装置
US11367416B1 (en) Presenting computer-generated content associated with reading content based on user interactions
WO2019187862A1 (ja) 情報処理装置、情報処理方法、および記録媒体
JP7496403B2 (ja) 表示端末
US11768576B2 (en) Displaying representations of environments
US20240264662A1 (en) Head mounted information processing apparatus and head mounted display system
US20240062489A1 (en) Indicating a Position of an Occluded Physical Object
JP6357412B2 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
WO2022269753A1 (ja) 情報処理システム、情報処理装置及び画像表示装置
EP3062221A1 (en) Interactive system control apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240424

R150 Certificate of patent or registration of utility model

Ref document number: 7480388

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150