JP7236529B2 - ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム - Google Patents

ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム Download PDF

Info

Publication number
JP7236529B2
JP7236529B2 JP2021506869A JP2021506869A JP7236529B2 JP 7236529 B2 JP7236529 B2 JP 7236529B2 JP 2021506869 A JP2021506869 A JP 2021506869A JP 2021506869 A JP2021506869 A JP 2021506869A JP 7236529 B2 JP7236529 B2 JP 7236529B2
Authority
JP
Japan
Prior art keywords
virtual object
display
head
information processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021506869A
Other languages
English (en)
Other versions
JPWO2020188721A1 (ja
Inventor
尚久 高見澤
眞弓 中出
義憲 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Publication of JPWO2020188721A1 publication Critical patent/JPWO2020188721A1/ja
Priority to JP2023028328A priority Critical patent/JP2023065528A/ja
Application granted granted Critical
Publication of JP7236529B2 publication Critical patent/JP7236529B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0123Head-up displays characterised by optical features comprising devices increasing the field of view
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステムに関し、特に、仮想オブジェクトにおける位置の把握に有効な技術に関する。
近年、仮想現実(Virtual Reality:VR)技術、拡張現実(Augmented Reality:AR)技術、あるいは複合現実(Mixed Reality:MR)技術が広く利用されている。
仮想現実は、現実に似せた仮想世界を作り出しあたかもそこにいるような感覚を体験できる技術である。拡張現実は、現実世界にデジタル情報を付与しCG(Computer Graphics)などで作った仮想空間(仮想オブジェクト)を現実空間に反映し拡張していく技術である。複合現実は、CGなどで人工的に作られた仮想世界と現実世界の情報を組み合わせ融合させる技術である。
これらの技術を具現化するツールとしては、頭部に装着されディスプレイやカメラなどを有するヘッドマウント情報処理装置が広く用いられている。ヘッドマウント情報処理装置においては、仮想オブジェクトの現実感を増すために、仮想オブジェクトを現実空間の空間座標に紐付けてあらわし、あたかもそこに現実のオブジェクトがあるかのような表示方法が実用化されている。
このような表示方法は、目的の仮想オブジェクトが紐付けされ配置されている現実空間に行けば目的の仮想オブジェクトを視認でき、直感的な操作体系を可能にしているが、目的の仮想オブジェクトが紐付けされている現実空間に行かなければ目的の仮想オブジェクトの閲覧や操作を行うことができないという課題があった。
この問題を解決する技術としては、装着者が実世界空間を動き回っていても、拡張現実オブジェクトの少なくとも一部を実世界空間内にとどめて容易にアクセスすることができるものがある(例えば特許文献1参照)。
特表2018-505472号公報
前述した特許文献1の技術は、ユーザの視野移動に対しても仮想オブジェクトを視野内にとどめて表示する旨については記載されているものの、別の現実空間にある仮想オブジェクトに対する表示については考慮されていない。よって、別の現実空間にある仮想オブジェクトの閲覧や操作を使い勝手よく行うことができにくいという問題がある。
本発明の目的は、現実空間とは異なる現実空間にある仮想オブジェクトの存在位置などを容易に把握することができる技術を提供することにある。
本発明の前記ならびにその他の目的と新規な特徴については、本明細書の記述および添付図面から明らかになるであろう。
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、次のとおりである。
すなわち、代表的なヘッドマウント情報処理装置は、操作入力インタフェース、カメラ部、表示部、および制御部を備える。操作入力インタフェースは、情報を入力する。カメラ部は、現実空間を撮像する。表示部はカメラ部が撮像する実写画像を表示する。制御部は、表示部を制御する。
また、制御部は、表示部が表示する仮想オブジェクトを生成する仮想オブジェクト生成処理部を有する。仮想オブジェクト生成処理部は、ユーザが存在する第1の現実空間に紐付けされて配置される第1の仮想オブジェクトおよび第1の現実空間と異なる第2の現実空間に紐付けて配置される第2の仮想オブジェクトを生成する。
そして、制御部は、操作入力インタフェースから入力される第1の仮想オブジェクトおよび第2の仮想オブジェクトの表示を指示する仮想オブジェクト表示指示情報に応じて、表示部に第1の仮想オブジェクトおよび第2の仮想オブジェクトを表示させる。
本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。
異なる現実空間に配置される仮想オブジェクトの配置場所などを的確に視認することができるので、利便性を向上させることができる。
実施形態1によるヘッドマウント情報処理装置における構成の一例を示すブロック図である。 図1のヘッドマウント情報処理装置における使用状況の周囲全景の一例を示す説明図である。 図1のヘッドマウント情報処理装置による仮想オブジェクト群の一覧表示の一例を示す説明図である。 図3の仮想オブジェクト群の一覧表示の他の例を示す説明図である。 図4の仮想オブジェクト群の一覧表示の他の例を示す説明図である。 図1のヘッドマウント情報処理装置における使用状況の一例を示す説明図である。 図6の周囲全景例における一覧表示させた仮想オブジェクト群の表示画面の一例を示す説明図である。 図6の使用状況の他の例を示した説明図である。 図8の周囲全景例における一覧表示させた仮想オブジェクト群の表示画面の一例を示す説明図である。 図1のヘッドマウント情報処理装置による仮想オブジェクト群の表示の一例を示す説明図である。 図10の仮想オブジェクト群の表示の他の例を示す説明図である。 図1のヘッドマウント情報処理装置による仮想オブジェクト群の切り替え表示の一例を示す説明図である。 図1のヘッドマウント情報処理装置による仮想オブジェクトの拡大縮小および姿勢操作の一例を示す説明図である。 図13の他の例を示す説明図である。 複数の現実空間における全ての仮想オブジェクトを見る場合の周囲全景の一例を示す説明図である。 図15の後方の出入口と逆の方向から見た状態における仮想オブジェクトの表示の一例を示す説明図である。 図16の仮想オブジェクトの表示の他の例を示す説明図である。 図16の仮想オブジェクト群の一覧表示の他の例を示す説明図である。 図1のヘッドマウント情報処理装置によるマルチ表示画面の一例を示す説明図である。 図19の他の表示例を示す説明図である。 実施形態2によるヘッドマウントディスプレイシステムにおける構成の一例を示すブロック図である。
実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。
(実施の形態1)
以下、実施の形態を詳細に説明する。
〈ヘッドマウント情報処理装置の構成例〉
図1は、本実施の形態1によるヘッドマウント情報処理装置における構成の一例を示すブロック図である。
ヘッドマウント情報処理装置100は、図1に示すように、カメラ部111、右目視線検出部112、左目視線検出部113、振動発生部117、外周音マイク118、発声音マイク119、ヘッドフォン120、操作入力インタフェース121、ディスプレイ122、制御部125、メモリ124、深度センサ142、加速度センサ143、ジャイロセンサ144、地磁気センサ145、および刺激発生部146から構成されている。これらの機能ブロックは、バス140を介して相互に接続されている。
カメラ部111は、ユーザ前方の風景を撮影する。表示部であるディスプレイ122は、カメラ部111が撮影した現実空間の実写画像を表示する。カメラ部111は、複数のカメラによって構成してもよいし、あるいは1台または複数のカメラを組み合わせて全天球の画像を撮影できる360度全天球カメラであってもよい。
制御部125は、メモリ124に格納される後述するプログラム126を実行することによって、各機能ブロックを制御し、ヘッドマウント情報処理装置100全体の動作を制御する。
制御部125は、表示制御部151、データ管理部152、映像加工部153、仮想オブジェクト姿勢操作処理部154、仮想オブジェクト生成処理部155、および仮想オブジェクト変形操作処理部156を有する。
仮想オブジェクト生成処理部155は、現実空間とは異なる仮想空間にある少なくとも1つの仮想オブジェクトからなる仮想オブジェクト群を生成する。また、仮想オブジェクト生成処理部155は、生成した仮想オブジェクト群を現実空間に紐付けて配置する。
ここで、視認あるいはディスプレイ122に表示される第1の現実空間に紐付けされて配置される仮想オブジェクト群を第1の仮想オブジェクト群とする。また、第1の現実空間とは別の現実空間である第2の現実空間に紐付けされて配置される仮想オブジェクト群を第2の仮想オブジェクト群とする。
同様に、第1および第2の現実空間とは別の現実空間である第3の現実空間に紐付けされて配置される仮想オブジェクト群を第3の仮想オブジェクト群とする。第1~第3の現実空間とは別の現実空間である第4の現実空間に紐付けされて配置される仮想オブジェクト群を第4の仮想オブジェクト群とする。
仮想オブジェクト生成処理部155は、操作入力インタフェース121から入力されるユーザ操作に応じて、メモリ124から読み出した仮想オブジェクトの雛形データに基づいて、仮想オブジェクトを生成する。
なお、仮想オブジェクトの雛形データは必ずしも必要ではなく、ユーザ操作により雛形なしで直接仮想オブジェクトデータを生成してもよい。例えば、直方体の仮想オブジェクトを生成するには、操作入力インタフェース121を用いたユーザ操作により、実空間上に仮想オブジェクトの各頂点となる8点を指定する。
仮想オブジェクト姿勢操作処理部154は、ディスプレイ122に表示された仮想オブジェクトを回転、拡大、および縮小して、視認しやすい形状の姿勢になるように操作する。これを姿勢操作と呼ぶ。姿勢操作の結果は、元の仮想オブジェクトの姿勢、形状、および向きなどには反映されない。
仮想オブジェクト変形操作処理部156は、ディスプレイ122に表示される仮想オブジェクトの変形操作を行う。変形操作は、例えば仮想オブジェクトの向きを変える、大きさを変える、形状を変える、一部分を削除する、あるいは全部を削除するなどである。仮想オブジェクト変形操作処理部156による変形操作の結果は、元の仮想オブジェクトの姿勢、形状、および向きなどにも反映される。
映像加工部153は、カメラ部111が撮影した映像データを加工し、加工した映像データを情報データ127としてメモリ124に格納する。映像加工部153は、主に表示データ量の軽減、視認性の向上を目的として、カメラ部111が撮影した映像データを簡素化する。例えば、映像データに四角形状の本棚がある場合には、外形が同じ寸法の直方体などの形状に簡素化して映像データを簡素化する。
また、映像加工部153は、各空間の認知を容易にするための映像加工を行う。例えば、カメラ部111が撮影したユーザの目線からの映像データに基づいて、撮影時にユーザが存在した空間を見下ろすように俯瞰した映像データなどを生成する。
表示制御部151は、メモリ124に格納されている情報データ127を適宜組み合わせて表示用データを生成し、ディスプレイ122に表示させる。この場合、情報データ127は、仮想オブジェクトデータ、カメラ部111が撮影する映像データ、および映像加工部153が生成する加工後の表示用データなどである。
データ管理部152は、カメラ部111が撮影する実写映像データ、仮想オブジェクトのデータ、および映像加工部153が生成する加工後の表示用データなどを管理する。
制御部125は、GPU(Graphics Processing Unit)などの各演算処理専用プロセッサを含むCPU(Central Processing Unit)などから構成されており、メモリ124に記憶格納されているプログラム126を実行することによって、各機能ブロックを制御してヘッドマウント情報処理装置100全体の動作を制御する。プログラム126は、ヘッドマウント情報処理装置100のOS(Operating System)や動作制御用アプリケーションなどのプログラムである。
制御部125は、操作入力インタフェース121から入力される仮想オブジェクト表示指示情報に応じて、第1の現実空間とは別の現実空間に紐付けて配置される仮想オブジェクト群、例えば第2の現実空間などに紐付けて配置される第2の仮想オブジェクト群などを第1の現実空間内に配置して表示するように表示制御部151を制御する。これによって、第1の現実空間とは別の現実空間に紐付けられて配置されている仮想オブジェクト群の視認や操作が可能となる。
なお、仮想オブジェクト生成処理部155が生成する仮想オブジェクト群をディスプレイ122の表示視野内に表示する際には、例えばヘッドマウント情報処理装置100からの全周囲風景を示す全天球画像をディスプレイ122に投影して反映し、反映した全天球画像の所定の位置に仮想オブジェクト郡を配置する。
この場合、制御部125は、表示制御部151を制御することにより、第1の仮想オブジェクト群と、第1の現実空間とは別の現実空間に紐付けて配置される仮想オブジェクト群、例えば第2の現実空間などに紐付けて配置される第2の仮想オブジェクト群とを第1の現実空間内に配置して表示させる。
また、制御部125は、第1の仮想オブジェクト群と第2の現実空間に紐付けられ配置されている第2の仮想オブジェクト群などとを順次切り替えて、ディスプレイ122の表示画面に表示するようにしてもよい。
さらに、制御部125は、第1の現実空間の視野位置から、第1の仮想オブジェクト群や第1の現実空間とは別の現実空間に紐付けられて配置される仮想オブジェクト群などをディスプレイの表示画面内に併せて配置して表示するようにしてもよい。
また、制御部125は、各現実空間に紐付けられて配置されている仮想オブジェクト群を示す各々の表示画面を縮小して並べてマルチ表示し、選択された現実空間の仮想オブジェクト群の表示画面を通常の大きさに戻して表示し、選択された現実空間内に配置された所望の仮想オブジェクトの視認や操作を可能にするようにしてもよい。
あるいは、制御部125は、表示視野内に配置された視認しにくい仮想オブジェクトに対して、仮想オブジェクト姿勢操作処理部154にて仮想オブジェクトの全体形状が視認しやすいように仮想オブジェクトの拡大縮小や姿勢を操作するように制御し、表示制御部151を用いて姿勢操作後の仮想オブジェクトを表示するようにしてもよい。
メモリ124は、フラッシュメモリなどに例示される不揮発性メモリであり、制御部125が使用する各種のプログラム126および情報データ127などを記憶する。情報データ127は、仮想オブジェクト群のデータ、仮想オブジェクト群の座標位置情報、および実写画像などのデータである。
ディスプレイ122は、液晶パネルなどからなり、仮想オブジェクトや現実空間の実写画像などを表示する。また、ディスプレイ122は、ユーザへの呈示通知情報や動作状態などの表示内容を画面表示する。
例えば、カメラ部111が撮影する実写画像や仮想オブジェクトの表示に際しては、ヘッドマウント情報処理装置100の全周囲風景を示す全天球画像上の所定の位置に仮想オブジェクトを配置して表示する。また、ディスプレイ122は、複数の現実空間に紐付けられた各々の仮想オブジェクト群を表示画面内にマルチ表示する。
右目視線検出部112は、ユーザの右目の視線を検出する。左目視線検出部113は、ユーザの左目の視線を検出する。なお、視線を検出する処理には、アイトラッキング処理として一般的に用いられている周知技術を利用すればよい。
例えば、角膜反射を利用した方法では、赤外線LED(Light Emitting Diode)を顔に照射して赤外線カメラで撮影し、赤外線LED照射でできた反射光の角膜上の位置(角膜反射)を基準点とし、角膜反射の位置に対する瞳孔の位置に基づいて視線を検出する技術が知られている。
加速度センサ143は、単位時間当たりの速度の変化である加速度を検出するセンサであり、動き、振動、および衝撃などを捉えることができる。ジャイロセンサ144は、回転方向の角速度を検出するセンサであり、縦、横、斜めの姿勢の状態を捉えることができる。よって、加速度センサ143およびジャイロセンサ144を用いて、ヘッドマウント情報処理装置本体100を装備しているユーザの頭部の動きを検出することができる。
地磁気センサ145は、地球の磁力を検出するセンサであり、ヘッドマウント情報処理装置本体100の向いている方向を検出する。地磁気センサ145は、前後方向と左右方向に加え上下方向の地磁気も検出する3軸タイプを用い、頭部の動きに対する地磁気変化を捉まえることにより、頭部の動きを検出することも可能である。
これらのセンサにより、ユーザが装着しているヘッドマウント情報処理装置100の動きや変動を詳しく検出することができる。
深度センサ142は、物体までの距離を面で測定する。深度センサ142は、例えば、赤外線やレーザなどの反射を利用したものがあるが、取り付け位置の異なる複数のカメラで撮影した画像の視差から距離情報を得るなど、他の方式で実現してもよい。
制御部125は、深度センサ142で取得した距離情報を解析することにより、手の動き、および身体の動きを検出することが可能である。手の動き、および身体の動きの解析には、カメラ部111で撮影された画像から得られる情報を合わせて使用してもよい。
刺激発生部146は、制御部125の制御によって皮膚で知覚できる刺激を発生させる。刺激発生部146は、ヘッドマウント情報処理装置100で発信されたユーザへの通知情報を皮膚で知覚できる刺激に変換する。
皮膚で知覚できる刺激には、圧力、温感、冷感、あるいは電気刺激などがある。刺激発生部146は、密接装着されているユーザの頭部における皮膚で知覚できる刺激を発生させることにより、ユーザへの通知を確実に伝えることができる。
振動発生部117は、制御部125の制御によって振動を発生させるものであり、例えばバイブレータ、ハプティクス、あるいはフォースフィードバックなどからなる。振動発生部117は、ユーザへの通知情報を振動に変換する。振動発生部117は密接装着されているユーザ頭部で振動を発生させることにより、ユーザへの通知を確実に伝えることができる。
外周音マイク118および発声音マイク119は、外部からの音声やユーザ自身の発声を集音する。発声音マイク119は、骨伝導マイクなどの音声入力デバイスであってもよい。
ヘッドフォン120は、ユーザの耳部に装着され、ユーザへの音声を聞き取るものであり、ユーザに通知情報を音声で知らしめることができる。ヘッドフォン120は、スピーカあるいは骨伝導イヤホンなどの音声出力デバイスであってもよい。
操作入力インタフェース121は、例えばキーボードやキーボタン、あるいはタッチパッドなどからなり、ユーザが入力したい情報を設定入力する。操作入力インタフェース121は、ユーザが入力操作を行いやすい位置に設ければよい。
操作入力インタフェース121は、ヘッドマウント情報処理装置100の本体から分離し有線または無線などで接続する形態であってもよい。ヘッドマウント情報処理装置100から分離した入力操作装置の例としては、空間マウスあるいはコントローラ装置などがある。
空間マウスは、ジャイロセンサや加速度センサなどを用いた3次元空間位置入力装置である。コントローラ装置は、身体を映したカメラ映像や、コントローラ装置に内蔵した各種センサ情報などから身体に装着したコントローラ自身の空間位置を検出して入力する。
操作入力インタフェース121は、ディスプレイ122の表示画面に入力操作画面を表示させて、右目視線検出部112および左目視線検出部113により検出した視線が向いている入力操作画面上の位置により入力操作情報を取り込むようにしてもよい。
操作入力インタフェース121は、ポインタを入力操作画面上に表示させ操作入力インタフェース121によりポインタを操作して入力操作情報を取り込んでもよい。また、操作入力インタフェース121は、ユーザが入力操作を示す音声を発声し、発声音マイク119で集音して入力操作情報を取り込んでもよい。
このように入力操作に発声や表示を用いることにより、頭部に装着されているヘッドマウント情報処理装置の使い勝手を一層向上させることが可能である。
以上の構成により、操作入力インタフェース121にて入力された仮想オブジェクト表示を指示する仮想オブジェクト表示要求指示に応じて、第1の現実空間と異なる現実空間に紐付けて配置される仮想オブジェクト群、例えば第2の現実空間に紐付けて配置される第2の仮想オブジェクト群を第1の現実空間に重ねて表示したり、あるいは切り替えて表示することができる。
また、第1の現実空間の視野位置において、他の現実空間にある仮想オブジェクト群を含めた全ての仮想オブジェクト群を表示することにより、他の現実空間にある仮想オブジェクトの閲覧や操作を容易にすることができる。さらに、仮想オブジェクト群が多数ある場合には、目的の仮想オブジェクトがどの現実空間にあったかが分からなくなるようなことを解消することができる。
また、見ている現実空間を移動することなく、別の現実空間に配置された仮想オブジェクトを操作することが可能となる。例えば、現実空間Aの壁に仮想オブジェクトとしてカレンダーを配置している状態で、別の現実空間Bで予定を確認あるいは予定を書き込む場合、ユーザは、現実空間Aまで移動することなく、仮想オブジェクトのカレンダーを閲覧、操作することができる。
この例は、仮想オブジェクトであるカレンダーに対する変形操作であり、仮想オブジェクト変形操作処理部156によって処理される。仮想オブジェクト変形操作処理部156による変形操作の結果は、元のオブジェクトに反映されるため、例えば、現実空間Bから現実空間Aの壁のカレンダーに変形操作として予定Zを書き込むと、実際の現実空間Aで壁のカレンダーを見ても書き込んだ予定Zを視認することができる。
〈ヘッドマウント情報処理装置の動作例〉
続いて、ヘッドマウント情報処理装置100の動作について説明する。
図2は、図1のヘッドマウント情報処理装置100における使用状況の周囲全景の一例を示す説明図である。図3は、図1のヘッドマウント情報処理装置100による仮想オブジェクト群の一覧表示の一例を示す説明図である。図3は、図2に示す使用状況の周囲全景において、一覧表示した仮想オブジェクト群をディスプレイ122の表示画面内に収めて配置させた際の表示例を示したものである。
図2において、ヘッドマウント情報処理装置100を装着しているユーザ200は、第1の部屋201の中央に位置しており、後方の出入口ドア202と逆の方向203を見ている状態である。
ユーザ200の前方正面側には、机204およびパソコン205が置かれており、ユーザ200の背面側には、本棚206が置かれている。仮想オブジェクト211~213は、第1の仮想オブジェクト群であり、仮想オブジェクト生成処理部155により生成される。
仮想オブジェクト211は、ユーザ200の前方正面に配置されている。仮想オブジェクト212は、机204の右側に配置されている。仮想オブジェクト213は、ユーザ後方の本棚206の右側に配置されている。
図2に示す第1の部屋201の周囲全景状態において、ユーザ200は、第1の部屋201の方向203に映される第1の現実空間を直接目視して、あるいはカメラ部111にて撮影した現実画像をディスプレイ122にて表示して視認する。
第1の仮想オブジェクト群の視認については、図3に示すように、各々の仮想オブジェクト211~213を一覧表示する。この一覧表示は、カメラ部111が撮影する全天球画像をディスプレイ122の表示画面上に投影して反映し、投影反映した全天球画像に全ての仮想オブジェクトを表示する。このとき、仮想オブジェクト211~213は、それぞれ所定の位置に配置される。
表示制御部151は、データ管理部152が読み出したデータに基づいて、仮想オブジェクト211~213をディスプレイ122に表示する。データ管理部152は、メモリ124に情報データ127として記録されている仮想オブジェクト211~213の形状データおよび配置座標データを読み出して表示制御部151に出力する。その際、仮想オブジェクト姿勢操作処理部154は、必要に応じて仮想オブジェクトの姿勢操作を行う。
これにより、周囲全景に存在する全ての仮想オブジェクトを存在位置とともに、視認することができる。
なお、図3の点線にて示した部分は、実写物体であり、実写物体と仮想オブジェクトとの位置関係を分かりやすく示すためのものである。よって、この点線にて示す実写物体については、表示を行わなくてもよい。
図4は、図3の仮想オブジェクト群の一覧表示の他の例を示す説明図である。図4は、点線にて示す実写物体を表示せずに仮想オブジェクト211~213のみを表示している例を示している。
図5は、図4の仮想オブジェクト群の一覧表示の他の例を示す説明図である。周囲全景に存在する全ての仮想オブジェクトを表示させる際には、図5に示すように、図3の点線で示した机204、パソコン205、および本棚206という実写物体を背景画像として表示してもよい。これにより、現実空間の机204、パソコン205、および本棚206と、仮想オブジェクト211~213との位置関係をより認識しやすくすることができる。
例えば、図2に示したように仮想オブジェクト213が背面の本棚206の右側上方にある場合、仮想オブジェクト213の左側下方に背景画像として本棚206が表示されていれば、仮想オブジェクト位置を認識しやすくできる。
以上は、表示制御部151が仮想オブジェクトなどの表示用データを生成し、ディスプレイ122に表示させる。表示制御部151は、メモリ124から情報データ127に含まれるオブジェクトの形状や表示位置などのデータ、およびカメラ部111が撮影した背景映像や映像加工部153が生成したデータなどを読み込み、読み込んだデータから表示データを生成する。
また、仮想オブジェクト姿勢操作処理部154は、必要に応じて仮想オブジェクトの姿勢操作を行い、画面上の対応した位置に仮想オブジェクトが表示されるように表示位置、大きさ、および形状などを調整する。この調整は、仮想オブジェクト姿勢操作処理部154がメモリ124に記録されているプログラム126の命令に基づいて実行される。
なお、全周囲風景を示す全天球画像は、一度に全天球の画像を撮影できる全立体角全天球カメラを使用して取得してもよい。あるいは、通常画角のカメラで撮影した複数の画像を映像加工部153でつなぎ合わせて生成してもよい。
また、風景画像の表示は、取得できた一部の範囲だけの画像を用いてもよい。例えば、全立体角の上半分の半球画像など、全天球でなく一部の範囲の画像でほぼ全ての仮想オブジェクトの存在を視認可能な場合である。
図6は、図1のヘッドマウント情報処理装置100における使用状況の一例を示す説明図である。図7は、図6の周囲全景例における一覧表示させた仮想オブジェクト群の表示画面の一例を示す説明図である。
図6は、ヘッドマウント情報処理装置100を装着しているユーザ200が第2の部屋401の出入口ドア402付近に位置しており、第2の部屋401の室内方向403を見ている状態を示している。また、ユーザ200の前方正面側には、テレビ台404およびテレビ405が設置されている。ユーザ200から見て右側の壁には、棚406が設置されている。
仮想オブジェクト生成処理部155が生成する第2の仮想オブジェクト群は、仮想オブジェクト411~413からなる。図7において、仮想オブジェクト411は、テレビ405の後方上側に位置している。仮想オブジェクト412は、テレビ405の後方右側に位置している。仮想オブジェクト413は、出入口ドア402の左側壁近傍に位置している。
図6に示した第2の部屋401の周囲全景において、ユーザ200は、室内方向403に映される第2の現実空間を直接目視して、あるいはカメラ部111にて撮影した現実空間の画像をディスプレイ122で表示して視認する。
第2の仮想オブジェクト群の視認については、図7に示すように、全周囲風景を示す全天球画像をディスプレイ122の表示画面上に投影して反映し、投影反映された全天球画像にて所定の位置に各仮想オブジェクト411~413を配置して一覧表示する。
これにより、図3の場合と同様に、周囲全景に存在する全ての仮想オブジェクトの存在を、存在位置とともに視認することができる。また、全周囲全景に存在する全ての仮想オブジェクトを表示させる際には、図7の点線で示したテレビ台404、テレビ405、棚406という実写物体を背景画像として表示してもよい。
これにより、現実空間と仮想オブジェクトとの位置関係を認識しやすくすることができる。なお、ディスプレイ122に表示処理については、図3と同様であるので、説明は省略する。
図8は、図6の使用状況の他の例を示した説明図である。図9は、図8の周囲全景例における一覧表示させた仮想オブジェクト群の表示画面の一例を示す説明図である。図8においては、ヘッドマウント情報処理装置100を装着しているユーザ200が第3の部屋601内の中央に位置しており、出入口ドア602を背後に左横の方向603に見ている状態を示している。
ユーザ200の前方正面には、ボード604が位置しており、ユーザ200の右側には、窓605が位置している。また、窓605の右横には、時計606が配置されている。
仮想オブジェクト生成処理部155が生成する第3の仮想オブジェクト群は、仮想オブジェクト611~613からなる。図8において、仮想オブジェクト611は、ボード604の左側に位置しており、仮想オブジェクト612は、窓605の上方に位置している。仮想オブジェクト613は、ユーザ200の後方に位置している。
図8に示した第3の部屋601内の周囲全景状態において、ユーザ200は、方向603に映される第3の現実空間を直接目視して、あるいはカメラ部111にて撮影した現実空間の画像をディスプレイ122で表示して視認する。
第3の仮想オブジェクト群の視認については、図9に示すように、全周囲風景を示す全天球画像をディスプレイ122の表示画面上に投影して反映し、投影反映された全天球画像にて存在する位置に各仮想オブジェクト611~613を配置して、全ての仮想オブジェクト611~613を一覧表示する。
これにより、図3、図7の場合と同様に、周囲全景に存在する全ての仮想オブジェクトの存在を、存在位置とともに視認することができる。また、全周囲全景に存在する全ての仮想オブジェクトを表示させる際には、図9の点線で示したボード604、窓605、および時計606などの実写物体を背景画像として表示してもよい。
これにより、現実空間と仮想オブジェクトとの位置関係を認識しやすくすることができる。なお、ディスプレイ122に表示処理については、図3と同様であるので、説明は省略する。
図10は、図1のヘッドマウント情報処理装置による仮想オブジェクト群の表示の一例を示す説明図である。図3、図7、および図9に示した例では、各々の現実空間に紐付けられて配置された仮想オブジェクト群を各々の現実空間で視認するものであった。しかし、これらの例では、今映している現実空間とは別の現実空間に紐付けられて配置された仮想オブジェクト群を今映している現実空間で視認することができない。
図10では、各々の現実空間の視野位置のまま、各々の現実空間に紐付けられて配置された各々の仮想オブジェクト群をディスプレイ122の表示画面に重ねて配置した表示例について説明する。
図10において、図3、図7、図9に示され同一の符号を付された部分は、図3、図7、図9で既に説明した動作と同一の動作を有するので、それらの詳細説明は省略する。
図10は、現在映している第1の現実空間において、第1の現実空間に紐付けられて配置されている第1の仮想オブジェクト群に加え、第2の現実空間に紐付けられて配置される第2の仮想オブジェクト群と、第3の現実空間に紐付けられて配置される第3の仮想オブジェクト群とをディスプレイ122の表示画面内に重ねて表示した状態を示している。
第1の仮想オブジェクト群は、仮想オブジェクト211,212,213からなる。第2の仮想オブジェクト群は、仮想オブジェクト411,412,413からなる。第3の仮想オブジェクト群は仮想オブジェクト611,612,613からなる。
図10に示すように、別の現実空間に配置された仮想オブジェクト411~413,611~613を現在いる現実空間に配置して重ねて表示することにより、別の現実空間に紐付けられ配置された仮想オブジェクトをも全て、現実空間を切り替えることなく視認することができる。
これにより、現実空間および仮想オブジェクト群が多数あっても、全ての仮想オブジェクトが表示されている表示画面の中から所望の仮想オブジェクトを簡単に視認することができる。さらに、選択した仮想オブジェクトの修正などの所望の操作を容易に行うことが可能となる。その結果、使い勝手を向上することができる。
以上の動作は、表示制御部151がディスプレイ122に表示するものである。また、仮想オブジェクト姿勢操作処理部154は、必要に応じて仮想オブジェクトの姿勢操作を行う。
仮想オブジェクト姿勢操作処理部154は、メモリ124に格納されるプログラム126の命令に従い、画面上の対応した位置に仮想オブジェクトが表示されるように表示位置および大きさ、形状などを調整する。表示制御部151は、仮想オブジェクト姿勢操作処理部154が調整したデータから表示データを生成してディスプレイ122に表示させる。
図11は、図10の仮想オブジェクト群の表示の他の例を示す説明図である。図11では、ディスプレイ122の表示画面内に表示された仮想オブジェクトがほぼ同じ座標位置に配置され、仮想オブジェクトが重複して表示される例を示している。
図11において、図2、図3、図6、図7、図8、図9、図10に示され同一の符号を付された部分は、図2、図3、図6、図7、図8、図9、図10で既に説明した動作と同一の動作を有するので、それらの詳細説明は省略する。
図10に示す仮想オブジェクト212,412は、ほぼ同じ座標位置に重複して配置された仮想オブジェクトであり、重複することによって視認性が低下する。そこで、重複して表示される仮想オブジェクト212,412を、図11に示すように仮想オブジェクト901、902を重複しない座標位置にずらして表示する。
また、元々の仮想オブジェクト212、412が配置されていた座標位置には、印903を表示するとともに、座標位置をずらして配置表示された仮想オブジェクト901,902と印903との間は、仮想ライン904,905にて繋いで表示する。
このように、ほぼ同じ位置に重複して配置表示された仮想オブジェクトをずらして表示することにより、仮想オブジェクトが重複することなく表示することができる。また、印903を表示させることにより、仮想オブジェクトの元々の配置されていた位置を容易に認識することができる。さらに、仮想ライン904,905を表示することによって、仮想オブジェクトの視認性を一層向上させることができる。
また、仮想オブジェクトは、表示位置をずらすのではなく、同じ位置に重複して配置表示される仮想オブジェクトを半透明、すなわち透過画像として表示するようにしてもよい。
以上の動作は、表示制御部151がディスプレイ122に表示するものである。また、仮想オブジェクト姿勢操作処理部154は、必要に応じて仮想オブジェクトの姿勢操作を行う。
仮想オブジェクト姿勢操作処理部154による姿勢操作は、対応した位置に仮想オブジェクトが表示されるように表示位置、大きさ、および形状などをメモリ124に格納されているプログラム126に基づいて調整する。
以降、特別に記載のない場合、ディスプレイ122への仮想オブジェクトの表示は同様の処理を行うものとする。
また、仮想オブジェクト群の表示は、ユーザが重畳表示される仮想オブジェクト212,412(図10)から所望の仮想オブジェクトを選択し、選択した仮想オブジェクトに紐付けられて配置されている現実空間に、同様に紐付けられている仮想オブジェクト群のみを表示するようにしてもよい。その場合、別の仮想空間に紐付けられて配置されている仮想オブジェクト群は非表示にする。
これにより、所望の仮想オブジェクトと同じ現実空間に紐付けられて配置された仮想オブジェクト群の中から、さらに次の所望の仮想オブジェクトを選択する場合に容易に選択を可能にすることができる。
〈仮想オブジェクト群の切り替え表示例〉
図12は、図1のヘッドマウント情報処理装置100による仮想オブジェクト群の切り替え表示の一例を示す説明図である。図12において、図2、図3、図6、図7、図8、図9、および図10に示され同一の符号を付された部分は、図2、図3、図6、図7、図8、図9、および図10で既に説明した動作と同一の動作を有するので、それらの詳細説明は省略する。
図12では、図11に示したように全ての仮想オブジェクトを重ねて表示するのでなく、各々の現実空間に紐付けられて配置された仮想オブジェクト群を順次切り替えて表示する例を示している。
表示画面1001は、最初に第1の現実空間に紐付けられて配置される第1の仮想オブジェクト群を表示する表示画面である。表示画面1002は、第2の現実空間に紐付けられて配置される第2の仮想オブジェクト群を表示する表示画面である。
表示画面1003は、第3の現実空間に紐付けられて配置される第3の仮想オブジェクト群を表示する表示画面である。表示画面1004は、第1~第3の現実空間と異なる他の現実空間に紐付けられ配置された仮想オブジェクト群がある場合に表示される表示画面である。これら表示画面1001~1004は、順次切り替えてディスプレイ122に表示される。
これにより、全ての仮想オブジェクト群を一度に視認するのでなく、各々の現実空間に紐付けられて配置される仮想オブジェクト群のみを順次順番に視認することができる。その結果、各々の仮想オブジェクト群の中から所望の仮想オブジェクトを効率よく視認することができ、視認性をより一層向上させることが可能となる。
また、仮想オブジェクト群の切り替え表示は、例えば操作入力インタフェース121からスワイプなどの入力操作により、視認しやすい一定の時間ごとに切り替えて表示するようにしてもよい。これにより、仮想オブジェクトの視認性をさらに高めることができる。
一定時間ごとの仮想オブジェクトの切り替え表示において、より時間をかけて詳しく視認したい場合あるいは逆に短時間で次の画面に切り替えたい場合には、操作入力インタフェース121の操作入力により、見ている仮想オブジェクト群の視認時間の増減を変化させるようにすればよい。
表示画面1001,1002,1003の表示に際しては、仮想オブジェクト群だけでなく、仮想オブジェクト群に対応する現実空間の実写画像を背景として表示するようにしてもよい。
この場合、実写画像の背景を表示することにより、仮想オブジェクトの認識を容易にすることが可能になる。なお、実写背景は、図1のカメラ部111にて撮影して、メモリ124に保存しておけばよい。カメラ部111の画角が狭い場合は、個々に撮影した画像をつなぎ合わせて使用してもよい。
〈仮想オブジェクトの拡大縮小および姿勢操作〉
続いて、ヘッドマウント情報処理装置100による仮想オブジェクトの拡大縮小および姿勢操作の動作について説明する。図13は、図1のヘッドマウント情報処理装置による仮想オブジェクトの拡大縮小および姿勢操作の一例を示す説明図である。図14は、図13の他の例を示す説明図である。
図13および図14において、図2、図3、図6、図7、図8、図9、図10に示され同一の符号を付された部分は、図2、図3、図6、図7、図8、図9、図10で既に説明した動作と同一の動作を有するので、それらの詳細説明は省略する。
図13は、一覧表示された仮想オブジェクト211~213,411~413,611~613の中から、小さくて見づらい仮想オブジェクト612を選択して、選択した仮想オブジェクト612の視認性を高める例を示している。
この場合、仮想オブジェクト姿勢操作処理部154は、仮想オブジェクト612の形状を拡大させる操作を行い、拡大させた仮想オブジェクトを手前の予め定められる位置に移動させて配置し、仮想オブジェクト1101として表示させる。その際、表示画面内の背景部分には、全ての仮想オブジェクト211~213,411~413,611~613の一覧表示を残したままとする。
あるいは、仮想オブジェクト姿勢操作処理部154は、仮想オブジェクト612を残さずに手前に移動させて拡大操作を行うようにしてもよい。予め定めた位置は、視認しやすい位置を初期値として設定する。この初期値は、予め例えばメモリ124に格納される。
また、初期値は、ユーザが操作入力インタフェース121によって入力した設定情報を制御部125がメモリ124に書き込むことによって設定するようにしてもよい。例えば、身体の正面の手の稼動範囲部分を予め定めた位置である初期値として設定することによって、仮想オブジェクトを視認しやすく、姿勢操作および変形操作もしやくなる。
予め定めた位置に仮想オブジェクトを移動させる操作は、ユーザが操作入力インタフェース121を用いて任意の仮想オブジェクトを選択することにより、自動で移動配置するようにしてもよい。あるいは、選んだオブジェクトを引き寄せるような自然な操作により手動で配置してもよい。また、配置する際に、ユーザが操作入力インタフェース121を用いて拡大率を決定する操作を行い、拡大率を変更してもよい。
以上の動作は、操作入力インタフェース121から入力したユーザ操作に従って、制御部125が仮想オブジェクト姿勢操作処理部154などを制御する。仮想オブジェクト姿勢操作処理部154は、選択されたオブジェクトの形状や表示位置の情報を変更する。
表示制御部151は、メモリ124に記憶されているオブジェクトの形状、表示位置などの情報データ127を読み込んでディスプレイ122に表示する。
これにより、一覧表示では小さくて見にくかった仮想オブジェクトをよりはっきりと視認することができる。選択した仮想オブジェクトは、制御部125の制御により、視認確認した後に表示画面内の背景部分の配置操作前の元の位置に戻される。この動作は、視認確認終了操作後に自動で行われる。
引き続き、別の仮想オブジェクトを選択して手前に移動させて配置する操作を行う場合には、前に選択された仮想オブジェクトが元の位置に戻り、元々の仮想オブジェクトの一覧表示画像が背景として残る。これによって、次の仮想オブジェクトの配置操作、視認確認を容易にすることができる。
全天球画像に仮想オブジェクトを配置する表示では、全ての仮想オブジェクト群の存在を視認することができるが、仮想オブジェクトの全体の形状を視認しにくい場合がある。
そこで、ディスプレイ122の表示画面内に配置された視認しにくい仮想オブジェクトに対しては、仮想オブジェクト姿勢操作処理部154にて仮想オブジェクトの全体形状が視認しやすいように仮想オブジェクトの姿勢を操作して表示する。
例えば、図14に示す仮想オブジェクト411は、本来立方体の形状であるが、全天球画像の表示形状では立方体と視認特定できない表示形状となる。仮想オブジェクト姿勢操作処理部154は、仮想オブジェクト411をまずは姿勢操作しやすい手前の表示位置に拡大させながら移動させる。
その後、仮想オブジェクト姿勢操作処理部154は、移動後の仮想オブジェクト411を3次元的回転動作含めて回転させて、全体形状が視認しやすい表示形状に姿勢操作することにより、仮想オブジェクト1201にて示した表示形状に変換して表示する。
仮想オブジェクト1201を視認確認した後は、仮想オブジェクト1201を仮想オブジェクト411として配置操作前の元の位置に戻してもよい。
このように、仮想オブジェクト姿勢操作処理部154が、全体形状が視認しにくい仮想オブジェクトを姿勢操作して、全体形状が視認特定可能な表示形状の仮想オブジェクトに変換することにより、仮想オブジェクトの全体形状および全容を的確に視認把握することが可能となる。
全体形状を視認しやすい表示形状で表示する動作は、ユーザによる姿勢操作を行うことなく、例えば予めメモリ124などに記憶された表示形状によって表示してもよい。全体形状が視認しやすい表示形状は、予め仮想オブジェクト生成時の雛形となる形状データに、そのオブジェクトの視認しやすい向き、大きさ、および色などの情報を姿勢情報としてメモリ124に記録しておき、その姿勢情報を生成された仮想オブジェクトに引き継いで使用してもよい。また、ユーザが仮想オブジェクト毎に姿勢情報を指定してメモリ124に記憶して、表示時に使用してもよい。
〈仮想オブジェクトの変形操作〉
さらに、仮想オブジェクト変形操作処理部156は、仮想オブジェクトの変形操作を行うことができる。仮想オブジェクト変形操作処理部156は、メモリ124に記憶されている仮想オブジェクトの形状および表示位置を読み込んで、選択した仮想オブジェクトの形状および表示位置の情報を変更し、変更した情報をメモリ124に書き込む。仮想オブジェクトの形状は、向き、大きさ、角度などを含む。
表示制御部151は、メモリ124に書き込まれた情報を読み込み、その情報に基づいて変形操作された仮想オブジェクトをディスプレイ122に表示する。
仮想オブジェクト変形操作処理部156による変形操作の結果は、元の仮想オブジェクトの表示状態にも反映される。変形操作によりオブジェクトの向きを変えた場合は、仮想オブジェクト自身の向きが変わるため、現実空間の風景に重ねて仮想オブジェクトを表示する。例えば図2、図6、および図8に示す通常表示状態においても、仮想オブジェクトは変形操作後の向きで表示される。
変形操作時には、変形前の元の仮想オブジェクトの向きや大きさなどを含む形状を半透過で表示する、あるいは視野内の変形操作に用いない場所に表示するなどにより、変形前の元の仮想オブジェクトと変形後の仮想オブジェクトの向き、大きさなどを含む形状との差分を分かりやすく表示してもよい。
仮想オブジェクトに対して、姿勢操作と変形操作のいずれを行うかについては、例えばヘッドマウント情報処理装置100に設けられる図示しない操作モード切り替えボタンなどによって操作前に指定する。
姿勢操作と変形操作とを組み合わせて、仮想オブジェクトを姿勢操作により拡大して見やすくした後に、変形操作を行ってもよい。また、姿勢操作により仮想オブジェクトに適用した回転、拡大、および縮小などの操作を変形操作に適用してもよい。
〈他の現実空間の仮想オブジェクト群の表示例〉
続いて、今いる現実空間から他の現実空間に紐付けられて配置されている全ての仮想オブジェクト群を表示する場合の動作を図15~図18を用いて説明する。
図15~図18において、図2、図3、図6、図7、図8、図9、図10に示され同一の符号を付された部分は、図2、図3、図6、図7、図8、図9、図10で既に説明した動作と同一の動作を有するので、それらの詳細説明は省略する。
図15は、複数の現実空間における全ての仮想オブジェクトを見る場合の周囲全景の一例を示す説明図である。
図15において、ヘッドマウント情報処理装置100を装着しているユーザ200は、図2の場合と同様、第1の部屋201の中央に位置しており、出入口ドア202と逆の方向203を見ている状態となっている。
また、第1の部屋201には、机204、パソコン205、および本棚206が置かれている。第1の部屋201には、仮想オブジェクト生成処理部155にて生成された第1の仮想オブジェクト群として、図2と同様に、仮想オブジェクト211、212、213がそれぞれ配置されている。
第1の部屋201の左隣には、第2の部屋401が配置されており、第1の部屋201の右隣には、第3の部屋601が配置されている。第2の部屋401には、テレビ台404、テレビ405、および棚406が置かれている。
第2の部屋401には、仮想オブジェクト生成処理部155にて生成された第2の仮想オブジェクト群として、図6と同様に仮想オブジェクト411、412、413がそれぞれ配置されている。
第3の部屋601には、ボード604、窓605、および時計606がそれぞれ配置されており、図8と同様に仮想オブジェクト生成処理部155にて生成された第3の仮想オブジェクト群として、仮想オブジェクト611、612、613がそれぞれ配置されている。
図16は、図15の後方の出入口ドア202と逆の方向203から見た状態における仮想オブジェクトの表示の一例を示す説明図である。図16に示すように、部屋壁など現実空間を仕切るものを透かして、別の現実空間に紐付けられて配置されている仮想オブジェクト411~413,611~613を表示画面内に表示する。
これにより、現実空間に拘らず全ての仮想オブジェクト211~213,411~413,611~613を容易に視認することが可能となり、所望の仮想オブジェクトの選択に当たり使い勝手の向上を実現することができる。
仮想オブジェクトは、その表示位置によって、仮想オブジェクトが紐付けられて配置されている現実空間を容易に認識することができるように表示されている。
例えば図16において、仮想オブジェクト611~613は、表示画面の右側に位置して表示されており、これにより、図15の第3の部屋601に紐付けられて配置されている仮想オブジェクト群であることを容易に認識することができる。
同様に、仮想オブジェクト411~413は、表示画面の左側に位置して表示されており、これにより、図15の第2の部屋401に紐付けられて配置されている仮想オブジェクト群であることを容易に認識することができる。
図17は、図16の仮想オブジェクトの表示の他の例を示す説明図である。ここで、図16に示した表示例では、別の部屋すなわち別の現実空間が遠くにあると、その現実空間に紐付けられて配置される仮想オブジェクト群が小さく表示されてしまい、視認がしにくくなる恐れがある。
そのような場合には、仮想オブジェクト411~413を拡大して、仮想オブジェクト1514~1516として表示する。同様に、仮想オブジェクト611~613を拡大して、仮想オブジェクト1511~1513として表示する。
仮想オブジェクト姿勢操作処理部154は、仮想オブジェクト411~413,611~613に対して形状拡大の操作をそれぞれ行い、拡大した仮想オブジェクト1511~1516を生成する。
これにより、小さくて見にくい仮想オブジェクトをよりはっきりと視認することができる。なお、仮想オブジェクト姿勢操作処理部154による仮想オブジェクトの形状拡大操作に際しては、扱いやすく見やすい大きさに拡大すればよい。
また、仮想オブジェクト1511については、前述の予め指定された姿勢情報に基づき、図16の仮想オブジェクト411を全体形状が視認しやすい表示形状に表示を行っている。ユーザの指定により、一部の仮想オブジェクト、もしくは仮想オブジェクト全数を、全体形状が視認しやすい表示形状で表示してもよい。
図16に示したように、今いる現実空間から別の現実空間をさえぎり仕切る部屋壁などを透かして全ての仮想オブジェクトを表示することにより、選択した仮想オブジェクトが紐付けられて配置されている現実空間の特定を容易にすることができる。
図18は、図16の仮想オブジェクト群の一覧表示の他の例を示す説明図である。図18は、図10の表示から図16の表示に移行した際の表示例を示している。仮想オブジェクト611a、612a、613aは、図10に示す仮想オブジェクトである。仮想オブジェクト611b,612b,613bは、図10の表示例から図16の表示例に移行した際の仮想オブジェクトである。
すなわち図10の表示から図16の表示に移行すると、図18に示すように、仮想オブジェクト611a、612a、613aが、仮想オブジェクト611b,612b,613bとして表示画面右側部分に集まるように移動する。
これによって、これら仮想オブジェクト611b,612b,613bが、第1の部屋201の画面右側に位置する第3の部屋601の第3の現実空間に紐付けられて配置された仮想オブジェクトであることを容易に認識することができる。
この表示移行に際しては、ユーザが目で追える速度などゆっくりと少しずつ移行させることにより、移動する仮想オブジェクト群がどの現実空間に紐付けられて配置された仮想オブジェクトであるかを確実に視認できる。
図18では、任意の仮想オブジェクト群を移動させる例を説明したが、全ての仮想オブジェクトを一斉に移動させるようにしてもよい。また、選択した1つあるいは複数の仮想オブジェクトのみを動かして表示し、選択していない他の仮想オブジェクトについては非表示にしてもよい。
続いて、各々の現実空間に紐付けられて配置されている仮想オブジェクト群をマルチ表示する場合について説明する。
図19は、図1のヘッドマウント情報処理装置によるマルチ表示画面の一例を示す説明図である。図19は、図3、図7、および図9に示した表示画面を縮小して、ディスプレイ122の表示画面にマルチ表示する例を示したものである。
図17において、図2、図3、図6、図7、図8、図9、図10に示され同一の符号を付された部分は、図2、図3、図6、図7、図8、図9、図10で既に説明した動作と同一の動作を有するので、それらの詳細説明は省略する。
図19において、ディスプレイ122の表示画面には、左上方から順に表示画面1701、表示画面1702、表示画面1703、および表示画面1704がそれぞれ表示されている。
表示画面1701には、第1の現実空間に紐付けられて配置される第1の仮想オブジェクト群が表示されている。表示画面1702には、第2の現実空間に紐付けられて配置される第2の仮想オブジェクト群が表示されている。表示画面1703には、第3の現実空間に紐付けられて配置される第3の仮想オブジェクト群が表示されている。表示画面1704には、第4の現実空間に紐付けられて配置される第4の仮想オブジェクト群が表示されている。
第4の仮想オブジェクト群を表示する表示画面1704では、ビル群、車、人間などの風景からなる第4の現実空間に対し、仮想オブジェクト1705,1706が紐付けられ配置されている。
所望の仮想オブジェクトを選択する場合、ユーザは、図19に示した各現実空間に紐付けられて配置された仮想オブジェクト群を縮小して並べてマルチ表示した表示画面1701~1704を検索する。その後、選択した仮想オブジェクトが存在する表示画面を通常のフル表示画面に変えて、所望の仮想オブジェクトを視認しやすい状態にする。
これにより、各々の現実空間に紐付けられ配置された仮想オブジェクト群を表示するマルチ表示画面から、容易に所望の仮想オブジェクトが配置されている現実空間を選ぶことができる。さらに、選択した仮想オブジェクトが紐付けられ配置された仮想オブジェクト群のみを表示して、所望の仮想オブジェクトを見やすい状態で視認することが可能となる。
なお、図19では、4つの表示画面を表示する4マルチ表示としたが、マルチ表示方法としては、例えば9マルチ表示、16マルチ表示など、種々のバリエーションがあってもよい。
また、図20に示すように、複数の空間を俯瞰した形状にて並べて表示するようにしてもよい。この場合、映像加工部153が俯瞰した形状の画像の生成を行い、映像加工部153が生成した画像を表示制御部151がディスプレイ122に表示する。これにより、空間をイメージしやすくして所望の仮想オブジェクトが含まれる空間の選択を容易にすることができる。
空間の俯瞰の映像を生成する際には、ユーザ自身のアバターを映像内のユーザが現在いる位置に表示することにより、ユーザ自身が存在している空間を把握しやすくすることができる。
また、表示している複数の空間に他のユーザが存在する場合には、他のユーザが存在している空間上の座標情報を無線通信などにより取得し、俯瞰した空間上の該当する座標位置に表示してもよい。
同様にマルチ表示の画像上にユーザ自身、または他のユーザの存在をアバターや印などによって表示することようにしてもよい。これにより、空間と各ユーザとの位置関係を容易に把握することができる。
ユーザ自身の空間上の位置は、各種センサ情報、例えば深度センサで得られる壁までの距離やカメラ部111の撮影画像などを用いて特定することができる。表示するアバターの画像は、予め情報データ127としてメモリ124に記録する。そして、映像加工部153が、メモリ124に格納された情報データ127を用いて空間の映像に合成する。
他のユーザの座標情報は、他のユーザが身に付けている情報端末の各種センサやカメラなどから取得し、情報端末が有する通信インタフェースから送信する。ヘッドマウント情報処理装置100は、通信インタフェース1804によって直接座標情報を受信する。あるいは、図示しないサーバを経由してヘッドマウント情報処理装置100が座標情報を受信してもよい。
図2~図19では、ユーザが存在する現実空間に対して仮想オブジェクトが配置されている状態を例に説明したが、VRなどのユーザが扱う空間自体が仮想空間であり、仮想空間に対して仮想オブジェクトが配置されている場合においても同様の操作が可能である。
また、仮想オブジェクトは、リマインダなどとして活用することができる。仮想オブジェクト生成処理部155は、現在いる空間以外の空間に仮想オブジェクトを生成することができる。
この機能を利用することによって、リマインダとして使用することができる。例えば、リビングに居ながら玄関に傘の仮想オブジェクトを仮想オブジェクト生成処理部155が生成して配置しておくことで、出かける際に傘を忘れないためのリマインダとなる。
なお、ユーザによる操作入力インタフェース121による要求指示、ヘッドマウント情報処理装置100による操作操作動作、および表示動作などを示す情報などは、ディスプレイ122にて表示するようにしてもよい。
あるいは、前述した情報は、ヘッドフォン120から音声でユーザに発声したり、ユーザに密着している振動発生部117にて振動を発生したり、刺激発生部146にて刺激を発生したりして、ユーザに通知するようにしてもよい。
それにより、ユーザにヘッドマウント情報処理装置の稼動状態を確実に知らしめ認識させることができる。
また、ヘッドマウント情報処理装置100で行われる操作や表示の動作の入力操作は、操作入力インタフェース121による入力操作だけではなく、例えばユーザの手などの動きをカメラ部111などで検出し、その動きから入力操作を取り込んでもよい。
以上により、仮想オブジェクトが別の現実空間にあっても、仮想オブジェクトの閲覧や操作を容易に行うことができる。
(実施の形態2)
〈ヘッドマウントディスプレイシステムの構成例〉
図21は、本実施形態2によるヘッドマウントディスプレイシステム1801における構成の一例を示すブロック図である。
ヘッドマウントディスプレイシステム1801は、図21に示すようにヘッドマウント情報処理装置100および仮想オブジェクト生成サーバ装置1802から構成されている。ヘッドマウント情報処理装置100および仮想オブジェクト生成サーバ装置1802は、ネットワーク1803にそれぞれ接続されている。
図21に示すヘッドマウント情報処理装置100は、図1に示した同一符号を付された各機能ブロックの構成に加えて、通信インタフェース1804および送受信アンテナ1805が新たに設けられている。その一方、図21のヘッドマウント情報処理装置100には、仮想オブジェクト生成処理部155が設けられていない。
仮想オブジェクト生成サーバ装置1802は、仮想オブジェクト生成処理部1811、メモリ1812、制御部1813、通信インタフェース1814、および送受信アンテナ1815などから構成されている。仮想オブジェクト生成サーバ装置1802における各機能ブロックは、バス1820を介して相互に接続されている。なお、図21において、図1の実施例と同一処理部分には同じ符号を付しており、それらの説明は省略する。
ヘッドマウントディスプレイシステム1801において、仮想オブジェクト生成サーバ装置1802が有する仮想オブジェクト生成処理部1811は、仮想オブジェクトを生成する。
メモリ1812は、仮想オブジェクト生成処理部1811が生成した仮想オブジェクトを保存する。通信インタフェース1814は、メモリ1812が保存した仮想オブジェクトを送受信アンテナ1815から通信ネットワークであるネットワーク1803を経由してヘッドマウント情報処理装置100に送信する。ヘッドマウント情報処理装置100は、ネットワーク1803を経由して送信された仮想オブジェクトを受信する。
また、図21において、ヘッドマウント情報処理装置100での仮想オブジェクトの表示処理自体は、実施の形態1と同様であるが、仮想オブジェクトの生成をヘッドマウント情報処理装置100とは別装置である仮想オブジェクト生成サーバ装置1802で行うことが前記実施の形態1と異なる。
仮想オブジェクト生成サーバ装置1802において、メモリ1812は、ヘッドマウント情報処理装置100のメモリ124と同様、フラッシュメモリなどの不揮発性半導体メモリである。
メモリ1812は、仮想オブジェクト生成サーバ装置1802の制御部1813が使用する各種プログラムや生成された仮想オブジェクトなど記憶する。通信インタフェース1814は、ネットワーク1803を介してヘッドマウント情報処理装置100と通信を行う通信インタフェースであり、ヘッドマウント情報処理装置100と情報の送受信を行う。
制御部1813は、例えばCPUなどからなり、メモリ1812に記憶格納されているOSや動作制御用アプリケーションなどのプログラムを実行することによって、各機能ブロックを制御し、仮想オブジェクト生成サーバ装置1802全体を制御する。
制御部1813は、仮想オブジェクト生成処理部1811による仮想オブジェクトの生成や、生成された仮想オブジェクトのメモリ1812への保存などを制御する。また、制御部1813は、ヘッドマウント情報処理装置100からの仮想オブジェクトの送信出力要求に応じて、生成された仮想オブジェクトをヘッドマウント情報処理装置100に送信するように制御する。
これにより、仮想オブジェクトをヘッドマウント情報処理装置100でなく、ヘッドマウント情報処理装置100と分離された仮想オブジェクト生成サーバ装置1802が生成することができる。
その結果、取り扱える仮想オブジェクト情報量の大規模化を可能にすることができる。同時に複数の場所で複数のヘッドマウント情報処理装置100に対してそれぞれ要求された仮想オブジェクトを生成して配信することが可能となる。
以上により、同時に複数のヘッドマウント情報処理装置100にて別の現実空間に配置される仮想オブジェクトを容易に視認および操作することができる。
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。
なお、本発明は上記した実施の形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
また、ある実施の形態の構成の一部を他の実施の形態の構成に置き換えることが可能であり、また、ある実施の形態の構成に他の実施の形態の構成を加えることも可能である。また、各実施の形態の構成の一部について、他の構成の追加、削除、置換をすることが可能である。
また、上記の各構成、機能、処理部、処理機能などは、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウエアで実現してもよい。各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリや、ハードディスク、SSD(Solid State Drive)などの記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
100 ヘッドマウント情報処理装置
111 カメラ部
112 右目視線検出部
113 左目視線検出部
117 振動発生部
118 外周音マイク
119 発声音マイク
120 ヘッドフォン
121 操作入力インタフェース
122 ディスプレイ
124 メモリ
125 制御部
140 バス
142 深度センサ
143 加速度センサ
144 ジャイロセンサ
145 地磁気センサ
146 刺激発生部
151 表示制御部
152 データ管理部
153 映像加工部
154 仮想オブジェクト姿勢操作処理部
155 仮想オブジェクト生成処理部
156 仮想オブジェクト変形操作処理部
1801 ヘッドマウントディスプレイシステム
1802 仮想オブジェクト生成サーバ装置
1803 ネットワーク
1804 通信インタフェース
1805 送受信アンテナ
1811 仮想オブジェクト生成処理部
1812 メモリ
1813 制御部
1814 通信インタフェース
1815 送受信アンテナ

Claims (14)

  1. 情報を入力する操作入力インタフェースと、
    現実空間を撮像するカメラ部と、
    前記カメラ部が撮像する実写画像を表示する表示部と、
    前記表示部を制御する制御部と、
    を備え、
    前記制御部は、前記表示部が表示する仮想オブジェクトを生成する仮想オブジェクト生成処理部を有し、
    前記仮想オブジェクト生成処理部は、ユーザが存在する第1の現実空間に紐付けされて配置される第1の仮想オブジェクトおよび前記第1の現実空間と異なる第2の現実空間に紐付けて配置される第2の仮想オブジェクトを生成し、
    前記制御部は、前記操作入力インタフェースから入力される前記第1の仮想オブジェクトおよび前記第2の仮想オブジェクトの表示を指示する仮想オブジェクト表示指示情報に応じて、前記表示部に前記第1の仮想オブジェクトおよび前記第2の仮想オブジェクトを表示させ
    前記制御部は、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとが重複する表示位置を示す表示マーク、および前記表示マークと前記第1の仮想オブジェクトおよび前記第2の仮想オブジェクトとを繋ぐ仮想ラインを生成して前記表示部に表示させる、ヘッドマウント情報処理装置。
  2. 請求項1記載のヘッドマウント情報処理装置において、
    前記制御部は、前記第2の仮想オブジェクトを前記第2の現実空間に表示する場合と同じ位置座標に表示させる、ヘッドマウント情報処理装置。
  3. 請求項2記載のヘッドマウント情報処理装置において、
    前記制御部は、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとが重複して表示される場合、前記第1の仮想オブジェクトまたは前記第2の仮想オブジェクトを透過画像として前記表示部に表示させる、ヘッドマウント情報処理装置。
  4. 請求項2記載のヘッドマウント情報処理装置において、
    前記制御部は、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとが重複して表示される場合、前記第1の仮想オブジェクトおよび前記第2の仮想オブジェクトをずらして前記表示部に表示させる、ヘッドマウント情報処理装置。
  5. 請求項1記載のヘッドマウント情報処理装置において、
    前記制御部は、前記操作入力インタフェースから入力される前記仮想オブジェクト表示指示情報に応じて、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとを切り替えて前記表示部に表示させる、ヘッドマウント情報処理装置。
  6. 請求項1記載のヘッドマウント情報処理装置において、
    前記制御部は、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとを一定時間毎に切り替えて前記表示部に表示させる、ヘッドマウント情報処理装置。
  7. 請求項1記載のヘッドマウント情報処理装置にあって、
    前記制御部は、前記第1の仮想オブジェクトおよび前記第2の仮想オブジェクトを表示する際に前記カメラ部が撮像する前記第1の現実空間の実写画像を前記表示部に表示させる、ヘッドマウント情報処理装置。
  8. 請求項1記載のヘッドマウント情報処理装置において、
    前記制御部は、前記操作入力インタフェースによって選択される前記第1の仮想オブジェクトまたは前記第2の仮想オブジェクトの姿勢を操作する仮想オブジェクト姿勢操作処理部を有し、
    前記仮想オブジェクト姿勢操作処理部は、前記仮想オブジェクト姿勢操作処理部が選択した前記第1の仮想オブジェクトまたは第2の仮想オブジェクトの姿勢を操作する、ヘッドマウント情報処理装置。
  9. 請求項1記載のヘッドマウント情報処理装置において、
    前記制御部は、前記操作入力インタフェースによって選択される前記第1の仮想オブジェクトまたは前記第2の仮想オブジェクトを変形させる変形操作を行う仮想オブジェクト変形操作処理部を有し、
    前記仮想オブジェクト変形操作処理部は、前記仮想オブジェクト変形操作処理部が選択した前記第1の仮想オブジェクトまたは第2の仮想オブジェクトの変形操作する、ヘッドマウント情報処理装置。
  10. 請求項1記載のヘッドマウント情報処理装置において、
    前記制御部は、前記第1の現実空間に紐付けされて配置される第1の仮想オブジェクトを表示する第1の表示画面、および前記第2の現実空間に紐付けて配置される第2の仮想オブジェクトを表示する第2の表示画面をそれぞれ生成し、生成した前記第1の表示画面および前記第2の表示画面を並べて前記表示部に表示させる、ヘッドマウント情報処理装置。
  11. 請求項10記載のヘッドマウント情報処理装置において、
    前記制御部は、前記操作入力インタフェースによって前記第1の表示画面または前記第2の表示画面のいずれかが選択された際に選択された画面を拡大して前記表示部に表示させる、ヘッドマウント情報処理装置。
  12. 通信ネットワークに接続され、現実空間物体や仮想オブジェクトを表示するヘッドマウント情報処理装置と、
    前記通信ネットワークに接続される仮想オブジェクト生成サーバ装置と、
    を有し、
    前記ヘッドマウント情報処理装置は、
    情報を入力する操作入力インタフェースと、
    前記仮想オブジェクトを表示する表示部と、
    前記表示部を制御する制御部と、
    を備え、
    前記仮想オブジェクト生成サーバ装置は、
    前記仮想オブジェクトを生成する仮想オブジェクト生成処理部と、
    情報を前記通信ネットワークに送受信する通信インタフェースと、
    を備え、
    前記仮想オブジェクト生成処理部は、前記操作入力インタフェースから入力される仮想オブジェクト表示を指示する仮想オブジェクト表示指示情報に応じて、ユーザが存在する第1の現実空間に紐付けされて配置される第1の仮想オブジェクトおよび前記第1の現実空間と異なる第2の現実空間に紐付けて配置される第2の仮想オブジェクトを生成し、
    前記通信インタフェースは、前記仮想オブジェクト生成処理部が生成する前記第1の仮想オブジェクトおよび前記第2の仮想オブジェクトを前記通信ネットワークに送信し、
    前記制御部は、前記通信ネットワークを経由して送信された前記第1の仮想オブジェクトおよび前記第2の仮想オブジェクトを前記表示部に表示させ
    前記制御部は、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとが重複する表示位置を示す表示マーク、および前記表示マークと前記第1の仮想オブジェクトおよび前記第2の仮想オブジェクトとを繋ぐ仮想ラインを生成して前記表示部に表示させる、ヘッドマウントディスプレイシステム。
  13. 請求項12記載のヘッドマウントディスプレイシステムにおいて、
    前記制御部は、前記第2の仮想オブジェクトを前記第2の現実空間に表示する場合と同じ位置座標に表示させる、ヘッドマウントディスプレイシステム。
  14. 請求項13記載のヘッドマウントディスプレイシステムにおいて、
    前記制御部は、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとが重複して表示される場合、前記第1の仮想オブジェクトおよび前記第2の仮想オブジェクトをずらして前記表示部に表示させる、ヘッドマウントディスプレイシステム。
JP2021506869A 2019-03-18 2019-03-18 ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム Active JP7236529B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023028328A JP2023065528A (ja) 2019-03-18 2023-02-27 ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/011283 WO2020188721A1 (ja) 2019-03-18 2019-03-18 ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023028328A Division JP2023065528A (ja) 2019-03-18 2023-02-27 ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム

Publications (2)

Publication Number Publication Date
JPWO2020188721A1 JPWO2020188721A1 (ja) 2020-09-24
JP7236529B2 true JP7236529B2 (ja) 2023-03-09

Family

ID=72519720

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021506869A Active JP7236529B2 (ja) 2019-03-18 2019-03-18 ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム
JP2023028328A Pending JP2023065528A (ja) 2019-03-18 2023-02-27 ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023028328A Pending JP2023065528A (ja) 2019-03-18 2023-02-27 ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム

Country Status (4)

Country Link
US (2) US11972037B2 (ja)
JP (2) JP7236529B2 (ja)
CN (1) CN113614675A (ja)
WO (1) WO2020188721A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112292726B (zh) * 2019-05-22 2022-02-22 谷歌有限责任公司 用于沉浸式环境中对象分组和操纵的方法、系统和介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011160409A (ja) 2010-11-22 2011-08-18 Taiyo Kaihatsu Kk 無線移動式リアルタイム情報通信システム
JP2011191767A (ja) 2011-04-04 2011-09-29 Konica Minolta Holdings Inc ヘッドマウントディスプレイ
JP2011242934A (ja) 2010-05-17 2011-12-01 Ntt Docomo Inc オブジェクト表示装置、オブジェクト表示システム及びオブジェクト表示方法
JP2015072607A (ja) 2013-10-03 2015-04-16 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
WO2017104272A1 (ja) 2015-12-18 2017-06-22 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018174003A (ja) 2018-08-16 2018-11-08 セイコーエプソン株式会社 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP2018195319A (ja) 2015-09-30 2018-12-06 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
WO2019013016A1 (ja) 2017-07-13 2019-01-17 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5621421B2 (ja) 2010-09-06 2014-11-12 ソニー株式会社 画像処理装置、プログラム及び画像処理方法
JP5755915B2 (ja) 2011-03-18 2015-07-29 新日鉄住金ソリューションズ株式会社 情報処理装置、拡張現実感提供方法、及びプログラム
US20130141419A1 (en) 2011-12-01 2013-06-06 Brian Mount Augmented reality with realistic occlusion
CN106662988B (zh) * 2014-08-27 2020-10-27 索尼公司 显示控制装置、显示控制方法及存储介质
JP6387825B2 (ja) * 2014-12-26 2018-09-12 セイコーエプソン株式会社 表示システム、及び、情報表示方法
US10740971B2 (en) 2015-01-20 2020-08-11 Microsoft Technology Licensing, Llc Augmented reality field of view object follower
JP6920057B2 (ja) * 2016-12-22 2021-08-18 キヤノンマーケティングジャパン株式会社 画像処理装置、画像処理方法、コンピュータプログラム
US11145096B2 (en) * 2018-03-07 2021-10-12 Samsung Electronics Co., Ltd. System and method for augmented reality interaction
US10732725B2 (en) * 2018-09-25 2020-08-04 XRSpace CO., LTD. Method and apparatus of interactive display based on gesture recognition

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011242934A (ja) 2010-05-17 2011-12-01 Ntt Docomo Inc オブジェクト表示装置、オブジェクト表示システム及びオブジェクト表示方法
JP2011160409A (ja) 2010-11-22 2011-08-18 Taiyo Kaihatsu Kk 無線移動式リアルタイム情報通信システム
JP2011191767A (ja) 2011-04-04 2011-09-29 Konica Minolta Holdings Inc ヘッドマウントディスプレイ
JP2015072607A (ja) 2013-10-03 2015-04-16 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018195319A (ja) 2015-09-30 2018-12-06 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
WO2017104272A1 (ja) 2015-12-18 2017-06-22 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2019013016A1 (ja) 2017-07-13 2019-01-17 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018174003A (ja) 2018-08-16 2018-11-08 セイコーエプソン株式会社 表示装置、表示システム、表示装置の制御方法、及び、プログラム

Also Published As

Publication number Publication date
US11972037B2 (en) 2024-04-30
WO2020188721A1 (ja) 2020-09-24
CN113614675A (zh) 2021-11-05
JPWO2020188721A1 (ja) 2020-09-24
JP2023065528A (ja) 2023-05-12
US20240264662A1 (en) 2024-08-08
US20220197370A1 (en) 2022-06-23

Similar Documents

Publication Publication Date Title
JP5739674B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP7268130B2 (ja) ヘッドマウント情報処理装置
WO2018150831A1 (ja) 情報処理装置、情報処理方法及び記録媒体
JP2021002288A (ja) 画像処理装置、コンテンツ処理システム、および画像処理方法
JP2005038008A (ja) 画像処理方法、画像処理装置
JP2012068964A (ja) 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
US20240264662A1 (en) Head mounted information processing apparatus and head mounted display system
JP7496403B2 (ja) 表示端末
JP6126272B1 (ja) 仮想空間を提供する方法、プログラム及び記録媒体
JP6757404B2 (ja) シースルー・グラス用の補助アイテム選択
JP6306083B2 (ja) 仮想空間を提供する方法、プログラム、および記録媒体
JP6262283B2 (ja) 仮想空間を提供する方法、プログラム、および記録媒体
JP2021512402A (ja) マルチビューイング仮想現実ユーザインターフェース
JP7527778B2 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP5770018B2 (ja) 表示制御プログラム、表示制御装置、表示制御方法及び表示制御システム
JP2017208809A (ja) 仮想空間を提供する方法、プログラム及び記録媒体
JP2017228322A (ja) 仮想空間を提供する方法、プログラム、および記録媒体
JP7030075B2 (ja) プログラム、情報処理装置、及び情報処理方法
WO2024162216A1 (ja) プログラム
WO2017199848A1 (ja) 仮想空間を提供する方法、プログラム及び記録媒体
JP7544071B2 (ja) 情報処理装置、情報処理システム及び情報処理方法
JP2017201524A (ja) 仮想空間を提供する方法、プログラム、および記録媒体
EP4325476A1 (en) Video display system, information processing method, and program
WO2022269753A1 (ja) 情報処理システム、情報処理装置及び画像表示装置
JP2024129923A (ja) 情報処理システム及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210831

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20211022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230227

R150 Certificate of patent or registration of utility model

Ref document number: 7236529

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150