JP2025035219A - 情報処理装置、頭部装着型表示装置および情報処理方法 - Google Patents

情報処理装置、頭部装着型表示装置および情報処理方法 Download PDF

Info

Publication number
JP2025035219A
JP2025035219A JP2023142131A JP2023142131A JP2025035219A JP 2025035219 A JP2025035219 A JP 2025035219A JP 2023142131 A JP2023142131 A JP 2023142131A JP 2023142131 A JP2023142131 A JP 2023142131A JP 2025035219 A JP2025035219 A JP 2025035219A
Authority
JP
Japan
Prior art keywords
control
user
control object
information processing
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023142131A
Other languages
English (en)
Inventor
岳士 小俣
Takeshi Komata
祐介 風見
Yusuke Kazami
謙哉 深堀
Kenya Fukabori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2023142131A priority Critical patent/JP2025035219A/ja
Priority to US18/810,812 priority patent/US20250076970A1/en
Priority to CN202411207040.3A priority patent/CN119556792A/zh
Publication of JP2025035219A publication Critical patent/JP2025035219A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional [3D], e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Figure 2025035219000001
【課題】頭部装着型表示装置を装着しているユーザが仮想オブジェクトの後方を簡便に視認できるようにすることができる。
【解決手段】情報処理装置は、頭部装着型表示装置を装着しているユーザの視線位置に存在する仮想オブジェクトを制御オブジェクトとして選択する選択手段と、前記ユーザが前記制御オブジェクトの後方を視認するための所定の動作をしたか否かを判定する判定手段と、前記ユーザが前記所定の動作をしたことに応答して、前記制御オブジェクトの後方が視認できるように前記制御オブジェクトの表示を制御する制御手段とを有する。
【選択図】図3

Description

本発明は、情報処理装置、頭部装着型情報表示装置および情報処理方法に関する。
近年、現実世界と仮想世界とを融合して新しい体験を作り出すXR(Extended
Reality)技術が知られている。XR技術は、仮想現実、複合現実、拡張現実、および代替現実の技術の総称である。仮想現実(Virtual Reality、VR)技術は、ユーザに仮想空間を現実のように体験させることができる技術である。複合現実(Mixed Reality、MR)技術は、現実と仮想現実とをシームレスに融合して複合現実感をユーザに体験させることができる技術である。拡張現実(Augmented Reality、AR)は、現実空間に仮想世界を重ねて投影して見せる技術である。代替現実(Substitutional Reality、SR)は、過去の映像を現実世界に重ね合わせて投影して見せる技術である。
XR技術の一つとして、頭部装着型表示装置(Head Mounted Display、HMD)を利用したXRシステムがある。XRシステムは、実際の外景に仮想オブジェクトなどを重畳表示させ、HMDを装着するユーザに提示することにより、XR空間を体験させることができる。
HMDは、ユーザの視線位置を検出する機能を搭載し、視線位置の情報を活用した表示制御が可能である。例えば、特許文献1では、所定の基準時間に亘る注目動作の継続に応じて、注目動作のなされた実オブジェクトに関連する仮想オブジェクトが表示されることが開示されている。特許文献2では、使用者の頭部の向きと視線方向との組み合わせによって、使用者に視認される画像が変化することが開示されている。
特開2016-81339号公報 特開2016-82466号公報
HMDを装着するユーザは、仮想オブジェクトの後方を一時的に視認したい場合、ハンドジェスチャなどのユーザーインターフェースで仮想オブジェクトを移動させたり、仮想オブジェクトの後方が見える位置まで実際に移動したりする。しかしながら、移動範囲が制限される場合、立ち位置を変えずに制御したい場合、または手足が自由に動かせない場合など、仮想オブジェクトの後方を確認することが困難な場合がある。
本発明は、頭部装着型表示装置を装着しているユーザが、仮想オブジェクトの後方を簡便に視認できるようにする情報処理装置を提供することを目的とする。
本発明に係る情報処理装置は、頭部装着型表示装置を装着しているユーザの視線位置に存在する仮想オブジェクトを制御オブジェクトとして選択する選択手段と、前記ユーザが前記制御オブジェクトの後方を視認するための所定の動作をしたか否かを判定する判定手段と、前記ユーザが前記所定の動作をしたことに応答して、前記制御オブジェクトの後方が視認できるように前記制御オブジェクトの表示を制御する制御手段とを有することを特
徴とする。
本発明によれば、頭部装着型表示装置を装着しているユーザが仮想オブジェクトの後方を簡便に視認できるようにすることができる。
HMDの外観を例示する図である。 HMDの構成例を示すブロック図である。 HMDの処理を例示するフローチャートである。 3軸加速度センサおよび3軸角速度センサについて説明する図である。 覗き込み動作の判定処理を例示するフローチャートである。 覗き込み動作の判定について説明する図である。 オブジェクトに付与されるメタデータについて説明する図である。 制御オブジェクトの表示制御処理を例示するフローチャートである。 制御オブジェクトの移動方向について説明する図である。 制御オブジェクトの表示制御について説明する図である。 制御オブジェクトの強調表示について説明する図である。
<実施形態>
以下、図面を参照して本発明の実施の形態を説明する。
(装置の構成)
図1および図2を用いて、本実施形態に係る頭部装着型表示装置であるHMD100の構成例について説明する。図1は、HMD100の外観を例示する図である。図1に示すHMD100は、ユーザの頭部に装着される表示装置である。HMD100は、電源スイッチ、および装置の設定を制御するボタンなどの操作部材を備える。ユーザは、操作部材またはHMD100と通信可能なコントローラなどを介して、HMD100を操作することができる。HMD100は、仮想オブジェクトの生成および画像の合成などを行う画像処理部などを有する。
頭部装着部材101は、HMD100をユーザの頭に安定して固定するための部材である。頭部装着部材101は、ユーザの頭部の動きに合わせて、HMD100がずれることなく動作できるように、HMD100をユーザの頭に固定する。なお、頭部装着部材101は、HMD100をユーザの頭部に固定する部材に限られず、HMD100をユーザの耳にかけて固定する部材であってもよい。
表示装置102は、HMD100の装着者であるユーザの眼前に、仮想オブジェクト、または現実空間の画像と仮想オブジェクトとの合成画像を表示する。表示装置102は、例えば、液晶ディスプレイまたは有機EL(ElectroLuminescence)ディスプレイである。表示装置102は、例えば、液晶パネルと、液晶パネルを制御するドライバ回路と、表示する画像を保持するメモリとを含む。表示装置102は、無透過型の表示ユニットでもよいし、レンズ越しに現実の空間を視認可能な光学透過型の表示ユニットでもよい。
撮影装置103は、ユーザの周囲の環境を撮影する装置(カメラユニット)である。撮影装置103は、ユーザの周囲の環境として、ユーザの前方の環境を撮影してもよい。ユーザの前方は、例えばユーザの頭部の正面とすることができる。
図2は、HMD100の構成例を示すブロック図である。図2に示すHMD100は、撮像部200、視線検出部201、移動検知部202、回転検知部203、情報処理部204、画像処理部205、表示部206を含む。なお、情報処理部204および画像処理部205は、HMD100が有する処理部として説明するが、情報処理部204および画像処理部205の処理または一部の処理は、HMD100と通信可能な外部の情報処理装置によって実行されてもよい。この場合、情報処理装置は、情報処理部204および画像処理部205の処理を実行し、HMD100の表示部206によって表示される仮想オブジェクトの表示を制御する。
情報処理部204は、撮像画像取得部207、オブジェクト保持部208、オブジェクト生成部209、視線情報取得部210、移動量算出部211、回転量算出部212、動作判定部213を含む。画像処理部205は、オブジェクト選択部214、オブジェクト制御部215、表示画像生成部216を含む。
撮像部200は、光学系、画像センサ、画像センサを制御するドライバ回路、画像センサにより取得された信号をデジタル信号に変換するA/D変換回路、および得られたデジタル信号を画像として現像する現像回路を有する。撮像部200は、撮像した画像データ(撮像画像)を、情報処理部204の撮像画像取得部207に送信する。撮像画像取得部207は、撮像部200から受信した画像データを画像処理部205の表示画像生成部216へ送信する。また、撮像画像取得部207は、オブジェクト生成部209へ撮像画像を転送する。
視線検出部201は、HMD100の装着者であるユーザの視線方向を検出する。視線検出部201は、例えば、一眼レフカメラ等に用いられている装置であって、赤外発光ダイオードによりユーザの眼球を照射して、光源の角膜反射による反射像と瞳孔との関係から視線方向を検出する装置であってもよい。
情報処理部204の視線情報取得部210は、視線検出部201が検出した視線の情報(以下、視線情報とも記載される)を取得する。視線情報取得部210は、取得した視線情報をオブジェクト制御部215に送信する。
移動検知部202は、HMD100の移動を検知する。移動検知部202は、例えば、GPS(Global positioning system)の位置情報、および加速度センサの出力などを用いてHMD100の移動を検知することができる。
情報処理部204の移動量算出部211は、移動検知部202が検知したHMD100の移動の情報を取得し、HMD100の移動方向および移動量を算出する。移動量算出部211は、算出したHMD100の移動方向および移動量(以下、移動情報とも記載される)を動作判定部213に送信する。
回転検知部203は、HMD100の回転を検知する。回転検知部203は、例えば、回転変位センサの出力などを用いて、HMD100の回転を検知することができる。情報処理部204の回転量算出部212は、回転検知部203が検知した回転の情報を取得し、HMD100の回転方向および回転量(以下、回転情報とも記載される)を算出する。回転量算出部212は、算出したHMD100の回転方向および回転量を動作判定部213に送信する。
動作判定部213は、移動量算出部211から受信したHMD100の移動方向および移動量と、回転量算出部212から受信したHMD100の回転方向および回転量とに基づいて、HMD100の動作を判定する。動作判定部213は、判定した動作の情報(以
下、動作情報とも記載される)を、画像処理部205のオブジェクト制御部215に送信する。
オブジェクト保持部208は、仮想空間を構成する仮想物体(仮想オブジェクト)のデータ(形状情報、位置姿勢情報など)および仮想空間中に照射する光源のデータ等、仮想空間に関するデータをメモリ等の記憶部に保持する。画像処理部205のオブジェクト選択部214は、オブジェクト保持部208から表示対象の仮想オブジェクトを選択し、選択した仮想オブジェクトのデータをオブジェクト制御部215に転送する。また、オブジェクト保持部208は、オブジェクト生成部209へ仮想オブジェクトのデータを送信し、他の仮想オブジェクトを生成させてもよい。
オブジェクト生成部209は、撮像画像取得部207から転送された画像データと、オブジェクト保持部208から転送された仮想オブジェクトのデータとに基づいて、仮想オブジェクトを生成する。オブジェクト生成部209は、生成した仮想オブジェクトを画像処理部205のオブジェクト選択部214へ送信する。
オブジェクト選択部214は、オブジェクト保持部208およびオブジェクト生成部209から、ユーザに対して表示する仮想オブジェクを選択する。オブジェクト選択部214は、選択した表示対象の仮想オブジェクトのデータを、オブジェクト制御部215に送信する。オブジェクト制御部215に送信される表示対象の仮想オブジェクトのデータは、表示画像データ、表示画角における配置位置データ、他の仮想オブジェクトとの重なり順序データなどを含む。
オブジェクト制御部215は、視線情報取得部210から受信した視線情報および動作判定部213から受信したHMD100の動作情報に基づいて、オブジェクト選択部214が選択した仮想オブジェクトの表示を制御する。仮想オブジェクトの表示の制御は、仮想オブジェクトを移動すること、縮小すること、透過させること、および非表示にすることなどを含む。オブジェクト制御部215は、視線情報および動作情報に基づいて、仮想オブジェクトのデータを変更することにより、仮想オブジェクトの表示を制御する。オブジェクト制御部215は、表示の制御を適用した仮想オブジェクトのデータを、表示画像生成部216に送信する。
表示画像生成部216は、撮像画像取得部207から転送された現実空間を撮像した画像データと、オブジェクト制御部215から受信した仮想オブジェクトとの合成画像を生成する。表示画像生成部216は、生成した合成画像を表示部206に送信する。
(HMDの処理)
図3を用いて、本実施形態に係るHMD100の処理について説明する。図3は、HMD100の処理を例示するフローチャートである。図3に示す処理は、HMD100を装着しているユーザが、HMD100の電源スイッチをオンにして、表示装置102に仮想オブジェクトが表示されることにより開始される。
ステップS300において、視線情報取得部210は、視線検出部201で検出されたユーザの視線の情報に基づいて、表示装置102の表示画面におけるユーザの視線位置を取得する。視線情報取得部210は、オブジェクト制御部215に、ユーザの視線位置の情報を送信する。
ステップS301では、オブジェクト制御部215は、オブジェクト選択部214が選択した仮想オブジェクトのデータと、視線情報取得部210から受信した視線情報に基づいて、ユーザの視線位置に仮想オブジェクトが存在しているか否かを判定する。ユーザの
視線位置に仮想オブジェクトが存在している場合、処理はステップS302に進む。ユーザの視線位置に仮想オブジェクトが存在しない場合、処理はステップS300に戻る。
なお、オブジェクト制御部215は、ユーザの視線位置に存在する仮想オブジェクトが、最前面に表示される仮想オブジェクトであるか否かを判定してもよい。ユーザの視線位置に存在する仮想オブジェクトが、最前面の仮想オブジェクトである場合、処理はステップS302に進む。ユーザの視線位置に存在する仮想オブジェクトが、最前面の仮想オブジェクトではない場合は、ステップS300に戻る。
ステップS302では、オブジェクト制御部215は、視線位置に存在する仮想オブジェクトを、制御オブジェクトとして選択する。ステップS303では、視線情報取得部210は、ステップS302で選択された制御オブジェクトに対する視認時間が、所定時間t(時間)よりも長いか否かを判定する。すなわち、視線情報取得部210は、所定時間tの間、制御オブジェクトに向けられた視線位置が変化していないかを判定する。所定時間tは、例えば、ユーザが制御オブジェクトを注視していると判定可能な時間とすることができる。
制御オブジェクトに対する視認時間が所定時間tよりも長い場合、処理はステップS304に進む。制御オブジェクトに対する視認時間が所定時間t以下の場合、処理はステップS300に戻る。
ステップS304では、動作判定部213は、HMD100の動作を判定する。HMD100はユーザの頭部に固定されており、動作判定部213は、HMD100の動作を判定することにより、ユーザの頭部の動作を判定することができる。動作判定部213は、具体的には、移動検知部202からHMD100(ユーザの頭部)の移動方向および移動量を取得する。また、動作判定部213は、回転検知部203からHMD100(ユーザの頭部)の回転方向および回転量を取得する。動作判定部213は、HMD100(ユーザの頭部)の移動方向、移動量、回転方向および回転量のうち少なくともいずれかに基づいて、HMD100(ユーザ)の動作を判定する。なお、ステップS304における動作判定部213の判定処理は、ステップS303の処理が開始される前から実行してもよい。
ステップS305では、動作判定部213は、ユーザにより所定の動作が行われたか否かを判定する。所定の動作は、HMD100を装着しているユーザが、ステップS302で選択された制御オブジェクトの後方を視認するための動作であり、例えば、制御オブジェクトの後方を実際に覗き込むような動作である。なお、所定の動作は、覗き込む動作に限られず、後方を視認するための動作として予め定められた動作であってもよい。例えば、所定の動作は、制御オブジェクトを見ながら、制御オブジェクトを動かしたい方向に顔を向ける動作などであってもよい。
動作判定部213は、HMD100の移動方向、移動量、回転方向および回転量のうち少なくともいずれかに基づいて、ユーザが所定の動作をしたか否かを判定することができる。動作判定部213は、例えば、HMD100(ユーザの頭部)の移動量が所定範囲内の距離である場合に、ユーザが所定の動作をしたと判定することができる。また、動作判定部213は、HMD100(ユーザの頭部)の回転量が所定範囲内の角度である場合に、ユーザが所定の動作をしたと判定することができる。動作判定部213は、ユーザの頭部の移動量が所定範囲内の距離であることと、回転量が所定範囲内の角度であることの両方を満たす場合に、ユーザが所定の動作をしたと判定してもよい。
ユーザの頭部の移動量が所定範囲内の距離であるか否かは、所定範囲を定める第1閾値
および第2閾値(>第1閾値)を設定し、ユーザの頭部の移動量が第1閾値以上、第2閾値以下であるか否かにより判定することができる。ユーザの頭部の回転量が所定範囲内の角度であるか否かは、所定範囲を定める第3閾値および第4閾値(>第3閾値)を設定し、ユーザの頭部の回転量が第3閾値以上、第4閾値以下であるか否かにより判定することができる。
ユーザが所定の動作をした場合、処理はステップS306に進む。ユーザが所定の動作をしていない場合、処理はステップS300に戻る。
ステップS306では、オブジェクト制御部215は、ユーザが所定の動作をしたことに応答してステップS302で選択した制御オブジェクトの表示を制御する。オブジェクト制御部215は、ユーザが制御オブジェクトの後方が視認できるように、制御オブジェクトの表示を制御する。オブジェクト制御部215は、例えば、制御オブジェクトに対して移動、縮小、透過および非表示のうち少なくともいずれかの表示制御を行うことにより、制御オブジェクトの表示を制御する。
オブジェクト制御部215は、表示の制御対象である制御オブジェクトのデータ、およびオブジェクト選択部214が選択した仮想オブジェクのデータを、表示画像生成部216に送信する。表示画像生成部216は、制御オブジェクトを含む仮想オブジェクトと撮像画像との合成画像を生成し、生成した合成画像を表示部206に送信する。表示部206は、表示画像生成部216から受信した合成画像を表示装置102に表示する。
ステップS307では、視線情報取得部210は、ユーザの視線位置が変化したか否かを判定する。視線情報取得部210は、例えば、ステップS300で取得した視線位置からの変化量が、予め設定した閾値より大きい場合に、ユーザの視線位置が変化したと判定することができる。ユーザの視線位置が変化した場合、処理はステップS309に進む。ユーザの視線位置が変化していない場合、処理はステップS308に進む。
ステップS308では、動作判定部213は、ユーザによる所定の動作が終了したか否かを判定する。動作判定部213は、例えば、ステップS305において所定の動作が行われたと判定したときのHMD100の位置姿勢(ユーザの頭部の位置姿勢)からの移動量および回転量に基づいて、所定の動作が終了したか否かを判定する。動作判定部213は、移動量が予め設定された移動量の閾値よりも大きい場合、回転量が予め設定された回転量の閾値よりも大きい場合、または移動量および回転量の両方がそれぞれの閾値よりも大きい場合に、所定の動作が終了したと判定することができる。所定の動作が終了した場合、処理はステップS309に進む。所定の動作が終了していない場合、制御オブジェクトの表示制御は元に戻されず、処理はステップS307に戻る。
ステップS309では、HMD100を装着しているユーザが制御オブジェクトを実際に覗き込むといった所定の動作が終了しており、オブジェクト制御部215は、ステップS306で行なった表示の制御を元に戻す。
(覗き込み動作の判定例)
図4(A),4(B)、図5および図6(A)~6(C)を用いて、覗き込み動作の判定例について説明する。覗き込み動作は、所定の動作の一例である。以下の例では、移動検知部202は、3軸方向の加速度を検出する加速度計(3軸加速度センサ)を備え、回転検知部203は、3軸方向の角速度を検出する角速度計(3軸角速度センサ、ジャイロセンサ)を備える。
図4(A),4(B)は、3軸加速度センサおよび3軸角速度センサについて説明する
図である。移動検知部202の3軸加速度センサは、HMD100に搭載され、HMD100の3軸方向の加速度を検出する。図4(A)で示すように、3軸加速度センサは、X軸(左右)、Y軸(上下)、Z軸(前後)の移動方向、およびそれぞれの方向における移動量を検出することができる。3軸加速度センサの出力は、移動量算出部211に送信される。移動量算出部211は、3軸加速度センサの出力データに基づいて、HMD100の移動方向および移動量を取得することができる。
回転検知部203の3軸角速度センサは、HMD100に搭載され、HMD100の3軸方向の角速度を検出する。図4(B)で示すように、3軸角速度センサは、ピッチ(左右方向を軸とする回転)、ヨー(上下方向を軸とする回転)、ロール(前後方向を軸とする回転)の回転方向、およびそれぞれの方向における回転量を検出することができる。3軸角速度センサの出力は、回転量算出部212に送信される。回転量算出部212は、3軸角速度センサの出力データに基づいて、HMD100の回転方向および回転量を取得することができる。
図5は、覗き込み動作の判定処理を例示するフローチャートである。図5に示す処理は、図3のステップS304およびステップ305で所定の動作が行われたかを判定する処理の具体例である。図6は、覗き込み動作の判定について説明する図である。以下の説明では、3軸加速度センサおよび3軸角速度センサは、それぞれ加速度センサおよび角速度センサと記載される。
図5のステップS500では、移動検知部202は、加速度センサの出力を取得する。移動検知部202は、取得した加速度センサの出力を移動量算出部211に送信する。ステップS501では、移動量算出部211は、加速度の初期値が保存されているか否かを判定する。加速度の初期値は、HMD100の移動方向および移動量を算出するために用いられる。
加速度の初期値が保存されている場合、処理はステップS503に進む。加速度の初期値が保存されていない場合、処理はステップS502に進む。ステップS502では、移動量算出部211は、ステップS500で取得した加速度センサの出力値を、加速度の初期値として保存する。処理はステップS500に戻る。
ステップS503では、回転検知部203は、角速度センサの出力を取得する。回転検知部203は、取得した角速度センサの出力を回転量算出部212に送信する。ステップS504では、回転量算出部212は、角速度の初期値が保存されているか否かを判定する。角速度の初期値は、HMD100の回転方向および回転量を算出するために用いられる。
角速度の初期値が保存されている場合、処理はステップS506に進む。角速度の初期値が保存されていない場合、処理はステップS505に進む。ステップS505では、回転量算出部212は、ステップS503で取得した角速度センサの出力値を、角速度の初期値として保存する。処理は、ステップS504に戻る。
ステップS506では、移動量算出部211は、加速度の初期値からの変化量に基づいて、移動方向および移動量を移動情報として取得する。また、回転量算出部212は、角速度の初期値からの変化量に基づいて、回転方向および回転量を回転情報として取得する。
ステップS507では、動作判定部213は、HMD100の移動量が所定範囲内の距離であるか否かを判定する。所定範囲を定める距離の閾値は、移動方向における距離の上
限値と下限値とで指定されればよい。また、所定範囲を定める距離の閾値は、上下方向、左右方向、前後方向ごとに設けられてもよい。
図6(A)の例では、ユーザの頭部の前方上方向への移動量の閾値は、移動量Aに設定されている。また、図6(B)の例では、ユーザの頭部の左上方向または右上方向への移動量の閾値は、移動量Bに設定されている。ステップS506で取得した移動量について、動作判定部213は、前方上方向への移動量が0~移動量Aの範囲内であり、左上方向または右上方向への移動量が0~移動量Bの範囲内である場合に、移動量が所定範囲内の距離であると判定することができる。なお、移動量を判定するための距離の閾値は、図6(A),6(B)の例に限られず、所定の動作がどのような動作であるかに応じて設定されればよい。また、移動量を判定するための距離の閾値は、ユーザの動きの特性に応じて、ユーザごとに設定されてもよい。
ステップS507で、HMD100の移動量が所定範囲内の距離である場合、処理はステップS510に進む。HMD100の移動量が所定範囲内の距離でない場合、処理はステップS508に進む。
ステップS510では、動作判定部213は、HMD100の回転量が所定範囲内の角度であるか否かを判定する。所定範囲を定める角度の閾値は、回転角度の上限値と下限値とで指定されればよい。
図6(C)の例では、前方左方向または前方右方向へのユーザの頭部の回転量の閾値は、回転量Cに設定されている。ステップS506で取得した回転量について、動作判定部213は、前方左方向または前方右方向への回転量が0~回転量Cの範囲内である場合に、回転量が所定範囲内の角度であると判定することができる。なお、回転量を判定するための角度の閾値は、図6(C)の例に限られず、所定の動作に応じて設定されればよい。また、回転量を判定するための角度の閾値は、ユーザの動きの特性に応じて、ユーザごとに設定されてもよい。
ステップS510で、HMD100の回転量が所定範囲内の角度である場合、処理はステップS511に進む。HMD100の回転量が所定範囲内の角度でない場合、処理はステップS508に進む。
ステップS508では、回転量算出部212は、角速度の初期値をステップS503で取得した角速度センサの出力値に更新する。ステップS509では、移動量算出部211は、加速度の初期値をステップS500で取得した加速度センサの出力値に更新する。角速度の初期値および加速度の初期値が更新されると、処理はテップS500に戻る。
ステップS511では、動作判定部213は、ユーザの頭部の動作が覗き込み動作であると判定する。なお、図5に示す処理では、動作判定部213は、HMD100の移動量および回転量の両方がそれぞれの所定範囲内である場合に、覗き込み動作が行われたと判定するが、これに限られない。動作判定部213は、移動量が所定範囲内の距離であれば、覗き込み動作が行われたと判定してもよいし、回転量が所定範囲内の角度であれば、覗き込み動作が行われたと判定してもよい。
また、図5に示す処理では、動作判定部213は、ユーザの頭部の動作が覗き込み動作であるか否かを、HMD100の移動量および回転量が所定の条件を満たすか否かにより判定するが、さらに移動方向および回転方向に対する条件を用いて判定してもよい。例えば、動作判定部213は、移動量が所定範囲内の距離であって移動方向がユーザの前方である場合は覗き込み動作と判定し、移動量が所定範囲内の距離であって移動方向がユーザ
の後方である場合は覗き込み動作でないと判定する。また、動作判定部213は、回転量が所定範囲内の角度であっても、回転方向が、ユーザが後ろを向く際の方向である場合には、覗き込み動作でないと判定してもよい。
覗き込み動作を含む所定の動作が行われたか否かは、移動方向、移動量、回転方向および回転量のうち少なくともいずれかを、それぞれに予め設定された閾値と比較することにより判定することができる。移動方向、移動量、回転方向および回転量のそれぞれの閾値は、判定対象の所定の動作に応じて設定される。
(表示制御方法を示すメタデータ)
図7を用いて、制御オブジェクトの表示制御について説明する。制御オブジェクトは、ユーザが所定の動作をしたことに応答して、移動、縮小、透過および非表示のうちいずれかの制御(表示制御)が適用される。オブジェクトの種類と適用される表示制御の種類との対応関係は、予め定めておくことができる。オブジェクトの種類は、例えば、移動可能か否か、縮小可能か否かなどに応じて設定される種類である。
どのような表示制御が適用されるかは、制御オブジェクトの種類によって異なってもよい。制御オブジェクトごとに異なる表示制御が適用される場合、移動、縮小、透過および非表示のうちいずれの表示制御が適用されるかは、それぞれの制御オブジェクトのデータに、メタデータとして付与することができる。制御オブジェクトは、ユーザが所定の動作をしたことに応答して、移動、縮小、透過および非表示のうちいずれの表示制御が適用されるかを示すメタデータと対応づけて、オブジェクト保持部208に記憶される。オブジェクト制御部215は、メタデータに基づいて制御オブジェクトの表示を制御することができる。
図7は、オブジェクトに付与されるメタデータについて説明する図である。仮想オブジェクトは、種類によって移動が想定される場合と、移動が想定されない場合がある。そのため、仮想オブジェクトがメタデータとして表示制御の方法を有することで、オブジェクト制御部215は、制御オブジェクトのメタデータを参照して、制御オブジェクトの表示を適切に制御することができる。
図7の例では、オブジェクトの「人形」および「車」は、現実空間においても移動させることができる。そこで、オブジェクトの「人形」および「車」は、「移動」の表示制御方法がメタデータとして付与される。付与されたメタデータは、仮想オブジェクトのデータと対応付けてオブジェクト保持部208に保存される。
オブジェクトの「ビル」および「壁」は、現実空間において移動することは想定されないため、「ビル」および「壁」のオブジェクトを移動させた場合、ユーザは違和感を覚える可能性がある。したがって、オブジェクトの「ビル」および「壁」は、処理方法「透過」の表示制御方法がメタデータとして付与される。付与されたメタデータは、仮想オブジェクトのデータと対応付けてオブジェクト保持部208に保存される。なお、表示制御方法は、図7に示す「移動」および「透過」に限定されない。表示制御方法は、ユーザが制御オブジェクトの後方を視認できるような制御であればよく、縮小、回転および非表示などによる制御を含んでもよい。
(制御オブジェクトの表示制御)
図8、図9(A)~9(C)および図10(A)~10(D)を用いて、制御オブジェクトの表示制御について説明する。図8は、制御オブジェクトの表示制御処理を例示するフローチャートである。図8に示す例では、移動検知部202は、3軸加速度センサを備え、回転検知部203は、3軸角速度センサを備える。
図8に示す処理は、図3のステップS306の処理の具体的な処理の例である。HMD100は、図3のステップS300~S304と同様の処理を実行し、ステップS305では、所定の動作の一例として、ユーザが覗き込み動作をしたか否かを判定する。図8に示す制御オブジェクトの表示制御処理は、ユーザが覗き込み動作をしたと判定された場合に実行される。
ステップS801では、動作判定部213は、移動量算出部211からHMD100(ユーザの頭部)の移動方向を取得する。HMD100の移動方向は、制御オブジェクトの表示を制御するために用いられる。動作判定部213は、取得したHMD100の移動方向をオブジェクト制御部215に転送する。
ステップS802では、動作判定部213は、移動量算出部211からHMD100の移動量を取得する。HMD100の移動量は、制御オブジェクトの表示を制御するために用いられる。動作判定部213は、取得したHMD100の移動量をオブジェクト制御部215に転送する。
ステップS803では、オブジェクト制御部215は、制御オブジェクトを表示する際の制御方法が「移動」であるか否かを判定する。オブジェクト制御部215は、図7を用いて説明したメタデータから、制御オブジェクトを表示する際の制御方法を取得することができる。制御オブジェクトの表示の制御方法が「移動」である場合、処理はステップS804に進む。
制御オブジェクトの表示の制御方法が「移動」ではない場合、処理はステップS814に進む。ステップS814では、オブジェクト制御部215は、制御オブジェクトを透過させて、後方が視認できるように制御する。オブジェクト制御部215は、制御オブジェクトの透過率を上げることにより、制御オブジェクトを透過させることができる。オブジェクト制御部215は、ユーザが後方が視認できる範囲で制御オブジェクトの透過率を設定すればよい。なお、図10の例では、制御オブジェクトを透過させる例を示すが、制御オブジェクトの制御方法は、メタデータで指定された透過以外の制御であってもよい。
ステップS804では、オブジェクト制御部215は、制御オブジェクトの移動量を算出する。オブジェクト制御部215は、例えば、ユーザの頭部の移動量および回転量の少なくともいずれかに基づいて、制御オブジェクトを移動させる距離を決定することができる。オブジェクト制御部215は、表示装置102の表示画角サイズに応じて適切に移動されるように、制御オブジェクトの移動量を算出してもよい。
図9(A)~9(C)を用いて、ステップS805~S807の制御オブジェクトの移動方向の決定について説明する。図9(A)~9(C)は、制御オブジェクトの移動方向について説明する図である。図9(A)は、HMD100を装着しているユーザが、制御オブジェクト900の後方(背面にある表示)を視認しようとする場合の表示例を示す。図9(A)は、ユーザの視線が、所定時間tよりも長い時間、視線位置901に向けられている状態を示す。
ステップS805~S807では、オブジェクト制御部215は、ステップS801で取得したHMD100の移動方向に基づいて、制御オブジェクト900を移動させる方向を決定する。なお、図8の例では、ユーザが行った覗き込み動作は、右側から覗き込む動作、または左側から覗き込む動作のいずれかとする。
ステップS805では、オブジェクト制御部215は、HMD100を装着しているユ
ーザが、制御オブジェクトの右側から覗き込む動作をしたか否かを判定する。ユーザが制御オブジェクトの右側から覗き込む動作をした場合、処理はステップS806に進む。ユーザの動作が右側から覗き込む動作ではなかった場合、処理はステップS807に進む。
ステップS806では、オブジェクト制御部215は、制御オブジェクトの移動方向を左側に決定する。制御オブジェクトの移動方向が左側に決定されると、オブジェクト制御部215は、図9(B)に示すように、制御オブジェクト900を左側(矢印で示される方向)に移動するように制御する。制御オブジェクト900が左側に移動されることで、ユーザは、後方の仮想オブジェクト902および現実空間を視認できるようになる。
ステップS807では、HMD100を装着しているユーザが、制御オブジェクトの左側から覗き込む動作をしたと想定され、オブジェクト制御部215は、制御オブジェクトの移動方向を右側に決定する。制御オブジェクトの移動方向が右側に決定されると、オブジェクト制御部215は、図9(C)で示すように、制御オブジェクト900を、右側(矢印で示される方向)に移動するように制御する。制御オブジェクト900が右側に移動されることで、ユーザは、後方の仮想オブジェクト902および現実空間を視認できるようになる。
なお、ステップS805~S807の例では、所定の動作は、右側または左側から覗き込む動作として説明したが、これに限られな。例えば、所定の動作が上側から覗き込む動作の場合、オブジェクト制御部215は、制御オブジェクトの移動方向を下側に決定することができる。所定の動作が下側から覗き込む動作の場合、オブジェクト制御部215は、制御オブジェクトの移動方向を上側に決定することができる。
また、ステップS805~S807の例では、制御オブジェクトの移動方向は、HMD100の移動方向に基づいて決定されるが、HMD100の回転方向を考慮して決定されてもよい。HMD100の回転方向を考慮することで、オブジェクト制御部215は、ユーザが制御オブジェクトの後方をどの方向から覗き込んでいるかを精度よく検出することができる。オブジェクト制御部215は、ユーザが制御オブジェクトを覗き込んでいる方向と反対側に制御オブジェクトを移動させるように制御すればよい。このように、オブジェクト制御部215は、HMD100(ユーザの頭部)の移動方向および回転方向の少なくともいずれかに基づいて、制御オブジェクトを移動させる方向を決定することができる。
図10(A)~10(D)を用いて、ステップS808~S814の制御オブジェクトの表示制御について説明する。図10(A)~10(D)は、制御オブジェクトの表示制御について説明する図である。具体的には、オブジェクト制御部215は、制御オブジェクトを移動させる方向に他の仮想オブジェクトが存在する場合、制御オブジェクトが他の仮想オブジェクトに重ならないように縮小する制御を行う。
図10(A)は、HMD100を装着しているユーザが、制御オブジェクト1000の後方(背面にある表示)を視認しようとする場合の表示例を示す。図10(A)は、ユーザの視線が、所定時間tよりも長い時間、視線位置1001に向けられている状態を示す。HMD100は、制御オブジェクト1000とは異なる他の仮想オブジェクト1002を表示している。
ステップS808~S814では、オブジェクト制御部215は、制御オブジェクトの表示を制御する。オブジェクト制御部215は、制御オブジェクトを移動させる方向に他の仮想オブジェクトが存在するか否かに応じて、制御オブジェクトの制御方法を変更する。
ステップS808では、オブジェクト制御部215は、制御オブジェクトを移動させる方向に、他の仮想オブジェクトが存在するか否かを判定する。移動方向に他の仮想オブジェクトが存在する場合、処理はステップS809に進む。移動方向に他の仮想オブジェクトが存在しない場合、処理はステップS813に進む。
ステップS813では、制御オブジェクトを移動させる方向に他の仮想オブジェクトが存在しないため、オブジェクト制御部215は、ステップS804で算出された移動量に基づいて、制御オブジェクトを移動させる。図10(B)の例では、HMD100を装着しているユーザが、制御オブジェクト1000の左側から覗き込む動作をした場合、制御オブジェクト1000は右側に移動される。制御オブジェクト1000の右側には他の仮想オブジェクトが存在しないため、制御オブジェクト1000は、移動されても仮想オブジェクト1002等の他の仮想オブジェクトとは重ならない。
ステップS809~S812は、制御オブジェクトを移動させる方向に他の仮想オブジェクトが存在する場合の処理である。オブジェクト制御部215は、制御オブジェクトを移動させる方向に他の仮想オブジェクトが存在する場合、制御オブジェクトを移動先で縮小する。図10(C)の例では、HMD100を装着しているユーザが、制御オブジェクト1000の右側から覗き込む動作をした場合、制御オブジェクト1000は左側に移動して他の仮想オブジェクト1002と重なってしまう。
そこで、図10(D)で示すように、オブジェクト制御部215は、制御オブジェクト1000を移動させても他の仮想オブジェクト1002に重ならないように、制御オブジェクト1000を縮小する。ただし、縮小によって見づらくならないようにするため、図8に示す処理の例では、縮小率についての閾値が設定される。
ステップS809では、オブジェクト制御部215は、縮小率の閾値α(所定の縮小率)を設定する。閾値αは、例えば、制御オブジェクトの種類(文字を含むか否か等)または表示画面のサイズ等に基づいて、制御オブジェクトが視認可能となるような範囲で設定される。ステップS810では、オブジェクト制御部215は、制御オブジェクトが、移動先で他の仮想オブジェクトと重ならないための縮小率βを算出する。
ステップS811では、オブジェクト制御部215は、縮小率βが閾値α以上であるか否かを判定する。縮小率βが閾値α以上である場合、制御オブジェクトは、閾値αの縮小率で縮小すれば他の仮想オブジェクトには重ならない。この場合、処理はステップS812に進む。一方、縮小率βが閾値α未満である場合、制御オブジェクトは、閾値αの縮小率で縮小しても他の仮想オブジェクトと重なってしまう。この場合、処理はステップS814に進む。
ステップS812では、移動先で制御オブジェクトが縮小率βで縮小されても視認可能であり、図10(D)で示すように、オブジェクト制御部215は、制御オブジェクト1000を縮小して移動させるように制御する。
ステップS814では、縮小率βが閾値αより小さく、制御オブジェクトは縮小率βで縮小すると視認が困難となる。すなわち、制御オブジェクトが視認可能となるように閾値αの縮小率で縮小しても、制御オブジェクトは他の仮想オブジェクトと重なってしまう。したがって、オブジェクト制御部215は、制御オブジェクトを移動せず、透過させることで後方が視認できるように制御する。
ステップ812~S814において、オブジェクト制御部215が制御オブジェクトの
表示を制御することにより、ユーザは、制御オブジェクトの後方を視認できるようになる。
オブジェクト制御部215は、表示を制御した仮想オブジェクトのデータを含め、オブジェクト選択部214が選択した仮想オブジェクトのデータを、表示画像生成部216に送信する。表示画像生成部216は、撮像画像に仮想オブジェクトを重畳表示した合成画像を生成する。表示部206は、表示画像生成部216が生成した合成画像を表示装置102に表示する。
図8に示す制御オブジェクトの表示制御処理が終了すると、図3のステップS307,S308と同様に、ユーザの視線位置が変化したか、または所定の動作が終了したかが判定される。ユーザの視線位置が変化した場合、または所定の動作が終了した場合、オブジェクト制御部215は、S309と同様に、ステップ812~S814で行なった制御オブジェクトの表示の制御を元に戻す。
(制御オブジェクトの強調表示)
図11(A),11(B)を用いて、制御オブジェクトの強調表示について説明する。制御オブジェクトは、ユーザの視線位置に存在する仮想オブジェクトであり、ユーザが所定の動作をすることによって表示が制御される。オブジェクト制御部215は、図3のステップS302で選択された制御オブジェクトを強調表示することで、制御対象である仮想オブジェクトをユーザに認識させることができる。
図11(A)において、HMD100の装着者であるユーザの視線が所定時間tよりも長い時間、視線位置1101に向けられると、オブジェクト制御部215は、制御オブジェクト1100を制御対象として選択し強調表示を行うように制御する。オブジェクト制御部215は、例えば図11(B)に示すように、制御オブジェクト1100の輪郭を光らせる強調表示1102をすることができる。なお、強調表示の方法は、制御オブジェクトの輪郭を光らせることに限定されない。オブジェクト制御部215は、ユーザが認識しやすいように表示を制御すればよく、例えば、制御オブジェクト自体を点滅させるように制御してもよい。
オブジェクト制御部215は、図3のステップS302で制御オブジェクトが選択されてから、制御オブジェクトの表示の制御が開始されるまでの間、制御オブジェクトの強調表示を行うように制御してもよい。また、オブジェクト制御部215は、制御オブジェクトが選択されてから、所定の動作が終了するまでの間、制御オブジェクトの強調表示を行うように制御してもよい。
上記の実施形態によれば、HMD100は、ユーザが所定の動作をしたことに応答して、ユーザの視線位置に存在する仮想オブジェクトの表示を制御することにより、当該仮想オブジェクトの後方を視認可能とすることができる。すなわち、HMD100は、HMD100を装着しているユーザが自身の視線位置に存在する仮想オブジェクトの後方を視認するための所定の動作をする前と後とで、当該仮想オブジェクトの表示が異なるように制御する。ユーザは、所定の動作として、例えば仮想オブジェクトの後方を覗き込む動作をすることで、当該仮想オブジェクトの後方を簡便に視認することができる。
上記の実施形態はあくまで一例であり、本発明の要旨の範囲内で上記実施形態の構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。上記実施形態の構成を適宜組み合わせて得られる構成も、本発明に含まれる。
なお、上記の実施形態の各機能部(図2)は、個別のハードウェアであってもよいし、
そうでなくてもよい。2つ以上の機能部の機能が、共通のハードウェアによって実現されてもよい。1つの機能部の複数の機能のそれぞれが、個別のハードウェアによって実現されてもよい。1つの機能部の2つ以上の機能が、共通のハードウェアによって実現されてもよい。また、各機能部は、ハードウェアによって実現されてもよいし、そうでなくてもよい。例えば、装置が、プロセッサと、制御プログラムが格納されたメモリとを有していてもよい。そして、装置が有する少なくとも一部の機能部の機能が、プロセッサがメモリから制御プログラムを読み出して実行することにより実現されてもよい。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本実施形態の開示は、以下の構成、方法、プログラム、および媒体を含む。
(構成1)
頭部装着型表示装置を装着しているユーザの視線位置に存在する仮想オブジェクトを制御オブジェクトとして選択する選択手段と、
前記ユーザが前記制御オブジェクトの後方を視認するための所定の動作をしたか否かを判定する判定手段と、
前記ユーザが前記所定の動作をしたことに応答して、前記制御オブジェクトの後方が視認できるように前記制御オブジェクトの表示を制御する制御手段と
を有することを特徴とする情報処理装置。
(構成2)
前記判定手段は、前記ユーザの頭部の移動方向、移動量、回転方向および回転量のうち少なくともいずれかに基づいて、前記ユーザが前記所定の動作をしたか否かを判定する
ことを特徴とする構成1に記載の情報処理装置。
(構成3)
前記判定手段は、前記ユーザの頭部の移動量が所定範囲内の距離である場合に、前記ユーザが前記所定の動作をしたと判定する
ことを特徴とする構成2に記載の情報処理装置。
(構成4)
前記判定手段は、前記ユーザの頭部の回転量が所定範囲内の角度である場合に、前記ユーザが前記所定の動作をしたと判定する
ことを特徴とする構成2または3に記載の情報処理装置。
(構成5)
前記制御手段は、前記ユーザが前記所定の動作をしたことに応答して、前記制御オブジェクトに対して移動、縮小、透過および非表示のうち少なくともいずれかの表示制御を行う
ことを特徴とする構成1~4のいずれかに記載の情報処理装置。
(構成6)
前記制御手段は、前記ユーザの頭部の移動方向および回転方向の少なくともいずれかに基づいて、前記制御オブジェクトを移動させる方向を決定する
ことを特徴とする構成5に記載の情報処理装置。
(構成7)
前記制御手段は、前記ユーザの頭部の移動量および回転量の少なくともいずれかに基づいて、前記制御オブジェクトを移動させる距離を決定する
ことを特徴とする構成5または6に記載の情報処理装置。
(構成8)
前記制御手段は、前記制御オブジェクトを移動させる方向に他の仮想オブジェクトが存
在する場合、前記制御オブジェクトが前記他の仮想オブジェクトに重ならないように縮小する制御を行う
ことを特徴とする構成5~7のいずれかに記載の情報処理装置。
(構成9)
前記制御手段は、前記制御オブジェクトを所定の縮小率で縮小しても、前記制御オブジェクトが前記他の仮想オブジェクトと重なる場合には、前記制御オブジェクトを透過させるように制御する
ことを特徴とする構成8に記載の情報処理装置。
(構成10)
オブジェクトの種類と表示制御の種類との対応関係が予め定められており、
前記制御手段は、移動、縮小、透過および非表示のうち前記制御オブジェクトの種類に対応する表示制御を、前記制御オブジェクトに対して行う
ことを特徴とする構成5~9のいずれかに記載の情報処理装置。
(構成11)
前記制御手段は、前記選択手段により選択された前記制御オブジェクトの強調表示を行うように制御する
ことを特徴とする構成1~10のいずれかに記載の情報処理装置。
(構成12)
前記制御手段は、前記選択手段により前記制御オブジェクトが選択されてから、前記制御オブジェクトの表示制御が開始されるまでの間、または前記所定の動作が終了するまでの間、前記制御オブジェクトの強調表示を行うように制御する
ことを特徴とする構成11に記載の情報処理装置。
(構成13)
頭部装着型表示装置を装着して視認される仮想オブジェクトの表示を制御する制御手段を有し、
前記頭部装着型表示装置を装着しているユーザが自身の視線位置に存在する仮想オブジェクトの後方を視認するための所定の動作をする前と後とで、当該仮想オブジェクトの表示が異なる
ことを特徴とする情報処理装置。
(構成14)
構成1~12のいずれかに記載の情報処理装置と、
前記制御オブジェクトの表示が制御された画像を表示する表示手段と、
を有することを特徴とする頭部装着型表示装置。
(方法)
頭部装着型表示装置を装着しているユーザの視線位置に存在する仮想オブジェクトを制御オブジェクトとして選択するステップと、
前記ユーザが前記制御オブジェクトの後方を視認するための所定の動作をしたか否かを判定するステップと、
前記ユーザが前記所定の動作をしたことに応答して、前記制御オブジェクトの後方が視認できるように前記制御オブジェクトの表示を制御するステップと
を有することを特徴とする情報処理方法。
(プログラム)
コンピュータを、構成1~13のいずれかに記載の情報処理装置の各手段として機能させるためのプログラム。
(媒体)
コンピュータを、構成1~13のいずれかに記載の情報処理装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
100:頭部装着型表示装置(HMD)、210:視線情報取得部、213:動作判定
部、215:オブジェクト制御部

Claims (17)

  1. 頭部装着型表示装置を装着しているユーザの視線位置に存在する仮想オブジェクトを制御オブジェクトとして選択する選択手段と、
    前記ユーザが前記制御オブジェクトの後方を視認するための所定の動作をしたか否かを判定する判定手段と、
    前記ユーザが前記所定の動作をしたことに応答して、前記制御オブジェクトの後方が視認できるように前記制御オブジェクトの表示を制御する制御手段と
    を有することを特徴とする情報処理装置。
  2. 前記判定手段は、前記ユーザの頭部の移動方向、移動量、回転方向および回転量のうち少なくともいずれかに基づいて、前記ユーザが前記所定の動作をしたか否かを判定する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記判定手段は、前記ユーザの頭部の移動量が所定範囲内の距離である場合に、前記ユーザが前記所定の動作をしたと判定する
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記判定手段は、前記ユーザの頭部の回転量が所定範囲内の角度である場合に、前記ユーザが前記所定の動作をしたと判定する
    ことを特徴とする請求項2に記載の情報処理装置。
  5. 前記制御手段は、前記ユーザが前記所定の動作をしたことに応答して、前記制御オブジェクトに対して移動、縮小、透過および非表示のうち少なくともいずれかの表示制御を行う
    ことを特徴とする請求項1に記載の情報処理装置。
  6. 前記制御手段は、前記ユーザの頭部の移動方向および回転方向の少なくともいずれかに基づいて、前記制御オブジェクトを移動させる方向を決定する
    ことを特徴とする請求項5に記載の情報処理装置。
  7. 前記制御手段は、前記ユーザの頭部の移動量および回転量の少なくともいずれかに基づいて、前記制御オブジェクトを移動させる距離を決定する
    ことを特徴とする請求項5に記載の情報処理装置。
  8. 前記制御手段は、前記制御オブジェクトを移動させる方向に他の仮想オブジェクトが存在する場合、前記制御オブジェクトが前記他の仮想オブジェクトに重ならないように縮小する制御を行う
    ことを特徴とする請求項5に記載の情報処理装置。
  9. 前記制御手段は、前記制御オブジェクトを所定の縮小率で縮小しても、前記制御オブジェクトが前記他の仮想オブジェクトと重なる場合には、前記制御オブジェクトを透過させるように制御する
    ことを特徴とする請求項8に記載の情報処理装置。
  10. オブジェクトの種類と表示制御の種類との対応関係が予め定められており、
    前記制御手段は、移動、縮小、透過および非表示のうち前記制御オブジェクトの種類に対応する表示制御を、前記制御オブジェクトに対して行う
    ことを特徴とする請求項5に記載の情報処理装置。
  11. 前記制御手段は、前記選択手段により選択された前記制御オブジェクトの強調表示を行うように制御する
    ことを特徴とする請求項1に記載の情報処理装置。
  12. 前記制御手段は、前記選択手段により前記制御オブジェクトが選択されてから、前記制御オブジェクトの表示制御が開始されるまでの間、または前記所定の動作が終了するまでの間、前記制御オブジェクトの強調表示を行うように制御する
    ことを特徴とする請求項11に記載の情報処理装置。
  13. 頭部装着型表示装置を装着して視認される仮想オブジェクトの表示を制御する制御手段を有し、
    前記頭部装着型表示装置を装着しているユーザが自身の視線位置に存在する仮想オブジェクトの後方を視認するための所定の動作をする前と後とで、当該仮想オブジェクトの表示が異なる
    ことを特徴とする情報処理装置。
  14. 請求項1~12のいずれか1項に記載の情報処理装置と、
    前記制御オブジェクトの表示が制御された画像を表示する表示手段と、
    を有することを特徴とする頭部装着型表示装置。
  15. 頭部装着型表示装置を装着しているユーザの視線位置に存在する仮想オブジェクトを制御オブジェクトとして選択するステップと、
    前記ユーザが前記制御オブジェクトの後方を視認するための所定の動作をしたか否かを判定するステップと、
    前記ユーザが前記所定の動作をしたことに応答して、前記制御オブジェクトの後方が視認できるように前記制御オブジェクトの表示を制御するステップと
    を有することを特徴とする情報処理方法。
  16. コンピュータを、請求項1~13のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
  17. コンピュータを、請求項1~13のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
JP2023142131A 2023-09-01 2023-09-01 情報処理装置、頭部装着型表示装置および情報処理方法 Pending JP2025035219A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2023142131A JP2025035219A (ja) 2023-09-01 2023-09-01 情報処理装置、頭部装着型表示装置および情報処理方法
US18/810,812 US20250076970A1 (en) 2023-09-01 2024-08-21 Information processing device, head mounted display, and information processing method
CN202411207040.3A CN119556792A (zh) 2023-09-01 2024-08-30 信息处理装置、头戴式显示器、信息处理方法、计算机程序产品和计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023142131A JP2025035219A (ja) 2023-09-01 2023-09-01 情報処理装置、頭部装着型表示装置および情報処理方法

Publications (1)

Publication Number Publication Date
JP2025035219A true JP2025035219A (ja) 2025-03-13

Family

ID=94738992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023142131A Pending JP2025035219A (ja) 2023-09-01 2023-09-01 情報処理装置、頭部装着型表示装置および情報処理方法

Country Status (3)

Country Link
US (1) US20250076970A1 (ja)
JP (1) JP2025035219A (ja)
CN (1) CN119556792A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20250094016A1 (en) * 2023-09-18 2025-03-20 Apple Inc. Systems and methods of motion-based user interfaces

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6222465B1 (en) * 1998-12-09 2001-04-24 Lucent Technologies Inc. Gesture-based computer interface
US6972734B1 (en) * 1999-06-11 2005-12-06 Canon Kabushiki Kaisha Mixed reality apparatus and mixed reality presentation method
US7043695B2 (en) * 2000-09-19 2006-05-09 Technion Research & Development Foundation Ltd. Object positioning and display in virtual environments
US8730156B2 (en) * 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US20110107216A1 (en) * 2009-11-03 2011-05-05 Qualcomm Incorporated Gesture-based user interface
EP2418866A3 (en) * 2010-08-11 2014-05-21 LG Electronics Inc. Method for operating image display apparatus
US9122053B2 (en) * 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US9348141B2 (en) * 2010-10-27 2016-05-24 Microsoft Technology Licensing, Llc Low-latency fusing of virtual and real content
US9292973B2 (en) * 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
US9122321B2 (en) * 2012-05-04 2015-09-01 Microsoft Technology Licensing, Llc Collaboration environment using see through displays
US9292085B2 (en) * 2012-06-29 2016-03-22 Microsoft Technology Licensing, Llc Configuring an interaction zone within an augmented reality environment
US9459697B2 (en) * 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US10173129B2 (en) * 2013-06-09 2019-01-08 Sony Interactive Entertainment Inc. Methods for rendering interactive content to a head mounted display
US10126822B2 (en) * 2013-12-16 2018-11-13 Leap Motion, Inc. User-defined virtual interaction space and manipulation of virtual configuration
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
EP3117263B1 (en) * 2014-03-14 2018-05-09 Sony Interactive Entertainment Inc. Methods and systems tracking head mounted display (hmd) and calibrations for hmd headband adjustments
KR102219464B1 (ko) * 2014-05-23 2021-02-25 삼성전자주식회사 보안 운용 방법 및 이를 지원하는 전자 장치
US20150379770A1 (en) * 2014-06-27 2015-12-31 David C. Haley, JR. Digital action in response to object interaction
US10416760B2 (en) * 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
KR102271833B1 (ko) * 2014-09-01 2021-07-01 삼성전자주식회사 전자 장치, 그 제어 방법 및 기록 매체
US9436369B2 (en) * 2014-09-26 2016-09-06 Disney Enterprises, Inc. Touch interface for precise rotation of an object
US20160210780A1 (en) * 2015-01-20 2016-07-21 Jonathan Paulovich Applying real world scale to virtual content
US10429923B1 (en) * 2015-02-13 2019-10-01 Ultrahaptics IP Two Limited Interaction engine for creating a realistic experience in virtual reality/augmented reality environments
US9965029B2 (en) * 2015-03-30 2018-05-08 Sony Corporation Information processing apparatus, information processing method, and program
KR20160128119A (ko) * 2015-04-28 2016-11-07 엘지전자 주식회사 이동 단말기 및 이의 제어방법
JP6110893B2 (ja) * 2015-06-12 2017-04-05 株式会社コロプラ 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
JP6404196B2 (ja) * 2015-09-16 2018-10-10 グリー株式会社 仮想画像表示プログラム、仮想画像表示装置及び仮想画像表示方法
IL243422B (en) * 2015-12-30 2018-04-30 Elbit Systems Ltd Information management is displayed according to the directions of the user's gaze
US10373381B2 (en) * 2016-03-30 2019-08-06 Microsoft Technology Licensing, Llc Virtual object manipulation within physical environment
IL245334B (en) * 2016-04-21 2018-10-31 Elbit Systems Ltd Validation of head display reliability
JP7092028B2 (ja) * 2016-04-26 2022-06-28 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
US9995936B1 (en) * 2016-04-29 2018-06-12 Lockheed Martin Corporation Augmented reality systems having a virtual image overlaying an infrared portion of a live scene
EP3545497B1 (en) * 2016-11-22 2021-04-21 Lego A/S System for acquiring a 3d digital representation of a physical object
US20180150204A1 (en) * 2016-11-30 2018-05-31 Google Inc. Switching of active objects in an augmented and/or virtual reality environment
US10521944B2 (en) * 2017-08-16 2019-12-31 Microsoft Technology Licensing, Llc Repositioning user perspectives in virtual reality environments
US10957103B2 (en) * 2017-11-03 2021-03-23 Adobe Inc. Dynamic mapping of virtual and physical interactions
JP7341166B2 (ja) * 2018-05-22 2023-09-08 マジック リープ, インコーポレイテッド ウェアラブルシステムのためのトランスモード入力融合
US12105869B2 (en) * 2018-08-24 2024-10-01 Sony Corporation Information processing apparatus and information processing method
CN115016638B (zh) * 2018-10-15 2025-11-18 美的集团股份有限公司 提供虚拟指导的方法、计算机系统及计算机可读存储介质

Also Published As

Publication number Publication date
US20250076970A1 (en) 2025-03-06
CN119556792A (zh) 2025-03-04

Similar Documents

Publication Publication Date Title
JP7491300B2 (ja) 情報処理装置、情報処理方法、及びコンピュータが読み取り可能な記録媒体
JP2024026103A (ja) 視線ベースのナビゲーションのためのデバイス、方法、及びグラフィカルユーザインタフェース
EP3137982B1 (en) Transitions between body-locked and world-locked augmented reality
JP6002286B1 (ja) ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム
US9851561B2 (en) Head-mounted device with rear-facing camera
JP6899875B2 (ja) 情報処理装置、映像表示システム、情報処理装置の制御方法、及びプログラム
CN117555417A (zh) 用于调节和/或控制与用户界面相关联的沉浸度的方法
JP6479199B2 (ja) 情報処理装置
US12273498B2 (en) Control device
JP2016024751A (ja) 画像表示装置
JP2021056371A (ja) 表示システム、表示方法及び表示プログラム
JP2023168750A (ja) 情報処理装置、情報処理方法、プログラム、および記憶媒体
JP2017021824A (ja) ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム
JP2025035219A (ja) 情報処理装置、頭部装着型表示装置および情報処理方法
JP7802561B2 (ja) 電子機器、電子機器の制御方法、プログラム、および記録媒体
CN114787874A (zh) 信息处理装置、信息处理方法和记录介质
EP3867734B1 (en) Mobile platform as a physical interface for interaction
EP4383700B1 (en) Electronic device for generating three-dimensional photo based on images acquired from plurality of cameras, and method therefor
JP2024163628A (ja) 情報処理システム
JP2023168746A (ja) 情報処理装置、情報処理システム、情報処理方法、プログラム
US12061737B2 (en) Image processing apparatus, image processing method, and storage device
JP7719133B2 (ja) 情報処理装置、情報処理システム、情報処理方法、プログラム
JP7478902B2 (ja) ウェアラブル端末装置、プログラムおよび表示方法
US20260037100A1 (en) Virtual image sharing method and virtual image sharing system
JP2025116378A (ja) 情報処理装置、情報処理システム、情報処理方法、プログラム