JP2024025272A - 情報処理装置、情報処理方法、プログラム - Google Patents

情報処理装置、情報処理方法、プログラム Download PDF

Info

Publication number
JP2024025272A
JP2024025272A JP2022128583A JP2022128583A JP2024025272A JP 2024025272 A JP2024025272 A JP 2024025272A JP 2022128583 A JP2022128583 A JP 2022128583A JP 2022128583 A JP2022128583 A JP 2022128583A JP 2024025272 A JP2024025272 A JP 2024025272A
Authority
JP
Japan
Prior art keywords
display
control mode
area
information processing
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022128583A
Other languages
English (en)
Inventor
宏治 池田
Koji Ikeda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022128583A priority Critical patent/JP2024025272A/ja
Priority to US18/365,319 priority patent/US12032754B2/en
Priority to CN202311002597.9A priority patent/CN117590930A/zh
Publication of JP2024025272A publication Critical patent/JP2024025272A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0331Finger worn pointing device

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザにとって利便性が高く、位置を示す複数の表示アイテムを制御する技術を提供する。【解決手段】情報処理装置は、第1の制御モードにおいて、コントローラの慣性情報に基づく位置を示す第1の表示アイテムを、表示手段の表示領域に表示するように制御する第1の表示制御手段と、第2の制御モードにおいて、前記表示領域のうち第1の領域における、特定の操作部材に対する第1の操作に応じた位置を示す第2の表示アイテムを前記表示領域に表示するように制御する第2の表示制御手段と、前記第1の制御モードにおいて、前記第1の表示アイテムが示す位置が前記表示領域のうちの第2の領域に含まれる場合には、特定の操作が行われると、前記第1の制御モードから前記第2の制御モードに切り替える切替手段と、を有する。【選択図】図3

Description

本発明は、情報処理装置、情報処理方法、プログラムに関する。
HMD(Head Mounted Display)を利用して、現実空間とは異なる空間をユーザに感じさせるような、複合現実(Mixed Reality:MR)技術や仮想現実(Virtual Reality:VR)技術が知られている。このような技術において、ユーザがHMD(ヘッドマウントディスプレイ)を装着したまま、HMDに対する各種制御を行うことが検討されている。特許文献1には、入力装置と、入力装置を操作する操作媒体(ユーザの手)とを認識し、認識した結果に応じて、アプリケーションを切り替える情報処理装置が開示されている。
一方で、位置を示す表示アイテムを制御することによって、ユーザの操作性を向上させる技術も検討されている。特許文献2には、ダイアログウィンドウの表示時に、直前に表示されていたマウスカーソル(表示アイテム)の位置に関係なく、規定の位置にマウスカーソルを移動させることで、操作性の向上を図る技術が開示されている。
特開2017-059062号公報 特開平8-152972号公報
また、利便性の観点から、ユーザは、位置を示す複数の表示アイテム(例えば、マウスカーソルと選択枠)を切り替えて利用することを所望する可能性がある。しかしながら、上記の技術では、複数の表示アイテムを利用することを想定していないため、ユーザにとって利便性が高く、位置を示す複数の表示アイテムを制御することができなかった。
そこで、本発明は、ユーザにとって利便性が高く、位置を示す複数の表示アイテムを制御する技術を提供することを目的とする。
本発明の1つの態様は、
第1の制御モードにおいて、コントローラの慣性情報に基づく位置を示す第1の表示アイテムを、表示手段の表示領域に表示するように制御する第1の表示制御手段と、
第2の制御モードにおいて、前記表示領域のうち第1の領域における、特定の操作部材に対する第1の操作に応じた位置を示す第2の表示アイテムを前記表示領域に表示するように制御する第2の表示制御手段と、
前記第1の制御モードにおいて、前記第1の表示アイテムが示す位置が前記表示領域のうちの第2の領域に含まれる場合には、特定の操作が行われると、前記第1の制御モードから前記第2の制御モードに切り替える切替手段と、
を有することを特徴とする情報処理装置である。
本発明の1つの態様は、
第1の制御モードにおいて、コントローラの慣性情報に基づく位置を示す第1の表示アイテムを、表示手段の表示領域に表示するように制御する第1の表示制御ステップと、
第2の制御モードにおいて、前記表示領域のうち第1の領域における、特定の操作部材に対する第1の操作に応じた位置を示す第2の表示アイテムを前記表示領域に表示するように制御する第2の表示制御ステップと、
前記第1の制御モードにおいて、前記第1の表示アイテムが示す位置が前記表示領域のうちの第2の領域に含まれる場合には、特定の操作が行われると、前記第1の制御モードから前記第2の制御モードに切り替える切替ステップと、
を有することを特徴とする情報処理方法である。
本発明によれば、ユーザにとって利便性が高く、位置を示す複数の表示アイテムを制御することができる。
実施形態1に係る情報処理システムを説明する図である。 実施形態1に係るHMDなどの内部構成図である。 実施形態1に係るモード切替処理のフローチャートである。 実施形態1に係るレイ制御モードの表示を説明する図である。 実施形態1に係るOTP制御モードの表示を説明する図である。 実施形態1に係るモード切替処理のフローチャートである。 変形例1に係るレイ制御モードの表示を説明する図である。 変形例1に係るOTP制御モードの表示を説明する図である。 変形例2に係るレイ制御モードの表示を説明する図である。 変形例2に係るOTP制御モードの表示を説明する図である。 変形例3に係るOTP制御モードの表示を説明する図である。
以下に、本発明の実施形態を、HMDを例に、添付の図面に基づいて詳細に説明する。なお、HMDでは、例えば、360度の視界の表示範囲が存在している。このため、ユーザは、HMDでは、従来のPCのディスプレイに比べて表示範囲が非常に大きく広がっているように感じることができる。よって、HMDでは、同時に多数の表示が可能であるというメリットがある一方で、マウスカーソルやポインタといった位置を示す(指定する)表示アイテム(UI)がユーザの視線の先から外れると、見失いやすい。
<実施形態1>
図1を参照して、実施形態1に係る情報処理システム1について説明する。情報処理システム1は、HMD100、画像処理装置110、およびコントローラ120を有する。
HMD100は、ユーザの頭部に装着可能な頭部装着型の表示装置(電子機器)である。HMD100には、HMD100がユーザの正面の範囲を撮像した撮像画像と、HMD100の姿勢に応じた形態のCG(コンピュータグラフィックス)などのコンテンツとが合成された合成画像が表示される。
画像処理装置110は、HMD100を制御する制御装置(情報処理装置;電子機器)である。画像処理装置110は、例えば、スマートフォン、タブレット端末、またはPC(パーソナルコンピュータ)である。画像処理装置110は、無線または有線によりHMD100と接続される。画像処理装置110は、撮像画像とCGとを合成することにより合成画像を生成して、合成画像をHMD100に送信する。なお、画像処理装置110の各構成は、HMD100が有していてもよい。
コントローラ120は、HMD100の各種制御を行うための装置である。画像処理装
置110が特定の制御モードであれば、コントローラ120に対してユーザの操作が行われると、ユーザの操作に応じてHMD100が制御される。コントローラ120は、例えば、図1に示すように、ユーザの指に装着可能なように、指輪型(リング型)の形状である。コントローラ120がユーザの指に装着可能であれば、ユーザはコントローラ120を保持しながらも自由に手を動かすことができる。また、コントローラ120は、平面的な移動量を感知できるオプティカルトラックパッド(以下、「OTP」と呼ぶ)を内蔵したボタンを有する。コントローラ120は、Bluetooth(登録商標)による無線通信を画像処理装置110と行う。
ユーザは、例えば、OTPのボタンの長押しにより、ポインタを含むメニューをHMD100に表示させる。その後、ユーザは、OTPに指をあてて任意の方向に擦ることで、所望の項目にポインタを合わせることができる。そして、ユーザは、OTPのボタンを押し込むことにより、当該項目の選択を決定するような決定動作を行うことができる。なお、コントローラ120の形状は指輪型であるとしたが、これに限定されるものではない。例えば、コントローラ120の形状は、グローブ型のような手に装着可能な形状であってもよい。このように、コントローラ120は、ユーザが使用しやすいように、ユーザの手により保持可能、または手に装着可能な形態であるとよい。
(HMDの内部構成について)
図2を参照して、HMD100の内部構成を説明する。HMD100は、HMD制御部201、撮像部202、画像表示部203、姿勢センサ部204を有する。
HMD制御部201は、HMD100の各構成を制御する。HMD制御部201は、画像処理装置110から合成画像(撮像部202がユーザの正面の空間を撮像した撮像画像と、CGとが合成された画像)を取得すると、合成画像を画像表示部203に表示する。このため、ユーザは、HMD100を装着することにより、画像表示部203に表示される合成画像を見ることができる。ユーザは、現実空間にCGが融合したような、様々な複合現実を体験することができる。
撮像部202は、2台のカメラ(撮像装置)を含む。2台のカメラは、ユーザが通常時に見ている空間と同様の空間を撮像するために、HMD100の装着時のユーザの左右の眼の位置の近くに配置される。2台のカメラが撮像により被写体(ユーザの正面の範囲)を撮像した画像(撮像画像)は、画像処理装置110に出力される。また、撮像部202における2台のカメラは、ステレオカメラによる測距により、2台のカメラから被写体までの距離の情報を距離情報として取得できる。
画像表示部203は、合成画像を表示する。画像表示部203は、例えば、液晶パネルまたは有機ELパネルなどを有する。ユーザがHMD100を装着している状態では、ユーザのそれぞれの眼の前に有機ELパネルが配される。
なお、画像表示部203には、半透過型のハーフミラーを用いたデバイスを用いることも可能である。この場合には、例えば、画像表示部203は、一般的にARと呼ばれているような技術によって、ハーフミラーを透過して見える現実空間に直接CGが重畳されて見えるように画像を表示してもよい。また、画像表示部203は、一般的にVRと呼ばれているような技術によって、撮像画像を用いずに、完全な仮想空間の画像を表示してもよい。
姿勢センサ部204は、HMD100の姿勢および位置を検出する。姿勢センサ部204は、慣性情報を取得する慣性計測装置(IMU;Inertial Measurement Unit)を有する。姿勢センサ部204は、HMD100の姿勢の情報を姿勢
情報として、画像処理装置110に出力する。
(画像処理装置の内部構成)
図2を参照して、画像処理装置110の内部構成を説明する。画像処理装置110は、制御部211、コンテンツDB212、通信部213を有する。
制御部211(表示制御部)は、撮像部202が取得した画像(撮像画像)と、姿勢センサ部204が取得した姿勢情報とをHMD100から受け取る。制御部211は、撮像部202の光学系と画像表示部203の光学系における収差をキャンセルするような画像処理を撮像画像に行う。そして、制御部211は、撮像画像と任意のCGとを合成して、合成画像を生成する。制御部211は、HMD100におけるHMD制御部201に合成画像を送信する。
なお、制御部211は、HMD100が取得した情報(距離情報および姿勢情報)に基づき、合成画像におけるCGの位置、向き、および大きさを制御する。例えば、制御部211は、合成画像が表す空間において、現実空間に存在する特定の物体の近くに、CGが示す仮想物体を配置する場合には、特定の物体と撮像部202との距離が近いほど仮想物体(CG)を大きくする。このようにCGの位置、向きおよび大きさを制御することにより、制御部211は、現実空間に配置されていないCGの物体が、あたかも現実空間に配置されているかのような合成画像を生成することができる。
コンテンツDB212は、CGなどの情報を格納する記憶部である。なお、制御部211は、コンテンツDB212から読み出すCG(つまり、合成画像の生成に用いるCG)を切り替えることが可能である。
(コントローラの内部構成)
図2を参照して、コントローラ120の内部構成を説明する。コントローラ120は、コントローラ制御部221、操作部222、通信部223、姿勢センサ部224を有する。ここで、コントローラ120に、複数の発光ダイオード(大型のセンサなど)が実装される必要がない。このため、コントローラ120は、小型化が可能である。
コントローラ制御部221は、コントローラ120の各構成を制御する。
操作部222は、OTP(特定の操作部材)を内蔵したボタンを含む。操作部222におけるOTPに対する押下や指のスライドの情報(操作情報)は、通信部223を介して画像処理装置110に送信される。
例えば、ユーザは、OTPにおける指のスライドより、HMD100に表示されたポインタを所定の位置に移動させることができる。また、ユーザは、OTPのボタンを押下することにより、HMD100や画像処理装置110に特定の処理を指示することができる。このように、ユーザは、OTPにおける指のスライドとボタンの押下との組み合わせにより、HMD100を制御することができる。より具体的には、ユーザは、例えば、OTPのボタンの長押しによりHMD100にメニューを表示させて、所望の場所にポインタを合わせた後にOTPボタンを押し込むことで、当該場所を選択するような制御ができる。
操作部222は、ユーザが物理的接触により操作を行うことが可能であれば、OTPの代わりに、任意の操作部材を含んでいてもよい。例えば、操作部222は、OTPの代わりに、タッチパッド、タッチパネル、十字キー、ジョイスティック、およびトラックパッド装置のいずれかを含んでいてもよい。
通信部223は、画像処理装置110(通信部213)との無線通信を行う。
姿勢センサ部224は、ユーザの動きとして、コントローラ120の慣性情報(空間的な移動や回転運動)を検出できるIMU(慣性計測装置;慣性センサ)を有する。なお、姿勢センサ部224は、コントローラ120の小型化を阻害しないような装置であって、慣性情報として、空間的な移動(位置変異、速度、加速度)または/および回転運動(回転量、回転速度、角速度)の情報を検出できる装置であればよい。
(各制御モードについて)
図4および図5を参照して、実施形態1に係る制御モードに応じた各種処理について説明する。
図4は、実施形態1に係るレイ制御モード(第1の制御モード)における表示を説明する図である。なお、レイ制御モードとは、コントローラ120の慣性情報(位置および姿勢の少なくともいずれか)に応じてレイ(仮想的な光線)を制御する制御モードである。ここで、レイは、HMD100の表示領域において、ユーザが指定した位置を示す表示アイテムである。
図4は、HMD100の画像表示部203における表示領域(合成画像)を模式的に示している。HMD100では、HMD100の周囲の風景(撮像部202によって撮影された風景)が表示されている。背景は、図4に示すように、ユーザの手402を含む。HMD100は、一般的なPCのデスクトップ画面と同様の画面を、風景を示す背景に合成できる。この画面を「広域デスクトップ」と呼ぶ。
「広域デスクトップ」がHMD100に表示されることによれば、ユーザは、画像処理装置110(PCなど)と繋いだ大きなサイズのPCモニターなどを用いることなく、HMD100を用いて様々な作業を行うことができる。また、HMD100では、ユーザの視野いっぱいに表示領域が広がっているので、現実のPCモニターでは実現しにくいような解像度の画像を表示すること、および複数の画像を同時に並べて表示することもできる。
なお、以下では、「広域デスクトップ」がHMD100の表示領域に表示されており、かつ、ユーザが同時に複数の作業をしているものとする。また、HMD100では、複数のウィンドウ401が空間上に浮いているように表示される。具体的には、図4に示すように、ウィンドウ401A、ウィンドウ401B、およびウィンドウ401Cが並んで表示されている。例えば、ユーザは、ウィンドウ401Aにおいてインターネットブラウザを動作させ、検索結果を表示させることができる。ユーザは、ウィンドウ401Bにおいて、文書(ドキュメント)を作成することができる。ユーザは、ウィンドウ401Cにおいて、動画を再生すること、または、音楽プレイヤーを動作させて音楽を再生することができる。
なお、コントローラ120は、ユーザの手402の指(人指し指)に装着されている。人差し指から、人差し指の指し示す方向に延びるレイ403(光線)がCGとして表示されている。ここで、コントローラ120が動くと、姿勢センサ部224が新たな慣性情報を取得して、慣性情報がコントローラ制御部221から制御部211に送られる。そして、制御部211は、慣性情報に基づき、レイの表示を制御する。
図5は、実施形態1に係るOTP制御モード(第2の制御モード)における表示を説明する図である。OTP制御モードとは、OTPに対する操作(以下、「OTP操作」と呼
ぶ)に応じてマウスカーソルを制御する制御モードである。ここで、マウスカーソルは、HMD100の表示領域のうちの特定の領域(各ウィンドウの領域)において、ユーザが指定した位置などを示す表示アイテムである。
図5は、図4と同じく画像表示部203における表示領域(合成画像)を示している。HMD100には、「広域デスクトップ」が表示されている。ここでは、ユーザが、ウィンドウ401Cにおいてマウスカーソル501の位置を細かく制御をしている例を説明する。ウィンドウ401Cでは、音楽プレイヤーが表示されており、ユーザにより音楽が再生可能である。ユーザは、曲の再生または早送りをするために、音楽プレイヤー内のボタンアイコンを選択する。また、ユーザは、曲目リストから曲を選択して聴きたい曲を選んだりすることもできる。
ウィンドウ401Aやウィンドウ401Bが表示された状態において、ウィンドウ401Cを用いて音楽の再生が行われる場合には、ウィンドウ401Cは、画像表示部203の表示領域の一部の領域に表示される。そして、ウィンドウ401Cの領域内において、ボタンアイコンや選択対象が表示される領域はさらに限られる。このため、ユーザは、ボタンアイコンや選択対象が表示される領域において、マウスカーソル501を移動させる場合には、細かく位置を指定する必要がある。そこで、マウスカーソル501は、例えば、コントローラ120のOTPの表面をなぞる操作(以下、「スライド操作」と呼ぶ)に応じて、ウィンドウ401C内を平面的に移動する。これにより、ユーザは、マウスカーソル501の位置を細かく指定することができる。
なお、コントローラ120の位置または姿勢を変化させることによってレイが制御される。このため、レイの先端の位置を大きく移動させる場合にはユーザの意図するようにレイが移動できる可能性が高いが、レイの先端の位置を微小な距離だけ移動させる場合には、レイの先端の位置が所望の位置からずれることがある。また、レイの先端の位置が手元から近い場合はある程度細かく位置を制御できるが、レイの長さが長く、手元から遠い位置にウィンドウが表示されていると微小な位置の制御は困難である。このため、ウィンドウ401C内で細かく位置の指定をする場合には、レイ制御モードよりもOTP制御モードの方が、ユーザは位置を指定しやすい。
(モード切替処理について)
図3のフローチャートを用いて、レイ制御モードからOTP制御モードへ切り替える処理について説明する。図3のフローチャートの開始時点では、図4に示すような合成画像が表示されているものとする。また、図3のフローチャートの開始時点では、制御モードがレイ制御モードに設定されており、画像表示部203の表示領域にレイが表示されているものとする。
ステップS1001では、制御部211は、コントローラ120の姿勢センサ部224(IMU)により検出した慣性情報(コントローラ120の姿勢および位置の情報)を取得する。
ステップS1002では、制御部211は、慣性情報に基づきレイを動かす。具体的には、制御部211は、慣性情報に基づきユーザの手の人差し指が示す先の位置を判定して、ユーザの手の人差し指が示す先の位置にレイの先端の位置を移動させる。
ステップS1003では、制御部211は、ユーザによりOTP操作が行われたか否かを判定する。OTP操作が行われたと判定された場合には、ステップS1004に進む。OTP操作が行われていないと判定された場合には、ステップS1001に戻る。
OTP操作は、OTPのスライド操作だけでなく、OTPの表面を叩くようなタップ操作、OTPと一体型で構成される押し込みボタンを押す操作などであってよい。つまり、OTP操作は、OTPを使った操作であれば任意の操作であってよい。なお、OTP制御モードにおいてマウスカーソルを動かすための操作(つまり、スライド操作など)がOTP操作として行われると、レイ制御モードから操作の連続性があるため、特に使い勝手がよい。
ステップS1004では、制御部211は、レイの先端が切替領域に位置しているか否かを判定する。切替領域は、図4の例では、画像表示部203の表示領域のうちのウィンドウ401A~401Cである。レイの先端が切替領域に位置すると判定された場合には、ステップS1005に進む。レイの先端が切替領域に位置しないと判定された場合には、ステップS1006に進む。
ステップS1005では、制御部211は、制御モードをOTP制御モードに切り替える。そして、制御部211は、レイの先端の位置にマウスカーソルを表示して、レイを非表示にする。これにより、制御モードの切り替え時に、位置を指定する表示アイテム(レイの先端およびマウスカーソル)が示す位置が変化しないので、ユーザがマウスカーソルを見失うことを抑制することができる。
なお、制御部211は、レイの先端の位置にマウスカーソルを表示する代わりに、予め定められた位置(所定の位置)にマウスカーソルを表示させてもよい。例えば、制御部211は、音楽プレイヤー起動時であれば、再生ボタン上にマウスカーソルを表示させることや、次の操作が明確であれば、当該次の操作に応じた位置にマウスカーソルを表示する。このことにより、ユーザの操作性が向上する場合がある。また、文書作成を再開して、前回の続きの位置から文字の入力を行うような場合にも、レイの先端の位置ではなく、前回と同じ位置にマウスカーソルを表示させた方が使い勝手がよい場合もある。なお、ユーザが行う操作の内容や状況により、マウスカーソルの最適な位置が異なる。制御部211は、状況などに応じて異なる位置にマウスカーソルを表示してもよい。
ステップS1006では、制御部211は、OTP操作を無視して、レイ制御モードを継続する(制御モードを切り替えない)。このようなステップS1006の処理が行われることで、ユーザがOTPに意図しないで触れてしまったような場合に、不要な制御モードの切り替えを抑制することが可能となる。
また、図3のフローチャートでは、レイの先端が切替領域に位置する場合において、OTP操作が行われると、レイ制御モードからOTP制御モードに切り替わる。しかし、レイの先端が切替領域に位置する場合において、切替領域(ウィンドウ)を意図的に選択する操作が行われた後に、さらに、この操作とは異なるOTP操作が行われると、レイ制御モードからOTP制御モードに切り替わってもよい。切替領域を意図的に選択する操作が追加されることによって、ユーザの意図に反してOTP制御モードに切り替わってしまう可能性を低減できる。「切替領域を意図的に選択する操作」は、レイ制御モードにおいてコントローラ120を振る操作(タップするような動きをコントローラ120にさせる操作)や、OTPに触わる操作であってもよい。また、「切替領域を意図的に選択する操作」は、レイを制御するための操作およびOTP操作とは異なる操作であってもよい。
次に、図6のフローチャートを参照して、OTP制御モードからレイ制御モードに切り替える処理を説明する。マウスカーソルは、基本的には、1つのウィンドウ401内の位置のみを指し示す。このため、例えば、OTP制御モードでウィンドウ401Cにマウスカーソルが表示されている状態で、ユーザが他のウィンドウ401Aを選択したい場合でも、マウスカーソルはウィンドウ401Aにたどり着かない。従って、ユーザは、一度、
表示アイテムをマウスカーソルからレイに切り替えた後に、ウィンドウ401Aを選択する必要がある。また、各ウィンドウ401間は比較的距離が長い可能性が高いため、レイを用いて位置を指定した方が、ユーザの利便性が高いという利点もある。なお、ウィンドウ401A~401Cの表示領域は、3次元空間における2次元的な平面で表示されているため、奥行きが固定されている。
ステップS2001では、制御部211は、OTPに対するスライド操作の情報を取得したか否かを判定する。そして、スライド操作の情報が取得されたと判定された場合には、ステップS2002において、制御部211は、スライド操作の情報に応じて、マウスカーソルを移動させる。スライド操作の情報が取得されていないと判定された場合には、ステップS2003に進む。
ステップS2003では、制御部211は、制御モードをOTP制御モードからレイ制御モードに切り替えるための操作(切替操作)が行われたか否かを判定する。切替操作が行われたと判定された場合には、ステップS2004に進む。切替操作が行われていないと判定された場合には、ステップS2005に進む。
切替操作は、例えば、特定の条件を満たすようにコントローラ120またはユーザの手を動かす(コントローラ120またはユーザの手の位置または姿勢を変える)操作である。切替操作は、例えば、手首をひねるように、一気に勢いよくコントローラ120の向きを変える操作や、コントローラ120を連続して振る操作などである。または、切替操作は、手を特定の形に変化させるようなハンドゼスチャーであってもよい。つまり、切替操作は、OTP操作(スライド操作など)とは異なる操作であって、OTP制御モードでは行われないような操作であればよい。
ステップS2004では、制御部211は、制御モードをレイ制御モードに切り替えて、マウスカーソルが示す位置にレイの先端が位置するようにレイを表示する。そして、制御部211は、マウスカーソルを非表示にする。ステップS2005では、制御部211は、切替操作を無視して、OTP制御モードを継続させる(制御モードを切り替えない)。
以上、実施形態1によれば、レイ制御モードにおいて、レイの先端がウィンドウ(切替領域)の内部に位置している状態でOTP操作が行われると、OTP操作により位置を指定する制御モードであるOTP制御モードにレイ制御モードから切り替えられる。すると、ユーザは、ウィンドウの内部において、OTP操作によりマウスカーソルを制御して、細かな位置指定が可能になる。このため、実施形態1によれば、ユーザにとって利便性が高く、位置を示す複数の表示アイテム(レイおよびマウスカーソル)を制御することができる。
なお、上記の説明において、姿勢センサ部224は、IMUを有する例を説明したが、位置を指定するための情報(特定の位置または姿勢の情報など)を取得可能であればよい。例えば、姿勢センサ部224は、原点位置を判定するカメラ(HMD100に搭載されたカメラ)と加速度センサとを有していてもよい。または、姿勢センサ部224は、カメラのみを有しており、カメラによってコントローラ120の姿勢を検出してもよい。
なお、切替領域は、ウィンドウ401のうちの特定の領域(メニューエリア、OKボタンの領域、またはポップアップの領域)であってもよい。また、レイの代わりに、レイの先端に相当する位置に表示されるポインタを用いてもよい。
<変形例1>
以下、図7および図8を参照して、変形例1に係るHMD100について説明する。変形例1では、マウスカーソルの代わりに、選択されたアイコンを示す太枠が用いられる例を説明する。
図7は、レイ制御モードにおけるHMD100の表示領域を示している。表示領域には、ウィンドウ401A、ウィンドウ401B、およびウィンドウ401Cが表示されている。変形例1においても、切替領域は、ウィンドウ401A~ウィンドウ401Cである。ウィンドウ401Cの領域内には、スマートフォンやタブレットの画面のように、複数のアイコン701が並んでいる。複数のアイコン701の中から1つのアイコン701が決定されると、決定されたアイコン701が示すアプリケーションが起動する。なお、ウィンドウ401Cは、アイコン701の代わりに文字情報が並んで表示されたメニュー画面(機能の選択や設定が可能な画面)であってもよい。
ここで、図7に示すように、レイの先端がウィンドウ401Cに位置するように移動した後に、OTP操作が行われると、レイ制御モードからOTP制御モードに切り替わり、図8に示すような合成画像が表示される。
図8は、レイの先端に位置していたアイコン701が、太枠702(表示アイテム)によって強調表示がされた状態を示している。なお、アイコン701は、太枠702に囲われる代わりに、前方に浮き出るような表示がされることにより、強調表示(ホバー表示)がされていてもよい(他のアイコン701と区別可能に表示されていてもよい)。アイコン701とアイコン701の間隔が狭く、レイによって1つのアイコン701を正確に選択することが難しい場合がある。そこで、制御部211は、レイの先端がウィンドウ401Cに位置していれば、OTP操作に応じて、制御モードをOTP制御モードに切り替える。そして、制御部211は、太枠702を表示することによって、アイコン701の強調表示を行う。
また、制御部211は、OTP制御モードでは、OTP操作が行われるたび(例えば、OTPの特定のボタンが押下されるたび)に、選択されるアイコン701を示す太枠702を1つ隣のアイコン701に移動させる。このため、ユーザは、アイコン701のサイズが小さくても、意図するアイコン701を正確に選択できる。ユーザは、アイコン701のサイズが大きい場合であっても、1回の操作で太枠702を1つ隣のアイコン701に移動させることができるので、意図するアイコン701まで太枠702を一気に移動させることができる。
<変形例2>
以下、図9および図10を参照して、変形例2に係るHMD100について説明する。変形例2では、ウィンドウの代わりにCGが表示され、マウスカーソルの代わりにアイコンが用いられる例を説明する。
図9は、レイ制御モードにおけるHMD100(画像表示部203)の表示領域を示している。画像表示部203の表示領域には、3つの直方体のCG801が表示されている。ここで、変形例2では、切替領域は、実施形態1に係る「ウィンドウ」の代わりに、「CG」であるとする。図9では、直方体のCG801のうちの1つが、レイによって示されている。そして、この状態で、OTP操作が行われると、制御モードがOTPモードに切り替えられて、図10に示すような合成画像が表示される。
OTP制御モードでは、ユーザは、OTP操作を行うことによって、CG801の拡大または縮小を行うことができる。例えば、制御部211は、右方向のスライド操作が行われたらCG801を拡大させ、左方向のスライド操作が行われたらCG801を縮小させ
る。
これによれば、OTP操作によって制御モードの切り替えおよびCGの拡大が可能であるので、レイによりCG801を示すことから、CG801の大きさの制御を連続的に行うことができる。また、レイの先端に位置するCG801の大きさが変化するので、ユーザは、視線を移動させる必要がなく、操作の対象を見失わない。
なお、OTP制御モードでは、制御部211は、CG801の大きさを示す矢印状のアイコン802を表示させている。しかし、制御部211は、矢印状のアイコン802を表示させずに、CG801の端のライン(アイコン802が示している縦のライン)、または、CG801の側面を表示アイテム(位置を指定する表示アイテム)として扱ってもよい。この場合には、制御部211は、CG801の端のラインを、他のラインと異なる表示形態で表示してもよい。例えば、制御部211は、CG801の端のラインを、点滅させたり、他のラインと違う色で表示させたりしてもよい。
<変形例3>
以下、図11を参照して、変形例3に係るHMD100について説明する。レイ制御モードでは、HMD100の表示領域は、変形例2と同様に、図9に示すようなレイやCG801を表示しているものとする。図9に示すような、レイの先端がCG801に位置する状態で、OTP操作が行われると、制御モードがOTP制御モードに切り替わり、図11に示すような合成画像が表示される。
図11は、OTP制御モードにおけるHMD100の表示領域を示している。図11では、OTP操作に応じて、CG801の表面の色や模様が制御されている。そして、模様や色の候補を示すカラーパレット901が、CG801に隣接して表示されている。制御部211は、OTP操作により模様や色が選択されると、選択内容をCG801の表示に反映させる。変形例3では、制御部211は、OTP操作が行われると、カラーパレット901(カラーパレット901が表示された領域)において、選択する模様を示す四角の枠902を、マウスカーソルの代わりに動かす。
また、上記において、「AがB以上の場合にはステップS1に進み、AがBよりも小さい(低い)場合にはステップS2に進む」は、「AがBよりも大きい(高い)場合にはステップS1に進み、AがB以下の場合にはステップS2に進む」と読み替えてもよい。逆に、「AがBよりも大きい(高い)場合にはステップS1に進み、AがB以下の場合にはステップS2に進む」は、「AがB以上の場合にはステップS1に進み、AがBよりも小さい(低い)場合にはステップS2に進む」と読み替えてもよい。このため、矛盾が生じない限り、「A以上」という表現は、「AまたはAよりも大きい(高い;長い;多い)」と置き換えてもよいし、「Aよりも大きい(高い;長い;多い)」と読み替えてよく、置き換えてもよい。一方で、「A以下」という表現は、「AまたはAよりも小さい(低い;短い;少ない)」と置き換えてもよいし、「Aよりも小さい(低い;短い;少ない)」と置き換えても読み替えてもよい。そして、「Aよりも大きい(高い;長い;多い)」は、「A以上」と読み替えてもよく、「Aよりも小さい(低い;短い;少ない)」は「A以下」と読み替えてもよい。
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。
なお、上記の各実施形態(各変形例)の各機能部は、個別のハードウェアであってもよいし、そうでなくてもよい。2つ以上の機能部の機能が、共通のハードウェアによって実
現されてもよい。1つの機能部の複数の機能のそれぞれが、個別のハードウェアによって実現されてもよい。1つの機能部の2つ以上の機能が、共通のハードウェアによって実現されてもよい。また、各機能部は、ASIC、FPGA、DSPなどのハードウェアによって実現されてもよいし、そうでなくてもよい。例えば、装置が、プロセッサと、制御プログラムが格納されたメモリ(記憶媒体)とを有していてもよい。そして、装置が有する少なくとも一部の機能部の機能が、プロセッサがメモリから制御プログラムを読み出して実行することにより実現されてもよい。
(その他の実施形態)
本発明は、上記の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上記の実施形態の開示は、以下の構成、方法、およびプログラムを含む。
[構成1]
第1の制御モードにおいて、コントローラの慣性情報に基づく位置を示す第1の表示アイテムを、表示手段の表示領域に表示するように制御する第1の表示制御手段と、
第2の制御モードにおいて、前記表示領域のうち第1の領域における、特定の操作部材に対する第1の操作に応じた位置を示す第2の表示アイテムを前記表示領域に表示するように制御する第2の表示制御手段と、
前記第1の制御モードにおいて、前記第1の表示アイテムが示す位置が前記表示領域のうちの第2の領域に含まれる場合には、特定の操作が行われると、前記第1の制御モードから前記第2の制御モードに切り替える切替手段と、
を有することを特徴とする情報処理装置。
[構成2]
前記第2の表示制御手段は、前記第1の制御モードから前記第2の制御モードに切り替えられると、前記第1の表示アイテムが示す位置を示すように前記第2の表示アイテムを前記表示領域に表示する、
ことを特徴とする構成1に記載の情報処理装置。
[構成3]
前記第2の表示制御手段は、前記第1の制御モードから前記第2の制御モードに切り替えられると、前記第1の領域のうちの予め定められた位置を示すように前記第2の表示アイテムを前記表示領域に表示する、
ことを特徴とする構成1に記載の情報処理装置。
[構成4]
前記第1の操作とは、前記特定の操作部材の表面をなぞる操作である、
ことを特徴とする構成1から3のいずれか1項に記載の情報処理装置。
[構成5]
前記特定の操作とは、前記特定の操作部材に対する操作である、
ことを特徴とする構成1から4のいずれか1項に記載の情報処理装置。
[構成6]
前記切替手段は、前記第1の制御モードにおいて、前記第1の表示アイテムが示す位置が前記第2の領域に含まれない場合には、前記特定の操作が行われても、前記第1の制御モードから前記第2の制御モードに切り替えない、
ことを特徴とする構成1から5のいずれか1項に記載の情報処理装置。
[構成7]
前記切替手段は、
前記第1の制御モードにおいて、前記第1の表示アイテムが示す位置が前記第2の領域に含まれる場合には、前記第2の領域を選択する操作の後に、前記特定の操作が行われる
と、前記第1の制御モードから前記第2の制御モードに切り替え、
前記第1の制御モードにおいて、前記第1の表示アイテムが示す位置が前記第2の領域に含まれる場合には、前記第2の領域を選択する操作の後でなければ、前記特定の操作が行われても、前記第1の制御モードから前記第2の制御モードに切り替えない、
ことを特徴とする構成1から6のいずれか1項に記載の情報処理装置。
[構成8]
前記切替手段は、前記第2の制御モードにおいて、前記第1の操作および前記特定の操作のいずれとも異なる第2の操作が行われると、前記第2の制御モードから前記第1の制御モードに切り替える、
ことを特徴とする構成1から7のいずれか1項に記載の情報処理装置。
[構成9]
前記第2の操作とは、特定の条件を満たすように前記コントローラまたはユーザの手を動かす操作である、
ことを特徴とする構成8に記載の情報処理装置。
[構成10]
前記第1の表示アイテムは、レイであり、
前記第1の表示アイテムが示す位置は、前記レイの先端の位置である、
ことを特徴とする構成1から9のいずれか1項に記載の情報処理装置。
[方法]
第1の制御モードにおいて、コントローラの慣性情報に基づく位置を示す第1の表示アイテムを、表示手段の表示領域に表示するように制御する第1の表示制御ステップと、
第2の制御モードにおいて、前記表示領域のうち第1の領域における、特定の操作部材に対する第1の操作に応じた位置を前記表示領域に示す第2の表示アイテムを表示するように制御する第2の表示制御ステップと、
前記第1の制御モードにおいて、前記第1の表示アイテムが示す位置が前記表示領域のうちの第2の領域に含まれる場合には、特定の操作が行われると、前記第1の制御モードから前記第2の制御モードに切り替える切替ステップと、
を有することを特徴とする情報処理方法。
[プログラム]
コンピュータを、構成1から10のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
110:情報処理装置、211:制御部、
100:HMD、203:画像表示部

Claims (12)

  1. 第1の制御モードにおいて、コントローラの慣性情報に基づく位置を示す第1の表示アイテムを、表示手段の表示領域に表示するように制御する第1の表示制御手段と、
    第2の制御モードにおいて、前記表示領域のうち第1の領域における、特定の操作部材に対する第1の操作に応じた位置を示す第2の表示アイテムを前記表示領域に表示するように制御する第2の表示制御手段と、
    前記第1の制御モードにおいて、前記第1の表示アイテムが示す位置が前記表示領域のうちの第2の領域に含まれる場合には、特定の操作が行われると、前記第1の制御モードから前記第2の制御モードに切り替える切替手段と、
    を有することを特徴とする情報処理装置。
  2. 前記第2の表示制御手段は、前記第1の制御モードから前記第2の制御モードに切り替えられると、前記第1の表示アイテムが示す位置を示すように前記第2の表示アイテムを前記表示領域に表示する、
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記第2の表示制御手段は、前記第1の制御モードから前記第2の制御モードに切り替えられると、前記第1の領域のうちの予め定められた位置を示すように前記第2の表示アイテムを前記表示領域に表示する、
    ことを特徴とする請求項1に記載の情報処理装置。
  4. 前記第1の操作とは、前記特定の操作部材の表面をなぞる操作である、
    ことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
  5. 前記特定の操作とは、前記特定の操作部材に対する操作である、
    ことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
  6. 前記切替手段は、前記第1の制御モードにおいて、前記第1の表示アイテムが示す位置が前記第2の領域に含まれない場合には、前記特定の操作が行われても、前記第1の制御モードから前記第2の制御モードに切り替えない、
    ことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
  7. 前記切替手段は、
    前記第1の制御モードにおいて、前記第1の表示アイテムが示す位置が前記第2の領域に含まれる場合には、前記第2の領域を選択する操作の後に、前記特定の操作が行われると、前記第1の制御モードから前記第2の制御モードに切り替え、
    前記第1の制御モードにおいて、前記第1の表示アイテムが示す位置が前記第2の領域に含まれる場合には、前記第2の領域を選択する操作の後でなければ、前記特定の操作が行われても、前記第1の制御モードから前記第2の制御モードに切り替えない、
    ことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
  8. 前記切替手段は、前記第2の制御モードにおいて、前記第1の操作および前記特定の操作のいずれとも異なる第2の操作が行われると、前記第2の制御モードから前記第1の制御モードに切り替える、
    ことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
  9. 前記第2の操作とは、特定の条件を満たすように前記コントローラまたはユーザの手を動かす操作である、
    ことを特徴とする請求項8に記載の情報処理装置。
  10. 前記第1の表示アイテムは、レイであり、
    前記第1の表示アイテムが示す位置は、前記レイの先端の位置である、
    ことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
  11. 第1の制御モードにおいて、コントローラの慣性情報に基づく位置を示す第1の表示アイテムを、表示手段の表示領域に表示するように制御する第1の表示制御ステップと、
    第2の制御モードにおいて、前記表示領域のうち第1の領域における、特定の操作部材に対する第1の操作に応じた位置を示す第2の表示アイテムを前記表示領域に表示するように制御する第2の表示制御ステップと、
    前記第1の制御モードにおいて、前記第1の表示アイテムが示す位置が前記表示領域のうちの第2の領域に含まれる場合には、特定の操作が行われると、前記第1の制御モードから前記第2の制御モードに切り替える切替ステップと、
    を有することを特徴とする情報処理方法。
  12. コンピュータを、請求項1から3のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2022128583A 2022-08-12 2022-08-12 情報処理装置、情報処理方法、プログラム Pending JP2024025272A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022128583A JP2024025272A (ja) 2022-08-12 2022-08-12 情報処理装置、情報処理方法、プログラム
US18/365,319 US12032754B2 (en) 2022-08-12 2023-08-04 Information processing apparatus, information processing method, and non-transitory computer readable medium
CN202311002597.9A CN117590930A (zh) 2022-08-12 2023-08-10 信息处理设备、信息处理方法和计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022128583A JP2024025272A (ja) 2022-08-12 2022-08-12 情報処理装置、情報処理方法、プログラム

Publications (1)

Publication Number Publication Date
JP2024025272A true JP2024025272A (ja) 2024-02-26

Family

ID=89846169

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022128583A Pending JP2024025272A (ja) 2022-08-12 2022-08-12 情報処理装置、情報処理方法、プログラム

Country Status (2)

Country Link
JP (1) JP2024025272A (ja)
CN (1) CN117590930A (ja)

Also Published As

Publication number Publication date
US20240053832A1 (en) 2024-02-15
CN117590930A (zh) 2024-02-23

Similar Documents

Publication Publication Date Title
US11768579B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
EP3997552B1 (en) Virtual user interface using a peripheral device in artificial reality environments
JP6702489B2 (ja) ヘッドマウントディスプレイ、情報処理方法、及びプログラム
CN108780360B (zh) 虚拟现实导航
JP4533087B2 (ja) 画像処理方法、画像処理装置
CN107315512B (zh) 图像处理设备、图像处理方法和程序
JP6144242B2 (ja) 3dリモートコントローラ用のguiアプリケーション
US9513765B2 (en) Three-dimensional sliding object arrangement method and system
Hachet et al. Navidget for easy 3d camera positioning from 2d inputs
JP5839220B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11380021B2 (en) Image processing apparatus, content processing system, and image processing method
US20120102438A1 (en) Display system and method of displaying based on device interactions
WO2016109409A1 (en) Virtual lasers for interacting with augmented reality environments
EP2558924B1 (en) Apparatus, method and computer program for user input using a camera
JP2009157908A (ja) 情報表示端末、情報表示方法、およびプログラム
US11720171B2 (en) Methods for navigating user interfaces
EP3759711B1 (en) Methods, systems, and media for object grouping and manipulation in immersive environments
JP2007299330A (ja) 画像表示装置、その制御方法及びプログラム
CN117980962A (zh) 用于内容应用的设备、方法和图形用户界面
WO2014178039A1 (en) Scrolling electronic documents with a smartphone
JP6712865B2 (ja) 情報処理装置、設定画面表示方法及び設定画面表示プログラム
JP2024025272A (ja) 情報処理装置、情報処理方法、プログラム
JP6801138B1 (ja) 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム
US12032754B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP2017040893A (ja) 頭部装着型表示装置に関するプログラム