JP2023181639A - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP2023181639A
JP2023181639A JP2022094887A JP2022094887A JP2023181639A JP 2023181639 A JP2023181639 A JP 2023181639A JP 2022094887 A JP2022094887 A JP 2022094887A JP 2022094887 A JP2022094887 A JP 2022094887A JP 2023181639 A JP2023181639 A JP 2023181639A
Authority
JP
Japan
Prior art keywords
virtual object
type
hand
user
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022094887A
Other languages
English (en)
Inventor
仁史 山崎
Hitoshi Yamazaki
孝典 長沼
Takanori Naganuma
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2022094887A priority Critical patent/JP2023181639A/ja
Publication of JP2023181639A publication Critical patent/JP2023181639A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】仮想オブジェクトについてのユーザの操作性を向上させる情報処理装置を提供する。【解決手段】端末装置20は、表示制御部211と、認識部212と、判定部213と、仮想オブジェクト制御部214とを備える。判定部213は、仮想空間において手の位置がアイコンに対応する領域に位置し、且つ手のジェスチャの種別が第1種別であると認識された後、第1種別のジェスチャが保たれた状態で、第1仮想オブジェクトへ手の位置が移動し、且つ第1仮想オブジェクトに対応する領域において手のジェスチャの種別が第1種別から第2種別に変化したと認識されたかを判定する第1判定を実行する。仮想オブジェクト制御部214は、判定部213による第1判定の判定結果が肯定の場合、第1仮想オブジェクトに対してアイコンに対応付けられた処理を実行する。【選択図】図6

Description

本発明は、情報処理装置に関する。
特許文献1は、ユーザが両手の拳を突き合わせるジェスチャを検知した場合、タブを閉じる処理を実行する装置が開示されている。
特表2014-503903号公報
しかしながら、拡張現実空間又は複合現実空間に複数の仮想オブジェクトが存在する場合、ジェスチャに応じて何らかの処理を実行するとすれば、ユーザはターゲットとなる仮想オブジェクトを指定する操作が必要となる。
本開示は、仮想オブジェクトについてのユーザの操作性を向上させる情報処理装置を提供することを目的とする。
本開示に係る情報処理装置は、ユーザが視認する表示装置に、第1仮想オブジェクト及びアイコンが現実空間に重畳された仮想空間の一部を表示させる表示制御部と、前記仮想空間における前記ユーザの手の位置及び前記手のジェスチャの種別を、外界を撮像することによって得られた撮像画像に基づいて認識する認識部と、前記仮想空間において、前記手の位置が前記アイコンに対応する領域に位置し、且つ前記手のジェスチャの種別が第1種別であると認識された後、前記第1種別のジェスチャが保たれた状態で、前記第1仮想オブジェクトに向けて前記手の位置が移動し、且つ前記第1仮想オブジェクトに対応する領域において前記手のジェスチャの種別が前記第1種別から第2種別に変化したと認識されたかを判定する第1判定を実行する判定部と、前記判定部による前記第1判定の判定結果が肯定の場合、前記第1仮想オブジェクトに対して前記アイコンに対応付けられた処理を実行する仮想オブジェクト制御部と、を備える。
本開示によれば、仮想オブジェクトについてのユーザの操作性を向上させることができる。
情報処理システム1の全体構成を示すブロック図。 ユーザUが位置する仮想空間VSの一例を示す説明図。 図2のユーザUがXRグラス30を通して前方を視たときに視認する視野像IMGの模式図。 XRグラス30の外観の一例を示す斜視図。 XRグラス30の電気的な構成の一例を示すブロック図。 端末装置20の電気的な構成の一例を示すブロック図。 図2の仮想空間VSにおけるアイコンICNの表示例を示す図。 アイコンICNの位置の固定についての説明図。 判定部213によって判定される一連の動作の説明図。 端末装置20の動作例を示すフローチャート。 変形例1の端末装置20の動作例を示すフローチャート。 仮想空間VSにおける延長線Leに沿った線VOEの表示例を示す図。 変形例3の端末装置20の電気的な構成の一例を示すブロック図。 仮想空間VSにおけるアプリケーションに対応する第1アイコンICN_A及び第4仮想オブジェクトVO4の表示例を示す図。
1:実施形態
以下、図1から図10を参照しつつ、情報処理システム1について説明する。
1.1:実施形態の構成
図1は、情報処理システム1の全体構成を示すブロック図である。
図1に示されるように、情報処理システム1は、ユーザ装置10と、管理サーバ40と、を備える。ユーザ装置10は、ユーザUによって使用される装置である。情報処理システム1において、ユーザ装置10の個数は1台に限らず2台以上でもよい。管理サーバ40は、ユーザ装置10の位置を管理する位置管理サーバ40Aと、仮想オブジェクトを管理するオブジェクト管理サーバ40Bと、を含む。
情報処理システム1において、位置管理サーバ40Aとユーザ装置10とは、通信網NWを介して互いに通信する。オブジェクト管理サーバ40Bとユーザ装置10とは、通信網NWを介して互いに通信する。また、ユーザ装置10は、端末装置20及びXRグラス30を備える。端末装置20とXRグラス30とは無線通信又は有線通信を用いて互いに通信する。
端末装置20は、XRグラス30の表示を制御する機能を少なくとも有した情報処理装置の一例である。また、端末装置20は、XRグラス30と位置管理サーバ40A及びオブジェクト管理サーバ40Bとの間の通信を中継する中継装置として機能する。端末装置20は、例えば、スマートフォン及びタブレット端末に代表される携帯型の情報処理装置が用いられる。
XRグラス30は、ユーザUの頭部に装着される。XRグラス30は、仮想オブジェクトを視認可能なシースルー方式のグラスである。ユーザUは、XRグラス30を通して、現実空間を視認しながら仮想オブジェクトも視認する。仮想オブジェクトは、仮想空間VSの中に配置される仮想的なオブジェクトであり、仮想空間VSにおいて、現実空間の座標系に対応付けられた位置に配置される。
ユーザUは、XRグラス30を用いることによって、現実空間と仮想空間VSが複合された拡張現実空間又は複合現実空間を認識する。拡張現実空間とは、現実空間に実存するオブジェクトである実オブジェクトROに仮想オブジェクトを重ねて表示することが可能な仮想空間VSを意味する。複合現実空間とは、現実空間の実オブジェクトROと仮想オブジェクトとが相互に関係する仮想空間VSを意味する。拡張現実空間では、仮想オブジェクトは単に実オブジェクトROと重畳して表示される。これに対して、複合現実空間では、仮想オブジェクトの物理モデルを用いることによって、仮想オブジェクトと実オブジェクトROとの間の相互の作用を表現できる。例えば、ユーザUがボールの仮想オブジェクトを実オブジェクトROの壁に投げると、ボールが壁で跳ね返る様子が表現される。
以下、仮想空間VSとして拡張現実空間を説明する。
図1に示されXRグラス30は、外界を撮像する撮像装置36(図4参照)を備える。撮像装置36によって撮像された撮像画像Gkは、端末装置20を介して位置管理サーバ40Aに送信される。位置管理サーバ40Aは、端末装置20から送信される撮像画像Gkを受信する。位置管理サーバ40Aは、撮像画像Gkに基づいて、グラス位置情報Pkと、方向情報Dkとを特定し、これらグラス位置情報Pkと、方向情報Dkとを端末装置20へ返信する。グラス位置情報Pkは、現実空間におけるXRグラス30の位置を示す情報である。方向情報Dkは、現実空間におけるXRグラス30の指向方向を示す情報である。
位置管理サーバ40Aは、特徴点マップMを記憶している。特徴点マップMは、複数の特徴点を三次元のグローバル座標系によって表現したデータである。特徴点マップMは、例えば、ステレオカメラを用いて撮像した画像から複数の特徴点を抽出することによって生成される。現実空間における位置はグローバル座標系によって表現される。
位置管理サーバ40Aは、撮像画像Gkから複数の特徴点を抽出し、抽出した複数の特徴点を特徴点マップMに記憶されている複数の特徴点と照合することによって、撮像画像Gkが撮像された位置と撮像の方向とを特定する。位置管理サーバ40Aは、撮像された位置をグラス位置情報Pkとし、撮像の方向を方向情報Dkとする。
XRグラス30は、撮像画像Gkを位置管理サーバ40Aへ周期的に送信することによって、グラス位置情報Pk及び方向情報Dkを位置管理サーバ40Aから周期的に取得する。なお、XRグラス30は、ローカル座標のリアルタイムのトラッキングを実行し、位置管理サーバ40Aから取得するグラス位置情報Pk及び方向情報Dkを用いて、リアルタイムに自身の位置及び自身の指向方向を補正する。この補正によって、XRグラス30は、リアルタイムにグローバル座標系で表される自身の位置及び自身の指向方向を認識できる。
以下の説明では、XRグラス30が補正したグラス位置情報Pkを補正後グラス位置情報Pckと称し、XRグラス30が補正した方向情報Dkを補正後方向情報Dckと称する。
オブジェクト管理サーバ40Bは、ユーザ装置10から補正後グラス位置情報Pckと補正後方向情報Dckとを受信した場合、補正後グラス位置情報Pck及び補正後方向情報Dckに基づいて、仮想オブジェクトのレンダリングを実行する。オブジェクト管理サーバ40Bは、レンダリングした仮想オブジェクトを端末装置20に送信する。仮想オブジェクトは、任意のオブジェクトを模した例えば画像のデータである。
以下では、情報を表示するウィンドウを仮想オブジェクトの例として説明する。ウィンドウは、コンピュータのGUI(Graphical User Interface)において、情報の表示に用いられる領域である。この領域の形状は典型的には平面視矩形である。情報には、文字、静止画像及び動画像が少なくとも該当する。
また、仮想空間VSには、少なくとも1つの仮想オブジェクトが配置される。以下では、第1仮想オブジェクトVO1、第2仮想オブジェクトVO2、及び第3仮想オブジェクトVO3の3つの仮想オブジェクトが仮想空間VSに配置された場合を説明する。
図2は、ユーザUが位置する仮想空間VSの一例を示す説明図である。
なお、同図に示す仮想空間VSは拡張現実空間である。同図において、実線は現実空間に実存する実オブジェクトROを示し、破線は仮想オブジェクト(第1仮想オブジェクトVO1、第2仮想オブジェクトVO2及び第3仮想オブジェクトVO3)を示す。
また、同図において、X軸、Y軸及びZ軸の直交座標軸は、空間の理解を容易にするために便宜的に示したものであり、現実空間を示すグローバル座標系及びローカル座標を正確に示したものではない。以下の説明において、ユーザUを基点とし、撮像方向Dpが指向する方向を前方と定義し、この前方の反対方向を後方と定義する。同図において撮像方向DpはX軸に平行である。
図2の例は、ユーザUの前方に1つの実オブジェクトROと、第1仮想オブジェクトVO1及び第2仮想オブジェクトVO2とが位置し、ユーザUの後方に第3仮想オブジェクトVO3が位置した仮想空間VSを示している。また、仮想空間VSにおいて、ユーザU、実オブジェクトRO、第1仮想オブジェクトVO1、第2仮想オブジェクトVO2及び第3仮想オブジェクトVO3のX座標値はそれぞれ、X_U、X_RO、X_VO1、X_VO2、X_VO3である。また、これらのX座標値のうち、X_VO1はX_VO2よりも大きく、第1仮想オブジェクトVO1はユーザUを基点として第2仮想オブジェクトVO2よりも遠くに配置されている。
図3は、図2のユーザUがXRグラス30を通して前方を視たときに視認する視野像IMGの模式図である。
図3に示すように、前掲図2の仮想空間VSのうち、ユーザUは自身の前方である撮像方向Dpに対応する空間(すなわち、仮想空間VSの一部)を視認する。具体的には、仮想空間VSに配置された第1仮想オブジェクトVO1、第2仮想オブジェクトVO2及び第3仮想オブジェクトVO3のうち、第1仮想オブジェクトVO1及び第2仮想オブジェクトVO2を視認する。また、前掲図2に示すように、第1仮想オブジェクトVO1は第2仮想オブジェクトVO2よりもユーザUから撮像方向Dpに沿って遠くに位置するため、図3に示すように、第1仮想オブジェクトVO1は第2仮想オブジェクトVO2よりも小さく表示される。この表示により遠近感が表現される。
図4は、XRグラス30の外観の一例を示す斜視図である。
XRグラス30は、テンプル301及び302と、ブリッジ303と、フレーム304及び305と、リム306及び307と、レンズ310A及び310Bと、撮像レンズLENとを備え、これらが外観から視認される。
ブリッジ303は、一方向に延び、リム306及び307が繋がる部材である。ブリッジ303は、延在方向の略中央部に、撮像レンズLENが設けられている。撮像レンズLENは、図5に示される撮像装置36が備える部材である。
フレーム304は、ユーザUの左耳に引っ掛けられるテンプル301とブリッジ303とを繋ぐ棒状の部材である。フレーム304は、左眼用の表示パネルと左眼用の光学部材とを備えている。表示パネルは、例えば、液晶パネル又は有機EL(Electro Luminescence)パネルである。左眼用の表示パネルは、端末装置20からの制御に基づいて、仮想オブジェクト(第1仮想オブジェクトVO1、第2仮想オブジェクトVO2及び第3仮想オブジェクトVO3)に対応する投射画像を表示する。左眼用の光学部材は、左眼用の表示パネルから射出された光をレンズ310Aに導光する光学部材である。
フレーム305は、ユーザUの右耳に引っ掛けられるテンプル302とブリッジ303とを繋ぐ棒状の部材である。フレーム305は、右眼用の表示パネルと右眼用の光学部材とを備えている。右眼用の表示パネルは、端末装置20からの制御に基づいて、第1仮想オブジェクトVO1、第2仮想オブジェクトVO2及び第3仮想オブジェクトVO3に対応する投射画像を表示する。右眼用の光学部材は、右眼用の表示パネルから射出された光をレンズ310Bに導光する光学部材である。リム306は、左眼用のレンズ310Aを保持する。リム307は、右眼用のレンズ310Bを保持する。
レンズ310A及び310Bの各々は、ハーフミラーを有する。ハーフミラーは、現実空間の光を透過させることによって、現実空間の光をユーザUの眼に導く。また、ハーフミラーは、光学部材によって導光された第1仮想オブジェクトVO1、第2仮想オブジェクトVO2及び第3仮想オブジェクトVO3を示す光をユーザUの眼に向けて反射する。ハーフミラーを透過した現実空間の光と、ハーフミラーによって反射された第1仮想オブジェクトVO1、第2仮想オブジェクトVO2及び第3仮想オブジェクトVO3を示す光とが重畳してユーザUの眼に入ることによって、ユーザUは、現実空間に第1仮想オブジェクトVO1、第2仮想オブジェクトVO2及び第3仮想オブジェクトVO3が位置しているように知覚する。すなわち、レンズ310A及び310Bは、眼球の前面に配置される透過型の表示装置として機能する。
図5は、XRグラス30の電気的な構成の一例を示すブロック図である。
XRグラス30は、第1処理装置31と、記憶装置32と、検出装置35と、撮像装置36と、通信装置37と、投影装置38と、を備える。これら第1処理装置31、記憶装置32、検出装置35、撮像装置36、通信装置37及び投影装置38がバスを介して相互にデータ送受可能に接続される。
第1処理装置31は、1または複数のCPU(Central Processing Unit)を含む。CPUは、周辺装置とのインターフェース、演算装置及びレジスタ等を含む。1又は複数のCPUは、1又は複数のプロセッサの一例である。プロセッサおよびCPUの各々は、コンピュータの一例である。第1処理装置31は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)およびFPGA(Field Programmable Gate Array)等の回路がCPUに代えて、又はCPUと併せて用いられてもよい。
記憶装置32は、第1処理装置31が読み取り可能な記録媒体である。記憶装置32は、不揮発性メモリと揮発性メモリとを含む。不揮発性メモリは、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)およびEEPROM(Electrically Erasable Programmable Read Only Memory)である。揮発性メモリは、例えば、RAM(Random Access Memory)である。記憶装置32は、第1制御プログラムPR1を記憶する。第1制御プログラムPR1は、XRグラス30の動作を制御するプログラムである。
検出装置35は、XRグラス30の状態を検出する。検出装置35は、例えば、加速度を検出する加速度センサ及び角加速度を検出するジャイロセンサなどの慣性センサ、並びに、方位を検出する地磁気センサが該当する。加速度センサは、直交するX軸、Y軸、及びZ軸の加速度を検出する。ジャイロセンサは、X軸、Y軸、及びZ軸を回転の中心軸とする角加速度を検出する。検出装置35は、ジャイロセンサの出力情報に基づいて、XRグラス30の姿勢を示す姿勢情報を生成する。また、検出装置35は、XRグラス30の動きに関する動き情報を生成する。動き情報は、3軸の加速度を各々示す加速度情報及び3軸の角加速度を各々示す角加速度情報を含む。検出装置35は、これら姿勢情報、及び動き情報、XRグラス30の方位を示す方位情報を第1処理装置31に出力する。
撮像装置36の構成例は、撮像光学系および撮像素子を有する構成である。撮像光学系は、少なくとも1つの撮像レンズLEN(図4参照)を含む光学系である。撮像光学系は、プリズム等の各種の光学素子を撮像レンズLENの他に有してもよいし、ズームレンズまたはフォーカスレンズ等を有してもよい。撮像素子は、CCD(Charge Coupled Device)イメージセンサーまたはCMOS(Complementary MOS)イメージセンサー等である。
通信装置37は、XRグラス30が他の装置と通信を行うための通信インターフェースを備える。通信装置37は、無線通信または有線通信を用いて端末装置20と通信する。本実施形態において、通信装置37は、例えばBluetooth(登録商標)のような近距離無線通信を用いて端末装置20の通信装置23(図6参照)と通信する。
投影装置38は、レンズ310A及び310B、左眼用の表示パネル、左眼用の光学部材、右眼用の表示パネル、および右眼用の光学部材を含む。レンズ310A及び310Bは、上述の通り、ユーザUの眼球の前面に配置される表示として機能する。投影装置38は、端末装置20からの制御に基づいて、第1仮想オブジェクトVO1、第2仮想オブジェクトVO2及び第3仮想オブジェクトVO3に対応する投射画像を左眼用の表示パネルおよび右眼用の表示パネルに表示する。
図6は、端末装置20の電気的な構成の一例を示すブロック図である。
端末装置20は、第2処理装置21、記憶装置22、通信装置23、及びタッチディスプレイ24を備える。端末装置20の各要素は、情報を通信するための単体又は複数のバスによって相互に接続される。
第2処理装置21は、端末装置20の全体を制御する1又は複数のCPUを含む。1又は複数のCPUは、1又は複数のプロセッサの一例である。プロセッサ及びCPUの各々は、コンピュータの一例である。第2処理装置21は、DSP、ASIC、PLDおよびFPGA等の回路がCPUに代えて、又はCPUと併せて用いられてもよい。第2処理装置21は、各種の処理を並列的又は逐次的に実行する。
記憶装置22は、第2処理装置21による読取及び書込が可能な記録媒体を含む。また、記憶装置22は、複数のプログラムを記憶する。これら複数のプログラムは、第2処理装置21が実行する第2制御プログラムPR2を少なくとも含む。また、記憶装置22は、第2処理装置21のワークエリアとして機能する。
通信装置23は、端末装置20が他の装置と通信を行うための、送受信デバイスとしてのハードウェアである。通信装置23は、例えば、ネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュール等とも呼ばれる。通信装置23は、有線接続用のコネクターを備え、上記コネクターに対応するインターフェース回路を備えていてもよい。また、通信装置23は、無線通信インターフェースを備えていてもよい。
タッチディスプレイ24は、画像及び文字情報を表示するデバイスである。また、タッチディスプレイ24は、ユーザUのタッチ操作による入力を受け付ける入力装置を含む。
第2処理装置21は、記憶装置22から第2制御プログラムPR2を読み出して実行する。第2処理装置21は、第2制御プログラムPR2の実行により、表示制御部211と、認識部212と、判定部213と、仮想オブジェクト制御部214と、して機能する。
表示制御部211は、XRグラス30の投影装置38を制御することによって、XRグラス30のレンズ310A及び310Bに、第1仮想オブジェクトVO1、第2仮想オブジェクトVO2、及び第3仮想オブジェクトVO3のうち、ユーザUの視野内に位置する第1仮想オブジェクトVO1及び第2仮想オブジェクトVO2(すなわち、仮想空間VSの一部)を表示させる。XRグラス30のレンズ310A及び310Bは、上述の通り、ユーザUが視認する透過型の表示装置である。第1仮想オブジェクトVO1及び第2仮想オブジェクトVO2の表示によって、ユーザUの眼前の現実空間に、第1仮想オブジェクトVO1及び第2仮想オブジェクトVO2が重畳された仮想空間VSがユーザUによって視認される。
また、表示制御部211は、XRグラス30の投影装置38を制御することによって、XRグラス30のレンズ310A及び310BにアイコンICNを表示させる。アイコンICNは、ウィンドウである第1仮想オブジェクトVO1、第2仮想オブジェクトVO2及び第3仮想オブジェクトVO3のいずれか1つに対し、ユーザUが択一的に所定処理の実行命令を入力するために用いられる。
以下の説明において、所定処理は、次の第1処理から第5処理の少なくともいずれか1を含む処理である。第1処理は、ユーザUによって選択されたウィンドウの表示を最小化にする処理である。第2処理は、ユーザUによって選択されたウィンドウを非表示にする処理である。第3処理は、ユーザUによって選択されたウィンドウに表示された情報を保存する処理である。情報の保存先は適宜である。第4処理は、ユーザUによって選択されたウィンドウにおいて動画の再生を開始する処理である。第5処理は、ユーザUによって選択されたウィンドウにおいて再生されている動画を停止する処理である。
図7は、図2の仮想空間VSにおけるアイコンICNの表示例を示す図である。
図7に示されるように、表示制御部211は、アイコンICNを表示させる場合、ユーザUの前方において、ユーザUの位置(X座表値:X_U)から所定の距離だけX軸方向に離れた位置(X座標値:X_ICN)にアイコンICNが配置される。具体的には、ユーザUのX座標値がX_Uであり、ユーザUとアイコンICNの離間距離がQである場合、アイコンICNは、X座標値X_ICNがX_U+Qとなる位置に配置される。離間距離Qの値はユーザUの手が届く範囲であれば任意である。
また、表示制御部211は、アイコンICNの表示制御において、XRグラス30の方向(撮像装置36の指向方向)に依らずに、レンズ310A及び310Bの表示領域内の一定の位置にアイコンICNを表示させる。この表示制御部211による制御により、図8に示すように、ユーザUが頭部を左方向又は右方向に振って撮像方向Dpを左斜前方向又は右斜前方向に変えたと場合でも、ユーザUの視野像IMGにおいてアイコンICNが常に一定の位置に固定される。
認識部212は、仮想空間VSにおけるユーザUの手の位置Ph及び手のジェスチャの種別を、撮像装置36によって撮像された撮像画像Gkに基づいて認識する。端末装置20は、撮像画像GkをXRグラス30の撮像装置36から周期的に取得し、認識部212が手の位置Ph及びジェスチャの種別を特定する画像認識処理を撮像画像Gkに対して行う。なお、XRグラス30が深度センサを備える場合、認識部212は、撮像画像Gkに加え、深度センサの検出値を用いて、手の位置Ph及びジェスチャの種別を特定してもよい。
手のジェスチャは、ユーザUがアイコンICNに対する操作を示すために、手そのもの又は1本以上の手指を所定の態様で動かす動作を言う。また、手のジェスチャの種別は、少なくとも次の第1種別及び第2種別を含む。第1種別のジェスチャは、ユーザUがアイコンICNを選択する操作を示す手の動きである。第2種別は、第1仮想オブジェクトVO1、第2仮想オブジェクトVO2及び第3仮想オブジェクトVO3のいずれか1に対し、アイコンICNに対応付けられた所定の処理の実行をユーザUが指示することを示す手の動きである。
この説明において、第1種別のジェスチャにはピンチイン、第2種別のジェスチャにはピンチアウトがそれぞれ予め割り当てられている。ピンチインは、ユーザUが2本の指でアイコンICNをつまむように2本の指の間隔を狭める手の動きである。ピンチアウトは、ユーザUが2本の指でつまんでいるアイコンICNを離すように、これら2本の指の間隔を広げる手の動きである。なお、第1種別及び第2種別のジェスチャには、ピンチイン及びピンチアウト以外の任意のジェスチャが割り当てられてもよい。
判定部213は、認識部212の認識結果に基づいて第1判定を行う。第1判定は、仮想空間VSにおいて、ユーザUの手が次の一連の動きを行ったか否かについての判定である。判定対象の一連の動きは、図9に示すように、大別して、アイコン選択動作、ターゲット指定動作、及び、実行指示動作の3つの動きを含む。
アイコン選択動作は、ユーザUがアイコンICNの選択を明示する動きであり、仮想空間VSにおいて、手の位置PhがアイコンICNの対応領域に位置し、且つ手のジェスチャの種別が第1種別を示す動きである。アイコンICNの対応領域は、手のジェスチャがアイコンICNに対して行われたと判定される領域であり、仮想空間VSにおいて、アイコンICNを内包する所定の大きさの領域が予め設定される。
ターゲット指定動作は、第1仮想オブジェクトVO1、第2仮想オブジェクトVO2及び第3仮想オブジェクトVO3の中からユーザUがアイコンICNに対応付けられた処理を実行する対象(ターゲット)を明示的に指定する動作である。この説明において、ターゲット指定動作は、第1種別のジェスチャが保たれた状態で、第1仮想オブジェクトVO1の対応領域、第2仮想オブジェクトVO2の対応領域及び第3仮想オブジェクトVO3の対応領域のいずれかに向かって手の位置Phが移動し、いずれか1つの対応領域に手の位置Phが達する、という動きである。第1仮想オブジェクトVO1、第2仮想オブジェクトVO2及び第3仮想オブジェクトVO3のそれぞれの対応領域は、対応する仮想オブジェクトがユーザUによって指定されたと判定される領域であり、仮想空間VSにおいて、対応する仮想オブジェクトを内包する所定の大きさの領域が予め設定される。
実行指示動作は、ターゲット指定動作によって指定された仮想オブジェクトに対し、アイコンICNに対応付けられた処理の実行をユーザUが明示的に指示する動作である。この説明において、実行指示動作は、第1仮想オブジェクトVO1の対応領域、第2仮想オブジェクトVO2の対応領域及び第3仮想オブジェクトVO3の対応領域のいずれか1の対応領域に手の位置Phが位置する状態において、手のジェスチャの種別が第1種別から第2種別に変化する、という動きである。
判定部213は、手の位置Ph及び手のジェスチャの種別についての認識部212の認識結果と、アイコンICN、第1仮想オブジェクトVO1、第2仮想オブジェクトVO2及び第3仮想オブジェクトVO3のそれぞれの対応領域の設定値とに基づいて第1判定を行う。対応領域の設定値は、例えば、記憶装置22に予め記憶されている。
仮想オブジェクト制御部214は、判定部213による第1判定の判定結果が肯定の場合、第1仮想オブジェクトVO1、第2仮想オブジェクトVO2及び第3仮想オブジェクトVO3のうち、手の位置Phの移動によってユーザUが明示的に指示した仮想オブジェクトに対し、アイコンICNに対応付けられた処理を実行する。
1.2:実施形態の動作
以下、端末装置20の動作を説明する。
図10は、端末装置20の動作例を示すフローチャートである。
ステップS10において、第2処理装置21は、仮想空間VSの一部をXRグラス30に表示させる。仮想空間VSは、第1仮想オブジェクトVO1、第2仮想オブジェクトVO2及び第3仮想オブジェクトVO3と、アイコンICNとが現実空間に重畳された仮想的な空間(拡張現実空間又は複合現実空間)である。ステップS10の処理により、ユーザUが仮想空間VSを視認する。
ステップS11において、第2処理装置21は、仮想空間VSにおけるユーザUの手の位置Ph及び手のジェスチャの種別を、撮像画像Gkに基づいて認識する。
ステップS12において、第2処理装置21は、ユーザUの手の位置PhがアイコンICNの対応領域に位置し、且つ手のジェスチャの種別が第1種別か否かを判定する。第2処理装置21は、判定結果が肯定的である場合、ステップS13に処理を進める。ステップS12の処理により、ユーザUによってアイコンICNが選択されたか否かが判定される。
ステップS13において、第2処理装置21は、第1種別のジェスチャが保たれたまま、第1仮想オブジェクトVO1、第2仮想オブジェクトVO2及び第3仮想オブジェクトVO3のいずれかの対応領域までユーザUの手の位置Phが移動したか否かを判定する。第2処理装置21は、判定結果が肯定的である場合、ステップS14に処理を進める。ステップS13の処理により、第1仮想オブジェクトVO1、第2仮想オブジェクトVO2及び第3仮想オブジェクトVO3のいずれか1つが、アイコンICNに対応する処理の実行対象にユーザUによって選択されたか否かが判定される。
ステップS14において、第2処理装置21は、第1仮想オブジェクトVO1、第2仮想オブジェクトVO2及び第3仮想オブジェクトVO3のいずれかの対応領域において、ジェスチャの種別が第1種別から第2種別へ変化したか否かを判定する。第2処理装置21は、判定結果が肯定的である場合、ステップS15に処理を進める。ステップS14の処理により、処理の実行がユーザUによって指示されたか否かが判定される。
ステップS15において、第2処理装置21は、第1仮想オブジェクトVO1、第2仮想オブジェクトVO2及び第3仮想オブジェクトVO3のうち、手の位置Phが含まれる対応領域に対応する仮想オブジェクトに対し、アイコンICNに対応付けられた処理を実行する。
図10に示すフローチャートの処理において、第2処理装置21は、ステップS10において表示制御部211として機能する。ステップS11において認識部212として機能する。第2処理装置21は、ステップS12、ステップS13、及びステップS14において判定部213として機能する。また、第2処理装置21は、ステップS15において仮想オブジェクト制御部214として機能する。
1.3:実施形態が奏する効果
以上の説明において、端末装置20は、シースルー方式のXRグラス30を制御する情報処理装置の一例である。
端末装置20は、表示制御部211と、認識部212と、判定部213と、仮想オブジェクト制御部214と、を備える。表示制御部211は、ユーザUが視認するXRグラス30に、第1仮想オブジェクトVO1及びアイコンICNが現実空間に重畳された仮想空間VSの一部を表示させる。認識部212は、仮想空間VSにおけるユーザUの手の位置Ph及び手のジェスチャの種別を、外界を撮像することによって得られた撮像画像Gkに基づいて認識する。判定部213は、仮想空間VSにおいて、手の位置PhがアイコンICNに対応する領域に位置し、且つ手のジェスチャの種別が第1種別であると認識部212によって認識された後、第1種別のジェスチャが保たれた状態で、第1仮想オブジェクトVO1まで手の位置Phが移動し、且つ第1仮想オブジェクトVO1に対応する領域において手のジェスチャの種別が第1種別から第2種別に変化したと認識部212によって認識されたかを判定する第1判定を実行する。仮想オブジェクト制御部214は、判定部213による第1判定の判定結果が肯定の場合、第1仮想オブジェクトVO1に対してアイコンICNに対応付けられた処理を実行する。
端末装置20は、以上の構成を有するため、ユーザUの操作性が向上する。詳述すると、仮想空間VSにおいて、操作アイコンが仮想オブジェクトに設けられている場合、仮想オブジェクトがユーザUから遠方に位置するほど、仮想オブジェクトとともに操作アイコンも小さくなり、ユーザUの手による操作が難しくなる。一方、本実施形態によれば、仮想空間VSにおいて、アイコンICNは第1仮想オブジェクトVO1と独立して配置されるため、ユーザUから第1仮想オブジェクトVO1までの距離によってアイコンICNの操作性が影響を受けることがない。また、ユーザUが第1仮想オブジェクトVO1に対応する領域まで手の位置Phを移動することで、アイコンICNに対応付けられた処理の対象物が指定されるため、仮想オブジェクトに設けられた操作アイコンを操作する構成と比較して、手の位置Phを移動させる先のターゲットが大きく、誤操作を防止でき、操作性が向上する。
また、表示制御部211は、アイコンICNを、仮想空間VSにおける所定の位置に固定配置する。
端末装置20は、以上の構成を有するため、ユーザUが頭部を動かすことでユーザUが視認する方向(撮像方向Dp)が変化しても、アイコンICNは、仮想空間VSにおける所定の位置に固定される。アイコンICNが固定されるため、ユーザUは拡張現実空間又は複合現実空間において、視認する方向を変えたとしてもアイコンICNを探す必要がなく、操作性が向上する。
また、第1仮想オブジェクトVO1は、情報を表示するウィンドウであり、アイコンICNに対向付けられた処理は、ウィンドウの表示を最小化する第1処理、ウィンドウを非表示にする第2処理、ウィンドウに表示された情報を保存する第3処理、ウィンドウにおいて動画の再生を開始する第4処理、及び、ウィンドウにおいて再生されている動画を停止する第5処理の少なくとも1つの処理を含む。
端末装置20は、以上の構成を有するため、ウィンドウ又はウィンドウの情報に対するユーザUの操作性が向上する。
また、表示制御部211は、第1仮想オブジェクトVO1と第2仮想オブジェクトVO2とをXRグラス30に表示する。判定部213による第1判定は、仮想空間VSにおいて、手の位置PhがアイコンICNに対応する領域に位置し、且つ手のジェスチャの種別が第1種別であると認識された後、第1種別のジェスチャが保たれた状態で、第1仮想オブジェクトVO1に対応する領域又は第2仮想オブジェクトVO2に対応する領域まで手の位置Phが移動し、且つ手のジェスチャの種別が第1種別から第2種別に変化したと認識されたかについての判定である。仮想オブジェクト制御部214は、判定部213による第1判定の判定結果が肯定の場合、第1仮想オブジェクトVO1及び第2仮想オブジェクトVO2のうち、手の位置Phを含む領域に対応する仮想オブジェクトに対しアイコンICNに対応付けられた処理を実行する。
端末装置20は、以上の構成を有するため、第1仮想オブジェクトVO1及び第2仮想オブジェクトVO2を含む複数の仮想オブジェクトが仮想空間VSに配置されている場合でも、ユーザUは、第1仮想オブジェクトVO1及び第2仮想オブジェクトVO2に共通のアイコンICNによって、第1仮想オブジェクトVO1及び第2仮想オブジェクトVO2のいずれかを選択的に操作できる。また、互いに異なる第1仮想オブジェクトVO1及び第2仮想オブジェクトVO2を、ユーザUは統一された操作体系で操作することができ、操作性が向上する。
2:変形例
本開示は、以上に例示した実施形態に限定されない。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を併合してもよい。
2.1:変形例1
上述した端末装置20は、第1仮想オブジェクトVO1の対応領域、第2仮想オブジェクトVO2の対応領域及び第3仮想オブジェクトVO3の対応領域のいずれか1の対応領域まで手の位置Phが移動した場合に、アイコンICNに対応付けられた処理の対象を特定する。しかし、本開示は、実施形態に限定されない。本開示において、端末装置20は、第1仮想オブジェクトVO1の対応領域、第2仮想オブジェクトVO2の対応領域及び第3仮想オブジェクトVO3の対応領域のいずれか1の対応領域のうち、手の位置Phの移動方向に位置する対応領域に基づいて、処理の対象を特定してもよい。
図11は、変形例1の端末装置20の動作例を示すフローチャートである。なお、同図において、実施形態において説明した図9と同一の処理については同一の符号を付し、その説明を省略する。
図11に示すように、変形例1の動作例は、ステップS13a及びS14aが実施形態の動作例のステップS13及びステップS14と異なる。ステップS13a及びS14aは、第1仮想オブジェクトVO1、第2仮想オブジェクトVO2及び第3仮想オブジェクトVO3の中から、アイコンICNに対応付けられた処理の実行対象(ターゲット)を特定し、特定した仮想オブジェクトに対する、ユーザUによる処理の実行指示を特定するステップである。
具体的には、ステップS13aにおいて、端末装置20の第2処理装置21は、第1種別のジェスチャが保たれたまま、ユーザUの手の位置Phが移動したか否かを判定する。第2処理装置21は、判定結果が肯定的である場合、ステップS14aに処理を進める。
ステップS14aにおいて、第2処理装置21は、第1仮想オブジェクトVO1の対応領域、第2仮想オブジェクトVO2の対応領域及び第3仮想オブジェクトVO3の対応領域のいずれか1の対応領域が、手の位置Phの移動方向の延長線上に位置する状態において手のジェスチャの種別が第1種別から第2種別に変化したと認識されたかを判定する(第2判定)。
これらステップS13a、S14aの処理により、アイコンICNに対応付けられた処理の実行対象と、特定した仮想オブジェクトに対する処理の実行指示と、が特定される。
なお、図11に示すフローチャートの処理において、第2処理装置21は、ステップS12、ステップS13a、及びステップS14aにおいて判定部213として機能する。
変形例1の端末装置20の動作例によって、ユーザUは、第1仮想オブジェクトVO1、第2仮想オブジェクトVO2及び第3仮想オブジェクトVO3のそれぞれの対応領域のいずれか1つまで手の位置Phを移動させずとも、処理の実行対象とする仮想オブジェクトを、手の位置Phの移動方向によって選択できる。したがって、処理の実行対象とする仮想オブジェクトがユーザUから遠くに配置されている場合でも、ユーザUは腕を大きく伸ばすことなく仮想オブジェクトを処理対象に選択でき、腕の疲れを感じることがない。
2.2:変形例2
上述した変形例1において、端末装置20は、第1種別のジェスチャを保ったままユーザUの手の位置Phが移動した場合、図12に示すように、手の位置Phの移動の延長線Leに沿って延びる線VOEをXRグラス30(表示装置)に表示させてもよい。この線VOEの表示により、処理の実行対象とする仮想オブジェクトをユーザUは容易に認識できる。
2.3:変形例3
上述した実施形態の説明において、仮想空間VSの第3仮想オブジェクトVO3は、ユーザUの後方に配置されているため、ユーザUが前方を向いている場合はXRグラス30に表示されることがなくユーザUによって視認されることがない。また、例えばメール又はSNS(Social networking service)を表示するアプリケーションが第3仮想オブジェクトVO3に対応付けられている場合、このアプリケーションの状態が通常の状態(第1状態)から、新着メッセージの受信をユーザUに通知する状態(第2状態)へ遷移したとしても、第3仮想オブジェクトVO3がユーザUの後方に位置するため、ユーザUはアプリケーションの状態の遷移を把握し難い。そこで、変形例3の端末装置20は、アプリケーションの状態の遷移をユーザUが把握し易くする構成を備える。なお、アプリケーションの第2状態は、ユーザUへ通知する状態に限らず任意である。
図13は、変形例3の端末装置20の電気的な構成の一例を示すブロック図である。なお、同図において、実施形態において説明した図6と同一の処理については同一の符号を付し、その説明を省略する。
図13に示すように、変形例3の端末装置20は、状態検出部215を備える点で実施形態の端末装置20と異なる。状態検出部215は、第3仮想オブジェクトVO3に対応付けられたアプリケーションの状態が第1状態から第2状態へ遷移したことを検出する。また、表示制御部211は、状態検出部215によって、第1状態から第2状態への遷移が検出された場合、図14に示すように、仮想空間VSにおいてユーザUの前方(撮像方向Dp)に、アプリケーションに対応する第1アイコンICN_AをXRグラス30に表示させる。第1アイコンICN_Aには、ユーザUがアプリケーションを識別可能にする図像が描かれている。表示制御部211は、第1アイコンICN_Aを表示させた後、第4仮想オブジェクトVO4をXRグラス30に表示させる。第4仮想オブジェクトVO4は、第1アイコンICN_Aの位置から第3仮想オブジェクトVO3の位置に向かって移動する視覚効果を生じる仮想的なオブジェクトであり、ユーザUの視線誘導効果を誘起する。第4仮想オブジェクトVO4の具体的態様は、例えば弾丸、ロケット、光線が挙げられる。また、表示制御部211は、第4仮想オブジェクトVO4の表示において、第4仮想オブジェクトVO4の移動速度、又は、第1アイコンICN_Aの表示タイミングから第4仮想オブジェクトVO4の表示タイミングまでの時間を、ユーザUの頭部の動き又はユーザUの視線の動きに応じて制御する。この制御により、ユーザUが第4仮想オブジェクトVO4の表示を見失わないよう、ユーザUの頭部の動き又はユーザUの視線の動きに応じて、第4仮想オブジェクトVO4の移動速度、又は、第4仮想オブジェクトVO4の表示タイミングが遅らせたり早めたりされ、第4仮想オブジェクトVO4の認識率が高められる。
変形例3の端末装置20により、ユーザUは、XRグラス30の表示範囲の外に位置する第3仮想オブジェクトVO3に対応したアプリケーションの状態の遷移を、第1アイコンICN_Aの表示によって速やかに把握でき、第4仮想オブジェクトVO4の表示によって第3仮想オブジェクトVO3の位置を直感的に把握できる。
3:その他
(1)上述した実施形態では、記憶装置22、及び記憶装置32は、ROM及びRAMなどを例示したが、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、CD-ROM(Compact Disc-ROM)、レジスタ、リムーバブルディスク、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、データベース、サーバその他の適切な記憶媒体である。また、プログラムは、電気通信回線を介してネットワークから送信されてもよい。また、プログラムは、電気通信回線を介して通信網NWから送信されてもよい。
(2)上述した実施形態において、説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
(3)上述した実施形態において、入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
(4)上述した実施形態において、判定は、1ビットを用いて表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
(5)上述した実施形態において例示した処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
(6)図1から図14に例示された各機能は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
(7)上述した実施形態において例示したプログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称を用いて呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
(8)前述の各形態において、「システム」及び「ネットワーク」という用語は、互換的に使用される。
(9)本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。
(10)上述した実施形態において、ユーザ装置10、端末装置20、及びXRグラス30は、移動局(MS:Mobile Station)である場合が含まれる。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。また、本開示においては、「移動局」、「ユーザ端末(user terminal)」、「ユーザ装置(UE:User Equipment)」、「端末」等の用語は、互換的に使用され得る。
(11)上述した実施形態において、「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的な結合又は接続であっても、論理的な結合又は接続であっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」を用いて読み替えられてもよい。本開示において使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。
(12)上述した実施形態において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
(13)本開示において使用される「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。
(14)上述した実施形態において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。更に、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
(15)本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
(16)本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」等の用語も、「異なる」と同様に解釈されてもよい。
(17)本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行う通知に限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施できる。従って、本開示の記載は、例示説明を目的とし、本開示に対して何ら制限的な意味を有さない。
1…情報処理システム、10…ユーザ装置、21…第2処理装置、31…第1処理装置、20…端末装置、30…XRグラス、36…撮像装置、211…表示制御部、212…認識部、213…判定部、214…仮想オブジェクト制御部、215…状態検出部、310A、310B…レンズ、Gk…撮像画像、ICN…アイコン、ICN_A…第1アイコン、IMG…視野像、Le…延長線、RO…実オブジェクト、VO1…第1仮想オブジェクト、VO2…第2仮想オブジェクト、VO3…第3仮想オブジェクト、VO4…第4仮想オブジェクト、VOE…線、VS…仮想空間。

Claims (8)

  1. ユーザが視認する表示装置に、第1仮想オブジェクト及びアイコンが現実空間に重畳された仮想空間の一部を表示させる表示制御部と、
    前記仮想空間における前記ユーザの手の位置及び前記手のジェスチャの種別を、外界を撮像することによって得られた撮像画像に基づいて認識する認識部と、
    前記仮想空間において、前記手の位置が前記アイコンに対応する領域に位置し、且つ前記手のジェスチャの種別が第1種別であると認識された後、前記第1種別のジェスチャが保たれた状態で、前記第1仮想オブジェクトに向けて前記手の位置が移動し、且つ前記第1仮想オブジェクトに対応する領域において前記手のジェスチャの種別が前記第1種別から第2種別に変化したと認識されたかを判定する第1判定を実行する判定部と、
    前記判定部による前記第1判定の判定結果が肯定の場合、前記第1仮想オブジェクトに対して前記アイコンに対応付けられた処理を実行する仮想オブジェクト制御部と、
    を備える情報処理装置。
  2. 前記表示制御部は、
    前記アイコンを、前記仮想空間における所定の位置に固定配置する、
    請求項1に記載の情報処理装置。
  3. 前記判定部は、
    前記仮想空間において、前記手の位置が前記アイコンに対応する領域に位置し、且つ前記手のジェスチャの種別が第1種別であると認識された後、前記第1種別のジェスチャが保たれた状態で前記手の位置が移動し、且つ前記手の位置の移動方向の延長線上に前記第1仮想オブジェクトに対応する領域が位置する状態において前記手のジェスチャの種別が前記第1種別から第2種別に変化したと認識されたかを判定する第2判定を実行し、
    前記仮想オブジェクト制御部は、
    前記判定部による前記第2判定の判定結果が肯定である場合に、前記第1仮想オブジェクトに対して前記処理を実行する、
    請求項1に記載の情報処理装置。
  4. 前記表示制御部は、
    前記仮想空間において、前記延長線に沿った線を前記表示装置に表示させる、
    請求項3に記載の情報処理装置。
  5. 前記第1仮想オブジェクトは、
    情報を表示するウィンドウであり、
    前記処理は、
    前記ウィンドウの表示を最小化する第1処理、
    前記ウィンドウを非表示にする第2処理、
    前記ウィンドウに表示された情報を保存する第3処理、
    前記ウィンドウにおいて動画の再生を開始する第4処理、及び、
    前記ウィンドウにおいて再生されている動画を停止する第5処理
    の少なくとも1つの処理を含む
    請求項1に記載の情報処理装置。
  6. 前記表示制御部は、
    前記第1仮想オブジェクトと第2仮想オブジェクトとを前記表示装置に表示し、
    前記判定部による前記第1判定は、
    前記仮想空間において、前記手の位置が前記アイコンに対応する領域に位置し、且つ前記手のジェスチャの種別が第1種別であると認識された後、前記第1種別のジェスチャが保たれた状態で、前記第1仮想オブジェクトに対応する領域、又は前記第2仮想オブジェクトに対応する領域まで前記手の位置が移動し、且つ前記手のジェスチャの種別が前記第1種別から前記第2種別に変化したと認識されたかについての判定であり、
    前記仮想オブジェクト制御部は、
    前記判定部による前記第1判定の判定結果が肯定の場合、前記第1仮想オブジェクト及び前記第2仮想オブジェクトのうち、前記手の位置を含む領域に対応する仮想オブジェクトに対し前記アイコンに対応付けられた処理を実行する
    請求項1に記載の情報処理装置。
  7. 前記仮想空間が、前記表示装置に表示された前記仮想空間の一部から外れた位置に配置され、アプリケーションが対応付けられた第3仮想オブジェクトを含み、
    前記第3仮想オブジェクトの前記アプリケーションの状態が第1状態から第2状態へ遷移したことを検出する状態検出部を備え、
    前記表示制御部は、
    前記状態検出部によって、前記第1状態から前記第2状態への遷移が検出された場合、前記アプリケーションに対応する第1アイコンを前記表示装置に表示させた後、前記第1アイコンの位置から前記第3仮想オブジェクトの位置に向かって移動する視覚効果を生じる第4仮想オブジェクトを前記表示装置に表示させる、
    請求項2に記載の情報処理装置。
  8. 前記表示制御部は、
    前記ユーザの頭部の動き又は前記ユーザの視線の動きに応じて、前記第4仮想オブジェクトの移動速度を制御する、
    請求項7に記載の情報処理装置。
JP2022094887A 2022-06-13 2022-06-13 情報処理装置 Pending JP2023181639A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022094887A JP2023181639A (ja) 2022-06-13 2022-06-13 情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022094887A JP2023181639A (ja) 2022-06-13 2022-06-13 情報処理装置

Publications (1)

Publication Number Publication Date
JP2023181639A true JP2023181639A (ja) 2023-12-25

Family

ID=89308906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022094887A Pending JP2023181639A (ja) 2022-06-13 2022-06-13 情報処理装置

Country Status (1)

Country Link
JP (1) JP2023181639A (ja)

Similar Documents

Publication Publication Date Title
KR102473259B1 (ko) 시선 타겟 애플리케이션 런처
US11869156B2 (en) Augmented reality eyewear with speech bubbles and translation
EP3144775A1 (en) Information processing system and information processing method
WO2019130991A1 (ja) 情報処理装置
US11675198B2 (en) Eyewear including virtual scene with 3D frames
US20210406542A1 (en) Augmented reality eyewear with mood sharing
WO2018179661A1 (ja) 情報処理装置、情報処理方法およびプログラム
WO2020171098A1 (ja) 視線とジェスチャを用いた情報表示装置
CN111819841B (zh) 信息处理装置、信息处理方法和存储介质
JP2023181639A (ja) 情報処理装置
JP6999822B2 (ja) 端末装置および端末装置の制御方法
US20240289080A1 (en) Display control device
WO2023228585A1 (ja) 表示制御装置
JP7365501B2 (ja) 情報処理装置
JP2024089241A (ja) 表示制御装置
WO2023223750A1 (ja) 表示装置
WO2023204104A1 (ja) 仮想空間提供装置
US20240363044A1 (en) Display control device
WO2023037812A1 (ja) オンライン対話支援システム
WO2023026628A1 (ja) 表示制御装置
JP2024055288A (ja) 情報処理装置
US20240281066A1 (en) Information processing system used in cross reality
WO2023119528A1 (ja) ヘッドマウントディスプレイ装置
JP2024075801A (ja) 表示制御装置
WO2022190735A1 (ja) 表示制御装置