JP2022092745A - Operation method using gesture in extended reality and head-mounted display system - Google Patents
Operation method using gesture in extended reality and head-mounted display system Download PDFInfo
- Publication number
- JP2022092745A JP2022092745A JP2020205628A JP2020205628A JP2022092745A JP 2022092745 A JP2022092745 A JP 2022092745A JP 2020205628 A JP2020205628 A JP 2020205628A JP 2020205628 A JP2020205628 A JP 2020205628A JP 2022092745 A JP2022092745 A JP 2022092745A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- hand
- user
- image
- identified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示は、一般に、仮想シミュレーション、特に、拡張現実(XR)におけるジェスチャによる操作方法及びヘッドマウントディスプレイシステムに関する。 The present disclosure generally relates to virtual simulations, in particular gesture-based manipulation methods and head-mounted display systems in augmented reality (XR).
仮想現実(virtual reality,VR)、拡張現実(augmented reality,AR)、複合現実(mixed reality,MR)などの感覚、知覚及び/又は環境をシミュレートするための拡張現実(Extended reality,XR)技術が最近流行している。前述の技術は、ゲーム、軍事訓練、ヘルスケア、リモートワークなど、複数の分野に適用することができる。XRでは、ユーザがヘッドマウントディスプレイ(HMD)を着用した場合、ユーザは、自分の手を使用してジェスチャを行い、さらに特定の機能をトリガすることができる。その機能は、ハードウェア又はソフトウェアの制御に関連するものであり得る。従って、ユーザが自分の手でヘッドマウントディスプレイシステムを制御することが簡単となっている。 Extended reality (XR) technology for simulating sensations, perceptions and / or environments such as virtual reality (VR), augmented reality (AR), mixed reality (MR), etc. Has been popular recently. The techniques described above can be applied in multiple areas such as gaming, military training, healthcare and remote work. In XR, when a user wears a head-mounted display (HMD), the user can use his or her hand to make gestures and further trigger specific functions. The function may be related to the control of hardware or software. Therefore, it is easy for the user to control the head-mounted display system with his / her own hands.
幾つかのジェスチャは、直感的に機能をトリガするものでない可能性がある。従って、本開示は、直観的なジェスチャ制御を提供するXRにおけるジェスチャによる操作方法及びヘッドマウントディスプレイシステムを対象とする。 Some gestures may not be intuitive to trigger a function. Accordingly, the present disclosure is directed to gesture-based operating methods and head-mounted display systems in XRs that provide intuitive gesture control.
一例示的実施形態において、XRにおけるジェスチャによる操作方法は、これに限定するものではないが、以下のステップを含む。第1ジェスチャは、第1画像において識別される。前記第1ジェスチャは、ユーザの手に対応する。インタラクティブ領域に位置する仮想手と第1インタラクティブオブジェクトは、前記第1ジェスチャの識別された結果に応答して表示される。前記仮想手は、前記第1ジェスチャを行う。第2ジェスチャは、第2画像において識別される。前記第2ジェスチャは、前記ユーザの手に対応し、前記第1ジェスチャとは異なる。前記第2ジェスチャは、前記インタラクティブ領域の前記第1インタラクティブオブジェクトと相互作用する。前記仮想手及び第2インタラクティブオブジェクトは、前記第1ジェスチャ及び前記第2ジェスチャの識別された結果に応答してディスプレイに表示される。前記仮想手が前記第2ジェスチャを行う。前記仮想手の数は、1つ又は2つであることができる。前記仮想手は、XRでは全身又は半身のアバターの手であることができる。 In an exemplary embodiment, the gesture-based operation method in XR includes, but is not limited to, the following steps. The first gesture is identified in the first image. The first gesture corresponds to the user's hand. The virtual hand and the first interactive object located in the interactive area are displayed in response to the identified result of the first gesture. The virtual hand performs the first gesture. The second gesture is identified in the second image. The second gesture corresponds to the hand of the user and is different from the first gesture. The second gesture interacts with the first interactive object in the interactive area. The virtual hand and the second interactive object are displayed on the display in response to the identified results of the first gesture and the second gesture. The virtual hand makes the second gesture. The number of virtual hands can be one or two. The virtual hand can be a full-body or half-body avatar's hand in XR.
一例示的実施形態において、ヘッドマウントディスプレイシステムは、これに限定するものではないが、画像キャプチャデバイス、ディスプレイ、及びプロセッサを含む。前記画像キャプチャデバイスは、画像をキャプチャする。前記プロセッサは、前記画像キャプチャデバイス及び前記ディスプレイに結合される。前記プロセッサは、次のステップを実行するように構成される。前記プロセッサは、前記画像キャプチャデバイスによってキャプチャされた第1画像における第1ジェスチャを識別する。前記第1ジェスチャは、ユーザの手に対応する。前記プロセッサは、前記第1ジェスチャの識別された結果に応答して、前記ディスプレイのインタラクティブ領域に位置する仮想手と第1インタラクティブオブジェクトを表示する。前記仮想手が前記第1ジェスチャを行う。前記プロセッサは、前記画像キャプチャデバイスによってキャプチャされた第2画像における第2ジェスチャを識別する。前記第2ジェスチャは、前記ユーザの手に対応し、前記第1ジェスチャとは異なり、前記第2ジェスチャは、インタラクティブ領域の第1インタラクティブオブジェクトと相互作用する。前記プロセッサは、前記第1ジェスチャ及び前記第2ジェスチャの識別された結果に応答して、前記ディスプレイ上に前記仮想手及び第2インタラクティブオブジェクトを表示する。前記仮想手が前記第2ジェスチャを行う。前記仮想手の数は1つ又は2つであることができる。前記仮想手は、XRでは全身又は半身のアバターの手であることができる。 In an exemplary embodiment, the head-mounted display system includes, but is not limited to, an image capture device, a display, and a processor. The image capture device captures an image. The processor is coupled to the image capture device and the display. The processor is configured to perform the next step. The processor identifies a first gesture in a first image captured by the image capture device. The first gesture corresponds to the user's hand. The processor displays a virtual hand and a first interactive object located in the interactive area of the display in response to the identified result of the first gesture. The virtual hand makes the first gesture. The processor identifies a second gesture in a second image captured by the image capture device. The second gesture corresponds to the hand of the user, and unlike the first gesture, the second gesture interacts with a first interactive object in the interactive area. The processor displays the virtual hand and the second interactive object on the display in response to the identified results of the first gesture and the second gesture. The virtual hand makes the second gesture. The number of virtual hands can be one or two. The virtual hand can be a full-body or half-body avatar's hand in XR.
上記に照らして、操作方法及びヘッドマウントディスプレイシステムによれば、2つの連続するジェスチャが2つの画像で識別され、ジェスチャの組み合わせがディスプレイをトリガして、異なるインタラクティブオブジェクトを表示することができる。更に、仮想手と更に相互作用するために、1つのインタラクティブオブジェクトが提供される。従って、ヘッドマウントディスプレイシステムを制御するための便利で興味深い方法が提供される。 In light of the above, according to the method of operation and the head-mounted display system, two consecutive gestures can be identified in two images, and the combination of gestures can trigger the display to display different interactive objects. In addition, one interactive object is provided to further interact with the virtual hand. Therefore, a convenient and interesting way to control a head-mounted display system is provided.
理解されるべきこととして、この概要は、本開示の全ての態様及び実施形態を含むとは限らず、いかなる方法にも制限又は限定することを意味するものではなく、本明細書に開示される発明は、それに対する自明な改良及び修正を含むものであると当業者により理解されるものである。 It should be understood that this summary does not include all aspects and embodiments of the present disclosure, nor does it imply any limitation or limitation to any method, and is disclosed herein. The invention is to be understood by those skilled in the art to include obvious improvements and modifications to it.
本開示の好適実施形態を詳細に参照し、その例を添付の図面に示す。可能な限り、図面及び説明で同じ参照番号を使用して同じ又は類似の部材を参照している。 Preferred embodiments of the present disclosure are referred to in detail, examples of which are shown in the accompanying drawings. Wherever possible, the drawings and description refer to the same or similar members using the same reference numbers.
図1は、本開示の一例示的実施形態によるヘッドマウントディスプレイシステム100を示すブロック図である。図1を参照し、ヘッドマウントディスプレイ(HMD)システム100は、これらに限定しないが、メモリ110、ディスプレイ120、画像キャプチャデバイス130、及びプロセッサを含む。HMDシステム100は、XR又はその他の現実シミュレーション関連技術に適用される。
FIG. 1 is a block diagram showing a head-mounted
メモリ110は、任意のタイプの固定又は可動のランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、フラッシュメモリ、類似のデバイス、又は上記デバイスの組み合わせであることができる。メモリ110は、プログラムコード、デバイス構成、バッファーデータ、又は永続データ(画像、ジェスチャ分類子、事前定義されたジェスチャ、設定等)を記録し、これらのデータについては、後述する。
The
ディスプレイ120は、LCD、LEDディスプレイ、又はOLEDディスプレイであることができる。
The
画像キャプチャデバイス130は、モノクロカメラ又はカラーカメラ、ディープカメラ、ビデオレコーダ等のカメラ、又は他の画像をキャプチャすることができる画像キャプチャデバイスであることができる。
The
プロセッサ150は、メモリ110、ディスプレイ120、及び画像キャプチャデバイス130に結合される。プロセッサ150は、メモリ110に格納されたプログラムコードをロードして、本開示の例示的実施形態の手順を実行するように構成される。
The
幾つかの実施形態では、プロセッサ150は、CPU(central processing unit)、マイクロプロセッサ、マイクロコントローラ、グラフィックス処理ユニット(GPU)、デジタル信号処理(DSP)チップ、フィールドプログラマブルゲートアレイ(FPGA)であることができる。プロセッサ150の機能は、独立した電子デバイス又は集積回路(IC)によって実行されることもでき、プロセッサ150の動作は、ソフトウェアによって実施されることもできる。
In some embodiments, the
一実施形態において、HMD又はデジタル眼鏡は、メモリ110、ディスプレイ120、画像キャプチャデバイス130、及びプロセッサ150を含む。幾つかの実施形態では、プロセッサ150は、ディスプレイ120及び/又は画像キャプチャデバイス130と同じ装置に配置されない場合がある。しかしながら、それぞれディスプレイ120、画像キャプチャデバイス130、及びプロセッサ150を備えた装置は、ブルートゥース(登録商標)、Wi‐Fi、及びIR無線通信などの互換性のある通信技術を備えた通信トランシーバ、又は物理的な伝送ラインをさらに含み、お互いにデータを受信することができる。例えば、プロセッサ150は、HMD内に配置され、一方で、画像キャプチャデバイス130は、HMDの外側に配置されることができる。別の例では、プロセッサ150がコンピューティングデバイス内に配置され、一方で、ディスプレイ120がコンピューティングデバイスの外側に配置されることができる。
In one embodiment, the HMD or digital eyeglasses include a
本開示の1つ又は複数の実施形態で提供される動作プロセスをよりよく理解するために、幾つかの実施形態を以下に例示して、ヘッドマウントディスプレイシステム100を詳しく説明する。ヘッドマウントディスプレイシステム100のデバイスとモジュールは、次の実施形態に適用され、ここで提供されるXRにおけるジェスチャによる操作方法を説明する。その方法の各ステップは、実際の実装状況に応じて調整することができ、ここで説明するものに限定するものではない。
In order to better understand the operating process provided in one or more embodiments of the present disclosure, some embodiments are exemplified below to illustrate the head-mounted
図2は、本開示の一例示的実施形態による、拡張現実(XR)におけるジェスチャによる操作方法を示すフローチャートである。図2を参照すると、プロセッサ150は、画像キャプチャデバイス130によってキャプチャされた第1画像における第1ジェスチャを識別することができる(ステップS210)。具体的には、第1ジェスチャは、掌を上に向ける、掌を下に向ける、手を振る、拳ジェスチャなどの事前定義されたジェスチャである。第1ジェスチャは、ユーザの手に対応する。第一に、プロセッサ150は、画像の手を識別することができる。次に、プロセッサ150は、第1画像においてユーザの手によって行われたジェスチャを識別し、識別されたジェスチャが事前定義された第1ジェスチャであるかどうかを比較することができる。
FIG. 2 is a flowchart showing a gesture-based operation method in augmented reality (XR) according to an exemplary embodiment of the present disclosure. Referring to FIG. 2,
一実施形態では、プロセッサ150は、第1画像からユーザの手の関節を識別し、ジェスチャ分類子を介して第1画像及び識別されたユーザの手の関節に基づいてユーザの手のジェスチャを予測することができる。具体的には、手の関節の位置は手のジェスチャに関連している。さらに、画像の輪郭、サイズ、テクスチャ、形状、及びその他の特徴は、手のジェスチャに関連している。設計者は、事前定義されたジェスチャを含む多くの画像を訓練サンプルとして準備し、訓練サンプルを使用して、ジェスチャ認識機能で構成されている機械学習アルゴリズム(深層学習、人工ニューラルネットワーク(ANN)、サポートベクターマシン(SVM)等)によってジェスチャ分類子を訓練することができる。更に、これらの訓練サンプルでは手関節が識別され、手関節は同じジェスチャ分類子又は別のジェスチャ分類子を訓練するための別の訓練サンプルになる。次に、訓練されたジェスチャ分類子を使用して、入力画像で行われるジェスチャを判定することができる。
In one embodiment, the
幾つかの実施形態では、プロセッサ150は、ユーザの手の識別された関節なしで、単に第1画像に基づいて、ジェスチャを予測し、それから、ユーザの手の識別された関節に基づいて予測されたジェスチャを確定することができる。例えば、図3は、本開示の一例示的実施形態によるジェスチャ分類子の予測を示す概略図である。図3を参照し、ジェスチャを含む画像OMがジェスチャ分類子に入力されると、その特徴が画像OMから抽出される(ステップS301、即ち、特徴抽出)。例えば、ステップS301では、プロセッサ150は、画像OMのピクセル値を含むフィルターで畳み込み計算を実行し、対応するカーネルを使用して特徴マップを出力する。特徴は、テクスチャ、コーナー、エッジ、又は形状であることができる。次に、プロセッサ150は、特徴マップ等のステップS301から抽出された特徴を分類することができる(ステップS302、即ち、分類)。なお、1つのジェスチャ分類子は、1つ以上のラベル(即ち、本実施形態の1つ以上のジェスチャ)で構成されている場合がある。ジェスチャ分類子は、判定されたジェスチャを出力することができる。
In some embodiments, the
単に画像OMに基づいて1つ又は複数のジェスチャが判定された後、手関節Jを識別した画像OMが、同じ又は別のジェスチャ分類子に入力される。同様に、プロセッサ150は、手関節Jを識別した画像OMに対して特徴抽出(ステップS301)及び分類(ステップS302)を実行し、判定されたジェスチャを出力することができる。次いで判定されたジェスチャは、最初に判定されたジェスチャの正しさをチェックするために使用される。例えば、両方の判定されたジェスチャが同じである場合、プロセッサ150は、そのジェスチャを確定することができる。判定されたジェスチャが異なる場合、プロセッサ150は、別の画像において、そのジェスチャを判定することができる。
After only one or more gestures are determined based on the image OM, the image OM identifying the wrist joint J is input to the same or another gesture classifier. Similarly, the
一実施形態では、プロセッサ150は、更にユーザの右手及び左手を識別することができる。これは、プロセッサ150が、どちらの手が、ジェスチャを行うか、又は画像キャプチャデバイス130にキャプチャされるかを認識していることを意味する(即ち、手は画像キャプチャデバイス130の視野(FOV)内に配置される)。幾つかの実施形態では、プロセッサ150は、ユーザの右手と左手にそれぞれ異なる事前定義ジェスチャ又は同じ事前定義ジェスチャを定義することができる。例えば、1つの機能は、右手又は左手での親指を立てるジェスチャによってトリガされる。別の例では、別の機能が、右手で人差し指を上げるジェスチャによってトリガされ、同じ機能が、左手で小指を上げるジェスチャによってトリガされる。
In one embodiment, the
なお、例えば、3Dモデルベースのアルゴリズム、骨格ベースのアルゴリズム、外観ベースのモデル、筋電図ベースのモデル等、多くのジェスチャ認識アルゴリズムが存在する。これらのアルゴリズムは、実際の要件に合わせて実装できる。 It should be noted that there are many gesture recognition algorithms such as 3D model-based algorithms, skeleton-based algorithms, appearance-based models, and electromyogram-based models. These algorithms can be implemented according to actual requirements.
プロセッサ150は、第1ジェスチャの識別された結果に応答して、ディスプレイ120上のインタラクティブ領域に配置された仮想手及び第1インタラクティブオブジェクトを表示することができる(ステップS230)。具体的には、識別された結果が第1画像のジェスチャが第1ジェスチャと同一である場合、ユーザの手に対応する仮想手が第1ジェスチャを行う。プロセッサ150は、ディスプレイ120上に第1ジェスチャを行う仮想手を表示することができ、それにより、ユーザは、彼/彼女が正しいジェスチャを行っているかどうかを認識することができる。但し、第1画像の識別されたジェスチャが第1ジェスチャではない場合でも、プロセッサ150は識別されたジェスチャをディスプレイ120に表示することができる。更に、第1ジェスチャは、ディスプレイ120をトリガし、第1インタラクティブオブジェクトを表示することに用いられる。これは、ユーザが第1ジェスチャを行うまで、第1インタラクティブオブジェクトがディスプレイ120に表示されなくすることができることを意味する。第1インタラクティブオブジェクトは、画像、ビデオ、仮想ボール、又はその他の仮想オブジェクトである。第1インタラクティブオブジェクトは、仮想手又はアバターの手のインタラクティブ領域に位置する。これは、仮想の手の指、掌、又はその他の部分が、インタラクティブ領域に位置する任意のオブジェクトと相互作用可能となり得ることを意味する。例えば、インタラクティブ領域において、指が仮想キーに触れたり、又は掌が仮想ボールを持ったりすることができる。なお、インタラクティブ領域の形状と位置は、実際の要求に応じて変更されることができる。更に、仮想手の数は1つ又は2つであることができる。仮想手は、XRでは全身又は半身のアバターの手であることができる。
The
一実施形態では、第1インタラクティブオブジェクトは、相互作用できることをユーザに通知し、ユーザに別のジェスチャの実行を試行させる。即ち、第1インタラクティブオブジェクトは、後続のジェスチャのヒントに関連している。例えば、第1インタラクティブオブジェクトは、仮想ボールであり、ユーザは仮想ボールを持ったり、掴んだりすることを試行することができる。 In one embodiment, the first interactive object notifies the user that it can interact and causes the user to try another gesture. That is, the first interactive object is associated with hints for subsequent gestures. For example, the first interactive object is a virtual ball, and the user can try to hold or grab the virtual ball.
プロセッサ150は、第2画像における第2ジェスチャを識別することができる(ステップS250)。具体的には、第2ジェスチャは、掌を上に向ける、掌を下に向ける、交差させた指、又は拳ジェスチャ等の別の事前定義されたジェスチャであるが、第1ジェスチャとは異なるものである。第2ジェスチャも、ユーザの手に対応する。プロセッサ150は、第2画像においてユーザの手によって行われたジェスチャを識別し、識別されたジェスチャが事前定義された第2ジェスチャであるかどうかを比較することができる。
一実施形態では、ステップS210で詳細に述べたように、プロセッサ150は、第2画像からユーザの手の関節を識別し、ジェスチャ分類子を介して第2画像及び識別されたユーザの手の関節に基づいてユーザの手のジェスチャを予測することができる。幾つかの実施形態では、ステップS210で詳細に述べたように、プロセッサ150は、ユーザの手の識別された関節なしで、単に第2画像に基づいて、ジェスチャを予測し、次に、ユーザの手の識別された関節に基づいて予測されたジェスチャを確定することができる。
In one embodiment, as described in detail in step S210, the
プロセッサ150は、第2ジェスチャの識別された結果に応答して、ディスプレイ120上に仮想手及び第2インタラクティブオブジェクトを表示することができる(ステップS270)。具体的には、識別された結果が、第2画像のジェスチャが第2ジェスチャと同一であるという場合、ユーザに対応する仮想手が第2ジェスチャを行う。プロセッサ150は、ディスプレイ120上に第2ジェスチャを行う仮想手を表示することができ、第2ジェスチャを有する手は、インタラクティブ領域内の第1インタラクティブオブジェクトと相互作用することができる。例えば、仮想手が仮想ボールを掴む。幾つかの実施形態では、第1インタラクティブオブジェクトの変形のアニメーションがディスプレイ120に表示されることができる。例えば、仮想ボールが握り潰される。但し、第2画像の識別されたジェスチャが第2ジェスチャではない場合でも、プロセッサ150は、識別されたジェスチャをディスプレイ120に表示することができる。更に、第1インタラクティブオブジェクトは、間違ったジェスチャのために非表示にされることができる。
The
更に、第1ジェスチャと第2ジェスチャの組み合わせを使用して、ディスプレイ120をトリガして第2インタラクティブオブジェクトを表示し、第1インタラクティブオブジェクトを非表示にする。これは、ユーザが第1ジェスチャを実行してから第2ジェスチャを実行するまで、第2インタラクティブオブジェクトがディスプレイ120に表示されないようにできることを意味する。第1画像で第1ジェスチャが識別された後に第2ジェスチャとは異なる第3ジェスチャが第2画像で識別された場合、第1インタラクティブオブジェクトは、引き続きディスプレイ120に表示され、第2インタラクティブオブジェクトは表示されない。第2インタラクティブオブジェクトは、画像、ビデオ、メニュー、又はその他の仮想オブジェクトであることができる。一方、第2ジェスチャが識別されるため、第2ジェスチャのヒントである第1インタラクティブオブジェクトは、表示される必要はない。従って、第1インタラクティブオブジェクトは、ユーザが第1ジェスチャと第2ジェスチャを直感的に組み合わせることを補助することができる。
In addition, the combination of the first and second gestures is used to trigger the
例えば、図4A及び図4Bは、本開示の一例示的実施形態によるジェスチャによるインタラクティブオブジェクトのトリガを示す概略図である。図4Aを参照し、第1ジェスチャとして定義される掌を上に向けるジェスチャは、第1時点で左手を有する第1画像において識別される。掌を上に向けるジェスチャを備えた仮想左手LHと仮想ボールio1(即ち、第1インタラクティブオブジェクト)がディスプレイ120に表示される。図4Bを参照し、第2ジェスチャとして定義される拳ジェスチャは、第2時点で左手を有する第2画像において識別される。拳ジェスチャのある仮想左手LHとメインメニューio2(即ち、第2インタラクティブオブジェクト)が、ディスプレイ120に表示される。メインメニューio2は、友達リスト、地図、アプリストアのアイコン等の複数のアイコンを含む。
For example, FIGS. 4A and 4B are schematics showing the triggering of an interactive object by gestures according to an exemplary embodiment of the present disclosure. With reference to FIG. 4A, the palm-up gesture defined as the first gesture is identified in the first image with the left hand at the first time point. A virtual left-hand LH with a palm-up gesture and a virtual ball io1 (ie, a first interactive object) are displayed on the
一実施形態では、第2インタラクティブオブジェクトは、第1メニューと第2メニューを含む。第2メニューは、第1メニューとは異なる。プロセッサ150は、右手が識別された場合は、ディスプレイ120に第1メニューを表示し、左手が識別された場合は、ディスプレイ120に第2メニューを表示する。これは、第1ジェスチャと第2ジェスチャの組み合わせが右手によって行われた場合、第1メニューがディスプレイ120に表示されるが、第1ジェスチャと第2ジェスチャの組み合わせが左手で行われた場合、ディスプレイ120に第2メニューが表示されることを意味する。
In one embodiment, the second interactive object includes a first menu and a second menu. The second menu is different from the first menu. The
例えば、図4Bに示すように、第2メニューはメインメニューio2である。図5A及び図5Bは、本開示の一例示的実施形態に基づくジェスチャによるインタラクティブオブジェクトのトリガを示す概略図である。図5Aを参照し、第1ジェスチャとして定義される掌を上に向けるジェスチャは、第3時点で右手を有する第1画像において識別される。掌を上に向けるジェスチャと仮想ボールio3を備えた仮想右手RH(即ち、第1インタラクティブオブジェクト)がディスプレイ120に表示される。図5Bを参照し、第2ジェスチャとして定義される拳ジェスチャは、第4時点で左手を有する第2画像において識別される。第1ジェスチャを有する仮想右手RH及びクイック設定メニューio4(即ち、第2インタラクティブオブジェクト又は第1メニュー)がディスプレイ120に表示される。クイック設定メニューio4は、カメラのオン/オフ、仮想手での特定の動作、メッセージングのアイコン等の複数のアイコンを含む。
For example, as shown in FIG. 4B, the second menu is the main menu io2. 5A and 5B are schematics showing the triggering of an interactive object by gestures based on an exemplary embodiment of the present disclosure. With reference to FIG. 5A, the palm-up gesture defined as the first gesture is identified in the first image with the right hand at the third time point. A virtual right-handed RH (ie, a first interactive object) with a palm-up gesture and a virtual ball io3 is displayed on the
一実施形態では、第2ジェスチャが検出された場合、プロセッサ150はディスプレイ120上の第1インタラクティブオブジェクトを更に非表示にすることができる。これは、後続のジェスチャを更に指示する必要がなく、第1インタラクティブオブジェクトが表示されないことを意味する。従って、第2インタラクティブオブジェクトのみがディスプレイ120に表示される。図5A及び5Bを例にとると、拳ジェスチャが識別された後、仮想ボールio3は非表示にされる。
In one embodiment, if the second gesture is detected, the
別の実施形態では、第2インタラクティブオブジェクトがディスプレイ120に表示され、第1ジェスチャと第2ジェスチャの識別結果が確定された場合(即ち、第1ジェスチャと第2ジェスチャの組み合わせがユーザによって行われた場合)、プロセッサ150はディスプレイ120上の第1インタラクティブオブジェクトと第2インタラクティブオブジェクトを非表示にすることができる。従って、ジェスチャによってメニューをオフにすることができる。
In another embodiment, the second interactive object is displayed on the
例えば、図6A及び図6Bは、本開示の一例示的実施形態に基づくジェスチャによるインタラクティブオブジェクトのトリガを示す概略図である。図6Aを参照し、クイック設定メニューio4がディスプレイ120に表示されている。仮想ボールio3は、右手RHでの掌を上に向けたジェスチャのために表示される。図6Bを参照し、右手RHでの拳ジェスチャのため、仮想ボールio3とクイック設定メニューio4の両方が非表示にされている。
For example, FIGS. 6A and 6B are schematics showing a gesture-based triggering of an interactive object according to an exemplary embodiment of the present disclosure. With reference to FIG. 6A, the quick setting menu io4 is displayed on the
なお、図4A~図6Bの第1インタラクティブオブジェクト及び第2インタラクティブオブジェクト及びジェスチャは、実際の要求に応じて変更されることができ、実施形態は、それに限定するものではない。 The first interactive object, the second interactive object, and the gesture of FIGS. 4A to 6B can be changed according to an actual request, and the embodiment is not limited thereto.
要約すると、上記の例示的実施形態は、XRにおけるジェスチャによる操作方法及びヘッドマウントディスプレイシステムを示した。ジェスチャの組み合わせは2つの画像で識別され、ディスプレイで第2インタラクティブオブジェクトを表示するために用いられる。更に、第2ジェスチャを行うようにさらに促すために、第1ジェスチャが識別された後に第1インタラクティブオブジェクトが表示されることができる。従って、直感的なジェスチャ制御が提供される。 In summary, the above exemplary embodiments have shown gesture-based operation methods and head-mounted display systems in XR. The combination of gestures is identified by the two images and is used to display the second interactive object on the display. In addition, the first interactive object can be displayed after the first gesture has been identified to further encourage the second gesture to be performed. Therefore, intuitive gesture control is provided.
当業者であれば明らかであるように、本開示の範囲又は精神から逸脱することなく、本開示の構造に対して様々な修正及び変形を行うことができる。前述の観点において、本開示は、それらが後述の特許請求の範囲及びそれらの均等の範囲内にあるという条件で、本開示の修正及び変形を含むことが意図される。 As will be apparent to those skilled in the art, various modifications and variations may be made to the structure of the present disclosure without departing from the scope or spirit of the present disclosure. In the above-mentioned viewpoint, the present disclosure is intended to include amendments and modifications of the present disclosure, provided that they are within the scope of the claims described below and their equality.
ジェスチャによる操作方法とヘッドマウントディスプレイシステムは、拡張現実に適用できる。 Gesture operation methods and head-mounted display systems can be applied to augmented reality.
100 ヘッドマウントディスプレイシステム
110 メモリ
120 ディスプレイ
130 画像キャプチャデバイス
150 プロセッサ
S210~S270、S301~S302 ステップ
OM 画像
J 関節
LH 仮想左手
io1 仮想ボール
io2 メインメニュー
RH 仮想右手
io3 仮想ボール
io4 クイック設定メニュー
100 Head-mounted
J Joint LH Virtual Left Hand io1 Virtual Ball io2 Main Menu RH Virtual Right Hand io3 Virtual Ball io4 Quick Setting Menu
Claims (9)
第1ジェスチャの識別された結果に応答して、インタラクティブ領域に配置された仮想手及び第1インタラクティブオブジェクトを表示し、前記仮想手が前記第1ジェスチャを行うステップと、
第2画像において、前記ユーザの手に対応し且つ前記第1ジェスチャと異なる第2ジェスチャを識別し、前記第2ジェスチャは、前記インタラクティブ領域において前記第1インタラクティブオブジェクトと相互作用するステップと、
前記第2ジェスチャの識別された結果に応答して前記仮想手と第2インタラクティブオブジェクトを表示し、前記仮想手が前記第2ジェスチャを行うステップと、
を含む、拡張現実(XR)におけるジェスチャによる操作方法。 In the first image, the step of identifying the first gesture corresponding to the user's hand,
In response to the identified result of the first gesture, the virtual hand and the first interactive object placed in the interactive area are displayed, and the virtual hand performs the first gesture.
In the second image, a second gesture that corresponds to the user's hand and is different from the first gesture is identified, wherein the second gesture interacts with the first interactive object in the interactive region.
A step of displaying the virtual hand and the second interactive object in response to the identified result of the second gesture, and the virtual hand performing the second gesture.
Gesture-based operation methods in augmented reality (XR), including.
ディスプレイと、
前記画像キャプチャデバイス及び前記ディスプレイに結合され、
前記画像キャプチャデバイスによってキャプチャされた第1画像において、ユーザの手に対応する第1ジェスチャを識別し、
第1ジェスチャの識別された結果に応答して、インタラクティブ領域に配置された仮想手及び第1インタラクティブオブジェクトを前記ディスプレイに表示し、前記仮想手が前記第1ジェスチャを行い、
前記画像キャプチャデバイスによってキャプチャされた第2画像において、ユーザの手に対応し且つ前記第1ジェスチャと異なる第2ジェスチャを識別し、前記第2ジェスチャは、前記インタラクティブ領域において前記第1インタラクティブオブジェクトと相互作用し、
前記第2ジェスチャの識別された結果に応答して前記仮想手と第2インタラクティブオブジェクトを前記ディスプレイに表示し、前記仮想手が前記第2ジェスチャを行う、
ように構成されたプロセッサと、
を備えるヘッドマウントディスプレイシステム。 An image capture device that captures images and
With the display
Combined with the image capture device and the display
In the first image captured by the image capture device, the first gesture corresponding to the user's hand is identified.
In response to the identified result of the first gesture, the virtual hand and the first interactive object placed in the interactive area are displayed on the display, and the virtual hand performs the first gesture.
In the second image captured by the image capture device, a second gesture that corresponds to the user's hand and is different from the first gesture is identified, and the second gesture interacts with the first interactive object in the interactive area. Acts and
The virtual hand and the second interactive object are displayed on the display in response to the identified result of the second gesture, and the virtual hand performs the second gesture.
With a processor configured to
Head-mounted display system with.
前記第1画像又は前記第2画像から前記ユーザの手の関節を識別することと、
ジェスチャ分類子によって前記第1画像又は前記第2画像及び前記ユーザの手の識別された関節に基づいて前記ユーザの手のジェスチャを予測し、前記ジェスチャ分類子は、機械学習アルゴリズムによって訓練されることと、
を含む請求項1に記載の操作方法、
又は、
前記プロセッサは、更に、
前記第1画像又は前記第2画像から前記ユーザの手の関節を識別し、
前記ジェスチャ分類子によって、前記第1画像又は前記第2画像と前記ユーザの手の識別された関節に基づいて前記ユーザの手のジェスチャを予測し、前記ジェスチャ分類子は、機械学習アルゴリズムによって訓練される、
ように構成される請求項2に記載のヘッドマウントディスプレイシステム。 The step of identifying the first gesture or the second gesture is
Identifying the joint of the user's hand from the first image or the second image,
The gesture classifier predicts the gesture of the user's hand based on the first image or the second image and the identified joints of the user's hand, and the gesture classifier is trained by a machine learning algorithm. When,
The operation method according to claim 1, comprising the above.
Or,
The processor further
The joint of the user's hand is identified from the first image or the second image, and the joint is identified.
The gesture classifier predicts the gesture of the user's hand based on the first image or the second image and the identified joints of the user's hand, and the gesture classifier is trained by a machine learning algorithm. ,
The head-mounted display system according to claim 2.
前記ユーザの手の識別された関節なしで、単に前記第1画像又は前記第2画像に基づいて、ジェスチャを予測することと、
前記ユーザの手の識別された関節に基づいて予測されたジェスチャを確定することと、
を含む請求項3に記載の操作方法、
又は、
前記プロセッサは、更に、
前記ユーザの手の識別された関節なしで、単に前記第1画像又は前記第2画像に基づいて、ジェスチャを予測し、
前記ユーザの手の識別された関節に基づいて予測されたジェスチャを確定する、
ように構成される請求項3に記載のヘッドマウントディスプレイシステム。 The step of predicting the gesture of the user's hand is
Predicting gestures simply based on the first or second image, without the identified joints of the user's hand.
Establishing the predicted gesture based on the identified joints of the user's hand,
The operation method according to claim 3, which includes
Or,
The processor further
Predicting gestures simply based on the first or second image, without the identified joints of the user's hand.
Establishing a predicted gesture based on the identified joint of the user's hand,
The head-mounted display system according to claim 3.
又は、
前記プロセッサは、更に、
前記第2ジェスチャの識別された結果に応答して前記第1インタラクティブオブジェクトを非表示にする、
ように構成される請求項2に記載のヘッドマウントディスプレイシステム。 The operation method according to claim 1, further comprising a step of hiding the first interactive object in response to the identified result of the second gesture.
Or,
The processor further
Hide the first interactive object in response to the identified result of the second gesture.
The head-mounted display system according to claim 2.
又は、
前記プロセッサは、更に、
前記第2ジェスチャの識別された結果に応答して前記第1インタラクティブオブジェクト及び前記第2インタラクティブオブジェクトを非表示にする、
ように構成される請求項2に記載のヘッドマウントディスプレイシステム。 The operation method according to claim 1, further comprising a step of hiding the first interactive object and the second interactive object in response to the identified result of the second gesture.
Or,
The processor further
Hiding the first interactive object and the second interactive object in response to the identified result of the second gesture.
The head-mounted display system according to claim 2.
前記ユーザの右手と左手の一方を識別することを含み、前記第2インタラクティブオブジェクトを表示するステップは、
右手が識別されたことに応答して第1メニューを表示することと、
左手が識別されたことに応答して前記第1メニューとは異なる第2メニューを表示し、前記第2インタラクティブオブジェクトは、前記第1メニュー及び前記第2メニューを含む請求項1に記載の操作方法、
又は、
前記プロセッサは、更に、
前記ユーザの右手と左手の一方を識別し、
右手が識別されたことに応答して前記ディスプレイに第1メニューを表示し、
左手が識別されたことに応答して前記ディスプレイに前記第1メニューとは異なる前記第2メニューを表示し、前記第2インタラクティブオブジェクトは、前記第1メニュー及び前記第2メニューを含む、
ように構成される請求項2に記載のヘッドマウントディスプレイシステム。 The step of identifying the first gesture or the second gesture is
The step of displaying the second interactive object, which comprises identifying one of the user's right and left hands, is
Displaying the first menu in response to the identification of the right hand,
The operation method according to claim 1, wherein a second menu different from the first menu is displayed in response to the identification of the left hand, and the second interactive object includes the first menu and the second menu. ,
Or,
The processor further
Identify one of the user's right and left hands
In response to the identification of the right hand, the first menu is displayed on the display.
In response to the identification of the left hand, the display displays the second menu different from the first menu, and the second interactive object includes the first menu and the second menu.
The head-mounted display system according to claim 2.
請求項7に記載の操作方法、
又は、
請求項7に記載のヘッドマウントディスプレイシステム。 The first menu corresponds to the quick setting menu, and the second menu corresponds to the main menu.
The operation method according to claim 7.
Or,
The head-mounted display system according to claim 7.
請求項1に記載の操作方法、
又は、
請求項2に記載のヘッドマウントディスプレイシステム。 The first gesture is a gesture with the palm facing up, and the second gesture is a fist gesture.
The operation method according to claim 1.
Or,
The head-mounted display system according to claim 2.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020205628A JP2022092745A (en) | 2020-12-11 | 2020-12-11 | Operation method using gesture in extended reality and head-mounted display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020205628A JP2022092745A (en) | 2020-12-11 | 2020-12-11 | Operation method using gesture in extended reality and head-mounted display system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022092745A true JP2022092745A (en) | 2022-06-23 |
Family
ID=82069498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020205628A Pending JP2022092745A (en) | 2020-12-11 | 2020-12-11 | Operation method using gesture in extended reality and head-mounted display system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022092745A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024101643A1 (en) * | 2022-11-07 | 2024-05-16 | 삼성전자 주식회사 | Augmented reality device which recognizes object using artificial intelligence model of external device, and operation method therefor |
-
2020
- 2020-12-11 JP JP2020205628A patent/JP2022092745A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024101643A1 (en) * | 2022-11-07 | 2024-05-16 | 삼성전자 주식회사 | Augmented reality device which recognizes object using artificial intelligence model of external device, and operation method therefor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7137804B2 (en) | Method and system for gesture-based interaction | |
CN106716302B (en) | Method, apparatus, and computer-readable medium for displaying image | |
US11430192B2 (en) | Placement and manipulation of objects in augmented reality environment | |
US20140240225A1 (en) | Method for touchless control of a device | |
CN108273265A (en) | The display methods and device of virtual objects | |
KR102021851B1 (en) | Method for processing interaction between object and user of virtual reality environment | |
US20220263937A1 (en) | Electronic device and method of operating electronic device in virtual reality | |
US12067158B2 (en) | Object interaction method and system, and computer-readable medium | |
JPWO2017145423A1 (en) | Information processing system, information processing apparatus, control method, and program | |
KR20160137253A (en) | Augmented Reality Device, User Interaction Apparatus and Method for the Augmented Reality Device | |
CN112596609A (en) | Display processing method, display processing device and wearable equipment | |
CN111913674B (en) | Virtual content display method, device, system, terminal equipment and storage medium | |
JP2022092745A (en) | Operation method using gesture in extended reality and head-mounted display system | |
US11500453B2 (en) | Information processing apparatus | |
CN112702517B (en) | Display control method and device and electronic equipment | |
WO2022169604A1 (en) | Intention image analysis for determining user focus | |
US10222866B2 (en) | Information processing method and electronic device | |
TW202221474A (en) | Operating method by gestures in extended reality and head-mounted display system | |
CN111007942A (en) | Wearable device and input method thereof | |
KR20240141285A (en) | Image processing method and apparatus, device, storage medium and program product | |
EP4009143A1 (en) | Operating method by gestures in extended reality and head-mounted display system | |
Yang et al. | Around-device finger input on commodity smartwatches with learning guidance through discoverability | |
JP5456817B2 (en) | Display control apparatus, display control method, information display system, and program | |
US11054941B2 (en) | Information processing system, information processing method, and program for correcting operation direction and operation amount | |
Vidal Jr et al. | Extending Smartphone-Based Hand Gesture Recognition for Augmented Reality Applications with Two-Finger-Pinch and Thumb-Orientation Gestures |