JP2022092745A - Operation method using gesture in extended reality and head-mounted display system - Google Patents

Operation method using gesture in extended reality and head-mounted display system Download PDF

Info

Publication number
JP2022092745A
JP2022092745A JP2020205628A JP2020205628A JP2022092745A JP 2022092745 A JP2022092745 A JP 2022092745A JP 2020205628 A JP2020205628 A JP 2020205628A JP 2020205628 A JP2020205628 A JP 2020205628A JP 2022092745 A JP2022092745 A JP 2022092745A
Authority
JP
Japan
Prior art keywords
gesture
hand
user
image
identified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020205628A
Other languages
Japanese (ja)
Inventor
勝修 郭
Sheng-Hsiu Kuo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XRspace Co Ltd
Original Assignee
XRspace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XRspace Co Ltd filed Critical XRspace Co Ltd
Priority to JP2020205628A priority Critical patent/JP2022092745A/en
Publication of JP2022092745A publication Critical patent/JP2022092745A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

To provide an operation method using gesture in extended reality (XR) and a head-mounted display (HMD) system.SOLUTION: In a method, a first gesture is identified in a first image. The first gesture corresponds to a hand of a user. A virtual hand and a first interactive object arranged in an interactive area are displayed in response to a result of identifying the first gesture. The virtual hand performs the first gesture. A second gesture is identified in a second image. The second gesture corresponds to the hand of the user, and it is different from the first gesture. The second gesture mutually operates with the first interactive object in the interactive area. The virtual hand and a second interactive object are displayed on a display in response to a result of identifying the second gesture. The virtual hand performs the second gesture. Accordingly, intuitive gesture control is provided.SELECTED DRAWING: Figure 2

Description

本開示は、一般に、仮想シミュレーション、特に、拡張現実(XR)におけるジェスチャによる操作方法及びヘッドマウントディスプレイシステムに関する。 The present disclosure generally relates to virtual simulations, in particular gesture-based manipulation methods and head-mounted display systems in augmented reality (XR).

仮想現実(virtual reality,VR)、拡張現実(augmented reality,AR)、複合現実(mixed reality,MR)などの感覚、知覚及び/又は環境をシミュレートするための拡張現実(Extended reality,XR)技術が最近流行している。前述の技術は、ゲーム、軍事訓練、ヘルスケア、リモートワークなど、複数の分野に適用することができる。XRでは、ユーザがヘッドマウントディスプレイ(HMD)を着用した場合、ユーザは、自分の手を使用してジェスチャを行い、さらに特定の機能をトリガすることができる。その機能は、ハードウェア又はソフトウェアの制御に関連するものであり得る。従って、ユーザが自分の手でヘッドマウントディスプレイシステムを制御することが簡単となっている。 Extended reality (XR) technology for simulating sensations, perceptions and / or environments such as virtual reality (VR), augmented reality (AR), mixed reality (MR), etc. Has been popular recently. The techniques described above can be applied in multiple areas such as gaming, military training, healthcare and remote work. In XR, when a user wears a head-mounted display (HMD), the user can use his or her hand to make gestures and further trigger specific functions. The function may be related to the control of hardware or software. Therefore, it is easy for the user to control the head-mounted display system with his / her own hands.

幾つかのジェスチャは、直感的に機能をトリガするものでない可能性がある。従って、本開示は、直観的なジェスチャ制御を提供するXRにおけるジェスチャによる操作方法及びヘッドマウントディスプレイシステムを対象とする。 Some gestures may not be intuitive to trigger a function. Accordingly, the present disclosure is directed to gesture-based operating methods and head-mounted display systems in XRs that provide intuitive gesture control.

一例示的実施形態において、XRにおけるジェスチャによる操作方法は、これに限定するものではないが、以下のステップを含む。第1ジェスチャは、第1画像において識別される。前記第1ジェスチャは、ユーザの手に対応する。インタラクティブ領域に位置する仮想手と第1インタラクティブオブジェクトは、前記第1ジェスチャの識別された結果に応答して表示される。前記仮想手は、前記第1ジェスチャを行う。第2ジェスチャは、第2画像において識別される。前記第2ジェスチャは、前記ユーザの手に対応し、前記第1ジェスチャとは異なる。前記第2ジェスチャは、前記インタラクティブ領域の前記第1インタラクティブオブジェクトと相互作用する。前記仮想手及び第2インタラクティブオブジェクトは、前記第1ジェスチャ及び前記第2ジェスチャの識別された結果に応答してディスプレイに表示される。前記仮想手が前記第2ジェスチャを行う。前記仮想手の数は、1つ又は2つであることができる。前記仮想手は、XRでは全身又は半身のアバターの手であることができる。 In an exemplary embodiment, the gesture-based operation method in XR includes, but is not limited to, the following steps. The first gesture is identified in the first image. The first gesture corresponds to the user's hand. The virtual hand and the first interactive object located in the interactive area are displayed in response to the identified result of the first gesture. The virtual hand performs the first gesture. The second gesture is identified in the second image. The second gesture corresponds to the hand of the user and is different from the first gesture. The second gesture interacts with the first interactive object in the interactive area. The virtual hand and the second interactive object are displayed on the display in response to the identified results of the first gesture and the second gesture. The virtual hand makes the second gesture. The number of virtual hands can be one or two. The virtual hand can be a full-body or half-body avatar's hand in XR.

一例示的実施形態において、ヘッドマウントディスプレイシステムは、これに限定するものではないが、画像キャプチャデバイス、ディスプレイ、及びプロセッサを含む。前記画像キャプチャデバイスは、画像をキャプチャする。前記プロセッサは、前記画像キャプチャデバイス及び前記ディスプレイに結合される。前記プロセッサは、次のステップを実行するように構成される。前記プロセッサは、前記画像キャプチャデバイスによってキャプチャされた第1画像における第1ジェスチャを識別する。前記第1ジェスチャは、ユーザの手に対応する。前記プロセッサは、前記第1ジェスチャの識別された結果に応答して、前記ディスプレイのインタラクティブ領域に位置する仮想手と第1インタラクティブオブジェクトを表示する。前記仮想手が前記第1ジェスチャを行う。前記プロセッサは、前記画像キャプチャデバイスによってキャプチャされた第2画像における第2ジェスチャを識別する。前記第2ジェスチャは、前記ユーザの手に対応し、前記第1ジェスチャとは異なり、前記第2ジェスチャは、インタラクティブ領域の第1インタラクティブオブジェクトと相互作用する。前記プロセッサは、前記第1ジェスチャ及び前記第2ジェスチャの識別された結果に応答して、前記ディスプレイ上に前記仮想手及び第2インタラクティブオブジェクトを表示する。前記仮想手が前記第2ジェスチャを行う。前記仮想手の数は1つ又は2つであることができる。前記仮想手は、XRでは全身又は半身のアバターの手であることができる。 In an exemplary embodiment, the head-mounted display system includes, but is not limited to, an image capture device, a display, and a processor. The image capture device captures an image. The processor is coupled to the image capture device and the display. The processor is configured to perform the next step. The processor identifies a first gesture in a first image captured by the image capture device. The first gesture corresponds to the user's hand. The processor displays a virtual hand and a first interactive object located in the interactive area of the display in response to the identified result of the first gesture. The virtual hand makes the first gesture. The processor identifies a second gesture in a second image captured by the image capture device. The second gesture corresponds to the hand of the user, and unlike the first gesture, the second gesture interacts with a first interactive object in the interactive area. The processor displays the virtual hand and the second interactive object on the display in response to the identified results of the first gesture and the second gesture. The virtual hand makes the second gesture. The number of virtual hands can be one or two. The virtual hand can be a full-body or half-body avatar's hand in XR.

上記に照らして、操作方法及びヘッドマウントディスプレイシステムによれば、2つの連続するジェスチャが2つの画像で識別され、ジェスチャの組み合わせがディスプレイをトリガして、異なるインタラクティブオブジェクトを表示することができる。更に、仮想手と更に相互作用するために、1つのインタラクティブオブジェクトが提供される。従って、ヘッドマウントディスプレイシステムを制御するための便利で興味深い方法が提供される。 In light of the above, according to the method of operation and the head-mounted display system, two consecutive gestures can be identified in two images, and the combination of gestures can trigger the display to display different interactive objects. In addition, one interactive object is provided to further interact with the virtual hand. Therefore, a convenient and interesting way to control a head-mounted display system is provided.

理解されるべきこととして、この概要は、本開示の全ての態様及び実施形態を含むとは限らず、いかなる方法にも制限又は限定することを意味するものではなく、本明細書に開示される発明は、それに対する自明な改良及び修正を含むものであると当業者により理解されるものである。 It should be understood that this summary does not include all aspects and embodiments of the present disclosure, nor does it imply any limitation or limitation to any method, and is disclosed herein. The invention is to be understood by those skilled in the art to include obvious improvements and modifications to it.

本開示の一例示的実施形態によるヘッドマウントディスプレイシステムを示すブロック図である。It is a block diagram which shows the head-mounted display system by an exemplary embodiment of this disclosure. 本開示の一例示的実施形態による拡張現実(XR)におけるジェスチャによる操作方法を示すフローチャートである。It is a flowchart which shows the operation method by a gesture in augmented reality (XR) by an exemplary embodiment of this disclosure. 本開示の一例示的実施形態によるジェスチャ分類子の予測を示す概略図である。It is a schematic diagram which shows the prediction of the gesture classifier by an exemplary embodiment of this disclosure. , 本開示の一例示的実施形態によるジェスチャによるインタラクティブオブジェクトのトリガーを示す概略図である。It is a schematic diagram which shows the trigger of an interactive object by a gesture by an exemplary embodiment of this disclosure. , 本開示の一例示的実施形態によるジェスチャによるインタラクティブオブジェクトのトリガーを示す概略図である。It is a schematic diagram which shows the trigger of an interactive object by a gesture by an exemplary embodiment of this disclosure. , 本開示の一例示的実施形態によるジェスチャによるインタラクティブオブジェクトのトリガーを示す概略図である。It is a schematic diagram which shows the trigger of an interactive object by a gesture by an exemplary embodiment of this disclosure.

本開示の好適実施形態を詳細に参照し、その例を添付の図面に示す。可能な限り、図面及び説明で同じ参照番号を使用して同じ又は類似の部材を参照している。 Preferred embodiments of the present disclosure are referred to in detail, examples of which are shown in the accompanying drawings. Wherever possible, the drawings and description refer to the same or similar members using the same reference numbers.

図1は、本開示の一例示的実施形態によるヘッドマウントディスプレイシステム100を示すブロック図である。図1を参照し、ヘッドマウントディスプレイ(HMD)システム100は、これらに限定しないが、メモリ110、ディスプレイ120、画像キャプチャデバイス130、及びプロセッサを含む。HMDシステム100は、XR又はその他の現実シミュレーション関連技術に適用される。 FIG. 1 is a block diagram showing a head-mounted display system 100 according to an exemplary embodiment of the present disclosure. With reference to FIG. 1, the head-mounted display (HMD) system 100 includes, but is not limited to, a memory 110, a display 120, an image capture device 130, and a processor. The HMD system 100 is applied to XR or other reality simulation related techniques.

メモリ110は、任意のタイプの固定又は可動のランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、フラッシュメモリ、類似のデバイス、又は上記デバイスの組み合わせであることができる。メモリ110は、プログラムコード、デバイス構成、バッファーデータ、又は永続データ(画像、ジェスチャ分類子、事前定義されたジェスチャ、設定等)を記録し、これらのデータについては、後述する。 The memory 110 can be any type of fixed or movable random access memory (RAM), read-only memory (ROM), flash memory, similar devices, or a combination of the above devices. The memory 110 records program code, device configuration, buffer data, or persistent data (images, gesture classifiers, predefined gestures, settings, etc.), which will be described later.

ディスプレイ120は、LCD、LEDディスプレイ、又はOLEDディスプレイであることができる。 The display 120 can be an LCD, an LED display, or an OLED display.

画像キャプチャデバイス130は、モノクロカメラ又はカラーカメラ、ディープカメラ、ビデオレコーダ等のカメラ、又は他の画像をキャプチャすることができる画像キャプチャデバイスであることができる。 The image capture device 130 can be a monochrome camera or a camera such as a color camera, a deep camera, a video recorder, or an image capture device capable of capturing other images.

プロセッサ150は、メモリ110、ディスプレイ120、及び画像キャプチャデバイス130に結合される。プロセッサ150は、メモリ110に格納されたプログラムコードをロードして、本開示の例示的実施形態の手順を実行するように構成される。 The processor 150 is coupled to the memory 110, the display 120, and the image capture device 130. Processor 150 is configured to load program code stored in memory 110 and perform the procedures of the exemplary embodiments of the present disclosure.

幾つかの実施形態では、プロセッサ150は、CPU(central processing unit)、マイクロプロセッサ、マイクロコントローラ、グラフィックス処理ユニット(GPU)、デジタル信号処理(DSP)チップ、フィールドプログラマブルゲートアレイ(FPGA)であることができる。プロセッサ150の機能は、独立した電子デバイス又は集積回路(IC)によって実行されることもでき、プロセッサ150の動作は、ソフトウェアによって実施されることもできる。 In some embodiments, the processor 150 is a CPU (central processing unit), microprocessor, microcontroller, graphics processing unit (GPU), digital signal processing (DSP) chip, field programmable gate array (FPGA). Can be done. The function of the processor 150 may be performed by an independent electronic device or an integrated circuit (IC), and the operation of the processor 150 may be performed by software.

一実施形態において、HMD又はデジタル眼鏡は、メモリ110、ディスプレイ120、画像キャプチャデバイス130、及びプロセッサ150を含む。幾つかの実施形態では、プロセッサ150は、ディスプレイ120及び/又は画像キャプチャデバイス130と同じ装置に配置されない場合がある。しかしながら、それぞれディスプレイ120、画像キャプチャデバイス130、及びプロセッサ150を備えた装置は、ブルートゥース(登録商標)、Wi‐Fi、及びIR無線通信などの互換性のある通信技術を備えた通信トランシーバ、又は物理的な伝送ラインをさらに含み、お互いにデータを受信することができる。例えば、プロセッサ150は、HMD内に配置され、一方で、画像キャプチャデバイス130は、HMDの外側に配置されることができる。別の例では、プロセッサ150がコンピューティングデバイス内に配置され、一方で、ディスプレイ120がコンピューティングデバイスの外側に配置されることができる。 In one embodiment, the HMD or digital eyeglasses include a memory 110, a display 120, an image capture device 130, and a processor 150. In some embodiments, the processor 150 may not be located in the same device as the display 120 and / or the image capture device 130. However, the device with the display 120, the image capture device 130, and the processor 150, respectively, is a communication transceiver or physical with compatible communication techniques such as Bluetooth®, Wi-Fi, and IR radio communication. Can receive data from each other, including more typical transmission lines. For example, the processor 150 can be located inside the HMD, while the image capture device 130 can be located outside the HMD. In another example, the processor 150 can be located inside the computing device, while the display 120 can be located outside the computing device.

本開示の1つ又は複数の実施形態で提供される動作プロセスをよりよく理解するために、幾つかの実施形態を以下に例示して、ヘッドマウントディスプレイシステム100を詳しく説明する。ヘッドマウントディスプレイシステム100のデバイスとモジュールは、次の実施形態に適用され、ここで提供されるXRにおけるジェスチャによる操作方法を説明する。その方法の各ステップは、実際の実装状況に応じて調整することができ、ここで説明するものに限定するものではない。 In order to better understand the operating process provided in one or more embodiments of the present disclosure, some embodiments are exemplified below to illustrate the head-mounted display system 100 in detail. The devices and modules of the head-mounted display system 100 are applied to the following embodiments, and the gesture operation method in the XR provided herein will be described. Each step of the method can be adjusted according to the actual implementation situation, and is not limited to the one described here.

図2は、本開示の一例示的実施形態による、拡張現実(XR)におけるジェスチャによる操作方法を示すフローチャートである。図2を参照すると、プロセッサ150は、画像キャプチャデバイス130によってキャプチャされた第1画像における第1ジェスチャを識別することができる(ステップS210)。具体的には、第1ジェスチャは、掌を上に向ける、掌を下に向ける、手を振る、拳ジェスチャなどの事前定義されたジェスチャである。第1ジェスチャは、ユーザの手に対応する。第一に、プロセッサ150は、画像の手を識別することができる。次に、プロセッサ150は、第1画像においてユーザの手によって行われたジェスチャを識別し、識別されたジェスチャが事前定義された第1ジェスチャであるかどうかを比較することができる。 FIG. 2 is a flowchart showing a gesture-based operation method in augmented reality (XR) according to an exemplary embodiment of the present disclosure. Referring to FIG. 2, processor 150 can identify the first gesture in the first image captured by the image capture device 130 (step S210). Specifically, the first gesture is a predefined gesture such as palm up, palm down, waving, fist gesture, and so on. The first gesture corresponds to the user's hand. First, the processor 150 can identify the hand of the image. The processor 150 can then identify gestures made by the user in the first image and compare whether the identified gesture is a predefined first gesture.

一実施形態では、プロセッサ150は、第1画像からユーザの手の関節を識別し、ジェスチャ分類子を介して第1画像及び識別されたユーザの手の関節に基づいてユーザの手のジェスチャを予測することができる。具体的には、手の関節の位置は手のジェスチャに関連している。さらに、画像の輪郭、サイズ、テクスチャ、形状、及びその他の特徴は、手のジェスチャに関連している。設計者は、事前定義されたジェスチャを含む多くの画像を訓練サンプルとして準備し、訓練サンプルを使用して、ジェスチャ認識機能で構成されている機械学習アルゴリズム(深層学習、人工ニューラルネットワーク(ANN)、サポートベクターマシン(SVM)等)によってジェスチャ分類子を訓練することができる。更に、これらの訓練サンプルでは手関節が識別され、手関節は同じジェスチャ分類子又は別のジェスチャ分類子を訓練するための別の訓練サンプルになる。次に、訓練されたジェスチャ分類子を使用して、入力画像で行われるジェスチャを判定することができる。 In one embodiment, the processor 150 identifies the joint of the user's hand from the first image and predicts the gesture of the user's hand based on the first image and the identified joint of the user's hand via the gesture classifier. can do. Specifically, the position of the joints of the hand is related to the gesture of the hand. In addition, image contours, sizes, textures, shapes, and other features are related to hand gestures. The designer prepares many images containing predefined gestures as training samples, and uses the training samples to use machine learning algorithms (deep learning, artificial neural networks (ANN), which are composed of gesture recognition functions. Gesture classifiers can be trained by support vector machines (SVMs, etc.). In addition, these training samples identify the wrist joint, which becomes another training sample for training the same gesture classifier or another gesture classifier. The trained gesture classifier can then be used to determine the gestures made on the input image.

幾つかの実施形態では、プロセッサ150は、ユーザの手の識別された関節なしで、単に第1画像に基づいて、ジェスチャを予測し、それから、ユーザの手の識別された関節に基づいて予測されたジェスチャを確定することができる。例えば、図3は、本開示の一例示的実施形態によるジェスチャ分類子の予測を示す概略図である。図3を参照し、ジェスチャを含む画像OMがジェスチャ分類子に入力されると、その特徴が画像OMから抽出される(ステップS301、即ち、特徴抽出)。例えば、ステップS301では、プロセッサ150は、画像OMのピクセル値を含むフィルターで畳み込み計算を実行し、対応するカーネルを使用して特徴マップを出力する。特徴は、テクスチャ、コーナー、エッジ、又は形状であることができる。次に、プロセッサ150は、特徴マップ等のステップS301から抽出された特徴を分類することができる(ステップS302、即ち、分類)。なお、1つのジェスチャ分類子は、1つ以上のラベル(即ち、本実施形態の1つ以上のジェスチャ)で構成されている場合がある。ジェスチャ分類子は、判定されたジェスチャを出力することができる。 In some embodiments, the processor 150 predicts a gesture based solely on the first image, without the identified joints of the user's hand, and then based on the identified joints of the user's hand. You can confirm the gesture. For example, FIG. 3 is a schematic diagram showing the prediction of a gesture classifier according to an exemplary embodiment of the present disclosure. With reference to FIG. 3, when the image OM including the gesture is input to the gesture classifier, the feature is extracted from the image OM (step S301, that is, feature extraction). For example, in step S301, processor 150 performs a convolution calculation with a filter containing the pixel values of the image OM and outputs a feature map using the corresponding kernel. Features can be textures, corners, edges, or shapes. Next, the processor 150 can classify the features extracted from step S301 such as the feature map (step S302, that is, classification). In addition, one gesture classifier may be composed of one or more labels (that is, one or more gestures of the present embodiment). The gesture classifier can output the determined gesture.

単に画像OMに基づいて1つ又は複数のジェスチャが判定された後、手関節Jを識別した画像OMが、同じ又は別のジェスチャ分類子に入力される。同様に、プロセッサ150は、手関節Jを識別した画像OMに対して特徴抽出(ステップS301)及び分類(ステップS302)を実行し、判定されたジェスチャを出力することができる。次いで判定されたジェスチャは、最初に判定されたジェスチャの正しさをチェックするために使用される。例えば、両方の判定されたジェスチャが同じである場合、プロセッサ150は、そのジェスチャを確定することができる。判定されたジェスチャが異なる場合、プロセッサ150は、別の画像において、そのジェスチャを判定することができる。 After only one or more gestures are determined based on the image OM, the image OM identifying the wrist joint J is input to the same or another gesture classifier. Similarly, the processor 150 can execute feature extraction (step S301) and classification (step S302) on the image OM that identifies the wrist joint J, and output the determined gesture. The determined gesture is then used to check the correctness of the first determined gesture. For example, if both determined gestures are the same, the processor 150 can determine the gesture. If the determined gestures are different, the processor 150 can determine the gesture in another image.

一実施形態では、プロセッサ150は、更にユーザの右手及び左手を識別することができる。これは、プロセッサ150が、どちらの手が、ジェスチャを行うか、又は画像キャプチャデバイス130にキャプチャされるかを認識していることを意味する(即ち、手は画像キャプチャデバイス130の視野(FOV)内に配置される)。幾つかの実施形態では、プロセッサ150は、ユーザの右手と左手にそれぞれ異なる事前定義ジェスチャ又は同じ事前定義ジェスチャを定義することができる。例えば、1つの機能は、右手又は左手での親指を立てるジェスチャによってトリガされる。別の例では、別の機能が、右手で人差し指を上げるジェスチャによってトリガされ、同じ機能が、左手で小指を上げるジェスチャによってトリガされる。 In one embodiment, the processor 150 can further identify the user's right and left hands. This means that the processor 150 is aware of which hand is performing the gesture or is captured by the image capture device 130 (ie, the hand is the field of view (FOV) of the image capture device 130). Placed inside). In some embodiments, processor 150 may define different predefined gestures or the same predefined gestures for the user's right and left hands, respectively. For example, one function is triggered by a thumbs-up gesture with the right or left hand. In another example, another function is triggered by a gesture that raises the index finger with the right hand, and the same function is triggered by a gesture that raises the little finger with the left hand.

なお、例えば、3Dモデルベースのアルゴリズム、骨格ベースのアルゴリズム、外観ベースのモデル、筋電図ベースのモデル等、多くのジェスチャ認識アルゴリズムが存在する。これらのアルゴリズムは、実際の要件に合わせて実装できる。 It should be noted that there are many gesture recognition algorithms such as 3D model-based algorithms, skeleton-based algorithms, appearance-based models, and electromyogram-based models. These algorithms can be implemented according to actual requirements.

プロセッサ150は、第1ジェスチャの識別された結果に応答して、ディスプレイ120上のインタラクティブ領域に配置された仮想手及び第1インタラクティブオブジェクトを表示することができる(ステップS230)。具体的には、識別された結果が第1画像のジェスチャが第1ジェスチャと同一である場合、ユーザの手に対応する仮想手が第1ジェスチャを行う。プロセッサ150は、ディスプレイ120上に第1ジェスチャを行う仮想手を表示することができ、それにより、ユーザは、彼/彼女が正しいジェスチャを行っているかどうかを認識することができる。但し、第1画像の識別されたジェスチャが第1ジェスチャではない場合でも、プロセッサ150は識別されたジェスチャをディスプレイ120に表示することができる。更に、第1ジェスチャは、ディスプレイ120をトリガし、第1インタラクティブオブジェクトを表示することに用いられる。これは、ユーザが第1ジェスチャを行うまで、第1インタラクティブオブジェクトがディスプレイ120に表示されなくすることができることを意味する。第1インタラクティブオブジェクトは、画像、ビデオ、仮想ボール、又はその他の仮想オブジェクトである。第1インタラクティブオブジェクトは、仮想手又はアバターの手のインタラクティブ領域に位置する。これは、仮想の手の指、掌、又はその他の部分が、インタラクティブ領域に位置する任意のオブジェクトと相互作用可能となり得ることを意味する。例えば、インタラクティブ領域において、指が仮想キーに触れたり、又は掌が仮想ボールを持ったりすることができる。なお、インタラクティブ領域の形状と位置は、実際の要求に応じて変更されることができる。更に、仮想手の数は1つ又は2つであることができる。仮想手は、XRでは全身又は半身のアバターの手であることができる。 The processor 150 can display the virtual hand and the first interactive object placed in the interactive area on the display 120 in response to the identified result of the first gesture (step S230). Specifically, when the identified result is that the gesture of the first image is the same as the first gesture, the virtual hand corresponding to the user's hand performs the first gesture. The processor 150 can display a virtual hand performing the first gesture on the display 120, whereby the user can recognize whether he / she is performing the correct gesture. However, even if the identified gesture of the first image is not the first gesture, the processor 150 can display the identified gesture on the display 120. Further, the first gesture is used to trigger the display 120 to display the first interactive object. This means that the first interactive object can be hidden from the display 120 until the user makes the first gesture. The first interactive object is an image, video, virtual ball, or other virtual object. The first interactive object is located in the interactive area of the virtual hand or the avatar's hand. This means that the fingers, palms, or other parts of the virtual hand can interact with any object located in the interactive area. For example, in the interactive area, a finger can touch a virtual key or a palm can hold a virtual ball. The shape and position of the interactive area can be changed according to actual requirements. Further, the number of virtual hands can be one or two. The virtual hand can be a full-body or half-body avatar's hand in XR.

一実施形態では、第1インタラクティブオブジェクトは、相互作用できることをユーザに通知し、ユーザに別のジェスチャの実行を試行させる。即ち、第1インタラクティブオブジェクトは、後続のジェスチャのヒントに関連している。例えば、第1インタラクティブオブジェクトは、仮想ボールであり、ユーザは仮想ボールを持ったり、掴んだりすることを試行することができる。 In one embodiment, the first interactive object notifies the user that it can interact and causes the user to try another gesture. That is, the first interactive object is associated with hints for subsequent gestures. For example, the first interactive object is a virtual ball, and the user can try to hold or grab the virtual ball.

プロセッサ150は、第2画像における第2ジェスチャを識別することができる(ステップS250)。具体的には、第2ジェスチャは、掌を上に向ける、掌を下に向ける、交差させた指、又は拳ジェスチャ等の別の事前定義されたジェスチャであるが、第1ジェスチャとは異なるものである。第2ジェスチャも、ユーザの手に対応する。プロセッサ150は、第2画像においてユーザの手によって行われたジェスチャを識別し、識別されたジェスチャが事前定義された第2ジェスチャであるかどうかを比較することができる。 Processor 150 can identify the second gesture in the second image (step S250). Specifically, the second gesture is another predefined gesture, such as a palm-up, palm-down, crossed finger, or fist gesture, but different from the first gesture. Is. The second gesture also corresponds to the user's hand. Processor 150 can identify gestures made by the user in the second image and compare whether the identified gesture is a predefined second gesture.

一実施形態では、ステップS210で詳細に述べたように、プロセッサ150は、第2画像からユーザの手の関節を識別し、ジェスチャ分類子を介して第2画像及び識別されたユーザの手の関節に基づいてユーザの手のジェスチャを予測することができる。幾つかの実施形態では、ステップS210で詳細に述べたように、プロセッサ150は、ユーザの手の識別された関節なしで、単に第2画像に基づいて、ジェスチャを予測し、次に、ユーザの手の識別された関節に基づいて予測されたジェスチャを確定することができる。 In one embodiment, as described in detail in step S210, the processor 150 identifies the joint of the user's hand from the second image and via the gesture classifier the second image and the identified user's hand joint. The gesture of the user's hand can be predicted based on. In some embodiments, as detailed in step S210, the processor 150 predicts the gesture, simply based on the second image, without the identified joints of the user's hand, and then the user's. Predicted gestures can be determined based on the identified joints of the hand.

プロセッサ150は、第2ジェスチャの識別された結果に応答して、ディスプレイ120上に仮想手及び第2インタラクティブオブジェクトを表示することができる(ステップS270)。具体的には、識別された結果が、第2画像のジェスチャが第2ジェスチャと同一であるという場合、ユーザに対応する仮想手が第2ジェスチャを行う。プロセッサ150は、ディスプレイ120上に第2ジェスチャを行う仮想手を表示することができ、第2ジェスチャを有する手は、インタラクティブ領域内の第1インタラクティブオブジェクトと相互作用することができる。例えば、仮想手が仮想ボールを掴む。幾つかの実施形態では、第1インタラクティブオブジェクトの変形のアニメーションがディスプレイ120に表示されることができる。例えば、仮想ボールが握り潰される。但し、第2画像の識別されたジェスチャが第2ジェスチャではない場合でも、プロセッサ150は、識別されたジェスチャをディスプレイ120に表示することができる。更に、第1インタラクティブオブジェクトは、間違ったジェスチャのために非表示にされることができる。 The processor 150 can display the virtual hand and the second interactive object on the display 120 in response to the identified result of the second gesture (step S270). Specifically, if the identified result is that the gesture of the second image is the same as the second gesture, the virtual hand corresponding to the user performs the second gesture. The processor 150 can display a virtual hand performing the second gesture on the display 120, and the hand having the second gesture can interact with the first interactive object in the interactive area. For example, a virtual hand grabs a virtual ball. In some embodiments, an animation of the transformation of the first interactive object can be displayed on the display 120. For example, a virtual ball is crushed. However, even if the identified gesture of the second image is not the second gesture, the processor 150 can display the identified gesture on the display 120. In addition, the first interactive object can be hidden due to the wrong gesture.

更に、第1ジェスチャと第2ジェスチャの組み合わせを使用して、ディスプレイ120をトリガして第2インタラクティブオブジェクトを表示し、第1インタラクティブオブジェクトを非表示にする。これは、ユーザが第1ジェスチャを実行してから第2ジェスチャを実行するまで、第2インタラクティブオブジェクトがディスプレイ120に表示されないようにできることを意味する。第1画像で第1ジェスチャが識別された後に第2ジェスチャとは異なる第3ジェスチャが第2画像で識別された場合、第1インタラクティブオブジェクトは、引き続きディスプレイ120に表示され、第2インタラクティブオブジェクトは表示されない。第2インタラクティブオブジェクトは、画像、ビデオ、メニュー、又はその他の仮想オブジェクトであることができる。一方、第2ジェスチャが識別されるため、第2ジェスチャのヒントである第1インタラクティブオブジェクトは、表示される必要はない。従って、第1インタラクティブオブジェクトは、ユーザが第1ジェスチャと第2ジェスチャを直感的に組み合わせることを補助することができる。 In addition, the combination of the first and second gestures is used to trigger the display 120 to show the second interactive object and hide the first interactive object. This means that the second interactive object can be hidden from the display 120 from the time the user performs the first gesture until the user performs the second gesture. If a third gesture different from the second gesture is identified in the second image after the first gesture is identified in the first image, the first interactive object is still displayed on the display 120 and the second interactive object is visible. Not done. The second interactive object can be an image, video, menu, or other virtual object. On the other hand, since the second gesture is identified, the first interactive object, which is a hint of the second gesture, does not need to be displayed. Therefore, the first interactive object can help the user intuitively combine the first and second gestures.

例えば、図4A及び図4Bは、本開示の一例示的実施形態によるジェスチャによるインタラクティブオブジェクトのトリガを示す概略図である。図4Aを参照し、第1ジェスチャとして定義される掌を上に向けるジェスチャは、第1時点で左手を有する第1画像において識別される。掌を上に向けるジェスチャを備えた仮想左手LHと仮想ボールio1(即ち、第1インタラクティブオブジェクト)がディスプレイ120に表示される。図4Bを参照し、第2ジェスチャとして定義される拳ジェスチャは、第2時点で左手を有する第2画像において識別される。拳ジェスチャのある仮想左手LHとメインメニューio2(即ち、第2インタラクティブオブジェクト)が、ディスプレイ120に表示される。メインメニューio2は、友達リスト、地図、アプリストアのアイコン等の複数のアイコンを含む。 For example, FIGS. 4A and 4B are schematics showing the triggering of an interactive object by gestures according to an exemplary embodiment of the present disclosure. With reference to FIG. 4A, the palm-up gesture defined as the first gesture is identified in the first image with the left hand at the first time point. A virtual left-hand LH with a palm-up gesture and a virtual ball io1 (ie, a first interactive object) are displayed on the display 120. With reference to FIG. 4B, the fist gesture defined as the second gesture is identified in the second image with the left hand at the second time point. A virtual left-handed LH with a fist gesture and a main menu io2 (ie, a second interactive object) are displayed on the display 120. The main menu io2 includes a plurality of icons such as a friend list, a map, and an app store icon.

一実施形態では、第2インタラクティブオブジェクトは、第1メニューと第2メニューを含む。第2メニューは、第1メニューとは異なる。プロセッサ150は、右手が識別された場合は、ディスプレイ120に第1メニューを表示し、左手が識別された場合は、ディスプレイ120に第2メニューを表示する。これは、第1ジェスチャと第2ジェスチャの組み合わせが右手によって行われた場合、第1メニューがディスプレイ120に表示されるが、第1ジェスチャと第2ジェスチャの組み合わせが左手で行われた場合、ディスプレイ120に第2メニューが表示されることを意味する。 In one embodiment, the second interactive object includes a first menu and a second menu. The second menu is different from the first menu. The processor 150 displays the first menu on the display 120 when the right hand is identified, and displays the second menu on the display 120 when the left hand is identified. This is because if the combination of the first and second gestures is done by the right hand, the first menu is displayed on the display 120, but if the combination of the first and second gestures is done by the left hand, the display. It means that the second menu is displayed at 120.

例えば、図4Bに示すように、第2メニューはメインメニューio2である。図5A及び図5Bは、本開示の一例示的実施形態に基づくジェスチャによるインタラクティブオブジェクトのトリガを示す概略図である。図5Aを参照し、第1ジェスチャとして定義される掌を上に向けるジェスチャは、第3時点で右手を有する第1画像において識別される。掌を上に向けるジェスチャと仮想ボールio3を備えた仮想右手RH(即ち、第1インタラクティブオブジェクト)がディスプレイ120に表示される。図5Bを参照し、第2ジェスチャとして定義される拳ジェスチャは、第4時点で左手を有する第2画像において識別される。第1ジェスチャを有する仮想右手RH及びクイック設定メニューio4(即ち、第2インタラクティブオブジェクト又は第1メニュー)がディスプレイ120に表示される。クイック設定メニューio4は、カメラのオン/オフ、仮想手での特定の動作、メッセージングのアイコン等の複数のアイコンを含む。 For example, as shown in FIG. 4B, the second menu is the main menu io2. 5A and 5B are schematics showing the triggering of an interactive object by gestures based on an exemplary embodiment of the present disclosure. With reference to FIG. 5A, the palm-up gesture defined as the first gesture is identified in the first image with the right hand at the third time point. A virtual right-handed RH (ie, a first interactive object) with a palm-up gesture and a virtual ball io3 is displayed on the display 120. With reference to FIG. 5B, the fist gesture defined as the second gesture is identified in the second image with the left hand at the fourth time point. A virtual right-handed RH with a first gesture and a quick setting menu io4 (ie, a second interactive object or a first menu) are displayed on the display 120. The quick setting menu io4 includes a plurality of icons such as camera on / off, specific action by virtual hand, and messaging icon.

一実施形態では、第2ジェスチャが検出された場合、プロセッサ150はディスプレイ120上の第1インタラクティブオブジェクトを更に非表示にすることができる。これは、後続のジェスチャを更に指示する必要がなく、第1インタラクティブオブジェクトが表示されないことを意味する。従って、第2インタラクティブオブジェクトのみがディスプレイ120に表示される。図5A及び5Bを例にとると、拳ジェスチャが識別された後、仮想ボールio3は非表示にされる。 In one embodiment, if the second gesture is detected, the processor 150 can further hide the first interactive object on the display 120. This means that the first interactive object is not displayed without further instruction for subsequent gestures. Therefore, only the second interactive object is displayed on the display 120. Taking FIGS. 5A and 5B as an example, the virtual ball io3 is hidden after the fist gesture is identified.

別の実施形態では、第2インタラクティブオブジェクトがディスプレイ120に表示され、第1ジェスチャと第2ジェスチャの識別結果が確定された場合(即ち、第1ジェスチャと第2ジェスチャの組み合わせがユーザによって行われた場合)、プロセッサ150はディスプレイ120上の第1インタラクティブオブジェクトと第2インタラクティブオブジェクトを非表示にすることができる。従って、ジェスチャによってメニューをオフにすることができる。 In another embodiment, the second interactive object is displayed on the display 120 and the identification result of the first gesture and the second gesture is confirmed (that is, the combination of the first gesture and the second gesture is performed by the user. Case), the processor 150 can hide the first and second interactive objects on the display 120. Therefore, the menu can be turned off by gesture.

例えば、図6A及び図6Bは、本開示の一例示的実施形態に基づくジェスチャによるインタラクティブオブジェクトのトリガを示す概略図である。図6Aを参照し、クイック設定メニューio4がディスプレイ120に表示されている。仮想ボールio3は、右手RHでの掌を上に向けたジェスチャのために表示される。図6Bを参照し、右手RHでの拳ジェスチャのため、仮想ボールio3とクイック設定メニューio4の両方が非表示にされている。 For example, FIGS. 6A and 6B are schematics showing a gesture-based triggering of an interactive object according to an exemplary embodiment of the present disclosure. With reference to FIG. 6A, the quick setting menu io4 is displayed on the display 120. The virtual ball io3 is displayed for a palm-up gesture in the right hand RH. With reference to FIG. 6B, both the virtual ball io3 and the quick setting menu io4 are hidden due to the fist gesture with the right hand RH.

なお、図4A~図6Bの第1インタラクティブオブジェクト及び第2インタラクティブオブジェクト及びジェスチャは、実際の要求に応じて変更されることができ、実施形態は、それに限定するものではない。 The first interactive object, the second interactive object, and the gesture of FIGS. 4A to 6B can be changed according to an actual request, and the embodiment is not limited thereto.

要約すると、上記の例示的実施形態は、XRにおけるジェスチャによる操作方法及びヘッドマウントディスプレイシステムを示した。ジェスチャの組み合わせは2つの画像で識別され、ディスプレイで第2インタラクティブオブジェクトを表示するために用いられる。更に、第2ジェスチャを行うようにさらに促すために、第1ジェスチャが識別された後に第1インタラクティブオブジェクトが表示されることができる。従って、直感的なジェスチャ制御が提供される。 In summary, the above exemplary embodiments have shown gesture-based operation methods and head-mounted display systems in XR. The combination of gestures is identified by the two images and is used to display the second interactive object on the display. In addition, the first interactive object can be displayed after the first gesture has been identified to further encourage the second gesture to be performed. Therefore, intuitive gesture control is provided.

当業者であれば明らかであるように、本開示の範囲又は精神から逸脱することなく、本開示の構造に対して様々な修正及び変形を行うことができる。前述の観点において、本開示は、それらが後述の特許請求の範囲及びそれらの均等の範囲内にあるという条件で、本開示の修正及び変形を含むことが意図される。 As will be apparent to those skilled in the art, various modifications and variations may be made to the structure of the present disclosure without departing from the scope or spirit of the present disclosure. In the above-mentioned viewpoint, the present disclosure is intended to include amendments and modifications of the present disclosure, provided that they are within the scope of the claims described below and their equality.

ジェスチャによる操作方法とヘッドマウントディスプレイシステムは、拡張現実に適用できる。 Gesture operation methods and head-mounted display systems can be applied to augmented reality.

100 ヘッドマウントディスプレイシステム
110 メモリ
120 ディスプレイ
130 画像キャプチャデバイス
150 プロセッサ
S210~S270、S301~S302 ステップ
OM 画像
J 関節
LH 仮想左手
io1 仮想ボール
io2 メインメニュー
RH 仮想右手
io3 仮想ボール
io4 クイック設定メニュー
100 Head-mounted display system 110 Memory 120 Display 130 Image capture device 150 Processors S210-S270, S301-S302 Step OM image
J Joint LH Virtual Left Hand io1 Virtual Ball io2 Main Menu RH Virtual Right Hand io3 Virtual Ball io4 Quick Setting Menu

Claims (9)

第1画像において、ユーザの手に対応する第1ジェスチャを識別するステップと、
第1ジェスチャの識別された結果に応答して、インタラクティブ領域に配置された仮想手及び第1インタラクティブオブジェクトを表示し、前記仮想手が前記第1ジェスチャを行うステップと、
第2画像において、前記ユーザの手に対応し且つ前記第1ジェスチャと異なる第2ジェスチャを識別し、前記第2ジェスチャは、前記インタラクティブ領域において前記第1インタラクティブオブジェクトと相互作用するステップと、
前記第2ジェスチャの識別された結果に応答して前記仮想手と第2インタラクティブオブジェクトを表示し、前記仮想手が前記第2ジェスチャを行うステップと、
を含む、拡張現実(XR)におけるジェスチャによる操作方法。
In the first image, the step of identifying the first gesture corresponding to the user's hand,
In response to the identified result of the first gesture, the virtual hand and the first interactive object placed in the interactive area are displayed, and the virtual hand performs the first gesture.
In the second image, a second gesture that corresponds to the user's hand and is different from the first gesture is identified, wherein the second gesture interacts with the first interactive object in the interactive region.
A step of displaying the virtual hand and the second interactive object in response to the identified result of the second gesture, and the virtual hand performing the second gesture.
Gesture-based operation methods in augmented reality (XR), including.
画像をキャプチャする画像キャプチャデバイスと、
ディスプレイと、
前記画像キャプチャデバイス及び前記ディスプレイに結合され、
前記画像キャプチャデバイスによってキャプチャされた第1画像において、ユーザの手に対応する第1ジェスチャを識別し、
第1ジェスチャの識別された結果に応答して、インタラクティブ領域に配置された仮想手及び第1インタラクティブオブジェクトを前記ディスプレイに表示し、前記仮想手が前記第1ジェスチャを行い、
前記画像キャプチャデバイスによってキャプチャされた第2画像において、ユーザの手に対応し且つ前記第1ジェスチャと異なる第2ジェスチャを識別し、前記第2ジェスチャは、前記インタラクティブ領域において前記第1インタラクティブオブジェクトと相互作用し、
前記第2ジェスチャの識別された結果に応答して前記仮想手と第2インタラクティブオブジェクトを前記ディスプレイに表示し、前記仮想手が前記第2ジェスチャを行う、
ように構成されたプロセッサと、
を備えるヘッドマウントディスプレイシステム。
An image capture device that captures images and
With the display
Combined with the image capture device and the display
In the first image captured by the image capture device, the first gesture corresponding to the user's hand is identified.
In response to the identified result of the first gesture, the virtual hand and the first interactive object placed in the interactive area are displayed on the display, and the virtual hand performs the first gesture.
In the second image captured by the image capture device, a second gesture that corresponds to the user's hand and is different from the first gesture is identified, and the second gesture interacts with the first interactive object in the interactive area. Acts and
The virtual hand and the second interactive object are displayed on the display in response to the identified result of the second gesture, and the virtual hand performs the second gesture.
With a processor configured to
Head-mounted display system with.
前記第1ジェスチャ又は前記第2ジェスチャを識別するステップは、
前記第1画像又は前記第2画像から前記ユーザの手の関節を識別することと、
ジェスチャ分類子によって前記第1画像又は前記第2画像及び前記ユーザの手の識別された関節に基づいて前記ユーザの手のジェスチャを予測し、前記ジェスチャ分類子は、機械学習アルゴリズムによって訓練されることと、
を含む請求項1に記載の操作方法、
又は、
前記プロセッサは、更に、
前記第1画像又は前記第2画像から前記ユーザの手の関節を識別し、
前記ジェスチャ分類子によって、前記第1画像又は前記第2画像と前記ユーザの手の識別された関節に基づいて前記ユーザの手のジェスチャを予測し、前記ジェスチャ分類子は、機械学習アルゴリズムによって訓練される、
ように構成される請求項2に記載のヘッドマウントディスプレイシステム。
The step of identifying the first gesture or the second gesture is
Identifying the joint of the user's hand from the first image or the second image,
The gesture classifier predicts the gesture of the user's hand based on the first image or the second image and the identified joints of the user's hand, and the gesture classifier is trained by a machine learning algorithm. When,
The operation method according to claim 1, comprising the above.
Or,
The processor further
The joint of the user's hand is identified from the first image or the second image, and the joint is identified.
The gesture classifier predicts the gesture of the user's hand based on the first image or the second image and the identified joints of the user's hand, and the gesture classifier is trained by a machine learning algorithm. ,
The head-mounted display system according to claim 2.
前記ユーザの手のジェスチャを予測するステップは、
前記ユーザの手の識別された関節なしで、単に前記第1画像又は前記第2画像に基づいて、ジェスチャを予測することと、
前記ユーザの手の識別された関節に基づいて予測されたジェスチャを確定することと、
を含む請求項3に記載の操作方法、
又は、
前記プロセッサは、更に、
前記ユーザの手の識別された関節なしで、単に前記第1画像又は前記第2画像に基づいて、ジェスチャを予測し、
前記ユーザの手の識別された関節に基づいて予測されたジェスチャを確定する、
ように構成される請求項3に記載のヘッドマウントディスプレイシステム。
The step of predicting the gesture of the user's hand is
Predicting gestures simply based on the first or second image, without the identified joints of the user's hand.
Establishing the predicted gesture based on the identified joints of the user's hand,
The operation method according to claim 3, which includes
Or,
The processor further
Predicting gestures simply based on the first or second image, without the identified joints of the user's hand.
Establishing a predicted gesture based on the identified joint of the user's hand,
The head-mounted display system according to claim 3.
前記第2ジェスチャの識別された結果に応答して前記第1インタラクティブオブジェクトを非表示にするステップを更に含む請求項1に記載の操作方法、
又は、
前記プロセッサは、更に、
前記第2ジェスチャの識別された結果に応答して前記第1インタラクティブオブジェクトを非表示にする、
ように構成される請求項2に記載のヘッドマウントディスプレイシステム。
The operation method according to claim 1, further comprising a step of hiding the first interactive object in response to the identified result of the second gesture.
Or,
The processor further
Hide the first interactive object in response to the identified result of the second gesture.
The head-mounted display system according to claim 2.
前記第2ジェスチャの識別された結果に応答して前記第1インタラクティブオブジェクト及び前記第2インタラクティブオブジェクトを非表示にするステップを更に含む請求項1に記載の操作方法、
又は、
前記プロセッサは、更に、
前記第2ジェスチャの識別された結果に応答して前記第1インタラクティブオブジェクト及び前記第2インタラクティブオブジェクトを非表示にする、
ように構成される請求項2に記載のヘッドマウントディスプレイシステム。
The operation method according to claim 1, further comprising a step of hiding the first interactive object and the second interactive object in response to the identified result of the second gesture.
Or,
The processor further
Hiding the first interactive object and the second interactive object in response to the identified result of the second gesture.
The head-mounted display system according to claim 2.
前記第1ジェスチャ又は前記第2ジェスチャを識別するステップは、
前記ユーザの右手と左手の一方を識別することを含み、前記第2インタラクティブオブジェクトを表示するステップは、
右手が識別されたことに応答して第1メニューを表示することと、
左手が識別されたことに応答して前記第1メニューとは異なる第2メニューを表示し、前記第2インタラクティブオブジェクトは、前記第1メニュー及び前記第2メニューを含む請求項1に記載の操作方法、
又は、
前記プロセッサは、更に、
前記ユーザの右手と左手の一方を識別し、
右手が識別されたことに応答して前記ディスプレイに第1メニューを表示し、
左手が識別されたことに応答して前記ディスプレイに前記第1メニューとは異なる前記第2メニューを表示し、前記第2インタラクティブオブジェクトは、前記第1メニュー及び前記第2メニューを含む、
ように構成される請求項2に記載のヘッドマウントディスプレイシステム。
The step of identifying the first gesture or the second gesture is
The step of displaying the second interactive object, which comprises identifying one of the user's right and left hands, is
Displaying the first menu in response to the identification of the right hand,
The operation method according to claim 1, wherein a second menu different from the first menu is displayed in response to the identification of the left hand, and the second interactive object includes the first menu and the second menu. ,
Or,
The processor further
Identify one of the user's right and left hands
In response to the identification of the right hand, the first menu is displayed on the display.
In response to the identification of the left hand, the display displays the second menu different from the first menu, and the second interactive object includes the first menu and the second menu.
The head-mounted display system according to claim 2.
前記第1メニューは、クイック設定メニューに対応し、前記第2メニューは、メインメニューに対応する、
請求項7に記載の操作方法、
又は、
請求項7に記載のヘッドマウントディスプレイシステム。
The first menu corresponds to the quick setting menu, and the second menu corresponds to the main menu.
The operation method according to claim 7.
Or,
The head-mounted display system according to claim 7.
前記第1ジェスチャは、掌を上に向けるジェスチャであり、前記第2ジェスチャは、拳ジェスチャである、
請求項1に記載の操作方法、
又は、
請求項2に記載のヘッドマウントディスプレイシステム。
The first gesture is a gesture with the palm facing up, and the second gesture is a fist gesture.
The operation method according to claim 1.
Or,
The head-mounted display system according to claim 2.
JP2020205628A 2020-12-11 2020-12-11 Operation method using gesture in extended reality and head-mounted display system Pending JP2022092745A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020205628A JP2022092745A (en) 2020-12-11 2020-12-11 Operation method using gesture in extended reality and head-mounted display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020205628A JP2022092745A (en) 2020-12-11 2020-12-11 Operation method using gesture in extended reality and head-mounted display system

Publications (1)

Publication Number Publication Date
JP2022092745A true JP2022092745A (en) 2022-06-23

Family

ID=82069498

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020205628A Pending JP2022092745A (en) 2020-12-11 2020-12-11 Operation method using gesture in extended reality and head-mounted display system

Country Status (1)

Country Link
JP (1) JP2022092745A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024101643A1 (en) * 2022-11-07 2024-05-16 삼성전자 주식회사 Augmented reality device which recognizes object using artificial intelligence model of external device, and operation method therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024101643A1 (en) * 2022-11-07 2024-05-16 삼성전자 주식회사 Augmented reality device which recognizes object using artificial intelligence model of external device, and operation method therefor

Similar Documents

Publication Publication Date Title
JP7137804B2 (en) Method and system for gesture-based interaction
CN106716302B (en) Method, apparatus, and computer-readable medium for displaying image
US11430192B2 (en) Placement and manipulation of objects in augmented reality environment
US20140240225A1 (en) Method for touchless control of a device
CN108273265A (en) The display methods and device of virtual objects
KR102021851B1 (en) Method for processing interaction between object and user of virtual reality environment
US20220263937A1 (en) Electronic device and method of operating electronic device in virtual reality
US12067158B2 (en) Object interaction method and system, and computer-readable medium
JPWO2017145423A1 (en) Information processing system, information processing apparatus, control method, and program
KR20160137253A (en) Augmented Reality Device, User Interaction Apparatus and Method for the Augmented Reality Device
CN112596609A (en) Display processing method, display processing device and wearable equipment
CN111913674B (en) Virtual content display method, device, system, terminal equipment and storage medium
JP2022092745A (en) Operation method using gesture in extended reality and head-mounted display system
US11500453B2 (en) Information processing apparatus
CN112702517B (en) Display control method and device and electronic equipment
WO2022169604A1 (en) Intention image analysis for determining user focus
US10222866B2 (en) Information processing method and electronic device
TW202221474A (en) Operating method by gestures in extended reality and head-mounted display system
CN111007942A (en) Wearable device and input method thereof
KR20240141285A (en) Image processing method and apparatus, device, storage medium and program product
EP4009143A1 (en) Operating method by gestures in extended reality and head-mounted display system
Yang et al. Around-device finger input on commodity smartwatches with learning guidance through discoverability
JP5456817B2 (en) Display control apparatus, display control method, information display system, and program
US11054941B2 (en) Information processing system, information processing method, and program for correcting operation direction and operation amount
Vidal Jr et al. Extending Smartphone-Based Hand Gesture Recognition for Augmented Reality Applications with Two-Finger-Pinch and Thumb-Orientation Gestures