JP2024032409A - Information processing equipment and HMD - Google Patents

Information processing equipment and HMD Download PDF

Info

Publication number
JP2024032409A
JP2024032409A JP2022136047A JP2022136047A JP2024032409A JP 2024032409 A JP2024032409 A JP 2024032409A JP 2022136047 A JP2022136047 A JP 2022136047A JP 2022136047 A JP2022136047 A JP 2022136047A JP 2024032409 A JP2024032409 A JP 2024032409A
Authority
JP
Japan
Prior art keywords
hand
hmd
user
detected
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022136047A
Other languages
Japanese (ja)
Inventor
さやか 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022136047A priority Critical patent/JP2024032409A/en
Publication of JP2024032409A publication Critical patent/JP2024032409A/en
Pending legal-status Critical Current

Links

Images

Abstract

【課題】HMDの視野内に含まれる手の中から使用者本人の手を簡易な処理で且つ高精度に認識することを可能とする技術を提供する。【解決手段】HMDで撮影される画像の中から前記HMDを装着する使用者の手を認識する情報処理装置が、前記HMDで撮影される撮影画像から手を検出する検出手段と、前記使用者が手に装着するデバイスに搭載されているセンサから、前記デバイスの位置に関するセンシングデータを取得する取得手段と、前記撮影画像から検出された手について前記撮影画像から認識される当該手の動きと前記センシングデータから認識される前記デバイスの動きとを比較する比較処理を行い、前記手の動きと前記デバイスの動きとが一致する場合に、前記撮影画像から検出された手が前記使用者の手であると判定する処理演算手段と、を有する。【選択図】図1The present invention provides a technology that enables highly accurate recognition of a user's own hand from among the hands included within the field of view of an HMD through simple processing. [Solution] An information processing device that recognizes the hand of a user wearing the HMD from an image photographed by the HMD; acquisition means for acquiring sensing data regarding the position of the device from a sensor mounted on the device worn on the hand; and a movement of the hand detected from the photographed image and the movement of the hand detected from the photographed image. A comparison process is performed to compare the movement of the device recognized from the sensing data, and if the movement of the hand and the movement of the device match, the hand detected from the captured image is determined to be the user's hand. and processing calculation means for determining that there is. [Selection diagram] Figure 1

Description

本発明は、HMDの視野内に含まれる使用者の手を認識するための技術に関する。 The present invention relates to a technique for recognizing a user's hand included within the field of view of an HMD.

現実空間と仮想空間を融合し、体験者が仮想の物体とのインタラクションを行えるようにする複合現実感(Mixed Reality:MR)の技術がある。MR技術では、現実の風景に対して仮想物体を表すコンピュータグラフィックス(CG)を合成して提示したり、現実物体と仮想物体との接触を表現したりすることで、インタラクションを実現する。 There is a mixed reality (MR) technology that fuses real space and virtual space and allows users to interact with virtual objects. MR technology realizes interaction by combining and presenting computer graphics (CG) representing virtual objects with real scenery, and by expressing contact between real objects and virtual objects.

MR技術では自身の手でジェスチャー操作を行い、現実の風景に対する仮想物体を動作させることが想定される。ジェスチャー操作では、CG物体の移動、操作などを、コントローラがなくても行うことができる。しかし、同一空間に体験者以外の人物が複数人いた場合、自身の手と他人の手の区別ができずに、他人の手のジェスチャー操作で自身のHMD(Head Mount Display)が意図せずに操作されてしまう可能性がある。 In MR technology, it is assumed that users perform gesture operations with their own hands to move virtual objects in relation to real scenery. Gesture operations allow CG objects to be moved and manipulated without a controller. However, if there are multiple people other than the person experiencing the experience in the same space, they may not be able to distinguish between their own hands and those of others, and their own HMD (Head Mount Display) may be unintentionally damaged by the gestures of the other person's hands. There is a possibility that it may be manipulated.

三次元空間における物体認識に関する技術が、特許文献1、2に開示されている。特許文献1には、画像やモーションセンサを用いて人の動作を認識し、その動作の特徴に基づいて、対象者を特定する方法が開示されている。特許文献2には、ステレオカメラにより手等の現実物体の奥行位置を計測することにより、現実物体と仮想物体の前後関係を正しく表現する方法が開示されている。 Technologies related to object recognition in three-dimensional space are disclosed in Patent Documents 1 and 2. Patent Document 1 discloses a method of recognizing a person's motion using an image or a motion sensor and identifying a target person based on the characteristics of the motion. Patent Document 2 discloses a method of accurately expressing the front-back relationship between a real object and a virtual object by measuring the depth position of a real object such as a hand using a stereo camera.

特開2015-61577号公報Japanese Patent Application Publication No. 2015-61577 特開2012-13514号公報Japanese Patent Application Publication No. 2012-13514

特許文献1に開示された従来技術は、特定したい対象者の動作を予め学習しておき、学習した特徴と、決められた領域内で動作する人物から抽出した特徴を判定することで、現在動作している人物が特定したい対象者であるかどうかの判別を行う。しかしながら、このような学習ベースの方法は、対象者の動作を登録するなどの事前準備が必要であり煩雑である。また、動作未登録の者はシステムを利用できないという不便もある。 The conventional technology disclosed in Patent Document 1 learns the movements of a target person to be identified in advance, and determines the current movement by determining the learned features and the features extracted from the person moving within a predetermined area. Determine whether the person doing so is the person you want to identify. However, such learning-based methods require advance preparation such as registering the target person's movements and are complicated. There is also the inconvenience that those who have not registered their operation cannot use the system.

本発明は上記実情に鑑みなされたものであり、その目的は、HMDの視野内に含まれる手の中から使用者本人の手を簡易な処理で且つ高精度に認識することを可能とする技術を提供することにある。 The present invention was made in view of the above-mentioned circumstances, and its purpose is to provide a technology that enables highly accurate recognition of the user's own hand from among the hands included in the field of view of an HMD through simple processing. Our goal is to provide the following.

本開示は、HMD(Head Mount Display)で撮影される画像の中から前記HMDを装着する使用者の手を認識する情報処理装置であって、前記HMDで撮影される撮影画像から手を検出する検出手段と、前記使用者が手に装着するデバイスに搭載されているセンサから、前記デバイスの位置に関するセンシングデータを取得する取得手段と、前記撮影画像から検出された手について前記撮影画像から認識される当該手の動きと前記センシングデータから認識される前記デバイスの動きとを比較する比較処理を行い
、前記手の動きと前記デバイスの動きとが一致する場合に、前記撮影画像から検出された手が前記使用者の手であると判定する処理演算手段と、を有する情報処理装置を含む。
The present disclosure is an information processing device that recognizes the hand of a user wearing an HMD from an image taken by an HMD (Head Mount Display), and detects the hand from the photographed image taken by the HMD. a detection means; an acquisition means for acquiring sensing data regarding the position of the device from a sensor mounted on the device worn on the hand of the user; A comparison process is performed to compare the movement of the hand detected from the sensing data with the movement of the device recognized from the sensing data, and if the movement of the hand and the movement of the device match, the hand detected from the captured image is and processing calculation means for determining that the hand is the user's hand.

本発明によればHMDの視野内に含まれる手の中から使用者本人の手を簡易な処理で且つ高精度に認識することができる。 According to the present invention, it is possible to recognize the user's own hand from among the hands included in the field of view of the HMD with simple processing and with high precision.

複合現実感システムの構成を示すブロック図Block diagram showing the configuration of the mixed reality system HMDのハードウェア構成を示すブロック図Block diagram showing the hardware configuration of the HMD 小型操作デバイスの構成を示すブロック図Block diagram showing the configuration of a small operating device 複合現実感システムの使用態様を示す図Diagram showing how the mixed reality system is used 第1の実施形態における操作対象認識処理のフローチャートFlowchart of operation target recognition processing in the first embodiment 小型操作デバイスの移動例を示す図Diagram showing an example of movement of a small operating device 小型操作デバイスとHMDで検出した手の位置の例を示す図Diagram showing an example of hand positions detected by a small operating device and HMD HMDの画像における手の移動例を示す図Diagram showing an example of hand movement in an HMD image 第2の実施形態における操作対象認識処理のフローチャートFlowchart of operation target recognition processing in the second embodiment 第3の実施形態における操作対象認識処理のフローチャートFlowchart of operation target recognition processing in the third embodiment 第4の実施形態における操作対象認識処理のフローチャートFlowchart of operation target recognition processing in the fourth embodiment 第5の実施形態における操作対象認識処理のフローチャートFlowchart of operation target recognition processing in the fifth embodiment 第6の実施形態における操作対象認識処理のフローチャートFlowchart of operation target recognition processing in the sixth embodiment 第7の実施形態における操作対象認識処理のフローチャートFlowchart of operation target recognition processing in the seventh embodiment

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。なお、以下に説明する実施の形態は、本発明の実現手段の一例であり、本発明が適用される装置の構成や各種条件によって適宜修正または変更されてもよい。また、各実施の形態を適宜組み合わせることも可能である。 Hereinafter, preferred embodiments of the present invention will be described in detail based on the accompanying drawings. Note that the embodiment described below is an example of means for implementing the present invention, and may be modified or changed as appropriate depending on the configuration of the device to which the present invention is applied and various conditions. It is also possible to combine the embodiments as appropriate.

(第1の実施形態)
図1~図4を参照して、第1の実施形態に係る複合現実感システムの構成を説明する。図1は、第1の実施形態に係る複合現実感システムの全体的な構成を示すブロック図である。図2は、HMDのハードウェア構成を示すブロック図である。図3は、小型操作デバイスの構成を示すブロック図である。図4は、複合現実感システムの使用態様を示す図である。
(First embodiment)
The configuration of the mixed reality system according to the first embodiment will be described with reference to FIGS. 1 to 4. FIG. 1 is a block diagram showing the overall configuration of a mixed reality system according to a first embodiment. FIG. 2 is a block diagram showing the hardware configuration of the HMD. FIG. 3 is a block diagram showing the configuration of the small operating device. FIG. 4 is a diagram showing how the mixed reality system is used.

複合現実感システム1は、HMD(Head Mount Display)100と小型操作デバイス300とから構成される。HMD100は、使用者(ユーザ)の頭部に装着されるデバイスであり、ゴーグル装置100Aと情報処理装置103から構成される。また、小型操作デバイス300は、使用者の手に装着されるデバイスである。図4は、HMD100と小型操作デバイス300を使用者が装着した様子の一例を模式的に示している。 The mixed reality system 1 includes an HMD (Head Mount Display) 100 and a small operating device 300. The HMD 100 is a device worn on the head of a user, and includes a goggle device 100A and an information processing device 103. Furthermore, the small operating device 300 is a device worn on the user's hand. FIG. 4 schematically shows an example of how a user wears the HMD 100 and the small operating device 300.

CPU200は本システムを動作させるためのプログラムを実行することでシステム全体の制御を司るプロセッサである。図1に示す処理部104~109は、CPU200がROM202から読み込んだプログラムを実行することによりソフトウェア的に実現されるものである。ただし、それらの処理部の幾つかは、CPU200とは独立したハードウェア(例えばASICやFPGAなど)でもって実現しても構わない。CPU200の演算処理を補助するためのプロセッサ(GPU、DSPなど)を設けてもよい。 The CPU 200 is a processor that controls the entire system by executing programs for operating the system. The processing units 104 to 109 shown in FIG. 1 are realized in software by the CPU 200 executing a program read from the ROM 202. However, some of these processing units may be implemented using hardware (eg, ASIC or FPGA) independent of the CPU 200. A processor (GPU, DSP, etc.) may be provided to assist the arithmetic processing of the CPU 200.

HMD100のゴーグル装置100Aは、画像撮影部101と画像表示部102を有する頭部装着用の表示装置である。図4の模式図に示しているように、本実施形態のHMD100は、使用者の視点位置に画像撮影部101が配置されており、画像撮影部101で撮影した実写映像を画像表示部102に表示するビデオシースルー方式としている。ビデオシースルー方式のHMD100の場合は、画像撮影部101を使用者の視点位置姿勢として扱う方法が一般的である。なお、本実施形態のHMD100はビデオシースルー方式としているが、これはあくまで例示であると理解されたい。例えば、実写映像を画像表示部102に表示しないバーチャルリアリティ用のHMDにも適用可能である。その場合は、画像撮影部101はシースルー用のカメラとしてではなく、計測対象物である手を撮影するためのカメラとして利用すればよい。 The goggle device 100A of the HMD 100 is a head-mounted display device that includes an image capturing section 101 and an image display section 102. As shown in the schematic diagram of FIG. 4, in the HMD 100 of this embodiment, an image capturing unit 101 is arranged at the user's viewpoint position, and a live-action video captured by the image capturing unit 101 is displayed on the image display unit 102. The video is displayed in a see-through format. In the case of a video see-through type HMD 100, a method is generally used in which the image capturing unit 101 is treated as the user's viewpoint position and orientation. Note that although the HMD 100 of this embodiment is of a video see-through type, it should be understood that this is merely an example. For example, it is also applicable to a virtual reality HMD that does not display live-action video on the image display unit 102. In that case, the image photographing unit 101 may be used not as a see-through camera but as a camera for photographing the hand, which is the object to be measured.

HMD100の情報処理装置103は、画像撮影部101で撮影した画像を使用して画像表示部102に表示するためのデータを作成する。情報処理装置103は、図2に示すプロセッサ(CPU200)及びメモリ(RAM201、ROM202)を備える小型のコンピュータである。情報処理装置103は、ゴーグル装置100Aと同じ筐体に内蔵されていてもよいし、ゴーグル装置100Aとは独立した筐体で構成されていてもよい。情報処理装置103とゴーグル装置100Aが独立した筐体で構成されている場合、情報処理装置103とゴーグル装置100Aの間は有線又は無線により互いに通信可能に接続される。 The information processing device 103 of the HMD 100 uses the image photographed by the image photographing section 101 to create data to be displayed on the image display section 102. The information processing device 103 is a small computer including a processor (CPU 200) and memory (RAM 201, ROM 202) shown in FIG. The information processing device 103 may be built in the same housing as the goggle device 100A, or may be configured in a housing independent from the goggle device 100A. When the information processing device 103 and the goggle device 100A are configured in independent housings, the information processing device 103 and the goggle device 100A are connected to each other by wire or wirelessly so that they can communicate with each other.

画像撮影部101は、ゴーグル装置100Aの筐体に固定されており、現実空間を所定のフレームレート(例えば30フレーム/秒)で撮像する。画像撮影部101により撮影された画像は、撮影画像記憶部104で記憶される。撮影画像記憶部104は画像撮影部101から取得した画像をRAM201に格納する。この画像撮影部101は、2台の実カメラで構成され、左目用の実カメラと右目用の実カメラがHMD装着者の両眼に近い位置に配置される。以降、画像撮影部101による撮像で得た左右一対の画像を、ステレオカメラ画像と称する。 The image capturing unit 101 is fixed to the casing of the goggle device 100A, and captures an image of real space at a predetermined frame rate (for example, 30 frames/second). The image photographed by the image photographing section 101 is stored in the photographed image storage section 104. The photographed image storage section 104 stores the image acquired from the image photographing section 101 in the RAM 201. This image capturing unit 101 is composed of two real cameras, and a real camera for the left eye and a real camera for the right eye are arranged at positions close to both eyes of the HMD wearer. Hereinafter, the pair of left and right images obtained by the image capturing unit 101 will be referred to as a stereo camera image.

画像表示部102は、ゴーグル装置100Aの筐体に固定されており、情報処理装置103で生成された画像を表示する。この画像は、例えば、画像撮影部101によって撮影された実写映像に3DCGによるデジタルコンテンツ(仮想物体)が合成された、MR用の画像である。画像表示部102は、ゴーグル装置100Aを装着した使用者の視界を覆うような構造を有しており、画像を観る使用者に没入感の高いMR体験を与えることができる。この画像表示部102は、例えば、有機ELディスプレイ、液晶ディスプレイなどで構成される。 The image display unit 102 is fixed to the casing of the goggle device 100A, and displays images generated by the information processing device 103. This image is, for example, an MR image in which 3DCG digital content (virtual object) is synthesized with a live-action video shot by the image shooting unit 101. The image display section 102 has a structure that covers the field of view of the user wearing the goggle device 100A, and can provide a highly immersive MR experience to the user viewing the images. This image display section 102 is configured with, for example, an organic EL display, a liquid crystal display, or the like.

手検出部105は撮影画像記憶部104により記憶された撮影画像のそれぞれから画像認識により手を検出し、手指の輪郭点を抽出する。三次元位置算出部106は手検出部105により抽出された輪郭点の三次元位置を算出する。輪郭点のx、y座標はHMD100の画像撮影部101で撮影された画像のVRAM領域の左下を(0,0)として取得される。奥行方向のz座標は、ステレオカメラ画像から取得される。この座標系をカメラ座標系又はローカル座標系と呼ぶ。カメラ座標系の原点はVRAM領域の左下でなくてもよく、自由に決めてよい。本実施形態において、手検出部105(あるいは、手検出部105および三次元位置算出部106)が、HMD100で撮影される撮影画像から手を検出する検出手段を構成する。 A hand detection unit 105 detects a hand from each of the captured images stored in the captured image storage unit 104 by image recognition, and extracts contour points of the hand and fingers. The three-dimensional position calculation unit 106 calculates the three-dimensional position of the contour point extracted by the hand detection unit 105. The x, y coordinates of the contour point are acquired with the lower left of the VRAM area of the image photographed by the image photographing unit 101 of the HMD 100 as (0, 0). The z-coordinate in the depth direction is obtained from the stereo camera image. This coordinate system is called a camera coordinate system or a local coordinate system. The origin of the camera coordinate system does not have to be at the lower left of the VRAM area, and may be determined freely. In this embodiment, the hand detection unit 105 (or the hand detection unit 105 and the three-dimensional position calculation unit 106) constitutes a detection unit that detects a hand from a captured image captured by the HMD 100.

画像から手を検出するアルゴリズムとしては、サポートベクターマシンに代表される古典的な機械学習を用いてもよいし、R-CNN、YOLO、SSD、DCNなどの深層学習をベースにしたアルゴリズムを用いてもよい。また、ルールベースの検出アルゴリズムを用いてもよい。 As an algorithm for detecting hands from images, classical machine learning represented by support vector machine may be used, or deep learning-based algorithms such as R-CNN, YOLO, SSD, and DCN may be used. Good too. Also, a rule-based detection algorithm may be used.

検出した手の奥行きを正しく表示するために、ステレオカメラで撮影した手の映像から手の領域を抽出して、ステレオカメラに対する手の奥行値を算出する方法がある。この手法では、抽出した手の輪郭線のステレオ画像の対応点の全てに対して三角測量で奥行値を求める方法を用いている(特許文献2)。特許文献2では、複合現実感を提示するための表示デバイスであるビデオシースルー型のHMDに搭載されているステレオカメラを利用している。 In order to correctly display the depth of the detected hand, there is a method of extracting the hand region from an image of the hand taken with a stereo camera and calculating the depth value of the hand with respect to the stereo camera. This method uses a method of determining depth values by triangulation for all corresponding points in a stereo image of the extracted hand outline (Patent Document 2). In Patent Document 2, a stereo camera installed in a video see-through type HMD, which is a display device for presenting mixed reality, is used.

LeapMotion社のLeapMotionは、手の指も含めた位置姿勢を計測することができる。LeapMotionでは、ステレオカメラ(画像撮影部101)から手の領域を検出することができる。別途デプスセンサを用いることによって手の指の位置姿勢を推定することもできるため、HMD100にデプスセンサを設置してもよい。 LeapMotion, manufactured by LeapMotion, can measure the position and orientation of the fingers of the hand as well. In LeapMotion, the hand area can be detected using a stereo camera (image capturing unit 101). Since the position and orientation of the fingers of the hand can be estimated by using a separate depth sensor, the depth sensor may be installed in the HMD 100.

本実施形態では手検出部105で抽出した輪郭点から任意の1点(基準点又は代表点と呼ぶ)を決め、その基準点に対する三次元位置を算出する。ここで決めた基準点は本処理を行う間の基準の位置として記憶し、手指の移動に合わせて定期的に基準の三次元位置情報をRAM201に記憶しておく。 In this embodiment, an arbitrary point (referred to as a reference point or representative point) is determined from the contour points extracted by the hand detection unit 105, and a three-dimensional position with respect to the reference point is calculated. The reference point determined here is stored as a reference position during this process, and reference three-dimensional position information is periodically stored in the RAM 201 in accordance with the movement of the fingers.

相対位置姿勢算出部107は撮影画像記憶部104により記憶された撮影画像のそれぞれの位置姿勢を算出する。位置姿勢の算出はディープラーニングを用いて作成する方法や、既存の公開されたライブラリを使用する方法がある。撮影画像の位置姿勢は、現実空間におけるHMD100の位置及び向き、すなわち、HMD100を装着した使用者の視点の位置及び視線方向に対応する。撮影画像の位置姿勢は、グローバル座標系で表される。 The relative position/orientation calculation unit 107 calculates the position/orientation of each of the captured images stored by the captured image storage unit 104 . There are two ways to calculate the position and orientation: one is to create it using deep learning, and the other is to use an existing public library. The position and orientation of the photographed image corresponds to the position and orientation of the HMD 100 in real space, that is, the viewpoint position and line-of-sight direction of the user wearing the HMD 100. The position and orientation of the captured image are expressed in a global coordinate system.

処理演算部109は、撮影画像から算出された三次元位置情報に基づき認識される手の動きと、後述の小型操作デバイス300に搭載されるセンサ303から取得されるセンシングデータに基づき認識される小型操作デバイス300の動きとの比較演算を行う。具体的には、処理演算部109はHMD100で検出した手と小型操作デバイス300それぞれの座標の相対移動量が一致するかどうかを評価する。一致した場合は、処理演算部109はHMD100で検出した手と小型操作デバイス300が装着されているのは同一の手、すなわちHMD100の使用者の手と判定する。一般的にセンサで取得した座標は誤差が発生するため、例えば5パーセントの誤差率までは同一と判定するなど、一定の誤差率は認めることとする。誤差率は自由に決定してよい。 The processing calculation unit 109 performs hand movements recognized based on three-dimensional position information calculated from the photographed image and a small hand movement recognized based on sensing data acquired from a sensor 303 installed in a small operating device 300 (described later). A comparison calculation with the movement of the operating device 300 is performed. Specifically, the processing calculation unit 109 evaluates whether the relative movement amounts of the coordinates of the hand detected by the HMD 100 and the small operating device 300 match. If they match, the processing calculation unit 109 determines that the hand detected by the HMD 100 and the hand on which the small operating device 300 is attached are the same hand, that is, the hand of the user of the HMD 100. Generally, coordinates obtained by a sensor have an error, so a certain error rate will be accepted, for example, the coordinates will be determined to be the same up to an error rate of 5%. The error rate may be determined freely.

小型操作デバイス300からセンサのローデータ(未加工データ)が情報処理装置103に送られる場合は、処理演算部109が、三次元位置算出部106で算出した値と比較できるように、ローデータを座標値に変換すればよい。あるいは、小型操作デバイス300側でローデータを座標値に変換した後、その座標値を情報処理装置103に送信するようにしてもよい。 When sensor raw data (unprocessed data) is sent from the small operation device 300 to the information processing device 103, the processing calculation unit 109 sends the raw data so that it can be compared with the value calculated by the three-dimensional position calculation unit 106. All you have to do is convert it to coordinate values. Alternatively, after converting the raw data into coordinate values on the small operation device 300 side, the coordinate values may be transmitted to the information processing apparatus 103.

画像描画部108は、処理演算部109の処理結果をもとにHMD100の画像表示部102に表示するための画像を描画(生成)する。 The image drawing unit 108 draws (generates) an image to be displayed on the image display unit 102 of the HMD 100 based on the processing result of the processing calculation unit 109.

近接無線通信部110は、例えば無線通信のためのアンテナと無線信号を処理するための変復調回路や通信コントローラから構成される。近接無線通信部110は、変調した無線信号をアンテナから出力し、またアンテナで受信した無線信号を復調することによりIEEE802.15の規格(いわゆるBluetooth(登録商標))に従った近距離無線通信を実現する。本実施形態においてBluetooth(登録商標)通信は低消費電力であるBluetooth(登録商標) Low Energyのバージョン5.1を採用する。HMD100は近接無線通信部110を介して、小型操作デバイス300な
どの外部装置とのデータのやりとりを行うことができる。
The close proximity wireless communication unit 110 includes, for example, an antenna for wireless communication, a modulation/demodulation circuit for processing wireless signals, and a communication controller. The close-range wireless communication unit 110 outputs a modulated wireless signal from an antenna and demodulates the wireless signal received by the antenna, thereby performing short-range wireless communication in accordance with the IEEE802.15 standard (so-called Bluetooth (registered trademark)). Realize. In this embodiment, Bluetooth (registered trademark) communication employs version 5.1 of Bluetooth (registered trademark) Low Energy, which has low power consumption. The HMD 100 can exchange data with an external device such as the small operating device 300 via the close proximity wireless communication unit 110.

RAM201は、データやプログラムを一時的に記憶するためのワーキングエリアとして利用される揮発性メモリである。ROM202は、CPU200により実行されるプログラム、HMD100の設定情報、次回以降に必要な設定情報などのデータを非一時的に記憶する不揮発性メモリである。 The RAM 201 is a volatile memory used as a working area for temporarily storing data and programs. The ROM 202 is a non-volatile memory that non-temporarily stores data such as programs executed by the CPU 200, setting information for the HMD 100, and setting information required from next time onwards.

図3に示すように、小型操作デバイス300は、制御部301、操作部302、センサ303、作業用メモリ304、電源制御部305、通信部306を有する。小型操作デバイス300は、図4に示すように、使用者の手又は指に装着できる形状のウェアラブルデバイスであり、本実施形態では指輪型のデバイスを用いる。ただし、小型操作デバイス300の形態は手指装着タイプに限られず、使用者自身の手の位置や姿勢を検知可能であればどのような形態のデバイスでもよい。例えば、腕時計タイプのデバイス、手で把持するタイプのデバイス、手指に貼り付けるタイプのデバイスなどを用いてもよい。 As shown in FIG. 3, the small operation device 300 includes a control section 301, an operation section 302, a sensor 303, a working memory 304, a power supply control section 305, and a communication section 306. As shown in FIG. 4, the small operating device 300 is a wearable device that can be worn on the user's hand or finger, and in this embodiment, a ring-shaped device is used. However, the form of the small operating device 300 is not limited to a hand-worn type, and any form of device may be used as long as it is capable of detecting the position and posture of the user's own hand. For example, a wristwatch-type device, a hand-held device, a finger-sticking device, or the like may be used.

制御部301は入力された信号や、後述のプログラムに従って小型操作デバイス300を制御する。なお、制御部301が装置全体を制御する代わりに、複数のハードウェアが処理を分担することで、装置全体を制御してもよい。 The control unit 301 controls the small operating device 300 according to input signals and a program described below. Note that instead of the control unit 301 controlling the entire device, the entire device may be controlled by having multiple pieces of hardware share the processing.

作業用メモリ304はセンサ303で取得したデータを一時的に保存するバッファメモリや、制御部301の作業領域等として使用される。 The work memory 304 is used as a buffer memory for temporarily storing data acquired by the sensor 303, a work area for the control unit 301, and the like.

センサ303は、小型操作デバイス300を装着した使用者の手の三次元的な位置、動き、姿勢(向き)などを計測するためのセンサであり、位置センサ、動きセンサ、姿勢センサなどとも呼ばれる。センサ303としては、例えばIMU(Inertial Measurement Unit)センサを用いることができる。IMUセンサはジャイロが検出した角速度と加速度計が検出した加速度をもとに、姿勢変化、相対方向、位置を算出できる。 The sensor 303 is a sensor for measuring the three-dimensional position, movement, posture (orientation), etc. of the hand of the user wearing the small operating device 300, and is also called a position sensor, movement sensor, posture sensor, etc. As the sensor 303, for example, an IMU (internal measurement unit) sensor can be used. The IMU sensor can calculate posture changes, relative directions, and positions based on the angular velocity detected by the gyro and the acceleration detected by the accelerometer.

操作部302は小型操作デバイス300に対する指示を使用者から受け付けるために用いられる。操作部302は、例えば、小型操作デバイス300の制御部301への電力供給を含む主電源ON/OFFを指示するための電源ボタンや、機能モードを切り替えるためのモード切り替えボタンなどを含む。さらに、操作部302は、通信部306を介してHMD100などの外部機器との通信を開始するためのボタンを含む。 The operation unit 302 is used to receive instructions for the small operation device 300 from the user. The operation unit 302 includes, for example, a power button for instructing ON/OFF of the main power supply including power supply to the control unit 301 of the small operation device 300, a mode switching button for switching the function mode, and the like. Further, the operation unit 302 includes a button for starting communication with an external device such as the HMD 100 via the communication unit 306.

電源制御部305は小型操作デバイス300が動作するための電力を供給するためのユニットである。 The power supply control section 305 is a unit for supplying power for the operation of the small operating device 300.

通信部306は、HMD100の近接無線通信部110と同様に例えば無線通信のためのアンテナと無線信号を処理するための変復調回路や通信コントローラから構成される。通信部306は、IEEE802.15の規格(いわゆるBluetooth(登録商標))に従った近距離無線通信を実現する。小型操作デバイス300は、通信部306を介して、HMD100などの外部装置とのデータのやりとりを行うことができる。 The communication unit 306, like the close proximity wireless communication unit 110 of the HMD 100, includes, for example, an antenna for wireless communication, a modulation/demodulation circuit for processing wireless signals, and a communication controller. The communication unit 306 realizes short-range wireless communication according to the IEEE802.15 standard (so-called Bluetooth (registered trademark)). The small operation device 300 can exchange data with an external device such as the HMD 100 via the communication unit 306.

図1に示すように、HMD100の近接無線通信部110と小型操作デバイス300とはBluetooth(登録商標)通信により接続される。例えば、センサ303で取得した各種のセンシングデータを、小型操作デバイス300の通信部306を介してHMD100の近接無線通信部110に送信することができる。本実施形態において、近接無線通信部110が、小型操作デバイス300に搭載されているセンサ303から、小型操作デバイス300の位置や姿勢に関するセンシングデータを取得する取得手段を構成する。
なお、HMD100と小型操作デバイス300の間のデータ通信はBluetooth(登録商標)通信に限らずほかの通信方式であってもよい。
As shown in FIG. 1, the close proximity wireless communication unit 110 of the HMD 100 and the small operation device 300 are connected by Bluetooth (registered trademark) communication. For example, various sensing data acquired by the sensor 303 can be transmitted to the close proximity wireless communication unit 110 of the HMD 100 via the communication unit 306 of the small operation device 300. In this embodiment, the close proximity wireless communication unit 110 constitutes an acquisition unit that acquires sensing data regarding the position and orientation of the small operating device 300 from the sensor 303 mounted on the small operating device 300.
Note that data communication between the HMD 100 and the small operating device 300 is not limited to Bluetooth (registered trademark) communication, and may be other communication methods.

図5は第1の実施形態に係るHMD100において実行される操作対象認識処理のフローチャートである。操作対象認識処理は、HMD100で撮影される画像(つまりHMD100の視野)に含まれる1つ以上の手(対象物)の中からHMD100を装着している使用者の手(すなわちジェスチャー操作を行う者の手(操作対象))を認識する処理である。複合現実感システム1の稼働中は、小型操作デバイス300のセンサ303により取得されるセンシングデータ(IMU情報)が定期的にHMD100に送信され、HMD100において図5の操作対象認識処理が所定のサイクルで繰り返し実行される。 FIG. 5 is a flowchart of operation target recognition processing executed in the HMD 100 according to the first embodiment. The operation target recognition process identifies the hand of the user wearing the HMD 100 (i.e., the person performing the gesture operation) from one or more hands (objects) included in the image taken by the HMD 100 (i.e., the field of view of the HMD 100). This is a process that recognizes the user's hand (operation target). While the mixed reality system 1 is in operation, sensing data (IMU information) acquired by the sensor 303 of the small operation device 300 is periodically transmitted to the HMD 100, and the operation object recognition process shown in FIG. 5 is performed in the HMD 100 in a predetermined cycle. executed repeatedly.

ステップS500では、HMD100のCPU200(処理演算部109)が、小型操作デバイス300から取得したセンシングデータに基づいて、小型操作デバイス300の位置に変化があったか否かを判定する。位置の変化の有無は、例えば、複数回分のセンシングデータ(つまり、位置の時系列データ)を比較することにより判定することができる。なお、センサ303により計測される位置座標には一定の誤差があるため、位置の変化がわずかである場合には、「位置の変化なし」とみなしてもよい。ステップS500において小型操作デバイス300の位置の変化が検知された場合、CPU200は、HMD100の使用者が小型操作デバイス300を装着した手を使ってジェスチャー操作をしているとみなし、ステップS501の処理に進む。他方、小型操作デバイス300の位置の変化が検知されなかった場合は、CPU200は、ジェスチャー操作は行われていないとみなし、以後の処理(HMD100の画像による使用者の手の認識、ジェスチャー認識など)をスキップする。このように、小型操作デバイス300で使用者の手の動きが検知されていない場合に後段の処理を実行しないようにしたことにより、無駄な演算処理を減らし電力消費を抑えることができるとともに、他人の手を誤って認識するおそれを可及的に排除できる。 In step S500, the CPU 200 (processing calculation unit 109) of the HMD 100 determines whether the position of the small operating device 300 has changed based on the sensing data acquired from the small operating device 300. The presence or absence of a change in position can be determined, for example, by comparing multiple sensing data (that is, time-series position data). Note that since there is a certain error in the position coordinates measured by the sensor 303, if the change in position is slight, it may be regarded as "no change in position". If a change in the position of the small operating device 300 is detected in step S500, the CPU 200 assumes that the user of the HMD 100 is performing a gesture operation using the hand on which the small operating device 300 is attached, and proceeds to the process of step S501. move on. On the other hand, if no change in the position of the small operation device 300 is detected, the CPU 200 assumes that no gesture operation is being performed, and performs subsequent processing (recognition of the user's hand based on the image of the HMD 100, gesture recognition, etc.) Skip. In this way, by not executing the subsequent processing when the user's hand movement is not detected by the small operation device 300, it is possible to reduce wasteful calculation processing, reduce power consumption, and prevent other people from using the device. The possibility of erroneously recognizing the hand of the user can be eliminated as much as possible.

ステップS501では、HMD100のCPU200(手検出部105)が、画像撮影部101で撮影された画像を撮影画像記憶部104から取得し、その撮影画像から手を検出する。撮影画像の中に複数の手が含まれている場合には、それらすべての手が、使用者本人の手か否かの判定対象に設定される。続いて、CPU200(三次元位置算出部106)が、各々の判定対象の手の輪郭点の三次元位置座標を計算する。なお、ここで用いられる撮影画像は、ステップS500で参照したセンシングデータと同じ時刻(厳密に同じ時刻のものがなければ最も近い時刻)に撮影された画像である。 In step S501, the CPU 200 (hand detection section 105) of the HMD 100 acquires an image photographed by the image photographing section 101 from the photographed image storage section 104, and detects a hand from the photographed image. If a plurality of hands are included in the photographed image, all of the hands are set to be determined as whether or not they are the user's own hands. Subsequently, the CPU 200 (three-dimensional position calculation unit 106) calculates the three-dimensional position coordinates of the contour points of each hand to be determined. Note that the photographed image used here is an image photographed at the same time as the sensing data referenced in step S500 (if there is no data at exactly the same time, then the closest time).

判定対象の手が1つ以上検出された場合には、ステップS502において判定対象の手が順に選択され、選択された判定対象に対しステップS503の処理が実行される。画像の中に写っているいずれの手が使用者本人の手であるか不明であるため、1つずつ判定を行うのである。判定対象の手が1つも検出されなかった場合、又は、すべての判定対象についてステップS503の処理が行われた場合には、ステップS502でNO判定となり、処理が終了する。 If one or more judgment target hands are detected, the judgment target hands are sequentially selected in step S502, and the process of step S503 is executed for the selected judgment targets. Since it is unclear which hand in the image is the user's own hand, the determination is made one by one. If no hand to be determined is detected, or if the process of step S503 is performed for all the determination targets, a NO determination is made in step S502, and the process ends.

ステップS503において、HMD100のCPU200(処理演算部109)が、判定対象の手の輪郭点の中から基準となる1つの輪郭点(基準点)を選択する。次に、処理演算部109が、相対位置姿勢算出部107で計算された撮影画像の位置姿勢を考慮して、基準点の座標値をカメラ座標系からグローバル座標系へと変換する。そして、処理演算部109が、判定対象の手の動き(つまり、基準点の位置の変化)と小型操作デバイス300の動き(つまり、小型操作デバイス300の位置の変化)が一致するか否かを評価する。判定対象の手の動きと小型操作デバイス300の動きが一致する(つまり同じ対象物の動きである)と判定した場合、CPU200は、ステップS504へ処理を進める。一
致しないと判定した場合、CPU200は、ステップS502へ戻り、次の判定対象を評価する。
In step S503, the CPU 200 (processing calculation unit 109) of the HMD 100 selects one outline point (reference point) to serve as a reference from among the hand outline points to be determined. Next, the processing calculation unit 109 takes into account the position and orientation of the photographed image calculated by the relative position and orientation calculation unit 107 and converts the coordinate values of the reference point from the camera coordinate system to the global coordinate system. Then, the processing calculation unit 109 determines whether the movement of the hand to be determined (that is, the change in the position of the reference point) matches the movement of the small operating device 300 (that is, the change in the position of the small operating device 300). evaluate. If it is determined that the movement of the hand to be determined and the movement of the small operating device 300 match (that is, they are movements of the same object), the CPU 200 advances the process to step S504. If it is determined that they do not match, the CPU 200 returns to step S502 and evaluates the next determination target.

ステップS504では、処理演算部109が、判定対象の手がHMD100を装着している使用者本人の手(操作対象)であると認識する。その後、この操作対象の動き情報がジェスチャー操作の認識処理(不図示)に供される。 In step S504, the processing calculation unit 109 recognizes that the hand to be determined is the hand (operation target) of the user wearing the HMD 100. Thereafter, this motion information of the operation target is subjected to gesture operation recognition processing (not shown).

図6は小型操作デバイス300の1フレームごとの移動の例である。手の移動に合わせて小型操作デバイス300の位置がP1(X1,Y1,Z1)→P2(X2,Y2,Z2)→P3(X3,Y3,Z3)と変化している。フレームごとの小型操作デバイス300の位置がセンサ303によって計測される。小型操作デバイス300は使用者の手に装着(固定)されているため、センサ303によって計測される小型操作デバイス300の位置は使用者の手の位置とみなすことができる。図7の左側の表は、小型操作デバイス300のセンサ303によって計測され記録された、手の位置Pの時系列データ(すなわち手の位置の時間的な変化)の例である。 FIG. 6 is an example of movement of the small operating device 300 for each frame. The position of the small operating device 300 changes from P1 (X1, Y1, Z1) to P2 (X2, Y2, Z2) to P3 (X3, Y3, Z3) as the hand moves. The position of the small operating device 300 for each frame is measured by the sensor 303. Since the small operating device 300 is attached (fixed) to the user's hand, the position of the small operating device 300 measured by the sensor 303 can be regarded as the position of the user's hand. The table on the left side of FIG. 7 is an example of time series data of the hand position P (that is, temporal changes in the hand position) measured and recorded by the sensor 303 of the small operating device 300.

図8はHMD100の画像撮影部101で撮影される画像の中に含まれていた手の1フレームごとの移動の例である。手の位置がQ1(x1,y1,z1)→Q2(x2,y2,z2)→Q3(x3,y3,z3)と変化している。なお図8の例では、左手人差し指の先端の輪郭点が手の位置を示す基準点に選ばれている。図7の右側の表は、HMD100によって画像から検出され記録された、手の位置Qの時系列データ(すなわち手の位置の時間的な変化)の例である。画像から検出された手の位置Qの時系列データは、ハンドトラッキングの情報とも呼ばれる。 FIG. 8 is an example of movement of a hand included in an image photographed by the image photographing unit 101 of the HMD 100 frame by frame. The position of the hand changes from Q1 (x1, y1, z1) to Q2 (x2, y2, z2) to Q3 (x3, y3, z3). In the example of FIG. 8, the contour point at the tip of the left index finger is selected as the reference point indicating the hand position. The table on the right side of FIG. 7 is an example of time-series data of the hand position Q (that is, temporal changes in the hand position) detected and recorded from the image by the HMD 100. The time series data of the hand position Q detected from the image is also called hand tracking information.

図7に示すように、HMD100の情報処理装置103には、対応する時刻t1,t2,・・・ごとに、小型操作デバイス300で検出した手の位置Pの情報と、画像から検出した手の位置Qの情報とが取得される。図5のステップS503の処理では、処理演算部109が、小型操作デバイス300で検出した手の位置Pの相対移動量と、画像から検出した手の位置Qの相対移動量とを、所定期間分比較する。相対移動量とは、前フレームでの手の位置を基準としたときの現在フレームの手の位置の相対的な変化量である。例えば、時刻t1の位置P1(X1,Y1,Z1)と時刻t2の位置P2(X2,Y2,Z2)の相対移動量は、(X2-X1,Y2-Y1,Z2-Z1)で表される。処理演算部109は、所定期間における相対移動量が同じ、または所定の誤差範囲であった場合は、判定対象の手がHMD100を装着している使用者の手であると判定する。ここで、比較に用いる「所定期間」は自由に設定してよい。本実施形態では、3フレームから10フレーム程度に設定する。また「所定の誤差範囲」については、センサ303の測定誤差と画像から計算される三次元位置の誤差とを考慮して設定すればよい。 As shown in FIG. 7, the information processing device 103 of the HMD 100 stores, at each corresponding time t1, t2,... Information on the position Q is acquired. In the process of step S503 in FIG. 5, the processing calculation unit 109 calculates the relative movement amount of the hand position P detected by the small operating device 300 and the relative movement amount of the hand position Q detected from the image for a predetermined period. compare. The relative movement amount is the amount of relative change in the position of the hand in the current frame when the position of the hand in the previous frame is taken as a reference. For example, the relative movement amount between position P1 (X1, Y1, Z1) at time t1 and position P2 (X2, Y2, Z2) at time t2 is expressed as (X2-X1, Y2-Y1, Z2-Z1) . If the relative movement amount in the predetermined period is the same or within a predetermined error range, the processing calculation unit 109 determines that the hand to be determined is the hand of the user wearing the HMD 100. Here, the "predetermined period" used for comparison may be freely set. In this embodiment, the number of frames is set to about 3 to 10 frames. Further, the "predetermined error range" may be set in consideration of the measurement error of the sensor 303 and the error of the three-dimensional position calculated from the image.

相対移動量を比較に用いることによって、小型操作デバイス300で検出する位置(センサ303の装着位置)と画像から検出する基準点の位置とを一致させる必要がなくなり、処理が極めて簡易化されるという利点がある。例えば、図6と図8の例に示すように、センサ303の装着位置が人差し指の根元であり、基準点が人差し指の先端であったとしても、両者の相対移動量(破線矢印参照)はほぼ同じであり、単純な比較が可能だからである。仮に、絶対位置の比較を行うとなれば、画像から検出する基準点を小型操作デバイス300のセンサ303の装着位置に厳密に合わせこむためのキャリブレーションが必要となるなど、計測準備が煩雑となる。 By using the relative movement amount for comparison, there is no need to match the position detected by the small operating device 300 (the mounting position of the sensor 303) with the position of the reference point detected from the image, and the processing is extremely simplified. There are advantages. For example, as shown in the examples of FIGS. 6 and 8, even if the mounting position of the sensor 303 is the base of the index finger and the reference point is the tip of the index finger, the amount of relative movement between the two (see the dashed arrow) is approximately This is because they are the same and a simple comparison is possible. If absolute positions were to be compared, measurement preparation would be complicated, such as requiring calibration to precisely align the reference point detected from the image with the mounting position of the sensor 303 of the small operating device 300. .

以上説明したように、本実施形態では、小型操作デバイス300のセンサ303から取得したIMU情報と、HMD100の画像撮影部101で撮影した画像から取得したハンドトラッキングの情報を用いる。そして、画像に含まれる手の中で、小型操作デバイス3
00で検出した手の動きと同じ動きをするものを、HMD100を装着した使用者本人の手であると認識する。これにより、HMD100の視野内に他人の手が写り込んでいたとしても、簡易な処理で且つ高精度に、使用者本人の手を判別することが可能となり、MRにおけるジェスチャー操作の誤作動を低減させることができる。本実施形態の方法は、従来手法のように使用者の骨格や動きを学習させる必要がなく、また、HMD100と小型操作デバイス300との間の位置合わせ(キャリブレーション)などの事前準備も必要ないため、利便性が高い。
As explained above, in this embodiment, IMU information acquired from the sensor 303 of the small operating device 300 and hand tracking information acquired from the image photographed by the image photographing unit 101 of the HMD 100 are used. In the hand included in the image, a small operating device 3
An object that moves in the same way as the hand movement detected in 00 is recognized as the hand of the user wearing the HMD 100. As a result, even if someone else's hand appears within the field of view of the HMD 100, it is possible to identify the user's own hand with simple processing and high accuracy, reducing malfunctions of gesture operations in MR. can be done. The method of this embodiment does not require learning the user's skeleton and movements unlike conventional methods, and also does not require advance preparation such as alignment (calibration) between the HMD 100 and the small operating device 300. Therefore, it is highly convenient.

(第2の実施形態)
第1の実施形態ではHMD100で検出したすべての手を小型操作デバイス300の検出情報と比較した。しかし、使用者の手と判断するには各々の判定対象との比較を所定期間のあいだ続ける必要があるため、HMD100の視野内に多数の手が含まれていると多くの時間を要してしまう可能性がある。第2の実施形態では、撮影画像から1つ以上の手が検出されたときに、HMD100からそれぞれの手までの距離に基づいて、小型操作デバイス300の検出情報との比較の対象とする手を絞り込む。これにより、小型操作デバイス300の検出情報と比較する手の候補を減らすことができ、比較処理時間の短縮が見込める。以下、第1の実施形態と同一の部分については詳細な説明を省略し、第2の実施形態の特徴部分を主に説明する。
(Second embodiment)
In the first embodiment, all the hands detected by the HMD 100 are compared with the detection information of the small operating device 300. However, in order to determine that it is the user's hand, it is necessary to continue comparing it with each determination target for a predetermined period of time, so if there are many hands within the field of view of the HMD 100, it will take a lot of time. There is a possibility that it will be stored away. In the second embodiment, when one or more hands are detected from a captured image, the hand is selected as a target of comparison with the detection information of the small operation device 300 based on the distance from the HMD 100 to each hand. Refine. As a result, the number of hand candidates to be compared with the detection information of the small operating device 300 can be reduced, and the comparison processing time can be expected to be shortened. Hereinafter, detailed descriptions of the same parts as in the first embodiment will be omitted, and the characteristic parts of the second embodiment will be mainly described.

図9は第2の実施形態に係るHMD100において実行される操作対象認識処理のフローチャートである。第1の実施形態と同じ処理には、図5のフローチャートと同じステップ番号を付している。複合現実感システム1の稼働中は、小型操作デバイス300のセンサ303により取得されるセンシングデータ(IMU情報)が定期的にHMD100に送信され、HMD100において図9の操作対象認識処理が所定のサイクルで繰り返し実行される。 FIG. 9 is a flowchart of operation target recognition processing executed in the HMD 100 according to the second embodiment. The same steps as in the first embodiment are given the same step numbers as in the flowchart of FIG. While the mixed reality system 1 is in operation, sensing data (IMU information) acquired by the sensor 303 of the small operation device 300 is periodically transmitted to the HMD 100, and the operation object recognition process shown in FIG. 9 is performed in the HMD 100 in a predetermined cycle. executed repeatedly.

ステップS500では、HMD100のCPU200が、小型操作デバイス300から取得したセンシングデータに基づいて、小型操作デバイス300の位置に変化があったか否かを判定する。小型操作デバイス300の動きを検知しているときのみステップS501以降の処理が行われる。 In step S500, the CPU 200 of the HMD 100 determines whether the position of the small operating device 300 has changed based on the sensing data acquired from the small operating device 300. The processing from step S501 onward is performed only when the movement of the small operating device 300 is detected.

ステップS501では、HMD100のCPU200(手検出部105)が、画像撮影部101で撮影された画像を撮影画像記憶部104から取得し、その撮影画像から手を検出する。撮影画像の中に複数の手が含まれている場合には、それらすべての手が判定対象に設定される。ステップS502において判定対象の手が順に選択され、選択された判定対象に対しステップS900の処理が実行される。 In step S501, the CPU 200 (hand detection section 105) of the HMD 100 acquires an image photographed by the image photographing section 101 from the photographed image storage section 104, and detects a hand from the photographed image. If a plurality of hands are included in the photographed image, all of the hands are set as determination targets. In step S502, hands to be determined are sequentially selected, and the process in step S900 is executed for the selected determination targets.

ステップS900では、HMD100のCPU200(処理演算部109)が、HMD100から判定対象の手までの距離Dを計算し、距離Dと閾値ThDとを比較する。距離Dは、第1の実施形態で説明したステレオ画像から取得した深度情報から取得することができる。または、HMD100にデプスセンサが搭載されている場合は、デプスセンサで測定された情報を利用してもよい。閾値ThDは、HMD100の使用者のリーチ(手の届く距離)よりもやや大きい値、例えば、0.8mから1.0m程度の値に設定すればよい。閾値ThDはあらかじめHMD100に設定しておく。 In step S900, the CPU 200 (processing calculation unit 109) of the HMD 100 calculates the distance D from the HMD 100 to the hand to be determined, and compares the distance D with a threshold ThD. The distance D can be obtained from the depth information obtained from the stereo images described in the first embodiment. Alternatively, if the HMD 100 is equipped with a depth sensor, information measured by the depth sensor may be used. The threshold ThD may be set to a value that is slightly larger than the reach (reachable distance) of the user of the HMD 100, for example, a value of about 0.8 m to 1.0 m. The threshold ThD is set in the HMD 100 in advance.

判定対象の手までの距離Dが閾値ThD以上の場合(ステップS900のNO判定)、CPU200は、その判定対象の手はHMD100の使用者の手ではなく他人の手であると判断する。この場合は、比較処理(ステップS503)は行われず、次の判定対象の処理に遷移する(ステップS502)。 When the distance D to the hand to be determined is equal to or greater than the threshold ThD (NO determination in step S900), the CPU 200 determines that the hand to be determined is not the hand of the user of the HMD 100 but another person's hand. In this case, the comparison process (step S503) is not performed, and the process moves to the next determination target process (step S502).

他方、判定対象の手までの距離Dが閾値ThDより近い場合(ステップS900のYES判定)、CPU200は、その判定対象の手はHMD100の使用者の手である可能性があると判断し、比較処理(ステップS503)に進む。以降の処理は第1の実施形態で説明したものと同様である。 On the other hand, if the distance D to the hand to be determined is closer than the threshold ThD (YES determination in step S900), the CPU 200 determines that the hand to be determined may be the hand of the user of the HMD 100, and performs the comparison. The process advances to step S503. The subsequent processing is similar to that described in the first embodiment.

以上説明した本実施形態の構成においても第1実施形態と同様の作用効果を奏することができる。加えて、本実施形態では、HMD100から手までの距離に基づいて比較対象とする候補の絞り込みを行うので、HMD100の視野内に多数の手が写っている場合でも処理コストを削減し、処理時間の短縮や消費電力の抑制という効果が得られる。 The configuration of this embodiment described above can also provide the same effects as the first embodiment. In addition, in this embodiment, candidates to be compared are narrowed down based on the distance from the HMD 100 to the hand, so even if many hands are captured within the field of view of the HMD 100, processing costs can be reduced and processing time can be reduced. The effect of shortening time and suppressing power consumption can be obtained.

(第3の実施形態)
第1の実施形態ではHMD100で検出したすべての手を小型操作デバイス300の検出情報と比較した。しかし、使用者の手と判断するには各々の判定対象との比較を所定期間のあいだ続ける必要があるため、HMD100の視野内に多数の手が含まれていると多くの時間を要してしまう可能性がある。第3の実施形態では、撮影画像から1つ以上の手が検出されたときに、それぞれの手の移動方向に基づいて、小型操作デバイス300の検出情報との比較の対象とする手を絞り込む。これにより、小型操作デバイス300の検出情報と比較する手の候補を減らすことができ、比較処理時間の短縮が見込める。以下、第1の実施形態と同一の部分については詳細な説明を省略し、第3の実施形態の特徴部分を主に説明する。
(Third embodiment)
In the first embodiment, all the hands detected by the HMD 100 are compared with the detection information of the small operating device 300. However, in order to determine that it is the user's hand, it is necessary to continue comparing it with each determination target for a predetermined period of time, so if there are many hands within the field of view of the HMD 100, it will take a lot of time. There is a possibility that it will be stored away. In the third embodiment, when one or more hands are detected from a captured image, the hands to be compared with the detection information of the small operating device 300 are narrowed down based on the movement direction of each hand. As a result, the number of hand candidates to be compared with the detection information of the small operating device 300 can be reduced, and the comparison processing time can be expected to be shortened. Hereinafter, detailed descriptions of the same parts as in the first embodiment will be omitted, and the characteristic parts of the third embodiment will be mainly described.

図10は第3の実施形態に係るHMD100において実行される操作対象認識処理のフローチャートである。第1の実施形態と同じ処理には、図5のフローチャートと同じステップ番号を付している。複合現実感システム1の稼働中は、小型操作デバイス300のセンサ303により取得されるセンシングデータ(IMU情報)が定期的にHMD100に送信され、HMD100において図10の操作対象認識処理が所定のサイクルで繰り返し実行される。 FIG. 10 is a flowchart of operation target recognition processing executed in the HMD 100 according to the third embodiment. The same steps as in the first embodiment are given the same step numbers as in the flowchart of FIG. While the mixed reality system 1 is in operation, sensing data (IMU information) acquired by the sensor 303 of the small operation device 300 is periodically transmitted to the HMD 100, and the operation object recognition process shown in FIG. 10 is performed in the HMD 100 in a predetermined cycle. executed repeatedly.

ステップS500では、HMD100のCPU200が、小型操作デバイス300から取得したセンシングデータに基づいて、小型操作デバイス300の位置に変化があったか否かを判定する。小型操作デバイス300の動きを検知しているときのみステップS501以降の処理が行われる。 In step S500, the CPU 200 of the HMD 100 determines whether there has been a change in the position of the small operating device 300 based on the sensing data acquired from the small operating device 300. The processing from step S501 onward is performed only when the movement of the small operating device 300 is detected.

ステップS501では、HMD100のCPU200(手検出部105)が、画像撮影部101で撮影された画像を撮影画像記憶部104から取得し、その撮影画像から手を検出する。撮影画像の中に複数の手が含まれている場合には、それらすべての手が判定対象に設定される。ステップS502において判定対象の手が順に選択され、選択された判定対象に対しステップS1000の処理が実行される。 In step S501, the CPU 200 (hand detection section 105) of the HMD 100 acquires an image photographed by the image photographing section 101 from the photographed image storage section 104, and detects a hand from the photographed image. If a plurality of hands are included in the photographed image, all of the hands are set as determination targets. In step S502, hands to be determined are sequentially selected, and the process in step S1000 is executed for the selected determination targets.

ステップS1000では、HMD100のCPU200(処理演算部109)が、判定対象の手と小型操作デバイス300の移動方向が一致するか否かを判定する。移動方向は、任意の2フレームの位置情報から計算すればよい。例えば、前フレームの三次元位置を始点、現在フレームの三次元位置を終点とする移動ベクトルの向きを、移動方向としてよい。図7を参照して具体例を説明する。現在フレームが時刻t2、前フレームが時刻t1であると仮定すると、判定対象の手の移動ベクトルV1は{x2-x1,y2-y1,z2-z1}と求まり、小型操作デバイス300の移動ベクトルV2は{X2-X1,Y2-Y1,Z2-Z1}と求まる。処理演算部109は、ベクトルV1とV2のなす角θが所定の閾値Thθより小さい場合は、判定対象の手と小型操作デバイス300の移動方向が一致していると判定する。閾値Thθは、センサ303の測定誤差と画像から計算される三次元位置の誤差とを考慮して設定すればよい。閾値ThθはあらかじめHMD100
に設定しておく。
In step S1000, the CPU 200 (processing calculation unit 109) of the HMD 100 determines whether the moving directions of the hand to be determined and the small operating device 300 match. The moving direction may be calculated from position information of two arbitrary frames. For example, the movement direction may be the direction of a movement vector whose starting point is the three-dimensional position of the previous frame and whose end point is the three-dimensional position of the current frame. A specific example will be explained with reference to FIG. Assuming that the current frame is at time t2 and the previous frame is at time t1, the movement vector V1 of the hand to be determined is {x2-x1, y2-y1, z2-z1}, and the movement vector V2 of the small operating device 300 is is found as {X2-X1, Y2-Y1, Z2-Z1}. If the angle θ formed by the vectors V1 and V2 is smaller than a predetermined threshold Thθ, the processing calculation unit 109 determines that the moving directions of the hand to be determined and the small operating device 300 match. The threshold value Thθ may be set in consideration of the measurement error of the sensor 303 and the error of the three-dimensional position calculated from the image. The threshold Thθ is set to HMD100 in advance.
Set it to .

判定対象の手と小型操作デバイス300の移動方向が異なる場合(ステップS1000のNO判定)、CPU200は、その判定対象の手はHMD100の使用者の手ではなく他人の手であると判断する。この場合は、比較処理(ステップS503)は行われず、次の判定対象の処理に遷移する(ステップS502)。 If the moving directions of the hand to be determined and the small operating device 300 are different (NO determination in step S1000), the CPU 200 determines that the hand to be determined is not the hand of the user of the HMD 100 but the hand of another person. In this case, the comparison process (step S503) is not performed, and the process moves to the next determination target process (step S502).

他方、判定対象の手と小型操作デバイス300の移動方向が一致する場合(ステップS1000のYES判定)、CPU200は、その判定対象の手はHMD100の使用者の手である可能性があると判断し、比較処理(ステップS503)に進む。以降の処理は第1の実施形態で説明したものと同様である。 On the other hand, if the moving direction of the hand to be determined and the moving direction of the small operating device 300 match (YES determination in step S1000), the CPU 200 determines that the hand to be determined may be the hand of the user of the HMD 100. , the process proceeds to comparison processing (step S503). The subsequent processing is similar to that described in the first embodiment.

以上説明した本実施形態の構成においても第1実施形態と同様の作用効果を奏することができる。加えて、判定対象の手と小型操作デバイス300の移動方向に基づいて比較対象とする候補の絞り込みを行うので、HMD100の視野内に多数の手が写っている場合でも処理コストを削減し、処理時間の短縮や消費電力の抑制という効果が得られる。特に本実施形態では、2フレーム分の位置情報から簡易的に移動方向を計算する方法を採用したため、比較対象とする候補の絞り込みを即座に行うことができるという利点もある。 The configuration of this embodiment described above can also provide the same effects as the first embodiment. In addition, the candidates to be compared are narrowed down based on the hand to be determined and the moving direction of the small operating device 300, so even if many hands are captured within the field of view of the HMD 100, processing costs can be reduced and the processing speed can be reduced. The effect of shortening time and suppressing power consumption can be obtained. In particular, in this embodiment, since a method of simply calculating the moving direction from two frames of position information is adopted, there is an advantage that candidates to be compared can be narrowed down immediately.

(第4の実施形態)
第1の実施形態ではHMD100で検出したすべての手を小型操作デバイス300の検出情報と比較した。しかし、使用者の手と判断するには各々の判定対象との比較を所定期間のあいだ続ける必要があるため、HMD100の視野内に多数の手が含まれていると多くの時間を要してしまう可能性がある。第4の実施形態では、撮影画像から1つ以上の手が検出されたときに、それぞれの手の延伸方向に基づいて、小型操作デバイス300の検出情報との比較の対象とする手を絞り込む。これにより、小型操作デバイス300の検出情報と比較する手の候補を減らすことができ、比較処理時間の短縮が見込める。以下、第1の実施形態と同一の部分については詳細な説明を省略し、第4の実施形態の特徴部分を主に説明する。
(Fourth embodiment)
In the first embodiment, all the hands detected by the HMD 100 are compared with the detection information of the small operating device 300. However, in order to determine that it is the user's hand, it is necessary to continue comparing it with each determination target for a predetermined period of time, so if there are many hands within the field of view of the HMD 100, it will take a lot of time. There is a possibility that it will be stored away. In the fourth embodiment, when one or more hands are detected from a captured image, the hands to be compared with the detection information of the small operating device 300 are narrowed down based on the extending direction of each hand. As a result, the number of hand candidates to be compared with the detection information of the small operating device 300 can be reduced, and the comparison processing time can be expected to be shortened. Hereinafter, detailed descriptions of the same parts as those in the first embodiment will be omitted, and the characteristic parts of the fourth embodiment will be mainly described.

図11は第4の実施形態に係るHMD100において実行される操作対象認識処理のフローチャートである。第1の実施形態と同じ処理には、図5のフローチャートと同じステップ番号を付している。複合現実感システム1の稼働中は、小型操作デバイス300のセンサ303により取得されるセンシングデータ(IMU情報)が定期的にHMD100に送信され、HMD100において図11の操作対象認識処理が所定のサイクルで繰り返し実行される。 FIG. 11 is a flowchart of operation target recognition processing executed in the HMD 100 according to the fourth embodiment. The same steps as in the first embodiment are given the same step numbers as in the flowchart of FIG. While the mixed reality system 1 is in operation, sensing data (IMU information) acquired by the sensor 303 of the small operation device 300 is periodically transmitted to the HMD 100, and the operation object recognition process shown in FIG. 11 is performed in the HMD 100 in a predetermined cycle. executed repeatedly.

ステップS500では、HMD100のCPU200が、小型操作デバイス300から取得したセンシングデータに基づいて、小型操作デバイス300の位置に変化があったか否かを判定する。小型操作デバイス300の動きを検知しているときのみステップS501以降の処理が行われる。 In step S500, the CPU 200 of the HMD 100 determines whether the position of the small operating device 300 has changed based on the sensing data acquired from the small operating device 300. The processing from step S501 onward is performed only when the movement of the small operating device 300 is detected.

ステップS501では、HMD100のCPU200(手検出部105)が、画像撮影部101で撮影された画像を撮影画像記憶部104から取得し、その撮影画像から手を検出する。撮影画像の中に複数の手が含まれている場合には、それらすべての手が判定対象に設定される。ステップS502において判定対象の手が順に選択され、選択された判定対象に対しステップS1100の処理が実行される。 In step S501, the CPU 200 (hand detection section 105) of the HMD 100 acquires an image photographed by the image photographing section 101 from the photographed image storage section 104, and detects a hand from the photographed image. If a plurality of hands are included in the photographed image, all of the hands are set as determination targets. In step S502, hands to be determined are sequentially selected, and the process in step S1100 is executed for the selected determination targets.

ステップS1100では、HMD100のCPU200(処理演算部109)が、判定対象の手の延伸方向が所定の範囲内にあるかを判定する。手の延伸方向とは、腕から手指
の先に向かう方向であり、例えば、手首を始点、手指の先端を終点とするベクトルの向きで表される。HMD100の使用者が右手でジェスチャー操作を行う場合、使用者の右手は、HMD100の視野内において下から上、又は、右から左に向かって伸びるように写るのが通常である。また、HMD100の使用者が左手でジェスチャー操作を行う場合、使用者の左手は、HMD100の視野内において下から上、又は、左から右に向かって伸びるように写るのが通常である。したがって、HMD100の撮影画像から検出された手が視野の上から下に向かって伸びていたり、ジェスチャー操作を行う手とは反対側から手が伸びていたりした場合には、その手はHMD100の使用者の手である可能性は極めて低いと考えてよい。使用者の手の延伸方向がとり得る角度を「所定の範囲」として、あらかじめHMD100に設定しておく。例えば、撮影画像における上方向(時計の12時の方位)を0度とし、時計回りに0~+180度、反時計回りに0~-180度を考えたとき、下から上に伸びる手は、概ね-45度~45度の範囲に収まる。また右から左に伸びる手は、概ね-90度~-45度の範囲に収まり、左から右に伸びる手は、概ね45度~90度の範囲に収まる。それゆえ、本実施形態では、例えば-90度~90度を所定の範囲に設定し、その範囲から外れる延伸方向の手は他人の手であると判定する。なお所定の範囲の設定の仕方はこれに限られず、任意に設定可能である。例えば、ジェスチャー操作を行う手が右手か左手かがあらかじめ判る場合には、所定の範囲をさらに狭く設定してもよい。あるいは、使用者が首を横に傾けるとHMD100の視野(撮影画像)自体が回転してしまい、手の延伸方向と撮影画像の相対角度に影響がでることを考慮し、所定の範囲に一定のマージンを設けてもよい。
In step S1100, the CPU 200 (processing calculation unit 109) of the HMD 100 determines whether the stretching direction of the hand to be determined is within a predetermined range. The extending direction of the hand is the direction from the arm to the tips of the fingers, and is expressed, for example, by the direction of a vector with the wrist as the starting point and the tips of the fingers as the ending point. When the user of the HMD 100 performs a gesture operation with the right hand, the user's right hand is usually seen extending from bottom to top or from right to left within the field of view of the HMD 100. Furthermore, when the user of the HMD 100 performs a gesture operation with his or her left hand, the user's left hand is usually seen extending from bottom to top or from left to right within the field of view of the HMD 100. Therefore, if the hand detected in the captured image of HMD 100 extends from the top of the field of view to the bottom, or if the hand extends from the side opposite to the hand performing the gesture operation, that hand is It is highly unlikely that this was done by someone else. The possible angles of the extending direction of the user's hand are set in advance in the HMD 100 as a "predetermined range." For example, if the upward direction in the photographed image (12 o'clock direction on the clock) is 0 degrees, and if we consider 0 to +180 degrees clockwise and 0 to -180 degrees counterclockwise, the hand extending from the bottom to the top is It generally falls within the range of -45 degrees to 45 degrees. Furthermore, the hand extending from right to left generally falls within the range of -90 degrees to -45 degrees, and the hand extending from left to right generally falls within the range of 45 degrees to 90 degrees. Therefore, in this embodiment, a predetermined range is set, for example, from −90 degrees to 90 degrees, and a hand in a stretching direction that falls outside of this range is determined to be another person's hand. Note that the method of setting the predetermined range is not limited to this, and can be set arbitrarily. For example, if it is known in advance whether the hand performing the gesture operation is the right hand or the left hand, the predetermined range may be set even narrower. Alternatively, if the user tilts his or her head to the side, the field of view (captured image) of the HMD 100 itself will rotate, which will affect the relative angle between the hand extension direction and the captured image. A margin may be provided.

判定対象の手の延伸方向が所定の範囲から外れている場合(ステップS1100のNO判定)、CPU200は、その判定対象の手はHMD100の使用者の手ではなく他人の手であると判断する。この場合は、比較処理(ステップS503)は行われず、次の判定対象の処理に遷移する(ステップS502)。 If the stretching direction of the hand to be determined is outside the predetermined range (NO determination in step S1100), CPU 200 determines that the hand to be determined is not the hand of the user of HMD 100 but someone else's hand. In this case, the comparison process (step S503) is not performed, and the process moves to the next determination target process (step S502).

他方、判定対象の手の延伸方向が所定の範囲内である場合(ステップS1100のYES判定)、CPU200は、その判定対象の手はHMD100の使用者の手である可能性があると判断し、比較処理(ステップS503)に進む。以降の処理は第1の実施形態で説明したものと同様である。 On the other hand, if the stretching direction of the hand to be determined is within the predetermined range (YES determination in step S1100), the CPU 200 determines that the hand to be determined may be the hand of the user of the HMD 100, The process advances to comparison processing (step S503). The subsequent processing is similar to that described in the first embodiment.

以上説明した本実施形態の構成においても第1実施形態と同様の作用効果を奏することができる。加えて、本実施形態では、判定対象の手の延伸方向に基づいて比較対象とする候補の絞り込みを行うので、HMD100の視野内に多数の手が写っている場合でも処理コストを削減し、処理時間の短縮や消費電力の抑制という効果が得られる。 The configuration of this embodiment described above can also provide the same effects as the first embodiment. In addition, in this embodiment, the candidates to be compared are narrowed down based on the stretching direction of the hand to be determined, so even if a large number of hands are captured within the field of view of the HMD 100, processing costs can be reduced and the processing cost can be reduced. The effect of shortening time and suppressing power consumption can be obtained.

(第5の実施形態)
第1の実施形態ではHMD100で検出した手の動きと小型操作デバイス300の動きが一致するかどうかで使用者の手かどうかを判断した。これに対し、第5の実施形態では、HMD100の画像撮影部101で撮影した画像を使用して画像認識により使用者の手を判断する。以下、第1の実施形態と同一の部分については詳細な説明を省略し、第5の実施形態の特徴部分を主に説明する。
(Fifth embodiment)
In the first embodiment, whether or not the hand is the user's hand is determined based on whether the hand movement detected by the HMD 100 matches the movement of the small operating device 300. On the other hand, in the fifth embodiment, the user's hand is determined by image recognition using an image photographed by the image photographing unit 101 of the HMD 100. Hereinafter, detailed descriptions of the same parts as in the first embodiment will be omitted, and the characteristic parts of the fifth embodiment will be mainly described.

図12は第5の実施形態に係るHMD100において実行される操作対象認識処理のフローチャートである。第1の実施形態と同じ処理には、図5のフローチャートと同じステップ番号を付している。複合現実感システム1の稼働中は、小型操作デバイス300のセンサ303により取得されるセンシングデータ(IMU情報)が定期的にHMD100に送信され、HMD100において図12の操作対象認識処理が所定のサイクルで繰り返し実行される。 FIG. 12 is a flowchart of operation target recognition processing executed in the HMD 100 according to the fifth embodiment. The same steps as in the first embodiment are given the same step numbers as in the flowchart of FIG. While the mixed reality system 1 is in operation, sensing data (IMU information) acquired by the sensor 303 of the small operation device 300 is periodically transmitted to the HMD 100, and the operation target recognition process shown in FIG. 12 is performed in the HMD 100 at a predetermined cycle. executed repeatedly.

ステップS500では、HMD100のCPU200が、小型操作デバイス300から取得したセンシングデータに基づいて、小型操作デバイス300の位置に変化があったか否かを判定する。小型操作デバイス300の動きを検知しているときのみステップS501以降の処理が行われる。 In step S500, the CPU 200 of the HMD 100 determines whether the position of the small operating device 300 has changed based on the sensing data acquired from the small operating device 300. The processing from step S501 onward is performed only when the movement of the small operating device 300 is detected.

ステップS501では、HMD100のCPU200(手検出部105)が、画像撮影部101で撮影された画像を撮影画像記憶部104から取得し、その撮影画像から手を検出する。撮影画像の中に複数の手が含まれている場合には、それらすべての手が判定対象に設定される。ステップS502において判定対象の手が順に選択され、選択された判定対象に対しステップS1200の処理が実行される。 In step S501, the CPU 200 (hand detection section 105) of the HMD 100 acquires an image photographed by the image photographing section 101 from the photographed image storage section 104, and detects a hand from the photographed image. If a plurality of hands are included in the photographed image, all of the hands are set as determination targets. In step S502, hands to be determined are sequentially selected, and the process in step S1200 is executed for the selected determination targets.

ステップS1200では、HMD100のCPU200(処理演算部109)が、判定対象の手に小型操作デバイス300が装着されているか否かを画像認識により判定する。画像認識アルゴリズムとしては、サポートベクターマシンに代表される古典的な機械学習を用いてもよいし、R-CNN、YOLO、SSD、DCNなどの深層学習をベースにしたアルゴリズムを用いてもよいし、ルールベースの検出アルゴリズムを用いてもよい。 In step S1200, the CPU 200 (processing calculation unit 109) of the HMD 100 determines whether the small operating device 300 is attached to the hand of the determination target by image recognition. As the image recognition algorithm, classical machine learning represented by support vector machine may be used, or deep learning-based algorithms such as R-CNN, YOLO, SSD, DCN, etc. may be used. Rule-based detection algorithms may also be used.

判定対象の手に小型操作デバイス300が装着されていない場合(ステップS1200のNO判定)、CPU200は、その判定対象の手はHMD100の使用者の手ではなく他人の手であると判断する。この場合は、次の判定対象の処理に遷移する(ステップS502)。 If the small operation device 300 is not attached to the hand to be determined (NO determination in step S1200), the CPU 200 determines that the hand to be determined is not the hand of the user of the HMD 100 but someone else's hand. In this case, the process transitions to the next determination target process (step S502).

他方、判定対象の手に小型操作デバイス300が装着されている場合(ステップS1200のYES判定)、CPU200は、その判定対象の手はHMD100の使用者の手であると判断し、ステップS504に進む。以降の処理は第1の実施形態で説明したものと同様である。 On the other hand, if the small operation device 300 is attached to the hand of the determination target (YES determination in step S1200), the CPU 200 determines that the hand of the determination target is the hand of the user of the HMD 100, and proceeds to step S504. . The subsequent processing is similar to that described in the first embodiment.

以上説明した本実施形態の構成においても第1実施形態と同様の作用効果を奏することができる。加えて、本実施形態では、判定対象の手に小型操作デバイス300が装着されているか否かを1フレームの撮影画像から判断できるため、使用者の手の識別を即座に行うことができるという利点もある。 The configuration of this embodiment described above can also provide the same effects as the first embodiment. In addition, in this embodiment, it is possible to determine whether or not the small operating device 300 is attached to the hand of the person to be determined based on one frame of the photographed image, so the advantage is that the user's hand can be immediately identified. There is also.

(第6の実施形態)
第1の実施形態ではHMD100で検出した手の動きと小型操作デバイス300の動きが一致するかどうかで使用者の手かどうかを判断した。これに対し、第6の実施形態では、HMD100で検出した手の姿勢と小型操作デバイス300の姿勢が一致するかどうかで使用者の手を識別する。小型操作デバイス300の姿勢は、センサ303で取得されるIMU情報の角速度から推定可能である。以下、第1の実施形態と同一の部分については詳細な説明を省略し、第6の実施形態の特徴部分を主に説明する。
(Sixth embodiment)
In the first embodiment, whether or not the hand is the user's hand is determined based on whether the hand movement detected by the HMD 100 matches the movement of the small operating device 300. On the other hand, in the sixth embodiment, the user's hand is identified based on whether the hand posture detected by the HMD 100 and the posture of the small operating device 300 match. The attitude of the small operation device 300 can be estimated from the angular velocity of IMU information acquired by the sensor 303. Hereinafter, detailed descriptions of the same parts as those in the first embodiment will be omitted, and the characteristic parts of the sixth embodiment will be mainly described.

図13は第6の実施形態に係るHMD100において実行される操作対象認識処理のフローチャートである。第1の実施形態と同じ処理には、図5のフローチャートと同じステップ番号を付している。複合現実感システム1の稼働中は、小型操作デバイス300のセンサ303により取得されるセンシングデータ(IMU情報)が定期的にHMD100に送信され、HMD100において図13の操作対象認識処理が所定のサイクルで繰り返し実行される。 FIG. 13 is a flowchart of operation target recognition processing executed in the HMD 100 according to the sixth embodiment. The same steps as in the first embodiment are given the same step numbers as in the flowchart of FIG. While the mixed reality system 1 is in operation, sensing data (IMU information) acquired by the sensor 303 of the small operation device 300 is periodically transmitted to the HMD 100, and the operation object recognition process shown in FIG. 13 is performed in the HMD 100 in a predetermined cycle. executed repeatedly.

ステップS500では、HMD100のCPU200が、小型操作デバイス300から取得したセンシングデータに基づいて、小型操作デバイス300の位置に変化があったか否かを判定する。小型操作デバイス300の動きを検知しているときのみステップS50
1以降の処理が行われる。
In step S500, the CPU 200 of the HMD 100 determines whether there has been a change in the position of the small operating device 300 based on the sensing data acquired from the small operating device 300. Step S50 only when the movement of the small operating device 300 is detected.
1 and subsequent processes are performed.

ステップS501では、HMD100のCPU200(手検出部105)が、画像撮影部101で撮影された画像を撮影画像記憶部104から取得し、その撮影画像から手を検出する。撮影画像の中に複数の手が含まれている場合には、それらすべての手が判定対象に設定される。ステップS502において判定対象の手が順に選択され、選択された判定対象に対しステップS1300の処理が実行される。 In step S501, the CPU 200 (hand detection section 105) of the HMD 100 acquires an image photographed by the image photographing section 101 from the photographed image storage section 104, and detects a hand from the photographed image. If a plurality of hands are included in the photographed image, all of the hands are set as determination targets. In step S502, hands to be determined are sequentially selected, and the process in step S1300 is executed for the selected determination targets.

ステップS1300では、HMD100のCPU200(処理演算部109)が、判定対象の手の姿勢と小型操作デバイス300の姿勢が一致するか否かを評価する。具体的には、処理演算部109は、センサ303から取得したIMU情報の角速度から、小型操作デバイス300の姿勢角を算出する。また、処理演算部109は、撮影画像から検出された判定対象の手の姿勢推定を行うことで、判定対象の手の姿勢角を算出する。姿勢推定アルゴリズムはどのようなものでもよい。例えば、判定対象の手における複数の特徴点(関節、輪郭点など)の三次元座標を計算し、複数の特徴点の相対的な位置関係に基づいて手の姿勢を推定してもよい。あるいは、深層学習をベースにしたアルゴリズムを用いて、手の画像か姿勢推定を行ってもよい。なお、姿勢角の算出誤差や姿勢推定の誤差を考慮し、判定対象の手の姿勢角と小型操作デバイス300の姿勢角の差が所定の誤差範囲であった場合は、両者の姿勢が一致していると判定してもよい。 In step S1300, the CPU 200 (processing calculation unit 109) of the HMD 100 evaluates whether the posture of the hand to be determined matches the posture of the small operating device 300. Specifically, the processing calculation unit 109 calculates the attitude angle of the small operating device 300 from the angular velocity of the IMU information acquired from the sensor 303. Further, the processing calculation unit 109 calculates the posture angle of the hand to be determined by estimating the posture of the hand to be determined detected from the photographed image. Any posture estimation algorithm may be used. For example, the three-dimensional coordinates of a plurality of feature points (joints, contour points, etc.) on the hand to be determined may be calculated, and the posture of the hand may be estimated based on the relative positional relationship of the plurality of feature points. Alternatively, an algorithm based on deep learning may be used to estimate the pose of a hand image. Note that, taking into account errors in calculating the posture angle and errors in posture estimation, if the difference between the posture angle of the hand to be determined and the posture angle of the small operating device 300 is within a predetermined error range, the postures of the two will match. It may be determined that the

判定対象の手の姿勢と小型操作デバイス300の姿勢が異なる場合(ステップS1300のNO判定)、CPU200は、その判定対象の手はHMD100の使用者の手ではなく他人の手であると判断する。この場合は、次の判定対象の処理に遷移する(ステップS502)。 If the posture of the hand to be determined is different from the posture of small operation device 300 (NO determination in step S1300), CPU 200 determines that the hand to be determined is not the hand of the user of HMD 100 but someone else's hand. In this case, the process transitions to the next determination target process (step S502).

他方、判定対象の手の姿勢と小型操作デバイス300の姿勢が一致する場合(ステップS1300のYES判定)、CPU200は、その判定対象の手はHMD100の使用者の手であると判断し、ステップS504に進む。以降の処理は第1の実施形態で説明したものと同様である。 On the other hand, if the posture of the hand to be determined matches the posture of the small operating device 300 (YES determination in step S1300), the CPU 200 determines that the hand to be determined is the hand of the user of the HMD 100, and the CPU 200 determines that the hand to be determined is the hand of the user of the HMD 100, and performs the determination in step S504. Proceed to. The subsequent processing is similar to that described in the first embodiment.

以上説明した本実施形態の構成においても第1実施形態と同様の作用効果を奏することができる。なお、第1実施形態の「動きの比較」と本実施形態の「姿勢の比較」の両方を行い、動きと姿勢がともに一致している場合に、使用者本人の手であると判断してもよい。これにより誤判定(他人の手を使用者の手であると間違えること)を一層低減することが期待できる。 The configuration of this embodiment described above can also provide the same effects as the first embodiment. Note that if both the "comparison of movements" in the first embodiment and the "comparison of postures" in this embodiment are performed, and the movements and postures match, it is determined that the hand is the user's own hand. Good too. This can be expected to further reduce misjudgments (mistaking someone else's hand to be the user's hand).

(第7の実施形態)
第1の実施形態ではHMD100で検出したすべての手を小型操作デバイス300の動きと比較した。しかし、使用者の手がHMD100の視界から外れていたり、画像撮影部101の死角に入っていたりして、使用者の手のハンドトラッキング情報が適切に取得できない場合も考えられる。そこで第7の実施形態では、撮影画像から使用者の手が認識できなかった場合に、HMD100で検出できる位置に手を移動させるように、手の位置が適切でない旨を使用者に通知する。以下、第1の実施形態と同一の部分については詳細な説明を省略し、第7の実施形態の特徴部分を主に説明する。
(Seventh embodiment)
In the first embodiment, all the hands detected by the HMD 100 were compared with the movements of the small operating device 300. However, there may be cases where the hand tracking information of the user's hand cannot be appropriately acquired because the user's hand is out of the field of view of the HMD 100 or in the blind spot of the image capturing section 101. Therefore, in the seventh embodiment, when the user's hand cannot be recognized from the photographed image, the user is notified that the hand position is inappropriate so that the user moves the hand to a position where it can be detected by the HMD 100. Hereinafter, detailed descriptions of the same parts as in the first embodiment will be omitted, and the characteristic parts of the seventh embodiment will be mainly described.

図14は第7の実施形態に係るHMD100において実行される操作対象認識処理のフローチャートである。第1の実施形態と同じ処理には、図5のフローチャートと同じステップ番号を付している。複合現実感システム1の稼働中は、小型操作デバイス300のセンサ303により取得されるセンシングデータ(IMU情報)が定期的にHMD100に送信され、HMD100において図14の操作対象認識処理が所定のサイクルで繰り返し
実行される。
FIG. 14 is a flowchart of operation target recognition processing executed in the HMD 100 according to the seventh embodiment. The same steps as in the first embodiment are given the same step numbers as in the flowchart of FIG. While the mixed reality system 1 is in operation, sensing data (IMU information) acquired by the sensor 303 of the small operation device 300 is periodically transmitted to the HMD 100, and the operation object recognition process shown in FIG. 14 is performed in the HMD 100 in a predetermined cycle. executed repeatedly.

ステップS500では、HMD100のCPU200が、小型操作デバイス300から取得したセンシングデータに基づいて、小型操作デバイス300の位置に変化があったか否かを判定する。小型操作デバイス300の動きを検知しているときのみステップS501以降の処理が行われる。 In step S500, the CPU 200 of the HMD 100 determines whether the position of the small operating device 300 has changed based on the sensing data acquired from the small operating device 300. The processing from step S501 onward is performed only when the movement of the small operating device 300 is detected.

ステップS501では、HMD100のCPU200(手検出部105)が、画像撮影部101で撮影された画像を撮影画像記憶部104から取得し、その撮影画像から手を検出する。撮影画像の中に複数の手が含まれている場合には、それらすべての手が判定対象に設定される。ステップS502において判定対象の手が順に選択され、選択された判定対象に対しステップS503の処理が実行される。 In step S501, the CPU 200 (hand detection section 105) of the HMD 100 acquires an image photographed by the image photographing section 101 from the photographed image storage section 104, and detects a hand from the photographed image. If a plurality of hands are included in the photographed image, all of the hands are set as determination targets. In step S502, hands to be determined are selected in order, and the process in step S503 is executed for the selected determination targets.

撮影画像から判定対象の手が1つも検出されなかった場合、又は、すべての判定対象についてステップS503の処理が行われたにもかかわらず使用者本人の手が認識されなかった場合は、ステップS502でNO判定となり、処理がステップS1400に進む。ステップS1400では、HMD100のCPU200(処理演算部109)が、画像表示部102に使用者の手がHMD100に映っていない旨の警告のガイダンスを表示することにより、HMD100の使用者が手の位置を移動するように誘導する。なお、処理演算部109は、音声ガイダンスにより、手の位置が適切でない旨を通知してもよい。 If no hand to be determined is detected from the photographed image, or if the hand of the user is not recognized even though the process in step S503 has been performed for all the determination targets, step S502 A NO determination is made in step S1400, and the process proceeds to step S1400. In step S1400, the CPU 200 (processing calculation unit 109) of the HMD 100 displays guidance warning that the user's hand is not displayed on the HMD 100 on the image display unit 102, so that the user of the HMD 100 can check the position of the hand. induce them to move. Note that the processing calculation unit 109 may notify that the position of the hand is not appropriate through audio guidance.

以上説明した本実施形態の構成においても第1実施形態と同様の作用効果を奏することができる。加えて、本実施形態では、使用者がジェスチャー操作を行う際の手の位置が不適切である場合に、それを検知し、使用者に手の位置の修正を促すことができる。したがって、手の位置が不適切であることに起因するジェスチャー操作の失敗を減らすことができ、利便性を向上することができる。 The configuration of this embodiment described above can also provide the same effects as the first embodiment. In addition, in this embodiment, if the position of the hand when the user performs a gesture operation is inappropriate, it can be detected and the user can be prompted to correct the position of the hand. Therefore, failures in gesture operations due to inappropriate hand positions can be reduced, and convenience can be improved.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。第1の実施形態から第7の実施形態で述べた構成を(技術的な矛盾が生じない限りにおいて)相互に組み合わせてもよい。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the invention. The configurations described in the first to seventh embodiments may be combined with each other (as long as there is no technical contradiction).

また、上述の実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いてプログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのプログラムを実行する場合も本発明に含む。従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記憶媒体、不揮発性の半導体メモリでもよい。また、プログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムを記憶し、接続のあったクライアントコンピュータがコンピュータプログラムをダウンロードして実行するような方法も考えられる。本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 Further, a case where a software program that implements the functions of the above-described embodiments is supplied directly from a recording medium or using wired/wireless communication to a system or device having a computer capable of executing the program, and the program is executed. Also included in the present invention. Therefore, in order to realize the functional processing of the present invention on a computer, the program code itself that is supplied and installed in the computer also realizes the present invention. In other words, the present invention also includes a computer program itself for realizing the functional processing of the present invention. In this case, the form of the program does not matter, such as an object code, a program executed by an interpreter, or script data supplied to the OS, as long as it has the function of a program. The recording medium for supplying the program may be, for example, a hard disk, a magnetic recording medium such as a magnetic tape, an optical/magnetic optical storage medium, or a nonvolatile semiconductor memory. Further, as a method of supplying the program, a method may be considered in which a computer program forming the present invention is stored in a server on a computer network, and a connected client computer downloads and executes the computer program. The present invention provides a system or device with a program that implements one or more functions of the embodiments described above via a network or a storage medium, and one or more processors in a computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

本明細書の開示は、以下の構成、方法、プログラムを含む。
(構成1)
HMD(Head Mount Display)で撮影される画像の中から前記HMDを装着する使用者の手を認識する情報処理装置であって、
前記HMDで撮影される撮影画像から手を検出する検出手段と、
前記使用者が手に装着するデバイスに搭載されているセンサから、前記デバイスの位置に関するセンシングデータを取得する取得手段と、
前記撮影画像から検出された手について前記撮影画像から認識される当該手の動きと前記センシングデータから認識される前記デバイスの動きとを比較する比較処理を行い、前記手の動きと前記デバイスの動きとが一致する場合に、前記撮影画像から検出された手が前記使用者の手であると判定する処理演算手段と、
を有する情報処理装置。
(構成2)
HMD(Head Mount Display)で撮影される画像の中から前記HMDを装着する使用者の手を認識する情報処理装置であって、
前記HMDで撮影される撮影画像から手を検出する検出手段と、
前記使用者が手に装着するデバイスに搭載されているセンサから、前記デバイスの姿勢に関するセンシングデータを取得する取得手段と、
前記撮影画像から検出された手について前記撮影画像から認識される当該手の姿勢と、前記センシングデータから認識される前記デバイスの姿勢とを比較する比較処理を行い、前記手の姿勢と前記デバイスの姿勢とが一致する場合に、前記撮影画像から検出された手が前記使用者の手であると判定する処理演算手段と、
を有する情報処理装置。
(構成3)
HMD(Head Mount Display)で撮影される画像の中から前記HMDを装着する使用者の手を認識する情報処理装置であって、
前記HMDで撮影される撮影画像から手を検出する検出手段と、
前記使用者が手に装着するデバイスに搭載されているセンサから、前記デバイスの位置および姿勢に関するセンシングデータを取得する取得手段と、
前記撮影画像から検出された手について前記撮影画像から認識される当該手の動きおよび姿勢と、前記センシングデータから認識される前記デバイスの動きおよび姿勢とを比較する比較処理を行い、前記手の動きおよび姿勢と前記デバイスの動きおよび姿勢とが一致する場合に、前記撮影画像から検出された手が前記使用者の手であると判定する処理演算手段と、
を有する情報処理装置。
(構成4)
前記処理演算手段は、前記撮影画像から1つ以上の手が検出されたときに、前記HMDからそれぞれの手までの距離に基づいて、前記比較処理の対象とする手を絞り込む、
構成1~3のうちいずれか1項に記載の情報処理装置。
(構成5)
前記処理演算手段は、前記撮影画像から1つ以上の手が検出されたときに、それぞれの手の移動方向に基づいて、前記比較処理の対象とする手を絞り込む、
構成1~4のうちいずれか1項に記載の情報処理装置。
(構成6)
前記処理演算手段は、前記撮影画像から1つ以上の手が検出されたときに、それぞれの手の延伸方向に基づいて、前記比較処理の対象とする手を絞り込む、
構成1~5のうちいずれか1項に記載の情報処理装置。
(構成7)
HMD(Head Mount Display)で撮影される画像の中から前記HMDを装着する使用者の手を認識する情報処理装置であって、
前記HMDで撮影される撮影画像から手を検出する検出手段と、
前記使用者が手に装着するデバイスが前記撮影画像から検出された手に装着されているか否かを画像認識により判定し、前記デバイスが前記撮影画像から検出された手に装着されている場合に、前記撮影画像から検出された手が前記使用者の手であると判定する処理演算手段と、
を有する情報処理装置。
(構成8)
前記処理演算手段は、前記撮影画像から前記使用者の手が認識されなかった場合に、前記使用者に手の位置が適切でない旨を通知する、
構成1~7のうちいずれか1項に記載の情報処理装置。
(構成9)
前記デバイスに搭載されているセンサから取得されるセンシングデータにより、前記デバイスの位置の変化が検知された場合に、前記検出手段および前記処理演算手段による処理が実行される、
構成1~8のうちいずれか1項に記載の情報処理装置。
(構成10)
前記処理演算手段は、前記比較処理において、所定期間における前記手の位置の相対移動量と前記デバイスの相対移動量とを比較し、前記手の位置の相対移動量と前記デバイスの相対移動量が同じ、または所定の誤差範囲であった場合に、前記手の動きと前記デバイスの動きとが一致していると判定する、
構成1又は3に記載の情報処理装置。
(構成11)
前記センサは、IMUセンサである、
構成1~10のいずれか1項に記載の情報処理装置。
(構成12)
前記デバイスは、前記使用者の手又は指に装着されるウェアラブルデバイスである、
構成1~11のいずれか1項に記載の情報処理装置。
(構成13)
画像撮影部と画像表示部とを有し、使用者が頭部に装着するゴーグル装置と、
構成1~12のうちいずれか1項に記載の情報処理装置と、
を有するHMD。
(構成14)
画像撮影部と画像表示部とを有し、使用者が頭部に装着するゴーグル装置と、
構成1~12のうちいずれか1項に記載の情報処理装置と、
前記使用者の手に装着され、位置および姿勢を計測するセンサを有するデバイスと、
を有するシステム。
(方法15)
HMD(Head Mount Display)で撮影される画像の中から前記HMDを装着する使用者の手を認識する認識方法であって、
情報処理装置が、
前記HMDで撮影される撮影画像から手を検出するステップと、
前記使用者が手に装着するデバイスに搭載されているセンサから、前記デバイスの位置に関するセンシングデータを取得するステップと、
前記撮影画像から検出された手について前記撮影画像から認識される当該手の動きと前記センシングデータから認識される前記デバイスの動きとを比較する比較処理を行い、前記手の動きと前記デバイスの動きとが一致する場合に、前記撮影画像から検出された手が前記使用者の手であると判定するステップと、
を実行する認識方法。
(方法16)
HMD(Head Mount Display)で撮影される画像の中から前記HM
Dを装着する使用者の手を認識する認識方法であって、
情報処理装置が、
前記HMDで撮影される撮影画像から手を検出するステップと、
前記使用者が手に装着するデバイスに搭載されているセンサから、前記デバイスの姿勢に関するセンシングデータを取得するステップと、
前記撮影画像から検出された手について前記撮影画像から認識される当該手の姿勢と、前記センシングデータから認識される前記デバイスの姿勢とを比較する比較処理を行い、前記手の姿勢と前記デバイスの姿勢とが一致する場合に、前記撮影画像から検出された手が前記使用者の手であると判定するステップと、
を実行する認識方法。
(方法17)
HMD(Head Mount Display)で撮影される画像の中から前記HMDを装着する使用者の手を認識する認識方法であって、
情報処理装置が、
前記HMDで撮影される撮影画像から手を検出するステップと、
前記使用者が手に装着するデバイスに搭載されているセンサから、前記デバイスの位置および姿勢に関するセンシングデータを取得するステップと、
前記撮影画像から検出された手について前記撮影画像から認識される当該手の動きおよび姿勢と、前記センシングデータから認識される前記デバイスの動きおよび姿勢とを比較する比較処理を行い、前記手の動きおよび姿勢と前記デバイスの動きおよび姿勢とが一致する場合に、前記撮影画像から検出された手が前記使用者の手であると判定するステップと、
を実行する認識方法。
(方法18)
HMD(Head Mount Display)で撮影される画像の中から前記HMDを装着する使用者の手を認識する認識方法であって、
情報処理装置が、
前記HMDで撮影される撮影画像から手を検出するステップと、
前記使用者が手に装着するデバイスが前記撮影画像から検出された手に装着されているか否かを画像認識により判定し、前記デバイスが前記撮影画像から検出された手に装着されている場合に、前記撮影画像から検出された手が前記使用者の手であると判定するステップと、
を実行する認識方法。
(プログラム19)
方法15~18のうちいずれか1項に記載の認識方法の各ステップを情報処理装置に実行させるためのプログラム。
The disclosure of this specification includes the following configurations, methods, and programs.
(Configuration 1)
An information processing device that recognizes the hand of a user wearing an HMD from images taken by an HMD (Head Mount Display),
Detection means for detecting a hand from a captured image captured by the HMD;
acquisition means for acquiring sensing data regarding the position of the device from a sensor mounted on the device worn by the user;
A comparison process is performed to compare the movement of the hand detected from the photographed image with the movement of the device recognized from the sensing data, and the movement of the hand and the movement of the device are performed. processing calculation means that determines that the hand detected from the photographed image is the user's hand when the two match;
An information processing device having:
(Configuration 2)
An information processing device that recognizes the hand of a user wearing an HMD from images taken by an HMD (Head Mount Display),
Detection means for detecting a hand from a captured image captured by the HMD;
acquisition means for acquiring sensing data regarding the posture of the device from a sensor mounted on the device worn by the user;
A comparison process is performed to compare the posture of the hand detected from the photographed image with the posture of the device recognized from the sensing data, and the posture of the hand and the posture of the device are compared. processing calculation means for determining that the hand detected from the photographed image is the user's hand when the postures match;
An information processing device having:
(Configuration 3)
An information processing device that recognizes the hand of a user wearing an HMD from images taken by an HMD (Head Mount Display),
Detection means for detecting a hand from a captured image captured by the HMD;
acquisition means for acquiring sensing data regarding the position and orientation of the device from a sensor installed in the device worn by the user;
A comparison process is performed to compare the movement and posture of the hand detected from the photographed image with the movement and posture of the device recognized from the sensing data, and the movement and posture of the hand detected from the photographed image are compared. and processing calculation means for determining that the hand detected from the photographed image is the user's hand when the posture matches the movement and posture of the device;
An information processing device having:
(Configuration 4)
The processing calculation means narrows down the hands to be subjected to the comparison processing based on the distance from the HMD to each hand when one or more hands are detected from the photographed image.
The information processing device according to any one of configurations 1 to 3.
(Configuration 5)
The processing calculation means narrows down the hands to be subjected to the comparison processing based on the movement direction of each hand when one or more hands are detected from the photographed image.
The information processing device according to any one of configurations 1 to 4.
(Configuration 6)
The processing calculation means narrows down the hands to be subjected to the comparison processing based on the stretching direction of each hand when one or more hands are detected from the photographed image.
The information processing device according to any one of configurations 1 to 5.
(Configuration 7)
An information processing device that recognizes the hand of a user wearing an HMD from images taken by an HMD (Head Mount Display),
Detection means for detecting a hand from a captured image captured by the HMD;
Determining whether or not the device worn by the user is worn on the hand detected from the photographed image by image recognition, and when the device is worn on the hand detected from the photographed image; , processing calculation means for determining that the hand detected from the photographed image is the hand of the user;
An information processing device having:
(Configuration 8)
The processing calculation means notifies the user that the hand position is not appropriate when the user's hand is not recognized from the photographed image.
The information processing device according to any one of configurations 1 to 7.
(Configuration 9)
When a change in the position of the device is detected based on sensing data acquired from a sensor installed in the device, processing by the detection means and the processing calculation means is executed.
The information processing device according to any one of configurations 1 to 8.
(Configuration 10)
In the comparison process, the processing calculation means compares the relative movement amount of the hand position and the relative movement amount of the device in a predetermined period, and determines that the relative movement amount of the hand position and the relative movement amount of the device are determining that the hand movement and the device movement match if they are the same or within a predetermined error range;
The information processing device according to configuration 1 or 3.
(Configuration 11)
the sensor is an IMU sensor;
The information processing device according to any one of Configurations 1 to 10.
(Configuration 12)
The device is a wearable device worn on the user's hand or finger.
The information processing device according to any one of configurations 1 to 11.
(Configuration 13)
A goggle device that has an image capturing section and an image display section and is worn on the head by a user;
The information processing device according to any one of configurations 1 to 12;
An HMD with
(Configuration 14)
A goggle device that has an image capturing section and an image display section and is worn on the head by a user;
The information processing device according to any one of configurations 1 to 12;
A device that is attached to the user's hand and has a sensor that measures the position and posture;
A system with
(Method 15)
A recognition method for recognizing the hand of a user wearing an HMD (Head Mount Display) from images taken by the HMD, the method comprising:
The information processing device
Detecting a hand from a captured image captured by the HMD;
acquiring sensing data regarding the position of the device from a sensor mounted on the device worn by the user;
A comparison process is performed to compare the movement of the hand detected from the photographed image with the movement of the device recognized from the sensing data, and the movement of the hand and the movement of the device are performed. a step of determining that the hand detected from the photographed image is the user's hand if the two match;
Recognition method to perform.
(Method 16)
The above-mentioned HM from among the images taken by HMD (Head Mount Display)
A recognition method for recognizing the hand of a user wearing D,
The information processing device
Detecting a hand from a captured image captured by the HMD;
acquiring sensing data regarding the posture of the device from a sensor mounted on the device worn by the user;
A comparison process is performed to compare the posture of the hand detected from the photographed image with the posture of the device recognized from the sensing data, and the posture of the hand and the posture of the device are compared. If the postures match, determining that the hand detected from the captured image is the hand of the user;
Recognition method to perform.
(Method 17)
A recognition method for recognizing the hand of a user wearing an HMD (Head Mount Display) from images taken by the HMD, the method comprising:
The information processing device
Detecting a hand from a captured image captured by the HMD;
acquiring sensing data regarding the position and orientation of the device from a sensor mounted on the device worn by the user;
A comparison process is performed to compare the movement and posture of the hand detected from the photographed image with the movement and posture of the device recognized from the sensing data, and the movement and posture of the hand detected from the photographed image are compared. and determining that the hand detected from the captured image is the user's hand if the posture matches the movement and posture of the device;
Recognition method to perform.
(Method 18)
A recognition method for recognizing the hand of a user wearing an HMD (Head Mount Display) from images taken by the HMD, the method comprising:
The information processing device
Detecting a hand from a captured image captured by the HMD;
Determining whether or not the device worn by the user is worn on the hand detected from the photographed image by image recognition, and when the device is worn on the hand detected from the photographed image; , determining that the hand detected from the photographed image is the hand of the user;
Recognition method to perform.
(Program 19)
A program for causing an information processing device to execute each step of the recognition method described in any one of Methods 15 to 18.

100 HMD
103 情報処理装置
105 手検出部
109 処理演算部
110 近接無線通信部
300 小型操作デバイス
303 センサ
100 HMD
103 Information processing device 105 Hand detection unit 109 Processing calculation unit 110 Proximity wireless communication unit 300 Small operation device 303 Sensor

Claims (19)

HMD(Head Mount Display)で撮影される画像の中から前記HMDを装着する使用者の手を認識する情報処理装置であって、
前記HMDで撮影される撮影画像から手を検出する検出手段と、
前記使用者が手に装着するデバイスに搭載されているセンサから、前記デバイスの位置に関するセンシングデータを取得する取得手段と、
前記撮影画像から検出された手について前記撮影画像から認識される当該手の動きと前記センシングデータから認識される前記デバイスの動きとを比較する比較処理を行い、前記手の動きと前記デバイスの動きとが一致する場合に、前記撮影画像から検出された手が前記使用者の手であると判定する処理演算手段と、
を有する情報処理装置。
An information processing device that recognizes the hand of a user wearing an HMD from images taken by an HMD (Head Mount Display),
Detection means for detecting a hand from a captured image captured by the HMD;
acquisition means for acquiring sensing data regarding the position of the device from a sensor mounted on the device worn by the user;
A comparison process is performed to compare the movement of the hand detected from the photographed image with the movement of the device recognized from the sensing data, and the movement of the hand and the movement of the device are performed. processing calculation means that determines that the hand detected from the photographed image is the user's hand when the two match;
An information processing device having:
HMD(Head Mount Display)で撮影される画像の中から前記HMDを装着する使用者の手を認識する情報処理装置であって、
前記HMDで撮影される撮影画像から手を検出する検出手段と、
前記使用者が手に装着するデバイスに搭載されているセンサから、前記デバイスの姿勢に関するセンシングデータを取得する取得手段と、
前記撮影画像から検出された手について前記撮影画像から認識される当該手の姿勢と、前記センシングデータから認識される前記デバイスの姿勢とを比較する比較処理を行い、前記手の姿勢と前記デバイスの姿勢とが一致する場合に、前記撮影画像から検出された手が前記使用者の手であると判定する処理演算手段と、
を有する情報処理装置。
An information processing device that recognizes the hand of a user wearing an HMD from images taken by an HMD (Head Mount Display),
Detection means for detecting a hand from a captured image captured by the HMD;
acquisition means for acquiring sensing data regarding the posture of the device from a sensor mounted on the device worn by the user;
A comparison process is performed to compare the posture of the hand detected from the photographed image with the posture of the device recognized from the sensing data, and the posture of the hand and the posture of the device are compared. processing calculation means for determining that the hand detected from the photographed image is the user's hand when the postures match;
An information processing device having:
HMD(Head Mount Display)で撮影される画像の中から前記HMDを装着する使用者の手を認識する情報処理装置であって、
前記HMDで撮影される撮影画像から手を検出する検出手段と、
前記使用者が手に装着するデバイスに搭載されているセンサから、前記デバイスの位置および姿勢に関するセンシングデータを取得する取得手段と、
前記撮影画像から検出された手について前記撮影画像から認識される当該手の動きおよび姿勢と、前記センシングデータから認識される前記デバイスの動きおよび姿勢とを比較する比較処理を行い、前記手の動きおよび姿勢と前記デバイスの動きおよび姿勢とが一致する場合に、前記撮影画像から検出された手が前記使用者の手であると判定する処理演算手段と、
を有する情報処理装置。
An information processing device that recognizes the hand of a user wearing an HMD from images taken by an HMD (Head Mount Display),
Detection means for detecting a hand from a captured image captured by the HMD;
acquisition means for acquiring sensing data regarding the position and orientation of the device from a sensor installed in the device worn by the user;
A comparison process is performed to compare the movement and posture of the hand detected from the photographed image with the movement and posture of the device recognized from the sensing data, and the movement and posture of the hand detected from the photographed image are compared. and processing calculation means for determining that the hand detected from the photographed image is the user's hand when the posture matches the movement and posture of the device;
An information processing device having:
前記処理演算手段は、前記撮影画像から1つ以上の手が検出されたときに、前記HMDからそれぞれの手までの距離に基づいて、前記比較処理の対象とする手を絞り込む、
請求項1~3のうちいずれか1項に記載の情報処理装置。
The processing calculation means narrows down the hands to be subjected to the comparison processing based on the distance from the HMD to each hand when one or more hands are detected from the photographed image.
The information processing device according to any one of claims 1 to 3.
前記処理演算手段は、前記撮影画像から1つ以上の手が検出されたときに、それぞれの手の移動方向に基づいて、前記比較処理の対象とする手を絞り込む、
請求項1~3のうちいずれか1項に記載の情報処理装置。
The processing calculation means narrows down the hands to be subjected to the comparison processing based on the movement direction of each hand when one or more hands are detected from the photographed image.
The information processing device according to any one of claims 1 to 3.
前記処理演算手段は、前記撮影画像から1つ以上の手が検出されたときに、それぞれの手の延伸方向に基づいて、前記比較処理の対象とする手を絞り込む、
請求項1~3のうちいずれか1項に記載の情報処理装置。
The processing calculation means narrows down the hands to be subjected to the comparison processing based on the stretching direction of each hand when one or more hands are detected from the photographed image.
The information processing device according to any one of claims 1 to 3.
HMD(Head Mount Display)で撮影される画像の中から前記HMDを装着する使用者の手を認識する情報処理装置であって、
前記HMDで撮影される撮影画像から手を検出する検出手段と、
前記使用者が手に装着するデバイスが前記撮影画像から検出された手に装着されているか否かを画像認識により判定し、前記デバイスが前記撮影画像から検出された手に装着されている場合に、前記撮影画像から検出された手が前記使用者の手であると判定する処理演算手段と、
を有する情報処理装置。
An information processing device that recognizes the hand of a user wearing an HMD (Head Mount Display) from images taken by the HMD,
Detection means for detecting a hand from a captured image captured by the HMD;
It is determined by image recognition whether or not the device worn by the user is worn on the hand detected from the captured image, and if the device is worn on the hand detected from the captured image, , processing calculation means for determining that the hand detected from the photographed image is the hand of the user;
An information processing device having:
前記処理演算手段は、前記撮影画像から前記使用者の手が認識されなかった場合に、前記使用者に手の位置が適切でない旨を通知する、
請求項1~3、7のうちいずれか1項に記載の情報処理装置。
The processing calculation means notifies the user that the hand position is not appropriate when the user's hand is not recognized from the photographed image.
The information processing device according to any one of claims 1 to 3 and 7.
前記デバイスに搭載されているセンサから取得されるセンシングデータにより、前記デバイスの位置の変化が検知された場合に、前記検出手段および前記処理演算手段による処理が実行される、
請求項1~3、7のうちいずれか1項に記載の情報処理装置。
When a change in the position of the device is detected based on sensing data acquired from a sensor installed in the device, processing by the detection means and the processing calculation means is executed.
The information processing device according to any one of claims 1 to 3 and 7.
前記処理演算手段は、前記比較処理において、所定期間における前記手の位置の相対移動量と前記デバイスの相対移動量とを比較し、前記手の位置の相対移動量と前記デバイスの相対移動量が同じ、または所定の誤差範囲であった場合に、前記手の動きと前記デバイスの動きとが一致していると判定する、
請求項1又は3に記載の情報処理装置。
In the comparison process, the processing calculation means compares the relative movement amount of the hand position and the relative movement amount of the device in a predetermined period, and determines that the relative movement amount of the hand position and the relative movement amount of the device are determining that the hand movement and the device movement match if they are the same or within a predetermined error range;
The information processing device according to claim 1 or 3.
前記センサは、IMUセンサである、
請求項1~3のいずれか1項に記載の情報処理装置。
the sensor is an IMU sensor;
The information processing device according to any one of claims 1 to 3.
前記デバイスは、前記使用者の手又は指に装着されるウェアラブルデバイスである、
請求項1~3のいずれか1項に記載の情報処理装置。
The device is a wearable device worn on the user's hand or finger.
The information processing device according to any one of claims 1 to 3.
画像撮影部と画像表示部とを有し、使用者が頭部に装着するゴーグル装置と、
請求項1~3、7のうちいずれか1項に記載の情報処理装置と、
を有するHMD。
A goggle device that has an image capturing section and an image display section and is worn on the head by a user;
The information processing device according to any one of claims 1 to 3 and 7,
An HMD with
画像撮影部と画像表示部とを有し、使用者が頭部に装着するゴーグル装置と、
請求項1~3、7のうちいずれか1項に記載の情報処理装置と、
前記使用者の手に装着され、位置および姿勢を計測するセンサを有するデバイスと、
を有するシステム。
A goggle device that has an image capturing section and an image display section and is worn on the head by a user;
The information processing device according to any one of claims 1 to 3 and 7,
A device that is attached to the user's hand and has a sensor that measures the position and posture;
A system with
HMD(Head Mount Display)で撮影される画像の中から前記HMDを装着する使用者の手を認識する認識方法であって、
情報処理装置が、
前記HMDで撮影される撮影画像から手を検出するステップと、
前記使用者が手に装着するデバイスに搭載されているセンサから、前記デバイスの位置に関するセンシングデータを取得するステップと、
前記撮影画像から検出された手について前記撮影画像から認識される当該手の動きと前記センシングデータから認識される前記デバイスの動きとを比較する比較処理を行い、前記手の動きと前記デバイスの動きとが一致する場合に、前記撮影画像から検出された手が前記使用者の手であると判定するステップと、
を実行する認識方法。
A recognition method for recognizing the hand of a user wearing an HMD (Head Mount Display) from images taken by the HMD, the method comprising:
The information processing device
Detecting a hand from a captured image captured by the HMD;
acquiring sensing data regarding the position of the device from a sensor mounted on the device worn by the user;
A comparison process is performed to compare the movement of the hand detected from the photographed image with the movement of the device recognized from the sensing data, and the movement of the hand and the movement of the device are performed. a step of determining that the hand detected from the photographed image is the user's hand if the two match;
Recognition method to perform.
HMD(Head Mount Display)で撮影される画像の中から前記HM
Dを装着する使用者の手を認識する認識方法であって、
情報処理装置が、
前記HMDで撮影される撮影画像から手を検出するステップと、
前記使用者が手に装着するデバイスに搭載されているセンサから、前記デバイスの姿勢に関するセンシングデータを取得するステップと、
前記撮影画像から検出された手について前記撮影画像から認識される当該手の姿勢と、前記センシングデータから認識される前記デバイスの姿勢とを比較する比較処理を行い、前記手の姿勢と前記デバイスの姿勢とが一致する場合に、前記撮影画像から検出された手が前記使用者の手であると判定するステップと、
を実行する認識方法。
The above-mentioned HM from among the images taken by HMD (Head Mount Display)
A recognition method for recognizing the hand of a user wearing D,
The information processing device
Detecting a hand from a captured image captured by the HMD;
acquiring sensing data regarding the posture of the device from a sensor mounted on the device worn by the user;
A comparison process is performed to compare the posture of the hand detected from the photographed image with the posture of the device recognized from the sensing data, and the posture of the hand and the posture of the device are compared. If the postures match, determining that the hand detected from the captured image is the hand of the user;
Recognition method to perform.
HMD(Head Mount Display)で撮影される画像の中から前記HMDを装着する使用者の手を認識する認識方法であって、
情報処理装置が、
前記HMDで撮影される撮影画像から手を検出するステップと、
前記使用者が手に装着するデバイスに搭載されているセンサから、前記デバイスの位置および姿勢に関するセンシングデータを取得するステップと、
前記撮影画像から検出された手について前記撮影画像から認識される当該手の動きおよび姿勢と、前記センシングデータから認識される前記デバイスの動きおよび姿勢とを比較する比較処理を行い、前記手の動きおよび姿勢と前記デバイスの動きおよび姿勢とが一致する場合に、前記撮影画像から検出された手が前記使用者の手であると判定するステップと、
を実行する認識方法。
A recognition method for recognizing the hand of a user wearing an HMD (Head Mount Display) from images taken by the HMD, the method comprising:
The information processing device
Detecting a hand from a captured image captured by the HMD;
acquiring sensing data regarding the position and orientation of the device from a sensor mounted on the device worn by the user;
A comparison process is performed to compare the movement and posture of the hand detected from the photographed image with the movement and posture of the device recognized from the sensing data, and the movement and posture of the hand detected from the photographed image are compared. and determining that the hand detected from the captured image is the user's hand if the posture matches the movement and posture of the device;
Recognition method to perform.
HMD(Head Mount Display)で撮影される画像の中から前記HMDを装着する使用者の手を認識する認識方法であって、
情報処理装置が、
前記HMDで撮影される撮影画像から手を検出するステップと、
前記使用者が手に装着するデバイスが前記撮影画像から検出された手に装着されているか否かを画像認識により判定し、前記デバイスが前記撮影画像から検出された手に装着されている場合に、前記撮影画像から検出された手が前記使用者の手であると判定するステップと、
を実行する認識方法。
A recognition method for recognizing the hand of a user wearing an HMD (Head Mount Display) from images taken by the HMD, the method comprising:
The information processing device
Detecting a hand from a captured image captured by the HMD;
It is determined by image recognition whether or not the device worn by the user is worn on the hand detected from the captured image, and if the device is worn on the hand detected from the captured image, , determining that the hand detected from the photographed image is the hand of the user;
Recognition method to perform.
請求項15~18のうちいずれか1項に記載の認識方法の各ステップを情報処理装置に実行させるためのプログラム。 A program for causing an information processing device to execute each step of the recognition method according to any one of claims 15 to 18.
JP2022136047A 2022-08-29 2022-08-29 Information processing equipment and HMD Pending JP2024032409A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022136047A JP2024032409A (en) 2022-08-29 2022-08-29 Information processing equipment and HMD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022136047A JP2024032409A (en) 2022-08-29 2022-08-29 Information processing equipment and HMD

Publications (1)

Publication Number Publication Date
JP2024032409A true JP2024032409A (en) 2024-03-12

Family

ID=90192902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022136047A Pending JP2024032409A (en) 2022-08-29 2022-08-29 Information processing equipment and HMD

Country Status (1)

Country Link
JP (1) JP2024032409A (en)

Similar Documents

Publication Publication Date Title
US11861070B2 (en) Hand gestures for animating and controlling virtual and graphical elements
CN110310288B (en) Method and system for object segmentation in a mixed reality environment
US20230117197A1 (en) Bimanual gestures for controlling virtual and graphical elements
CN110310329B (en) Method of operating display device, information processing system, and non-transitory storage medium
US10078377B2 (en) Six DOF mixed reality input by fusing inertial handheld controller with hand tracking
US10353482B2 (en) Systems and methods for tracking motion and gesture of heads and eyes
US10852847B2 (en) Controller tracking for multiple degrees of freedom
KR20230124732A (en) Fine hand gestures to control virtual and graphical elements
JP4679661B1 (en) Information presenting apparatus, information presenting method, and program
US10373334B2 (en) Computer program, object tracking method, and object tracking device
CN108283018A (en) Electronic equipment gesture recognition based on image and non-image sensor data
WO2019142560A1 (en) Information processing device for guiding gaze
CN110688002B (en) Virtual content adjusting method, device, terminal equipment and storage medium
US20230047470A1 (en) Information processing apparatus, information processing method, and computer-readable recording medium
US10587862B2 (en) Head-mounted device
JP2017191426A (en) Input device, input control method, computer program, and storage medium
US20210271075A1 (en) Information processing apparatus, information processing method, and program
JP2024032409A (en) Information processing equipment and HMD
CN110769245A (en) Calibration method and related equipment
JP6373546B2 (en) Information processing apparatus, information processing method, and program
US20240118751A1 (en) Information processing device and information processing method
Kempfle et al. Quaterni-On: Calibration-free Matching of Wearable IMU Data to Joint Estimates of Ambient Cameras
KR20150081975A (en) Apparatus for pose estimation of wearable display device using hybrid sensors
WO2023238678A1 (en) Information processing device, controller display method and computer program
US20230222738A1 (en) Information processing apparatus, information processing method, and program