JP2017187944A - Information processing apparatus, method of determining pointed position, computer program, and storage medium - Google Patents

Information processing apparatus, method of determining pointed position, computer program, and storage medium Download PDF

Info

Publication number
JP2017187944A
JP2017187944A JP2016076589A JP2016076589A JP2017187944A JP 2017187944 A JP2017187944 A JP 2017187944A JP 2016076589 A JP2016076589 A JP 2016076589A JP 2016076589 A JP2016076589 A JP 2016076589A JP 2017187944 A JP2017187944 A JP 2017187944A
Authority
JP
Japan
Prior art keywords
image
information processing
processing apparatus
area
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016076589A
Other languages
Japanese (ja)
Inventor
基起 仲間
Motoki Nakama
基起 仲間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016076589A priority Critical patent/JP2017187944A/en
Publication of JP2017187944A publication Critical patent/JP2017187944A/en
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing apparatus which determines a position pointed by a pointer stably.SOLUTION: An information processing apparatus 100 includes: an image acquisition unit 300 for successively acquiring images captured by a stereo camera 208 at a predetermined time interval; a pointing area detection unit 303 for detecting an area of a pointer image to be used for pointing by a user, from the acquired image; a distance acquisition unit 302 for acquiring a distance from the stereo camera 208, for each of pixels in the pointer image area; and a fingertip position determination unit 304 for determining a current pointed position, on the basis of the distance and a pointed position which is a position determined from an image acquired in the past and to be pointed by the pointer.SELECTED DRAWING: Figure 2

Description

本発明は、仮想空間を操作するユーザインタフェースを備えた情報処理装置に関する。ユーザインタフェースは、以下「UI」という。   The present invention relates to an information processing apparatus having a user interface for operating a virtual space. The user interface is hereinafter referred to as “UI”.

AR(Augmented Reality)やMR(Mixed Reality)等の技術分野では、ヘッドマウントディスプレイ(以下、「HMD」という。)を用いたUIが実現されている。例えば、ユーザは、HMDにより表示される仮想オブジェクトを、手指等の指示体を用いてジェスチャ操作を行うことができる。ジェスチャによる仮想オブジェクトの操作を可能としたUIでは、HMDに搭載されるカメラにより撮影された画像から指示体の画像の領域を検出し、検出した指示体の画像の領域内の一点(指示位置)を操作用等のポインタとする。ユーザは、ポインタを操作することで、仮想オブジェクトに対する各種ジェスチャ操作を行うことができる。   In technical fields such as AR (Augmented Reality) and MR (Mixed Reality), a UI using a head mounted display (hereinafter referred to as “HMD”) is realized. For example, the user can perform a gesture operation on a virtual object displayed by the HMD using an indicator such as a finger. In the UI that enables the manipulation of the virtual object by the gesture, the area of the indicator image is detected from the image taken by the camera mounted on the HMD, and one point (indicated position) in the detected indicator image area is detected. Is an operation pointer. The user can perform various gesture operations on the virtual object by operating the pointer.

一般的にポインタは、検出した指示体の画像の領域の重心もしくは指示体の画像の領域の先端(例えば指先)に設けられる。例えば特許文献1のシステムは、手の画角内への侵入方向からポインタとなる手領域の指先位置を決定する。指先位置が指示位置となる。このようなポインタは、操作入力位置を示すカーソルの役割のみならず、操作状況をユーザが把握し易くするためのフィードバック手段としても利用される。またポインタは、UIにおいて、HMDにより表示される仮想オブジェクトと指示体(手)とのヒット判定を行うための基点として利用される。   Generally, the pointer is provided at the center of gravity of the detected indicator image area or the tip of the indicator image area (for example, a fingertip). For example, the system of Patent Literature 1 determines the fingertip position of the hand region that serves as a pointer from the direction of entry into the angle of view of the hand. The fingertip position becomes the designated position. Such a pointer is used not only as a cursor indicating the operation input position but also as feedback means for making it easier for the user to grasp the operation status. The pointer is used as a base point for performing hit determination between the virtual object displayed by the HMD and the indicator (hand) in the UI.

特開2011−22945号公報JP 2011-22945 A

特許文献1では、手領域の指先位置が距離精度のバラつきや手ブレ、手の傾き、手の形状等により安定しないために、ポインタの位置(指示位置)を安定して正確に決定することができないことがある。ポインタの位置が正確に決められない場合、操作性が低下するだけでなく、情報処理装置内部で行われる仮想オブジェクトと手とのヒット判定が正確に行えなくなる。   In Patent Document 1, the position of the pointer (instructed position) can be determined stably and accurately because the fingertip position of the hand region is not stable due to variations in distance accuracy, hand shake, hand tilt, hand shape, and the like. There are things that cannot be done. When the position of the pointer cannot be accurately determined, not only the operability is deteriorated but also the hit determination between the virtual object and the hand performed inside the information processing apparatus cannot be performed accurately.

本発明は、上記の問題を解決するために、指示体による指示位置を安定して決定する情報処理装置を提供することを主たる課題とする。   In order to solve the above problems, it is a main object of the present invention to provide an information processing apparatus that stably determines a position indicated by a pointer.

上記課題を解決する本発明の情報処理装置は、所定の撮像手段で撮像された画像を所定の時間間隔で連続して取得する画像取得手段と、取得した前記画像から、ユーザが指示を行うための指示体の画像の領域を検出する指示領域検出手段と、前記指示体の画像の領域内の各画素について、前記撮像手段からの距離を取得する距離取得手段と、過去に取得した画像から決定した、前記指示体により指し示される位置である指示位置を保存する保存手段と、前記保存手段に保存された前記指示位置及び前記距離に基づいて、現在の指示位置を決定する決定手段と、を備えることを特徴とする。   An information processing apparatus of the present invention that solves the above-described problem is for an image acquisition unit that continuously acquires images captured by a predetermined imaging unit at a predetermined time interval, and for a user to give an instruction from the acquired image An indicator area detecting means for detecting an area of the indicator image, a distance acquiring means for acquiring a distance from the imaging means for each pixel in the indicator image area, and an image acquired in the past Storage means for storing an instruction position that is a position pointed to by the indicator, and determination means for determining a current instruction position based on the instruction position and the distance stored in the storage means. It is characterized by providing.

本発明によれば、過去に決定した指示位置を現在の指示位置を決定する要素に用いることで、指示位置を安定して正確に決定することができる。   According to the present invention, the designated position can be stably and accurately determined by using the designated position determined in the past as an element for determining the current designated position.

(a)、(b)はシステムの説明図。(A), (b) is explanatory drawing of a system. (a)、(b)は情報処理装置の説明図。(A), (b) is explanatory drawing of an information processing apparatus. 指先位置決定処理の説明図。Explanatory drawing of a fingertip position determination process. 指先位置決定処理を表すフローチャート。The flowchart showing a fingertip position determination process. (a)〜(e)は手の形状毎の指先位置の例示図。(A)-(e) is an illustration figure of the fingertip position for every shape of a hand. (a)、(b)は指先位置決定処理の説明図。(A), (b) is explanatory drawing of a fingertip position determination process.

以下、図面を参照して実施形態を詳細に説明する。ただし、本実施形態に記載されている構成要素はあくまでも例示であり、本発明の範囲をそれらのみに限定する趣旨のものではない。   Hereinafter, embodiments will be described in detail with reference to the drawings. However, the components described in the present embodiment are merely examples, and are not intended to limit the scope of the present invention only to them.

(構成)
図1は、ヘッドマウントディスプレイ(HMD)をユーザインタフェースに用いた情報処理装置を備えるシステムの説明図である。HMD101は、ステレオカメラを搭載しており、RGB画像を撮像することができる。情報処理装置100とHMD101とは、通信ケーブル105により接続される。情報処理装置100は、通信ケーブル105を介してHMD101からRGB画像を取得する。また、情報処理装置100は、HMD101に表示させるオブジェクト(仮想オブジェクト)を通信ケーブルを介してHMD101に送信する。HMD101は、ユーザ106の頭部に装着される。HMD101は、表示領域104に、情報処理装置100から取得した仮想オブジェクト103a、103bを表示する。
(Constitution)
FIG. 1 is an explanatory diagram of a system including an information processing apparatus using a head mounted display (HMD) as a user interface. The HMD 101 is equipped with a stereo camera and can capture RGB images. The information processing apparatus 100 and the HMD 101 are connected by a communication cable 105. The information processing apparatus 100 acquires an RGB image from the HMD 101 via the communication cable 105. Further, the information processing apparatus 100 transmits an object (virtual object) to be displayed on the HMD 101 to the HMD 101 via a communication cable. The HMD 101 is attached to the head of the user 106. The HMD 101 displays the virtual objects 103 a and 103 b acquired from the information processing apparatus 100 in the display area 104.

本実施形態では、ユーザ106が表示領域104に表示される仮想オブジェクト103a、103bを操作する場合について説明する。情報処理装置100は、ユーザ106に対してジェスチャ操作の基点となるポインタ107を提示する。ユーザ106は、ポインタ107を利用して、操作対象となる仮想オブジェクト103a、103bを操作する。本実施形態では、情報処理装置100とHMD101とが、USB(Universal Serial Bus)等により有線接続される例を説明するが、無線接続により構成してもよい。無線接続には、NFC(Near Field Communication)やbluetooth(登録商標)等の近距離無線通信、ワイヤレスUSBを用いることができる。   In the present embodiment, a case where the user 106 operates the virtual objects 103a and 103b displayed in the display area 104 will be described. The information processing apparatus 100 presents a pointer 107 serving as a base point for a gesture operation to the user 106. The user 106 operates the virtual objects 103a and 103b to be operated using the pointer 107. In the present embodiment, an example in which the information processing apparatus 100 and the HMD 101 are connected by wire using a USB (Universal Serial Bus) or the like will be described, but may be configured by wireless connection. For wireless connection, near field communication such as NFC (Near Field Communication) and bluetooth (registered trademark), and wireless USB can be used.

図1(b)は、ユーザ106に提示されるポインタ107の説明図である。ポインタ107は、ユーザ106の手102の位置に対応づけて表示される。本実施形態のポインタ107は、HMD101に搭載されるステレオカメラによって撮像された画像に含まれる手領域内にあり、かつHMD101から最も遠い場所に位置する点である。図1(b)に示すように、本実施形態では、HMD101の表示領域104に平行な二次元平面にx軸、y軸、表示領域104に直交する方向にz軸を設定して、3次元空間内の座標(位置)を表す。z軸方向が深さ情報(距離情報)であり、HMD101から遠ざかる(深さが深くなる、距離が大きくなる)方向を正の方向としている。なお、HMD101の座標系と3次元空間の座標系は適切にキャリブレーションされており、HMD101の座標系(hx、hy、hz)は、実空間の3次元座標(x、y、z)に1対1で対応する。   FIG. 1B is an explanatory diagram of the pointer 107 presented to the user 106. The pointer 107 is displayed in association with the position of the hand 102 of the user 106. The pointer 107 according to the present embodiment is a point that is in a hand area included in an image captured by a stereo camera mounted on the HMD 101 and is located at a position farthest from the HMD 101. As shown in FIG. 1B, in the present embodiment, the x- and y-axes are set on a two-dimensional plane parallel to the display area 104 of the HMD 101, and the z-axis is set in a direction orthogonal to the display area 104, so that three-dimensional Represents coordinates (position) in space. The z-axis direction is depth information (distance information), and the direction away from the HMD 101 (depth increases, distance increases) is a positive direction. Note that the coordinate system of the HMD 101 and the coordinate system of the three-dimensional space are appropriately calibrated, and the coordinate system (hx, hy, hz) of the HMD 101 is 1 in the three-dimensional coordinates (x, y, z) of the real space. One-to-one correspondence.

本実施形態では仮想オブジェクト103a、103bへユーザが指示を行う(ユーザが操作する)ための指示体としてユーザ106の手及びその指先を用いる例を説明する。指示体には、この他に、スタイラスペンや差し棒等の操作器具を用いることができる。ポインタ107は、指示体の画像領域内の所定の点である指示位置に提示される。つまりポインタ107は、指示体により指し示される位置に提示される。また、HMD101は、撮像装置を備えたウェアラブルな表示装置であればよい。   In the present embodiment, an example will be described in which the user's 106 hand and its fingertip are used as an indicator for a user to give an instruction to the virtual objects 103a and 103b (operated by the user). In addition to this, an operating instrument such as a stylus pen or a insertion rod can be used as the indicator. The pointer 107 is presented at an indicated position that is a predetermined point in the image area of the indicator. That is, the pointer 107 is presented at the position pointed to by the indicator. Moreover, HMD101 should just be a wearable display apparatus provided with the imaging device.

図2は、情報処理装置100の説明図である。図2(a)は情報処理装置100のハードウェア構成図であり、図2(b)は情報処理装置100の機能ブロック図である。なお、HMD101は、ステレオカメラ208で撮像したRGBのステレオ画像を情報処理装置100へ送信する。   FIG. 2 is an explanatory diagram of the information processing apparatus 100. 2A is a hardware configuration diagram of the information processing apparatus 100, and FIG. 2B is a functional block diagram of the information processing apparatus 100. The HMD 101 transmits the RGB stereo image captured by the stereo camera 208 to the information processing apparatus 100.

情報処理装置100は、CPU(Central Processing Unit)200、RAM(Random
Access Memory)201、及びROM(Read Only Memory)202を備えたコンピュータである。情報処理装置100は、HMD101との間のインタフェースであるディスプレイインタフェース(I/F)204及び入力I/F205と、ストレージ207との間のインタフェースであるストレージI/F206とを備える。CPU200、RAM201、ROM202、ディスプレイI/F204、入力I/F205、及びストレージI/F206は、バス203を介して相互に通信可能に接続される。
The information processing apparatus 100 includes a CPU (Central Processing Unit) 200, a RAM (Random
The computer includes an access memory (201) and a read only memory (ROM) 202. The information processing apparatus 100 includes a display interface (I / F) 204 and an input I / F 205 that are interfaces with the HMD 101, and a storage I / F 206 that is an interface with the storage 207. The CPU 200, the RAM 201, the ROM 202, the display I / F 204, the input I / F 205, and the storage I / F 206 are connected via a bus 203 so that they can communicate with each other.

CPU200は、ROM202からコンピュータプログラムを読み込み、RAM201を作業領域に用いて実行することで、情報処理装置100の動作及びHMD101の表示を制御する。ROM202は、起動プログラム、オペレーティングシステム等の各種プログラム、デバイスドライバ等を記憶する。RAM201は、高速にアクセス可能な一時記憶領域を提供する。
ディスプレイI/F204は、CPU200で生成した仮想オブジェクトを表す信号をHMD101で処理可能な信号に変換する。入力I/F205は、HMD101に搭載されているステレオカメラ208で撮像したRGB画像を入力信号として受信し、情報処理装置100で処理可能な信号に変換する。
ストレージI/F206は、ストレージ207へのデータの書き込み及び読み出しを行う。ストレージ207には、情報処理装置100が生成、出力する仮想オブジェクトに関する情報が格納される。ストレージ207は、ディスクデバイスやフラッシュメモリ、ネットワークドライブ、USBドライブ等の大容量記憶装置である。また、複数の記憶装置を並列に接続して構成されていてもよい。
The CPU 200 reads the computer program from the ROM 202 and executes it using the RAM 201 as a work area, thereby controlling the operation of the information processing apparatus 100 and the display of the HMD 101. The ROM 202 stores a startup program, various programs such as an operating system, device drivers, and the like. The RAM 201 provides a temporary storage area that can be accessed at high speed.
The display I / F 204 converts a signal representing the virtual object generated by the CPU 200 into a signal that can be processed by the HMD 101. The input I / F 205 receives an RGB image captured by the stereo camera 208 mounted on the HMD 101 as an input signal and converts it into a signal that can be processed by the information processing apparatus 100.
The storage I / F 206 writes and reads data to and from the storage 207. The storage 207 stores information related to virtual objects generated and output by the information processing apparatus 100. The storage 207 is a mass storage device such as a disk device, flash memory, network drive, or USB drive. In addition, a plurality of storage devices may be connected in parallel.

情報処理装置100は、ステレオカメラ208で撮像されたRGB画像から手領域を検出し、ポインタの位置となる指示位置として、指先位置を決定する。ステレオカメラ208で撮像されたRGB画像は、RAM201に一時保存され、CPU200に適宜読み出されて処理される。なお、RGB画像は、ストレージ207に蓄積されてもよい。   The information processing apparatus 100 detects a hand region from the RGB image captured by the stereo camera 208, and determines a fingertip position as an instruction position that is a pointer position. The RGB image captured by the stereo camera 208 is temporarily stored in the RAM 201 and is appropriately read out and processed by the CPU 200. The RGB image may be accumulated in the storage 207.

このような構成の情報処理装置100は、画像取得部300、領域検出部301、距離取得部302、指示領域検出部303、指先位置決定部304、表示制御部305、データ読出部306、及び記憶部307として機能する。これらの機能は、CPU200が、コンピュータプログラムを実行することで実現される。また例えば、これらの機能は、少なくとも一部がハードウェアにより実現されてもよい。   The information processing apparatus 100 having such a configuration includes an image acquisition unit 300, a region detection unit 301, a distance acquisition unit 302, an instruction region detection unit 303, a fingertip position determination unit 304, a display control unit 305, a data reading unit 306, and a storage. It functions as the unit 307. These functions are realized by the CPU 200 executing a computer program. For example, at least a part of these functions may be realized by hardware.

画像取得部300は、ステレオカメラ208から入力される左右のRGB画像(RGBステレオ画像)を所定の時間間隔で連続して取得し、RAM201に随時保存する。RGBステレオ画像は、2つの視点から撮像された2つのRGB画像から構成される。2つのRGB画像間にはズレ(視差)があり、それぞれ右目と左目に対応付けられる。保存されたRGBステレオ画像は、情報処理装置100により順次処理される。本実施形態では、画像取得部300がRGBステレオ画像を取得する周期が、ステレオカメラ208が撮像する映像のフレームレートに一致するものとする。ただし、フレームレートに限らない所定時間を画像取得の周期として設定することも可能である。本実施形態では、左目に対応付けられたRGB画像をマスター画像、右目に対応づけられたRGB画像をスレーブ画像として処理するがこの限りではない。   The image acquisition unit 300 continuously acquires right and left RGB images (RGB stereo images) input from the stereo camera 208 at predetermined time intervals and stores them in the RAM 201 as needed. The RGB stereo image is composed of two RGB images captured from two viewpoints. There is a shift (parallax) between the two RGB images, which are associated with the right eye and the left eye, respectively. The stored RGB stereo image is sequentially processed by the information processing apparatus 100. In the present embodiment, it is assumed that the period at which the image acquisition unit 300 acquires RGB stereo images matches the frame rate of the video captured by the stereo camera 208. However, it is also possible to set a predetermined time not limited to the frame rate as an image acquisition cycle. In this embodiment, the RGB image associated with the left eye is processed as a master image, and the RGB image associated with the right eye is processed as a slave image, but this is not restrictive.

領域検出部301は、RAM201に保存されるRGBステレオ画像の肌色情報を利用することで、肌色領域を検出する。肌色領域は、認識対象であるユーザ106の手102の画像の領域を検出するための領域となる。領域検出部301は、検出した肌色領域をRAM201に保存する。   The area detection unit 301 detects the skin color area by using the skin color information of the RGB stereo image stored in the RAM 201. The skin color area is an area for detecting an image area of the hand 102 of the user 106 that is a recognition target. The area detection unit 301 stores the detected skin color area in the RAM 201.

距離取得部302は、RAM201に保存される肌色領域の情報に基づいて、肌色領域の各画素のHMD101からの距離(深さ)を算出することにより取得する。距離取得部302は、ステレオ画像を構成する2つのRGB画像(マスター画像及びスレーブ画像)の対応点を探索し、視差に基づいて三角測量を用いて距離を算出する。ここで「対応点」とは、空間中のある一点を二つの視点で同時に撮影したときに、それぞれの視点で撮影した画像中に写った当該点のことであり、一般的に「ステレオ対応点」と呼ばれる。距離の算出方法の詳細は後述する。距離取得部302は、算出した各画素の距離を表す距離情報をRAM201に保存する。   The distance acquisition unit 302 acquires the distance (depth) from the HMD 101 of each pixel in the skin color area based on the information on the skin color area stored in the RAM 201. The distance acquisition unit 302 searches for corresponding points of the two RGB images (master image and slave image) constituting the stereo image, and calculates the distance using triangulation based on the parallax. Here, a “corresponding point” is a point that appears in an image captured from each viewpoint when a point in the space is simultaneously captured from two viewpoints. Called. Details of the distance calculation method will be described later. The distance acquisition unit 302 stores distance information representing the calculated distance of each pixel in the RAM 201.

本実施形態では、距離取得のためにRGB画像を撮像するステレオカメラ208を用いたが、必ずしも可視画像である必要はなく、赤外ステレオカメラにより撮像した赤外線ステレオ画像を用いても距離取得を行ってもよい。またステレオカメラ208ではなく、距離画像センサを用いることによって距離取得を行ってもよい。   In this embodiment, the stereo camera 208 that captures an RGB image is used for distance acquisition. However, the stereo camera 208 is not necessarily a visible image, and distance acquisition is performed using an infrared stereo image captured by an infrared stereo camera. May be. Further, the distance acquisition may be performed by using a distance image sensor instead of the stereo camera 208.

指示領域検出部303は、RAM201に保存されるマスター画像の肌色領域及び距離情報に基づいて、HMD101からの距離が20[cm]〜70[cm]の範囲にある肌色領域を手領域として検出する。「手領域」は、マスター画像中のユーザの手の画像の領域である。指示領域検出部303は、検出した手領域をラベリングしてRAM201に保存する。本実施形態で手領域を「距離が20[cm]〜70[cm]の範囲にある肌色領域」としたのは、手全体がステレオカメラ208に映る範囲、かつ人の手が届く範囲を考慮した結果である。距離が20[cm]より近い場合、撮像されるステレオ画像は肌色領域ばかりとなってしまい、手かどうかの判断が難しくなる。また人の手が届く範囲(ユーザ106の手102が写る範囲)は70[cm]以下である場合が多く、逆に70[cm]以上にしてしまうと、背景の肌色がノイズとなってしまう可能性が高くなる。そのために上記の範囲のHMD101からの距離を手領域の検出基準とした。これは一例であり、上記の問題が生じ無い場合には、手領域とする肌色領域を20[cm]〜70[cm]以外に設定してもよい。   The instruction area detection unit 303 detects a skin color area whose distance from the HMD 101 is in a range of 20 [cm] to 70 [cm] as a hand area based on the skin color area and distance information of the master image stored in the RAM 201. . The “hand region” is a region of the user's hand image in the master image. The instruction area detection unit 303 labels the detected hand area and stores it in the RAM 201. In the present embodiment, the hand region is defined as “skin color region whose distance is in the range of 20 [cm] to 70 [cm]” in consideration of the range in which the entire hand is reflected in the stereo camera 208 and the range in which human hands can reach. It is the result. When the distance is shorter than 20 [cm], the captured stereo image is only a skin color region, and it is difficult to determine whether it is a hand. Also, the range that human hands can reach (the range in which the hand 102 of the user 106 is shown) is often 70 [cm] or less, and conversely, if it is 70 [cm] or more, the skin color of the background becomes noise. The possibility increases. For this purpose, the distance from the HMD 101 in the above range is used as a detection criterion for the hand region. This is an example, and when the above-described problem does not occur, the skin color area as the hand area may be set to other than 20 [cm] to 70 [cm].

指先位置決定部304は、指示領域検出部303によってラベリングされた手領域と、距離取得部302によって取得された距離情報とから指先位置を決定し、指先位置を表す情報をRAM201に保存する。指先位置決定処理の詳細は後述する。
上記の通り、本実施形態では指先位置(指示位置)をポインタ107の表示位置としてユーザ106に提示する。指先位置(指示位置)は、手領域に含まれる画素の中でHMD101から最も遠い距離情報を持つ画素に対応する実空間上の位置である。例えば、ステレオ画像中(正確にはマスター画像)の画素(m、n)が最もHMD101から遠い場合、画素(m、n)に対応するHMD座標系での指先位置は(hx、hy、hz)であり、実空間上の指先位置は(x、y、z)となる。図1に示す各座標系は適切にキャリブレーションされているために、画像中の点(m、n)、HMD座標系の点(hx、hy、hz)、及び実空間上の点(x、y、z)は、変換式を用いて相互に変換可能である。
The fingertip position determination unit 304 determines the fingertip position from the hand region labeled by the instruction region detection unit 303 and the distance information acquired by the distance acquisition unit 302 and stores information representing the fingertip position in the RAM 201. Details of the fingertip position determination process will be described later.
As described above, in this embodiment, the fingertip position (instructed position) is presented to the user 106 as the display position of the pointer 107. The fingertip position (instructed position) is a position in real space corresponding to a pixel having distance information farthest from the HMD 101 among the pixels included in the hand region. For example, when the pixel (m, n) in the stereo image (more precisely, the master image) is farthest from the HMD 101, the fingertip position in the HMD coordinate system corresponding to the pixel (m, n) is (hx, hy, hz). The fingertip position in the real space is (x, y, z). Since each coordinate system shown in FIG. 1 is appropriately calibrated, a point (m, n) in the image, a point (hx, hy, hz) in the HMD coordinate system, and a point (x, y, z) can be converted into each other using a conversion formula.

表示制御部305は、RAM201に保存されている指先位置を表す情報に応じてポインタ107を生成し、HMD101に出力する。これによりHMD101の表示領域104には、ステレオカメラ208で撮像された画像に加えて、ポインタ107が重畳表示される。
ユーザ106は、ポインタ107を仮想オブジェクト103a、103bの位置に移動させることで、仮想オブジェクト103a、103bのフォーカスや、選択が可能である。このとき情報処理装置100では、ポインタ107の3次元座標と、仮想オブジェクト103a、103bの3次元座標とを利用してヒット判定を行う。ヒット判定とは、仮想オブジェクト103a、103bとポインタ107とが接触したか否かを判定することである。
The display control unit 305 generates the pointer 107 according to the information indicating the fingertip position stored in the RAM 201 and outputs the pointer 107 to the HMD 101. As a result, the pointer 107 is superimposed and displayed in the display area 104 of the HMD 101 in addition to the image captured by the stereo camera 208.
The user 106 can focus or select the virtual objects 103a and 103b by moving the pointer 107 to the positions of the virtual objects 103a and 103b. At this time, the information processing apparatus 100 performs hit determination using the three-dimensional coordinates of the pointer 107 and the three-dimensional coordinates of the virtual objects 103a and 103b. The hit determination is to determine whether or not the virtual objects 103a and 103b and the pointer 107 are in contact with each other.

データ読出部306は、記憶部307から仮想オブジェクト103a、103bを表すデータを読み出し、表示制御部305に送る。表示制御部305は、このデータに基づいて仮想オブジェクト103a、103bを生成してHMD101に出力する。記憶部307はストレージ207により実現される。これにより情報処理装置100で生成された仮想オブジェクト103a、103bがHMD101の表示領域104上に表示される。ユーザ106は、この状態から手102を用いて仮想オブジェクト103a、103bに対するジェスチャ操作を開始することになる。   The data reading unit 306 reads data representing the virtual objects 103 a and 103 b from the storage unit 307 and sends the data to the display control unit 305. The display control unit 305 generates virtual objects 103 a and 103 b based on this data and outputs them to the HMD 101. The storage unit 307 is realized by the storage 207. Thereby, the virtual objects 103 a and 103 b generated by the information processing apparatus 100 are displayed on the display area 104 of the HMD 101. From this state, the user 106 uses the hand 102 to start a gesture operation on the virtual objects 103a and 103b.

(処理)
図3は、指先位置決定処理の説明図である。ステレオ画像から取得される距離情報にはノイズが含まれているために、HMD101から最も遠い1つの画素の3次元座標のみで指先位置を決定してしまうと、決定した指先位置に対する信頼性が低くなってしまう。そのために、従来、HMD101から距離の遠い順に所定の個数の画素を選定し、各画素の3次元座標を平均することで指先位置が決定される。
(processing)
FIG. 3 is an explanatory diagram of fingertip position determination processing. Since the distance information acquired from the stereo image includes noise, if the fingertip position is determined only with the three-dimensional coordinates of one pixel farthest from the HMD 101, the reliability of the determined fingertip position is low. turn into. Therefore, conventionally, a predetermined number of pixels are selected in order of increasing distance from the HMD 101, and the fingertip position is determined by averaging the three-dimensional coordinates of each pixel.

例えば時刻tにステレオカメラ208で撮像された画像(フレームF)から従来の方法で指先位置を決定する場合、以下のようになる。
情報処理装置100は、まず、フレームFの画像から、手領域500a及び手領域500a内の複数個の画素400aを選定する。情報処理装置100は、複数個の画素400aの位置の平均から指先位置401を決定する。このように任意のフレームにおいて手領域500aから複数の画素400aを選定して平均(空間的な平均)することで指先位置401を決定することができる。時刻tから所定時間後のフレームF+1の画像から手領域500b及び手領域500b内の複数個の画素400bを選定すると、情報処理装置100は指先位置402を決定する。指先位置402は、フレームFから得られた指先位置401に対して連続しない、飛び飛びの位置となってしまう。
For example, when the fingertip position is determined by a conventional method from an image (frame F) captured by the stereo camera 208 at time t, the following is performed.
The information processing apparatus 100 first selects the hand region 500a and the plurality of pixels 400a in the hand region 500a from the image of the frame F. The information processing apparatus 100 determines the fingertip position 401 from the average of the positions of the plurality of pixels 400a. In this manner, the fingertip position 401 can be determined by selecting and averaging a plurality of pixels 400a from the hand region 500a in an arbitrary frame (spatial average). When the hand region 500b and a plurality of pixels 400b in the hand region 500b are selected from the image of the frame F + 1 after a predetermined time from time t, the information processing apparatus 100 determines the fingertip position 402. The fingertip position 402 becomes a jump position that is not continuous with the fingertip position 401 obtained from the frame F.

この原因はRGBステレオ画像から取得される距離情報に含まれるノイズである。ノイズが発生することで、フレーム毎に距離が安定的に取得できるとは限らない。そのために、選定される複数個の画素が安定せず、その結果、指先位置が不安定になってしまう可能性が高くなる。本実施形態では、安定的に指先位置を決定するために、空間的な平均だけではなく時間的な平均を行う。時間的な平均を行う一般的な方法としては、時刻tより以前の画像に基づいて決定された過去の指先位置を保存しておき、その平均から現在の画像による指先位置を決定する方法等がある。しかし、情報処理装置100に入力されるRGBステレオ画像のフレームレートが十分でない場合、操作に対する応答速度(レスポンス)が低下してしまう。   This is caused by noise included in the distance information acquired from the RGB stereo image. The generation of noise does not always enable the distance to be acquired stably for each frame. Therefore, a plurality of selected pixels are not stable, and as a result, there is a high possibility that the fingertip position becomes unstable. In this embodiment, in order to determine the fingertip position stably, not only a spatial average but also a temporal average is performed. As a general method of performing temporal averaging, there is a method of storing a past fingertip position determined based on an image before time t and determining a fingertip position based on the current image from the average. is there. However, when the frame rate of the RGB stereo image input to the information processing apparatus 100 is not sufficient, the response speed (response) to the operation is reduced.

本実施形態の情報処理装置100は、このように不安定な指先位置を、レスポンスの低下を抑制して安定的に決定する。情報処理装置100は、時刻tから所定時間後のフレームF+1’の画像から手領域500b及び手領域500b内の複数個の画素400bを選定し、複数個の画素400b及び時刻tのときの指先位置401に基づいて、現在の指先位置403を決定する。図4は、情報処理装置100による、このような指先位置決定処理を表すフローチャートである。   The information processing apparatus 100 according to the present embodiment stably determines such an unstable fingertip position while suppressing a decrease in response. The information processing apparatus 100 selects the hand region 500b and the plurality of pixels 400b in the hand region 500b from the image of the frame F + 1 ′ after a predetermined time from the time t, and the plurality of pixels 400b and the fingertip position at the time t Based on 401, the current fingertip position 403 is determined. FIG. 4 is a flowchart showing such fingertip position determination processing by the information processing apparatus 100.

データ読出部306は、記憶部307から仮想オブジェクトのデータを取得する。表示制御部305は、データ読出部306が取得した仮想オブジェクトのデータに基づいて仮想オブジェクトを生成し、HMD101に出力する(S100)。HMD101は、表示制御部305から取得した仮想オブジェクトを、ステレオカメラ208で撮像した画像に重畳表示する。HMD101は、ステレオカメラ208で撮像したRGBステレオ画像を所定の時間間隔、例えばフレームレートに応じて情報処理装置100に送信する。
画像取得部300は、HMD101からRGBステレオ画像を所定の時間間隔で連続して取得する(S101)。画像取得部300は、取得したRGBステレオ画像をフレーム毎にRAM201に保存する。
The data reading unit 306 acquires virtual object data from the storage unit 307. The display control unit 305 generates a virtual object based on the virtual object data acquired by the data reading unit 306, and outputs the virtual object to the HMD 101 (S100). The HMD 101 superimposes and displays the virtual object acquired from the display control unit 305 on the image captured by the stereo camera 208. The HMD 101 transmits an RGB stereo image captured by the stereo camera 208 to the information processing apparatus 100 according to a predetermined time interval, for example, a frame rate.
The image acquisition unit 300 continuously acquires RGB stereo images from the HMD 101 at predetermined time intervals (S101). The image acquisition unit 300 stores the acquired RGB stereo image in the RAM 201 for each frame.

領域検出部301は、RAM201に保存されたRGBステレオ画像を解析して、マスター画像及びスレーブ画像中の肌色領域の有無を検出する(S102)。肌色領域を検出しない場合(S102:N)、表示制御部305は、ポインタの表示制御を行う(S110)。この場合、RGBステレオ画像中に肌色領域が無い、すなわち指先が撮像されていない。   The region detection unit 301 analyzes the RGB stereo image stored in the RAM 201 and detects the presence or absence of a skin color region in the master image and the slave image (S102). When the skin color area is not detected (S102: N), the display control unit 305 performs pointer display control (S110). In this case, there is no skin color area in the RGB stereo image, that is, the fingertip is not imaged.

肌色領域を検出した場合(S102:Y)、領域検出部301は、検出した肌色領域を表すデータをRAM201に保存する。距離取得部302は、RAM201に保存されたRGBステレオ画像の肌色領域を解析して、マスター画像中の肌色領域内の各画素のHMD101からの距離を取得する(S103)。例えば、距離取得部302は、マスター画像中の肌色領域の画素(m、n)の距離を取得する場合、スレーブ画像から画素(m、n)に対応するステレオ対応点(m1、n1)を探索する。距離取得部302は、探索したステレオ対応点と、マスター画像及びスレーブ画像の視差から三角測量によってHMD101から画素(m、n)までの距離を算出することで取得する。距離取得部302は、マスター画像中の全ての肌色領域の画素に対してこのような距離取得をおこない、その結果をRAM201に保存する。   When the skin color area is detected (S102: Y), the area detection unit 301 stores data representing the detected skin color area in the RAM 201. The distance acquisition unit 302 analyzes the skin color area of the RGB stereo image stored in the RAM 201, and acquires the distance from the HMD 101 of each pixel in the skin color area in the master image (S103). For example, when acquiring the distance of the skin color region pixel (m, n) in the master image, the distance acquisition unit 302 searches for the stereo corresponding point (m1, n1) corresponding to the pixel (m, n) from the slave image. To do. The distance acquisition unit 302 acquires the distance from the HMD 101 to the pixel (m, n) by triangulation from the searched stereo correspondence point and the parallax between the master image and the slave image. The distance acquisition unit 302 performs such distance acquisition for all skin color region pixels in the master image, and stores the result in the RAM 201.

指示領域検出部303は、RAM201に保存されるマスター画像の肌色領域及び距離情報に基づいて、HMD101からの距離が20[cm]〜70[cm]の範囲にある肌領域を手領域として検出する(S104)。指示領域検出部303は、検出した手領域を、手領域をラベリングしたラベル情報とともにRAM201に保存する。   The instruction area detection unit 303 detects a skin area whose distance from the HMD 101 is in the range of 20 [cm] to 70 [cm] as a hand area based on the skin color area and distance information of the master image stored in the RAM 201. (S104). The designated area detection unit 303 stores the detected hand area in the RAM 201 together with label information obtained by labeling the hand area.

指先位置決定部304は、RAM201に保存される手領域のラベル情報及び距離情報に基づいて、HMD101からの距離が遠い順に、N個の画素を選定する(S105)。ここでNは2以上の整数である。指先位置決定部304は、選定したN個の画素の各々に対応する3次元空間内の3次元座標を変換式から算出して、RAM201に算出結果を保存する。図3の例では、N個の画素400bの各々の3次元座標(p1〜pN)がRAM201に保存される。   The fingertip position determination unit 304 selects N pixels in order of increasing distance from the HMD 101 based on the label information and distance information of the hand area stored in the RAM 201 (S105). Here, N is an integer of 2 or more. The fingertip position determination unit 304 calculates three-dimensional coordinates in the three-dimensional space corresponding to each of the selected N pixels from the conversion formula, and stores the calculation result in the RAM 201. In the example of FIG. 3, the three-dimensional coordinates (p1 to pN) of each of the N pixels 400b are stored in the RAM 201.

指先位置決定部304は、RAM201に前フレームの指先位置Pが保存されているか否かを判断する(S106)。前フレームの指先位置Pが保存されていない場合(S106:N)、指先位置決定部304は、RAM201に保存されているN個の3次元座標(p1〜pN)を平均して指先位置を決定し、RAM201に保存する(S107)。   The fingertip position determining unit 304 determines whether or not the fingertip position P of the previous frame is stored in the RAM 201 (S106). When the fingertip position P of the previous frame is not stored (S106: N), the fingertip position determination unit 304 determines the fingertip position by averaging N three-dimensional coordinates (p1 to pN) stored in the RAM 201. And stored in the RAM 201 (S107).

前フレームの指先位置Pが保存されている場合(S106:Y)、指先位置決定部304は、RAM201に保存されているN個の3次元座標(p1〜pN)の各々に対して、指先位置Pとの距離(d1〜dN)を取得し、RAM201に保存する(S108)。例えば、図3のフレームF+1’の画像の例では、指先位置決定部304は、前フレームの指先位置401に対する、N個の画素400bの各々の3次元座標(p1〜pN)との距離(d1〜dN)を取得する。   When the fingertip position P of the previous frame is stored (S106: Y), the fingertip position determination unit 304 determines the fingertip position for each of the N three-dimensional coordinates (p1 to pN) stored in the RAM 201. The distance (d1 to dN) with P is acquired and stored in the RAM 201 (S108). For example, in the example of the image of frame F + 1 ′ in FIG. 3, the fingertip position determination unit 304 determines the distance (d1) from the three-dimensional coordinates (p1 to pN) of each of the N pixels 400b relative to the fingertip position 401 of the previous frame. ~ DN).

指先位置決定部304は、選定した各画素の3次元座標(p1〜pN)の各々に対して、対応する距離(d1〜dN)を考慮した重み付けを行う。指先位置決定部304は、重み付けされたN個の3次元座標を平均することで指先位置403(図3参照)を決定し、RAM201に保存する(S109)。
具体的な指先位置の決定処理について説明する。説明を簡単にするため、N=2とする。選定された2個の3次元座標P1(x1、y1、z1)、P2(x2、y2、z2)、前フレームの指先位置Pとの距離d1、d2とする。このとき、決定される指先位置の3次元座標x、y、zはそれぞれ以下のようになる。
x=(x1/d1+x2/d2)/(1/d1+1/d2)
y=(y1/d1+y2/d2)/(1/d1+1/d2)
z=(z1/d1+z2/d2)/(1/d1+1/d2)
N>2の場合にも同様に取得することで、時刻t
における最終的な指先位置を決定することができる。
The fingertip position determination unit 304 weights each selected three-dimensional coordinate (p1 to pN) in consideration of the corresponding distance (d1 to dN). The fingertip position determining unit 304 determines the fingertip position 403 (see FIG. 3) by averaging the weighted N three-dimensional coordinates, and stores the determined fingertip position 403 in the RAM 201 (S109).
A specific fingertip position determination process will be described. For simplicity of explanation, N = 2. The two selected three-dimensional coordinates P1 (x1, y1, z1), P2 (x2, y2, z2), and distances d1 and d2 from the fingertip position P of the previous frame are used. At this time, the determined three-dimensional coordinates x, y, z of the fingertip position are as follows.
x = (x1 / d1 + x2 / d2) / (1 / d1 + 1 / d2)
y = (y1 / d1 + y2 / d2) / (1 / d1 + 1 / d2)
z = (z1 / d1 + z2 / d2) / (1 / d1 + 1 / d2)
By obtaining the same in the case of N> 2, the time t
The final fingertip position at can be determined.

図3の例では、前フレームであるフレームFの画像から指先位置401が決定し、現在のフレームであるフレームF+1’の画像から指先位置403が決定する。指先位置401及び指先位置403は、いずれも手領域500a、500bの中指の先端であり、略同位置である。これに対してN個の3次元座標を単に平均した場合は指先位置402が決定する。指先位置401が手領域500aの中指の先端であるのに対し、指先位置402が手領域500bの中指の中程に決定されて、手領域内における位置が移動している。このように手を動かしていない場合でも、RGBステレオ画像の距離取得に起因するノイズの影響で、3次元座標を単に平均するだけでは指先位置がブレてしまう可能性が高い。しかし、本実施例形態の指先位置の決定処理を用いるとブレを小さくし、安定して指先位置を決定することが可能となる。   In the example of FIG. 3, the fingertip position 401 is determined from the image of the frame F that is the previous frame, and the fingertip position 403 is determined from the image of the frame F + 1 ′ that is the current frame. The fingertip position 401 and the fingertip position 403 are both the tips of the middle fingers of the hand areas 500a and 500b, and are substantially the same position. On the other hand, when N three-dimensional coordinates are simply averaged, the fingertip position 402 is determined. While the fingertip position 401 is the tip of the middle finger of the hand area 500a, the fingertip position 402 is determined in the middle of the middle finger of the hand area 500b, and the position in the hand area is moving. Even when the hand is not moved in this way, the fingertip position is likely to be blurred simply by averaging the three-dimensional coordinates due to the influence of noise resulting from the distance acquisition of the RGB stereo image. However, using the fingertip position determination process according to the present embodiment makes it possible to reduce blurring and determine the fingertip position stably.

表示制御部305は、RAM201に指先位置が保存されている場合、HMD101に、指先位置にポインタ107を表示するように指示する(S110)。情報処理装置100は、ポインタをHMD101に表示させると、システムを終了するか否かを判断する(S111)。情報処理装置100は、本実施形態では、物理ボタンやGUIの操作によりシステムの終了指示が入力された場合、もしくは認識対象が検出されないまま所定時間が経過した場合にシステムを終了すると判断する。システムを終了しない場合(S111:N)、情報処理装置100は、S101の処理に戻り、HMD101から次のフレームのRGBステレオ画像を取得する。システムを終了する場合(S111:Y)、情報処理装置100はすべての処理を終了する。   When the fingertip position is stored in the RAM 201, the display control unit 305 instructs the HMD 101 to display the pointer 107 at the fingertip position (S110). When the information processing apparatus 100 displays the pointer on the HMD 101, the information processing apparatus 100 determines whether to end the system (S111). In this embodiment, the information processing apparatus 100 determines to end the system when an instruction to end the system is input by an operation of a physical button or GUI, or when a predetermined time elapses without detecting a recognition target. When the system is not terminated (S111: N), the information processing apparatus 100 returns to the process of S101 and acquires the RGB stereo image of the next frame from the HMD 101. When ending the system (S111: Y), the information processing apparatus 100 ends all the processes.

以上のように本実施形態の情報処理装置100は、重み付けされたN個の画素の3次元座標の平均により指先位置(指示位置)を決定する。これによれば、ステレオ画像の距離取得に起因するノイズ(時間的な変動)の影響がある場合であっても、指先位置(指示位置)を安定的に決定することができる。その結果、指先位置(指示位置)をジェスチャ操作のポインタとして表示する場合、ポインタの表示位置のブレが抑制されるためにユーザの操作性が向上する。また、指先位置(指示位置)をヒット判定に利用する場合においても、ブレが抑制されるために安定したヒット判定を行うことが可能となる。   As described above, the information processing apparatus 100 according to the present embodiment determines the fingertip position (instructed position) based on the average of the three-dimensional coordinates of the weighted N pixels. According to this, even when there is an influence of noise (temporal fluctuation) due to distance acquisition of a stereo image, the fingertip position (instructed position) can be determined stably. As a result, when the fingertip position (indicated position) is displayed as a gesture operation pointer, blurring of the display position of the pointer is suppressed, so that the operability for the user is improved. Further, even when the fingertip position (instructed position) is used for hit determination, blurring is suppressed, so that stable hit determination can be performed.

また本実施形態では、重み付けされたN個の画素の3次元座標の平均の位置、及び過去に決定した複数フレームの指先位置を保存しておき、その平均の位置を指先位置に決定してもよい。十分にフレームレートの高いステレオ画像が取得できる環境であれば、複数フレームの指先位置を保存することによる操作応答性への影響を無視できる。
また、N個の画素の3次元座標(p1〜pN)を単純に平均して求めた指先位置Psと直前のフレームの指先位置Pに基づいて、指先位置Psと指先位置Pとの中間位置を新たな指先位置に決定してもよい。この場合、本実施形態で説明した方法と比較して計算量を少なくすることができる。
In the present embodiment, the average position of the three-dimensional coordinates of the weighted N pixels and the fingertip positions of a plurality of frames determined in the past are stored, and the average position may be determined as the fingertip position. Good. In an environment where a sufficiently high frame rate stereo image can be acquired, the influence on the operation responsiveness by storing the fingertip positions of a plurality of frames can be ignored.
Further, based on the fingertip position Ps obtained by simply averaging the three-dimensional coordinates (p1 to pN) of N pixels and the fingertip position P of the immediately preceding frame, an intermediate position between the fingertip position Ps and the fingertip position P is determined. A new fingertip position may be determined. In this case, the amount of calculation can be reduced as compared with the method described in the present embodiment.

[変形例1]
上記の指先位置の決定処理では、最低でも2フレームのRGBステレオ画像を必要とする。しかし、フレームレートが極端に低い場合、指先位置の決定に時間がかかり、操作の応答性が低下してしまう。変形例1では、可能な限り複数のフレームを用いないで指先位置を決定する。情報処理装置100のハードウェア構成、機能ブロックは、図2と同様である。ただし指示領域検出部303は、手の形状の認識も行う。
[Modification 1]
The fingertip position determination process requires at least two frames of RGB stereo images. However, when the frame rate is extremely low, it takes time to determine the fingertip position, and the responsiveness of the operation is lowered. In the first modification, the fingertip position is determined without using a plurality of frames as much as possible. The hardware configuration and functional blocks of the information processing apparatus 100 are the same as those in FIG. However, the indication area detection unit 303 also recognizes the shape of the hand.

図5は、手の形状毎の指先位置(ポインタの表示位置)の例示図である。図5(a)、(b)は、同じ手の形状であり、図5(b)の方が傾いている。図5(a)、(b)では、手が開かれており、指間が閉じられている。図5(c)は、人差し指を立てた指差し形状である。図5(d)は、人差し指と中指が立てられた形状である。図5(e)は、手が開かれており、指間が開かれている。   FIG. 5 is an illustration of fingertip positions (pointer display positions) for each hand shape. 5A and 5B show the same hand shape, and FIG. 5B is inclined. 5 (a) and 5 (b), the hand is open and the gap between the fingers is closed. FIG. 5C shows a pointing shape with an index finger raised. FIG. 5D shows a shape in which the index finger and the middle finger are raised. In FIG. 5E, the hand is opened and the finger is opened.

図5(a)、(b)では、指示領域検出部303が検出する手領域600、601の形状が同じである。しかし、手がブレるなどして短い時間間隔でランダムに傾く場合、指先位置が、中指の先端である指先位置700から人差し指の先端である指先位置701に飛び飛びに移動する。図5(d)、(e)のような手の形状603、604では、手がブレることで指先位置703a、703b、あるいは指先位置704a〜704eのいずれかに頻繁に入れ替わってしまう。   5A and 5B, the shapes of the hand areas 600 and 601 detected by the instruction area detection unit 303 are the same. However, when the hand is shaken or the like and tilts randomly at short time intervals, the fingertip position jumps from the fingertip position 700 that is the tip of the middle finger to the fingertip position 701 that is the tip of the index finger. In the hand shapes 603 and 604 as shown in FIGS. 5D and 5E, when the hand is shaken, the fingertip positions 703a and 703b or the fingertip positions 704a to 704e are frequently switched.

図5(c)のような手の形状では、他の手の形状と比較してステレオ画像の距離取得に起因するノイズ(時間的な変動)の影響を受けにくい。これは、ステレオ画像から手領域602内の各画素の距離を算出する際に、指先候補となる画素を選定する領域(指先側の領域)の幅(大きさ)が、他の形状と比べて小さいため、選定するN個の画素の位置の範囲が拡散しないためである。この場合、N個の画素の位置の3次元座標を単純に平均して指先位置702を決定しても、指先位置が飛び飛びの位置になる可能性が低い。つまり、図5(c)のように手領域602の形状が指差し形状である場合、指先位置702を安定的に決定することができる。   The shape of the hand as shown in FIG. 5C is less affected by noise (temporal fluctuation) resulting from the acquisition of the distance of the stereo image compared to the shape of the other hand. This is because the width (size) of a region (a region on the fingertip side) for selecting a pixel as a fingertip candidate when calculating the distance of each pixel in the hand region 602 from a stereo image is different from other shapes. This is because the range of the positions of the selected N pixels is not diffused because it is small. In this case, even if the fingertip position 702 is determined by simply averaging the three-dimensional coordinates of the N pixel positions, it is unlikely that the fingertip position will be a jump position. That is, when the shape of the hand region 602 is a pointing shape as shown in FIG. 5C, the fingertip position 702 can be determined stably.

情報処理装置100は、図4と同様の指先位置の決定処理を行う。ただし、S104の処理で手領域を検出する際に、指示領域検出部303が手の形状も認識する。検出された手の形状が図5(c)の手領域602の形状の場合、指示領域検出部303はパターンマッチングを行うことで、検出された手領域の形状が指差し形状であると判定する。   The information processing apparatus 100 performs a fingertip position determination process similar to that in FIG. However, when the hand region is detected in the process of S104, the pointing region detection unit 303 also recognizes the shape of the hand. When the detected hand shape is the shape of the hand region 602 in FIG. 5C, the indication region detection unit 303 performs pattern matching to determine that the detected hand region shape is the pointing shape. .

指示領域検出部303が手の形状を指差し形状のような特定の形状であると判定した場合、指先位置決定部304は、前フレームの指先位置PがRAM201に保存されているか否かにかかわらず、S106の処理で指先位置Pを保存していないと判定する。そのために指先位置決定部304は、N個の画素の3次元座標を平均して指先位置を決定する。つまり、過去の指先位置にかかわらず、最新のフレーム画像(ステレオ画像)のみにより指先位置を決定することと同等になる。指示領域検出部303が手102の形状を指差し形状以外であると判定した場合の処理は、第1の実施形態と同様である。   When the pointing area detection unit 303 determines that the shape of the hand is a specific shape such as a pointing shape, the fingertip position determination unit 304 determines whether or not the fingertip position P of the previous frame is stored in the RAM 201. In step S106, it is determined that the fingertip position P is not stored. For this purpose, the fingertip position determination unit 304 determines the fingertip position by averaging the three-dimensional coordinates of the N pixels. That is, this is equivalent to determining the fingertip position only from the latest frame image (stereo image) regardless of the past fingertip position. The processing in the case where the instruction area detection unit 303 determines that the shape of the hand 102 is other than the pointing shape is the same as that in the first embodiment.

以上のように情報処理装置100は、手の形状が指差し形状のような特定の形状である場合に、最新のフレーム画像(ステレオ画像)のみで指先位置を決定する。そのために、常に2つのフレーム画像から指先位置を決定する場合と比較して、応答性を改善できる。   As described above, when the shape of the hand is a specific shape such as a pointing hand, the information processing apparatus 100 determines the fingertip position only with the latest frame image (stereo image). Therefore, responsiveness can be improved as compared with the case where the fingertip position is always determined from two frame images.

[変形例2]
変形例2では、図5(a)、(b)、(d)、(e)のように手102のブレにより指先位置が頻繁に入れ替わる場合、以下のような処理を行うことで、安定した指先位置の決定を行えるようにする。情報処理装置100のハードウェア構成、機能ブロックは、指先位置決定部304による指先位置決定処理を除いて、図2に示したものとほぼ同様である。同様な構成についての説明は省略する。
[Modification 2]
In the second modification, when the fingertip position is frequently changed due to shaking of the hand 102 as shown in FIGS. 5A, 5B, 5D, and 5E, the following processing is performed to stabilize the position. Allows determination of fingertip position. The hardware configuration and functional blocks of the information processing apparatus 100 are substantially the same as those shown in FIG. 2 except for the fingertip position determination process by the fingertip position determination unit 304. A description of the same configuration is omitted.

変形例2における指先位置決定処理の効果を分かりやすく説明するために、手の形状が図5(d)の場合について説明する。図6は、このような手の形状による指先位置決定処理の説明図である。   In order to easily understand the effect of the fingertip position determination process in the second modification, the case where the shape of the hand is FIG. 5D will be described. FIG. 6 is an explanatory diagram of the fingertip position determination process based on such a hand shape.

変形例2では、図3で説明した場合よりも選定する画素の数を大きくする。これは、より多くの画素の3次元座標の平均から指先位置を決定すると、特定の画素の位置(3次元座標)への依存度が減少するからである。しかし、単純に選定する画素の数を大きくすると、指先位置は手領域の中央に寄ってくる傾向にある。例えば図6(a)で示すように、検出した手領域800、選定するN個の画素900aの場合、手領域800の中央(重心)に近い位置に指先位置901が決定される。この重心位置に偏った指先位置901をポインタの位置としてしまうと操作性が低下する。操作の際、手領域800(手102)に、仮想オブジェクトが隠れてしまい、ポインティングの位置精度が低下してしまうからである。つまりユーザ106に提示するポインタは、操作性の観点から、可能な限り手領域800の先端位置が望ましい。   In the second modification, the number of pixels to be selected is made larger than in the case described with reference to FIG. This is because if the fingertip position is determined from the average of the three-dimensional coordinates of more pixels, the dependency on the position (three-dimensional coordinates) of a specific pixel decreases. However, if the number of pixels to be simply selected is increased, the fingertip position tends to approach the center of the hand region. For example, as shown in FIG. 6A, in the case of the detected hand region 800 and the selected N pixels 900a, the fingertip position 901 is determined at a position close to the center (center of gravity) of the hand region 800. If the fingertip position 901 that is biased toward the position of the center of gravity is used as the position of the pointer, the operability is degraded. This is because the virtual object is hidden in the hand region 800 (hand 102) during the operation, and the pointing position accuracy is lowered. In other words, the pointer presented to the user 106 is desirably the tip position of the hand region 800 as much as possible from the viewpoint of operability.

変形例2では、指先位置のx、y座標をN個の画素の3次元座標から取得し、指先位置のz座標をM(<N)個の画素の3次元座標から取得する。各3次元座標の取得方法は上記の通りである。各3次元座標を重み付けして平均することで指先位置を決定する。上記の例とは、x、y座標がN個の3次元座標を用い、z座標がNより小さいM個の3次元座標を用いて取得される点で異なる。指先位置を決定するための画素は、HMD101からの距離が遠い順に選定される。この手法は、指先位置候補となる指先付近の画素のHMD101からの距離(深さ、z座標)が略同じであるために有効である。つまり、選定される画素の3次元座標のz座標に差異は少ないが、x、y座標は大きく異なっている可能性が高いと仮定できる。従って、x、y座標についてはより多くの画素の3次元座標を平均して取得し、z座標はx、yよりも少ない数の画素の3次元座標で平均して取得する。本実施形態の指先位置決定部304は、このようにして指先位置を決定する。   In the second modification, the x and y coordinates of the fingertip position are acquired from the three-dimensional coordinates of N pixels, and the z-coordinate of the fingertip position is acquired from the three-dimensional coordinates of M (<N) pixels. The method for obtaining each three-dimensional coordinate is as described above. The fingertip position is determined by weighting and averaging each three-dimensional coordinate. It differs from the above example in that the x and y coordinates are obtained using N three-dimensional coordinates and the z coordinates are obtained using M three-dimensional coordinates smaller than N. Pixels for determining the fingertip position are selected in order of increasing distance from the HMD 101. This method is effective because the distance (depth, z-coordinate) from the HMD 101 of the pixels near the fingertip serving as a fingertip position candidate is substantially the same. That is, it can be assumed that there is little difference in the z coordinate of the three-dimensional coordinates of the selected pixel, but there is a high possibility that the x and y coordinates are greatly different. Therefore, the x and y coordinates are obtained by averaging the three-dimensional coordinates of more pixels, and the z coordinate is obtained by averaging the three-dimensional coordinates of a smaller number of pixels than x and y. The fingertip position determination unit 304 of the present embodiment determines the fingertip position in this way.

図4のS105の処理では、指先位置決定部304は、x、y座標取得用にN個の画素を選定し、選定したN個の画素の中からさらに距離が遠い順にM(M<N)個の画素をz座標取得用に選定する。S108の処理では、指先位置決定部304は、N個の画素とM個の画素の3次元座標(p1〜pM〜pN)それぞれに対し、前フレームの指先位置Pとの距離(d1〜dM〜dN)を取得する。S109の処理では、指先位置決定部304は、x、y座標についてはN個の画素の3次元座標を重み付け平均して取得し、z座標についてはM個の画素の3次元座標を重み付け平均することによって取得する。つまり指先位置決定部304は、N個の画素に基づいて3次元座標のうちの2つの座標を決定し、M個の画素に基づいて3次元座標のうちの残りの1つの座標を決定する。これにより指先位置決定部304は、指先位置を決定する。   In the process of S105 in FIG. 4, the fingertip position determination unit 304 selects N pixels for x and y coordinate acquisition, and M (M <N) in order of increasing distance from the selected N pixels. Pixels are selected for z-coordinate acquisition. In the process of S108, the fingertip position determination unit 304 determines the distance (d1 to dM to the fingertip position P of the previous frame with respect to the three-dimensional coordinates (p1 to pM to pN) of N pixels and M pixels, respectively. dN). In the process of S109, the fingertip position determination unit 304 obtains the three-dimensional coordinates of the N pixels by weighted average for the x and y coordinates, and the weighted average of the three-dimensional coordinates of the M pixels for the z coordinate. Get by. That is, the fingertip position determination unit 304 determines two coordinates among the three-dimensional coordinates based on the N pixels, and determines the remaining one coordinate among the three-dimensional coordinates based on the M pixels. As a result, the fingertip position determination unit 304 determines the fingertip position.

図6(b)により、このような指先位置決定処理で決定した指先位置を説明する。手領域800、x、y座標用に選定された画素900a、z座標用に選定された画素900bの場合、指先位置決定部304は、指先位置902を決定する。図6(a)の指先位置901と比較して、指先位置902は手領域800の先端付近に近づいている。この方法で指先位置を決定する場合、指先位置が必ずしも手領域800内に決定されるとは限らない。しかし、操作性の観点からは、こちらの方が好ましく、操作性が向上する。   The fingertip position determined by such fingertip position determination processing will be described with reference to FIG. In the case of the hand region 800, the pixel 900a selected for the x and y coordinates, and the pixel 900b selected for the z coordinate, the fingertip position determining unit 304 determines the fingertip position 902. Compared with the fingertip position 901 in FIG. 6A, the fingertip position 902 is closer to the tip of the hand region 800. When the fingertip position is determined by this method, the fingertip position is not necessarily determined within the hand region 800. However, this is preferable from the viewpoint of operability, and operability is improved.

このように、手が傾いた場合や特定の形状になった場合であっても、指先位置(指示位置)を安定的に決定することができる。   As described above, even when the hand is tilted or has a specific shape, the fingertip position (instructed position) can be determined stably.

以上のような情報処理装置100により、指示位置に応じたポインタによるジェスチャ操作の操作性が改善でき、仮想オブジェクトへのヒット判定も正確に行えるようになる。   With the information processing apparatus 100 as described above, the operability of the gesture operation using the pointer according to the designated position can be improved, and the hit determination for the virtual object can be accurately performed.

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPU、MPU等)がプログラムを読み出して実行する処理である。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (16)

所定の撮像手段で撮像された画像を所定の時間間隔で連続して取得する画像取得手段と、
取得した前記画像から、ユーザが指示を行うための指示体の画像の領域を検出する指示領域検出手段と、
前記指示体の画像の領域内の各画素について、前記撮像手段からの距離を取得する距離取得手段と、
過去に取得した画像から決定した、前記指示体により指し示される位置である指示位置を保存する保存手段と、
前記保存手段に保存された前記指示位置及び前記距離に基づいて、現在の指示位置を決定する決定手段と、を備えることを特徴とする、
情報処理装置。
Image acquisition means for continuously acquiring images picked up by predetermined image pickup means at predetermined time intervals;
An instruction area detecting means for detecting an area of an image of an indicator for a user to give an instruction from the acquired image;
Distance acquisition means for acquiring the distance from the imaging means for each pixel in the area of the image of the indicator;
Storage means for storing an indicated position, which is a position indicated by the indicator, determined from an image acquired in the past;
Determining means for determining a current indicated position based on the indicated position and the distance stored in the storing means;
Information processing device.
前記決定手段は、前記距離が遠い順に所定の個数の画素を選定し、前記保存手段に保存された前記指示位置及び選定した各画素の位置に基づいて、前記現在の指示位置を決定することを特徴とする、
請求項1記載の情報処理装置。
The determining means selects a predetermined number of pixels in order of increasing distance, and determines the current indicated position based on the indicated position stored in the storing means and the position of each selected pixel. Features
The information processing apparatus according to claim 1.
前記決定手段は、前記選定した各画素の位置と、前記保存手段に保存された前記指示位置との距離に応じて、前記選定した各画素の位置に対して重み付けを行い、重み付けした前記選定した各画素の位置により前記現在の指示位置を決定することを特徴とする、
請求項2記載の情報処理装置。
The determining means weights the position of each selected pixel according to the distance between the position of each selected pixel and the indicated position stored in the storage means, and the selected the weighted selection The present indication position is determined according to the position of each pixel,
The information processing apparatus according to claim 2.
前記保存手段は、過去に取得した複数の画像から決定した、複数の前記指示位置を保存しており、
前記決定手段は、重み付けした前記選定した各画素の位置の平均の位置と、前記保存手段に保存された複数の前記指示位置との平均の位置を、前記現在の指示位置を決定することを特徴とする、
請求項3記載の情報処理装置。
The storage means stores a plurality of the indicated positions determined from a plurality of images acquired in the past,
The determining means determines the current indicated position based on an average position of the weighted average positions of the selected pixels and a plurality of the indicated positions stored in the storing means. And
The information processing apparatus according to claim 3.
前記決定手段は、重み付けした前記選定した各画素の位置の平均の位置と、前記保存手段に保存された前記指示位置との中間位置を、前記現在の指示位置を決定することを特徴とする、
請求項3記載の情報処理装置。
The determining means determines the current indicated position as an intermediate position between the weighted average position of the selected pixels and the indicated position stored in the storing means,
The information processing apparatus according to claim 3.
前記決定手段は、前記保存手段に前記指示位置が保存されていない場合に、過去に取得した画像から決定した前記指示位置を用いずに、前記距離に基づいて前記現在の指示位置を決定することを特徴とする、
請求項1〜5のいずれか1項記載の情報処理装置。
The determining means determines the current designated position based on the distance without using the designated position determined from an image acquired in the past when the designated position is not saved in the storage means. Characterized by the
The information processing apparatus according to claim 1.
前記指示領域検出手段は、前記画像取得手段が取得した前記画像の肌色領域のうち、前記撮像手段からの距離が所定の基準の範囲にある領域を、前記指示体の画像の領域として検出することを特徴とする、
請求項1〜6のいずれか1項記載の情報処理装置。
The indication area detecting means detects an area in the skin color area of the image acquired by the image acquisition means that is within a predetermined reference range as the image area of the indicator. Characterized by the
The information processing apparatus according to claim 1.
前記指示領域検出手段は、前記画像取得手段が取得した前記画像の肌色領域のうち、前記撮像手段からの距離が20[cm]から70[cm]の範囲にある領域を、前記指示体の画像の領域として検出することを特徴とする、
請求項7記載の情報処理装置。
The indication area detection unit is configured to select an area of the skin color area of the image acquired by the image acquisition unit that is within a range of 20 [cm] to 70 [cm] from the imaging unit. It is detected as a region of
The information processing apparatus according to claim 7.
前記決定手段は、前記指示領域検出手段が、検出した前記指示体の画像の領域が特定の形状であると判定した場合、過去に取得した画像から決定した前記指示位置を用いずに、前記距離に基づいて前記現在の指示位置を決定することを特徴とする、
請求項1〜8のいずれか1項記載の情報処理装置。
The determining means, when the indicated area detecting means determines that the detected area of the image of the indicator has a specific shape, without using the indicated position determined from an image acquired in the past, the distance Determining the current indicated position based on:
The information processing apparatus according to claim 1.
前記決定手段は、前記指示領域検出手段が、検出した前記指示体の画像の領域が指差し形状であると判定した場合、前記保存手段に保存された前記指示位置を用いずに、前記距離に基づいて前記現在の指示位置を決定することを特徴とする、
請求項9記載の情報処理装置。
The determining means, when the pointing area detecting means determines that the detected area of the image of the pointing object is a pointing shape, without using the pointing position stored in the storing means, Determining the current indication position based on:
The information processing apparatus according to claim 9.
前記決定手段は、前記選定したN個(Nは2以上の整数)の画素から、さらに距離が遠い順にM個(M<N)の画素を選定し、前記N個の画素に基づいて前記現在の指示位置の3次元座標のうちの2つの座標を決定し、前記M個の画素に基づいて前記現在の指示位置の3次元座標のうちの残りの1つの座標を決定することを特徴とする、
請求項1〜10のいずれか1項記載の情報処理装置。
The determining means selects M pixels (M <N) in order of further distance from the selected N pixels (N is an integer equal to or greater than 2), and based on the N pixels, the current unit Two coordinates of the three-dimensional coordinates of the designated position are determined, and the remaining one of the three-dimensional coordinates of the current designated position is determined based on the M pixels. ,
The information processing apparatus according to claim 1.
前記決定手段は、
前記N個の画素の位置と、前記保存手段に保存された前記指示位置との距離に応じて、前記N個の画素の位置に対して重み付けを行い、重み付けした前記N個の画素の位置により前記現在の指示位置の3次元座標のうちの前記2つの座標を決定し、
前記M個の画素の3次元座標のうちの残りの前記1つの座標を平均することで、前記現在の指示位置の3次元座標のうちの残りの前記1つの座標を決定することを特徴とする、
請求項11記載の情報処理装置。
The determining means includes
The N pixel positions are weighted according to the distance between the N pixel positions and the designated position stored in the storage unit, and the N pixel positions are weighted. Determining the two coordinates of the three-dimensional coordinates of the current indicated position;
The remaining one coordinate of the three-dimensional coordinates of the current designated position is determined by averaging the remaining one coordinate of the three-dimensional coordinates of the M pixels. ,
The information processing apparatus according to claim 11.
所定の表示手段の前記現在の指示位置に応じた位置に、ポインタを表示させる表示制御手段を備えることを特徴とする、
請求項1〜12のいずれか1項記載の情報処理装置。
Characterized by comprising display control means for displaying a pointer at a position corresponding to the current indicated position of a predetermined display means,
The information processing apparatus according to claim 1.
所定の撮像手段に接続される情報処理装置により実行される方法であって、
前記撮像手段で撮像された画像を所定の時間間隔で連続して取得する工程と、
取得した前記画像から、ユーザが指示を行うための指示体の画像の領域を検出する工程と、
前記指示体の画像の領域内の各画素について、前記撮像手段からの距離を取得する工程と、
過去に取得した画像から決定した、前記指示体により指し示される位置である指示位置を及び前記距離に基づいて、現在の指示位置を決定する工程と、を含むことを特徴とする、
指示位置の決定方法。
A method executed by an information processing apparatus connected to a predetermined imaging means,
Continuously obtaining images taken by the imaging means at predetermined time intervals;
Detecting a region of an image of a pointer for a user to give an instruction from the acquired image;
Obtaining a distance from the imaging means for each pixel in the area of the indicator image;
A step of determining a current indicated position based on an indication position determined by an image obtained in the past and indicated by the indicator and the distance.
How to determine the indicated position.
所定の撮像手段に接続されるコンピュータを、
前記撮像手段で撮像された画像を所定の時間間隔で連続して取得する画像取得手段、
取得した前記画像から、ユーザが指示を行うための指示体の画像の領域を検出する指示領域検出手段、
前記指示体の画像の領域内の各画素について、前記撮像手段からの距離を取得する距離取得手段、
過去に取得した画像から決定した、前記指示体により指し示される位置である指示位置を保存する保存手段、
前記保存手段に保存された前記指示位置及び前記距離に基づいて、現在の指示位置を決定する決定手段、
として機能させるためのコンピュータプログラム。
A computer connected to a predetermined imaging means;
Image acquisition means for continuously acquiring images taken by the imaging means at predetermined time intervals;
An instruction area detecting means for detecting an area of an image of an indicator for a user to give an instruction from the acquired image;
Distance acquisition means for acquiring the distance from the imaging means for each pixel in the area of the image of the indicator;
Storage means for storing an indicated position, which is a position indicated by the indicator, determined from images acquired in the past;
Determining means for determining a current indicated position based on the indicated position and the distance stored in the storing means;
Computer program to function as.
請求項15記載のコンピュータプログラムを記憶するコンピュータにより読み取り可能な記憶媒体。   A computer-readable storage medium storing the computer program according to claim 15.
JP2016076589A 2016-04-06 2016-04-06 Information processing apparatus, method of determining pointed position, computer program, and storage medium Pending JP2017187944A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016076589A JP2017187944A (en) 2016-04-06 2016-04-06 Information processing apparatus, method of determining pointed position, computer program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016076589A JP2017187944A (en) 2016-04-06 2016-04-06 Information processing apparatus, method of determining pointed position, computer program, and storage medium

Publications (1)

Publication Number Publication Date
JP2017187944A true JP2017187944A (en) 2017-10-12

Family

ID=60044834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016076589A Pending JP2017187944A (en) 2016-04-06 2016-04-06 Information processing apparatus, method of determining pointed position, computer program, and storage medium

Country Status (1)

Country Link
JP (1) JP2017187944A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113052148A (en) * 2021-05-10 2021-06-29 读书郎教育科技有限公司 Method for improving positioning jitter of flat fingertip

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113052148A (en) * 2021-05-10 2021-06-29 读书郎教育科技有限公司 Method for improving positioning jitter of flat fingertip
CN113052148B (en) * 2021-05-10 2023-09-29 读书郎教育科技有限公司 Method for improving positioning shake of flat fingertip

Similar Documents

Publication Publication Date Title
JP6598617B2 (en) Information processing apparatus, information processing method, and program
US11119581B2 (en) Displacement oriented interaction in computer-mediated reality
US10293252B2 (en) Image processing device, system and method based on position detection
JP6057396B2 (en) 3D user interface device and 3D operation processing method
EP2907004B1 (en) Touchless input for a user interface
CN104364733A (en) Position-of-interest detection device, position-of-interest detection method, and position-of-interest detection program
JP6611501B2 (en) Information processing apparatus, virtual object operation method, computer program, and storage medium
US9261953B2 (en) Information processing apparatus for displaying virtual object and method thereof
CN112666714A (en) Gaze direction mapping
US20120219177A1 (en) Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
JP6129363B2 (en) Interactive system, remote control and operation method thereof
JP6127564B2 (en) Touch determination device, touch determination method, and touch determination program
KR20170062439A (en) Control device, control method, and program
JP2016162162A (en) Contact detection device, projector device, electronic blackboard device, digital signage device, projector system, and contact detection method
US11423622B2 (en) Apparatus for generating feature positions in a virtual world, information processing method, and storage medium
US10587862B2 (en) Head-mounted device
US11436818B2 (en) Interactive method and interactive system
JP2018109899A (en) Information processing apparatus, operation detecting method, and computer program
JP2017187944A (en) Information processing apparatus, method of determining pointed position, computer program, and storage medium
WO2017163647A1 (en) Head-mounted device
US11893165B2 (en) Display apparatus communicably connected to external control apparatus that receives operator&#39;s operation, control method for same, and storage medium
US20230368483A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
US20230252729A1 (en) Information processing apparatus, information processing method, and storage medium for presenting virtual object
US20240135665A1 (en) Information processing apparatus and information processing method
JP2024032409A (en) Information processing equipment and HMD