JP2015132992A - Gesture input apparatus, gesture input method, and program - Google Patents

Gesture input apparatus, gesture input method, and program Download PDF

Info

Publication number
JP2015132992A
JP2015132992A JP2014004155A JP2014004155A JP2015132992A JP 2015132992 A JP2015132992 A JP 2015132992A JP 2014004155 A JP2014004155 A JP 2014004155A JP 2014004155 A JP2014004155 A JP 2014004155A JP 2015132992 A JP2015132992 A JP 2015132992A
Authority
JP
Japan
Prior art keywords
delay time
gesture
screen
cursor
gesture input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014004155A
Other languages
Japanese (ja)
Other versions
JP6252184B2 (en
Inventor
晃希 畑田
Koki Hatada
晃希 畑田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014004155A priority Critical patent/JP6252184B2/en
Publication of JP2015132992A publication Critical patent/JP2015132992A/en
Application granted granted Critical
Publication of JP6252184B2 publication Critical patent/JP6252184B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve operability of a screen when a user performs gesture input.SOLUTION: A gesture input apparatus to be used for inputting information by gesture includes: a total delay time calculation section which calculates the total delay time due to gesture input, on the basis of at least one of delay time due to the amount of jiggle of a body section of a user who performs gesture, and delay time due to processing of a device in accordance with the gesture or communication; and a screen display section which displays an object on the basis of the total delay time due to the gesture input.

Description

本発明は、ジェスチャ入力装置、ジェスチャ入力方法及びプログラムに関する。   The present invention relates to a gesture input device, a gesture input method, and a program.

使用者によるGUI(Graphical User Interface)画面での操作やその他のUIに従って動作する装置がある(例えば、特許文献1、2を参照。)。また、より直感的に、自然な感覚で指示を入力することが可能なUIの開発が要求されている。例えば、画面を離れて操作する際のユーザインタフェースとして、ユーザの身振りや手振りにより画面操作を行う空間ジェスチャによるUIの開発が提案されている(例えば、特許文献3を参照。)。空間ジェスチャによるUIでは、入力装置は、例えば、手などの身体の一部の位置をセンサにより取得し、離れている画面上において、センサにより取得した位置に応じた位置にカーソルを表示し、そのカーソルで画面上のアイコン等のオブジェクトを操作する。   There are devices that operate in accordance with operations on a GUI (Graphical User Interface) screen by a user and other UIs (see, for example, Patent Documents 1 and 2). Further, there is a demand for development of a UI that can input instructions more intuitively and in a natural sense. For example, as a user interface when operating away from the screen, development of a UI using a space gesture for performing a screen operation by a user's gesture or hand gesture has been proposed (see, for example, Patent Document 3). In the UI based on the space gesture, for example, the input device acquires the position of a part of the body such as a hand by a sensor, and displays a cursor at a position corresponding to the position acquired by the sensor on a remote screen. Operate objects such as icons on the screen with the cursor.

その際、事前に測定した手のぶれ量に応じて画面に表示されるオブジェクトを変更する手法が提案されている。例えば、ぶれ量が小さい場合、画面上のオブジェクトを小さく表示して画面上の一覧性を高める。一方、ぶれ量が大きい場合、画面上のオブジェクトを小さく表示するとユーザのジェスチャ入力に対する操作エラーが生じ易くなる。このため、ぶれ量が大きい場合、画面の操作性を考慮して画面上のオブジェクトを大きく表示する。   At that time, a method has been proposed in which an object displayed on the screen is changed in accordance with the hand shake amount measured in advance. For example, when the amount of blur is small, an object on the screen is displayed in a small size to improve the listability on the screen. On the other hand, when the amount of shake is large, an operation error with respect to a user's gesture input is likely to occur if an object on the screen is displayed small. For this reason, when the amount of shake is large, an object on the screen is displayed in a large size in consideration of the operability of the screen.

特開2010−134912号公報JP 2010-134912 A 特開平8−16353号公報JP-A-8-16353 国際公開第2012/005005号公報International Publication No. 2012/005005

I. Scott MacKenzie and Colin Ware. 1993. Lag as a determinant ofhuman performance in interactive systems. In Proceedings of the INTERACT’93 and CHI’93 Conference onHuman Factors in Computing Systems (CHI’93). ACM, pp.488-493I. Scott MacKenzie and Colin Ware. 1993. Lag as a determinant of human performance in interactive systems.In Proceedings of the INTERACT’93 and CHI’93 Conference onHuman Factors in Computing Systems (CHI’93). ACM, pp.488-493

しかしながら、ぶれ量の大小だけでは、ユーザのジェスチャ入力における画面の操作性を高める際の情報としては十分でない場合がある。例えば、ぶれ量自身が、使用するセンサの精度によって変わる。センサの精度は使用するセンサの性能やユーザとセンサとの位置関係により変わる。例えば、ユーザとセンサとの位置が近ければセンサの精度は高くなり、該位置が遠ければセンサの精度は低くなる。   However, there are cases where the amount of shake alone is not sufficient as information for enhancing the operability of the screen when the user inputs a gesture. For example, the shake amount itself varies depending on the accuracy of the sensor used. The accuracy of the sensor varies depending on the performance of the sensor used and the positional relationship between the user and the sensor. For example, if the position of the user and the sensor is close, the accuracy of the sensor is high, and if the position is far, the accuracy of the sensor is low.

また、例えば、ジェスチャをセンシングした位置は、ローパスフィルタなどで平滑化してジェスチャに応じた位置に表示されているカーソルのぶれをなくす又は減らす処理を施すことが多い。このため、ジェスチャ入力時に使用するぶれ量は、実際のぶれ量と同じとは限らない。また、平滑化の処理に基づく遅延が、ジェスチャ入力による画面操作エラーに影響を与えることがある。   Further, for example, the position where the gesture is sensed is often smoothed by a low-pass filter or the like, and processing for eliminating or reducing the blurring of the cursor displayed at the position corresponding to the gesture is often performed. For this reason, the amount of blur used when inputting a gesture is not always the same as the actual amount of blur. In addition, a delay based on the smoothing process may affect a screen operation error due to a gesture input.

そこで、一側面では、ユーザのジェスチャ入力における画面の操作性を向上させることを目的とする。   Therefore, an object of one aspect is to improve the operability of a screen when a user inputs a gesture.

一つの案では、ジェスチャによる入力を行うジェスチャ入力装置であって、ジェスチャを行うユーザの身体部分のぶれ量に基づく遅延時間と、前記ジェスチャに応じた機器の処理又は通信に基づく遅延時間と、の少なくともいずれかからジェスチャによる入力の総遅延時間を算出する総遅延時間算出部と、前記ジェスチャによる入力の総遅延時間に基づいて、オブジェクトを表示する画面表示部と、を有するジェスチャ入力装置が提供される。   In one proposal, a gesture input device that performs input using a gesture, a delay time based on a shake amount of a body part of a user performing the gesture, and a delay time based on processing or communication of a device corresponding to the gesture There is provided a gesture input device comprising: a total delay time calculation unit that calculates a total delay time of an input from a gesture from at least one; and a screen display unit that displays an object based on the total delay time of the input from the gesture. The

一態様によれば、ユーザのジェスチャ入力における画面の操作性を向上させることができる。   According to one aspect, the operability of the screen in the user's gesture input can be improved.

一実施形態にかかるジェスチャ入力装置の概要を示した図である。It is the figure which showed the outline | summary of the gesture input device concerning one Embodiment. 一実施形態にかかるジェスチャ入力装置の機能構成の一例を示した図である。It is the figure which showed an example of the function structure of the gesture input device concerning one Embodiment. 一実施形態にかかる遅延時間を説明するための図である。It is a figure for demonstrating the delay time concerning one Embodiment. 一実施形態にかかるカーソルの位置の分布の一例を示した図である。It is the figure which showed an example of distribution of the position of the cursor concerning one Embodiment. 一実施形態に係る遅延量算出処理の一例を示したフローチャートである。It is the flowchart which showed an example of the delay amount calculation process which concerns on one Embodiment. 一実施形態に係る画面表示処理の一例を示したフローチャートである。It is the flowchart which showed an example of the screen display process which concerns on one Embodiment. 一実施形態に係る操作難度の算出処理の一例を示したフローチャートである。It is the flowchart which showed an example of the calculation process of the operation difficulty which concerns on one Embodiment. 一実施形態に係る遅延時間及びユーザと画面との距離(位置関係)を変化させた場合の画面表示の一例を示した図である。It is the figure which showed an example of the screen display at the time of changing the delay time and distance (positional relationship) of a user and a screen which concern on one Embodiment. 一実施形態に係るジェスチャ入力装置のハードウェア構成の一例を示した図である。It is the figure which showed an example of the hardware constitutions of the gesture input device which concerns on one Embodiment.

以下、本発明の一実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。   Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, the duplicate description is abbreviate | omitted by attaching | subjecting the same code | symbol.

[ジェスチャ入力装置の概要]
まず、本発明の一実施形態に係るジェスチャ入力装置1の概要について、図1を参照しながら説明する。図1は、一実施形態に係るジェスチャ入力装置1の概要を示した図である。ジェスチャ入力装置1としては、例えば、PCやTV等の画面を有する端末が挙げられる。ジェスチャ入力装置1は、身振りや手振り等のユーザの動作でPCやTVなどの画面を操作可能な装置である。ユーザの動作を、以下「ジェスチャ」という。
[Outline of gesture input device]
First, an outline of a gesture input device 1 according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a diagram illustrating an outline of a gesture input device 1 according to an embodiment. Examples of the gesture input device 1 include a terminal having a screen such as a PC or a TV. The gesture input device 1 is a device that can operate a screen of a PC, a TV, or the like by a user operation such as gesture or hand gesture. The user's operation is hereinafter referred to as “gesture”.

なお、ジェスチャを行うユーザの身体部分は、ユーザの身体の一部または全部であり得る。ジェスチャは、手、腕、足、胴体、頭、視線等の動きや方向であってもよい。ジェスチャは、口の動きや音声であってもよい。   Note that the body part of the user who performs the gesture may be a part or all of the user's body. The gesture may be a movement or direction of a hand, arm, foot, torso, head, line of sight, or the like. The gesture may be a mouth movement or a voice.

ジェスチャ入力装置1は、カメラ10とディスプレイ20とを有し、その上で動作するソフトウェアにより、ジェスチャによる画面操作、すなわち、ジェスチャ入力を実現する。ソフトウェアの部分は等価な働きをするハードウェアによって実現されてもよい。   The gesture input device 1 includes a camera 10 and a display 20 and realizes a screen operation by a gesture, that is, gesture input, by software operating on the camera 10 and the display 20. The software part may be realized by hardware that performs an equivalent function.

ジェスチャ入力装置1は、ハードウェアの機構に関し、特定のものに依存しない。例えば、カメラ10は、ユーザの身体の一部の位置を取得できればよい。例えば、カメラ10は、距離センサ、単眼カメラ、ステレオカメラ等のセンサと物体トラッキング装置とを組み合わせて使用してもよい。カメラ10に替えてジャイロセンサ、加速度センサ、超音波などを用いて位置取得を行える端末を、ユーザが装着してもよい。   The gesture input device 1 does not depend on a specific hardware mechanism. For example, the camera 10 only needs to be able to acquire the position of a part of the user's body. For example, the camera 10 may be a combination of a sensor such as a distance sensor, a monocular camera, and a stereo camera and an object tracking device. A user may wear a terminal capable of acquiring a position using a gyro sensor, an acceleration sensor, an ultrasonic wave, or the like instead of the camera 10.

ディスプレイ20は、PCのモニタや、TV、プロジェクタ、HMD(Head Mounted Display)等、画面表示ができるものであればよい。   The display 20 may be anything that can display a screen, such as a PC monitor, TV, projector, HMD (Head Mounted Display).

ジェスチャ入力装置1では、例えば、カメラ10によりユーザUの手の位置が検出される。検出された手の位置に基づき、離れている画面21上の手の位置に応じた位置にカーソル21aが表示される。そして、表示されたカーソル21aにより画面21上のアイコンの選択等のGUI操作が行われる。このようにして、ユーザUが行うジェスチャによりユーザUは、離れた画面の操作を行うことができる。   In the gesture input device 1, for example, the position of the hand of the user U is detected by the camera 10. Based on the detected hand position, the cursor 21a is displayed at a position corresponding to the position of the hand on the screen 21 that is away. Then, a GUI operation such as selection of an icon on the screen 21 is performed by the displayed cursor 21a. In this manner, the user U can operate a remote screen by a gesture performed by the user U.

本実施形態に係るジェスチャ入力装置1は、ジェスチャをするユーザの身体部分(以下では、主に「手」を例に挙げる。)のぶれ量だけでなく、カメラ10により取得したセンサデータの処理による遅延時間も考慮して、ジェスチャ入力に対する操作性のよい画面を表示する。本実施形態では、操作性に影響するぶれ量を「ぶれを平滑化し、そのぶれ量を十分小さくする処理による遅延時間」とする。これにより、本実施形態に係るジェスチャ入力装置1は、ぶれ量による遅延時間と機器の性能による遅延時間とに基づき、カーソル移動が遅延することによる使いにくさを考慮した画面を表示する。以下では、本実施形態に係るジェスチャ入力装置1について詳細に説明する。   The gesture input device 1 according to the present embodiment is based on the processing of sensor data acquired by the camera 10 as well as the amount of shaking of the body part of the user who makes the gesture (hereinafter, mainly “hand” is taken as an example). Considering the delay time, a screen with good operability for gesture input is displayed. In the present embodiment, the amount of shake that affects operability is “delay time due to smoothing the shake and sufficiently reducing the amount of shake”. As a result, the gesture input device 1 according to the present embodiment displays a screen that takes into account the difficulty in use due to the delay in cursor movement, based on the delay time due to the blur amount and the delay time due to the performance of the device. Below, the gesture input device 1 which concerns on this embodiment is demonstrated in detail.

(機能構成)
まず、一実施形態にかかるジェスチャ入力装置1の機能構成の一例について説明する。図2は、一実施形態にかかるジェスチャ入力装置1の機能構成の一例を示した図である。
(Functional configuration)
First, an example of a functional configuration of the gesture input device 1 according to an embodiment will be described. FIG. 2 is a diagram illustrating an example of a functional configuration of the gesture input device 1 according to the embodiment.

(遅延量算出機能)
ジェスチャ入力装置1は、遅延量を算出する機能を有する。この機能を実現するために、ジェスチャ入力装置1は、センサの精度およびユーザの身体のぶれに基づくカーソルの位置の精度を算出し、ぶれを十分に小さくするようにカーソルの位置を平滑化する際の平滑化強度を算出する。そして、算出された平滑化強度からユーザのジェスチャが画面上のカーソル操作に反映されるまでの遅延時間が算出される。ここで算出される遅延時間は、「ジェスチャを行うユーザの身体部分のぶれ量に基づく遅延時間」であり、「ぶれ量」にはユーザの身体が揺れることで生じるものと、ユーザの身体を観測するときのセンサの精度、つまり、センサによる位置検出時の検出値の誤差(実際の身体位置と検出した身体位置との差分)が含まれる。この遅延時間は、主に平滑化処理時に発生する位相のずれにより生じる遅延時間である。また、ジェスチャ入力装置1は、センサの内部処理にかかる時間や画面表示装置等の機器性能に基づく遅延時間を算出する。ジェスチャ入力装置1は、ぶれ量の平滑化による遅延時間と機器性能による遅延時間とに基づき総遅延時間を算出する。
(Delay calculation function)
The gesture input device 1 has a function of calculating a delay amount. In order to realize this function, the gesture input device 1 calculates the accuracy of the cursor based on the accuracy of the sensor and the shake of the user's body, and smoothes the position of the cursor so as to reduce the shake sufficiently. The smoothing strength of is calculated. Then, a delay time until the user's gesture is reflected in the cursor operation on the screen is calculated from the calculated smoothing intensity. The delay time calculated here is the “delay time based on the shake amount of the body part of the user performing the gesture”, and the “shake amount” is observed when the user's body shakes and the user's body is observed. The accuracy of the sensor when performing the detection, that is, the error of the detected value when the position is detected by the sensor (the difference between the actual body position and the detected body position) is included. This delay time is a delay time mainly caused by a phase shift that occurs during the smoothing process. The gesture input device 1 also calculates a delay time based on the time required for the internal processing of the sensor and the performance of the device such as the screen display device. The gesture input device 1 calculates the total delay time based on the delay time due to the smoothing of the blur amount and the delay time due to the device performance.

(画面表示機能)
ジェスチャ入力装置1は、算出された総遅延時間に基づき画面を表示する機能を有する。この機能を実現するために、ジェスチャ入力装置1は、総遅延時間とカーソルの初期位置の分布とに基づいて、画面上のオブジェクトの操作難度を算出する。操作難度は、画面操作の難易度を示す。ジェスチャが画面上のカーソル操作に反映されるまでの遅延時間と操作難度とは、遅延時間が大きい程操作難度が高くなるという相関関係を有する。よって、どのくらい遅延したらどのくらい操作が難しくなるかを示す操作難度を遅延時間から算出できる。
(Screen display function)
The gesture input device 1 has a function of displaying a screen based on the calculated total delay time. In order to realize this function, the gesture input device 1 calculates the operation difficulty level of the object on the screen based on the total delay time and the distribution of the initial position of the cursor. The operation difficulty level indicates the difficulty level of the screen operation. The delay time until the gesture is reflected in the cursor operation on the screen and the operation difficulty level have a correlation that the operation difficulty level increases as the delay time increases. Therefore, the operation difficulty level indicating how much delay the operation becomes difficult can be calculated from the delay time.

ジェスチャ入力装置1は、ユーザと画面との位置関係に基づいて、画面上のオブジェクトが視認できる表示条件を算出する。表示条件としては、ユーザと画面との距離が遠ければオブジェクトを大きく表示し、ユーザと画面との距離が近ければオブジェクトを小さく表示するというような条件が挙げられる。ジェスチャ入力装置1は、算出された操作難度と表示条件とに基づいて画面上のオブジェクトを表示する。ジェスチャ入力装置1は、ジェスチャによる画面操作が難しくなりすぎないように操作難度が一定の値以下になる大きさのオブジェクトを表示する。その際、オブジェクトの大きさが大きくなるほど画面の一覧性は低下する。よって、生成された画面には、操作難度が一定の値以下であって、画面の一覧性を無用に低下させない程度の大きさのオブジェクトが表示される。   The gesture input device 1 calculates display conditions that allow objects on the screen to be visually recognized based on the positional relationship between the user and the screen. The display condition includes a condition that the object is displayed larger when the distance between the user and the screen is long, and the object is displayed small when the distance between the user and the screen is short. The gesture input device 1 displays an object on the screen based on the calculated operation difficulty level and display conditions. The gesture input device 1 displays an object having a size that makes the operation difficulty level equal to or less than a certain value so that the screen operation by the gesture does not become too difficult. At this time, the listability of the screen decreases as the size of the object increases. Therefore, the generated screen displays an object having an operation difficulty level of a certain value or less and a size that does not unnecessarily deteriorate the listability of the screen.

本実施形態では、遅延量算出機能は、主に、位置取得部31、位置蓄積部32、精度算出部33、平滑化強度算出部34、平滑遅延時間算出部35、機器遅延時間算出部36、及び総遅延時間算出部37の各機能により実現される。   In the present embodiment, the delay amount calculation function mainly includes a position acquisition unit 31, a position accumulation unit 32, an accuracy calculation unit 33, a smoothing strength calculation unit 34, a smooth delay time calculation unit 35, a device delay time calculation unit 36, And each function of the total delay time calculation unit 37.

位置取得部31は、ユーザの手の位置やポインティングデバイスの位置を取得し、画面上のカーソルの位置を計算する。手の座標系は、表示装置の画面の法線方向をz軸とし、画面から離れる方向を正とする。画面の平面内の水平方向をx軸、垂直方向をy軸とする。この座標系で位置取得部31は適宜、ユーザの手の座標(xh、yh、zh)を取得し、取得した手の位置に従って、画面上のカーソル座標(x、y)を計算する。カーソルの座標系は、画面の平面内の水平方向をx軸(右方向を正)、垂直方向をy軸(下方向を正)とする。手の座標からカーソルの座標pを算出する計算式の一例として式(1)を挙げる。   The position acquisition unit 31 acquires the position of the user's hand and the position of the pointing device, and calculates the position of the cursor on the screen. In the hand coordinate system, the normal direction of the screen of the display device is the z axis, and the direction away from the screen is positive. The horizontal direction in the plane of the screen is the x axis, and the vertical direction is the y axis. In this coordinate system, the position acquisition unit 31 appropriately acquires the coordinates (xh, yh, zh) of the user's hand and calculates the cursor coordinates (x, y) on the screen according to the acquired position of the hand. In the coordinate system of the cursor, the horizontal direction in the plane of the screen is the x axis (right direction is positive), and the vertical direction is y axis (down direction is positive). Formula (1) is given as an example of a calculation formula for calculating the coordinate p of the cursor from the coordinates of the hand.

ここで、ax、bx、ay、byは、実数の定数で、画面の解像度などから、実験的に定める値である。   Here, ax, bx, ay, and by are constants of real numbers, and are values determined experimentally from the resolution of the screen.

位置蓄積部32は、位置取得部31で算出したカーソルの座標p(x、y)を一定の時間毎に蓄積する。蓄積したカーソルの座標は、カーソルの移動速度・方向を算出する際に用いられる。一定の時間毎とは、例えば1秒間に30回などである。位置蓄積部32は、カーソルの座標を蓄積するだけでなく、カーソルの座標を破棄してもよい。例えば、一定の時間より以前に蓄積されたカーソルの座標を破棄することで、位置蓄積部32に一定の量以上のカーソルの座標が蓄積されないようにすることもできる。   The position accumulation unit 32 accumulates the cursor coordinates p (x, y) calculated by the position acquisition unit 31 at regular intervals. The accumulated cursor coordinates are used when calculating the moving speed and direction of the cursor. For example, the fixed time is 30 times per second. The position storage unit 32 may not only store the coordinates of the cursor but also discard the coordinates of the cursor. For example, by discarding the coordinates of the cursor accumulated before a certain time, it is possible to prevent the cursor accumulation of a certain amount or more from being accumulated in the position accumulation unit 32.

精度算出部33は、位置蓄積部32に蓄積された一定の長さのカーソルの座標列を用いて、カーソルの位置の精度を算出する。具体的には、精度算出部33は、ぶれ量を測定し、ぶれ量からカーソルの位置の精度を算出する。「ぶれ量」は、手を静止し、センサで位置を一定の回数取得した時の標準偏差と定義することができる。   The accuracy calculation unit 33 calculates the accuracy of the cursor position using the coordinate string of the cursor having a certain length accumulated in the position accumulation unit 32. Specifically, the accuracy calculation unit 33 measures the shake amount and calculates the accuracy of the cursor position from the shake amount. The “shake amount” can be defined as a standard deviation when the hand is stationary and the position is acquired a certain number of times by the sensor.

カーソルの位置の精度を算出する方法の一例としては、まず、精度算出部33は、精度を算出する旨をユーザに通知する。ユーザは、通知に応じてカーソルをできるだけ静止させる。静止させたまま一定の時間が経過し、カーソルの位置が位置蓄積部32に十分に蓄積されたとき、精度算出部33は、式(2)に従ってカーソルの位置の精度を算出する。カーソルの位置の精度は、式(2)のように分散として算出される。精度算出部33は、ユーザにカーソルの位置の精度が算出できた旨を通知する。ここでV(X)、V(Y)は標準偏差であり、mは標準偏差の計算に使用する座標列の長さであり、
および はx座標およびy座標の平均である。
As an example of a method for calculating the accuracy of the cursor position, first, the accuracy calculation unit 33 notifies the user that the accuracy is to be calculated. The user stops the cursor as much as possible in response to the notification. When a certain period of time elapses while still being stationary and the cursor position is sufficiently accumulated in the position accumulation unit 32, the accuracy calculation unit 33 calculates the accuracy of the cursor position according to Equation (2). The accuracy of the cursor position is calculated as variance as shown in Equation (2). The accuracy calculation unit 33 notifies the user that the accuracy of the cursor position has been calculated. Here, V (X) and V (Y) are standard deviations, m is the length of the coordinate sequence used for calculating the standard deviation,
And are the average of the x and y coordinates.

以上のようにして、精度算出部33は、ユーザの手のぶれ量を測定し、ぶれ量に基づきカーソルの位置の精度を算出する。なお、カメラ10で取得した画像上の長さを現実世界の長さに変換して扱う場合、ぶれ量は距離に比例する。よって、センサ及びユーザの距離とぶれ量とは比例関係になる。この比例関係が既知の場合は、精度算出部33は、ユーザとセンサとの距離が変わったときに再測定する必要はなく、センサ及びユーザの距離とぶれ量との既知の関係に基づき、カーソルの位置の精度を算出すればよい。   As described above, the accuracy calculation unit 33 measures the shake amount of the user's hand and calculates the accuracy of the cursor position based on the shake amount. In addition, when the length on the image acquired with the camera 10 is converted into the length of the real world and handled, the blur amount is proportional to the distance. Therefore, the distance between the sensor and the user and the amount of shake are in a proportional relationship. When this proportional relationship is known, the accuracy calculation unit 33 does not need to remeasure when the distance between the user and the sensor changes, and based on the known relationship between the distance between the sensor and the user and the amount of shake, the cursor What is necessary is just to calculate the precision of position.

平滑化強度算出部34は、カーソルの位置のぶれが十分に小さくなるように、所定の時間蓄積されたカーソルの位置を平滑化する際の強度を算出する。平滑化強度算出部34による平滑化の強度の算出の仕方は、平滑化をどのような関数によって行うかによって異なる。例えば、移動平均で平滑化する場合、平滑化強度算出部34は、平均に使う観測点の数を算出する。観測点の数は、平滑化の強度の一例である。   The smoothing intensity calculation unit 34 calculates the intensity when the cursor position accumulated for a predetermined time is smoothed so that the fluctuation of the cursor position becomes sufficiently small. The method of calculating the smoothing intensity by the smoothing intensity calculator 34 differs depending on the function used for smoothing. For example, when smoothing with a moving average, the smoothing intensity calculator 34 calculates the number of observation points used for averaging. The number of observation points is an example of the smoothing strength.

また、例えば、指数平滑移動平均で平滑化する場合、平滑化強度算出部34は、指数平滑移動平均で平滑化するときの係数を算出する。ここで、係数の値は、平滑化の強度の一例である。   Further, for example, when smoothing with an exponential smoothing moving average, the smoothing strength calculating unit 34 calculates a coefficient for smoothing with an exponential smoothing moving average. Here, the value of the coefficient is an example of the strength of smoothing.

より具体的には、例えば、式(3)のような単純な移動平均を用いる場合、平滑化強度算出部34は、式(4)によって平滑化後の分散を計算することができる。算出された平滑化後の分散は、カーソルの位置の精度を示す。   More specifically, for example, when using a simple moving average like Formula (3), the smoothing intensity | strength calculation part 34 can calculate dispersion | distribution after smoothing by Formula (4). The calculated variance after smoothing indicates the accuracy of the cursor position.

ここで、x(t)は平滑化前の座標列(入力座標列)、Xs(t)は平滑化後の座標列、nは移動平均に用いる座標列の長さ(平均に使用する入力点の数)、V(Xs)は平滑化後の分散である。ただし、式(3)及び式(4)ではx座標のみについて記述したが、y座標についても同様である。   Here, x (t) is a coordinate string before smoothing (input coordinate string), Xs (t) is a coordinate string after smoothing, n is the length of the coordinate string used for moving average (input point used for averaging) ), V (Xs) is the variance after smoothing. However, although only the x coordinate is described in the equations (3) and (4), the same applies to the y coordinate.

平滑化強度算出部34は、式(4)で計算される平滑化後の分散を十分小さくするという条件(平滑化後の分散V(Xs)<閾値Tv;ただしTvは十分小さな分散を示す閾値)下で座標列の長さnについて解く。平滑化強度算出部34は、そのn(移動平均に用いる座標列の長さ)を平滑化強度とみなすことで平滑化強度を算出してもよい。   The smoothing strength calculation unit 34 is a condition that the variance after smoothing calculated by the equation (4) is sufficiently small (the variance V (Xs) after smoothing <threshold value Tv; Tv is a threshold value indicating sufficiently small variance) ) Solve for the length n of the coordinate sequence below. The smoothing strength calculation unit 34 may calculate the smoothing strength by regarding n (the length of the coordinate sequence used for the moving average) as the smoothing strength.

また、例えば、式(5)のような指数平滑移動平均を用いる場合、平滑化強度算出部34は、式(6)によって平滑化後の分散を計算することができる。算出された平滑化後の分散は、カーソルの位置の精度を示す。   Further, for example, when an exponential smoothing moving average such as Expression (5) is used, the smoothing intensity calculation unit 34 can calculate the variance after smoothing according to Expression (6). The calculated variance after smoothing indicates the accuracy of the cursor position.

これによれば、単純な移動平均の場合と同様に、平滑化強度算出部34は、係数αの値を平滑化強度とみなすことで平滑化強度を算出してもよい。つまり、式(6)で計算される平滑化後の分散を十分小さくするという条件(平滑化後の分散V(Xs)<閾値T;ただしTは十分小さな分散を示す閾値)下で係数αについて解く。ここで、係数αは、平滑化定数であり、小さい値ほど平滑化強度が高いことを示す。   According to this, as in the case of a simple moving average, the smoothing strength calculator 34 may calculate the smoothing strength by regarding the value of the coefficient α as the smoothing strength. That is, with respect to the coefficient α under the condition that the variance after smoothing calculated by Expression (6) is sufficiently small (variance V (Xs) after smoothing <threshold T; T is a threshold indicating sufficiently small variance). solve. Here, the coefficient α is a smoothing constant, and the smaller the value, the higher the smoothing strength.

また、これら以外の平滑化方法についても、同様な考え方を適用して平滑化強度を算出することができる。すなわち、平滑化強度算出部34は、平滑化後のカーソルのぶれ量(例えば分散)が十分に小さくなるよう、平滑化に関わるパラメータを決定すればよい。平滑化強度算出部34は、そのときのパラメータを平滑化強度とみなすことで平滑化強度を算出してもよい。   Also, smoothing strength can be calculated by applying the same concept to smoothing methods other than these. That is, the smoothing intensity calculating unit 34 may determine parameters related to smoothing so that the amount of blurring (for example, variance) of the cursor after smoothing becomes sufficiently small. The smoothing strength calculator 34 may calculate the smoothing strength by regarding the parameter at that time as the smoothing strength.

図3に示されるように、遅延時間には、主に機器による遅延時間と平滑化に基づく遅延時間とがある。図3の(a)に示される機器による遅延時間は、ジェスチャに応じた機器の処理又は通信に基づく遅延時間である。機器による遅延時間の一例としては、センサ内部の処理時間や、センサからサーバ等の機器へ情報を転送するときの通信時間が挙げられる。機器による遅延時間の他の例としては、転送された画像を画面上に表示するためのレンダリング等の処理時間、処理後の画像を画面へ表示するためのUI画面の計算にかかる時間等が挙げられる。機器による遅延時間に基づくカーソルの移動軌跡は、図3の(a)のグラフの実線で示した本来のカーソルの移動軌跡に対して、破線で示した単純な遅延を持つ。   As shown in FIG. 3, the delay time mainly includes a delay time due to equipment and a delay time based on smoothing. The delay time by the device shown in (a) of FIG. 3 is a delay time based on the processing or communication of the device according to the gesture. Examples of the delay time by the device include a processing time inside the sensor and a communication time when information is transferred from the sensor to a device such as a server. Other examples of the delay time by the device include processing time such as rendering for displaying the transferred image on the screen, time required for calculating the UI screen for displaying the processed image on the screen, and the like. It is done. The movement trajectory of the cursor based on the delay time by the device has a simple delay indicated by a broken line with respect to the original movement trajectory of the cursor indicated by the solid line in the graph of FIG.

機器遅延時間算出部36は、図3の(a)に示される機器による遅延時間を算出する。機器遅延時間算出部36は、センサや画面の表示機器の性能に基づいて遅延時間を算出する。機器遅延時間算出部36により算出される遅延時間は、事前にセンサや情報処理機器の処理時間を測定することで取得できる。また、機器遅延時間算出部36は、使用する機器の処理時間を事前に測定し、機器の性能と処理時間との対応表を作成しておき、その対応表に基づき使用する特定の機器の性能から処理時間を取得しても良い。   The device delay time calculation unit 36 calculates the delay time due to the device shown in FIG. The device delay time calculation unit 36 calculates the delay time based on the performance of the sensor and the display device of the screen. The delay time calculated by the device delay time calculation unit 36 can be acquired by measuring the processing time of the sensor or information processing device in advance. In addition, the device delay time calculation unit 36 measures the processing time of the device to be used in advance, creates a correspondence table between the device performance and the processing time, and performs the performance of the specific device used based on the correspondence table. You may acquire processing time from.

また、機器遅延時間算出部36は、例えば、機器の性能を定めた仕様書から機器による遅延時間を算出することができる。また、機器遅延時間算出部36は、ジェスチャ入力装置1が平滑化を行わない状態で、ユーザがジェスチャによる操作を行ってからその操作が画面上に反映されるまでの時間を、センサとは別のカメラで撮影された画像から測定し、機器による遅延時間として算出してもよい。   In addition, the device delay time calculation unit 36 can calculate the delay time by the device from, for example, a specification that defines the device performance. In addition, the device delay time calculation unit 36 determines the time from when the user performs an operation with a gesture until the operation is reflected on the screen in a state where the gesture input device 1 does not perform smoothing, separately from the sensor. It may be measured from an image taken with a camera and calculated as a delay time by the device.

一方、図3の(b)に示される平滑化に基づく遅延時間は、周波数(速度)に依存する遅延である。その遅延の一例は、(b)のグラフの実線で示した本来のカーソルの移動軌跡に対して、破線で示したように単純な遅延ではない。例えば、平滑遅延時間算出部35は、図3の(b)に示される平滑化に基づく遅延時間を算出する。平滑遅延時間算出部35は、平滑化フィルタの時定数を平滑化に基づく遅延時間として使用することができる。平滑遅延時間算出部35による具体的な算出の仕方は、平滑化および平滑強度の算出をどのように行うかによって異なる。単純な移動平均で平滑化した場合の平滑化フィルタの時定数の算出、又は指数平滑移動平均で平滑化した場合の平滑化フィルタの時定数の算出について以下に具体的に説明する。   On the other hand, the delay time based on the smoothing shown in FIG. 3B is a delay depending on the frequency (speed). An example of the delay is not a simple delay as shown by the broken line with respect to the original movement locus of the cursor shown by the solid line in the graph of (b). For example, the smooth delay time calculation unit 35 calculates a delay time based on the smoothing shown in FIG. The smoothing delay time calculation unit 35 can use the time constant of the smoothing filter as a delay time based on smoothing. The specific calculation method by the smoothing delay time calculating unit 35 differs depending on how smoothing and smoothing strength are calculated. The calculation of the time constant of the smoothing filter when smoothing with a simple moving average or the calculation of the time constant of the smoothing filter when smoothing with an exponential smoothing moving average will be specifically described below.

例えば、単純な移動平均で平滑化した場合には、平滑遅延時間算出部35は、式(7)によって時定数τを算出することができる。ここで時定数τは遅延時間、Tは位置蓄積部32が位置を蓄積する時間間隔(サンプリング周期)、eは自然対数の底である。   For example, in the case of smoothing with a simple moving average, the smoothing delay time calculation unit 35 can calculate the time constant τ using Equation (7). Here, the time constant τ is a delay time, T is a time interval (sampling period) in which the position accumulating unit 32 accumulates positions, and e is a natural logarithm base.

指数平滑移動平均を用いる場合には、平滑遅延時間算出部35は、式(8)により遅延時間(時定数)τを計算することができる。ここで、α(0≦α≦1)は平滑化定数、時定数τは遅延時間、Tは位置蓄積部32が位置を蓄積する時間間隔(サンプリング周期)、である。αが小さい程強く平滑化する。   When the exponential smoothing moving average is used, the smooth delay time calculation unit 35 can calculate the delay time (time constant) τ by the equation (8). Here, α (0 ≦ α ≦ 1) is a smoothing constant, time constant τ is a delay time, and T is a time interval (sampling period) in which the position accumulating unit 32 accumulates positions. The smaller α is, the smoother it is.

総遅延時間算出部37は、機器遅延時間算出部36で算出した遅延時間と、平滑遅延時間算出部35で算出した遅延時間とに基づき総遅延時間を算出する。例えば、総遅延時間算出部37は、平滑遅延時間と機器遅延時間との和を総遅延時間としてもよい。総遅延時間算出部37は、平滑遅延時間と機器遅延時間とのいずれかを遅延時間としてもよい。   The total delay time calculation unit 37 calculates the total delay time based on the delay time calculated by the device delay time calculation unit 36 and the delay time calculated by the smooth delay time calculation unit 35. For example, the total delay time calculation unit 37 may use the sum of the smooth delay time and the device delay time as the total delay time. The total delay time calculation unit 37 may use either the smooth delay time or the device delay time as the delay time.

なお、平滑遅延時間は、ジェスチャを行うユーザの身体部分のぶれ量に基づく遅延時間の一例である。機器遅延時間は、ジェスチャに応じた機器の処理又は通信に基づく遅延時間の一例である。   The smooth delay time is an example of a delay time based on the amount of blurring of the body part of the user who performs the gesture. The device delay time is an example of a delay time based on device processing or communication according to a gesture.

(画面表示機能)
本実施形態では、画面表示機能は、主に操作難度算出部41、表示条件算出部42及び画面表示部43により実現される。操作難度算出部41は、総遅延時間と、カーソルの初期位置の分布の仕方とに基づいて、画面上のオブジェクトの操作難度を算出する。オブジェクトは、画面上に表示され、選択可能な図形やアイコン等の画像やテキストを含む。ポインティングは、オブジェクト上にカーソルを重ねる操作をいう。
(Screen display function)
In the present embodiment, the screen display function is mainly realized by the operation difficulty level calculation unit 41, the display condition calculation unit 42, and the screen display unit 43. The operation difficulty level calculation unit 41 calculates the operation difficulty level of the object on the screen based on the total delay time and the distribution method of the initial position of the cursor. The object is displayed on the screen and includes images and text such as selectable figures and icons. Pointing refers to an operation of placing a cursor on an object.

操作難度算出部41は、オブジェクトのポインティングにかかる時間を操作難度として算出する。オブジェクトの操作難度は、カーソルの初期位置とオブジェクトの距離に対して増加し、オブジェクトの大きさに対して減少し、総遅延時間に対して増加する量である。   The operation difficulty level calculation unit 41 calculates the time required for pointing an object as the operation difficulty level. The object operation difficulty level is an amount that increases with respect to the distance between the initial position of the cursor and the object, decreases with respect to the size of the object, and increases with respect to the total delay time.

操作難度算出部41は、以下の式に基づき操作難度を算出できる。操作難度を算出する一例として式(9)及び式(10)を以下に示す。   The operation difficulty level calculation unit 41 can calculate the operation difficulty level based on the following equation. Expressions (9) and (10) are shown below as an example of calculating the operation difficulty.

ここで、a、b、cは定数であり、実験的に定められる値である。MTはポインティング時間、IDは難度(Index of Difficulty)、Aはカーソルの初期位置からオブジェクトまでの距離、Wはオブジェクトの大きさ、Lagは遅延時間を表す。カーソルの初期位置は、後述されるカーソルの初期位置の分布を使用して定められる。   Here, a, b, and c are constants and are values determined experimentally. MT is a pointing time, ID is a degree of difficulty, A is the distance from the initial position of the cursor to the object, W is the size of the object, and Lag is the delay time. The initial position of the cursor is determined using a distribution of the initial position of the cursor described later.

式(9)で算出されるポインティング時間MTは、画面操作に対する難易度を示す操作難度の一例である。   The pointing time MT calculated by Expression (9) is an example of the operation difficulty level indicating the difficulty level for the screen operation.

式(9)及び式(10)では、表示の候補とされるオブジェクトに対して、カーソルの位置毎にカーソルの初期位置からオブジェクトまでの距離Aが算出される。操作難度算出部41は、表示の候補とされるオブジェクトのそれぞれに対して、カーソルの初期位置の分布から想定されるカーソルの位置のそれぞれについて距離Aを算出する。オブジェクトの大きさWは、例えば、5cm、10cm、15cmと仮定してもよい。よって、操作難度算出部41は、大きさの異なるオブジェクト毎であって、カーソルの位置毎にカーソルの初期位置からオブジェクトまでの距離Aを用いてポインティング時間MTを算出する。   In Expressions (9) and (10), the distance A from the initial cursor position to the object is calculated for each cursor position with respect to the object that is a display candidate. The operation difficulty level calculation unit 41 calculates a distance A for each of the positions of the cursor assumed from the distribution of the initial position of the cursor for each of the objects that are candidates for display. For example, the size W of the object may be assumed to be 5 cm, 10 cm, and 15 cm. Therefore, the operation difficulty level calculation unit 41 calculates the pointing time MT using the distance A from the initial position of the cursor to the object for each object having a different size and for each cursor position.

また、操作難度を算出する操作難度を算出する他の例として式(11)、式(12)及び式(13)を以下に示す。   Further, as another example of calculating the operation difficulty level for calculating the operation difficulty level, Expression (11), Expression (12), and Expression (13) are shown below.

ここで、a、b、c、dは定数であり、実験的に定められる値である。MTはポインティング時間、Aはカーソルの初期位置からオブジェクトまでの距離、Wはオブジェクトの大きさ、Lagは遅延時間を示す。また、φは平均0、分散1の累積正規分布、Nは正規分布、Fは任意のB>0に対して等式(13)を満たす関数である。操作難度算出部41は、式(11)を用いてポインティング時間MTを算出する。算出されたポインティング時間MTは、操作難度の一例である。   Here, a, b, c, and d are constants and are values determined experimentally. MT is the pointing time, A is the distance from the initial position of the cursor to the object, W is the size of the object, and Lag is the delay time. Φ is a cumulative normal distribution with an average of 0 and a variance of 1, N is a normal distribution, and F is a function that satisfies equation (13) for any B> 0. The operation difficulty level calculation unit 41 calculates the pointing time MT using the equation (11). The calculated pointing time MT is an example of the operation difficulty level.

(カーソルの初期位置)
カーソルの初期位置は一般には不明である。なぜなら、画面表示部43の処理は、実際に画面表示が行われる前に実行されるため、操作難度算出部41の実行時に、ユーザがカーソルを操作しているとは限らないからである。よって、カーソルの初期位置からオブジェクトまでの距離Aの算出ができないことになる。
(Initial cursor position)
The initial position of the cursor is generally unknown. This is because the process of the screen display unit 43 is executed before the actual screen display is performed, and therefore the user does not always operate the cursor when the operation difficulty level calculation unit 41 is executed. Therefore, the distance A from the initial position of the cursor to the object cannot be calculated.

そこで、操作難度算出部41は、カーソルの初期位置の分布を仮定し、仮定されたカーソルの初期位置の分布に従ったそれぞれのカーソルの位置における操作難度を算出する。操作難度算出部41は、それぞれのカーソルの位置での操作難度の平均値を算出し、操作難度としてもよい。カーソルの初期位置の分布の一例としては、図4の(a)に示されるように、カーソルの存在確率が画面21内で一様な分布の場合が挙げられる。また、カーソルの初期位置の分布の他の例としては、図4の(b)に示されるように、カーソルの存在確率が、画面21内でユーザUの肩の位置に対応する点Oを中心とした紡錘形の分布の場合が挙げられる。   Therefore, the operation difficulty level calculation unit 41 assumes the distribution of the initial position of the cursor, and calculates the operation difficulty level at each cursor position according to the assumed distribution of the initial position of the cursor. The operation difficulty level calculation unit 41 may calculate an average value of the operation difficulty levels at the respective cursor positions and set the operation difficulty level. As an example of the distribution of the initial position of the cursor, there is a case where the existence probability of the cursor is uniform in the screen 21, as shown in FIG. As another example of the distribution of the initial position of the cursor, as shown in FIG. 4B, the cursor existence probability is centered on a point O corresponding to the position of the shoulder of the user U in the screen 21. In this case, a spindle-shaped distribution is used.

表示条件算出部42は、画面の大きさと、ユーザ及び画面の位置関係とに基づいて、画面上のオブジェクトが視認できる表示条件を算出する。表示条件算出部42は、オブジェクトの大きさの閾値条件を設定する。表示条件算出部42は、オブジェクトの大きさの閾値Tsを画面の大きさに対して増加し、ユーザと画面との距離に対して増加する値に設定する。これによれば、ユーザから画面までの距離が遠い場合に、表示が大きくなり、近づくと小さく表示されるため、ユーザと画面との距離が変わっても、ユーザが視聴しやすい画面表示を提供できる。例えば、ユーザと画面との距離が距離d1である場合のオブジェクトの大きさの閾値をTs=t1とする。また、ユーザと画面との距離が距離d1よりも大きい距離d2である場合のオブジェクトの大きさの閾値をTs=t2とする。このとき、閾値t2は閾値t1よりも大きい値(t2>t1)に設定されてもよい。ここで、t1、t2、d1、d2は開発者により定められる値である。閾値Tsは、例えば、図示しない記憶領域に記憶されてもよい。   The display condition calculation unit 42 calculates a display condition in which an object on the screen can be visually recognized based on the size of the screen and the positional relationship between the user and the screen. The display condition calculation unit 42 sets a threshold condition for the size of the object. The display condition calculation unit 42 increases the object size threshold Ts with respect to the screen size and sets the value to increase with respect to the distance between the user and the screen. According to this, when the distance from the user to the screen is far, the display becomes large, and when it approaches, the display is small. Therefore, even if the distance between the user and the screen changes, it is possible to provide a screen display that is easy for the user to view. . For example, the threshold value of the object size when the distance between the user and the screen is the distance d1 is Ts = t1. Further, the threshold value of the object size when the distance between the user and the screen is a distance d2 larger than the distance d1 is Ts = t2. At this time, the threshold value t2 may be set to a value larger than the threshold value t1 (t2> t1). Here, t1, t2, d1, and d2 are values determined by the developer. The threshold value Ts may be stored in a storage area (not shown), for example.

画面表示部43は、操作難度算出部41で算出した操作難度と、表示条件算出部42で算出した表示条件とに基づいて、オブジェクトを表示した画面を生成する。一例としては、画面表示部43は、操作難度が予め定められた操作難度の閾値Tm以下になるよう、生成する画面上のオブジェクトの大きさを調整する。オブジェクトの大きさの調整は、操作難度が十分小さい(つまり、閾値Tm以下)の範囲で画面での表示の一覧性が増すよう、できるだけ多くのオブジェクトが表示できるサイズに設定してもよい。閾値Tmは、例えば、図示しない記憶領域に記憶されてもよい。   The screen display unit 43 generates a screen on which an object is displayed based on the operation difficulty level calculated by the operation difficulty level calculation unit 41 and the display conditions calculated by the display condition calculation unit 42. As an example, the screen display unit 43 adjusts the size of the object on the screen to be generated so that the operation difficulty is equal to or less than a predetermined operation difficulty threshold Tm. The size of the object may be adjusted to a size that allows as many objects as possible to be displayed so that the listability of the display on the screen increases within a range where the operation difficulty is sufficiently small (that is, the threshold value Tm or less). The threshold value Tm may be stored in a storage area (not shown), for example.

例えば、オブジェクトの大きさの候補が、s1、s2、s3(s1<s2<s3)である場合を想定する。操作難度算出部41は、オブジェクトの大きさs1、s2、s3(s1<s2<s3)に対する操作難度m1、m2、m3を算出する。画面表示部43は、操作難度m1、m2、m3に基づき、オブジェクトの大きさがs1、s2、s3の候補のうち操作難度(m1、m2、m3)が一定の閾値Tm以下となるオブジェクトであって、オブジェクトの大きさが最も小さいものを採用する。仮にm1>Tm、m2<Tm、m3<Tmの場合、画面表示部43は、候補s3より大きさの小さいオブジェクトの候補s2を採用する。更に、表示条件を考慮すると、オブジェクトの大きさの候補s2が大きさの閾値Tsよりも大きければよい。もし、候補s2が大きさの閾値Tsよりも小さい場合、画面表示部43は、候補s2よりも大きいオブジェクトの候補s3が、大きさの閾値Tsよりも大きければ候補s3を採用する。画面表示部43は、採用された候補の大きさでオブジェクトを表示する。   For example, a case is assumed where the object size candidates are s1, s2, and s3 (s1 <s2 <s3). The operation difficulty level calculation unit 41 calculates operation difficulty levels m1, m2, and m3 for the object sizes s1, s2, and s3 (s1 <s2 <s3). The screen display unit 43 is an object whose operation difficulty level (m1, m2, m3) is equal to or less than a certain threshold Tm among candidates having object sizes of s1, s2, and s3 based on the operation difficulty levels m1, m2, and m3. The object with the smallest size is adopted. If m1> Tm, m2 <Tm, and m3 <Tm, the screen display unit 43 employs an object candidate s2 that is smaller than the candidate s3. Furthermore, in consideration of display conditions, it is sufficient that the object size candidate s2 is larger than the size threshold Ts. If the candidate s2 is smaller than the size threshold Ts, the screen display unit 43 adopts the candidate s3 if the object candidate s3 larger than the candidate s2 is larger than the size threshold Ts. The screen display unit 43 displays the object with the adopted candidate size.

[ジェスチャ入力処理]
次に、本実施形態に係るジェスチャ入力装置1が行うジェスチャ入力処理の一例について、図5及び図6を参照しながら説明する。以下では、本実施形態に係るジェスチャ入力処理を、ジェスチャ入力に基づく遅延量算出処理とジェスチャ入力に応じた画面表示処理とに分けて説明する。図5は、一実施形態に係る遅延量算出処理の一例を示したフローチャートである。図6は、一実施形態に係る画面表示処理の一例を示したフローチャートである。図5の遅延量算出処理、図6の画面表示処理の順に各処理を説明することで、ユーザがジェスチャを行ってからジェスチャに応じた画面が表示されるまでを説明する。
[Gesture input processing]
Next, an example of gesture input processing performed by the gesture input device 1 according to the present embodiment will be described with reference to FIGS. 5 and 6. Hereinafter, the gesture input process according to the present embodiment will be described by dividing it into a delay amount calculation process based on the gesture input and a screen display process corresponding to the gesture input. FIG. 5 is a flowchart illustrating an example of a delay amount calculation process according to an embodiment. FIG. 6 is a flowchart illustrating an example of a screen display process according to an embodiment. Each process will be described in the order of the delay amount calculation process in FIG. 5 and the screen display process in FIG. 6, so that the process from when the user performs a gesture until the screen corresponding to the gesture is displayed will be described.

(遅延量算出処理)
位置取得部31は、ポインティングデバイスやユーザの手など身体の一部の位置から画面上の操作位置(カーソルの位置)を計算する。位置蓄積部32は、位置取得部31で取得したカーソルの位置を予め定められた所定の時間間隔で蓄積する。位置蓄積部32は、カーソルの位置が所定の時間蓄積されたかを判定する(ステップS10)。位置蓄積部32は、カーソルの位置が所定の時間蓄積されるまでステップS10の処理を繰り返す。
(Delay calculation processing)
The position acquisition unit 31 calculates an operation position (cursor position) on the screen from the position of a part of the body such as a pointing device or a user's hand. The position accumulating unit 32 accumulates the cursor position acquired by the position acquiring unit 31 at predetermined time intervals. The position accumulating unit 32 determines whether the cursor position has been accumulated for a predetermined time (step S10). The position accumulation unit 32 repeats the process of step S10 until the cursor position is accumulated for a predetermined time.

カーソルの位置が所定時間蓄積された場合、精度算出部33は、カーソルの位置のぶれに基づき、カーソルの位置の精度を算出する(ステップS12)。カーソルの位置のぶれは、例えば、センサの精度およびユーザの身体のぶれ(手振れ)に基づき生じる。   When the cursor position is accumulated for a predetermined time, the accuracy calculating unit 33 calculates the accuracy of the cursor position based on the fluctuation of the cursor position (step S12). The movement of the cursor position is generated based on, for example, the accuracy of the sensor and the shake (hand shake) of the user's body.

次に、平滑化強度算出部34は、精度算出部33で算出したカーソルの位置の精度に基づいて、カーソルの位置のぶれが十分に小さくなるように、カーソルの位置を平滑化する際の強度を算出する(ステップS14)。次に、平滑遅延時間算出部35は、平滑化強度算出部34で算出した平滑化強度に基づく平滑化による遅延時間(ぶれ量に基づく遅延時間;以下、「平滑遅延時間」ともいう。)を算出する(ステップS16)。   Next, based on the accuracy of the cursor position calculated by the accuracy calculation unit 33, the smoothing intensity calculation unit 34 is an intensity for smoothing the cursor position so that the blur of the cursor position is sufficiently reduced. Is calculated (step S14). Next, the smooth delay time calculation unit 35 performs a delay time by smoothing based on the smoothing strength calculated by the smoothing strength calculation unit 34 (delay time based on the amount of shake; hereinafter, also referred to as “smooth delay time”). Calculate (step S16).

次に、機器遅延時間算出部36は、センサや機器の性能に基づく遅延時間(機器に基づく遅延時間;以下、「機器遅延時間」ともいう)を算出する(ステップS18)。総遅延時間算出部37は、平滑遅延時間と機器遅延時間とを加算することで総遅延時間を算出する(ステップS20)。   Next, the device delay time calculation unit 36 calculates a delay time based on the performance of the sensor or device (delay time based on the device; hereinafter, also referred to as “device delay time”) (step S18). The total delay time calculation unit 37 calculates the total delay time by adding the smooth delay time and the device delay time (step S20).

(画面表示処理)
次に、図6の画面表示処理について説明する。表示条件算出部42は、位置取得部31からユーザの位置(ユーザの手の位置等)をカメラ10から取得できたかを判定し(ステップS30)、ユーザの位置を取得するまでステップS30の処理を繰り返す。
(Screen display processing)
Next, the screen display process of FIG. 6 will be described. The display condition calculation unit 42 determines whether the user's position (such as the position of the user's hand) has been acquired from the camera 10 from the position acquisition unit 31 (step S30), and performs the process of step S30 until the user's position is acquired. repeat.

ユーザの位置を取得した場合、表示条件算出部42は、画面の大きさとユーザと画面との位置関係に基づいて、画面上のオブジェクトが視認できる表示条件を算出する(ステップS32)。   When the position of the user is acquired, the display condition calculation unit 42 calculates a display condition that allows the object on the screen to be visually recognized based on the size of the screen and the positional relationship between the user and the screen (step S32).

画面表示部43は、表示条件を満たした画面の表示候補となるオブジェクトを生成する(ステップS34)。次に、操作難度算出部41は、候補となるオブジェクトの操作難度を算出する処理を行う(ステップS36)。   The screen display unit 43 generates an object that is a display candidate for a screen that satisfies the display conditions (step S34). Next, the operation difficulty level calculation unit 41 performs a process of calculating the operation difficulty level of the candidate object (step S36).

ステップS36にて呼び出される操作難度の算出処理について、図7を参照しながら説明する。図7は、一実施形態に係る操作難度の算出処理の詳細を示したフローチャートである。   The operation difficulty level calculation process called in step S36 will be described with reference to FIG. FIG. 7 is a flowchart illustrating details of the operation difficulty level calculation processing according to the embodiment.

まず、操作難度算出部41は、カーソルの初期位置の分布に従って、カーソルの位置の一つを算出する(ステップS40)。次に、操作難度算出部41は、カーソルの初期位置からオブジェクトまでの距離Aを算出する(ステップS42)。次に、操作難度算出部41は、例えば、式(9)及び式(10)を用いて操作難度(ポインティング時間MT)を算出する(ステップS44)。操作難度は、他の式(13)等の方法により算出することもできる。次に、操作難度算出部41は、すべてのカーソルの位置に対する操作難度が算出したかを判定する(ステップS46)。すべてのカーソルの位置に対する操作難度が算出されていない場合、ステップS40に戻り、ステップS40からS46の処理が行われる。   First, the operation difficulty level calculation unit 41 calculates one of the cursor positions according to the distribution of the initial position of the cursor (step S40). Next, the operation difficulty level calculation unit 41 calculates the distance A from the initial position of the cursor to the object (step S42). Next, the operation difficulty level calculation unit 41 calculates the operation difficulty level (pointing time MT) using, for example, Expression (9) and Expression (10) (Step S44). The operation difficulty level can also be calculated by another method such as equation (13). Next, the operation difficulty level calculation unit 41 determines whether the operation difficulty levels for all cursor positions have been calculated (step S46). If the operation difficulty level for all the cursor positions has not been calculated, the process returns to step S40, and the processes of steps S40 to S46 are performed.

一方、すべてのカーソルの位置に対する操作難度が算出されている場合、操作難度算出部41は、例えば、操作難度の平均値を操作難度の代表値として算出し(ステップS48)、図6に戻ってステップS38の処理を行う。   On the other hand, when the operation difficulty levels for all cursor positions have been calculated, the operation difficulty level calculation unit 41 calculates, for example, an average value of the operation difficulty levels as a representative value of the operation difficulty levels (step S48), and the process returns to FIG. The process of step S38 is performed.

画面表示部43は、操作難度が十分に小さいかを判定する(ステップS38)。操作難度が所定の閾値より大きいと判定された場合、ステップS34に戻り、操作難度が所定の閾値以下になるまでステップS34〜ステップS38の処理を繰り返す。   The screen display unit 43 determines whether the operation difficulty level is sufficiently small (step S38). When it is determined that the operation difficulty level is greater than the predetermined threshold value, the process returns to step S34, and the processes of steps S34 to S38 are repeated until the operation difficulty level becomes equal to or less than the predetermined threshold value.

例えば、ステップS38にて操作難度が所定の閾値より大きいと判定された場合、ステップS34で生成される画面の表示候補のオブジェクトの大きさを前回の候補としたオブジェクトの大きさより大きくする。例えば、前回候補としたオブジェクトの大きさが5cmの場合、操作難度算出部41は、今回候補としたオブジェクトの大きさを10cmと大きくし、式(10)のWに代入し、式(9)から操作難度を算出してもよい。その場合においてもステップS38にて操作難度が所定の閾値より大きいと判定された場合、操作難度算出部41は、候補としたオブジェクトの大きさを15cmと大きくし、式(10)のWに代入し、式(9)から操作難度を算出してもよい。   For example, if it is determined in step S38 that the operation difficulty level is larger than a predetermined threshold, the size of the display candidate object of the screen generated in step S34 is set larger than the size of the object set as the previous candidate. For example, when the size of the object selected as the previous candidate is 5 cm, the operation difficulty level calculation unit 41 increases the size of the object set as the current candidate to 10 cm, and substitutes it in W of Expression (10). From the above, the operation difficulty level may be calculated. Even in this case, if it is determined in step S38 that the operation difficulty level is greater than the predetermined threshold value, the operation difficulty level calculation unit 41 increases the size of the candidate object to 15 cm and substitutes it into W in Expression (10). Then, the operation difficulty level may be calculated from Equation (9).

ステップS38にて操作難度が十分に小さいと判定された場合、画面表示部43は、生成された画面を表示し(ステップS39)、本処理を終了する。   When it is determined in step S38 that the operation difficulty level is sufficiently small, the screen display unit 43 displays the generated screen (step S39), and ends this process.

以上、本実施形態にかかるジェスチャ入力処理について説明した。本実施形態にかかるジェスチャ入力装置1は、遅延時間と表示条件とに基づいて画面上のオブジェクトの大きさを調整して表示する。   Heretofore, the gesture input process according to the present embodiment has been described. The gesture input device 1 according to this embodiment adjusts and displays the size of the object on the screen based on the delay time and the display condition.

図8は、一実施形態に係る画面表示の一例を示す。図8の横軸は遅延時間、縦軸はユーザと画面との距離を示す。操作難度は遅延時間に基づき算出される。図8に示される画面上のオブジェクトは、操作難度が一定の閾値以下となるオブジェクトであって、オブジェクトの大きさが最も小さいものを採用する。これにより、操作性と一覧性を両立させることができる。   FIG. 8 shows an example of a screen display according to an embodiment. In FIG. 8, the horizontal axis represents the delay time, and the vertical axis represents the distance between the user and the screen. The operation difficulty level is calculated based on the delay time. The object on the screen shown in FIG. 8 is an object whose operation difficulty is equal to or less than a certain threshold value and has the smallest object size. Thereby, operability and listability can be made compatible.

一例としては、遅延時間が小さくかつ距離が近い場合には、小さいオブジェクトが表示される。例えば、遅延時間が中程度でかつ距離が中程度の場合には、中程度の大きさのオブジェクトが表示される。例えば、遅延時間が大きくかつ距離が遠い場合には、大きいオブジェクトが表示される。   As an example, when the delay time is small and the distance is short, a small object is displayed. For example, when the delay time is medium and the distance is medium, an object having a medium size is displayed. For example, when the delay time is large and the distance is long, a large object is displayed.

ぶれ量が大きい場合、画面上のオブジェクトを小さく表示するとユーザのジェスチャ入力に対する操作エラーが生じ易くなる。これに対して、以上に説明した本実施形態に係るジェスチャ入力装置1によれば、ぶれ量を遅延時間として算出し、遅延時間に基づき画面上のオブジェクトの大きさを調整して表示する。例えば、ぶれ量が大きい場合には、遅延時間が大きいため、ジェスチャ入力に対する操作エラーを抑制するためにオブジェクトを大きく表示する。これにより、ユーザのジェスチャ入力における画面の操作性を向上させることができる。   When the amount of shake is large, an operation error with respect to a user's gesture input is likely to occur if an object on the screen is displayed small. On the other hand, according to the gesture input device 1 according to the present embodiment described above, the shake amount is calculated as the delay time, and the size of the object on the screen is adjusted and displayed based on the delay time. For example, when the amount of blur is large, the delay time is large, so that the object is displayed large in order to suppress an operation error with respect to the gesture input. Thereby, the operativity of the screen in a user's gesture input can be improved.

特に、カーソルの位置の分布が一様でない場合、オブジェクトの位置によって操作難度の値が異なるため、同一画面上で許容されるオブジェクトの大きさが異なる場合が生じる。その場合には、各オブジェクトの位置に対して許容されるオブジェクトの大きさのうちの最も大きいオブジェクトの大きさを採用してもよい。これにより、ユーザの操作性を向上させることができる。   In particular, when the distribution of cursor positions is not uniform, the value of the operation difficulty varies depending on the position of the object, so that the size of the object allowed on the same screen may differ. In that case, the largest object size among the allowable object sizes for the position of each object may be adopted. Thereby, user operability can be improved.

(ハードウェア構成例)
最後に、ジェスチャ入力装置1のハードウェア構成例について簡単に説明する。図9は、本実施形態にかかるジェスチャ入力装置1のハードウェア構成例を示す図である。ジェスチャ入力装置1は、入力装置101、表示装置102、外部I/F103、RAM(Random Access Memory)104、ROM(Read Only Memory)105、CPU(Central Processing Unit)106、通信I/F107及びHDD(Hard Disk Drive)108を備え、それぞれがバスBで相互に接続されている。
(Hardware configuration example)
Finally, a hardware configuration example of the gesture input device 1 will be briefly described. FIG. 9 is a diagram illustrating a hardware configuration example of the gesture input device 1 according to the present embodiment. The gesture input device 1 includes an input device 101, a display device 102, an external I / F 103, a RAM (Random Access Memory) 104, a ROM (Read Only Memory) 105, a CPU (Central Processing Unit) 106, a communication I / F 107, and an HDD ( (Hard Disk Drive) 108 are connected to each other via a bus B.

入力装置101は、カメラ10やキーボードやマウスなどを含み、ジェスチャ入力装置1に各操作を入力するのに用いられる。表示装置102は、ディスプレイ20を含み、ユーザのジェスチャ入力に応じて画面上のアイコン操作等を行い、その結果を表示する。   The input device 101 includes a camera 10, a keyboard, a mouse, and the like, and is used to input each operation to the gesture input device 1. The display device 102 includes a display 20, performs icon operation on the screen in accordance with a user's gesture input, and displays the result.

通信I/F107は、ジェスチャ入力装置1をネットワークに接続するインタフェースである。これにより、ジェスチャ入力装置1は、通信I/F107を介して他の機器と通信可能となる。   The communication I / F 107 is an interface that connects the gesture input device 1 to a network. Thereby, the gesture input device 1 can communicate with other devices via the communication I / F 107.

HDD108は、プログラムやデータを格納している不揮発性の記憶装置である。格納されるプログラムやデータには、装置全体を制御する基本ソフトウェアであるOS(Operating System)、及びOS上において各種機能を提供するアプリケーションソフトウェアなどがある。また、HDD108は、上記精度算出処理、平滑化強度算出処理、平滑遅延時間算出処理、機器遅延時間算出処理、総遅延時間算出処理、操作難度算出処理、表示条件算出処理、画面表示処理を行うためにCPU106により実行されるプログラムを格納する。   The HDD 108 is a non-volatile storage device that stores programs and data. The stored programs and data include OS (Operating System) that is basic software for controlling the entire apparatus, and application software that provides various functions on the OS. Further, the HDD 108 performs the accuracy calculation process, the smoothing intensity calculation process, the smooth delay time calculation process, the device delay time calculation process, the total delay time calculation process, the operation difficulty level calculation process, the display condition calculation process, and the screen display process. Stores a program executed by the CPU 106.

外部I/F103は、外部装置とのインタフェースである。外部装置には、記録媒体103aなどがある。ジェスチャ入力装置1は、外部I/F103を介して、記録媒体103aの読み取り及び/又は書き込みを行うことができる。記録媒体103aには、CD(Compact Disk)、及びDVD(Digital Versatile Disk)、ならびに、SDメモリカード(SD Memory card)やUSBメモリ(Universal Serial Bus memory)等がある。   The external I / F 103 is an interface with an external device. The external device includes a recording medium 103a. The gesture input device 1 can read and / or write to the recording medium 103 a via the external I / F 103. The recording medium 103 a includes a CD (Compact Disk), a DVD (Digital Versatile Disk), an SD memory card (SD Memory card), a USB memory (Universal Serial Bus memory), and the like.

ROM105は、不揮発性の半導体メモリ(記憶装置)であり、起動時に実行されるBIOS(Basic Input/Output System)、OS設定、及びネットワーク設定などのプログラムやデータが格納されている。RAM104は、プログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)である。CPU106は、上記記憶装置(例えば「HDD」や「ROM」など)から、プログラムやデータをRAM上に読み出し、処理を実行することで、装置全体の制御や搭載機能を実現する演算装置である。   The ROM 105 is a non-volatile semiconductor memory (storage device), and stores programs and data such as BIOS (Basic Input / Output System), OS settings, and network settings that are executed at startup. The RAM 104 is a volatile semiconductor memory (storage device) that temporarily stores programs and data. The CPU 106 is an arithmetic device that realizes control and mounting functions of the entire apparatus by reading programs and data from the storage device (for example, “HDD” and “ROM”) onto the RAM and executing processing.

精度算出部33、平滑化強度算出部34、平滑遅延時間算出部35、機器遅延時間算出部36、総遅延時間算出部37、操作難度算出部41、表示条件算出部42、画面表示部43、画面表示部43の各部は、HDD108にインストールされたプログラムがCPU106に実行させる処理により実現される。   Accuracy calculation unit 33, smoothing strength calculation unit 34, smooth delay time calculation unit 35, device delay time calculation unit 36, total delay time calculation unit 37, operation difficulty level calculation unit 41, display condition calculation unit 42, screen display unit 43, Each unit of the screen display unit 43 is realized by processing executed by the CPU 106 by a program installed in the HDD 108.

位置取得部31は、入力装置101を用いて実現可能である。位置蓄積部32は、例えば、RAM104、HDD108、又はジェスチャ入力装置1にネットワークを介して接続される記憶装置を用いて実現可能である。   The position acquisition unit 31 can be realized using the input device 101. The position accumulation unit 32 can be realized by using, for example, a storage device connected to the RAM 104, the HDD 108, or the gesture input device 1 via a network.

以上、ジェスチャ入力装置、ジェスチャ入力方法及びプログラムを上記実施形態により説明したが、本発明は上記実施形態に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。また、上記実施形態及び変形例が複数存在する場合、矛盾しない範囲で組み合わせることができる。   As described above, the gesture input device, the gesture input method, and the program have been described in the above embodiment. However, the present invention is not limited to the above embodiment, and various modifications and improvements can be made within the scope of the present invention. In addition, when there are a plurality of the above-described embodiments and modifications, they can be combined within a consistent range.

例えば、本実施形態に係るジェスチャ入力装置1は、ぶれ量に基づく遅延時間と機器の処理又は通信に基づく遅延時間とから総遅延時間を算出した。しかしながら、これに限られず、本発明に係るジェスチャ入力装置は、例えば、ぶれ量に基づく遅延時間を総遅延時間としてもよいし、ジェスチャに応じた機器の処理又は通信に基づく遅延時間を総遅延時間としてもよい。ぶれ量に基づく遅延時間のみ、又は、機器の処理又は通信に基づく遅延時間のみによっても、遅延時間が大きい場合にはジェスチャ入力に対する操作エラーが生じ易いと判断できる。よって、上記遅延時間のいずれかを総遅延時間とした場合であっても総遅延時間が大きい場合にはオブジェクトを大きく表示することにより、ユーザのジェスチャ入力における画面の操作性を向上させることができる。   For example, the gesture input device 1 according to the present embodiment calculates the total delay time from the delay time based on the shake amount and the delay time based on device processing or communication. However, the present invention is not limited to this, and the gesture input device according to the present invention may use, for example, a delay time based on a shake amount as a total delay time, or a delay time based on device processing or communication according to a gesture as a total delay time. It is good. If only the delay time based on the amount of shake or only the delay time based on device processing or communication is used, it can be determined that an operation error for the gesture input is likely to occur if the delay time is large. Therefore, even when any one of the above delay times is set as the total delay time, if the total delay time is large, the object is displayed in a large size, thereby improving the operability of the screen for the user's gesture input. .

また、本実施形態に係るジェスチャ入力装置1は、総遅延時間及びユーザと画面との位置関係に基づいて、オブジェクトを表示した。しかしながら、これに限られず、本発明に係るジェスチャ入力装置は、総遅延時間に基づいて、オブジェクトを表示してもよい。この場合、ユーザと画面との位置関係に拘らず、遅延時間に基づいて画面上のオブジェクトの大きさが調整される。   The gesture input device 1 according to the present embodiment displays an object based on the total delay time and the positional relationship between the user and the screen. However, the present invention is not limited to this, and the gesture input device according to the present invention may display an object based on the total delay time. In this case, the size of the object on the screen is adjusted based on the delay time regardless of the positional relationship between the user and the screen.

この場合の一例としては、図8の最上段に示したように、遅延時間が小さい場合、小さいオブジェクトが表示される。遅延時間が中程度の場合、中程度の大きさのオブジェクトが表示される。遅延時間が大きい場合には、大きいオブジェクトが表示される。   As an example of this case, a small object is displayed when the delay time is small, as shown at the top of FIG. When the delay time is medium, a medium-sized object is displayed. When the delay time is large, a large object is displayed.

以上の説明に関し、更に以下の項を開示する。
(付記1)
ジェスチャによる入力を行うジェスチャ入力装置であって、
ジェスチャを行うユーザの身体部分のぶれ量に基づく遅延時間と、前記ジェスチャに応じた機器の処理又は通信に基づく遅延時間と、の少なくともいずれかからジェスチャによる入力の総遅延時間を算出する総遅延時間算出部と、
前記ジェスチャによる入力の総遅延時間に基づいて、オブジェクトを表示する画面表示部と、
を有するジェスチャ入力装置。
(付記2)
前記総遅延時間算出部は、
前記ぶれ量に基づく遅延時間と前記機器の処理又は通信に基づく遅延時間とから総遅延時間を算出する、
付記1に記載のジェスチャ入力装置。
(付記3)
前記画面表示部は、
前記総遅延時間及びユーザと画面との位置関係に基づいて、オブジェクトを表示する、
付記1又は2に記載のジェスチャ入力装置。
(付記4)
前記総遅延時間から画面操作の難易度を示す操作難度を算出する操作難度算出部を有し、
前記画面表示部は、
前記操作難度が予め定められた閾値以下の画面のオブジェクトを表示する、
付記1〜3のいずれか一項に記載のジェスチャ入力装置。
(付記5)
前記操作難度算出部は、
ジェスチャを行うユーザの身体部分の位置に基づいてカーソルの初期位置の分布を算出し、算出されたカーソルの初期位置の分布に応じて操作難度を算出する、
付記4に記載のジェスチャ入力装置。
(付記6)
前記ぶれ量に基づく遅延時間を、前記ジェスチャに応じて取得されたカーソルの位置を平滑化する平滑化強度に基づき算出する平滑遅延時間算出部を有する、
付記1〜5のいずれか一項に記載のジェスチャ入力装置。
(付記7)
ジェスチャによる入力を行うジェスチャ入力方法であって、
ジェスチャを行うユーザの身体部分のぶれ量に基づく遅延時間と、前記ジェスチャに応じた機器の処理又は通信に基づく遅延時間と、の少なくともいずれかからジェスチャによる入力の総遅延時間を算出し、
前記ジェスチャによる入力の総遅延時間に基づいて、オブジェクトを表示する、
処理をコンピュータが実行するジェスチャ入力方法。
(付記8)
前記ぶれ量に基づく遅延時間と前記機器の処理又は通信に基づく遅延時間とから総遅延時間を算出する、
付記7に記載のジェスチャ入力方法。
(付記9)
前記総遅延時間及びユーザと画面との位置関係に基づいて、オブジェクトを表示する、
付記7又は8に記載のジェスチャ入力方法。
(付記10)
前記総遅延時間から画面操作の難易度を示す操作難度を算出し、
前記操作難度が予め定められた閾値以下の画面のオブジェクトを表示する、
付記7〜9のいずれか一項に記載のジェスチャ入力方法。
(付記11)
ジェスチャを行うユーザの身体部分の位置に基づいてカーソルの初期位置の分布を算出し、算出されたカーソルの初期位置の分布に応じて操作難度を算出する、
付記10に記載のジェスチャ入力方法。
(付記12)
前記ぶれ量に基づく遅延時間を、前記ジェスチャに応じて取得されたカーソルの位置を平滑化する平滑化強度に基づき算出する、
付記7〜11のいずれか一項に記載の記載のジェスチャ入力方法。
(付記13)
ジェスチャによる入力により画面を操作するプログラムであって、
ジェスチャを行うユーザの身体部分のぶれ量に基づく遅延時間と、前記ジェスチャに応じた機器の処理又は通信に基づく遅延時間と、の少なくともいずれかからジェスチャによる入力の総遅延時間を算出し、
前記ジェスチャによる入力の総遅延時間に基づいて、オブジェクトを表示する、
処理をコンピュータに実行させるためのプログラム。
(付記14)
前記ぶれ量に基づく遅延時間と前記機器の処理又は通信に基づく遅延時間とから総遅延時間を算出する、
付記13に記載のプログラム。
(付記15)
前記総遅延時間及びユーザと画面との位置関係に基づいて、オブジェクトを表示する、
付記13又は14に記載のプログラム。
(付記16)
前記総遅延時間から画面操作の難易度を示す操作難度を算出し、
前記操作難度が予め定められた閾値以下の画面のオブジェクトを表示する、
付記13〜15のいずれか一項に記載のプログラム。
(付記17)
ジェスチャを行うユーザの身体部分の位置に基づいてカーソルの初期位置の分布を算出し、算出されたカーソルの初期位置の分布に応じて操作難度を算出する、
付記16に記載のプログラム。
(付記18)
前記ぶれ量に基づく遅延時間を、前記ジェスチャに応じて取得されたカーソルの位置を平滑化する平滑化強度に基づき算出する、
付記13〜17のいずれか一項に記載の記載のプログラム。
Regarding the above description, the following items are further disclosed.
(Appendix 1)
A gesture input device for inputting by gesture,
The total delay time for calculating the total delay time of the input by the gesture from at least one of the delay time based on the shake amount of the body part of the user performing the gesture and the delay time based on the processing or communication of the device corresponding to the gesture A calculation unit;
A screen display unit for displaying an object based on a total delay time of input by the gesture;
A gesture input device.
(Appendix 2)
The total delay time calculation unit includes:
Calculating the total delay time from the delay time based on the amount of blur and the delay time based on the processing or communication of the device,
The gesture input device according to attachment 1.
(Appendix 3)
The screen display unit
Displaying an object based on the total delay time and the positional relationship between the user and the screen;
The gesture input device according to appendix 1 or 2.
(Appendix 4)
An operation difficulty calculating unit that calculates an operation difficulty indicating the difficulty of the screen operation from the total delay time;
The screen display unit
Displaying an object of a screen whose operation difficulty is equal to or less than a predetermined threshold;
The gesture input device according to any one of appendices 1 to 3.
(Appendix 5)
The operation difficulty calculation unit
Calculating the distribution of the initial position of the cursor based on the position of the body part of the user performing the gesture, and calculating the operation difficulty according to the calculated distribution of the initial position of the cursor,
The gesture input device according to attachment 4.
(Appendix 6)
A smooth delay time calculation unit that calculates a delay time based on the amount of blur based on a smoothing intensity for smoothing a position of a cursor acquired according to the gesture;
The gesture input device according to any one of appendices 1 to 5.
(Appendix 7)
A gesture input method for inputting by gesture,
Calculating the total delay time of the input by the gesture from at least one of the delay time based on the shake amount of the body part of the user performing the gesture and the delay time based on the processing or communication of the device according to the gesture,
Displaying an object based on a total delay time of input by the gesture;
A gesture input method in which processing is executed by a computer.
(Appendix 8)
Calculating the total delay time from the delay time based on the amount of blur and the delay time based on the processing or communication of the device,
The gesture input method according to attachment 7.
(Appendix 9)
Displaying an object based on the total delay time and the positional relationship between the user and the screen;
The gesture input method according to appendix 7 or 8.
(Appendix 10)
An operation difficulty level indicating the difficulty level of the screen operation is calculated from the total delay time,
Displaying an object of a screen whose operation difficulty is equal to or less than a predetermined threshold;
The gesture input method according to any one of appendices 7 to 9.
(Appendix 11)
Calculating the distribution of the initial position of the cursor based on the position of the body part of the user performing the gesture, and calculating the operation difficulty according to the calculated distribution of the initial position of the cursor,
The gesture input method according to attachment 10.
(Appendix 12)
A delay time based on the amount of blur is calculated based on a smoothing strength for smoothing a cursor position acquired according to the gesture;
The gesture input method according to any one of appendices 7 to 11.
(Appendix 13)
A program that operates the screen by inputting gestures,
Calculating the total delay time of the input by the gesture from at least one of the delay time based on the shake amount of the body part of the user performing the gesture and the delay time based on the processing or communication of the device according to the gesture,
Displaying an object based on a total delay time of input by the gesture;
A program that causes a computer to execute processing.
(Appendix 14)
Calculating the total delay time from the delay time based on the amount of blur and the delay time based on the processing or communication of the device,
The program according to attachment 13.
(Appendix 15)
Displaying an object based on the total delay time and the positional relationship between the user and the screen;
The program according to appendix 13 or 14.
(Appendix 16)
An operation difficulty level indicating the difficulty level of the screen operation is calculated from the total delay time,
Displaying an object of a screen whose operation difficulty is equal to or less than a predetermined threshold;
The program according to any one of appendices 13 to 15.
(Appendix 17)
Calculating the distribution of the initial position of the cursor based on the position of the body part of the user performing the gesture, and calculating the operation difficulty according to the calculated distribution of the initial position of the cursor,
The program according to appendix 16.
(Appendix 18)
A delay time based on the amount of blur is calculated based on a smoothing strength for smoothing a cursor position acquired according to the gesture;
The program according to any one of appendices 13 to 17.

1:ジェスチャ入力装置
10:カメラ
20:ディスプレイ
31:位置取得部
32:位置蓄積部
33:精度算出部
34:平滑化強化算出部
35:平滑化総遅延時間算出部
36:機器遅延時間算出部
37:総遅延時間算出部
41:操作難度算出部
42:表示条件算出部
43:画面表示部
1: Gesture input device 10: Camera 20: Display 31: Position acquisition unit 32: Position accumulation unit 33: Accuracy calculation unit 34: Smoothing enhancement calculation unit 35: Smoothing total delay time calculation unit 36: Device delay time calculation unit 37 : Total delay time calculation unit 41: Operation difficulty calculation unit 42: Display condition calculation unit 43: Screen display unit

Claims (8)

ジェスチャによる入力を行うジェスチャ入力装置であって、
ジェスチャを行うユーザの身体部分のぶれ量に基づく遅延時間と、前記ジェスチャに応じた機器の処理又は通信に基づく遅延時間と、の少なくともいずれかからジェスチャによる入力の総遅延時間を算出する総遅延時間算出部と、
前記ジェスチャによる入力の総遅延時間に基づいて、オブジェクトを表示する画面表示部と、
を有するジェスチャ入力装置。
A gesture input device for inputting by gesture,
The total delay time for calculating the total delay time of the input by the gesture from at least one of the delay time based on the shake amount of the body part of the user performing the gesture and the delay time based on the processing or communication of the device corresponding to the gesture A calculation unit;
A screen display unit for displaying an object based on a total delay time of input by the gesture;
A gesture input device.
前記総遅延時間算出部は、
前記ぶれ量に基づく遅延時間と前記機器の処理又は通信に基づく遅延時間とから総遅延時間を算出する、
請求項1に記載のジェスチャ入力装置。
The total delay time calculation unit includes:
Calculating the total delay time from the delay time based on the amount of blur and the delay time based on the processing or communication of the device,
The gesture input device according to claim 1.
前記画面表示部は、
前記総遅延時間及びユーザと画面との位置関係に基づいて、オブジェクトを表示する、
請求項1又は2に記載のジェスチャ入力装置。
The screen display unit
Displaying an object based on the total delay time and the positional relationship between the user and the screen;
The gesture input device according to claim 1 or 2.
前記総遅延時間から画面操作の難易度を示す操作難度を算出する操作難度算出部を有し、
前記画面表示部は、
前記操作難度が予め定められた閾値以下の画面のオブジェクトを表示する、
を有する請求項1〜3のいずれか一項に記載のジェスチャ入力装置。
An operation difficulty calculating unit that calculates an operation difficulty indicating the difficulty of the screen operation from the total delay time;
The screen display unit
Displaying an object of a screen whose operation difficulty is equal to or less than a predetermined threshold;
The gesture input device according to any one of claims 1 to 3.
前記操作難度算出部は、
ジェスチャを行うユーザの身体部分の位置に基づいてカーソルの初期位置の分布を算出し、算出されたカーソルの初期位置の分布に応じて操作難度を算出する、
請求項4に記載のジェスチャ入力装置。
The operation difficulty calculation unit
Calculating the distribution of the initial position of the cursor based on the position of the body part of the user performing the gesture, and calculating the operation difficulty according to the calculated distribution of the initial position of the cursor,
The gesture input device according to claim 4.
前記ぶれ量に基づく遅延時間を、前記ジェスチャに応じて取得されたカーソルの位置を平滑化する平滑化強度に基づき算出する平滑遅延時間算出部を有する、
請求項1〜5のいずれか一項に記載のジェスチャ入力装置。
A smooth delay time calculation unit that calculates a delay time based on the amount of blur based on a smoothing intensity for smoothing a position of a cursor acquired according to the gesture;
The gesture input device according to any one of claims 1 to 5.
ジェスチャによる入力を行うジェスチャ入力方法であって、
ジェスチャを行うユーザの身体部分のぶれ量に基づく遅延時間と、前記ジェスチャに応じた機器の処理又は通信に基づく遅延時間と、の少なくともいずれかからジェスチャによる入力の総遅延時間を算出し、
前記ジェスチャによる入力の総遅延時間に基づいて、オブジェクトを表示する、
処理をコンピュータが実行するジェスチャ入力方法。
A gesture input method for inputting by gesture,
Calculating the total delay time of the input by the gesture from at least one of the delay time based on the shake amount of the body part of the user performing the gesture and the delay time based on the processing or communication of the device according to the gesture,
Displaying an object based on a total delay time of input by the gesture;
A gesture input method in which processing is executed by a computer.
ジェスチャによる入力により画面を操作するプログラムであって、
ジェスチャを行うユーザの身体部分のぶれ量に基づく遅延時間と、前記ジェスチャに応じた機器の処理又は通信に基づく遅延時間と、の少なくともいずれかからジェスチャによる入力の総遅延時間を算出し、
前記ジェスチャによる入力の総遅延時間に基づいて、オブジェクトを表示する、
処理をコンピュータに実行させるためのプログラム。
A program that operates the screen by inputting gestures,
Calculating the total delay time of the input by the gesture from at least one of the delay time based on the shake amount of the body part of the user performing the gesture and the delay time based on the processing or communication of the device according to the gesture,
Displaying an object based on a total delay time of input by the gesture;
A program that causes a computer to execute processing.
JP2014004155A 2014-01-14 2014-01-14 Gesture input device, gesture input method and program Expired - Fee Related JP6252184B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014004155A JP6252184B2 (en) 2014-01-14 2014-01-14 Gesture input device, gesture input method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014004155A JP6252184B2 (en) 2014-01-14 2014-01-14 Gesture input device, gesture input method and program

Publications (2)

Publication Number Publication Date
JP2015132992A true JP2015132992A (en) 2015-07-23
JP6252184B2 JP6252184B2 (en) 2017-12-27

Family

ID=53900134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014004155A Expired - Fee Related JP6252184B2 (en) 2014-01-14 2014-01-14 Gesture input device, gesture input method and program

Country Status (1)

Country Link
JP (1) JP6252184B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009294690A (en) * 2008-06-02 2009-12-17 Sony Corp Input device, control unit, control system, and control method
JP2010097552A (en) * 2008-10-20 2010-04-30 Nec Corp Icon display device, icon display method and program
WO2012005005A1 (en) * 2010-07-07 2012-01-12 パナソニック株式会社 Terminal apparatus and method of generating gui screen
JP2013069349A (en) * 2007-09-14 2013-04-18 Sony Corp Input apparatus, control apparatus, control system, control method, and handheld apparatus
JP2013539578A (en) * 2010-08-27 2013-10-24 サムスン エレクトロニクス カンパニー リミテッド Content reproduction method and apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013069349A (en) * 2007-09-14 2013-04-18 Sony Corp Input apparatus, control apparatus, control system, control method, and handheld apparatus
JP2009294690A (en) * 2008-06-02 2009-12-17 Sony Corp Input device, control unit, control system, and control method
JP2010097552A (en) * 2008-10-20 2010-04-30 Nec Corp Icon display device, icon display method and program
WO2012005005A1 (en) * 2010-07-07 2012-01-12 パナソニック株式会社 Terminal apparatus and method of generating gui screen
JP2013539578A (en) * 2010-08-27 2013-10-24 サムスン エレクトロニクス カンパニー リミテッド Content reproduction method and apparatus

Also Published As

Publication number Publication date
JP6252184B2 (en) 2017-12-27

Similar Documents

Publication Publication Date Title
KR102529120B1 (en) Method and device for acquiring image and recordimg medium thereof
JP6370893B2 (en) System and method for performing device actions based on detected gestures
US8619049B2 (en) Monitoring interactions between two or more objects within an environment
KR101572307B1 (en) Information processing apparatus, control method thereof, and storage medium
US10409366B2 (en) Method and apparatus for controlling display of digital content using eye movement
US20150153897A1 (en) User interface adaptation from an input source identifier change
US9841886B2 (en) Display control apparatus and control method thereof
US20150160779A1 (en) Controlling interactions based on touch screen contact area
US20150160794A1 (en) Resolving ambiguous touches to a touch screen interface
US10089000B2 (en) Auto targeting assistance for input devices
KR20140100547A (en) Full 3d interaction on mobile devices
US10459965B2 (en) Method and apparatus for displaying images
US9891713B2 (en) User input processing method and apparatus using vision sensor
US10013160B2 (en) Detecting input based on multiple gestures
EP3125087B1 (en) Terminal device, display control method, and program
US9779466B2 (en) GPU operation
CN108369486B (en) Universal inking support
US10394442B2 (en) Adjustment of user interface elements based on user accuracy and content consumption
US20150234587A1 (en) Information processing apparatus, non-transitory readable medium, and handwriting input method
JP6229554B2 (en) Detection apparatus and detection method
JP6252184B2 (en) Gesture input device, gesture input method and program
US10191553B2 (en) User interaction with information handling systems using physical objects
US10831992B2 (en) Determining a reading speed based on user behavior
US10372202B1 (en) Positioning a cursor on a display monitor based on a user&#39;s eye-gaze position
JP2013196030A (en) Information processing device, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171113

R150 Certificate of patent or registration of utility model

Ref document number: 6252184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees