JP2014085964A - Information processing method, information processing device, and program - Google Patents

Information processing method, information processing device, and program Download PDF

Info

Publication number
JP2014085964A
JP2014085964A JP2012236125A JP2012236125A JP2014085964A JP 2014085964 A JP2014085964 A JP 2014085964A JP 2012236125 A JP2012236125 A JP 2012236125A JP 2012236125 A JP2012236125 A JP 2012236125A JP 2014085964 A JP2014085964 A JP 2014085964A
Authority
JP
Japan
Prior art keywords
palm
gesture
user
information processing
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012236125A
Other languages
Japanese (ja)
Inventor
Masahiko Harada
雅彦 原田
Nao Kitamoto
直 北本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Personal Computers Ltd
Original Assignee
NEC Personal Computers Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Personal Computers Ltd filed Critical NEC Personal Computers Ltd
Priority to JP2012236125A priority Critical patent/JP2014085964A/en
Publication of JP2014085964A publication Critical patent/JP2014085964A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an information processing method, an information processing device, and a program that are improved in a recognition rate of a gesture.SOLUTION: In an information processing method for photographing a user's palm to perform conversion into image data, detecting the user's palm, comparing a portion detected as the user's palm to analyze a motion of the palm, specifying a gesture predefined as a motion pattern of the palm, and performing processing predefined in association with an application being executed and the specified gesture, a gesture is specified in accordance with a movement direction of the portion detected as the palm within a predetermined speed range.

Description

本発明は、ジェスチャー操作が可能な情報処理方法、情報処理装置、及びプログラムに関する。   The present invention relates to an information processing method, an information processing apparatus, and a program capable of performing a gesture operation.

近年、技術の進歩により種々の機能を有する情報処理装置が開発されており、ジェスチャー操作が可能なパーソナルコンピュータが挙げられる(例えば、特許文献1参照)。
特許文献1に記載の発明は、「インターフェース装置及びその方法」に関するものであり、具体的には「ジェスチャー情報表示部は、操作に用いるジェスチャーの一覧、ジェスチャー認識部の認識結果、及び操作者の手と思われる部分の画像を表示し、操作者はジェスチャーを覚えることなく画面を確認しながら操作を行えると共に、ジェスチャー認識部に認識させやすいように操作者が行うジェスチャーを修正することが可能となり、操作性が向上する」ものである。
In recent years, information processing apparatuses having various functions have been developed due to technological progress, and a personal computer capable of performing a gesture operation can be cited (for example, see Patent Document 1).
The invention described in Patent Document 1 relates to “interface device and method thereof”. Specifically, “the gesture information display unit includes a list of gestures used for operation, a recognition result of the gesture recognition unit, and an operator's The image of the part that seems to be a hand is displayed, and the operator can operate while checking the screen without memorizing the gesture, and the gesture made by the operator can be corrected so that the gesture recognition unit can easily recognize it. Operability is improved. "

特開2008−52590号公報JP 2008-52590 A

しかしながら、特許文献1に記載の発明は、操作者が行うジェスチャーを修正することにより、操作性が向上するものの、操作者によりジェスチャーの早さに個人差があり認識率の向上に対して改善の余地がある。   However, although the invention described in Patent Document 1 improves the operability by correcting the gesture performed by the operator, there is an individual difference in the speed of the gesture by the operator, and the improvement of the recognition rate is improved. There is room.

そこで、本発明の目的は、ジェスチャーの認識率を向上させた情報処理方法、情報処理装置、及びプログラムを提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide an information processing method, an information processing apparatus, and a program that improve the gesture recognition rate.

上記課題を解決するため、請求項1に記載の発明は、ユーザーの手の平を撮影して画像データに変換し、前記画像データから前記ユーザーの手の平を検出し、複数の画像データにおいて前記ユーザーの手の平として検出された部分を比較することにより前記手の平の動作を解析し、前記手の平の動作パターンとして予め定義されたジェスチャーを特定し、実行されているアプリケーションと前記特定されたジェスチャーとに関連づけて予め定義された処理を実施する情報処理方法において、所定の速度範囲内における手の平として検出された部分の移動方向に応じてジェスチャーを特定することを特徴とする。   In order to solve the above problem, the invention according to claim 1 shoots the palm of the user and converts it into image data, detects the palm of the user from the image data, and detects the palm of the user in a plurality of image data. Analyzing the palm movement by comparing the detected parts, identifying a predefined gesture as the palm movement pattern, and predefining the application being executed and the identified gesture In the information processing method for performing the process, the gesture is specified according to the moving direction of the part detected as a palm within a predetermined speed range.

本発明によれば、ジェスチャーの認識率を向上させた情報処理方法、情報処理装置、及びプログラムの提供を実現することができる。   ADVANTAGE OF THE INVENTION According to this invention, provision of the information processing method, information processing apparatus, and program which improved the recognition rate of gesture is realizable.

(a)は、一実施形態に係るノートパソコンを使用中の状態を示す外観斜視図であり、(b)は、(a)に示したノートパソコンのユーザー側から見た外観斜視図である。(A) is the external appearance perspective view which shows the state in use of the notebook computer which concerns on one Embodiment, (b) is the external appearance perspective view seen from the user side of the notebook computer shown to (a). 情報処理装置としてのノートパソコンの一実施形態を示すブロック図である。It is a block diagram which shows one Embodiment of the notebook personal computer as information processing apparatus. (a)、(b)は、図1に示したノートパソコン100に用いられるジェスチャーの一例を示す説明図である。本実施形態では、ユーザーが右手をカメラ103にかざした場合で説明する。(A), (b) is explanatory drawing which shows an example of the gesture used for the notebook personal computer 100 shown in FIG. In this embodiment, a case where the user holds the right hand over the camera 103 will be described. 図1に示したノートパソコンの動作を説明するためのフローチャートの一例である。It is an example of the flowchart for demonstrating operation | movement of the notebook computer shown in FIG. 図1に示したノートパソコンにおいて、ジェスチャーアプリの初回起動時に表示される画面の一例である。FIG. 3 is an example of a screen displayed when the gesture application is first activated in the notebook computer shown in FIG. 1. ジェスチャー練習をする場合に表示される画面の一例である。It is an example of the screen displayed when practicing gesture. ジェスチャー練習を終了したときに表示される画面の一例である。It is an example of the screen displayed when gesture practice is complete | finished. ジェスチャー機能を起動させたときに表示される画面の一例である。It is an example of the screen displayed when a gesture function is started.

次に本実施形態について図面を参照して説明する。
本実施形態では、情報処理装置がノートパソコンの場合で説明するが、本発明はノートパソコンに限定されるものではなく、デスクトップパソコンであってもよい。
Next, the present embodiment will be described with reference to the drawings.
In this embodiment, the case where the information processing apparatus is a notebook personal computer will be described. However, the present invention is not limited to a notebook personal computer, and may be a desktop personal computer.

<概 要>
本実施形態は、カメラ画像平面座標での手の平の動作にマウスカーソルの移動を割り当てる“ホバリング”と、同じくカメラ画像平面座標での手の平の動作である“フリック”、“サークル”、“ウェイブ”といったジェスチャーをシームレスに実現するために、ジェスチャーの判定基準に、手の平の移動に加えて、ジェスチャー解析の開始点(手の平が一定時間静止することをトリガとする)と移動速度(認識可能な時間範囲と移動距離)を追加したことを含む。
<Overview>
In this embodiment, “hovering” in which the movement of the mouse cursor is assigned to the movement of the palm in the camera image plane coordinates, and “flick”, “circle”, “wave” which are the movements of the palm in the camera image plane coordinates are also used. In order to realize gestures seamlessly, in addition to the movement of the palm, in addition to the movement of the palm, the starting point of gesture analysis (triggered when the palm is stationary for a certain period of time) and the movement speed (recognizable time range and Including the addition of (travel distance).

また、本実施形態は、手の平の移動方向と、ベクトル解析の開始点と移動速度の何れか一方だけでもホバリングとその他ジェスチャーのシームレスな実現は可能であり、3つのポイントを同時に判定することで操作性の向上を図っている。例えば、ベクトル解析の開始点の追加だけでは、開始点検出のための手の平の静止時間を短くするとホバリングとその他ジェスチャーをすぐに切り替えられるが、意図しない静止での誤動作率が高くなる。ここに、移動速度も追加することで、静止時間が短く、かつ誤認識率が低い、高い操作性を実現可能となる。   In addition, in this embodiment, seamless realization of hovering and other gestures is possible only by one of the movement direction of the palm, the starting point of the vector analysis, and the movement speed, and the operation is performed by simultaneously determining three points. The improvement of the nature is aimed at. For example, if only the start point of vector analysis is added, hovering and other gestures can be quickly switched if the palm rest time for detecting the start point is shortened, but the malfunction rate at unintended stillness increases. By adding the moving speed here, it is possible to realize high operability with a short rest time and a low misrecognition rate.

<構 成>
図1(a)は、一実施形態に係るノートパソコンを使用中の状態を示す外観斜視図であり、図1(b)は、図1(a)に示したノートパソコンのユーザー側から見た外観斜視図である。
このノートパソコン100は、キーボード101やマウス102による操作の他、Webカメラ(以下、カメラと表記する。)103でユーザーの手を認識し、認識した手の平の動き(ジェスチャー、もしくはハンドジェスチャーとも言う)によりノートパソコン100で一定の操作を行うことができるようになっている。
液晶表示装置104は、通常の表示を行う他、ユーザーの顔や手を表示したり、ジェスチャー操作練習のための画像を表示したりできるようになっている。
<Configuration>
FIG. 1A is an external perspective view showing a state in which the notebook computer according to one embodiment is being used, and FIG. 1B is a view from the user side of the notebook computer shown in FIG. It is an external perspective view.
The laptop computer 100 recognizes a user's hand with a Web camera (hereinafter referred to as a camera) 103 in addition to an operation with a keyboard 101 and a mouse 102, and the recognized palm movement (also referred to as a gesture or hand gesture). Thus, a certain operation can be performed on the notebook personal computer 100.
The liquid crystal display device 104 is capable of displaying a user's face and hands and displaying an image for practicing gesture operation in addition to performing normal display.

図2は、情報処理装置としてのノートパソコンの一実施形態を示すブロック図である。
ノートパソコン100は、キーボード101、マウス102、撮影手段としてのカメラ(Webカメラ)103、表示装置104、光学読取装置105、HDD(Hard Disc Drive)106、制御部107、RAM(Random Access Memory:読み出し/書き込みメモリ)108、ROM(Read Only Memory:読み出し専用メモリ)109、及びI/O(Input/Output)110を有するが、本発明はこれに限定されるものではない。尚、111はバスラインである。
FIG. 2 is a block diagram showing an embodiment of a notebook personal computer as an information processing apparatus.
A notebook computer 100 includes a keyboard 101, a mouse 102, a camera (Web camera) 103 as a photographing means, a display device 104, an optical reader 105, an HDD (Hard Disc Drive) 106, a control unit 107, and a RAM (Random Access Memory). / Write memory) 108, ROM (Read Only Memory) 109, and I / O (Input / Output) 110, but the present invention is not limited to this. Reference numeral 111 denotes a bus line.

キーボード101は、QWERTY配列の英字キー、数字キー、テンキー、スペースキー、エンターキー、ファンクションキー、デリートキー、スペースキー等の通常の入力キーを有する。   The keyboard 101 has normal input keys such as alphabetic keys in a QWERTY layout, numeric keys, numeric keys, space keys, enter keys, function keys, delete keys, and space keys.

マウス102は、少なくとも左ボタン、右ボタンを有しており、ホイールボタンを有してもよい。尚、図ではマウス102はケーブルでノートパソコン100に接続されているが、本発明はこれに限定されるものではなく、マウス102はワイヤレスでノートパソコン100に接続されていてもよい。   The mouse 102 has at least a left button and a right button, and may have a wheel button. In the figure, the mouse 102 is connected to the notebook computer 100 with a cable, but the present invention is not limited to this, and the mouse 102 may be connected to the notebook computer 100 wirelessly.

カメラ103は、ノートパソコン100の上側筐体の上側の中央にユーザー側に向かって設けられており、例えばCCD(Charge-Coupled Device)が用いられる。   The camera 103 is provided toward the user in the center of the upper side of the upper casing of the notebook computer 100, and for example, a CCD (Charge-Coupled Device) is used.

表示装置104は、例えば液晶ディスプレイが用いられるが、液晶ディスプレイの代わりにプラズマディスプレイを用いてもよい。   For example, a liquid crystal display is used as the display device 104, but a plasma display may be used instead of the liquid crystal display.

光学読取装置105は、例えば、DVD(Digital Versatile Disc)、CD(Compact Disc)、CDR(CD Recordable)等の光学媒体を読み取る装置である。   The optical reading device 105 is a device that reads an optical medium such as a DVD (Digital Versatile Disc), a CD (Compact Disc), or a CDR (CD Recordable).

HDD106は、文字データ、画像データ、音声データ等のデータをRAM108に比べて大容量のデータを記憶するための記憶装置である。HDD106の代わりにSSD(Solid State Drive)を用いてもよい。   The HDD 106 is a storage device for storing large amounts of data such as character data, image data, and audio data as compared with the RAM 108. Instead of the HDD 106, an SSD (Solid State Drive) may be used.

制御部107は、ノートパソコン100を統括制御する機能を有し、例えば、マイクロプロセッサのCPU(Central Processing Unit:中央演算処理装置)を含む回路である。制御部107は、ソフトウェアとして入力制御手段107a、トレーニング手段107b、解析手段107c、割り込み制御手段107d、ディスク制御手段107e、表示装置制御手段107f、及び実行手段107gを有する。   The control unit 107 has a function of comprehensively controlling the notebook personal computer 100 and is, for example, a circuit including a CPU (Central Processing Unit) of a microprocessor. The control unit 107 includes input control means 107a, training means 107b, analysis means 107c, interrupt control means 107d, disk control means 107e, display device control means 107f, and execution means 107g as software.

入力制御手段107aは、キーボード101、マウス102、カメラ103、及び光学読取装置105からデータを管理する。   The input control unit 107 a manages data from the keyboard 101, the mouse 102, the camera 103, and the optical reading device 105.

トレーニング手段107bは、ソフトウェアで構成され、ユーザーの手の平の動作をジェスチャーとして認識する認識精度を向上させるため、ジェスチャーアプリケーション(以下、ジェスチャーアプリと表記)の初回起動時に、強制的にジェスチャーの練習を実行させる機能を有する。
ここで、ジェスチャーアプリとは、ジェスチャーに対応する処理が予め定義されているアプリケーションである。
本実施形態におけるジェスチャーは、ノートパソコン100のカメラ103の撮影可能な範囲(カメラ画像内とも言う)におけるユーザーの手の平の動作を意味し、二の腕を動かしたり、全身を動かしたりするものではない。
The training means 107b is configured by software, and forcibly practice gestures at the first activation of a gesture application (hereinafter referred to as a gesture application) in order to improve recognition accuracy for recognizing a user's palm movement as a gesture. It has a function to make it.
Here, the gesture application is an application in which processing corresponding to a gesture is defined in advance.
The gesture in the present embodiment means a user's palm movement within a range that can be captured by the camera 103 of the notebook computer 100 (also referred to as a camera image), and does not move the second arm or move the whole body.

解析手段107cは、ソフトウェアで構成され、カメラ103からの画像データを解析してユーザーの手の平の動作をジェスチャーとして認識する機能を有する。
割り込み制御手段107dは、あるプログラムの処理中に他のプログラムの処理を割り込ませる割り込み処理の制御を行う。
ディスク制御手段107eは、光学読取装置105に挿入された光学媒体の種類を判別し、文字データ、画像データ、音声データの読み出しの管理を行う。
表示装置制御手段107fは、表示装置104の画像表示を管理する。
実行手段107gは、アプリケーションを実行する。
The analysis unit 107c is configured by software, and has a function of analyzing image data from the camera 103 and recognizing the palm movement of the user as a gesture.
The interrupt control unit 107d controls interrupt processing that interrupts processing of another program during processing of a certain program.
The disk control unit 107e determines the type of the optical medium inserted into the optical reader 105, and manages the reading of character data, image data, and audio data.
The display device control unit 107f manages the image display of the display device 104.
The execution unit 107g executes an application.

RAM108は、例えばフラッシュメモリが用いられる。
ROM109は、例えばマスクROMが用いられる。
I/O109は、ノートパソコン100と、図には示されないUSB(Universal Serial Bus)フラッシュメモリを含む外部のデバイスとのデータの授受を管理する。
尚、ノートパソコン100は、ハードウェア的には通常のノートパソコンと同様の構成を有しており、地上デジタル放送を視聴するためのチューナーやインターネット接続のためのモデムを備えていてもよい。
For example, a flash memory is used as the RAM 108.
For example, a mask ROM is used as the ROM 109.
The I / O 109 manages data exchange between the notebook personal computer 100 and an external device including a USB (Universal Serial Bus) flash memory (not shown).
Note that the notebook computer 100 has a hardware configuration similar to that of an ordinary notebook computer, and may include a tuner for viewing digital terrestrial broadcasting and a modem for Internet connection.

図3(a)、(b)は、図1に示したノートパソコン100に用いられるジェスチャーの一例を示した説明図であり、ユーザーの手の平の動きをユーザーの対面から見た図である。本実施形態では、ユーザーが右手をカメラ103にかざした場合で説明するが左手であってもよい。
図中の矢印で、一本線の矢印(→)は手形状や手の状態の遷移を表し、中抜きの矢印はベクトルを表す。
実施形態において12種類のジェスチャーにより、ノートパソコン100を操作しているが、本発明はこれに限定されるものではない。
図3(a)は、ユーザーの右手によるマウスカーソル操作を示す図であり、図3(b)は、矢印P1のように移動させる場合を示しているが限定されるものではない。
図3(b)に示すように所定時間毎のユーザーの手の平の動きは、複数(図では5つであるが限定されない。)のベクトルV1←、V2←、V3←、V4←、V5←のように分解できる。これらのベクトルV1←、V2←、V3←、V4←、V5←の変化から手の平の動きを解析し、所定のコマンドかカーソル操作かが判断される。コマンドか否かは向きと速度で判定可能である。手の平の動きがカーソル操作か否かは直前のコマンドにより判断可能である。すなわち、移動速度が所定値より大きい場合、そのベクトルの向きに対応したコマンドと判定され、所定値より小さい場合、そのベクトルの向きへのカーソル操作と判定される。
FIGS. 3A and 3B are explanatory diagrams showing examples of gestures used in the notebook computer 100 shown in FIG. 1, and are views of the user's palm movement viewed from the user's face. In this embodiment, the case where the user holds the right hand over the camera 103 will be described, but the left hand may be used.
In the figure, a single-line arrow (→) represents a transition in hand shape or hand state, and a hollow arrow represents a vector.
In the embodiment, the notebook computer 100 is operated by 12 types of gestures, but the present invention is not limited to this.
FIG. 3A is a diagram showing a mouse cursor operation by the user's right hand, and FIG. 3B shows a case of moving as indicated by an arrow P1, but is not limited thereto.
As shown in FIG. 3 (b), the user's palm movements at predetermined time intervals are a plurality of (in the figure, five, but not limited) vectors V1 ←, V2 ←, V3 ←, V4 ←, V5 ←. Can be disassembled. The movement of the palm is analyzed from the change of these vectors V1 ←, V2 ←, V3 ←, V4 ←, V5 ←, and it is determined whether a predetermined command or a cursor operation is performed. Whether it is a command or not can be determined by the direction and speed. Whether or not the palm movement is a cursor operation can be determined by the immediately preceding command. That is, when the moving speed is larger than a predetermined value, it is determined that the command corresponds to the direction of the vector, and when the moving speed is lower than the predetermined value, it is determined that the cursor is operated in the direction of the vector.

ここで、「クリック」はマウスの左クリック、「ドラッグ&ドロップ」はマウスのドラッグ&ドロップに対応する。また、右フリックは、「進む」、左フリックは「戻る」、上フリックは「上スクロール」、下フリックは「下スクロール」、時計回りのサークルは「拡大」、反時計回りのサークルは「縮小」、「プル」は、図示しない携帯情報端末の起動、「ウェイブ」は、スタート画面に戻るコマンド操作に対応する。   Here, “click” corresponds to the left click of the mouse, and “drag and drop” corresponds to the drag and drop of the mouse. Also, right flick is "forward", left flick is "back", upper flick is "up scroll", lower flick is "down scroll", clockwise circle is "enlarge", counterclockwise circle is "reduced" “,” “Pull” corresponds to activation of a portable information terminal (not shown), and “wave” corresponds to a command operation for returning to the start screen.

<動 作>
図4は、図1に示したノートパソコンの動作を説明するためのフローチャートの一例である。図5は、図1に示したノートパソコンにおいて、ジェスチャーアプリの初回起動時に表示される画面の一例であり、図6は、ジェスチャー練習をする場合に表示される画面の一例であり、図7は、ジェスチャー練習を終了したときに表示される画面の一例であり、図8は、ジェスチャー機能を起動させたときに表示される画面の一例である。
<Operation>
FIG. 4 is an example of a flowchart for explaining the operation of the notebook computer shown in FIG. FIG. 5 is an example of a screen displayed when the gesture application is first activated in the notebook computer shown in FIG. 1, FIG. 6 is an example of a screen displayed when practicing gesture, and FIG. FIG. 8 is an example of a screen displayed when the gesture practice is finished, and FIG. 8 is an example of a screen displayed when the gesture function is activated.

図4に示すフローチャートの動作の主体は、図2に示した制御部107である。
制御部107は、ユーザーの手の平がT*1時間静止しているか否かを判断し(ステップS1)、手の平が静止していると判断すると(ステップS1/Yes)、特定条件での手の平の移動(※)があるか否かを判断する(ステップS2)。
制御部107は、手の平の移動があると判断すると(ステップS2/Yes)、手の平の静止検出後の経過時間がT*2以内か否かを判断し(ステップS3)、経過時間がT*2以内であると判断すると(ステップS3/Yes)、該当するジェスチャーであると認識する(ステップS4)。
制御部107は、手の平がT*1時間静止していないと判断した場合(ステップS1/No)、特定条件での手の平の移動(※)がないと判断した場合(ステップS2/No)、手の平の静止検出後の経過時間がT*2以内でないと判断した場合(ステップS3/No)、ステップS1に戻る。
The main body of the operation of the flowchart shown in FIG. 4 is the control unit 107 shown in FIG.
The control unit 107 determines whether or not the user's palm is stationary for T * 1 time (step S1). When the control unit 107 determines that the palm is stationary (step S1 / Yes), the palm moves under a specific condition. It is determined whether there is (*) (step S2).
When the control unit 107 determines that there is movement of the palm (step S2 / Yes), the control unit 107 determines whether or not the elapsed time after detecting the stillness of the palm is within T * 2 (step S3), and the elapsed time T * 2. If it is determined that it is within (step S3 / Yes), it is recognized as the corresponding gesture (step S4).
When the control unit 107 determines that the palm is not stationary for T * 1 time (step S1 / No), or determines that there is no palm movement (*) under the specific condition (step S2 / No), the control unit 107 If it is determined that the elapsed time after the stationary detection is not within T * 2 (No in step S3), the process returns to step S1.

ここで、上下左右フリック、サークル、ウェイブ、マウスサークル操作について再度詳述する。
<上下左右フリック>
手の平の移動方向:上/下/左/右 方向
ジェスチャー解析開始点:手の平がTf1静止した点
移動速度:一定時間(Tf2)以内に、一定距離(Df)以上の移動
※Tf1、Tf2、Df:任意の値
手の平がTf1静止したら、その静止点からジェスチャーの解析を開始する。
解析開始後、Tf2以内に、上下左右いずれかの方向に直線でDf以上の手の平の移動が検出されたら、移動方向のフリックであると認識する。
Here, the up / down / left / right flick, circle, wave, and mouse circle operations will be described in detail again.
<Up / down / left / right flick>
Direction of palm movement: Up / Down / Left / Right Direction Gesture analysis start point: Point where the palm has stopped at T f1 Movement speed: Movement over a certain distance (D f ) within a certain time (T f2 ) * T f1 , T f2 , Df: Arbitrary values When the palm of the hand is T f1 stationary, the analysis of the gesture is started from that stationary point.
If the movement of the palm equal to or greater than D f is detected in a straight line in either the top, bottom, left or right direction within T f2 after the start of analysis, it is recognized as a flick in the movement direction.

<サークル>
手の平の移動方向:円の軌跡
ジェスチャー解析開始点:手の平がTc1静止した点
移動速度:一定時間(Tc2)以内に、一定半径(Dc)以上の円形の移動
※Tc1、Tc2、Dc:任意の値
手の平がTc1静止したら、その点からジェスチャーの解析を開始する。
解析開始後、Tc2以内に、半径Dc以上の円形の手の平の移動が検出されたらサークルと認識する。
<Circle>
Movement direction of the palm: locus of circle Gesture analysis start point: point where the palm is Tc1 stationary Movement speed: circular movement of a certain radius ( Dc ) or more within a certain time ( Tc2 ) * Tc1 , Tc2 , D c : Arbitrary value When the palm of the hand is T c1 , the analysis of the gesture is started from that point.
If the movement of a circular palm with a radius Dc or more is detected within T c2 after the start of analysis, it is recognized as a circle.

<ウェイブ>
手の平の移動方向:左右の往復
ジェスチャー解析開始点:手の平がTW1静止した点
移動速度:一定時間(Tw2)以内に、一定幅(Dw)以上の振り幅で一定回数(Nw)以上の移動
※Tw1、Tw2、Nw:任意の値
手の平がTw1静止したら、その静止点からジェスチャーの解析を開始する。
解析開始後、Tw2以内に、Dw以上の振り幅でNw以上の左右方向で交互に手の移動が検出されたらウェイブであると認識する。
<Wave>
Movement direction of palm: Reciprocating left and right Gesture analysis start point: Point where palm is stationary T W1 Movement speed: Within a certain time (T w2 ), a certain width (D w ) or more and a certain number of times (N w ) * T w1 , T w2 , N w : Arbitrary values When the palm of the palm stops at T w1 , the analysis of the gesture is started from that stationary point.
After analysis start, within T w2, the movement of the hand alternately left and right directions above Nw at D w or more swing width of wave upon detecting recognize.

<マウスカーソル操作>
上記を満たさないカメラ平面方向の手の平の動きは、マウスカーソル操作と認識する。
<Mouse cursor operation>
A palm movement in the camera plane direction that does not satisfy the above condition is recognized as a mouse cursor operation.

尚、ジェスチャーアプリが起動された場合は、図5に示すメニュー画面を表示する。
図5において、メニュー画面としてのジェスチャー機能の設定の画面には、注意書きの一例として、「ハンドジェスチャーでは、リモコンやマウスを使わずに手の平のジェスチャーだけで情報処理装置の操作をおこなうことができます。」の文字情報が表示される。情報処理装置の操作とは、前述したカーソル操作やコマンド操作を意味する。
When the gesture application is activated, the menu screen shown in FIG. 5 is displayed.
In FIG. 5, the gesture function setting screen as a menu screen is an example of a note. “Hand gestures allow the user to operate the information processing device with only a palm gesture without using a remote control or a mouse. "Is displayed. The operation of the information processing apparatus means the above-described cursor operation or command operation.

図5に示す画面の左側には複数(図では4つであるが限定されない。)のボタンB1〜B4が表示される。このうち「練習する」及び「キャンセル」のボタンB1、B4のみアクティブになっている。これは、ジェスチャーアプリの初回起動時にユーザーに強制的に練習させるためである。「練習する」のボタンB1の横には例えば、「各ジェスチャーの方法を練習することができます。ハンドジェスチャーを快適に使うには練習することをおすすめします。」の文字情報が表示される。ハンドジェスチャーを快適に使うにはジェスチャーの認識率を向上させる必要があり、そのため、ユーザーに練習することを促しているのである。「キャンセル」のボタンB4は表示されている画面を終了するためのボタンである。   On the left side of the screen shown in FIG. 5, a plurality of buttons (four in the figure, but not limited) B1 to B4 are displayed. Of these, only the “practice” and “cancel” buttons B1 and B4 are active. This is to force the user to practice when the gesture app is first activated. Next to the “Practice” button B1, for example, the text information “I can practice each gesture method. I recommend you practice to use hand gestures comfortably.” Is displayed. . In order to use hand gestures comfortably, it is necessary to improve the recognition rate of gestures, which encourages users to practice. The “Cancel” button B4 is a button for ending the displayed screen.

図6に示す画面において、左側にジェスチャーのお手本画像が表示され、右側にモニターウィンドウが表示される。モニターウィンドウの上側にはガイドアイコンが表示される。お手本動画とモニターウィンドウ、ガイドアイコンの位置関係はこのかぎりではない。また、本実施形態ではガイドアイコンが表示される場合で説明しているが、本発明はこれに限定されるものではなくガイドアイコンは表示されなくてもよい。
モニターウィンドウにはユーザーの手の平の位置を抽出していることを表示するための枠が表示される。
In the screen shown in FIG. 6, a model image of the gesture is displayed on the left side, and a monitor window is displayed on the right side. A guide icon is displayed on the upper side of the monitor window. The positional relationship between the model video, the monitor window, and the guide icon is not limited to this. In the present embodiment, the guide icon is displayed. However, the present invention is not limited to this, and the guide icon may not be displayed.
A frame for displaying that the palm position of the user is extracted is displayed on the monitor window.

お手本画像としては、例えば、インストラクターの動画像またはアニメ動画像もしくはインストラクターの静止画像またはアニメ静止画像を1コマずつ表示するスライド表示画像が挙げられる。お手本画像が表示されると同時にジェスチャーの説明の音声を発生させるか、もしくは説明文をお手本画像中に表示してもよい。   Examples of the model image include a slide display image that displays a moving image of an instructor or an animation moving image or a still image of an instructor or an animation still image one frame at a time. At the same time as the model image is displayed, a voice explaining the gesture may be generated, or an explanatory text may be displayed in the model image.

モニターウィンドウは、カメラ103で撮影されたユーザーの手を含む画像が表示されるが、そのまま表示すると、お手本画像としてのインストラクターの手の平の動きと左右が逆になり、ユーザーが混乱するおそれがあるので、左右反転させてインストラクターと同じ動きを表示するようになっている。モニターウィンドウのうち、ユーザーの手の平を囲むように矩形が表示される。これは、ノートパソコン100の画像処理において、手の平を抽出していることを表示することにより、ユーザーに手の平が画面内に位置するように注意を促すためである。   The monitor window displays an image including the user's hand taken by the camera 103. However, if displayed as it is, the instructor's palm movement as a model image will be reversed and the user may be confused. It is designed to display the same movement as the instructor by flipping left and right. A rectangle is displayed around the user's palm in the monitor window. This is for displaying the fact that the palm is extracted in the image processing of the notebook personal computer 100, thereby urging the user to position the palm within the screen.

お手本画像の上側には例えば、「次のジェスチャー練習に進むには「>」を押してください。前のジェスチャーの練習に戻るには「<」を押してください。」の文字情報が表示されている。この表示に従ってユーザーが「>」、もしくは「<」を選択することにより、練習したいジェスチャーのお手本画像が表示される。
モニターウィンドウの右下側には終了のラジオボタンが表示されている。
For example, on the upper side of the model image, press “>” to go to the next gesture practice. To return to the previous gesture practice, press “<”. "Is displayed. When the user selects “>” or “<” according to this display, a model image of the gesture to be practiced is displayed.
A close radio button is displayed on the lower right side of the monitor window.

ユーザーによるジェスチャーの練習が終了すると、終了のボタンをキーボード101もしくはマウス102の操作によりクリックするとハンドジェスチャーの画面が終了する。ジェスチャー機能の設定を行うことになる。   When the user completes the gesture practice, clicking the end button by operating the keyboard 101 or the mouse 102 ends the hand gesture screen. Set the gesture function.

図7に示すジェスチャー機能の設定画面が表示される。図7に示す画面と図5に示す画面との相違点は、ボタンB2、B3がアクティブになっている点である。ボタンB2は、ジェスチャー機能を使用するためのボタンであり、ボタンB3はジェスチャー機能を終了するためのボタンである。
すなわち、ジェスチャー練習が終了すると、ジェスチャー機能を使用することができるのである。
A gesture function setting screen shown in FIG. 7 is displayed. The difference between the screen shown in FIG. 7 and the screen shown in FIG. 5 is that the buttons B2 and B3 are active. The button B2 is a button for using the gesture function, and the button B3 is a button for ending the gesture function.
That is, when the gesture practice is completed, the gesture function can be used.

ユーザーがキーボード101もしくはマウス102によりボタンB2をクリックすると、ジェスチャー入力の動作が開始し、図8に示す画面が表示される。画面の中央には、例えば数秒間「ジェスチャー機能起動」の文字情報が表示される。画面の右下の隅には画面の十数分の1程度の大きさのモニターウィンドウが表示される。画面の上方にはジェスチャーのアイコンが表示される。これらはユーザー確認用のための画像である。
ここで、アイコンは、画面の中央ではなく周辺に表示されるようになっている。これは、画面に例えば地上デジタルテレビジョン放送やインターネット放送の画面を表示する際に邪魔にならないようにするためである。
制御部107は、ユーザーの手の平の移動方向と移動速度とでジェスチャーアプリ認識を行い、ジェスチャーに対応した動作(例えば、クリックやフリック等の動作)を行う。ジェスチャー入力を終了する場合には、画面の中の終了ボタン(例えば、画面右下の閉じるボタン)をクリックすることで終了する。
When the user clicks the button B2 with the keyboard 101 or the mouse 102, the gesture input operation starts and the screen shown in FIG. 8 is displayed. In the center of the screen, for example, the character information “gesture function activated” is displayed for a few seconds. In the lower right corner of the screen, a monitor window having a size of about one-tenth of the screen is displayed. A gesture icon is displayed at the top of the screen. These are images for user confirmation.
Here, the icons are displayed not on the center of the screen but on the periphery. This is in order not to get in the way when displaying, for example, a digital terrestrial television broadcast or internet broadcast screen on the screen.
The control unit 107 performs gesture application recognition based on the moving direction and moving speed of the palm of the user, and performs an operation corresponding to the gesture (for example, an operation such as clicking or flicking). When ending the gesture input, it is ended by clicking an end button in the screen (for example, a close button at the lower right of the screen).

ここで、図7に示す画面は、ユーザーが2回目以降のジェスチャー操作を行う場合にジェスチャーの練習画面を表示するか否かを選択するための選択画面に対応する。
すなわち、ユーザーが練習画面の表示を選択した場合には練習画面を表示し、選択しない場合には、練習画面を省略してジェスチャー操作の本番画面としての図8を表示するのである。
Here, the screen shown in FIG. 7 corresponds to a selection screen for selecting whether or not to display a gesture practice screen when the user performs a gesture operation for the second time or later.
That is, when the user selects display of the practice screen, the practice screen is displayed, and when not selected, the practice screen is omitted and FIG. 8 is displayed as a production screen for gesture operation.

<作用効果>
以上において、本実施形態によれば、ユーザーの手の平の移動方向と移動速度とでジェスチャーを認識するので、ジェスチャーの認識率を向上させた情報処理方法、情報処理装置、及びプログラムの提供を実現することができる。
<Effect>
As described above, according to the present embodiment, since the gesture is recognized based on the moving direction and the moving speed of the palm of the user, it is possible to provide an information processing method, an information processing apparatus, and a program with an improved gesture recognition rate. be able to.

<プログラム>
以上で説明した本発明にかかる画像処理装置は、コンピュータで処理を実行させるプログラムによって実現されている。コンピュータとしては、例えばパーソナルコンピュータやワークステーション等の汎用的なものが挙げられるが、本発明はこれに限定されるものではない。よって、一例として、プログラムにより本発明を実現する場合の説明を以下で行う。
<Program>
The image processing apparatus according to the present invention described above is realized by a program that causes a computer to execute processing. Examples of the computer include general-purpose computers such as personal computers and workstations, but the present invention is not limited to this. Therefore, as an example, a case where the present invention is realized by a program will be described below.

例えば、
情報処理装置のコンピュータに、
実行手段が、アプリケーションを実行する手順、
撮影手段が、ユーザーによる手の平を撮影して画像データに変換する手順、
解析手段が、画像データからユーザーの手の平を検出し、複数の画像データにおいてユーザーの手の平として検出された部分を比較することにより手の平の動作を解析し、手の平の動作パターンとして予め定義されたジェスチャーを特定する手順、
制御手段が、実行手段で実行されているアプリケーションと特定されたジェスチャーとに関連づけて予め定義された処理を実施する手順、
を実行させるプログラムであって、
解析手段が、所定の速度範囲内における手の平として検出された部分の移動方向に応じてジェスチャーを特定する手順、
を実行させるプログラムが挙げられる。
For example,
In the computer of the information processing device,
A procedure in which the execution means executes the application;
The procedure by which the photographing means shoots the palm of the user and converts it to image data,
Analyzing means detects the palm of the user from the image data, analyzes the palm movement by comparing the parts detected as the palm of the user in a plurality of image data, and generates a gesture predefined as a palm movement pattern. Steps to identify,
A procedure in which the control means performs a predefined process in association with the application being executed by the execution means and the identified gesture;
A program for executing
A procedure for the analysis means to identify a gesture according to a moving direction of a portion detected as a palm within a predetermined speed range;
A program that executes

これにより、プログラムが実行可能なコンピュータ環境さえあれば、どこにおいても本発明にかかる情報処理装置を実現することができる。
<記憶媒体>
Thus, the information processing apparatus according to the present invention can be realized anywhere as long as there is a computer environment capable of executing the program.
<Storage medium>

このようなプログラムは、コンピュータに読み取り可能な記憶媒体に記憶されていてもよい。
ここで、記憶媒体としては、例えば、CD−ROM(Compact Disc Read Only Memory)、フレキシブルディスク(FD)、CD−R(CD Recordable)等のコンピュータで読み取り可能な記憶媒体、フラッシュメモリ、RAM、ROM、FeRAM(強誘電体メモリ)等の半導体メモリやHDDが挙げられる。
Such a program may be stored in a computer-readable storage medium.
Here, examples of the storage medium include a computer-readable storage medium such as a CD-ROM (Compact Disc Read Only Memory), a flexible disk (FD), and a CD-R (CD Recordable), a flash memory, a RAM, and a ROM. And semiconductor memories such as FeRAM (ferroelectric memory) and HDDs.

尚、上述した実施の形態は、本発明の好適な実施の形態の一例を示すものであり、本発明はそれに限定されることなく、その要旨を逸脱しない範囲内において、種々変形実施が可能である。   The above-described embodiment shows an example of a preferred embodiment of the present invention, and the present invention is not limited thereto, and various modifications can be made without departing from the scope of the invention. is there.

100 ノートパソコン
101 キーボード
102 マウス
103 カメラ(Webカメラ)
104 液晶表示装置
105 光学読取装置
106 HDD
107 制御部
107a 入力制御手段
107b トレーニング手段
107c 解析手段
107d 割り込み制御手段
107e ディスク制御手段
107f 表示装置制御手段
107g 実行手段
108 RAM
109 ROM
110 I/O
111 バスライン
100 Notebook PC 101 Keyboard 102 Mouse 103 Camera (Web Camera)
104 Liquid crystal display device 105 Optical reader 106 HDD
107 control section 107a input control means 107b training means 107c analysis means 107d interrupt control means 107e disk control means 107f display device control means 107g execution means 108 RAM
109 ROM
110 I / O
111 bus line

Claims (4)

ユーザーの手の平を撮影して画像データに変換し、前記画像データから前記ユーザーの手の平を検出し、複数の画像データにおいて前記ユーザーの手の平として検出された部分を比較することにより前記手の平の動作を解析し、前記手の平の動作パターンとして予め定義されたジェスチャーを特定し、実行されているアプリケーションと前記特定されたジェスチャーとに関連づけて予め定義された処理を実施する情報処理方法において、
所定の速度範囲内における手の平として検出された部分の移動方向に応じてジェスチャーを特定することを特徴とする情報処理方法。
The user's palm is photographed and converted into image data, the user's palm is detected from the image data, and the operation of the palm is analyzed by comparing portions detected as the user's palm in a plurality of image data. In the information processing method for identifying a gesture defined in advance as the palm movement pattern, and performing a predefined process in association with the application being executed and the identified gesture,
An information processing method characterized by identifying a gesture according to a moving direction of a portion detected as a palm within a predetermined speed range.
前記撮影された前記ユーザーの画像と、インストラクターによる手本の画像とを同一画面上に表示することを特徴とする請求項1記載の情報処理方法。   The information processing method according to claim 1, wherein the photographed image of the user and a model image by the instructor are displayed on the same screen. アプリケーションを実行する実行手段と、
ユーザーの手の平を撮影して画像データに変換する撮影手段と、
前記画像データから前記ユーザーの手の平を検出し、複数の画像データにおいて前記ユーザーの手の平として検出された部分を比較することにより前記手の平の動作を解析し、前記手の平の動作パターンとして予め定義されたジェスチャーを特定する解析手段と、
前記実行手段で実行されているアプリケーションと前記特定されたジェスチャーとに関連づけて予め定義された処理を実施する制御手段と、を備えた情報処理装置において、
前記解析手段は、所定の速度範囲内における手の平として検出された部分の移動方向に応じてジェスチャーを特定することを特徴とする情報処理装置。
An execution means for executing the application;
Photographing means for photographing a user's palm and converting it into image data;
The user's palm is detected from the image data, the movement of the palm is analyzed by comparing portions detected as the user's palm in a plurality of image data, and a gesture defined in advance as the palm movement pattern is analyzed. Analysis means for identifying
In an information processing apparatus comprising: an application executed by the execution unit; and a control unit that performs a predefined process in association with the specified gesture,
The information processing apparatus is characterized in that the analysis unit specifies a gesture according to a moving direction of a portion detected as a palm within a predetermined speed range.
情報処理装置のコンピュータに、
実行手段が、アプリケーションを実行する手順、
撮影手段が、ユーザーによる手の平を撮影して画像データに変換する手順、
解析手段が、前記画像データから前記ユーザーの手の平を検出し、複数の画像データにおいて前記ユーザーの手の平として検出された部分を比較することにより前記手の平の動作を解析し、前記手の平の動作パターンとして予め定義されたジェスチャーを特定する手順、
制御手段が、前記実行手段で実行されているアプリケーションと前記特定されたジェスチャーとに関連づけて予め定義された処理を実施する手順、
を実行させるプログラムであって、
前記解析手段が、所定の速度範囲内における手の平として検出された部分の移動方向に応じてジェスチャーを特定する手順、
を実行させることを特徴とするプログラム。
In the computer of the information processing device,
A procedure in which the execution means executes the application;
The procedure by which the photographing means shoots the palm of the user and converts it to image data,
Analyzing means detects the palm of the user from the image data, analyzes the operation of the palm by comparing portions detected as the palm of the user in a plurality of image data, and previously as an operation pattern of the palm Procedures to identify defined gestures,
A procedure in which the control means performs a predefined process in association with the application being executed by the execution means and the specified gesture;
A program for executing
A procedure in which the analyzing means specifies a gesture according to a moving direction of a portion detected as a palm within a predetermined speed range;
A program characterized by having executed.
JP2012236125A 2012-10-25 2012-10-25 Information processing method, information processing device, and program Pending JP2014085964A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012236125A JP2014085964A (en) 2012-10-25 2012-10-25 Information processing method, information processing device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012236125A JP2014085964A (en) 2012-10-25 2012-10-25 Information processing method, information processing device, and program

Publications (1)

Publication Number Publication Date
JP2014085964A true JP2014085964A (en) 2014-05-12

Family

ID=50788941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012236125A Pending JP2014085964A (en) 2012-10-25 2012-10-25 Information processing method, information processing device, and program

Country Status (1)

Country Link
JP (1) JP2014085964A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9448641B2 (en) 2014-05-21 2016-09-20 Denso Corporation Gesture input apparatus
JP2017211884A (en) * 2016-05-26 2017-11-30 トヨタ紡織株式会社 Motion detection system
CN109697038A (en) * 2017-10-23 2019-04-30 富士施乐株式会社 Information processing unit, information processing method and computer-readable medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010095204A1 (en) * 2009-02-18 2010-08-26 株式会社 東芝 Interface controller and method thereof
JP2010257093A (en) * 2009-04-23 2010-11-11 Hitachi Ltd Input device
JP2011186730A (en) * 2010-03-08 2011-09-22 Sony Corp Information processing device and method, and program
JP2012146304A (en) * 2011-01-06 2012-08-02 Samsung Electronics Co Ltd Display unit controlled by motion and motion control method for the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010095204A1 (en) * 2009-02-18 2010-08-26 株式会社 東芝 Interface controller and method thereof
JP2010257093A (en) * 2009-04-23 2010-11-11 Hitachi Ltd Input device
JP2011186730A (en) * 2010-03-08 2011-09-22 Sony Corp Information processing device and method, and program
JP2012146304A (en) * 2011-01-06 2012-08-02 Samsung Electronics Co Ltd Display unit controlled by motion and motion control method for the same

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9448641B2 (en) 2014-05-21 2016-09-20 Denso Corporation Gesture input apparatus
JP2017211884A (en) * 2016-05-26 2017-11-30 トヨタ紡織株式会社 Motion detection system
CN109697038A (en) * 2017-10-23 2019-04-30 富士施乐株式会社 Information processing unit, information processing method and computer-readable medium
JP2019079207A (en) * 2017-10-23 2019-05-23 富士ゼロックス株式会社 Information processing device and program
JP7155505B2 (en) 2017-10-23 2022-10-19 富士フイルムビジネスイノベーション株式会社 Information processing device, program and control method
CN109697038B (en) * 2017-10-23 2023-08-25 富士胶片商业创新有限公司 Information processing apparatus, information processing method, and computer readable medium

Similar Documents

Publication Publication Date Title
JP6286599B2 (en) Method and apparatus for providing character input interface
RU2591671C2 (en) Edge gesture
JP5980913B2 (en) Edge gesture
JP5659586B2 (en) Display control device, display control method, display control program, and recording medium
US20120304131A1 (en) Edge gesture
TWI655572B (en) Information processing device, information processing method and computer readable recording medium
US20110304649A1 (en) Character selection
JPWO2013099042A1 (en) Information terminal, information terminal control method, and program
JP2010139686A (en) Projector, program, and information storage medium
JP5865615B2 (en) Electronic apparatus and control method
US20140317549A1 (en) Method for Controlling Touchscreen by Using Virtual Trackball
JP2014085964A (en) Information processing method, information processing device, and program
JP5831882B2 (en) Information processing apparatus, information processing method, and program
JP5831883B2 (en) Information processing apparatus, information processing method, and program
JP2014085967A (en) Information processing device, information processing method, and program
US20120151409A1 (en) Electronic Apparatus and Display Control Method
US20130201095A1 (en) Presentation techniques
JP2014085965A (en) Information processing device, information processing method, and program
TWI408488B (en) Interactive projection system and system control method thereof
JP2014082605A (en) Information processing apparatus, and method of controlling and program for the same
JP7077024B2 (en) Electronic devices, information processing methods, programs and storage media
JP6146510B2 (en) Display control device, display control method, display control program, and recording medium
Myers Touch-Enhanced Gesture Control Scheme
JP2019125024A (en) Electronic device, information processing method, program, and storage medium
KR20180056973A (en) Apparatus and method of providing additional function and feedback to other apparatus by using information of multiple sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150319

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150804