JP2013142980A - Gesture recognition device and program therefor - Google Patents

Gesture recognition device and program therefor Download PDF

Info

Publication number
JP2013142980A
JP2013142980A JP2012002418A JP2012002418A JP2013142980A JP 2013142980 A JP2013142980 A JP 2013142980A JP 2012002418 A JP2012002418 A JP 2012002418A JP 2012002418 A JP2012002418 A JP 2012002418A JP 2013142980 A JP2013142980 A JP 2013142980A
Authority
JP
Japan
Prior art keywords
gesture
stroke
center point
gesture recognition
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012002418A
Other languages
Japanese (ja)
Other versions
JP5756762B2 (en
Inventor
Ryosuke Aoki
良輔 青木
Masayuki Ihara
雅行 井原
Toru Kobayashi
透 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012002418A priority Critical patent/JP5756762B2/en
Publication of JP2013142980A publication Critical patent/JP2013142980A/en
Application granted granted Critical
Publication of JP5756762B2 publication Critical patent/JP5756762B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a gesture recognition device capable of recognizing many different figures input with gestures using a small number of calculations.SOLUTION: The gesture recognition device creates an image representing a drawing track based on a set of positional coordinates of drawing points from the start to the end of the gesture stored in a finger position accumulation section 25, and takes out a minimum rectangular area representing the drawing track of the image using a frame pattern. After normalizing the size of the rectangular area image of the minimum area which includes the taken out drawing track, the figure represented by the drawing track is recognized using a recognition algorithm applying "SVM using DtB" based on the rectangular area image. The recognition processing of the figure is carried out as described below; i.e., an angle range of each of the upper side, the lower side, the right side and the left side is selected in order with respect to the center point of the drawing track, and distance information (information on the center point DtB) from the center point of the drawing track to the drawing track is calculated and input in a SVM model. The recognition processing of the figure is carried out by repeating the above recognition processing the figure represented by the drawing track.

Description

この発明は、例えばテレビジョン受信機や録画再生装置に対し離れた場所からチャネル情報や制御情報等を入力するために用いる、指又は腕の動き又は形状によるジェスチャを認識するジェスチャ認識装置及びそのプログラムに関する。   The present invention relates to a gesture recognition device for recognizing a gesture based on the movement or shape of a finger or arm and a program thereof used for inputting channel information, control information, etc. from a remote location, for example, to a television receiver or a recording / playback device. About.

テレビジョン受信機に取り付け可能なカメラや赤外線距離センサを備える電子機器が安価に簡単に手に入るようになり、リモートコントローラを使わずに、手もしくは指のジェスチャによってテレビジョン受信機のメニュー項目を選択する方式が提案されている。このジェスチャ入力方式は、例えばユーザの指の動きをカメラを用いて撮像し、この撮像された画像データから指の動作軌跡を図形として検出して、この検出された図形を認識するものとなっている。   Electronic devices equipped with cameras and infrared distance sensors that can be attached to television receivers can be obtained easily and inexpensively, and menu items for television receivers can be accessed by hand or finger gestures without using a remote controller. A method of selecting has been proposed. In this gesture input method, for example, the movement of the user's finger is imaged using a camera, and the movement locus of the finger is detected as a graphic from the captured image data, and the detected graphic is recognized. Yes.

ジェスチャを認識するための手法には様々あるが、その1つとして一筆書きジェスチャ入力方式が提案されている。この一筆書きジェスチャ入力方式は、入力対象のメニュー項目に対し予め対応付けられたジェスチャを一筆書き操作により入力するもので、直感的で自然な動きによってジェスチャ入力できる利点がある(例えば、非特許文献1を参照)。   There are various methods for recognizing gestures, and one stroke writing gesture input method has been proposed as one of them. This one-stroke gesture input method inputs a gesture previously associated with a menu item to be input by a one-stroke operation, and has an advantage that a gesture can be input by an intuitive and natural movement (for example, non-patent literature). 1).

青木 良輔、唐津 豊、井原 雅行、前田 篤彦、渡部 智樹、小林 稔、鏡 慎吾:“大型ディスプレイ上のメニュー選択に適したカメラによる一筆書きジェスチャインタフェース”、ヒューマンインタフェース学会研究報告集2010,VOL.12,NO.9,35-42.Ryosuke Aoki, Yutaka Karatsu, Masayuki Ihara, Atshiko Maeda, Tomoki Watanabe, Satoshi Kobayashi, Shingo Kagami: “Single-stroke gesture interface with a camera suitable for menu selection on a large display”, Human Interface Society Research Report 2010, VOL.12 , NO.9, 35-42.

一筆書きジェスチャ入力方式は、人の手もしくは指によって描かれた一筆書き直線と円のみの図形を識別しているが、実際にテレビジョン受信機の操作メニューの項目数は多く、より多種類の図形の識別を可能にする必要がある。ジェスチャ認識アルゴリズムとしては、一般に“Hidden Markov Machine”が使用されている。しかし、このアルゴリズムは計算量が大きく、リアルタイム性が求められるテレビジョン受信機のメニュー操作には適さない。   The single-stroke gesture input method identifies single-stroke straight lines and circles drawn by a human hand or finger, but there are actually a large number of items in the operation menu of the television receiver. It is necessary to be able to identify the figure. “Hidden Markov Machine” is generally used as a gesture recognition algorithm. However, this algorithm requires a large amount of calculation and is not suitable for menu operation of a television receiver that requires real-time performance.

この発明は上記事情に着目してなされたもので、その目的とするところは、ジェスチャにより入力された多種類の図形を簡単なアルゴリズムで短時間に認識できるようにし、これによりリアルタイム性の向上を図ったジェスチャ認識装置及びそのプログラムを提供することにある。   The present invention has been made paying attention to the above circumstances, and the object of the present invention is to make it possible to recognize various types of figures input by gestures in a short time with a simple algorithm, thereby improving real-time characteristics. The object is to provide a gesture recognition apparatus and a program thereof.

上記目的を達成するためにこの発明の1つの観点は、ジェスチャにより空間に図形を描く動きを撮像してその画像データを出力する撮像装置と、上記撮像装置から出力された画像データをもとに上記ジェスチャにより描かれた図形を認識する機能を有するジェスチャ認識装置とを具備するシステムで使用される上記ジェスチャ認識装置にあって、
上記撮像装置から出力された画像データを所定の周期で取り込む手段と、上記画像データが取り込まれるごとに当該画像データから上記ジェスチャによる描画点の位置情報を検出し、この検出された描画点の位置情報を記憶手段に格納する手段と、上記記憶手段に格納された描画点の位置情報の集合をもとに上記ジェスチャによる描画軌跡を表す情報を作成する手段と、図形認識手段とを具備する。そして、この図形認識手段により、上記作成された描画軌跡を表す情報をもとに、当該描画軌跡の中心点又は重心点を求めると共に、この求められた中心点又は重心点から上記描画軌跡までの距離を所定の角度間隔で求め、この求められた距離の集合をもとに上記描画軌跡の形状を識別して、この識別された描画軌跡の形状をもとに上記描画軌跡により表される図形を認識する処理を行うようにしたものである。
In order to achieve the above object, one aspect of the present invention is based on an imaging device that captures a motion of drawing a figure in a space by a gesture and outputs the image data, and image data output from the imaging device. In the gesture recognition device used in a system comprising a gesture recognition device having a function of recognizing a figure drawn by the gesture,
Means for capturing image data output from the imaging device at a predetermined cycle, and each time the image data is captured, position information of the drawing point by the gesture is detected from the image data, and the position of the detected drawing point is detected. Means for storing information in the storage means, means for creating information representing the drawing trajectory by the gesture based on a set of drawing point position information stored in the storage means, and figure recognition means. Then, the graphic recognition means obtains the center point or centroid point of the drawing locus based on the information representing the created drawing locus, and from the obtained center point or centroid point to the drawing locus. The distance is obtained at a predetermined angular interval, the shape of the drawing trajectory is identified based on the obtained set of distances, and the figure represented by the drawing trajectory based on the identified shape of the drawing trajectory The process which recognizes is performed.

またこの発明の1つの観点は、上記図形認識手段が、上記求められた中心点又は重心点を中心に描画軌跡方向に対し複数の角度範囲を設定し、この設定された複数の角度範囲の各々について、上記中心点又は重心点から上記描画軌跡までの距離を所定の角度間隔で求めて、この求められた距離の集合をもとに上記描画軌跡の部分形状を識別し、この識別された描画軌跡の部分形状をもとに上記描画軌跡により表される図形を推測する処理を、上記描画軌跡により表される図形が認識されるまで、上記複数の角度範囲を順に選択して繰り返し実行することも特徴とする。   One aspect of the present invention is that the graphic recognizing means sets a plurality of angle ranges with respect to the drawing trajectory direction around the obtained center point or center of gravity, and each of the set plurality of angle ranges. The distance from the center point or the barycentric point to the drawing trajectory is obtained at a predetermined angular interval, the partial shape of the drawing trajectory is identified based on the obtained set of distances, and the identified drawing The process of inferring the figure represented by the drawing trajectory based on the partial shape of the trajectory is repeatedly executed by sequentially selecting the plurality of angle ranges until the figure represented by the drawing trajectory is recognized. Also features.

したがってこの発明の1つの観点によれば、描画点の軌跡からジェスチャの図形を認識する際に、描画軌跡の中心点又は重心点から描画軌跡までの距離から描画軌跡の形状を識別して、この識別された形状をもとにジェスチャ図形を認識するようにしている。このため、ジェスチャ認識アルゴリズムとして“Hidden Markov Machine”を使用する場合や、従来の“SVM using DtB ”をそのまま使用した場合、さらには描画軌跡を正規化する際に用いた矩形枠の4辺から描画軌跡までの距離(4辺DtB 情報)を用いる場合に比べ、少ない計算処理量でジェスチャ図形を認識することが可能となり、これにより図形認識処理に要する時間を短縮することが可能となる。   Therefore, according to one aspect of the present invention, when recognizing a gesture figure from the locus of the drawing point, the shape of the drawing locus is identified from the distance from the center point or the center of gravity of the drawing locus to the drawing locus. A gesture figure is recognized based on the identified shape. For this reason, when “Hidden Markov Machine” is used as the gesture recognition algorithm or when the conventional “SVM using DtB” is used as it is, drawing is performed from the four sides of the rectangular frame used for normalizing the drawing trajectory. Compared to the case where the distance to the locus (4-side DtB information) is used, it is possible to recognize the gesture figure with a small amount of calculation processing, thereby shortening the time required for the figure recognition process.

しかも、描画点の軌跡から描画図形を認識する際に描画軌跡を中心に複数の角度範囲が設定され、上記求められた距離の集合をもとに上記描画軌跡の部分形状を識別してその識別結果をもとに上記描画軌跡により表される図形を推測する処理が、上記描画軌跡により表される図形が認識されるまで、上記複数の角度範囲を順に選択して繰り返し実行される。すなわち、描画軌跡を中心に設定された角度範囲ごとに、描画図形の認識処理が段階的に絞り込みながら行われる。このため、常に全ての角度範囲について描画軌跡の中心点又は重心点から当該描画軌跡までの距離を求めて描画図形の認識処理を行う場合に比べ、図形認識処理に要する時間を短縮することが可能となる。   In addition, when recognizing a drawing figure from the locus of drawing points, a plurality of angle ranges are set around the drawing locus, and the partial shape of the drawing locus is identified based on the set of distances obtained and identified. Based on the result, the process of estimating the graphic represented by the drawing trajectory is repeatedly executed by selecting the plurality of angle ranges in order until the graphic represented by the drawing trajectory is recognized. That is, for each angle range set around the drawing trajectory, the drawing figure recognition processing is performed while narrowing down in stages. For this reason, it is possible to reduce the time required for the graphic recognition processing compared to the case where the distance from the center point or the center of gravity of the drawing trajectory to the drawing trajectory is always obtained for all angle ranges and the recognition processing of the drawing graphic is performed. It becomes.

すなわちこの発明によれば、ジェスチャにより入力された多種類の図形を簡単なアルゴリズムで短時間に認識できるようになり、これによりリアルタイム性の向上を図ったジェスチャ認識装置を提供することができる。   In other words, according to the present invention, it is possible to recognize various types of figures input by gestures in a short time with a simple algorithm, thereby providing a gesture recognition device that improves real-time characteristics.

この発明の一実施形態に係わるジェスチャ認識装置を含むシステムの概略構成図。1 is a schematic configuration diagram of a system including a gesture recognition device according to an embodiment of the present invention. 図1にジェスチャ認識装置として示した情報処理装置の機能構成を示すブロック図。The block diagram which shows the function structure of the information processing apparatus shown as a gesture recognition apparatus in FIG. 図2に示した情報処理装置による全体の処理手順と処理内容を示すフローチャート。The flowchart which shows the whole process sequence and process content by the information processing apparatus shown in FIG. 図3に示したフローチャートにおける一筆書きジェスチャ認識機能のON/OFF切替処理の処理手順と処理内容を示すフローチャート。The flowchart which shows the process sequence and processing content of the ON / OFF switching process of the 1 stroke writing gesture recognition function in the flowchart shown in FIG. ジェスチャ機能ONのためのユーザの操作例を示す図。The figure which shows the user's operation example for gesture function ON. ジェスチャ機能OFFのためのユーザの操作例を示す図。The figure which shows the user's operation example for gesture function OFF. 図3に示したフローチャートにおける一筆書きジェスチャ認識処理の処理手順と処理内容を示すフローチャート。The flowchart which shows the process sequence and process content of the one-stroke writing gesture recognition process in the flowchart shown in FIG. 図7に示した一筆書きジェスチャ認識処理手順のうちの一筆書き図形識別処理の処理手順と処理内容を示すフローチャート。The flowchart which shows the process sequence and process content of the one-stroke drawing identification process among the 1 stroke writing gesture recognition process procedures shown in FIG. 図8に示した一筆書き図形識別処理の一例を説明するための図。The figure for demonstrating an example of the one-stroke drawing identification process shown in FIG. 図8に示した一筆書き図形識別処理の一例を説明するための図。The figure for demonstrating an example of the one-stroke drawing identification process shown in FIG. 図8に示した一筆書き図形識別処理により認識される一筆書き図形の一例を示す図。The figure which shows an example of the one-stroke drawing figure recognized by the one-stroke writing figure identification process shown in FIG. 図8に示した一筆書き図形識別処理の第1の具体例のステップ1を示す図。The figure which shows step 1 of the 1st specific example of the one-stroke drawing figure identification process shown in FIG. 図8に示した一筆書き図形識別処理の第1の具体例のステップ2を示す図。The figure which shows step 2 of the 1st specific example of the one-stroke drawing figure identification process shown in FIG. 図8に示した一筆書き図形識別処理の第2の具体例のステップ1を示す図。The figure which shows step 1 of the 2nd specific example of the one-stroke drawing identification process shown in FIG. 図8に示した一筆書き図形識別処理の第2の具体例のステップ2を示す図。The figure which shows step 2 of the 2nd specific example of the one-stroke drawing identification process shown in FIG. 図8に示した一筆書き図形識別処理の第2の具体例のステップ3を示す図。The figure which shows Step 3 of the 2nd specific example of the one-stroke drawing identification process shown in FIG.

以下、図面を参照してこの発明に係わる一実施形態を説明する。
[構成]
図1は、この発明の一実施形態に係わるジェスチャ認識装置を用いた操作情報入力システムの概略構成図である。このシステムは、テレビジョン受信機2にカメラ4を装着すると共に、テレビジョン受信機2に情報処理装置3を接続したものとなっている。カメラ4は、ユーザ1の指の動きを用いたジェスチャを撮像し、その撮像画像データをUSBケーブルを介してテレビジョン受信機2へ出力する。なお、ユーザ1の指先には、指先の動きをより認識し易くするために例えばLED(Light Emitting Diode)を用いた発光マーカ6が装着される。
Hereinafter, an embodiment according to the present invention will be described with reference to the drawings.
[Constitution]
FIG. 1 is a schematic configuration diagram of an operation information input system using a gesture recognition device according to an embodiment of the present invention. In this system, a camera 4 is mounted on a television receiver 2 and an information processing device 3 is connected to the television receiver 2. The camera 4 images a gesture using the finger movement of the user 1 and outputs the captured image data to the television receiver 2 via a USB cable. Note that a light emitting marker 6 using, for example, an LED (Light Emitting Diode) is attached to the fingertip of the user 1 in order to make it easier to recognize the movement of the fingertip.

情報処理装置3は、ジェスチャ認識装置としての機能を備えたもので、以下のように構成される。図2は、情報処理装置3の機能構成を示すブロック図である。情報処理装置3は、ジェスチャ認識処理を行うために必要な機能として、指の位置検出ユニット10と、データベース20と、一筆書きジェスチャ認識処理ユニット30と、リアルタイム処理発生ユニット40と、表示画面処理ユニット50を備えている。   The information processing device 3 has a function as a gesture recognition device and is configured as follows. FIG. 2 is a block diagram illustrating a functional configuration of the information processing apparatus 3. The information processing apparatus 3 includes, as functions necessary for performing gesture recognition processing, a finger position detection unit 10, a database 20, a one-stroke writing gesture recognition processing unit 30, a real-time processing generation unit 40, and a display screen processing unit. 50.

データベース20は、記憶媒体として例えばハードディスク又はNAND型フラッシュメモリを使用したもので、この発明を実施するために必要な記憶領域として、カメラ画像蓄積部21と、一筆書き図形蓄積部22と、操作内容蓄積部23と、表示画像・映像蓄積部24と、指位置蓄積部25と、SVM学習データ蓄積部26を有している。   The database 20 uses, for example, a hard disk or a NAND flash memory as a storage medium. As a storage area necessary for carrying out the present invention, a camera image storage unit 21, a one-stroke drawing storage unit 22, an operation content The storage unit 23 includes a display image / video storage unit 24, a finger position storage unit 25, and an SVM learning data storage unit 26.

カメラ画像蓄積部21は、指の位置検出ユニット10によりカメラ4から取得された画像データを記憶するために用いられる。指位置蓄積部25は、カメラ画像蓄積部21に蓄積された画像データから検出された指の指示位置と、当該画像データを撮像した時刻とを関連付けて格納するために用いられる。一筆書き図形蓄積部22には、一筆書き図形の認識に用いる一筆書き図形のモデルが予め格納されている。操作内容蓄積部23には、認識されたジェスチャの種類と方向に対応する操作内容を表す情報が予め格納されている。表示画像・映像蓄積部24には、上記操作内容データベース23に格納された操作内容を表す情報に対応付けて、表示画面に表示する画像や映像のデータが予め格納されている。SVM学習データ蓄積部26には、SVM学習モードにおいて切り出し枠の辺ごとに得られた距離情報と、この距離情報をもとに上記辺ごとに作成されたSVMモデルが格納される。   The camera image storage unit 21 is used to store image data acquired from the camera 4 by the finger position detection unit 10. The finger position accumulating unit 25 is used for associating and storing the finger pointing position detected from the image data accumulated in the camera image accumulating unit 21 and the time when the image data was captured. The one-stroke figure storage unit 22 stores in advance a one-stroke figure model used for recognizing a one-stroke figure. The operation content storage unit 23 stores in advance information representing the operation content corresponding to the recognized gesture type and direction. The display image / video storage unit 24 stores in advance image and video data to be displayed on the display screen in association with information representing the operation content stored in the operation content database 23. The SVM learning data storage unit 26 stores distance information obtained for each side of the cutout frame in the SVM learning mode and an SVM model created for each side based on the distance information.

リアルタイム処理発生ユニット40は、タイマを使用して、例えば33msecごとにイベント信号を発行する機能を有する。
撮像画像取得ユニット10はカメラ画像取得部11を備え、上記リアルタイム発生ユニットによりイベント信号が発行されるごとに、カメラ4から画像データを取得して、この画像データを上記カメラ画像蓄積部21に記憶させる機能を有する。
The real-time processing generation unit 40 has a function of issuing an event signal, for example, every 33 msec using a timer.
The captured image acquisition unit 10 includes a camera image acquisition unit 11, acquires image data from the camera 4 each time an event signal is issued by the real-time generation unit, and stores the image data in the camera image storage unit 21. It has a function to make it.

一筆書きジェスチャ認識処理ユニット30は、一筆書きジェスチャ認識機能ON/OFF切替部310と、一筆書きジェスチャ認識処理部320を備えている。
このうち、先ず一筆書きジェスチャ認識機能ON/OFF切替部310は、指位置検出部311と、一筆書きジェスチャ認識機能ON/OFF判断・切替部312を有する。指位置検出部311は、上記カメラ画像蓄積部21に格納された画像データからマーカ5の描画点の位置座標、つまりユーザの指の指示位置を検出し、この検出された描画点の位置座標を上記指位置蓄積部25に格納する。
The one-stroke writing gesture recognition processing unit 30 includes a one-stroke writing gesture recognition function ON / OFF switching unit 310 and a one-stroke writing gesture recognition processing unit 320.
Among these, the one-stroke writing gesture recognition function ON / OFF switching unit 310 includes a finger position detection unit 311 and a one-stroke writing gesture recognition function ON / OFF determination / switching unit 312. The finger position detection unit 311 detects the position coordinate of the drawing point of the marker 5, that is, the pointing position of the user's finger from the image data stored in the camera image storage unit 21, and uses the detected position coordinate of the drawing point. Stored in the finger position accumulating unit 25.

一筆書きジェスチャ認識機能ON/OFF判断・切替部312は、以下の処理機能を有している。
(1) 一筆書きジェスチャ認識処理部320の機能がOFFに設定されている状態で、カメラ4による撮像範囲、つまりジェスチャの認識領域内に、ジェスチャの始点判定領域(ジェスチャ開始領域)を設定する。そして、上記指位置検出部311により検出された発光マーカ5の描画点が上記ジェスチャ開始領域内に存在するか否かを判定し、存在すると判定された場合に上記一筆書きジェスチャ認識処理部320の機能をONに設定すると共に、ジェスチャの終点を検出するための検出ゾーン(Detection zone)を上記ジェスチャの認識領域内に設定する機能。
The one-stroke gesture recognition function ON / OFF determination / switching unit 312 has the following processing functions.
(1) With the function of the one-stroke writing gesture recognition processing unit 320 set to OFF, a gesture start point determination region (gesture start region) is set in the imaging range of the camera 4, that is, the gesture recognition region. Then, it is determined whether or not the drawing point of the light emitting marker 5 detected by the finger position detection unit 311 exists in the gesture start region. If it is determined that the drawing point exists, A function of setting the function to ON and setting a detection zone for detecting the end point of the gesture within the recognition area of the gesture.

(2) ジェスチャ認識処理部320の機能がONに設定されている状態で、上記指位置検出部311により検出された発光マーカ5の描画点が上記ジェスチャ認識領域の外に出たか否かを判定し、ジェスチャ認識領域の外に出たことが検出された場合に、上記一筆書きジェスチャ認識処理部の機能をONからOFFに遷移させる機能。   (2) In a state where the function of the gesture recognition processing unit 320 is set to ON, it is determined whether or not the drawing point of the light emitting marker 5 detected by the finger position detection unit 311 has moved out of the gesture recognition region. And a function of transitioning the function of the one-stroke writing gesture recognition processing unit from ON to OFF when it is detected that the object has moved out of the gesture recognition region.

次に一筆書きジェスチャ認識処理部320は、一筆書きジェスチャ入力判断部321と、一筆書き図形の方向識別部322と、一筆書き図形識別部323を有している。
一筆書きジェスチャ入力判断部321は、一筆書きジェスチャ認識処理部320の機能がONの状態で、上記画像データから検出される描画点が上記ジェスチャ開始領域内に入ったことが検出されたときの位置座標をジェスチャの開始点として検出する。また、上記描画点がジェスチャ開始領域外に出たのち上記検出ゾーン内に戻ったとき、このときの描画点の位置座標をジェスチャの終了点として検出する。
Next, the one-stroke writing gesture recognition processing unit 320 includes a one-stroke writing gesture input determination unit 321, a one-stroke drawing graphic direction identification unit 322, and a one-stroke drawing graphic identification unit 323.
The one-stroke gesture input determination unit 321 is a position when it is detected that a drawing point detected from the image data has entered the gesture start area in a state where the function of the one-stroke gesture recognition processing unit 320 is ON. The coordinates are detected as the starting point of the gesture. Further, when the drawing point comes out of the gesture start area and returns to the detection zone, the position coordinate of the drawing point at this time is detected as the end point of the gesture.

一筆書き図形の方向識別部322は、上記ジェスチャの終了点が検出された場合に、当該ジェスチャによる描画点がジェスチャ開始領域外に出たのち上記検出ゾーン内に戻るまでの軌跡を表す位置座標の集合をもとに当該描画軌跡の重心位置座標を求め、この描画軌跡の重心位置座標とジェスチャの描画開始点との関係をもとに、当該描画開始点に対する描画方向を識別する。   When the end point of the gesture is detected, the one-stroke figure direction identification unit 322 is a position coordinate that represents a trajectory until the drawing point of the gesture returns from the gesture start area to the detection zone. Based on the set, the barycentric position coordinates of the drawing trajectory are obtained, and the drawing direction with respect to the drawing starting point is identified based on the relationship between the barycentric position coordinates of the drawing trajectory and the drawing start point of the gesture.

一筆書き図形識別部323は、“Support Vector Machine using Distance to Boarders”(以下、SVM using DtB と称する)を応用した本発明特有の認識アルゴリズムを用いて上記ジェスチャによる描画図形を認識するものである。そして、この図形認識処理に必要な機能として、図形作成機能3231と、図形領域抽出機能3232と、抽出画像正規化機能3233と、中心点DtB情報抽出機能3234と、モード識別機能3235と、学習データ蓄積機能3236と、SVMモデル作成機能3237と、図形認識機能3238を有している。   The one-stroke figure identification unit 323 recognizes a figure drawn by the gesture using a recognition algorithm unique to the present invention to which “Support Vector Machine using Distance to Boarders” (hereinafter referred to as SVM using DtB) is applied. Functions necessary for this graphic recognition processing include a graphic creation function 3231, a graphic region extraction function 3232, an extracted image normalization function 3233, a center point DtB information extraction function 3234, a mode identification function 3235, and learning data. An accumulation function 3236, an SVM model creation function 3237, and a figure recognition function 3238 are provided.

なお、SVM using DtB それ自体は既知の技術であり、以下の文献に述べられている。
Lafuente-Arroyo, S.; Gil-Jimenez, P.; Maldonado-Bascon, R.; Lopez-Ferreras, F.; Maldonado-Bascon, S.; “traffic sign shape classification evaluation I: SVM using distance to borders”
SVM using DtB itself is a known technique and is described in the following documents.
Lafuente-Arroyo, S .; Gil-Jimenez, P .; Maldonado-Bascon, R .; Lopez-Ferreras, F .; Maldonado-Bascon, S .; “traffic sign shape classification evaluation I: SVM using distance to borders”

図形作成機能3231は、指位置蓄積部25に格納されているジェスチャの開始から終了までの間の描画点の位置座標の集合をもとに描画軌跡を表す画像を、つまり指によって描かれた図形を表す画像を作成する処理を行う。   The figure creation function 3231 displays an image representing a drawing trajectory based on a set of drawing point position coordinates from the start to the end of a gesture stored in the finger position storage unit 25, that is, a figure drawn by a finger. The process which produces the image showing is performed.

図形領域抽出機能3232は、4辺により構成される矩形の枠パターンを用いて、上記図形作成機能3231により作成された描画軌跡を表す画像から、当該描画軌跡を含む最小面積の矩形領域を切り取る処理を行う。   The graphic area extraction function 3232 uses a rectangular frame pattern composed of four sides to cut out a rectangular area having the minimum area including the drawing trajectory from the image representing the drawing trajectory created by the graphic creation function 3231. I do.

抽出画像正規化機能3233は、上記図形領域抽出機能3232により切り取られた描画軌跡を含む最小面積の矩形領域の画像サイズを、予め定められたサイズに応じて正規化処理する。   The extracted image normalization function 3233 normalizes the image size of the rectangular area having the minimum area including the drawing locus cut by the graphic area extraction function 3232 according to a predetermined size.

中心点DtB情報抽出機能3234は、上記抽出画像正規化機能3233により正規化された描画軌跡を含む矩形領域の画像について、その描画軌跡の中心点又は重心点等の代表点(以後中心点を例にとって説明する)を求め、この求められた中心点から上記描画図形までの距離情報(中心点DtB 情報)を抽出する処理を行う。   The center point DtB information extraction function 3234 is a representative point such as the center point or the center of gravity of the drawing locus (hereinafter referred to as the center point as an example) for the image of the rectangular area including the drawing locus normalized by the extracted image normalization function 3233. The distance information (center point DtB information) from the determined center point to the drawing figure is extracted.

モード識別機能3235は、一筆書き図形識別部323の処理モードが学習モードに設定されているか或いは認識モードに設定されているかを判定する。   The mode identification function 3235 determines whether the processing mode of the one-stroke drawing graphic identification unit 323 is set to the learning mode or the recognition mode.

学習データ蓄積機能3236は、学習モードが設定されている状態において、上記中心点DtB情報抽出機能3234により抽出された、描画軌跡の中心点から当該描画軌跡までの距離情報(中心点DtB 情報)を、学習データとしてSVM学習データ蓄積部26に格納する処理を行う。   The learning data storage function 3236 obtains distance information (center point DtB information) from the center point of the drawing locus to the drawing locus extracted by the center point DtB information extraction function 3234 in a state where the learning mode is set. Then, a process of storing the data as learning data in the SVM learning data storage unit 26 is performed.

SVMモデル作成機能3237は、上記SVM学習データ蓄積部26に格納された学習データをもとに、描画軌跡の中心点から所定の角度範囲ごとにSVMモデルを作成する。例えば、描画軌跡の中心点から上記正方形の矩形枠の上辺、下辺、左辺及び右辺の各方向に対応する角度範囲(90度)についてSVMモデルを作成する。そして、この作成されたSVMモデルをSVM学習データ蓄積部26に格納する処理を行う。   The SVM model creation function 3237 creates an SVM model for each predetermined angle range from the center point of the drawing trajectory based on the learning data stored in the SVM learning data storage unit 26. For example, an SVM model is created for an angle range (90 degrees) corresponding to each direction of the upper side, the lower side, the left side, and the right side of the square rectangular frame from the center point of the drawing locus. Then, a process of storing the created SVM model in the SVM learning data storage unit 26 is performed.

図形認識機能3238は、認識モードが設定されている状態で以下の処理を実行する機能を有する。
(1) 描画軌跡の中心点から上辺、下辺、左辺及び右辺の各方向(それぞれ90度の角度範囲)を順に選択し、この選択された方向ごとに、上記中心点DtB情報抽出機能3234により抽出された、描画軌跡の中心点から描画軌跡までの距離情報(中心点DtB 情報)を、上記SVM学習データ蓄積部26に格納された該当する方向のSVMモデルに入力し、これにより上記描画軌跡の上記選択された方向に含まれる部位の形状を識別する処理。
The figure recognition function 3238 has a function of executing the following processing in a state where the recognition mode is set.
(1) From the center point of the drawing trajectory, the upper side, the lower side, the left side, and the right side are selected in order (each 90 degree angle range) and extracted by the center point DtB information extraction function 3234 for each selected direction. The distance information from the center point of the drawing locus to the drawing locus (center point DtB information) is input to the SVM model in the corresponding direction stored in the SVM learning data storage unit 26, thereby A process of identifying the shape of a part included in the selected direction.

(2) (1) の識別処理により、描画図形の中心点から上記選択された1つの方向への描画軌跡の部分形状が識別されるごとに、当該部分形状をもとに上記描画軌跡の全体形状、つまりジェスチャにより描かれた一筆書き図形の形状を識別する。そして、この識別された図形の形状を、上記一筆書き図形蓄積部22に記憶された一筆書き図形モデルと照合することで、上記一筆書き図形の種類を認識する処理。   (2) Every time the partial shape of the drawing trajectory in the one selected direction from the center point of the drawing figure is identified by the identification processing of (1), the entire drawing trajectory is based on the partial shape. Identify the shape, that is, the shape of the one-stroke drawing drawn by the gesture. A process of recognizing the type of the one-stroke figure by comparing the shape of the identified figure with the one-stroke figure model stored in the one-stroke figure storage unit 22.

表示画面処理ユニット50は表示画面処理部51を有する。表示画面処理部51は、上記一筆書き図形の方向識別部322及び一筆書き図形識別部323によりそれぞれ識別されたジェスチャ図形の描画方向と図形の種類をもとに、操作内容蓄積部23から対応する操作内容を表す情報を読出す。そして、この読み出された操作内容を表す情報をもとに、表示画像・映像蓄積部24から対応する画像や映像の表示データを読出し、この表示データをもとにテレビジョン受信機2の表示画面を更新する。   The display screen processing unit 50 includes a display screen processing unit 51. The display screen processing unit 51 responds from the operation content storage unit 23 based on the drawing direction of the gesture graphic and the type of graphic identified by the single stroke graphic direction identification unit 322 and the single stroke graphic identification unit 323, respectively. Reads information indicating the operation content. Then, based on the information representing the read operation content, the corresponding image or video display data is read from the display image / video storage unit 24, and the display of the television receiver 2 is displayed based on the display data. Update the screen.

なお、上記撮像画像取得ユニット10、一筆書きジェスチャ認識処理ユニット30、リアルタイム処理発生ユニット40及び表示画面処理ユニット50の各処理機能は、図示しないプログラムメモリに格納されたアプリケーション・プログラムを中央処理ユニット(Central Processing Unit:CPU)に実行させることにより実現される。   Note that each processing function of the captured image acquisition unit 10, the one-stroke gesture recognition processing unit 30, the real-time processing generation unit 40, and the display screen processing unit 50 has an application program stored in a program memory (not shown) as a central processing unit ( This is realized by causing a central processing unit (CPU) to execute.

[動作]
次に、以上のように構成された情報処理装置3による、ジェスチャを用いた入力情報の認識動作を説明する。
図3は、その全体の処理手順と処理内容を示すフローチャートである。なお、ここではテレビジョン受信機2のディスプレイに電子番組案内(Electronic Program Guide:EPG)情報を表示させ、このEPG情報に対しユーザ1がジェスチャにより番組の選択操作を行う場合を例にとって説明する。
[Operation]
Next, an operation of recognizing input information using a gesture by the information processing apparatus 3 configured as described above will be described.
FIG. 3 is a flowchart showing the overall processing procedure and processing contents. Here, a case will be described as an example in which electronic program guide (EPG) information is displayed on the display of the television receiver 2 and the user 1 performs a program selection operation by a gesture with respect to the EPG information.

(1)リアルタイムイベント発生処理
ジェスチャ入力モードが設定されると、ステップS10によりリアルタイム処理発生ユニット40が起動し、タイマの計時時間Tが予め設定された時間、例えば33msecになるごとにステップS11においてイベント信号が発生される。すなわち、ジェスチァ入力モードでは33msec周期でイベント信号が発生される。なお、タイマの計時時間Tはイベント信号が発生されるごとにステップS12でリセットされる。
(1) Real-time event generation processing When the gesture input mode is set, the real-time processing generation unit 40 is started in step S10, and an event is performed in step S11 every time the timer time T reaches a preset time, for example, 33 msec. A signal is generated. That is, in the gesture input mode, an event signal is generated with a period of 33 msec. Note that the timer time T is reset in step S12 each time an event signal is generated.

(2)カメラ画像の取得及び指位置の検出処理
上記リアルタイム処理発生ユニット40からイベント信号が発生されると、先ずステップS20において撮像画像取得ユニット10が起動し、そのカメラ画像取得部11の制御の下で、カメラ4により撮像されたユーザ1の画像データが取り込まれてカメラ画像蓄積部21に記憶される。
(2) Camera Image Acquisition and Finger Position Detection Processing When an event signal is generated from the real-time processing generation unit 40, first, the captured image acquisition unit 10 is activated in step S20, and control of the camera image acquisition unit 11 is performed. Below, the image data of the user 1 captured by the camera 4 is captured and stored in the camera image storage unit 21.

そして、上記カメラ画像蓄積部21に新たな画像データが記憶されると、図4に示すステップS311において、上記画像データ中から発光マーカ5の輝点画像を検出する処理が行われる。そして、この検出された輝点画像の画像データ中の重心位置を示す座標が、ユーザ1の指の位置を表す描画点として指位置蓄積部25に記憶される。以上の処理は上記33msec周期で繰り返し行われ、この結果上記指位置蓄積部25にはユーザ1の指の位置を表す描画点の位置座標の集合が、ユーザ1がジェスチャにより描いた図形を示すデータとして記憶される。なお、このときカメラ4の絞り値(F値)を大きく設定して受光光量を制限することで、発光マーカ5の光のみを検出しやすくするとよい。   When new image data is stored in the camera image storage unit 21, processing for detecting a bright spot image of the light emitting marker 5 from the image data is performed in step S311 shown in FIG. Then, the coordinates indicating the center of gravity position in the image data of the detected bright spot image are stored in the finger position accumulation unit 25 as a drawing point representing the position of the finger of the user 1. The above processing is repeated at the above 33 msec cycle. As a result, the finger position storage unit 25 stores a set of drawing point position coordinates representing the position of the finger of the user 1 and data indicating a figure drawn by the user 1 with the gesture. Is remembered as At this time, it is preferable that the aperture value (F value) of the camera 4 is set large to limit the amount of received light so that only the light emitted from the light emitting marker 5 is easily detected.

(3)一筆書きジェスチャ認識機能のON/OFF切替処理
上記指位置蓄積部25に新たな指位置座標が記憶されるごとに、ステップS30のステップS31において一筆書きジェスチャ認識処理ユニット30の一筆書きジェスチャ認識機能ON/OFF切替部310が起動され、この一筆書きジェスチャ認識機能ON/OFF切替部310の制御の下で以下のような処理が実行される。図4中のステップS312はその処理手順と処理内容を示すフローチャートである。
(3) ON / OFF switching process of single-stroke gesture recognition function Each time a new finger position coordinate is stored in the finger position storage unit 25, a single-stroke gesture of the single-stroke gesture recognition processing unit 30 in step S31 of step S30. The recognition function ON / OFF switching unit 310 is activated, and the following processing is executed under the control of the one-stroke writing gesture recognition function ON / OFF switching unit 310. Step S312 in FIG. 4 is a flowchart showing the processing procedure and processing contents.

(3−1)一筆書きジェスチャ認識機能をONする場合
先ずステップS3121により一筆書きジェスチャ認識処理部320の機能がONであるか否かが判定される。そして、ここではまだONになっていないのでステップS3125に移行し、カメラ4による撮像範囲、つまりジェスチャの認識領域内に、ジェスチャの始点判定領域(ジェスチャ開始領域)を設定する。例えば図5(a)に示すように、ジェスチャの認識領域Cの中央にジェスチャ開始領域E1を設定する。そして、上記指位置検出処理(ステップS311)により検出された発光マーカ5の描画点の位置座標が上記ジェスチャ開始領域E1内に存在するか否かを判定する。
(3-1) When the one-stroke writing gesture recognition function is turned ON First, it is determined in step S3121 whether or not the function of the one-stroke writing gesture recognition processing unit 320 is ON. Then, since it is not turned on yet, the process proceeds to step S3125, and a gesture start point determination region (gesture start region) is set in the imaging range of the camera 4, that is, the gesture recognition region. For example, as shown in FIG. 5A, a gesture start area E1 is set at the center of the gesture recognition area C. Then, it is determined whether or not the position coordinates of the drawing point of the light emitting marker 5 detected by the finger position detection process (step S311) are present in the gesture start area E1.

この状態で、ユーザ1が指の位置を動かし、これにより図5(a)に示すように描画点の位置座標P0が破線L1のように上記ジェスチャ開始領域E0内に入ると、ステップS3126により上記一筆書きジェスチャ認識部320の機能をONに設定する。またそれと共に、ステップS3127により図5(b)に示すようにジェスチャの終点を検出するための検出ゾーン(Detection zone)E2を上記ジェスチャの認識領域C内に設定する。   In this state, the user 1 moves the position of the finger, and when the position coordinate P0 of the drawing point enters the gesture start area E0 as indicated by the broken line L1 as shown in FIG. The function of the one-stroke writing gesture recognition unit 320 is set to ON. At the same time, in step S3127, a detection zone E2 for detecting the end point of the gesture is set in the gesture recognition area C as shown in FIG. 5B.

このとき、検出ゾーンE2のサイズはジェスチャ開始領域E1より大きなサイズに設定される。このようにすると、ユーザ1によるユーザの指の位置が検出ゾーンE2内に戻った後に、震えなどにより当該検出ゾーンE2の境界付近で位置ずれを起こしたとしても、このときの指の位置座標、つまり終点の位置を、終点判定領域としての検出ゾーンE2内に安定的に留めることが可能となる。このため、検出ゾーンE2の境界上でいわゆるチャタリングのような現象が発生しても、これにより後述する描画の終了判定(入力判定)において誤認識が発生しないようにすることができる。   At this time, the size of the detection zone E2 is set to be larger than the gesture start area E1. In this way, even if the position of the user's finger by the user 1 returns to the detection zone E2 and then a position shift occurs near the boundary of the detection zone E2 due to shaking or the like, the position coordinates of the finger at this time, That is, the position of the end point can be stably kept in the detection zone E2 as the end point determination area. For this reason, even if a phenomenon such as so-called chattering occurs on the boundary of the detection zone E2, it is possible to prevent erroneous recognition from occurring in the drawing end determination (input determination) described later.

(3−2)一筆書きジェスチャ認識機能をOFFする場合
上記一筆書きジェスチャ認識機能がONとなった状態で、ユーザ1がジェスチャによるテレビジョン受信機2の操作を一旦中止するべく、指の位置を例えば図6(a)のL2に示すようにカメラ4の撮像範囲外、つまりジェスチャの認識領域Cの外へ移動させたとする。そうすると、一筆書きジェスチャ認識機能ON/OFF切替部310は、ステップS3121により一筆書きジェスチャ認識処理部320の機能がONであるか否かを判定し、ここではONになっているのでステップS3122に移行する。そして、指位置検出処理(ステップS311)により検出された発光マーカ5の描画点の位置座標が、上記ジェスチャの認識領域Cの外に出たか否かを判定する。
(3-2) When the one-stroke writing gesture recognition function is turned off With the one-stroke writing gesture recognition function turned on, the user 1 changes the position of the finger so as to temporarily stop the operation of the television receiver 2 by the gesture. For example, as shown by L2 in FIG. 6A, it is assumed that the camera 4 is moved outside the imaging range of the camera 4, that is, outside the gesture recognition area C. Then, the one-stroke writing gesture recognition function ON / OFF switching unit 310 determines whether or not the function of the one-stroke writing gesture recognition processing unit 320 is ON in step S3121. Since the function is ON here, the process proceeds to step S3122. To do. Then, it is determined whether or not the position coordinate of the drawing point of the light emitting marker 5 detected by the finger position detection process (step S311) has gone out of the gesture recognition area C.

この判定の結果、図6(a)のL2に示すように、発光マーカ5の描画点の位置座標が上記ジェスチャの認識領域Cの外に出ると、ステップS3123により一筆書きジェスチャ認識処理部320の機能をOFFに遷移させる。かくして、ユーザ1は指の位置をカメラ4の撮像範囲外へ移動させるだけで、一筆書きジェスチャ認識機能をOFFに戻すことが可能となる。   As a result of this determination, as shown by L2 in FIG. 6A, when the position coordinate of the drawing point of the light emitting marker 5 goes out of the gesture recognition area C, the one-stroke writing gesture recognition processing unit 320 performs step S3123. Transition the function to OFF. Thus, the user 1 can return the one-stroke gesture recognition function to OFF only by moving the finger position out of the imaging range of the camera 4.

なお、一筆書きジェスチャ認識機能がOFFに復帰すると、次のイベント信号発生(33msec)時に、ステップS3125において図6(b)に示すようにジェスチャの認識領域C内にジェスチャ開始領域E1が設定される。すなわち、一筆書きジェスチャ認識機能がOFFになると、消去された検出ゾーンE2の代わりにそれよりも小さいジェスチャ開始領域E1が再設定される。   When the one-stroke gesture recognition function returns to OFF, when the next event signal is generated (33 msec), a gesture start area E1 is set in the gesture recognition area C as shown in FIG. 6B in step S3125. . That is, when the one-stroke gesture recognition function is turned off, a smaller gesture start area E1 is reset instead of the erased detection zone E2.

(4)一筆書きジェスチャ認識処理
上記一筆書きジェスチャ認識機能がONとなった状態で、一筆書きジェスチャ認識処理部320は以下のようにジェスチャの認識処理を実行する。図7はその全体の処理手順と処理内容を示すフローチャートである。
(4) Single-stroke gesture recognition processing With the single-stroke gesture recognition function turned on, the single-stroke gesture recognition processing unit 320 executes gesture recognition processing as follows. FIG. 7 is a flowchart showing the overall processing procedure and processing contents.

すなわち、先ずステップS321において一筆書きジェスチャ入力判断部321が起動し、この一筆書きジェスチャ入力判断部321の制御の下で、ユーザ1の指に装着された発光マーカ5による描画点が上記検出ゾーンE2内に入ったか否かをステップS3211により判定する。そして、描画点が上記検出ゾーンE2内に入っていなければ、ステップS3214によりジェスチャ入力中か否かを示すジェスチャフラグ(Gesture Flag)を“TRUE”に設定し、以後イベントが発生するごとに描画点が検出ゾーンE2内に入るか否かを監視する処理を繰り返す。   That is, first, in step S321, the one-stroke writing gesture input determining unit 321 is activated, and under the control of the one-stroke writing gesture input determining unit 321, the drawing point by the light emitting marker 5 attached to the finger of the user 1 is the detection zone E2. It is determined in step S3211 whether or not it has entered. If the drawing point is not within the detection zone E2, a gesture flag indicating whether or not a gesture is being input is set to “TRUE” in step S3214, and each time an event occurs thereafter, the drawing point is set. Repeats the process of monitoring whether or not enters the detection zone E2.

(4−1)一筆書き図形の方向識別処理
さて、この状態でユーザ1の指に装着された発光マーカ5による描画点が上記検出ゾーンE2内に入ったことが検出されたとする。そうすると、ステップS3212によりジェスチャフラグが“TRUE”になっていることを確認した後、先ずステップS322により一筆書き図形の方向識別処理を実行する。
(4-1) One-stroke drawing direction identification processing Now, it is assumed that a drawing point by the light emitting marker 5 attached to the finger of the user 1 in this state is within the detection zone E2. Then, after confirming that the gesture flag is “TRUE” in step S3212, first, in step S322, a one-stroke drawing direction identification process is executed.

この一筆書き図形の方向識別処理は以下のように行われる。すなわち、先ず指位置蓄積部25に記憶された指位置座標の集合を読み出し、この指位置座標の集合により表される指の描画軌跡を表す画像をもとに当該描画軌跡を表す画像の重心位置座標を算出する。そして、この算出された描画軌跡画像の重心位置座標と描画開始点における座標との関係から、当該描画開始点に対する上記描画軌跡の描画方向が上下左右の何れであるかを識別することにより行われる。   This one-stroke drawing direction identification process is performed as follows. That is, first, a set of finger position coordinates stored in the finger position accumulation unit 25 is read, and the barycentric position of the image representing the drawing locus based on the image representing the drawing locus of the finger represented by the set of finger position coordinates. Calculate the coordinates. Then, based on the relationship between the calculated gravity center position coordinates of the drawing trajectory image and the coordinates at the drawing start point, the drawing direction of the drawing trajectory with respect to the drawing start point is identified as up, down, left and right. .

(4−2)一筆書き図形識別処理
次にステップS323により一筆書き図形識別処理を以下のように実行する。図8はその処理手順と処理内容を示すフローチャートである。
すなわち、先ずステップS3231により、指位置蓄積部25に格納されているジェスチャの開始から終了までの間の描画点の位置座標の集合を読出し、この読み出された描画点の位置座標の集合をもとに描画軌跡を表す画像を、つまり指に装着された発光マーカ5によって描かれた図形を表す画像を作成する。
(4-2) One-stroke Drawing Graphic Identification Processing Next, one-stroke writing graphic identification processing is executed as follows in step S323. FIG. 8 is a flowchart showing the processing procedure and processing contents.
That is, first, in step S3231, a set of drawing point position coordinates from the start to the end of the gesture stored in the finger position accumulating unit 25 is read, and this read drawing point position coordinate set is also stored. Then, an image representing the drawing trajectory, that is, an image representing the figure drawn by the light emitting marker 5 attached to the finger is created.

次にステップS3232において、4辺により構成される矩形の枠パターンを用いて、上記図形作成機能3231により作成された描画軌跡を含む画像データから、当該描画軌跡を含む最小面積の矩形領域を切り取る。例えば、描画軌跡が「円」又はそれに近い「楕円」であれば、図9(a)に示すように当該描画軌跡を含む画像データCから、描画軌跡Vを含む最小面積の矩形領域、つまり描画軌跡Vに4辺が接する矩形の領域を、枠パターンWにより図9(b)に示すように切り取る。   In step S3232, a rectangular area having the minimum area including the drawing locus is cut out from the image data including the drawing locus created by the graphic creation function 3231 using a rectangular frame pattern including four sides. For example, if the drawing trajectory is “circle” or “ellipse” close to it, as shown in FIG. 9A, a rectangular area having the minimum area including the drawing trajectory V, that is, the drawing from the image data C including the drawing trajectory, is drawn. A rectangular area whose four sides are in contact with the locus V is cut out as shown in FIG.

続いてステップS3233において、上記図形領域抽出機能3232により切り取られた描画軌跡Vを含む最小面積の矩形領域の画像サイズを、予め定められたサイズに応じて正規化する。例えば図9(c)に示すように、上記切り取られた描画軌跡Vとこの描画軌跡Vの切り取りに使用した枠パターンWの画像サイズを、それぞれ100pixels×100pixelsからなる「真円」及び「正方形」に正規化する。   In step S 3233, the image size of the rectangular area having the minimum area including the drawing locus V cut out by the graphic area extracting function 3232 is normalized according to a predetermined size. For example, as shown in FIG. 9 (c), the cut drawing trace V and the image size of the frame pattern W used for cutting the drawing trace V are set to “true circle” and “square” each having 100 pixels × 100 pixels. Normalize to

次にステップS3234において、上記正規化された描画軌跡V′の画像について、先ず当該描画軌跡V′の座標値からその中心点を求める。なお、中心点の代わりに、先に(4−1)の一筆書き図形の方向識別処理において算出された重心位置座標を用いてもよい。次に、この求められた中心点から描画軌跡までの距離情報(中心点DtB 情報)を、描画軌跡の座標値をもとに所定の角度ごとに算出する。例えば、正規化された描画軌跡V′が「円」の場合には、図10に示すように当該円の中心から描画軌跡V′までの距離dを一定の角度おきに算出する。   Next, in step S3234, the center point of the normalized image of the drawing locus V ′ is first obtained from the coordinate value of the drawing locus V ′. Instead of the center point, the center-of-gravity position coordinates previously calculated in the (4-1) one-stroke figure direction identification process may be used. Next, distance information (center point DtB information) from the obtained center point to the drawing locus is calculated for each predetermined angle based on the coordinate value of the drawing locus. For example, when the normalized drawing trajectory V ′ is “circle”, as shown in FIG. 10, the distance d from the center of the circle to the drawing trajectory V ′ is calculated at a constant angle.

続いて、一筆書き図形識別部323の処理モードが「学習モード」に設定されているか或いは「認識モード」に設定されているかを、ステップS3235により判定する。この判定の結果、「学習モード」が設定されていれば、ステップS3237により上記ステップS3234により抽出された、描画軌跡を含む画像の中心点から描画軌跡までの距離情報(中心点DtB 情報)を、学習データとしてSVM学習データ蓄積部26に格納する。図10は、描画軌跡が「円」の場合のその中心から描画軌跡までの距離情報(中心点DtB 情報)の例を示すものである。そして、ステップS3238により、上記SVM学習データ蓄積部26に格納された学習データから、描画軌跡の中心点から上辺、下辺、左辺及び右辺に向かう各方向(90度の角度範囲)ごとに順にSVMモデルを作成し、この作成されたSVMモデルをSVM学習データ蓄積部26に格納する。   Subsequently, it is determined in step S3235 whether the processing mode of the one-stroke drawing graphic identification unit 323 is set to “learning mode” or “recognition mode”. If the “learning mode” is set as a result of this determination, distance information (center point DtB information) from the center point of the image including the drawing locus to the drawing locus extracted in step S3234 in step S3237, The data is stored in the SVM learning data storage unit 26 as learning data. FIG. 10 shows an example of distance information (center point DtB information) from the center to the drawing locus when the drawing locus is “circle”. In step S3238, the learning data stored in the SVM learning data storage unit 26 is used for the SVM model in turn for each direction (90 degree angle range) from the center point of the drawing trajectory toward the upper side, the lower side, the left side, and the right side. And the created SVM model is stored in the SVM learning data storage unit 26.

すなわち、「学習モード」においては、テレビジョン受信機2の操作に使用する全て或いは代表的な一筆書き図形を実際にジェスチャにより描くことで、その描画軌跡について枠パターンにより切り出された描画軌跡の中心点から当該描画軌跡までの距離情報(中心点DtB 情報)が抽出され、さらにこの距離情報(中心点DtB 情報)をもとに、描画軌跡の中心点から上辺、下辺、左辺及び右辺の各方向(90度の角度範囲)に対応するSVMモデルが作成されて、SVM学習データ蓄積部26に蓄積される。   In other words, in the “learning mode”, all or representative one-stroke figures used for the operation of the television receiver 2 are actually drawn by gestures, and the drawing trajectory centered on the drawing trajectory is cut out by the frame pattern. The distance information from the point to the drawing trajectory (center point DtB information) is extracted, and based on this distance information (center point DtB information), each direction from the center point of the drawing trajectory to the upper, lower, left, and right sides An SVM model corresponding to (angle range of 90 degrees) is created and stored in the SVM learning data storage unit 26.

一方、一筆書き図形識別部323の処理モードが「認識モード」に設定されている場合には、次のように図形認識処理が行われる。すなわち、先ず上記ステップS3233により正規化された描画軌跡を含む画像について、その中心点から上辺、下辺、左辺及び右辺の各方向(90度の角度範囲)のうちの1つを選択する。次にステップS3234において、上記選択された角度範囲における描画軌跡の中心点から当該描画軌跡までの距離情報(中心点DtB 情報)を一定の角度間隔で算出する。続いてステップS3236において、この算出された距離情報(中心点DtB 情報)の集合を、上記SVM学習データ蓄積部26に格納された該当する角度範囲のSVMモデルに入力し、これにより上記描画軌跡の上記選択された角度範囲に含まれる部位の形状を識別する。そして、この識別結果をもとに描画軌跡全体の形状、つまりジェスチャにより描かれた図形を識別し、この図形と形状が一致する図形が予め記憶された認識対象の一筆書き図形に存在すれば、この一筆書き図形を認識結果とする。   On the other hand, when the processing mode of the one-stroke figure identifying unit 323 is set to “recognition mode”, the figure recognition process is performed as follows. That is, first, for the image including the drawing trajectory normalized in step S3233, one of the directions from the center point to the upper side, the lower side, the left side, and the right side (angle range of 90 degrees) is selected. Next, in step S3234, distance information (center point DtB information) from the center point of the drawing locus to the drawing locus in the selected angle range is calculated at a constant angular interval. Subsequently, in step S3236, the set of the calculated distance information (center point DtB information) is input to the SVM model of the corresponding angle range stored in the SVM learning data storage unit 26, and thereby the drawing trajectory. The shape of the part included in the selected angle range is identified. Then, based on this identification result, the shape of the entire drawing trajectory, that is, the figure drawn by the gesture is identified, and if a figure having the same shape as this figure exists in the pre-stored one-stroke figure to be recognized, This one-stroke figure is taken as the recognition result.

例えば、いま認識対象の一筆書き図形として図11の(1)〜(8)に示す8種類の図形パターン情報が記憶されていたとする。この場合、描画軌跡を含む画像の中心点から上辺方向の角度範囲(90度)を先ず選択し、この上辺方向の角度範囲において描画軌跡の中心点から描画軌跡までの距離情報(中心点DtB 情報)を一定の角度間隔で算出する。そして、この算出された上辺方向の角度範囲における距離情報(中心点DtB 情報)を、対応するSVMモデルに入力する。これにより、図11の(2)及び(4)以外の一筆書き図形を認識することが可能である。   For example, assume that eight types of graphic pattern information shown in (1) to (8) of FIG. In this case, an angle range (90 degrees) in the upper side direction from the center point of the image including the drawing locus is first selected, and distance information (center point DtB information) from the center point of the drawing locus to the drawing locus in the angle range in the upper side direction. ) At regular angular intervals. Then, distance information (center point DtB information) in the calculated angle range in the upper side direction is input to the corresponding SVM model. As a result, it is possible to recognize one-stroke figures other than (2) and (4) in FIG.

一方、上記図11の(2)及び(4)に示した一筆書き図形のように、上辺方向の角度範囲における距離情報(中心点DtB 情報)だけでは一筆書き図形を認識できなかったとする。この場合には、次に下辺方向の角度範囲(90度)を選択する。そして、この選択された下辺方向の角度範囲において描画軌跡の中心点から描画軌跡までの距離情報(中心点DtB 情報)を一定の角度間隔で算出する。そして、この算出された下辺方向の角度範囲における距離情報(中心点DtB 情報)を、対応するSVMモデルに入力して、上記描画軌跡の形状、つまりジェスチャにより描かれた一筆書き図形を識別する。この識別の結果、この描画軌跡により表される図形と形状が一致する一筆書き図形が予め記憶された認識対象の一筆書き図形の中に存在すれば、この一筆書き図形を認識結果とする。かくして、矩形領域画像の上辺からでは認識できなかった図11の(2)及び(4)に示すような一筆書き図形についても認識することができる。   On the other hand, it is assumed that the one-stroke drawing figure cannot be recognized only by the distance information (center point DtB information) in the angle range in the upper side direction like the one-stroke drawing figures shown in FIGS. 11 (2) and (4). In this case, the angle range (90 degrees) in the lower side direction is then selected. Then, distance information (center point DtB information) from the center point of the drawing locus to the drawing locus in the selected angle range in the lower side direction is calculated at a constant angular interval. Then, the calculated distance information (center point DtB information) in the angle range in the lower side direction is input to the corresponding SVM model to identify the shape of the drawing trajectory, that is, the one-stroke figure drawn by the gesture. If, as a result of this identification, a one-stroke drawing figure whose shape matches the figure represented by the drawing locus is present in the one-stroke drawing figure to be recognized that has been stored in advance, this one-stroke drawing figure is taken as the recognition result. Thus, it is also possible to recognize a one-stroke drawing figure as shown in (2) and (4) of FIG. 11 that could not be recognized from the upper side of the rectangular area image.

また、上記下辺方向の角度範囲における距離情報(中心点DtB 情報)を参照しても一筆書き図形を認識できなければ、今度は右辺方向の角度範囲を選択して、この右辺方向の角度範囲において描画軌跡の中心点から描画軌跡までの距離情報(中心点DtB 情報)を一定の角度間隔で算出する。そして、この算出された右辺方向の角度範囲における距離情報(中心点DtB 情報)を対応するSVMモデルに入力して、描画軌跡により表される図形の認識を試みる。さらに、この右辺方向の角度範囲における距離情報(中心点DtB 情報)を参照しても一筆書き図形を認識できなければ、最後に左辺方向の角度範囲を選択し、この左辺方向の角度範囲において描画軌跡の中心点から描画軌跡までの距離情報(中心点DtB 情報)を一定の角度間隔で算出する。そして、この算出された左辺方向の角度範囲における距離情報(中心点DtB 情報)を対応するSVMモデルに入力して、描画軌跡により表される図形の認識を試みる。   Also, if you cannot recognize a single stroke figure by referring to the distance information (center point DtB information) in the angle range in the lower side direction, select the angle range in the right side direction, and then select the angle range in the right side direction. Distance information (center point DtB information) from the center point of the drawing locus to the drawing locus is calculated at a constant angular interval. Then, the calculated distance information (center point DtB information) in the angle range in the right side direction is input to the corresponding SVM model, and recognition of the figure represented by the drawing locus is attempted. Furthermore, if a stroke is not recognized by referring to the distance information (center point DtB information) in the right-side angle range, the left-side angle range is selected last, and drawing is performed in this left-side angle range. The distance information (center point DtB information) from the center point of the locus to the drawing locus is calculated at a constant angular interval. Then, the calculated distance information (center point DtB information) in the angle range in the left-side direction is input to the corresponding SVM model to attempt to recognize the figure represented by the drawing locus.

すなわち、描画軌跡により表される図形に対応する一筆書き図形を認識できるまで、描画軌跡の中心位置から上辺、下辺、右辺及び左辺の各方向の角度範囲を順に選択して、段階的に上記描画軌跡により表される図形の認識処理を行う。   That is, until the one-stroke figure corresponding to the figure represented by the drawing trajectory can be recognized, the angle range in each direction of the upper side, the lower side, the right side, and the left side is sequentially selected from the center position of the drawing trajectory, and the above drawing is performed step by step Recognition processing of the figure represented by the locus is performed.

(5)表示画面の更新処理
上記一筆書きジェスチャの認識処理が終了すると、ステップS40において表示画像処理ユニット50が起動され、この表示画像処理ユニット50の制御の下で、表示画像の更新処理が以下のように行われる。
(5) Display Screen Update Processing When the one-stroke gesture recognition processing is completed, the display image processing unit 50 is activated in step S40. Under the control of the display image processing unit 50, the display image update processing is as follows. It is done as follows.

すなわち、上記一筆書き図形の方向識別部322及び一筆書き図形識別部323によりそれぞれ識別されたジェスチャ図形の描画方向及び図形の種類をもとに、操作内容データベース23から対応する操作内容を表す情報が読出される。そして、この読み出された操作内容を表す情報をもとに、表示画像・映像蓄積部24から対応する画像や映像の表示データが読出され、この表示データをもとにテレビジョン受信機2の表示画面が更新される。   That is, information representing the corresponding operation content from the operation content database 23 based on the drawing direction of the gesture graphic and the type of the graphic identified by the direction identification unit 322 and the single stroke graphic identification unit 323, respectively. Read out. Then, based on the information indicating the read operation content, the corresponding image or video display data is read from the display image / video storage unit 24, and the television receiver 2 of the television receiver 2 is read based on the display data. The display screen is updated.

(6)一筆書き図形識別処理の具体例
ここでは、描画軌跡の中心位置から上辺、下辺、右辺及び左辺の各方向の角度範囲のうち、先ず上辺(Top border)方向の角度範囲を選択して描画図形の識別処理を行い、この上辺方向の角度範囲による図形識別が不可能な場合に、次に下辺(Bottom border)方向の角度範囲を選択して描画図形の識別処理を行う場合を例にとって説明する。
(6) Specific example of one-stroke figure identification processing Here, the angle range in the top border direction is first selected from the angle ranges in the directions of the upper side, the lower side, the right side and the left side from the center position of the drawing trajectory. In the case of performing the identification process of the drawn figure, and when the figure identification by the angle range in the upper side direction is impossible, the case of performing the identification process of the drawn figure by selecting the angle range in the bottom side direction is taken as an example explain.

(6−1)ハート形図形を識別する場合
先ず12に示すように、上辺、下辺、右辺及び左辺の各方向の角度範囲のうち上辺方向の角度範囲を選択し、この上辺方向の角度範囲において描画軌跡の中心点から当該描画軌跡までの距離情報(中心点DtB 情報)を算出して、対応する上辺方向の角度範囲におけるSVMモデルに入力する。このとき、上辺方向の角度範囲におけるSVMモデルとして図13に示すような複数の上辺図形モデルが設定されているとすれば、これらの上辺図形モデルのうち“heart”と形状が一致する。したがって、上記一筆書き描画図形は“heart”であると認識する。
(6-1) When identifying a heart-shaped figure First, as shown in FIG. 12, the angle range in the upper side direction is selected from the angle ranges in the respective directions of the upper side, the lower side, the right side, and the left side. The distance information (center point DtB information) from the center point of the drawing trajectory to the drawing trajectory is calculated and input to the SVM model in the corresponding angular range in the upper side direction. At this time, if a plurality of upper side graphic models as shown in FIG. 13 are set as the SVM model in the angle range in the upper side direction, the shape matches the “heart” of these upper side graphic models. Therefore, the one-stroke drawing figure is recognized as “heart”.

(6−2)逆三角形図形を識別する場合
先ず14に示すように、上辺、下辺、右辺及び左辺の各方向の角度範囲のうち上辺方向の角度範囲を選択し、この上辺方向の角度範囲において描画軌跡の中心点から当該描画軌跡までの距離情報(中心点DtB 情報)を算出して、対応する上辺方向の角度範囲におけるSVMモデルに入力する。このとき、上辺方向の角度範囲におけるSVMモデルとして、図15に示したような複数の上辺図形モデルが設定されているものとすると、これらの上辺図形モデルの中には上記描画図形の上辺形状と一致するものは存在しない。
(6-2) When identifying an inverted triangle figure First, as shown in 14, an angle range in the upper side direction is selected from the angle ranges in the upper side, the lower side, the right side, and the left side, and the angle range in the upper side direction is selected. The distance information (center point DtB information) from the center point of the drawing trajectory to the drawing trajectory is calculated and input to the SVM model in the corresponding angular range in the upper side direction. At this time, assuming that a plurality of upper side figure models as shown in FIG. 15 are set as the SVM model in the angle range in the upper side direction, the upper side shape model includes the upper side shape of the drawing figure. There is no match.

そこで、次に下辺方向の角度範囲を選択し、この下辺方向の角度範囲において描画軌跡の中心点から当該描画軌跡までの距離情報(中心点DtB 情報)を算出して、対応する下辺方向の角度範囲におけるSVMモデルに入力する。このとき、下辺SVMモデルとして図16に示したような複数の下辺図形モデルが設定されているものとすると、これらの下辺図形モデルのうち“Upside-down triangle” と形状が一致する。したがって、上記一筆書き描画図形は“Upside-down triangle”と認識する。   Then, select the angle range in the lower side direction, calculate the distance information (center point DtB information) from the center point of the drawing locus to the drawing locus in this angle range in the lower side direction, and the corresponding angle in the lower side direction Fill in the SVM model in range. At this time, assuming that a plurality of lower-side graphic models as shown in FIG. 16 are set as the lower-side SVM model, the shape matches the “Upside-down triangle” among these lower-side graphic models. Therefore, the one-stroke drawing figure is recognized as “Upside-down triangle”.

以上のように上辺、下辺、右辺及び左辺の各方向の角度範囲のうち上辺方向の角度範囲を順に選択して、描画図形の識別処理を段階的に行うようにしているので、常に4方向の角度範囲の全てについて識別処理を行う場合に比べ、識別処理のための計算量を減らして識別処理時間の短縮を図ることができる。   As described above, the angle range in the upper side direction is sequentially selected from the angle ranges in the respective directions of the upper side, the lower side, the right side, and the left side, so that the drawing graphic identification process is performed step by step. Compared to the case where the identification process is performed for all of the angle ranges, the amount of calculation for the identification process can be reduced to shorten the identification process time.

以上詳述したようにこの実施形態では、指位置蓄積部25に格納されたジェスチャの開始から終了までの間の描画点の位置座標の集合をもとに描画軌跡を表す画像を作成し、この描画軌跡を表す画像を含む最小の矩形領域を枠パターンを用いて切り取る。そして、この切り取られた描画軌跡を含む最小面積の矩形領域画像のサイズを正規化したのち、この矩形領域画像をもとに“SVM using DtB ”を応用した認識アルゴリズムを用いて上記描画軌跡により表される図形を認識する。このとき、図形の認識処理は、描画軌跡の中心点に対し上辺、下辺、右辺及び左辺の各方向の角度範囲を順に選択し、選択された角度範囲において描画軌跡の中心点から当該描画軌跡までの距離情報(中心点DtB 情報)を算出してこれを対応するSVMモデルに入力することにより上記描画軌跡により表される図形を識別する処理を、該当する図形が認識できるまで繰り返すことで行われる。   As described in detail above, in this embodiment, an image representing a drawing trajectory is created based on a set of drawing point position coordinates from the start to the end of the gesture stored in the finger position storage unit 25. A minimum rectangular area including an image representing a drawing locus is cut out using a frame pattern. Then, after normalizing the size of the rectangular area image of the minimum area including the cut drawing trajectory, it is represented by the drawing trajectory using a recognition algorithm applying “SVM using DtB” based on the rectangular area image. Recognize the shape to be used. At this time, the recognition processing of the figure selects the upper side, the lower side, the right side, and the left side in an angle range in order with respect to the center point of the drawing locus, and from the center point of the drawing locus to the drawing locus in the selected angle range. The distance information (center point DtB information) is calculated and input to the corresponding SVM model to identify the figure represented by the drawing trajectory until the corresponding figure can be recognized. .

したがって、描画点の軌跡からジェスチャの図形を認識する際に、描画軌跡の中心点から当該描画軌跡までの距離から描画軌跡の部分形状を識別して、この識別された部分形状をもとにジェスチャ図形を認識する処理が、描画軌跡の中心点に対し上辺、下辺、右辺及び左辺の各方向の角度範囲を順に選択しながらジェスチャ図形が認識されるまで段階的に行われる。このため、ジェスチャ認識アルゴリズムとして“Hidden Markov Machine”を使用する場合や、従来の“SVM using DtB ”をそのまま使用した場合、さらには描画軌跡を正規化する際に用いた矩形枠の4辺から描画軌跡までの距離(4辺DtB情報)を用いる場合に比べ、少ない計算処理量でジェスチャ図形を認識することが可能となり、これにより図形認識処理に要する時間を短縮することが可能となる。   Therefore, when recognizing a gesture figure from the locus of the drawing point, the partial shape of the drawing locus is identified from the distance from the center point of the drawing locus to the drawing locus, and the gesture is based on the identified partial shape. The process of recognizing the graphic is performed in stages until the gesture graphic is recognized while sequentially selecting the angle ranges in the respective directions of the upper side, the lower side, the right side, and the left side with respect to the center point of the drawing locus. For this reason, when “Hidden Markov Machine” is used as the gesture recognition algorithm or when the conventional “SVM using DtB” is used as it is, drawing is performed from the four sides of the rectangular frame used for normalizing the drawing trajectory. Compared to the case where the distance to the locus (4-side DtB information) is used, it is possible to recognize the gesture figure with a small amount of calculation processing, thereby shortening the time required for the figure recognition process.

また、上記図形認識処理に先立ち、描画軌跡と枠型パターンのサイズを正規化するようにしているので、描画点の検出や描画軌跡の作成において誤差が発生しても、これらの誤差を吸収して図形認識処理を効率良く行うことができ、これにより図形認識処理に要する時間をさらに短縮することが可能となる。   In addition, since the drawing trajectory and the frame pattern size are normalized prior to the graphic recognition process, even if errors occur in the detection of drawing points or the creation of the drawing trajectory, these errors are absorbed. Thus, the figure recognition process can be performed efficiently, and the time required for the figure recognition process can be further shortened.

なお、この発明は上記実施形態に限定されるものではない。例えば、前記実施形態では指の動きによって空間に描かれた一筆書き図形を認識する場合を例にとって説明したが、図形の郭枠形状を認識するようにしてもよい。例えば、ユーザがジェスチャとしてピースサインやOKサインを行ったときの指の輪郭形状を認識するようにしてもよい。   The present invention is not limited to the above embodiment. For example, in the above-described embodiment, the case of recognizing a one-stroke drawing figure drawn in space by the movement of a finger has been described as an example. However, the outline shape of the figure may be recognized. For example, the contour shape of the finger when the user performs a peace sign or an OK sign as a gesture may be recognized.

また、ジェスチャ認識領域Cをカメラ4の視野範囲に設定したが、カメラ4の視野範囲が大きい場合にはこのカメラ4の視野範囲内に当該視野範囲より小さいジェスチャ認識領域Cを設定するようにしてもよい。この場合のジェスチャ認識領域Cの大きさや形状は任意に設定可能である。   In addition, the gesture recognition area C is set as the visual field range of the camera 4, but when the visual field range of the camera 4 is large, the gesture recognition area C smaller than the visual field range is set in the visual field range of the camera 4. Also good. In this case, the size and shape of the gesture recognition area C can be arbitrarily set.

さらに、指の描画点が予め設定された時間以上連続して非検出となった場合に、一筆書きジェスチャ認識処理部320の機能を強制的にOFF状態に遷移させるようにした。しかしそれに限らず、指位置蓄積部25に記憶された指位置の軌跡を表す集合のうち、その一部が予め決められた長さ以上欠損していた場合に、一筆書きジェスチャ認識処理部320の機能を強制的にOFF状態に遷移させるようにしてもよい。   Furthermore, the function of the one-stroke writing gesture recognition processing unit 320 is forcibly shifted to the OFF state when the drawing point of the finger is continuously undetected for a preset time. However, the present invention is not limited to this, and when a part of the set representing the finger position trajectory stored in the finger position accumulating unit 25 is missing a predetermined length or longer, the one-stroke gesture recognition processing unit 320 The function may be forcibly shifted to the OFF state.

さらに、前記実施形態では本発明に係るジェスチャ認識装置の機能を情報処理装置に設けた場合を例に説明したが、同機能をテレビジョン受信機に設けてもよいし、セットトップボックスやビデオレーダなどに設けてもよい。その他、ジェスチャ認識装置の種類や構成、処理手順と処理内容などについても、この発明の要旨を逸脱しない範囲で種々変形して実施できる。   Further, in the above-described embodiment, the case where the function of the gesture recognition device according to the present invention is provided in the information processing device has been described as an example. However, the same function may be provided in a television receiver, a set-top box or a video radar. May be provided. In addition, the gesture recognition apparatus can be variously modified and implemented without departing from the gist of the present invention.

要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。   In short, the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.

1…ユーザ、2…テレビジョン受信機、3…情報処理装置、4…カメラ、5…発光マーカ、10…撮像画像取得ユニット、11…カメラ画像取得部、20…データベース、21…カメラ画像蓄積部、22…一筆書き図形蓄積部、23…操作内容蓄積部、24…表示画像・映像蓄積部、25…指位置蓄積部、26…SVM学習データ蓄積部、30…一筆書きジェスチャ認識処理ユニット、310…一筆書きジェスチャ認識機能ON/OFF切替部、311…指位置検出部、312…一筆書きジェスチャ認識機能ON/OFF判断・切替部、320…一筆書きジェスチャ認識処理部、321…一筆書きジェスチャ入力判断部、322…一筆書き図形の方向識別部、323…一筆書き図形識別部、3231…図形作成機能、3232…図形領域抽出機能、3233…抽出画像正規化機能、3234…中心点DtB情報抽出機能、3235…モード識別機能、3236…学習データ蓄積機能、3237…SVMモデル作成機能、3238…図形認識機能、40…リアルタイム処理発生ユニット、50…表示画面処理ユニット、51…表示画面処理部。   DESCRIPTION OF SYMBOLS 1 ... User, 2 ... Television receiver, 3 ... Information processing apparatus, 4 ... Camera, 5 ... Luminescent marker, 10 ... Captured image acquisition unit, 11 ... Camera image acquisition part, 20 ... Database, 21 ... Camera image storage part , 22 ... one-stroke drawing graphic storage unit, 23 ... operation content storage unit, 24 ... display image / video storage unit, 25 ... finger position storage unit, 26 ... SVM learning data storage unit, 30 ... one-stroke writing gesture recognition processing unit, 310 ... one-stroke gesture recognition function ON / OFF switching section, 311 ... finger position detection section, 312 ... one-stroke gesture recognition function ON / OFF determination / switching section, 320 ... one-stroke gesture recognition processing section, 321 ... one-stroke gesture input determination , 322... One-stroke-drawn figure direction identification section, 323... One-stroke-drawn figure identification section, 3231. 3233 ... extracted image normalization function 3234 ... center point DtB information extraction function 3235 ... mode identification function 3236 ... learning data storage function 3237 ... SVM model creation function 3238 ... figure recognition function 40 ... real-time processing generation Unit: 50... Display screen processing unit, 51... Display screen processing unit.

Claims (3)

ジェスチャにより空間に図形を描く動きを撮像してその画像データを出力する撮像装置と、前記撮像装置から出力された画像データをもとに前記ジェスチャにより描かれた図形を認識する機能を有するジェスチャ認識装置とを具備するシステムで使用される前記ジェスチャ認識装置であって、
前記撮像装置から出力された画像データを所定の周期で取り込む手段と、
前記画像データが取り込まれるごとに当該画像データから前記ジェスチャによる描画点の位置情報を検出し、この検出された描画点の位置情報を記憶手段に格納する手段と、
前記記憶手段に格納された描画点の位置情報の集合をもとに前記ジェスチャによる描画軌跡を表す情報を作成する手段と、
前記作成された描画軌跡を表す情報をもとに、当該描画軌跡の中心点又は重心点を求めると共に、この求められた中心点又は重心点から前記描画軌跡までの距離を所定の角度間隔で求め、この求められた距離の集合をもとに前記描画軌跡の形状を識別して、この識別された描画軌跡の形状をもとに前記描画軌跡により表される図形を認識する処理を行う図形認識手段と
を具備することを特徴とするジェスチャ認識装置。
An imaging apparatus that captures a motion of drawing a figure in a space by a gesture and outputs the image data, and a gesture recognition having a function of recognizing the figure drawn by the gesture based on the image data output from the imaging apparatus A gesture recognition device for use in a system comprising the device,
Means for capturing image data output from the imaging device at a predetermined period;
Means for detecting position information of a drawing point by the gesture from the image data each time the image data is captured, and storing the position information of the detected drawing point in a storage means;
Means for creating information representing a drawing trajectory by the gesture based on a set of drawing point position information stored in the storage means;
Based on the information representing the created drawing trajectory, the center point or centroid point of the drawing trajectory is obtained, and the distance from the obtained center point or centroid point to the drawing trajectory is obtained at a predetermined angular interval. The graphic recognition for identifying the shape of the drawing trajectory based on the set of the obtained distances and performing the process of recognizing the graphic represented by the drawing trajectory based on the identified shape of the drawing trajectory And a gesture recognition device.
前記図形認識手段は、
前記求められた中心点又は重心点を中心に描画軌跡方向に対し複数の角度範囲を設定する手段と、
前記設定された複数の角度範囲の各々について、前記中心点又は重心点から前記描画軌跡までの距離を所定の角度間隔で求めて、この求められた距離の集合をもとに前記描画軌跡の部分形状を識別し、この識別された描画軌跡の部分形状をもとに前記描画軌跡により表される図形を推測する処理を、前記描画軌跡により表される図形が認識されるまで、前記複数の角度範囲を順に選択して繰り返し実行する手段と
を備えることを特徴とする請求項1記載のジェスチャ認識装置。
The graphic recognition means
Means for setting a plurality of angle ranges with respect to the drawing trajectory direction around the obtained center point or center of gravity;
For each of the set angular ranges, a distance from the center point or the center of gravity to the drawing locus is obtained at a predetermined angular interval, and a portion of the drawing locus is obtained based on the set of obtained distances. The process of identifying the shape and inferring the figure represented by the drawing locus based on the partial shape of the identified drawing locus until the figure represented by the drawing locus is recognized. The gesture recognition apparatus according to claim 1, further comprising a unit that sequentially selects and executes a range.
請求項1又は請求項2に記載のジェスチャ認識装置が備える各手段の処理を、当該ジェスチャ認識装置のコンピュータに実行させるプログラム。   The program which makes the computer of the said gesture recognition apparatus perform the process of each means with which the gesture recognition apparatus of Claim 1 or Claim 2 is provided.
JP2012002418A 2012-01-10 2012-01-10 Gesture recognition device and program thereof Active JP5756762B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012002418A JP5756762B2 (en) 2012-01-10 2012-01-10 Gesture recognition device and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012002418A JP5756762B2 (en) 2012-01-10 2012-01-10 Gesture recognition device and program thereof

Publications (2)

Publication Number Publication Date
JP2013142980A true JP2013142980A (en) 2013-07-22
JP5756762B2 JP5756762B2 (en) 2015-07-29

Family

ID=49039522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012002418A Active JP5756762B2 (en) 2012-01-10 2012-01-10 Gesture recognition device and program thereof

Country Status (1)

Country Link
JP (1) JP5756762B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014002607A (en) * 2012-06-19 2014-01-09 Nippon Telegr & Teleph Corp <Ntt> Information input device
CN105956525A (en) * 2016-04-22 2016-09-21 中国人民解放军总装备部军械技术研究所 Static gesture recognizing method and system for AR auxiliary maintenance
US10713304B2 (en) 2016-01-26 2020-07-14 International Business Machines Corporation Entity arrangement by shape input
US20210278854A1 (en) * 2020-03-03 2021-09-09 Hrl Laboratories, Llc Neural network architecture for small lidar processing networks for slope estimation and ground plane segmentation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05135175A (en) * 1991-03-14 1993-06-01 Fujitsu Ltd Feature extraction device
JP2002247436A (en) * 2001-02-14 2002-08-30 Fuji Photo Film Co Ltd Digital camera
JP2007172577A (en) * 2005-11-25 2007-07-05 Victor Co Of Japan Ltd Operation information input apparatus
US20110222726A1 (en) * 2010-03-15 2011-09-15 Omron Corporation Gesture recognition apparatus, method for controlling gesture recognition apparatus, and control program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05135175A (en) * 1991-03-14 1993-06-01 Fujitsu Ltd Feature extraction device
JP2002247436A (en) * 2001-02-14 2002-08-30 Fuji Photo Film Co Ltd Digital camera
JP2007172577A (en) * 2005-11-25 2007-07-05 Victor Co Of Japan Ltd Operation information input apparatus
US20110222726A1 (en) * 2010-03-15 2011-09-15 Omron Corporation Gesture recognition apparatus, method for controlling gesture recognition apparatus, and control program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014002607A (en) * 2012-06-19 2014-01-09 Nippon Telegr & Teleph Corp <Ntt> Information input device
US10713304B2 (en) 2016-01-26 2020-07-14 International Business Machines Corporation Entity arrangement by shape input
CN105956525A (en) * 2016-04-22 2016-09-21 中国人民解放军总装备部军械技术研究所 Static gesture recognizing method and system for AR auxiliary maintenance
US20210278854A1 (en) * 2020-03-03 2021-09-09 Hrl Laboratories, Llc Neural network architecture for small lidar processing networks for slope estimation and ground plane segmentation
US11928585B2 (en) * 2020-03-03 2024-03-12 Hrl Laboratories, Llc Neural network architecture for small LIDAR processing networks for slope estimation and ground plane segmentation

Also Published As

Publication number Publication date
JP5756762B2 (en) 2015-07-29

Similar Documents

Publication Publication Date Title
US20140071042A1 (en) Computer vision based control of a device using machine learning
KR101514169B1 (en) Information processing device, information processing method, and recording medium
US8938124B2 (en) Computer vision based tracking of a hand
US20130088422A1 (en) Input apparatus and input recognition method
US9965041B2 (en) Input device, apparatus, input method, and recording medium
JP2016520946A (en) Human versus computer natural 3D hand gesture based navigation method
US9557821B2 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
KR20130105725A (en) Computer vision based two hand control of content
JP2012058854A (en) Gesture recognition device and method
TWI431538B (en) Image based motion gesture recognition method and system thereof
JP5756762B2 (en) Gesture recognition device and program thereof
JP2013080433A (en) Gesture recognition device and program for the same
US9525906B2 (en) Display device and method of controlling the display device
KR101749070B1 (en) Apparatus and method for assessing user interface
US9483691B2 (en) System and method for computer vision based tracking of an object
JP5668005B2 (en) Gesture recognition device and program thereof
JP5756729B2 (en) Gesture recognition device and program thereof
US9405375B2 (en) Translation and scale invariant features for gesture recognition
JP5546029B2 (en) Gesture recognition device and program thereof
US20150117712A1 (en) Computer vision based control of a device using machine learning
JP5756730B2 (en) Information input device and program thereof
JP5798083B2 (en) One-stroke figure direction detector
EP2919096B1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
WO2013168160A1 (en) System and method for computer vision based tracking of a hand
IL229730A (en) Computer vision based control of a device using machine learning

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130515

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150601

R150 Certificate of patent or registration of utility model

Ref document number: 5756762

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150