JP5358548B2 - Gesture recognition device - Google Patents

Gesture recognition device Download PDF

Info

Publication number
JP5358548B2
JP5358548B2 JP2010247264A JP2010247264A JP5358548B2 JP 5358548 B2 JP5358548 B2 JP 5358548B2 JP 2010247264 A JP2010247264 A JP 2010247264A JP 2010247264 A JP2010247264 A JP 2010247264A JP 5358548 B2 JP5358548 B2 JP 5358548B2
Authority
JP
Japan
Prior art keywords
input determination
determination area
gesture
finger
point input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010247264A
Other languages
Japanese (ja)
Other versions
JP2012098987A (en
Inventor
良輔 青木
篤彦 前田
智樹 渡部
稔 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010247264A priority Critical patent/JP5358548B2/en
Publication of JP2012098987A publication Critical patent/JP2012098987A/en
Application granted granted Critical
Publication of JP5358548B2 publication Critical patent/JP5358548B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enhance recognition precision by reducing wrong recognition due to a position shift of an end point. <P>SOLUTION: Image data on a user imaged by a camera 4 is input, and an initial position of a finger is detected first from the input image data to set an end/start point input determination area of a first size E0 including the initial position in the image data. In a process of detecting a track of position coordinates of the finger from when position coordinates of the finger detected from the image data exit from the end/start point input determination area until when the position coordinates return into the end/start point input determination area, it is determined under the control of an end/start point input determination area enlargement/reduction part 32 whether the position coordinates of the finger are present within the end/start point input determination area, so that the end/start point input determination area is enlarged to a second size E1 larger than the first size E0 when it is determined that the position coordinates are present, or reduced to the first size E0 when it is determined that the position coordinates are not present. <P>COPYRIGHT: (C)2012,JPO&amp;INPIT

Description

この発明は、例えばテレビジョン受信機や録画再生装置において、離れた場所からチャネル情報や制御情報等を入力するために用いる、指又は腕の動きによるジェスチャを認識するジェスチャ認識装置に関する。   The present invention relates to a gesture recognition device for recognizing a gesture caused by movement of a finger or an arm, which is used for inputting channel information, control information, and the like from a remote place, for example, in a television receiver or a recording / playback apparatus.

カメラを接続可能な外部インタフェース(例えばUSB)を備えたネット対応テレビジョン受信機の登場に伴い、テレビジョン電話等のネットワークとカメラを用いたサービスが普及しつつある。また、カメラを用いた画像処理技術を用いてその場にいる人々の年齢性別を認識する技術を組み込んだデジタルサイネージの登場に伴い、その場の人々の年齢性別に合わせた広告を表示するサービスが普及しつつある。   With the advent of network-compatible television receivers equipped with an external interface (for example, USB) that can be connected to a camera, services using networks and cameras, such as television phones, are becoming widespread. In addition, with the advent of digital signage that incorporates technology that recognizes the age and gender of people on the spot using image processing technology using a camera, a service that displays advertisements tailored to the age and gender of the people on the spot It is becoming popular.

ところで、これらのサービスを利用する際にユーザはメニューの選択操作等を行う必要があるが、その入力操作方式として利用者の動きを利用したジェスチャ入力方式が提案されている。このジェスチャ入力方式は、例えばユーザの指の動きをカメラを用いて撮像し、この撮像された画像データからユーザの特定の身体部位の動作軌跡をパターン認識処理により認識して、この認識結果をもとにメニュー等のポインティングを行うものとなっている(例えば、特許文献1を参照)。   By the way, when using these services, the user needs to perform a menu selection operation or the like. As an input operation method, a gesture input method using a user's movement has been proposed. In this gesture input method, for example, the movement of a user's finger is imaged using a camera, the movement locus of a specific body part of the user is recognized from the captured image data by pattern recognition processing, and the recognition result is also obtained. In addition, menus and the like are pointed (see, for example, Patent Document 1).

特許第4053903号公報Japanese Patent No. 4053903

ところが、従来提案されているジェスチャ認識処理技術は以下のような解決すべき課題があった。
すなわち、従来の技術では、ユーザが例えば図22(a)に示す入力開始前の状態から図22(b)に示すようにカメラの撮像画面の中央部に指の位置を持っていくと、このときの指の初期位置Psを基準として終始点入力判定領域Eが作成される。この状態で、ユーザが一筆書きで図形を描くと、図22(c)に示すように指の位置が終始点入力判定領域E外へ出た時点で入力判定フラグがONとなり、その後図22(d)に示すように指の位置Peが終始点入力判定領域E内に戻った時点で入力判定フラグがOFFとなる。そして、上記入力判定フラグがONになっている期間に得られた指の軌跡により表される図形が、ジェスチャとして認識される。
However, the conventionally proposed gesture recognition processing technique has the following problems to be solved.
In other words, in the conventional technique, when the user moves the finger position to the center of the imaging screen of the camera as shown in FIG. 22B from the state before the input start shown in FIG. The starting point input determination area E is created based on the initial position Ps of the finger at that time. In this state, when the user draws a figure with a single stroke, as shown in FIG. 22 (c), the input determination flag is turned on when the position of the finger goes out of the start / end input determination area E, and thereafter FIG. As shown in d), the input determination flag is turned OFF when the finger position Pe returns to the end point input determination area E. And the figure represented by the locus | trajectory of the finger | toe obtained in the period when the said input determination flag is set to ON is recognized as a gesture.

しかし、指の位置が終始点入力判定領域E内に戻った際に、ユーザは指を停止させたつもりでもその位置は微妙に変化する。このため、指の停止位置、つまり終点Pe が図23(a),(b)に示すように領域境界上にあると、この終点Pe 位置が領域境界線を何度も通過するため図23(c)に示すようにいわゆるチャタリングのような現象が起こり、その結果誤認識が発生することがある。   However, when the position of the finger returns to the start point input determination area E, the position slightly changes even if the user intends to stop the finger. Therefore, if the stop position of the finger, that is, the end point Pe is on the region boundary as shown in FIGS. 23A and 23B, the end point Pe position passes through the region boundary line many times, so that FIG. As shown in c), a phenomenon such as so-called chattering occurs, and as a result, erroneous recognition may occur.

また、ユーザが一筆書き図形を描いてもこの図形がジェスチャとして認識されない場合がある。この問題が生じる例としては以下の2つがあげられる。
(1) ユーザは円を描いたつもりでも、図24(a),(b)に示すように指の軌跡が終始点入力判定領域Eを通過しない場合
(2) 同様に円を描いたつもりでも、図24(c)に示すように指の位置が終始点入力判定領域Eに届かずに手前で止まってしまった場合。
Moreover, even if the user draws a one-stroke drawing figure, this figure may not be recognized as a gesture. There are the following two examples where this problem occurs.
(1) Even when the user intends to draw a circle, the trajectory of the finger does not pass through the end point input determination area E as shown in FIGS.
(2) Even if it is intended to draw a circle in the same manner, as shown in FIG. 24C, the position of the finger does not reach the starting point input determination area E and stops in front.

この発明は上記事情に着目してなされたもので、その第1の目的は、終点の位置ずれによる誤認識を低減して認識精度を高めたジェスチャ認識装置を提供することである。
また第2の目的は、ユーザによる図形の描画位置が移動しても図形を確実に認識できるようにしたジェスチャ認識装置を提供することである。
The present invention has been made paying attention to the above circumstances, and a first object of the invention is to provide a gesture recognition device in which the recognition accuracy is improved by reducing the erroneous recognition due to the positional deviation of the end point.
A second object is to provide a gesture recognition device that can reliably recognize a graphic even if the drawing position of the graphic by the user moves.

さらに第3の目的は、ユーザが描く図形の移動範囲を狭い範囲に抑制することが可能なジェスチャ認識装置を提供することである。   A third object is to provide a gesture recognition device capable of suppressing the movement range of a graphic drawn by a user to a narrow range.

上記第1の目的を達成するためにこの発明の第1の観点は、ジェスチャにより空間に図形を描く動きを撮像してその画像データを出力する撮像装置と、上記撮像装置から出力された画像データをもとに上記ジェスチャにより描かれた図形を認識するジェスチャ認識装置とを具備するシステムで使用される上記ジェスチャ認識装置において、上記撮像装置から出力された画像データを取り込み、この取り込まれた画像データから先ず描画点の初期位置を検出してこの初期位置を含む第1のサイズの終始点入力判定領域を上記画像データ中に設定する。そして、上記画像データから検出される描画点が上記終始点入力判定領域外に出たのち当該終始点入力判定領域内に戻るまでの描画点の軌跡を検出している最中に、当該描画点が上記終始点入力判定領域内に存在するか否かを判定し、存在すると判定されているときには上記終始点入力判定領域のサイズを上記第1のサイズより大きい第2のサイズに拡大し、存在しないと判定されているときには上記終始点入力判定領域のサイズを上記第1のサイズに縮小するようにしたものである。   In order to achieve the first object, a first aspect of the present invention includes an imaging device that captures a motion of drawing a figure in a space by a gesture and outputs the image data, and image data output from the imaging device In the gesture recognition device used in the system including the gesture recognition device for recognizing the graphic drawn by the gesture based on the image data, the image data output from the imaging device is captured, and the captured image data First, the initial position of the drawing point is detected, and the first size end point input determination area including the initial position is set in the image data. While the drawing point detected from the image data is outside the start point input determination area and then returns to the start point input determination area, the drawing point is being detected. Is determined to exist within the end point input determination area, and if it is determined to exist, the size of the end point input determination area is expanded to a second size larger than the first size, and exists When it is determined not to do so, the size of the start point input determination area is reduced to the first size.

したがって、この発明の第1の観点によれば、描画点が終始点入力判定領域内に戻るとこの終始点入力判定領域のサイズが第2のサイズに拡大される。つまり、第1のサイズの境界線上に停止した指の位置は第2のサイズの内部に存在することになる。このため、上記描画点の終点がユーザの指の震えや揺れ等により多少位置ずれを起こしたとしても終点の位置を終始点入力判定領域内に安定的に留めることが可能となり、これによりいわゆるチャタリングのような現象が発生しても、誤認識の発生を減らすことができる。   Therefore, according to the first aspect of the present invention, when the drawing point returns into the end point input determination region, the size of the end point input determination region is enlarged to the second size. That is, the position of the finger stopped on the boundary line of the first size exists inside the second size. For this reason, even if the end point of the drawing point is slightly misaligned due to the shaking or shaking of the user's finger, it is possible to stably keep the end point position within the start / end point input determination area. Even if such a phenomenon occurs, the occurrence of erroneous recognition can be reduced.

上記第2の目的を達成するためにこの発明の第2の観点は、少なくとも上記描画点が上記終始点入力判定領域外に存在するときに、上記描画点の軌跡の通過を検出するための入力判定境界線を上記画像データ中に設定する手段をさらに備える。そして、ジェスチャを認識する際に、上記描画点の軌跡が上記設定された入力判定境界線を通過せずかつ上記描画点が上記終始点入力判定領域内に戻ったか否かを判定する第1の判定処理と、上記描画点の軌跡が上記入力判定境界線を複数回通過したか否かを判定する第2の判定処理と、上記描画点の軌跡が上記入力判定境界線を1回通過しかつ描画点が上記終始点入力判定領域内に戻ったか否かを判定する第3の判定処理のいずれかでその判定結果が「OK」となった場合に、当該描画点の軌跡をジェスチャにより描かれた図形として認識するようにしたものである。   In order to achieve the second object, a second aspect of the present invention provides an input for detecting passage of a locus of the drawing point when at least the drawing point is outside the start point input determination region. A means for setting a determination boundary line in the image data is further provided. Then, when recognizing the gesture, a first point for determining whether or not the locus of the drawing point does not pass the set input determination boundary line and the drawing point has returned to the start point input determination region. A determination process; a second determination process for determining whether the locus of the drawing point has passed the input determination boundary line a plurality of times; and the locus of the drawing point has passed the input determination boundary line once; When the determination result is “OK” in any of the third determination processes for determining whether or not the drawing point has returned to the end point input determination area, the locus of the drawing point is drawn by the gesture. It is designed to be recognized as a figure.

したがって、この発明の第2の観点によれば、描画点の終点が終始点入力判定領域内に戻った場合に止まらず、ユーザが円を描いたつもりでも描画点の軌跡が終始点入力判定領域を通過しなかった場合でも、また描画点の位置が終始点入力判定領域に届かずに手前で止まってしまった場合でも、このとき描かれた図形を認識対象のジェスチャとして認識することが可能となる。   Therefore, according to the second aspect of the present invention, the end point of the drawing point does not stop when the end point of the drawing point returns to the end point input determination area, and the trace of the drawing point does not stop when the user intends to draw a circle. Even if it doesn't pass through, or even if the position of the drawing point does not reach the end point input determination area and stops in front, it is possible to recognize the drawn figure as a recognition target gesture Become.

上記第3の目的を達成するためにこの発明の第3の観点は、上記終始点入力判定領域の位置を補正する補正手段をさらに備える。そして、上記補正手段により、上記描画点の軌跡が上記第2の判定処理により定義される判定条件を満たした場合に、上記終始点入力判定領域の位置を上記描画点の終点を含む位置に移動させる。また、上記描画点の軌跡が上記第1又は第3の判定処理により定義される判定条件を満たした場合には、上記終始点入力判定領域の位置を上記描画点の初期位置に近づくように移動させるようにしたものである。   In order to achieve the third object, the third aspect of the present invention further comprises correction means for correcting the position of the start point input determination area. Then, when the locus of the drawing point satisfies the determination condition defined by the second determination process, the position of the start point input determination area is moved to a position including the end point of the drawing point by the correction unit. Let Further, when the locus of the drawing point satisfies the determination condition defined by the first or third determination process, the position of the start point input determination area is moved closer to the initial position of the drawing point. It is made to let you.

このようにすると、ユーザが1つの図形を描くごとに、終始点入力判定領域の位置が当該図形の終点を含む位置に移動する。このため、複数の図形を連続的に描く場合に次の図形をより確実に認識することが可能となる。また、複数の図形を連続的に描いている過程で、図形の終点位置が終始点入力判定領域の初期位置に戻った場合には、終始点入力判定領域の位置が上記初期位置に対し近い位置に戻るように修正される。このため、ユーザが描く図形の移動範囲を狭い範囲に規制することが可能となる。   If it does in this way, whenever a user draws one figure, the position of the starting point input determination area will move to a position including the end point of the figure. For this reason, when drawing a plurality of figures continuously, it becomes possible to recognize the next figure more reliably. In the process of drawing a plurality of figures continuously, if the end point position of the figure returns to the initial position of the start point input determination area, the position of the start point input determination area is close to the initial position. Modified to return to For this reason, it becomes possible to restrict the movement range of the figure drawn by the user to a narrow range.

また、上記第2の目的を達成するためにこの発明の第4の観点は、上記終始点入力判定領域及び上記入力判定境界線を拡張する拡張手段をさらに具備する。そして、拡張手段により、上記描画点が予め設定した時間以上連続して停止したか否かを判定し、この判定処理により上記描画点の停止が検出されかつその停止位置が上記終始点入力判定領域外のとき、上記終始点入力判定領域及び上記入力判定境界線の少なくとも一方を上記停止中の描画点に近づけるようにしたものである。   In order to achieve the second object, the fourth aspect of the present invention further includes expansion means for expanding the start point input determination region and the input determination boundary line. Then, it is determined by the extension means whether or not the drawing point has been continuously stopped for a preset time or longer, the stop of the drawing point is detected by this determination processing, and the stop position is determined in the start point input determination area. When it is outside, at least one of the end point input determination area and the input determination boundary line is brought close to the stopped drawing point.

このようにすると、描画点の終点位置が終始点入力判定領域外の位置で一定時間以上停止した場合に、終始点入力判定領域が上記停止中の描画点に近づくように拡張されるか、或いは入力判定境界線の位置が上記停止中の描画点に近づくように移動される。このため、ユーザが描いた図形の軌跡が終始点入力判定領域を通過しなかったり、或いは図形の終点が終始点入力判定領域に届かずに手前で止まってしまった場合でも、このときの描画図形をジェスチャとして認識することが可能となる。   In this way, when the end point position of the drawing point is stopped at a position outside the end point input determination area for a certain time or longer, the end point input determination area is expanded so as to approach the stopped drawing point, or The position of the input determination boundary line is moved so as to approach the drawing point that is stopped. For this reason, even if the trace of the figure drawn by the user does not pass through the end point input determination area, or the end point of the figure does not reach the end point input determination area, it stops at this point. Can be recognized as a gesture.

すなわちこの発明の第1の観点によれば、終点の位置ずれによる誤認識を低減して認識精度を高めたジェスチャ認識装置を提供することができる。
またこの発明の第2の観点によれば、ユーザによる図形の描画位置が移動しても図形を確実に認識できるようにしたジェスチャ認識装置を提供することができる。
さらにこの発明の第3の観点によれば、ユーザが描く図形の移動範囲を狭い範囲に抑制することが可能なジェスチャ認識装置を提供することができる。
That is, according to the first aspect of the present invention, it is possible to provide a gesture recognition device that reduces recognition errors due to misalignment of the end point and increases recognition accuracy.
Further, according to the second aspect of the present invention, it is possible to provide a gesture recognition device capable of reliably recognizing a graphic even if the drawing position of the graphic by the user moves.
Furthermore, according to the 3rd viewpoint of this invention, the gesture recognition apparatus which can suppress the movement range of the figure which a user draws to a narrow range can be provided.

この発明の一実施形態に係わるジェスチャ認識装置を含むシステムの概略構成図。1 is a schematic configuration diagram of a system including a gesture recognition device according to an embodiment of the present invention. 図1にジェスチャ認識装置として示したテレビジョン受信機の機能構成を示すブロック図。The block diagram which shows the function structure of the television receiver shown as a gesture recognition apparatus in FIG. 図2に示したテレビジョン受信機による全体の処理手順と処理内容を示すフローチャート。The flowchart which shows the whole process sequence and process content by the television receiver shown in FIG. 図3に示した全体の処理手順のうち終始点入力判定領域拡大縮小処理の処理手順と処理内容を示すフローチャート。The flowchart which shows the process sequence and process content of the starting point input determination area expansion / contraction process among the whole process procedures shown in FIG. 図3に示した全体の処理手順のうち入力判定境界線作成削除処理の処理手順と処理内容を示すフローチャート。The flowchart which shows the process sequence and process content of an input determination boundary line creation deletion process among the whole process procedures shown in FIG. 図3に示した全体の処理手順のうち終始点入力判定領域・境界線拡張処理の処理手順と処理内容を示すフローチャート。The flowchart which shows the process sequence and process content of the starting point input determination area | region / boundary line expansion process among the whole process procedures shown in FIG. 図3に示した全体の処理手順のうちジェスチャ入力処理の処理手順と処理内容を示すフローチャート。The flowchart which shows the process sequence and process content of a gesture input process among the whole process procedures shown in FIG. 図4に示した終始点入力判定領域拡大縮小処理の具体例を説明するための図。The figure for demonstrating the specific example of the starting point input determination area expansion / contraction process shown in FIG. 図5に示した入力判定境界線作成削除処理の説明に用いる入力判定水平境界線作成領域の一例を示す図。The figure which shows an example of the input determination horizontal boundary line creation area used for description of the input determination boundary line creation deletion process shown in FIG. 図5に示した入力判定境界線作成削除処理の説明に用いる入力判定垂直境界線作成領域の一例を示す図。FIG. 6 is a diagram illustrating an example of an input determination vertical boundary line creation region used for explaining the input determination boundary line creation deletion process illustrated in FIG. 5. 図5に示した入力判定境界線作成削除処理の説明に用いる入力判定境界線の一例を示す図。The figure which shows an example of the input determination boundary line used for description of the input determination boundary line creation deletion process shown in FIG. 図6に示した終始点入力判定領域・境界線拡張処理のうち、終始点入力判定領域の拡張処理の一例を示す図。The figure which shows an example of the expansion process of a starting point input determination area | region among the starting point input determination area | region and boundary line expansion processing shown in FIG. 図6に示した終始点入力判定領域・境界線拡張処理のうち、入力判定境界線の接近処理の一例を示す図。The figure which shows an example of the approach process of an input determination boundary line among the starting point input determination area | region / boundary line expansion processes shown in FIG. 図7に示したジェスチャ入力処理のうち、入力判定垂直境界線を利用した入力判定処理の一例を示す図。The figure which shows an example of the input determination process using the input determination vertical boundary line among the gesture input processes shown in FIG. 図7に示したジェスチャ入力処理のうち、入力判定水平境界線を利用した入力判定処理の一例を示す図。The figure which shows an example of the input determination process using the input determination horizontal boundary line among the gesture input processes shown in FIG. 図7に示したジェスチャ入力処理のうち、入力判定境界線と終始点入力判定領域を併用した入力判定処理の一例を示す図。The figure which shows an example of the input determination process which used the input determination boundary line and the start point input determination area | region among the gesture input processes shown in FIG. 図7に示したジェスチャ入力処理のうち、終始点入力判定領域の位置補正処理の一例を示す図。The figure which shows an example of the position correction process of the starting point input determination area | region among the gesture input processes shown in FIG. 図7に示したジェスチャ入力処理のうち、終始点入力判定領域の位置補正処理の他の例を示す図。The figure which shows the other example of the position correction process of the starting point input determination area | region among the gesture input processes shown in FIG. この発明の用途の第1の例を示す図。The figure which shows the 1st example of the use of this invention. この発明の用途の第2の例を示す図。The figure which shows the 2nd example of the use of this invention. この発明の用途の第3の例を示す図。The figure which shows the 3rd example of the use of this invention. この発明に係る基本的なジェスチァ認識手順を示す図。The figure which shows the basic gesture recognition procedure which concerns on this invention. 従来の認識手段の課題を説明するための図。The figure for demonstrating the subject of the conventional recognition means. 従来の認識手段の課題を説明するための図。The figure for demonstrating the subject of the conventional recognition means.

以下、図面を参照してこの発明に係わる実施形態を説明する。
[構成]
図1は、この発明の一実施形態に係わるジェスチャ認識を用いた情報入力システムの概略構成図である。このシステムは、テレビジョン受信機2にカメラ4を装着したものとなっている。カメラ4は、ユーザ1の指の動きを用いたジェスチャを撮像し、その撮像画像データをUSBケーブルを介してテレビジョン受信機2へ出力する。なお、ユーザ1の指先には、指先の動きをより認識し易くするために例えばLED(Light Emitting Diode)を用いた発光マーカ6が装着される。
Embodiments according to the present invention will be described below with reference to the drawings.
[Constitution]
FIG. 1 is a schematic configuration diagram of an information input system using gesture recognition according to an embodiment of the present invention. In this system, a camera 4 is mounted on a television receiver 2. The camera 4 images a gesture using the finger movement of the user 1 and outputs the captured image data to the television receiver 2 via a USB cable. Note that a light emitting marker 6 using, for example, an LED (Light Emitting Diode) is attached to the fingertip of the user 1 in order to make it easier to recognize the movement of the fingertip.

テレビジョン受信機2は、ジェスチャ認識装置としての機能を備えたもので、以下のように構成される。図2は、このテレビジョン受信機2の構成を上記カメラ4の構成と共に示すブロック図である。   The television receiver 2 has a function as a gesture recognition device, and is configured as follows. FIG. 2 is a block diagram showing the configuration of the television receiver 2 together with the configuration of the camera 4.

カメラ4は、撮像処理部41と、画像送信部42を備えている。撮像処理部41は、後述するリアルタイムイベント発行ユニット50からトリガ信号が発生されるごとにユーザ1のジェスチャを撮像する処理を行う。画像送信部42は、上記撮像処理により得られた画像データを後述する記憶ユニット20内の画像情報蓄積部21に記憶させる処理を行う。   The camera 4 includes an imaging processing unit 41 and an image transmission unit 42. The imaging processing unit 41 performs a process of imaging a gesture of the user 1 every time a trigger signal is generated from a real-time event issuing unit 50 described later. The image transmission unit 42 performs a process of storing the image data obtained by the imaging process in the image information storage unit 21 in the storage unit 20 described later.

テレビジョン受信機2は、ジェスチャ認識処理を行うために必要な機能として、記憶ユニット20と、ジェスチャ認識ユニット30と、表示画像制御ユニット40と、リアルタイムイベント発行ユニット50と、指位置検出ユニット60を備えている。   The television receiver 2 includes a storage unit 20, a gesture recognition unit 30, a display image control unit 40, a real-time event issuing unit 50, and a finger position detection unit 60 as functions necessary for performing gesture recognition processing. I have.

記憶ユニット20は、記憶媒体として例えばハードディスク又はNAND型フラッシュメモリを使用したもので、この発明を実施するために必要な記憶機能として、画像情報蓄積部21と、ジェスチャコマンド変換テーブル部22と、表示画像データ蓄積部23と、図形パターン記憶部24と、指位置情報蓄積部25を有している。   The storage unit 20 uses, for example, a hard disk or a NAND flash memory as a storage medium. As a storage function necessary for carrying out the present invention, an image information storage unit 21, a gesture command conversion table unit 22, and a display An image data storage unit 23, a graphic pattern storage unit 24, and a finger position information storage unit 25 are provided.

画像情報蓄積部21は、上記カメラ4の画像送信部42から出力された画像データを記憶するために用いられる。ジェスチャコマンド変換テーブル部22には、認識対象の複数の入力コマンドに対応付けて、当該入力コマンドを意味する図形パターンの種類とその終始点を表す情報が予め記憶されている。表示画像データ蓄積部23には、上記入力コマンドが意味する表示処理内容に応じた画像を表示するために必要な様々な表示画像データが記憶される。図形パターン記憶部24には、認識対象となる複数の図形形状の基本パターンが記憶される。指位置情報蓄積部25は、後述する指位置検出ユニット60により検出されたユーザ1の指の軌跡を表す位置座標集合を蓄積するために用いられる。   The image information storage unit 21 is used for storing the image data output from the image transmission unit 42 of the camera 4. The gesture command conversion table unit 22 stores in advance information indicating the type of a graphic pattern meaning the input command and its starting point in association with a plurality of input commands to be recognized. The display image data storage unit 23 stores various display image data necessary for displaying an image corresponding to the display processing content meaning the input command. The graphic pattern storage unit 24 stores basic patterns of a plurality of graphic shapes to be recognized. The finger position information accumulating unit 25 is used for accumulating a position coordinate set representing a locus of the finger of the user 1 detected by a finger position detecting unit 60 described later.

リアルタイムイベント発行ユニット50は、例えばタイマを使用して、上記カメラ4等を予め決められた周期で動作させるためのトリガ信号を生成する。
指位置検出ユニット60は、上記リアルタイムイベント発行ユニット50により決められたトリガ信号の発行周期で上記画像情報蓄積部21に新たな画像データが記憶されるごとに、この画像データから発光マーカ6の輝点画像を指の位置を表す情報として検出し、画像データ中における上記輝点画像の位置座標を記憶ユニット20内の指位置情報蓄積部25に記憶させる処理を行う。
The real-time event issuing unit 50 uses a timer, for example, to generate a trigger signal for operating the camera 4 and the like at a predetermined cycle.
Each time new image data is stored in the image information storage unit 21 at the trigger signal issuance period determined by the real-time event issuing unit 50, the finger position detecting unit 60 uses the image data to detect the brightness of the luminescent marker 6. A point image is detected as information representing the position of the finger, and the position coordinates of the bright spot image in the image data are stored in the finger position information storage unit 25 in the storage unit 20.

ジェスチャ認識ユニット30は、この発明の一実施形態を実施するために必要な処理機能として、ジェスチャ入力初期設定部31と、終始点入力判定領域拡大縮小部32と、入力判定境界線作成削除部33と、終始点入力判定領域・境界線拡張部34と、ジェスチャ認識部35を備えている。   The gesture recognition unit 30 includes a gesture input initial setting unit 31, a start / end point input determination area enlargement / reduction unit 32, and an input determination boundary line creation / deletion unit 33 as processing functions necessary for carrying out an embodiment of the present invention. And a starting point input determination area / boundary line extension unit 34 and a gesture recognition unit 35.

ジェスチャ入力初期設定部31は、待機状態においてユーザ1がジェスチャによる入力操作開始動作を行った場合に起動される。そして、上記指位置検出ユニット60により検出されたユーザ1の指の位置を初期位置として認識して、この初期位置を中心とする終始点入力判定領域を画像データ中に設定する処理を行う。終始点入力判定領域とは、ジェスチャにより描かれる一筆書き図形の終始点を検出するためのもので、この終始点が検出された場合に1つの図形の入力が終了したと判定する。   The gesture input initial setting unit 31 is activated when the user 1 performs an input operation start operation using a gesture in a standby state. Then, the position of the finger of the user 1 detected by the finger position detection unit 60 is recognized as an initial position, and a process for setting an end point input determination region centered on the initial position in the image data is performed. The end point input determination area is for detecting the start point of a one-stroke drawing drawn by a gesture. When this end point is detected, it is determined that the input of one figure is completed.

終始点入力判定領域拡大縮小部32は、上記ジェスチャ入力初期設定部31により終始点入力判定領域が設定された状態で、上記指位置検出ユニット60により指の位置座標が検出されるごとに、この検出された指の位置座標が上記終始点入力判定領域内に存在するか否かを判定する。そして、上記指の位置座標が終始点入力判定領域の外部に存在するときには終始点入力判定領域のサイズを上記ジェスチャ入力初期設定部31により初期設定された第1のサイズに維持し、上記指の位置座標が終始点入力判定領域の内部に入った場合には終始点入力判定領域のサイズを上記第1のサイズより大きい第2のサイズに拡大する処理を行う。   The end point input determination area enlargement / reduction unit 32 is in a state where the finger position detection unit 60 detects the finger position coordinates with the end point input determination area set by the gesture input initial setting unit 31. It is determined whether or not the detected finger position coordinates exist within the end point input determination area. When the finger position coordinates are outside the start point input determination region, the size of the start point input determination region is maintained at the first size initially set by the gesture input initial setting unit 31, and When the position coordinates enter the inside of the end point input determination area, a process for enlarging the size of the end point input determination area to a second size larger than the first size is performed.

入力判定境界線作成削除部33は、ユーザ1がジェスチャにより一筆書きの図形を描いている期間に、画像データ中における指の検出位置に応じて入力判定境界線を画像データ中に設定する処理を行う。この入力判定境界線は、水平境界線と垂直境界線とからなり、画像データ中において指の描画軌跡が通過したか否かを判定するもので、上記終始点入力判定領域と協同して上記ジェスチャによる1つの図形の入力操作が終了したか否かを判定するために用いられる。   The input determination boundary line creation / deletion unit 33 performs a process of setting the input determination boundary line in the image data according to the detection position of the finger in the image data during the period in which the user 1 draws a one-stroke drawing by the gesture. Do. The input determination boundary line is composed of a horizontal boundary line and a vertical boundary line, and determines whether or not a finger drawing trajectory has passed in the image data. The input determination boundary line cooperates with the start point input determination area to detect the gesture. This is used to determine whether or not the input operation of one figure has been completed.

終始点入力判定領域・境界線拡張部34は、上記指位置検出ユニット60により検出された指の位置座標が予め設定した一定時間以上連続して停止しているか否かと、当該検出された指の位置座標が終始点入力判定領域に含まれているか否かを判定する。そして、上記検出された指の位置座標が一定時間以上連続して停止し、かつ終始点入力判定領域に含まれていると判定された場合に、ユーザ1がジェスチャで描いた図形の終点が終始点入力判定領域内に到達していないと判断し、終始点入力判定領域を徐々に拡張させて上記停止している指の位置座標に近づける処理か、又は入力判定境界線を徐々に移動させて上記停止している指の位置座標に近づける処理を行う。   The starting point input determination area / boundary line extension unit 34 determines whether or not the finger position coordinates detected by the finger position detection unit 60 have been continuously stopped for a predetermined time period or longer. It is determined whether or not the position coordinates are included in the starting point input determination area. Then, when it is determined that the detected position coordinates of the finger are continuously stopped for a certain time or more and are included in the start point input determination region, the end point of the figure drawn by the user 1 with the gesture is always Judging that the point input determination area has not been reached and gradually expanding the start point input determination area to bring it closer to the position coordinates of the stopped finger, or gradually moving the input determination boundary line A process of approaching the position coordinates of the stopped finger is performed.

ジェスチャ認識部35は、上記指位置情報蓄積部25に記憶された指の軌跡を表す情報もとにユーザ1がジェスチャにより描いた図形を認識するためのもので、その機能としてジェスチャ入力判定部351と、終始点入力判定領域位置補正部352と、描画方向・形状認識部353を有している。   The gesture recognizing unit 35 is for recognizing a figure drawn by the user 1 based on the gesture based on the information representing the finger trajectory stored in the finger position information accumulating unit 25. The gesture recognizing unit 35 functions as a gesture input determining unit 351. A starting point input determination region position correction unit 352 and a drawing direction / shape recognition unit 353.

ジェスチャ入力判定部351は、上記終始点入力判定領域及び入力判定境界線を用いて、上記指位置情報蓄積部25に記憶された指の軌跡を表す位置座標集合から利用者が1つの図形の入力操作を終了したか否かを判定する処理を行う。   The gesture input determination unit 351 uses the start point input determination area and the input determination boundary line to input one figure from the position coordinate set representing the finger trajectory stored in the finger position information storage unit 25. A process for determining whether or not the operation is completed is performed.

終始点入力判定領域位置補正部352は、ユーザ1ができるだけ小さな描画範囲で連続的にジェスチャ入力を行えるようにするために、上記ジェスチャ入力判定部351によるジェスチャの入力判定結果に応じて終始点入力判定領域の位置を適応的に変更する処理を行う。   The starting point input determination area position correction unit 352 inputs the starting point according to the gesture input determination result by the gesture input determination unit 351 so that the user 1 can continuously input a gesture within the smallest possible drawing range. A process of adaptively changing the position of the determination area is performed.

描画方向・形状認識部353は、上記ジェスチャ入力判定部351により1つの図形の入力操作が終了したと判定された場合に、上記指位置情報蓄積部25から指の位置座標集合を読み出してこの位置座標集合から上記図形の形状と方向を認識する。そして、この図形の形状と方向を表すデータをジェスチャコマンド変換テーブル部22に渡し、ジェスチャの内容を表すコマンドに変換させる処理を行う。   The drawing direction / shape recognition unit 353 reads the position coordinate set of the finger from the finger position information storage unit 25 when the gesture input determination unit 351 determines that the input operation of one figure is completed, The shape and direction of the figure are recognized from the coordinate set. Then, the data representing the shape and direction of the graphic is transferred to the gesture command conversion table unit 22 and converted into a command representing the content of the gesture.

表示画像制御ユニット40は、上記ジェスチャコマンド変換テーブル部22により変換されたジェスチャの内容を表すコマンドをもとに、表示画像データを更新する。そして、この更新された表示画像データを図示しないディスプレイに出力して表示させる処理を行う。   The display image control unit 40 updates the display image data based on the command representing the content of the gesture converted by the gesture command conversion table unit 22. The updated display image data is output to a display (not shown) and displayed.

なお、上記ジェスチャ認識ユニット30、表示画像制御ユニット40、リアルタイムイベント発行ユニット50及び指位置検出ユニット60の各処理機能は、記憶ユニット20内の図示しないプログラムメモリに格納されたアプリケーション・プログラムを中央処理ユニット(Central Processing Unit:CPU)に実行させることにより実現される。   Note that the processing functions of the gesture recognition unit 30, the display image control unit 40, the real-time event issuing unit 50, and the finger position detection unit 60 perform central processing of application programs stored in a program memory (not shown) in the storage unit 20. This is realized by causing a unit (Central Processing Unit: CPU) to execute.

[動作]
次に、以上のように構成されたテレビジョン受信機2による、ジェスチャを用いた入力情報の認識動作を説明する。
図3は、その全体の処理手順と処理内容を示すフローチャートである。なお、ここではテレビジョン受信機2のディスプレイに電子番組案内(Electronic Program Guide:EPG)情報を表示させ、このEPG情報に対しユーザ1がジェスチャにより番組の選択操作を行う場合を例にとって説明する。
[Operation]
Next, the operation of recognizing input information using gestures by the television receiver 2 configured as described above will be described.
FIG. 3 is a flowchart showing the overall processing procedure and processing contents. Here, a case will be described as an example in which electronic program guide (EPG) information is displayed on the display of the television receiver 2 and the user 1 performs a program selection operation by a gesture with respect to the EPG information.

(1)ジェスチャ入力初期設定処理
テレビジョン受信機2は、ジェスチャ入力初期設定部31の制御の下で、先ずステップS10によりユーザがジェスチャ入力の開始を要求する操作を行ったか否かを監視する。ジェスチャ入力の開始要求操作は、リモートコントローラ等のテレビジョン受信機2とインタラクション可能な入力デバイスにより行う場合と、ユーザのジェスチャにより行う場合とがあるが、ここでは後者を使用する場合について述べる。
(1) Gesture Input Initial Setting Process Under the control of the gesture input initial setting unit 31, the television receiver 2 first monitors whether or not the user has performed an operation for requesting the start of gesture input in step S10. The gesture input start requesting operation may be performed by an input device capable of interacting with the television receiver 2 such as a remote controller or by a user gesture. Here, the latter is used.

ユーザがカメラ4に向かって例えば手を振ったとする。そうするとジェスチャ入力初期設定部31は、カメラ4により得られた画像データから手の領域をカラーマッチング処理により抽出し、この抽出された手の領域の移動軌跡が手を左右に複数回繰り返し振っているパターンに該当する場合に、このときのジェスチャをジェスチャ入力の開始要求と認識する。   It is assumed that the user shakes his / her hand toward the camera 4. Then, the gesture input initial setting unit 31 extracts a hand region from the image data obtained by the camera 4 by color matching processing, and the movement locus of the extracted hand region repeatedly shakes the hand a plurality of times left and right. If the pattern corresponds, the gesture at this time is recognized as a gesture input start request.

上記ジェスチャ入力の開始要求を認識すると、ジェスチャ入力初期設定部31は続いて上記開始要求操作時の指の位置がジェスチャ入力を開始可能な位置(図22(a)の×印に示す画面中央位置の周辺領域)にあるか否か判定する。この判定の結果、指の位置がジェスチャ入力を開始可能な位置に存在しない場合には、指の位置の変更を促すガイダンスメッセージをテレビジョン受信機2のディスプレイに表示させる。そして、ユーザの指の位置がジェスチャ入力を開始可能な位置に移動すると、図22(b)に示すように上記画面中央位置を中心としかつ直径が第1のサイズに設定された終始点入力判定領域Eを生成する。   When the gesture input start request is recognized, the gesture input initial setting unit 31 subsequently determines that the position of the finger at the start request operation is a position where the gesture input can be started (the screen center position indicated by a cross in FIG. 22A). It is determined whether or not it is in the peripheral area. As a result of this determination, if the finger position does not exist at a position where gesture input can be started, a guidance message that prompts the user to change the finger position is displayed on the display of the television receiver 2. Then, when the position of the user's finger moves to a position where gesture input can be started, as shown in FIG. 22 (b), an end point input determination centered on the screen center position and having the diameter set to the first size is performed. Region E is generated.

(2)終始点入力判定領域の拡大縮小処理
上記終始点入力判定領域の設定が終了しジェスチャ入力モードになると、ステップS11によりリアルタイムイベント発行ユニット50が起動し、タイマの計時時間が予め設定された時間、例えば33msecになるごとにトリガ信号が発生される。すなわち、ジェスチァ入力モードになると33msec周期でトリガ信号が発生される。
(2) Enlargement / reduction processing of end point input determination area When the setting of the end point input determination area is completed and the gesture input mode is set, the real-time event issuing unit 50 is activated in step S11, and the timer time is preset. A trigger signal is generated every time, for example, 33 msec. That is, when the gesture input mode is entered, a trigger signal is generated with a period of 33 msec.

上記トリガ信号が発生されると、カメラ4によりユーザの撮像処理が行われ(ステップS12)、この撮像処理により得られた画像データが画像情報蓄積部21に記憶される(ステップS13)。そして、上記画像情報蓄積部21に新たな画像データが記憶されると、ステップS14により指位置検出ユニット60が起動し、この指位置検出ユニット60により上記画像データ中から発光マーカ6の輝点画像を検出する処理が行われる。そして、この検出された輝点画像の画像データ中の位置座標が、ユーザの指の位置を表す情報として指位置情報蓄積部25に記憶される(ステップS15)。以上の処理は上記33msec周期で繰り返し行われ、この結果上記指位置情報蓄積部25には指の位置座標の集合がユーザが描いた図形を示すデータとして記憶される。   When the trigger signal is generated, the camera 4 performs an imaging process for the user (step S12), and image data obtained by the imaging process is stored in the image information storage unit 21 (step S13). When new image data is stored in the image information storage unit 21, the finger position detection unit 60 is activated in step S14, and the finger position detection unit 60 causes the bright spot image of the light emitting marker 6 from the image data. A process of detecting is performed. And the position coordinate in the image data of this detected bright spot image is memorize | stored in the finger | toe position information storage part 25 as information showing the position of a user's finger | toe (step S15). The above processing is repeated at the 33 msec cycle. As a result, a set of finger position coordinates is stored in the finger position information accumulating unit 25 as data indicating a figure drawn by the user.

さて、上記指位置情報蓄積部25に新たな指位置座標が記憶されるごとに、ステップS16により終始点入力判定領域拡大縮小部32が起動され、この終始点入力判定領域拡大縮小部32の制御の下で以下のような処理が行われる。図4はその処理手順と処理内容を示すフローチャートである。   Now, every time a new finger position coordinate is stored in the finger position information accumulating unit 25, the start point input determination region enlargement / reduction unit 32 is activated in step S16, and the control of the start point input determination region enlargement / reduction unit 32 is performed. The following processing is performed under FIG. 4 is a flowchart showing the processing procedure and processing contents.

すなわち、先ずステップS30により上記検出された指の位置座標が上記終始点入力判定領域内に存在するか否かが判定される。この判定の結果、例えば指の位置座標が図8(a)のPs に示すように前記初期設定された終始点入力判定領域E0 内に存在し、かつ当該終始点入力判定領域が拡大されていない場合には、ステップS31において終始点入力判定領域のサイズが上記第1のサイズE0より大きい第2のサイズE1に拡大される。   That is, first, in step S30, it is determined whether or not the detected finger position coordinates are present in the end point input determination region. As a result of this determination, for example, the position coordinates of the finger are present in the initially set end point input determination area E0 as indicated by Ps in FIG. 8A, and the end point input determination area is not enlarged. In this case, in step S31, the size of the starting point input determination area is enlarged to the second size E1 larger than the first size E0.

続いて、上記指の位置座標が図8(b)に示すように終始点入力判定領域E1 の外部に出たとする。そうすると、この状態はステップS32により検出され、ステップS33において終始点入力判定領域のサイズが上記ジェスチャ入力初期設定部31により初期設定された第1のサイズE0 に縮小される。   Subsequently, it is assumed that the position coordinates of the finger are outside the end point input determination area E1 as shown in FIG. Then, this state is detected in step S32, and the size of the start point input determination area is reduced to the first size E0 initially set by the gesture input initial setting unit 31 in step S33.

さらに、図形の軌跡Lが描かれたのち、指の位置座標が例えば図8(c)に示すように終始点入力判定領域E0内に戻ると、この状態はステップS30により検出されてステップS31に移行する。そして、このステップS31により終始点入力判定領域のサイズが上記第2のサイズE1に拡大される。   Further, after the locus L of the figure is drawn, when the finger position coordinates return within the starting point input determination area E0, for example, as shown in FIG. 8C, this state is detected by step S30 and the process proceeds to step S31. Transition. In step S31, the size of the starting point input determination area is enlarged to the second size E1.

したがって、ユーザの指の位置が終始点入力判定領域E0内に戻った後に、震えなどにより当該領域E0の境界付近で位置ずれを起こしたとしても、このときの指の位置座標、つまり終点の位置を、終始点入力判定領域E1内に安定的に留めることが可能となる。このため、終始点入力判定領域の境界上でいわゆるチャタリングのような現象が発生しても、これにより後述する描画の終了判定(入力判定)において誤認識が発生しないようにすることができる。   Therefore, even if the position of the user's finger returns to the end point input determination area E0 and then a position shift occurs near the boundary of the area E0 due to shaking or the like, the position coordinates of the finger at this time, that is, the position of the end point Can be stably kept within the starting point input determination area E1. For this reason, even if a phenomenon such as so-called chattering occurs on the boundary of the start point input determination region, it is possible to prevent erroneous recognition from occurring in the drawing end determination (input determination) described later.

(3)入力判定境界線の作成・削除処理
前記指位置情報蓄積部25に新たな指位置座標が記憶されるごとに、ステップS17では入力判定境界線の作成・削除部33が起動され、この入力判定境界線の作成・削除部33の制御の下で以下のような処理が行われる。図5はその処理手順と処理内容を示すフローチャートである。
(3) Input Determination Boundary Line Creation / Deletion Processing Each time a new finger position coordinate is stored in the finger position information storage unit 25, the input determination boundary line creation / deletion unit 33 is activated in step S17. The following processing is performed under the control of the input determination boundary line creation / deletion unit 33. FIG. 5 is a flowchart showing the processing procedure and processing contents.

すなわち、先ずステップS40において、上記検出された指の位置座標が水平境界線作成領域内に存在するか否かが判定される。この判定の結果、指の位置座標が例えば図9に示す水平境界線作成領域H1 ,H2 内のいずれかに存在する場合には、ステップS41により画像データの中心点を通る入力判定水平境界線H0 が生成される。次にステップS42において、上記検出された指の位置座標が垂直境界線作成領域内に存在するか否かが判定される。そして、この判定の結果、指の位置座標が例えば図10に示すように垂直境界線作成領域V1 ,V2 内のいずれかに存在すると、ステップS43において画像データの中心点を通る入力判定垂直境界線V0 が生成される。   That is, first, in step S40, it is determined whether or not the detected finger position coordinates are present in the horizontal boundary line creation region. As a result of this determination, if the finger position coordinates exist in one of the horizontal boundary line creation areas H1 and H2 shown in FIG. 9, for example, the input determination horizontal boundary line H0 passing through the center point of the image data in step S41. Is generated. Next, in step S42, it is determined whether or not the detected position coordinate of the finger exists in the vertical boundary line creation region. As a result of this determination, if the finger position coordinates exist in one of the vertical boundary line creation areas V1 and V2 as shown in FIG. 10, for example, the input determination vertical boundary line that passes through the center point of the image data in step S43. V0 is generated.

図11は、上記入力判定水平境界線H0 と入力判定垂直境界線V0 の両方が生成された場合の例を示している。これらの入力判定水平境界線H0 及び入力判定垂直境界線V0 は、後述するジェスチャ入力処理において指の軌跡の通過を判定するために用いられる。
なお、上記生成された入力判定水平境界線H0 及び入力判定垂直線V0 は、上記指の位置座標が境界線作成領域外に出ると、つまり終始点入力判定領域E0 内に入ると、消去される。
FIG. 11 shows an example in which both the input determination horizontal boundary line H0 and the input determination vertical boundary line V0 are generated. These input determination horizontal boundary line H0 and input determination vertical boundary line V0 are used for determining the passage of the finger trajectory in a gesture input process described later.
The generated input determination horizontal boundary line H0 and input determination vertical line V0 are deleted when the position coordinates of the finger go outside the boundary line creation region, that is, when the input point determination region E0 is entered. .

(4)終始点入力判定領域の拡張及び入力判定境界線の移動処理
前記指位置情報蓄積部25に新たな指位置座標が記憶されるごとに、ステップS18では終始点入力判定領域・境界線拡張部34が起動され、この終始点入力判定領域・境界線拡張部34の制御の下で以下の処理が行われる。図6はその処理手順と処理内容を示すフローチャートである。
(4) Expansion of end point input determination area and input determination boundary line movement process Every time a new finger position coordinate is stored in the finger position information storage unit 25, in step S18, the start point input determination area / boundary line extension is performed. The unit 34 is activated, and the following processing is performed under the control of the starting point input determination region / boundary line extension unit 34. FIG. 6 is a flowchart showing the processing procedure and processing contents.

すなわち、ステップS50において、上記検出された指の位置座標が予め設定された一定時間以上連続して停止しているか否かと、当該検出された指の位置座標が終始点入力判定領域E0 に含まれているか否かが判定される。そして、上記検出された指の位置座標が一定時間(例えば2sec)以上連続して停止し、かつ終始点入力判定領域E0 に含まれていると判定されると、ユーザ1がジェスチャにより描いた図形の終点が終始点入力判定領域E0 内に到達していないと判断され、ステップS51に移行して終始点入力判定領域を徐々に拡張させて上記停止している指の位置座標に近づける処理か、又は入力判定境界線を徐々に移動させて上記停止している指の位置座標に近づける処理が行われる。   That is, in step S50, whether or not the detected finger position coordinates are continuously stopped for a predetermined time or more and the detected finger position coordinates are included in the start point input determination area E0. It is determined whether or not. If it is determined that the detected finger position coordinates are continuously stopped for a certain time (for example, 2 seconds) and are included in the starting point input determination area E0, the figure drawn by the user 1 by the gesture Is determined that the end point has not reached the end point input determination area E0, and the process proceeds to step S51 where the end point input determination area is gradually expanded to approach the position coordinates of the stopped finger, Alternatively, the input determination boundary line is gradually moved so as to approach the stopped finger position coordinates.

例えば、終始点入力判定領域を拡張処理する場合には、図12のE0 〜En に示すように、33msec周期で一定サイズずつ直径を増加させる処理が行われる。このため、指が停止した状態がしばらく続くと、当該指の停止位置座標は終始点入力判定領域内に入り、これにより1つの図形の入力が終了したと判定することが可能となる。   For example, when the end point input determination area is expanded, as shown by E0 to En in FIG. 12, a process of increasing the diameter by a certain size at a period of 33 msec is performed. For this reason, when the state where the finger is stopped continues for a while, the stop position coordinate of the finger enters the end point input determination region, and thus it is possible to determine that the input of one figure is completed.

また、入力判定境界線を拡張処理する場合には、入力判定水平境界線H0 及び入力判定垂直境界線V0 が図13のH0 〜Hm ,V0 〜Vm に示すように、33msec周期で一定量ずつ上記指の停止位置座標に近づけられる。この結果、上記指の軌跡を入力判定水平境界線H0 及び入力判定垂直境界線V0 により検出できる確率が高くなる。   Further, when the input determination boundary line is expanded, the input determination horizontal boundary line H0 and the input determination vertical boundary line V0 are shown in increments of 33 msec as shown by H0 to Hm and V0 to Vm in FIG. It can be brought close to the finger stop position coordinates. As a result, the probability that the locus of the finger can be detected by the input determination horizontal boundary line H0 and the input determination vertical boundary line V0 is increased.

なお、上記停止中の指の位置が再び動き始めた場合には、その直前における終始点入力判定領域のサイズEn と、入力判定水平境界線Hm 及び入力判定垂直境界線Vm の位置が保持される。そして、また指の動きが一定時間以上停止した場合には、上記終始点入力判定領域のサイズが上記En からさらに拡張され、また入力判定水平境界線Hm 及び入力判定垂直境界線Vm の位置が当該Hm ,Vm から上記指の停止位置座標にさらに近づけられる。   When the position of the stopped finger starts to move again, the size En of the start point input determination area immediately before that and the positions of the input determination horizontal boundary line Hm and the input determination vertical boundary line Vm are retained. . If the movement of the finger stops for a certain time or more, the size of the start point input determination area is further expanded from the above En, and the positions of the input determination horizontal boundary line Hm and the input determination vertical boundary line Vm From Hm and Vm, the coordinates of the stop position of the finger can be made closer.

(5)ジェスチャ入力処理
ステップS19ではジェスチャ認識部35が起動され、このジェスチャ認識部35の制御の下で以下のようにジェスチャの入力判定処理と認識処理が行われる。図7はその処理手順と処理内容を示すフローチャートである。
すなわち、先ずステップS60において、指の停止位置座標が、初期設定された終始点入力判定領域E1 或いはステップS18により拡張処理された終始点入力判定領域に入ったか否かが判定される。次にステップS61において、指位置情報蓄積部25に記憶されている指の軌跡が入力判定水平境界線H0 又は入力判定垂直境界線V0 を2回通過したか否かが判定される。さらにステップS62において、指位置情報蓄積部25に記憶されている指の軌跡が入力判定水平境界線H0 又は入力判定垂直境界線V0 を1回通過し、かつ指の停止位置が上記拡張処理された終始点入力判定領域に入ったか否かが判定される。
(5) Gesture Input Processing In step S19, the gesture recognition unit 35 is activated, and under the control of the gesture recognition unit 35, gesture input determination processing and recognition processing are performed as follows. FIG. 7 is a flowchart showing the processing procedure and processing contents.
That is, first, at step S60, it is determined whether or not the finger stop position coordinates have entered the initially set end point input determination region E1 or the end point input determination region expanded at step S18. Next, in step S61, it is determined whether or not the finger trajectory stored in the finger position information storage unit 25 has passed the input determination horizontal boundary line H0 or the input determination vertical boundary line V0 twice. Further, in step S62, the finger trajectory stored in the finger position information accumulating unit 25 passes the input determination horizontal boundary line H0 or the input determination vertical boundary line V0 once, and the stop position of the finger is expanded. It is determined whether or not the end point input determination area has been entered.

そして、上記ステップS60,S61,S62のいずれかにおいて判定条件が満たされると、ステップS63に移行して描画方向・形状認識部353によりジェスチャ認識処理が行われる。この認識処理は、回指位置情報蓄積部25に記憶された指位置座標の集合を読み出し、この指位置座標の集合により表される指の軌跡をもとに、ユーザが入力判定までにジェスチャにより描いた図形の方向と形状を認識することにより行われる。   When the determination condition is satisfied in any one of the above steps S60, S61, and S62, the process proceeds to step S63, and the drawing direction / shape recognition unit 353 performs a gesture recognition process. In this recognition process, a set of finger position coordinates stored in the round finger position information storage unit 25 is read, and based on the finger trajectory represented by the set of finger position coordinates, the user performs a gesture until an input is determined. This is done by recognizing the direction and shape of the drawn figure.

例えば、図14(a),(b)に示すように指の軌跡Lが入力判定垂直境界線V0 をC1及びC2の2箇所で横切っている場合には、ステップS61からステップS63に移行して、このときの描画図形の方向と形状が認識される。同様に、図15(a),(b)に示すように指の軌跡Lが入力判定水平境界線V0 をC1及びC2の2箇所で横切っている場合にも、ステップS61からステップS63に移行して、このときの描画図形の方向と形状が認識される。   For example, as shown in FIGS. 14A and 14B, when the finger trajectory L crosses the input determination vertical boundary line V0 at two locations C1 and C2, the process proceeds from step S61 to step S63. The direction and shape of the drawing figure at this time are recognized. Similarly, as shown in FIGS. 15A and 15B, when the finger trajectory L crosses the input determination horizontal boundary line V0 at two points C1 and C2, the process proceeds from step S61 to step S63. Thus, the direction and shape of the drawing figure at this time are recognized.

また、図16に示すように指の軌跡Lが入力判定水平境界線V0 を1箇所しか横切っていないものの、当該指の停止位置座標が拡張処理後の終始点入力判定領域En 内に入っている場合には、ステップS62からステップS63に移行して、このときの描画図形の方向と形状が認識される。   Further, as shown in FIG. 16, although the finger trajectory L crosses only one place on the input determination horizontal boundary line V0, the stop position coordinate of the finger is in the end point input determination area En after the expansion process. In this case, the process proceeds from step S62 to step S63, and the direction and shape of the drawing figure at this time are recognized.

上記認識された図形の方向及び形状はジェスチャコマンド変換テーブル部22により入力コマンドに変換され、この変換された入力コマンドは表示画像制御ユニット40に送られる。   The recognized direction and shape of the figure are converted into input commands by the gesture command conversion table unit 22, and the converted input commands are sent to the display image control unit 40.

また、上記ジェスチャ認識処理が終了すると、ステップS64において終始点入力判定領域補正部352が起動され、この終始点入力判定領域補正部352の制御の下で、終始点入力判定領域の位置を補正する処理が行われる。この補正処理は、ユーザ1ができるだけ小さな描画範囲で連続的にジェスチャ入力を行えるようにするためのもので、例えば以下のように行われる。   When the gesture recognition process is completed, the start point input determination region correction unit 352 is activated in step S64, and the position of the start point input determination region is corrected under the control of the start point input determination region correction unit 352. Processing is performed. This correction process is performed so that the user 1 can continuously perform gesture input within a drawing range as small as possible, and is performed as follows, for example.

すなわち、上記ジェスチャ認識処理においてステップS61の判定条件を満たした場合には、例えば図17(a),(b)に示すように終始点入力判定領域E0 が指の停止位置座標を含む領域EM に移動される。これに対し、上記ジェスチャ認識処理においてステップS60及びステップS62の判定条件を満たした場合には、例えば図18(a),(b)のEk に示すように、終始点入力判定領域EM の位置が初期設定された終始点入力判定領域E0 に近づくように補正される。ただし、このとき移動後の終始点入力判定領域Ek には指の停止位置座標が含まれるようにする。なお、指の停止位置座標が、前記ジェスチャ入力初期設定処理(ステップS10)により初期設定された終始点入力判定領域E0 内に戻っている場合には、当該終始点入力判定領域E0の位置は変更しない。
このようにすることで、ユーザが描く図形の移動範囲をコンパクトな範囲内に抑制することが可能となる。
That is, when the determination condition of step S61 is satisfied in the gesture recognition process, the start point input determination area E0 is changed to an area EM including the finger stop position coordinates as shown in FIGS. 17 (a) and 17 (b), for example. Moved. On the other hand, when the determination conditions of step S60 and step S62 are satisfied in the gesture recognition process, the position of the starting point input determination area EM is, for example, as shown by Ek in FIGS. 18 (a) and 18 (b). Correction is made so as to approach the initially set end point input determination area E0. However, at this time, the stop point coordinates of the finger are included in the starting point input determination area Ek after the movement. If the finger stop position coordinates have returned to the end point input determination area E0 initially set by the gesture input initial setting process (step S10), the position of the end point input determination area E0 is changed. do not do.
By doing in this way, it becomes possible to suppress the movement range of the figure drawn by the user within a compact range.

(6)表示画像の更新処理
ステップS20では表示画像制御ユニット40が起動され、この表示画像制御ユニット40の制御の下で表示画像の更新処理が以下のように行われる。
すなわち、ジェスチャコマンド変換テーブル部22から出力された入力コマンドに従い、表示中のEPG表示画像が更新される。例えば、図19に示すようにEPG表示画像G0 が表示されている状態で、同図(a)に示すようにジェスチャにより描画方向が“上”でかつ形状が“円”からなる図形が入力された場合には、EPG表示画像上のカーソル位置(網掛け表示)がG1 に示すように上方へ1ステップ分シフト移動する。同様に、同図(b),(c),(d)に示すようにジェスチャによりそれぞれ“右”、“左”、“下”方向に“円”の図形が入力された場合には、EPG表示画像上のカーソル位置(網掛け表示)がG4 ,G3 ,G2に示すようにそれぞれ“右”、“左”、“下”方向に1ステップ分シフト移動する。
(6) Display Image Update Processing In step S20, the display image control unit 40 is activated, and display image update processing is performed as follows under the control of the display image control unit 40.
That is, the displayed EPG display image is updated according to the input command output from the gesture command conversion table unit 22. For example, in the state where the EPG display image G0 is displayed as shown in FIG. 19, as shown in FIG. 19A, a figure having a drawing direction “up” and a shape “circle” is input by a gesture. In this case, the cursor position (shaded display) on the EPG display image is shifted upward by one step as indicated by G1. Similarly, when a “circle” figure is input in the “right”, “left”, and “down” directions by the gestures as shown in FIGS. The cursor position (shaded display) on the display image is shifted by one step in the "right", "left", and "down" directions as indicated by G4, G3, and G2.

また、図20に示すようにEPG表示画像G0 が表示されている状態で、同図(a)に示すようにジェスチャにより描画方向が“上”でかつ形状が“線”からなる図形が入力された場合には、EPG表示画像がG5 に示すように“1日前”のものに更新される。同様に、ジェスチャにより描画方向が“下”でかつ形状が“線”からなる図形が入力された場合には、EPG表示画像がG6 に示すように“1日後”のものに更新される。   In addition, in the state where the EPG display image G0 is displayed as shown in FIG. 20, as shown in FIG. 20A, a figure having a drawing direction “up” and a shape “line” is input by a gesture. In such a case, the EPG display image is updated to "one day ago" as indicated by G5. Similarly, when a graphic having a drawing direction “down” and a shape “line” is input by a gesture, the EPG display image is updated to “one day later” as indicated by G6.

さらに、図21に示すようにEPG表示画像G0 が表示されている状態で、同図(a)に示すようにジェスチャにより描画方向が“上”でかつ形状が“三角形”からなる図形が入力された場合には、EPG表示画像がG7 に示すように“1週間前”のものに更新される。同様に、ジェスチャにより描画方向が“下”でかつ形状が“三角形”からなる図形が入力された場合には、EPG表示画像がG8 に示すように“1週間後”のものに更新される。   Further, in the state where the EPG display image G0 is displayed as shown in FIG. 21, a figure having a drawing direction of “up” and a shape of “triangle” is inputted by a gesture as shown in FIG. In such a case, the EPG display image is updated to "one week ago" as indicated by G7. Similarly, when a figure having a drawing direction of “down” and a shape of “triangle” is input by a gesture, the EPG display image is updated to “one week later” as indicated by G8.

以上詳述したようにこの実施形態では、カメラ4により撮像されたユーザの画像データを取り込み、この取り込まれた画像データから先ず指の初期位置を検出してこの初期位置を含む第1のサイズE0 の終始点入力判定領域を上記画像データ中に設定する。そして、上記画像データから検出される指の位置座標が終始点入力判定領域外に出たのち当該終始点入力判定領域内に戻るまでの指の位置座標の軌跡を検出している過程で、終始点入力判定領域拡大縮小部32の制御の下で、検出された指の位置座標が上記終始点入力判定領域内に存在するか否かを判定し、存在すると判定されているときには上記終始点入力判定領域のサイズを上記第1のサイズE0 より大きい第2のサイズE1 に拡大し、存在しないと判定されているときには上記終始点入力判定領域のサイズを上記第1のサイズE0 に縮小するようにしている。   As described above in detail, in this embodiment, the user's image data captured by the camera 4 is captured, the initial position of the finger is first detected from the captured image data, and the first size E0 including this initial position is detected. Is set in the image data. In the process of detecting the trajectory of the finger position coordinate from when the finger position coordinate detected from the image data goes out of the start point input determination area to when it returns to the end point input determination area, Under the control of the point input determination area enlargement / reduction unit 32, it is determined whether or not the detected finger position coordinates exist within the start point input determination area. The size of the determination area is enlarged to a second size E1 larger than the first size E0, and when it is determined that it does not exist, the size of the start point input determination area is reduced to the first size E0. ing.

したがって、指の位置座標が終始点入力判定領域内に戻るとこの終始点入力判定領域のサイズが第2のサイズE1 に拡大される。つまり、第1のサイズE0 の境界線上に停止した指の位置は第2のサイズE1 の内部に存在することになる。このため、上記指の位置座標の終点がユーザの指の震えや揺れ等により多少位置ずれを起こしたとしても、終点の位置を終始点入力判定領域内に安定的に留めることが可能となり、これによりいわゆるチャタリングのような現象が発生しても、誤認識の発生を減らすことができる。   Accordingly, when the position coordinates of the finger return to the end point input determination area, the size of the end point input determination area is enlarged to the second size E1. In other words, the position of the finger stopped on the boundary line of the first size E0 exists inside the second size E1. For this reason, even if the end point of the finger position coordinate is slightly misaligned due to the shaking or shaking of the user's finger, it is possible to stably keep the end point position within the start point input determination area. Therefore, even if a phenomenon such as so-called chattering occurs, the occurrence of erroneous recognition can be reduced.

またこの実施形態では、上記指の位置座標が上記終始点入力判定領域外に存在するときに、入力判定境界線作成削除部33の制御の下で、当該指の位置座標の軌跡の通過を検出するための入力判定水平境界線H0 及び入力判定垂直境界線V0 を画像データ中に設定する。そして、ジェスチャ入力を判定する際に、
(1) 上記指の位置座標の軌跡が、上記設定された入力判定水平境界線H0 及び入力判定垂直境界線V0 を通過せずに、上記指の位置座標が上記終始点入力判定領域内に戻ったか否かを判定する処理。
(2) 上記指の位置座標の軌跡が、上記入力判定水平境界線H0 又は入力判定垂直境界線V0 を2回通過したか否かを判定する処理。
(3) 上記指の位置座標の軌跡が、上記入力判定水平境界線H0 又は入力判定垂直境界線V0 を1回通過し、かつ指の位置座標が終始点入力判定領域内に戻ったか否かを判定する処理。
を行い、これらの判定処理のいずれかでその判定結果が「OK」となった場合に、当該指の位置座標の軌跡をジェスチャにより描かれた図形として認識するようにしている。
In this embodiment, when the position coordinates of the finger are outside the start point input determination area, the passage of the locus of the position coordinates of the finger is detected under the control of the input determination boundary line creation / deletion unit 33. An input determination horizontal boundary line H0 and an input determination vertical boundary line V0 are set in the image data. And when judging gesture input,
(1) The trajectory of the finger position coordinates does not pass through the set input determination horizontal boundary line H0 and the input determination vertical boundary line V0, and the finger position coordinates return to the end point input determination area. Processing to determine whether or not.
(2) A process for determining whether or not the locus of the position coordinates of the finger has passed the input determination horizontal boundary line H0 or the input determination vertical boundary line V0 twice.
(3) Whether or not the trajectory of the finger position coordinate has passed the input determination horizontal boundary line H0 or the input determination vertical boundary line V0 once, and the finger position coordinate has returned to the start point input determination area. Processing to determine.
When the determination result is “OK” in any of these determination processes, the locus of the position coordinates of the finger is recognized as a figure drawn by the gesture.

したがって、ユーザが円を描いたつもりでも、その指の位置座標の軌跡が終始点入力判定領域を通過しなかった場合や、指の位置座標が終始点入力判定領域に届かずに手前で止まってしまった場合でも、このとき描かれた図形を認識対象のジェスチャとして認識することが可能となる。   Therefore, even if the user intends to draw a circle, if the trajectory of the position coordinate of the finger does not pass the end point input determination area, or the finger position coordinate does not reach the end point input determination area and stops in front. Even if it is closed, the figure drawn at this time can be recognized as a gesture to be recognized.

さらにこの実施形態では、終始点入力判定領域位置補正部352の制御の下で、指の位置座標の軌跡が上記(2) の判定処理により定義される判定条件を満たした場合に、終始点入力判定領域の位置を上記指の位置座標の終点を含む位置に移動させる。また、上記指の位置座標の軌跡が上記(1) 又は(3) の判定処理により定義される判定条件を満たした場合には、上記終始点入力判定領域の位置を上記指の位置座標の初期位置に近い位置に戻すようにしている。   Further, in this embodiment, when the trajectory of the finger position coordinates satisfies the determination condition defined by the determination process (2) under the control of the start point input determination region position correction unit 352, the end point input is performed. The position of the determination area is moved to a position including the end point of the position coordinates of the finger. In addition, when the locus of the finger position coordinates satisfies the determination condition defined by the determination process of (1) or (3), the position of the start point input determination area is set to the initial position coordinates of the finger. The position is returned to a position close to the position.

したがって、ユーザが1つの図形を描くごとに、終始点入力判定領域の位置が当該図形の終点を含む位置に移動する。このため、複数の図形を連続的に描く場合に次の図形をより確実に認識することが可能となる。また、複数の図形を連続的に描いている過程で、図形の終点位置が終始点入力判定領域の初期位置に戻った場合には、終始点入力判定領域の位置が上記初期位置に対し近い位置に戻るように修正される。このため、ユーザが描く図形の移動範囲をコンパクトな範囲に規制することが可能となる。   Therefore, every time the user draws one figure, the position of the start point input determination area moves to a position including the end point of the figure. For this reason, when drawing a plurality of figures continuously, it becomes possible to recognize the next figure more reliably. In the process of drawing a plurality of figures continuously, if the end point position of the figure returns to the initial position of the start point input determination area, the position of the start point input determination area is close to the initial position. Modified to return to For this reason, it is possible to restrict the movement range of the figure drawn by the user to a compact range.

さらにこの実施形態では、終始点入力判定領域・境界線拡張部24の制御の下で、指の位置座標が予め設定した時間(例えば2sec)以上連続して停止したか否かを判定する。そして、上記指の位置座標が上記設定時間以上停止し、かつその停止位置が上記終始点入力判定領域外のとき、上記終始点入力判定領域及び上記入力判定境界線を上記停止中の指の位置座標に徐々に近づけるようにしている。   Furthermore, in this embodiment, it is determined whether or not the finger position coordinates are continuously stopped for a preset time (for example, 2 seconds) under the control of the start point input determination region / boundary line extension unit 24. When the finger position coordinate is stopped for the set time or longer and the stop position is outside the start point input determination region, the stop point input position and the input determination boundary line are set to the position of the stopped finger. The coordinates are gradually approached.

したがって、指の位置座標の終点が終始点入力判定領域に届かずに一定時間以上停止した場合には、終始点入力判定領域のサイズが上記停止中の指の位置座標に近づくように徐々に拡張される。また、入力判定境界線の位置が上記停止中の指の位置座標に近づくように徐々に移動する。このため、ユーザが描いた図形の軌跡が終始点入力判定領域を通過しなかったり、或いは図形の終点が終始点入力判定領域に届かずに手前で止まってしまった場合でも、このときの描画図形をジェスチャ入力として認識することが可能となる。   Therefore, when the end point of the finger position coordinate does not reach the start point input determination area and stops for a certain period of time, the size of the start point input determination area gradually expands to approach the stop finger position coordinate. Is done. Further, the position of the input determination boundary line gradually moves so as to approach the position coordinates of the stopped finger. For this reason, even if the trace of the figure drawn by the user does not pass through the end point input determination area, or the end point of the figure does not reach the end point input determination area, it stops at this point. Can be recognized as a gesture input.

なお、この発明は上記実施形態に限定されるものではない。例えば、前記実施形態では、終始点入力判定領域外で指の位置座標が一定時間(例えば2sec)以上停止した場合に、終始点入力判定領域を徐々に上記指の位置座標の停止位置に近づけるようにした。しかし、終始点入力判定領域を近づける前に、指の位置座標の停止位置と終始点入力判定領域の中心位置との間の距離を計算し、この離間距離が予め定めたしきい値以内の場合に近づける処理を行い、離間距離がしきい値を超えている場合にはユーザがジェスチャにより描いた図形が誤っていると判断して、終始点入力判定領域を指の位置座標の停止位置に近づけないようにしてもよい。   The present invention is not limited to the above embodiment. For example, in the embodiment, when the finger position coordinates are stopped for a certain time (for example, 2 seconds) or more outside the start point input determination area, the end point input determination area is gradually brought closer to the stop position of the finger position coordinates. I made it. However, if the distance between the stop position of the finger position coordinates and the center position of the start point input determination area is calculated before the start point input determination area is brought closer, this separation distance is within a predetermined threshold value. If the separation distance exceeds the threshold value, it is determined that the figure drawn by the user is incorrect, and the start point input determination area is brought closer to the stop position of the finger position coordinates. It may not be possible.

また前記実施形態では、指の位置座標が終始点入力判定領域外へ出て再度終始点入力判定領域内に戻った場合に、終始点入力判定領域のサイズを大きなサイズに拡大するようにした。しかし、それに限らず、終始点入力判定領域内に戻った指の位置座標の位置に対し終始点入力判定領域の中心位置を一致又は近接させるように当該終始点入力判定領域を移動させるようにしてもよい。   In the above embodiment, when the position coordinates of the finger go out of the start point input determination area and return to the end point input determination area again, the size of the start point input determination area is increased to a large size. However, the present invention is not limited thereto, and the start point input determination area is moved so that the center position of the start point input determination area matches or approaches the position of the position coordinate of the finger returned to the start point input determination area. Also good.

さらに前記実施形態では、テレビジョン受信機2に表示されるEPG情報をジェスチャにより操作する場合を例にとって説明したが、パーソナル・コンピュータの表示画面やビデオプロジェクタによる表示画面をジェスチャにより操作するようにしてもよい。
その他、ジェスチャ認識装置の種類や構成、処理手順と処理内容、図形の形状等についても、この発明の要旨を逸脱しない範囲で種々変形して実施できる。
Furthermore, in the above-described embodiment, the case where the EPG information displayed on the television receiver 2 is operated by the gesture has been described as an example. However, the display screen of the personal computer or the display screen by the video projector is operated by the gesture. Also good.
In addition, the type and configuration of the gesture recognition device, the processing procedure and processing content, the shape of the figure, and the like can be variously modified and implemented without departing from the gist of the present invention.

要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。   In short, the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.

1…ユーザ、2…テレビジョン受信機、3…通信回線、4…カメラ、6…発光マーカ、20…記憶ユニット、21…画像信号蓄積部、22…ジェスチャコマンド変換テーブル部、23…表示画像データ蓄積部、24…図形パターン記憶部、25…指位置情報蓄積部、30…ジェスチャ認識ユニット、31…ジェスチャ入力初期設定部、32…終始点入力判定領域拡大縮小部、33…入力判定境界線作成削除部、34…終始点入力判定領域・境界線拡張部、35…ジェスチャ認識部、351…ジェスチャ入力判定部、352…終始点入力判定領域位置補正部、353…描画方向・形状認識部、40…表示画像制御ユニット、41…画像撮像部、42…画像送信部、50…リアルタイムイベント発行ユニット、60…指位置検出ユニット。   DESCRIPTION OF SYMBOLS 1 ... User, 2 ... Television receiver, 3 ... Communication line, 4 ... Camera, 6 ... Light emission marker, 20 ... Memory | storage unit, 21 ... Image signal storage part, 22 ... Gesture command conversion table part, 23 ... Display image data Accumulation unit, 24 ... Graphic pattern storage unit, 25 ... Finger position information accumulation unit, 30 ... Gesture recognition unit, 31 ... Gesture input initial setting unit, 32 ... End point input determination area enlargement / reduction part, 33 ... Input determination boundary line creation Deletion unit 34... Start point input determination region / boundary line extension unit 35... Gesture recognition unit 351... Gesture input determination unit 352... Start point input determination region position correction unit 353. Display image control unit 41 Image capturing unit 42 Image transmission unit 50 Real-time event issuing unit 60 Finger position detection unit

Claims (4)

ジェスチャにより空間に図形を描く動きを撮像してその画像データを出力する撮像装置と、前記撮像装置から出力された画像データをもとに前記ジェスチャにより描かれた図形を認識するジェスチャ認識装置とを具備するシステムで使用される前記ジェスチャ認識装置であって、
前記撮像装置から出力された画像データを取り込む手段と、
前記取り込まれた画像データから描画点の初期位置を検出し、この検出された描画点の初期位置を含む第1のサイズの終始点入力判定領域を前記画像データ中に設定する手段と、
前記終始点入力判定領域が設定された状態で、前記画像データから検出される描画点が前記終始点入力判定領域外に出たのち当該終始点入力判定領域内に戻るまでの描画点の軌跡を検出し、この検出された軌跡をジェスチャにより描かれた図形として認識するジェスチャ認識手段と、
前記描画点の軌跡の検出期間中に、当該描画点が前記終始点入力判定領域内に存在するか否かを判定し、存在すると判定されているときには前記終始点入力判定領域のサイズを前記第1のサイズより大きい第2のサイズに拡大し、存在しないと判定されているときには前記終始点入力判定領域のサイズを前記第1のサイズに縮小する拡大縮小制御手段と
を具備することを特徴とするジェスチャ認識装置。
An imaging device that captures a motion of drawing a figure in a space by a gesture and outputs the image data; and a gesture recognition device that recognizes the graphic drawn by the gesture based on the image data output from the imaging device. The gesture recognition device used in a system comprising:
Means for capturing image data output from the imaging device;
Means for detecting an initial position of a drawing point from the captured image data, and setting an end point input determination region of a first size including the detected initial position of the drawing point in the image data;
In a state where the end point input determination area is set, a drawing point trajectory from when the drawing point detected from the image data comes out of the end point input determination area to the inside of the end point input determination area Gesture recognition means for detecting and recognizing the detected locus as a figure drawn by the gesture;
During the detection period of the locus of the drawing point, it is determined whether or not the drawing point exists in the start point input determination region. If it is determined that the drawing point exists, the size of the start point input determination region is set to the first point. An enlargement / reduction control means for enlarging to a second size larger than 1 and reducing the size of the start point input determination area to the first size when it is determined that it does not exist. Gesture recognition device.
少なくとも前記描画点が前記終始点入力判定領域外に存在するときに、前記描画点の軌跡の通過を検出するための入力判定境界線を前記画像データ中に設定する手段を、さらに具備し、
前記ジェスチャ認識手段は、
前記描画点の軌跡が前記設定された入力判定境界線を通過せずかつ前記描画点が前記終始点入力判定領域内に戻ったか否かを判定する第1の判定手段と、
前記描画点の軌跡が前記入力判定境界線を複数回通過したか否かを判定する第2の判定手段と、
前記描画点の軌跡が前記入力判定境界線を1回通過しかつ描画点が前記終始点入力判定領域内に戻ったか否かを判定する第3の判定手段と、
前記描画点の軌跡が第1、第2及び第3の判定手段のいずれかで定義される判定条件を満たした場合に、当該軌跡をジェスチャにより描かれた図形として認識する手段と
を備えることを特徴とする請求項1記載のジェスチャ認識装置。
Means for setting, in the image data, an input determination boundary line for detecting passage of a locus of the drawing point when at least the drawing point exists outside the start point input determination region;
The gesture recognition means includes:
First determination means for determining whether a locus of the drawing point does not pass through the set input determination boundary line and whether the drawing point has returned to the start point input determination region;
Second determination means for determining whether or not the locus of the drawing point has passed the input determination boundary line a plurality of times;
Third determination means for determining whether the locus of the drawing point has passed the input determination boundary line once and whether the drawing point has returned to the start point input determination region;
Means for recognizing the locus as a figure drawn by a gesture when the locus of the drawing point satisfies a determination condition defined by any of the first, second, and third determination means. The gesture recognition device according to claim 1, wherein:
前記終始点入力判定領域の位置を補正する補正手段を、さらに具備し、
前記補正手段は、
前記描画点の軌跡が前記第2の判定手段により定義される判定条件を満たした場合に、前記終始点入力判定領域の位置を前記描画点の終点を含む位置に移動させる手段と、
前記描画点の軌跡が前記第1又は第3の判定手段により定義される判定条件を満たした場合に、前記終始点入力判定領域の位置を前記描画点の初期位置に近づくように移動させる手段と
を備えることを特徴とする請求項2記載のジェスチャ認識装置。
A correction means for correcting the position of the start point input determination area;
The correction means includes
Means for moving the position of the start point input determination region to a position including the end point of the drawing point when the locus of the drawing point satisfies the determination condition defined by the second determination unit;
Means for moving the position of the start point input determination area so as to approach the initial position of the drawing point when the locus of the drawing point satisfies the determination condition defined by the first or third determination means; The gesture recognition apparatus according to claim 2, further comprising:
前記終始点入力判定領域及び前記入力判定境界線を拡張する拡張手段を、さらに具備し、
前記拡張手段は、
前記描画点が予め設定した時間以上連続して停止したか否かを判定する手段と、
前記描画点の停止が検出され、かつその停止位置が前記終始点入力判定領域外のとき、前記終始点入力判定領域及び前記入力判定境界線の少なくとも一方を、前記停止中の描画点に近づける手段と
を備えることを特徴とする請求項2記載のジェスチャ認識装置。
An expansion means for extending the start point input determination area and the input determination boundary line;
The expansion means includes
Means for determining whether or not the drawing point has been continuously stopped for a preset time;
Means for bringing at least one of the start point input determination area and the input determination boundary line closer to the stopped drawing point when the stop of the drawing point is detected and the stop position is outside the start point input determination area The gesture recognition device according to claim 2, further comprising:
JP2010247264A 2010-11-04 2010-11-04 Gesture recognition device Expired - Fee Related JP5358548B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010247264A JP5358548B2 (en) 2010-11-04 2010-11-04 Gesture recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010247264A JP5358548B2 (en) 2010-11-04 2010-11-04 Gesture recognition device

Publications (2)

Publication Number Publication Date
JP2012098987A JP2012098987A (en) 2012-05-24
JP5358548B2 true JP5358548B2 (en) 2013-12-04

Family

ID=46390809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010247264A Expired - Fee Related JP5358548B2 (en) 2010-11-04 2010-11-04 Gesture recognition device

Country Status (1)

Country Link
JP (1) JP5358548B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9924907B2 (en) * 2011-09-30 2018-03-27 Google Technology Holdings LLC Method and system for identifying location of a touched body part
CN103164027A (en) * 2013-04-09 2013-06-19 青岛旲天下智能科技有限公司 Human-computer interaction device adopting gestures
KR101438636B1 (en) 2013-07-25 2014-09-05 현대자동차 주식회사 Touch point recognition method of touch screen and the system performing this
KR101500413B1 (en) * 2013-12-17 2015-03-09 현대자동차 주식회사 Gesture recognize apparatus for vehicle
KR101500412B1 (en) * 2013-12-19 2015-03-09 현대자동차 주식회사 Gesture recognize apparatus for vehicle
JP6341755B2 (en) 2014-05-26 2018-06-13 キヤノン株式会社 Information processing apparatus, method, program, and recording medium
JP6236691B1 (en) * 2016-06-30 2017-11-29 株式会社コナミデジタルエンタテインメント Terminal device and program
CN111880716B (en) * 2020-07-06 2022-06-10 深圳博为教育科技有限公司 Gesture recognition method and device and touch control equipment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06139008A (en) * 1992-10-29 1994-05-20 Matsushita Electric Ind Co Ltd Coordinate input device
JP4990753B2 (en) * 2007-12-28 2012-08-01 パナソニック株式会社 Electronic device input device, input operation processing method, and input control program

Also Published As

Publication number Publication date
JP2012098987A (en) 2012-05-24

Similar Documents

Publication Publication Date Title
JP5358548B2 (en) Gesture recognition device
JP5264844B2 (en) Gesture recognition apparatus and method
US10152222B2 (en) Digital image processing device and associated methodology of performing touch-based image scaling
JP5601045B2 (en) Gesture recognition device, gesture recognition method and program
US8739067B2 (en) Information display device, information display method, and program
US20100229125A1 (en) Display apparatus for providing a user menu, and method for providing user interface (ui) applicable thereto
US20110080337A1 (en) Image display device and display control method thereof
US10276133B2 (en) Projector and display control method for displaying split images
US9898996B2 (en) Display apparatus and display control method
US20140036128A1 (en) Method and apparatus for manual focusing in portable terminal
JP2004258837A (en) Cursor operation device, method therefor and program therefor
JP2011118725A (en) Information processing equipment, information processing method, and information processing program
JP2018036902A (en) Equipment operation system, equipment operation method, and equipment operation program
US20110037731A1 (en) Electronic device and operating method thereof
US10768710B2 (en) Information processing device, information processing method, and program
KR20210023434A (en) Display apparatus and control method thereof
JP2015053020A (en) Information display device, information display method, and program
JP5396332B2 (en) Information input device, method and program using gesture
US10402002B2 (en) Screen operation method for electronic device based on electronic device and control action
US20130162530A1 (en) Content reproducing device and content reproducing method
US20140152545A1 (en) Display device and notification method
US8446428B2 (en) Image processing apparatus and method of controlling the same
JP5449074B2 (en) Information input device
KR20210079879A (en) Apparatus and method for providing touch interface of IPTV service
US20120146904A1 (en) Apparatus and method for controlling projection image

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120627

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130207

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130902

R150 Certificate of patent or registration of utility model

Ref document number: 5358548

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees