JP2011242889A - Information input device using gesture, method and program - Google Patents

Information input device using gesture, method and program Download PDF

Info

Publication number
JP2011242889A
JP2011242889A JP2010112500A JP2010112500A JP2011242889A JP 2011242889 A JP2011242889 A JP 2011242889A JP 2010112500 A JP2010112500 A JP 2010112500A JP 2010112500 A JP2010112500 A JP 2010112500A JP 2011242889 A JP2011242889 A JP 2011242889A
Authority
JP
Japan
Prior art keywords
graphic data
detected
information
graphic
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010112500A
Other languages
Japanese (ja)
Other versions
JP5396332B2 (en
Inventor
Ryosuke Aoki
良輔 青木
Atsuhiko Maeda
篤彦 前田
Tomoki Watabe
智樹 渡部
Minoru Kobayashi
稔 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010112500A priority Critical patent/JP5396332B2/en
Publication of JP2011242889A publication Critical patent/JP2011242889A/en
Application granted granted Critical
Publication of JP5396332B2 publication Critical patent/JP5396332B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Details Of Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To recognize a gesture action with high accuracy using relatively simple image processing.SOLUTION: A television receiver 2 receives graphic data drawn on a touch panel of a remote controller 1 to be stored in a signal storage unit 21. A gesture recognition unit 30 detects a start/end point A of the stored graphic data, and detects a trajectory between the start and end points configuring the start/end point A to determine the shape of the graphic. When a predetermined graphic shape including the start/end point A is detected, the direction of a graphic drawing position with respect to the start/end point A is detected to associate the direction with a direction key, and a cursor position in EPG information is moved.

Description

この発明は、ユーザの指又は腕の動き等のジェスチャを用いて表現される入力情報を認識する装置、方法及びプログラムに関する。   The present invention relates to an apparatus, a method, and a program for recognizing input information expressed using a gesture such as a user's finger or arm movement.

ディスプレイ装置の画面に表示された情報に対しポインティングするための代表的な技術としては、マウスやタブレットペン等のポインティングデバイスを用いるものが知られている。また、その他のポインティング技術として、リモコン端末を用いて遠隔的にポインティングを行うものや、ユーザのジェスチャ動作を認識してポインティングを行うものも知られている。   As a representative technique for pointing to information displayed on the screen of a display device, a technique using a pointing device such as a mouse or a tablet pen is known. In addition, as other pointing techniques, there are known a technique for performing pointing remotely using a remote control terminal and a technique for performing pointing by recognizing a user's gesture operation.

リモコン端末を用いた技術は、例えばリモコン端末に設けられた十字キー等のカーソルキーをユーザが指で操作して、その操作データを赤外線又は無線を介してディスプレイ装置へ送信し、ディスプレイ装置が上記操作データを受信することでポインティングを行うものとなっている。   In the technology using the remote control terminal, for example, a user operates a cursor key such as a cross key provided on the remote control terminal with a finger, and the operation data is transmitted to the display device via infrared or wireless. Pointing is performed by receiving operation data.

一方、ユーザのジェスチャ動作を認識する技術は、例えばユーザの動作をカメラを用いて撮像し、この撮像された画像データからユーザの特定の身体部位の動作軌跡をパターン認識処理により認識して、この認識結果をもとにポインティングを行うものとなっている(例えば特許文献1を参照。)。   On the other hand, a technique for recognizing a user's gesture motion is, for example, capturing a user's motion using a camera, recognizing a motion locus of a specific body part of the user from the captured image data by pattern recognition processing, Pointing is performed based on the recognition result (see, for example, Patent Document 1).

特開2004−272598号公報JP 2004-272598 A

ところが、これらの従来のポインティング技術には以下のような解決すべき課題があった。
近年普及してきたタッチパネル方式の端末には機械的なカーソルキーが搭載されておらず、タッチパネル上にカーソルキーを表示し、この表示されたカーソルキーをタップする操作をすることで機械的なカーソルキーのポインティング操作を実現している。しかし、機械的なカーソルキーではキーに触れながらキーを押すことで操作できるのに対し、タッチパネルではパネルに指が触れるまで指がどの位置にあるのか視認せずに把握することは難しい。そのため、このようなタッチパネル方式のカーソルキーの押下操作はタッチパネル上に表示されたカーソルキーを見ないと入力することが難しく、例えばテレビジョン受信機のようにリモコンを用いて離れた場所から操作する機器にあっては操作が困難になる。
However, these conventional pointing techniques have the following problems to be solved.
Touch screen terminals that have become popular in recent years are not equipped with a mechanical cursor key. By displaying the cursor key on the touch panel and tapping the displayed cursor key, the mechanical cursor key is displayed. The pointing operation is realized. However, while it can be operated by pressing a key while touching the key with a mechanical cursor key, it is difficult to grasp without knowing where the finger is located until the finger touches the panel on the touch panel. Therefore, it is difficult to input such a touch panel type cursor key pressing operation without looking at the cursor key displayed on the touch panel. For example, the remote controller is used to operate from a remote location such as a television receiver. Operation is difficult for equipment.

一方、ユーザのジェスチャ動作を認識する方法では、ユーザのジェスチャ動作を認識して入力コマンドに対応付ける処理が画像処理に強く依存し、またジェスチャ動作の認識精度を高めるためには予め用意したマーカやセンサ等をユーザの手や指に装着する必要がある。このため、システムが大掛かりになると共に、ユーザの操作性が損なわれるという問題があった。   On the other hand, in the method of recognizing a user's gesture action, the process of recognizing the user's gesture action and associating it with an input command strongly depends on the image processing, and in order to improve the recognition accuracy of the gesture action, a marker or sensor prepared in advance Etc. need to be worn on the user's hand or finger. For this reason, there is a problem that the system becomes large and the operability of the user is impaired.

この発明は上記事情に着目してなされたもので、その目的とするところは、タッチパネル方式を用いたリモコン端末を用いる場合にはタッチパネル上にカーソルキーの表示を不要とし、またカメラを使用する場合にはユーザへのマーカ等の装着を不要とし、しかも比較的簡単な画像処理によりジェスチャ動作を高精度に認識することが可能なジェスチャを用いた情報入力装置、方法及びプログラムを提供することにある。   The present invention has been made paying attention to the above circumstances, and the object of the present invention is to make it unnecessary to display cursor keys on the touch panel when using a remote control terminal using a touch panel method, and to use a camera. The present invention provides an information input device, method, and program using a gesture that eliminates the need for attaching a marker or the like to a user and that can recognize a gesture operation with high accuracy by relatively simple image processing. .

上記目的を達成するためにこの発明の第1の観点は、ジェスチャにより描かれた図形データを取り込んで保存し、この保存された図形データ中から座標が一致する第1及び第2の点を検出して、この検出された第1及び第2の点を上記図形データの終始点として認識する。そして、この終始点が検出された場合に、上記保存された図形データをもとに上記第1の点と第2の点との間の軌跡を検出し、この検出された軌跡と上記終始点ともとに上記図形データの特徴を判定して、この判定された図形データの特徴を表す情報を入力情報に変換するようにしたものである。   In order to achieve the above object, a first aspect of the present invention is to capture and save graphic data drawn by a gesture, and detect first and second points whose coordinates match from the stored graphic data. Then, the detected first and second points are recognized as the starting point of the graphic data. When this end point is detected, a trajectory between the first point and the second point is detected based on the stored graphic data, and the detected trajectory and the end point are detected. At the same time, the characteristics of the graphic data are determined, and information representing the characteristics of the determined graphic data is converted into input information.

したがって、ユーザのジェスチャ動作により描かれた図形データの終始点と、その始点と終点との間の軌跡をもとに図形データの特徴が判定され、この特徴をもとに入力情報が認識される。このため、リモコン端末のタッチパネルにおいて指を動かして図形を描く場合でも、またカメラの前で手や腕を動かして図形を描く場合でも、描かれた図形データからその終始点とその間の軌跡を検出するだけで、その検出結果から図形の特徴を判定して入力情報を認識することができる。すなわち、ジェスチャによる入力情報を比較的簡単な画像処理により認識することが可能となる。しかも、タッチパネルを用いた場合、タッチパネル上のキーを視認しなくても容易に操作が行えるためリモコン端末のタッチパネルには操作キーを表示する必要がなく、またカメラを用いた場合、ユーザにはマーカ等を装着する必要もなくなる。以上のことから操作上の制約が低減されて操作性を高めることが可能となる。   Therefore, the feature of the graphic data is determined based on the start point of the graphic data drawn by the user's gesture operation and the trajectory between the start point and the end point, and the input information is recognized based on this feature. . For this reason, whether you draw a figure by moving your finger on the touch panel of the remote control terminal or when you draw a figure by moving your hand or arm in front of the camera, the starting point and the locus between them are detected from the drawn figure data. By simply doing this, it is possible to recognize the input information by determining the feature of the figure from the detection result. That is, it becomes possible to recognize input information by a gesture by relatively simple image processing. In addition, when a touch panel is used, it is possible to easily operate without visually recognizing the keys on the touch panel, so there is no need to display operation keys on the touch panel of the remote control terminal. No need to wear etc. From the above, operational restrictions are reduced and operability can be improved.

この発明の第2の観点は、図形データの特徴を表す情報を入力情報に変換する際に、上記検出された終始点を中心に異なる方向に複数の方向領域を設定し、上記検出された軌跡の描画位置が上記複数の方向領域のいずれに含まれるかを判定して、この判定結果を表す情報をカーソルの移動方向を表す入力コマンドに変換するようにしたものである。
このようにすると、ユーザが図形をその終始点に対しいずれの方向に描くかによりカーソルの移動方向を指定入力することが可能となる。このため、特別な画像処理を行うことなくカーソルの移動方向を認識することが可能となる。
According to a second aspect of the present invention, when converting information representing the characteristics of graphic data into input information, a plurality of direction areas are set in different directions around the detected start point, and the detected locus It is determined which of the plurality of directional areas is included, and information indicating the determination result is converted into an input command indicating the movement direction of the cursor.
In this way, it becomes possible for the user to designate and input the moving direction of the cursor depending on in which direction the graphic is drawn with respect to the starting point. For this reason, it is possible to recognize the movement direction of the cursor without performing special image processing.

この発明の第3の観点は、図形データの特徴を表す情報を入力情報に変換する際に、上記検出された軌跡をもとに図形データの形状の種類を判定し、この判定された図形データの形状の種類に応じて入力コマンドの内容を変更するようにしたものである。
このようにすると、ジェスチャにより描いた図形の形状の種類に応じて、例えばカーソルの移動方向を表す入力コマンドを表示画面の切替えを指示するコマンドに変更するか、或いはカーソルの移動指示機能と表示画面の切替指示機能の両方を併せ持つコマンドに変更することが可能となる。
According to a third aspect of the present invention, when information representing the characteristics of graphic data is converted into input information, the type of graphic data is determined based on the detected locus, and the determined graphic data The contents of the input command are changed according to the shape type.
In this way, according to the type of shape of the figure drawn by the gesture, for example, an input command indicating the cursor movement direction is changed to a command for switching the display screen, or the cursor movement instruction function and the display screen are displayed. It is possible to change to a command having both of the switching instruction functions.

この発明の第4の観点は、図形データの特徴を表す情報を入力情報に変換する際に、上記検出された軌跡をもとに、図形データの描画速度、描画時間又は描画サイズのいずれかを検出し、この検出された図形データの描画速度、描画時間又は描画サイズのいずれかに応じて入力コマンドの内容を変更するようにしたものである。
このようにすると、検出された図形データの描画速度、描画時間または描画サイズのいずれかに応じて、例えばカーソルの移動方向のみを指示する入力コマンドを移動方向とその移動量の両方を指示する機能を有する入力コマンドに変更することが可能となる。この結果、ユーザが例えば図形を通常の速度より遅いゆっくりとした速度で描いたり、通常の描画時間より長い時間をかけて描いたり、或いは通常サイズより大きなサイズで描いた場合には、カーソルの1回の移動ステップ量を大きく設定する等の、機能性の高い情報入力を実現できる。
According to a fourth aspect of the present invention, when information representing the characteristics of graphic data is converted into input information, any one of the drawing speed, drawing time, and drawing size of the graphic data is determined based on the detected locus. And the contents of the input command are changed according to any one of the drawing speed, drawing time, and drawing size of the detected graphic data.
In this way, according to either the drawing speed, the drawing time, or the drawing size of the detected graphic data, for example, an input command that indicates only the moving direction of the cursor is a function that indicates both the moving direction and the moving amount thereof. It is possible to change to an input command having As a result, for example, when the user draws a figure at a slower speed slower than the normal speed, draws a time longer than the normal drawing time, or draws a figure larger than the normal size, the cursor 1 It is possible to realize highly functional information input such as setting a large number of movement steps.

すなわちこの発明によれば、リモコン端末を用いる場合には操作キー等を不要にし、またカメラを使用する場合にはユーザへのマーカ等の装着を不要とし、しかもいずれの場合も比較的簡単な画像処理によりジェスチャ動作を高精度に認識することが可能なジェスチャを用いた情報入力装置、方法及びプログラムを提供することができる。   That is, according to the present invention, an operation key or the like is not required when a remote control terminal is used, and a marker or the like is not required to be attached to a user when a camera is used. It is possible to provide an information input device, method, and program using a gesture capable of recognizing gesture operation with high accuracy by processing.

この発明の第1の実施形態に係わる情報入力装置のシステム構成を示す概略構成図。1 is a schematic configuration diagram showing a system configuration of an information input device according to a first embodiment of the present invention. 図1に情報入力装置として示したテレビジョン受信機の機能構成を示すブロック図。The block diagram which shows the function structure of the television receiver shown as an information input device in FIG. 図2に示したテレビジョン受信機の全体の処理手順と処理内容を示すフローチャートである。It is a flowchart which shows the process sequence of the whole television receiver shown in FIG. 2, and the processing content. 図3に示した全体の処理手順のうち信号受信処理の手順と処理内容を示すフローチャート。The flowchart which shows the procedure and content of a signal reception process among the whole process procedures shown in FIG. 図3に示した全体の処理手順のうちジェスチャ認識処理の手順と処理内容を示すフローチャート。The flowchart which shows the procedure and process content of gesture recognition process among the whole process procedures shown in FIG. 図3に示した全体の処理手順のうち表示画像制御処理の手順と処理内容を示すフローチャート。The flowchart which shows the procedure and process content of a display image control process among the whole process procedures shown in FIG. 図5に示したジェスチャ認識処理において、図形の始点と終点の一致を検出するための第1の方法を説明するための図。The figure for demonstrating the 1st method for detecting the coincidence of the start point and end point of a figure in the gesture recognition process shown in FIG. 図5に示したジェスチャ認識処理において、図形の始点と終点の一致を検出するための第2の方法を説明するための図。The figure for demonstrating the 2nd method for detecting the coincidence of the start point and end point of a figure in the gesture recognition process shown in FIG. 図5に示したジェスチャ認識処理において、方向キー検出処理を説明するための図。The figure for demonstrating a direction key detection process in the gesture recognition process shown in FIG. 図5に示したジェスチャ認識処理において、方向キー検出処理を説明するための図。The figure for demonstrating a direction key detection process in the gesture recognition process shown in FIG. この発明の第2の実施形態に係わる情報入力装置において使用されるジェスチャ描画図形の形状の種類を示す図。The figure which shows the kind of shape of the gesture drawing figure used in the information input device concerning 2nd Embodiment of this invention. この発明の第3の実施形態に係わる情報入力装置のシステム構成を示す概略構成図。The schematic block diagram which shows the system configuration | structure of the information input device concerning the 3rd Embodiment of this invention.

以下、図面を参照してこの発明に係わる実施形態を説明する。
(第1の実施形態)
この発明の第1の実施形態に係わる情報入力装置のシステム構成を示す概略構成図である。このシステムは、リモートコントロール装置(以後リモコン装置と略称する)1から送信されるリモコン信号をテレビジョン受信機2により受信するものとなっている。通信回線3としては例えば赤外線又は無線が用いられる。無線の場合の通信方式には、Bluetooth(登録商標)等の微弱又は小電力タイプの近距離無線データ通信方式が使用可能である。
Embodiments according to the present invention will be described below with reference to the drawings.
(First embodiment)
It is a schematic block diagram which shows the system configuration | structure of the information input device concerning the 1st Embodiment of this invention. In this system, a television receiver 2 receives a remote control signal transmitted from a remote control device (hereinafter abbreviated as a remote control device) 1. For example, infrared or wireless is used as the communication line 3. As a communication method in the case of wireless, a short-range wireless data communication method of weak or low power type such as Bluetooth (registered trademark) can be used.

リモコン装置1は、入力デバイスとして静電容量型のタッチパネルを使用した端末からなる。そして、このタッチパネルの静電分布のデータをリアルタイムにリモコン信号としてテレビジョン受信機2へ送信する.   The remote control device 1 is composed of a terminal using a capacitive touch panel as an input device. Then, the electrostatic distribution data of the touch panel is transmitted to the television receiver 2 as a remote control signal in real time.

ところで、テレビジョン受信機2は以下のように構成される。図2はその機能構成を示すブロック図である。
すなわち、テレビジョン受信機2は、リモコン装置1から送信されたリモコン信号を受信する信号受信ユニット10と、データベース20と、ジェスチャ認識ユニット30と、表示画像制御ユニット40とを備えている。
By the way, the television receiver 2 is configured as follows. FIG. 2 is a block diagram showing the functional configuration.
That is, the television receiver 2 includes a signal receiving unit 10 that receives a remote control signal transmitted from the remote control device 1, a database 20, a gesture recognition unit 30, and a display image control unit 40.

信号受信ユニット10は、リモコン装置1から送信された赤外線又は無線からなるリモコン信号を受信する信号受信部12と、信号受信判断部11とを備えている。信号受信判断部11は、上記信号受信部12により受信されたリモコン信号をもとにタッチパネルに対する指の接触の有無を判断し、接触していると判断した期間における静電分布データをデータベース20内の信号蓄積部21に記憶させる処理を行う。   The signal receiving unit 10 includes a signal receiving unit 12 that receives an infrared or wireless remote control signal transmitted from the remote control device 1 and a signal reception determining unit 11. The signal reception determination unit 11 determines the presence / absence of finger contact with the touch panel based on the remote control signal received by the signal reception unit 12 and stores electrostatic distribution data in the database 20 in the period determined to be in contact. The process which memorize | stores in the signal storage part 21 is performed.

データベース20は、信号蓄積部21と、ジェスチャコマンド変換テーブル部22と、表示画像データ蓄積部23と、図形パターン記憶部24とを備えている。信号蓄積部21は、上記信号受信ユニット10により受信されたリモコン信号の静電分布データを記憶するために用いられる。ジェスチャコマンド変換テーブル部22には、認識対象の複数の入力コマンドに対応付けて、当該入力コマンドが意味する表示処理内容を表す情報が予め記憶されている。表示画像データ蓄積部23には、上記入力コマンドが意味する表示処理内容に応じた画像を表示するために必要な様々な表示画像データが記憶される。図形パターン記憶部24には、認識対象となる複数の図形形状の基本パターンが記憶される。   The database 20 includes a signal storage unit 21, a gesture command conversion table unit 22, a display image data storage unit 23, and a graphic pattern storage unit 24. The signal storage unit 21 is used for storing electrostatic distribution data of the remote control signal received by the signal receiving unit 10. The gesture command conversion table unit 22 stores in advance information representing the display processing content that the input command means in association with a plurality of input commands to be recognized. The display image data storage unit 23 stores various display image data necessary for displaying an image corresponding to the display processing content meaning the input command. The graphic pattern storage unit 24 stores basic patterns of a plurality of graphic shapes to be recognized.

ジェスチャ認識ユニット30は、終始点一致検出部31と、図形追跡部32と、図形判断部33と、図形位置判断部34を備えている。これらの機能は、上記受信信号判断部11と共に、データベース20内のプログラムメモリ(図示せず)に格納されたアプリケーション・プログラムを、中央処理ユニット(CPU)に実行させることにより実現される。   The gesture recognition unit 30 includes an end-to-end point coincidence detection unit 31, a graphic tracking unit 32, a graphic determination unit 33, and a graphic position determination unit 34. These functions are realized by causing the central processing unit (CPU) to execute an application program stored in a program memory (not shown) in the database 20 together with the received signal determination unit 11.

終始点一致検出部31は、上記信号蓄積部21に記憶された静電分布データをもとに、ユーザがリモコン装置1のタッチパネル上で指を移動させることにより描画した図形データの終始点、つまり座標値が一致する2つの点を検出する機能を有する。   The end point coincidence detection unit 31 is based on the electrostatic distribution data stored in the signal storage unit 21, and the end point of the graphic data drawn by the user moving his / her finger on the touch panel of the remote control device 1, that is, It has a function of detecting two points whose coordinate values match.

図形追跡部32は、上記終始点一致検出部31により終始点として検出された2点、つまり始点と終点とを結ぶ図形の軌跡を、上記信号蓄積部21に記憶された静電分布のデータをもとに検出する機能を有する。   The figure tracking unit 32 uses the electrostatic distribution data stored in the signal storage unit 21 as the locus of the figure connecting the two points detected as the starting point by the starting point coincidence detecting unit 31, that is, the starting point and the ending point. It has a function to detect originally.

図形位置判断部34は、上記終始点一致検出部31により検出された終始点を中心にタッチパネルの上下左右各方向に4つの方向領域を設定し、上記図形追跡部32により検出された図形の軌跡の描画位置が上記4つの方向領域のいずれに含まれるかを判定する。そして、その判定結果に対応する入力コマンドを生成する。なお、4つの方向領域を設定する以外に、タッチパネルの上下左右斜めの各方向に8つの方向領域を設定することも可能である。   The graphic position determination unit 34 sets four direction areas in the up, down, left, and right directions of the touch panel around the start point detected by the start point match detection unit 31, and the trace of the graphic detected by the graphic tracking unit 32. It is determined which of the four directional areas is included in the drawing position. Then, an input command corresponding to the determination result is generated. In addition to setting four direction areas, it is also possible to set eight direction areas in each of the diagonal directions of the touch panel.

図形判断部33は、上記データベース20の図形パターン記憶部24に記憶された認識対象となる複数の図形形状の基本パターンを参照し、上記図形追跡部32により検出された軌跡がどの図形に対応するかを判定する。この判定処理にはパターンマッチングが用いられる。そして、上記判定された図形の形状の種類に応じて、上記図形位置判断部34により生成された入力コマンドの更新の要否を判定し、更新する必要がある場合には上記入力コマンドを変更する処理を行う。   The graphic determination unit 33 refers to the basic patterns of a plurality of graphic shapes to be recognized stored in the graphic pattern storage unit 24 of the database 20 and corresponds to which graphic the locus detected by the graphic tracking unit 32 corresponds to. Determine whether. For this determination process, pattern matching is used. Then, it is determined whether or not the input command generated by the graphic position determination unit 34 needs to be updated according to the determined shape type of the graphic, and the input command is changed when it is necessary to update it. Process.

表示画像制御ユニット40は、画像更新部41と、画像出力部42と、表示画像決定部43を備えている。これらの機能もまた、上記ジェスチャ認識ユニット30の各機能と同様に、アプリケーション・プログラムを中央処理ユニット(CPU)に実行させることにより実現される。   The display image control unit 40 includes an image update unit 41, an image output unit 42, and a display image determination unit 43. These functions are also realized by causing the central processing unit (CPU) to execute an application program, similarly to the functions of the gesture recognition unit 30 described above.

画像更新部41は、上記図形位置判断部34により生成された入力コマンド、又は上記図形判断部33により更新された入力コマンドをもとに、ジェスチャコマンド変換テーブル部22から当該入力コマンドが意味する表示処理内容を表す情報を読み出し、この読み出された情報をもとに表示画像データを更新する処理を行う。   The image updating unit 41 displays the meaning of the input command from the gesture command conversion table unit 22 based on the input command generated by the graphic position determining unit 34 or the input command updated by the graphic determining unit 33. Information representing the processing content is read out, and the display image data is updated based on the read out information.

画像出力部42は、上記画像更新部41により更新された表示画像データを、図示しないディスプレイに出力して表示させる処理を行う。
表示画像決定部43は、ディスプレイに表示させる画像データを決定する処理を行う。
The image output unit 42 performs a process of outputting and displaying the display image data updated by the image update unit 41 on a display (not shown).
The display image determination unit 43 performs processing for determining image data to be displayed on the display.

次に、以上のように構成されたテレビジョン受信機2による、ジェスチャを用いた入力情報の認識動作を説明する。
図3は、その全体の処理手順と処理内容を示すフローチャートである。なお、ここではテレビジョン受信機2のディスプレイに電子番組案内(Electronic Program Guide:EPG)情報を表示させ、このEPG情報に対しリモコン装置1から番組の選択操作を行う場合を例にとって説明する。
Next, the operation of recognizing input information using gestures by the television receiver 2 configured as described above will be described.
FIG. 3 is a flowchart showing the overall processing procedure and processing contents. Here, a case will be described as an example where electronic program guide (EPG) information is displayed on the display of the television receiver 2 and a program selection operation is performed from the remote control device 1 for this EPG information.

リモコン装置1において、ユーザがタッチパネル上に上記番組の選択操作のための図形を指で描くと、その静電分布を表す情報がリモコン信号としてリモコン装置1から通信回線3を介してテレビジョン受信機2へ送られる。   In the remote control device 1, when a user draws a figure for selecting the program on the touch panel with a finger, information representing the electrostatic distribution is transmitted as a remote control signal from the remote control device 1 via the communication line 3 to the television receiver. 2 is sent.

テレビジョン受信機2は、先ずステップS11において、信号受信ユニット10の信号受信部12及び信号受信判断部11が上記リモコン信号を受信する処理を行い、ステップS12において、上記受信されたリモコン信号により表される静電分布データをデータベース20内の信号蓄積部21に記憶させる処理を実行する。   First, in step S11, the television receiver 2 performs a process in which the signal receiving unit 12 and the signal reception determining unit 11 of the signal receiving unit 10 receive the remote control signal. In step S12, the television receiver 2 is represented by the received remote control signal. The process of storing the electrostatic distribution data to be stored in the signal storage unit 21 in the database 20 is executed.

次にステップS13において、ジェスチャ認識ユニット30が、上記信号蓄積部21に記憶された静電分布データをもとに、ユーザがリモコン装置1のタッチパネル上に描いた図形のデータから終始点を検出し、これにより当該図形が上記EPG情報の番組選択操作に該当するものか否かを判定する。そして、EPG情報の番組選択操作に該当する図形だった場合に、この図形が描かれた位置及び図形の形状を判定して、その判定結果に応じて入力コマンドを生成又は更新する。   Next, in step S <b> 13, the gesture recognition unit 30 detects the start point from the graphic data drawn by the user on the touch panel of the remote control device 1 based on the electrostatic distribution data stored in the signal storage unit 21. Thus, it is determined whether or not the figure corresponds to the program selection operation of the EPG information. If the figure corresponds to a program selection operation of EPG information, the position where the figure is drawn and the shape of the figure are determined, and an input command is generated or updated according to the determination result.

最後にステップS14において、表示画像制御ユニット40が、上記ステップS13により生成された入力コマンドが意味する表示処理内容を表す情報を検索し、この情報に応じてEPG情報に対する番組選択位置、つまりカーソルの位置を変化させるように表示画像データを更新する。   Finally, in step S14, the display image control unit 40 searches for information representing the display processing content that the input command generated in step S13 means, and in accordance with this information, the program selection position for the EPG information, that is, the cursor position. The display image data is updated so as to change the position.

以下、上記各ステップS11〜S14における処理内容をより詳しく説明する。
(1)信号受信処理
図4はこの信号受信処理の手順と処理内容を示すフローチャートである。
信号受信ユニット10では、リモコン装置1から送信されたリモコン信号を信号受信部12が受信したことをステップS21で検出すると、先ずステップS22において信号受信判断部11が、上記受信されたリモコン信号をもとにユーザの指がタッチパネルに接触しているか否かを判定する。この判定の結果、接触していなければ、ステップS23により信号蓄積部21から静電分布データを消去する。一方、指がタッチパネルに触れ続けたとき、この連続する接触動作により描かれた図形を表す静電分布データを、ステップS24によりデータベース20の信号蓄積部21へ出力して蓄積させる。したがって、信号蓄積部21にはリモコン装置1のタッチパネル上に描かれた図形を表すデータが記憶される。
Hereafter, the processing content in each said step S11-S14 is demonstrated in detail.
(1) Signal reception processing
FIG. 4 is a flowchart showing the procedure and details of the signal reception process.
In the signal receiving unit 10, when it is detected in step S 21 that the signal receiving unit 12 has received the remote control signal transmitted from the remote control device 1, first, in step S 22, the signal reception determining unit 11 stores the received remote control signal. Whether or not the user's finger is in contact with the touch panel is determined. If the result of this determination is that there is no contact, the electrostatic distribution data is erased from the signal storage unit 21 in step S23. On the other hand, when the finger continues to touch the touch panel, the electrostatic distribution data representing the graphic drawn by the continuous contact operation is output to the signal storage unit 21 of the database 20 and stored in step S24. Therefore, data representing a figure drawn on the touch panel of the remote control device 1 is stored in the signal storage unit 21.

(2)ジェスチャ認識処理
図5はこのジェスチャ認識処理の手順と処理内容を示すフローチャートである。
ジェスチャ認識ユニット30は、先ずステップS31において終始点一致検出処理を以下のように実行する。すなわち、終始点一致検出部31が、信号蓄積部21から静電分布データを読み出し、この読み出した静電分布データをもとに、ユーザがリモコン装置1のタッチパネル上で指を移動させることにより描画した図形データの終始点、つまり座標値が一致する2つの点を検出する。
(2) Gesture Recognition Processing FIG. 5 is a flowchart showing the procedure and processing contents of this gesture recognition processing.
The gesture recognition unit 30 first executes the end point coincidence detection process in step S31 as follows. That is, the start point coincidence detection unit 31 reads out the electrostatic distribution data from the signal storage unit 21 and draws by moving the finger on the touch panel of the remote control device 1 based on the read out electrostatic distribution data. The end point of the graphic data, that is, two points having the same coordinate value are detected.

このとき、終始点の検出手法には例えば次の2つの手法が考えられる。第1の検出手法は、図7に示すようにユーザがタッチパネル上で最初に指を触れた点Aから図形Bを描き始めて上記点Aに再度触れたとき、この点Aを終始点として検出するものである。第2の検出手法は、図8に示すようにユーザがタッチパネル上で指を動かして図形を描いた場合に、その軌跡を追跡して当該軌跡が交差する点を終始点Aとして検出するものである。   At this time, for example, the following two methods can be considered as the starting point detection method. In the first detection method, as shown in FIG. 7, when the user starts drawing the figure B from the point A where the user first touched the finger on the touch panel and touches the point A again, this point A is detected as the starting point. Is. In the second detection method, when the user moves a finger on the touch panel and draws a figure as shown in FIG. 8, the locus is traced and the point where the locus intersects is detected as the starting point A. is there.

ジェスチャ認識ユニット30は、上記終始点Aが検出されると、ユーザがタッチパネル上で描画した図形はEPG情報の番組選択操作を表す図形としての条件を満たすと判断し、ステップS32における図形追跡処理に移行する。これに対し終始点Aが検出されなかった場合には、何も処理せず,検出されない状態で指を離すとS 23にて上記描画された図形は選択操作の条件を満たさないと判断し、そのままジェスチャ認識処理を終了する。なお、ジェスチャ認識処理を終了した場合ジェスチャ認識ユニット30は、信号蓄積部21に記憶された上記判定対象の静電分布データを消去する。   When the start point A is detected, the gesture recognition unit 30 determines that the graphic drawn by the user on the touch panel satisfies the condition as the graphic representing the program selection operation of the EPG information, and performs the graphic tracking process in step S32. Transition. On the other hand, if the starting point A is not detected, no processing is performed, and if the finger is released in a state where it is not detected, it is determined in S23 that the drawn figure does not satisfy the selection operation condition. The gesture recognition process is finished as it is. When the gesture recognition process is completed, the gesture recognition unit 30 erases the determination target electrostatic distribution data stored in the signal storage unit 21.

ジェスチャ認識ユニット30は、次にステップS32において図形追跡処理を以下のように実行する。すなわち、図形追跡部32により、上記終始点一致検出処理(ステップS31)により検出された終始点Aを構成する終点(時刻Te)から始点(時刻Ts)までの静電分布データを信号蓄積部21から読み出す。そして、この読み出した静電分布データをもとに、図形データの軌跡を追跡する処理を行う。   Next, in step S32, the gesture recognition unit 30 executes the graphic tracking process as follows. That is, the signal storage unit 21 stores electrostatic distribution data from the end point (time Te) to the start point (time Ts) constituting the start point A detected by the end point match detection process (step S31) by the figure tracking unit 32. Read from. Then, based on the read electrostatic distribution data, processing for tracing the locus of the graphic data is performed.

図形データの軌跡を追跡する手段としては、例えば次のようなものが考えられる。すなわち、静電容量を用いたタッチパネルであれば、指が触れている点のその周辺に対する静電分布は凸型分布になる。したがって、この凸型分布の頂点を結ぶことで、描かれた図形データの軌跡を追跡することができる。   As means for tracking the trace of the graphic data, for example, the following can be considered. That is, in the case of a touch panel using electrostatic capacitance, the electrostatic distribution with respect to the periphery of the point touched by the finger is a convex distribution. Therefore, the locus of the drawn graphic data can be traced by connecting the vertices of the convex distribution.

上記図形データの軌跡が検出されると、ジェスチャ認識ユニット30は続いてステップS33において図形判断処理を実行する。すなわち、図形判断部33により、データベース20の図形パターン記憶部24から複数の基本図形パターンを順次読み出し、この読み出された基本図形パターンと上記図形追跡処理(ステップS32)により検出された図形の軌跡のパターンとをパターンマッチング処理により比較し、その類似度を検出する。そして、この検出された類似度がしきい値以上であって、かつ最も大きいものを選択する。そして、この選択された基本図形パターンを、上記タッチパネルに描かれた図形の形状の種類として認識する。   When the locus of the graphic data is detected, the gesture recognition unit 30 subsequently executes graphic determination processing in step S33. That is, a plurality of basic graphic patterns are sequentially read from the graphic pattern storage unit 24 of the database 20 by the graphic determination unit 33, and the read basic graphic pattern and the locus of the graphic detected by the graphic tracking process (step S32). Are compared by pattern matching processing, and the similarity is detected. Then, the highest similarity that is equal to or greater than the threshold value is selected. The selected basic graphic pattern is recognized as the shape type of the graphic drawn on the touch panel.

ジェスチャ認識ユニット30は、次にステップS34に移行して図形位置判断処理を実行する。すなわち、図形位置検出部34により、先ず上記終始点一致検出処理(ステップS31)により検出された終始点Aを中心に、図9(a)に示すようにタッチパネルの上下左右各方向(a),(b)に4つの方向領域を設定する。そして、上記図形追跡処理(ステップS32)により検出された図形の軌跡の描画位置が上記4つの方向領域のいずれに含まれるかを判定する。この判定処理は、例えば描かれた図形の重心を求め、この重心と終始点Aが結ぶ直線の方向に図形の描画位置が存在するものと見なして、この直線の方向がいずれの方向領域の角度に含まれるかを判定することにより可能である。   Next, the gesture recognition unit 30 proceeds to step S34 and executes a graphic position determination process. That is, the figure position detection unit 34 firstly centers the start point A detected by the start point coincidence detection process (step S31), as shown in FIG. Four direction areas are set in (b). Then, it is determined which of the four direction areas the drawing position of the locus of the figure detected by the figure tracking process (step S32) is included. For example, this determination processing obtains the center of gravity of the drawn figure, assumes that the drawing position of the figure exists in the direction of the straight line connecting the center of gravity and the start point A, and the direction of this straight line is the angle of any direction area. This is possible by determining whether it is included.

上記図形の描画位置が判定されると、ジェスチャ認識ユニット30は続いてステップS35において方向キー検出処理を実行し、上記図形位置判断処理(ステップS34)により判定された図形の描画位置を上下左右の4つの方向のいずれかに対応付けする。そして、この対応付けられた方向キーに対応する入力コマンドを生成する。   When the drawing position of the figure is determined, the gesture recognition unit 30 subsequently executes a direction key detection process in step S35, and the drawing position of the figure determined by the figure position determination process (step S34) is changed up, down, left, and right. Correspond to one of the four directions. Then, an input command corresponding to the associated direction key is generated.

例えば、図10(a)に示すように図形の描画位置が終始点Aに対し左方向領域に含まれる場合には左方向キーを示す入力コマンドが生成され、反対に右方向領域に含まれる場合には右方向キーを示す入力コマンドが生成される。同様に、図10(b)に示すように図形の描画位置が終始点Aに対し上方向領域に含まれる場合には上方向キーを示す入力コマンドが生成され、反対に下方向領域に含まれる場合には下方向キーを示す入力コマンドが生成される。   For example, as shown in FIG. 10A, when the drawing position of the figure is included in the left direction area with respect to the start point A, an input command indicating the left direction key is generated, and conversely, included in the right direction area. An input command indicating a right arrow key is generated. Similarly, as shown in FIG. 10B, when the drawing position of the figure is included in the upward area with respect to the starting point A, an input command indicating an upward key is generated, and conversely, included in the downward area. In this case, an input command indicating a down key is generated.

なお、先に述べた図形位置判断処理(ステップS34)では、図9(a)に示したように図形の描画位置が4方向のいずれに含まれるかを判定する場合について例示した。しかし、それに限らず例えば図9(b)に示すように上下左右斜め方向(A),(B),(C),(D)の8つの方向領域を設定し、検出された図形の描画位置が上記8つの方向領域のいずれに含まれるかを判定するようにしてもよい。この場合、方向キー検出処理(ステップS35)では、図形の描画位置が上下左右斜めの8つの方向のいずれかに対応付けされる。そして、この対応付けられた方向キーに対応する入力コマンドが生成される。   In the graphic position determination process (step S34) described above, the case where it is determined which of the four directions the graphic drawing position is included as shown in FIG. However, the present invention is not limited to this. For example, as shown in FIG. 9B, eight directional areas (A), (B), (C), and (D) in the vertical and horizontal directions are set, and the drawing position of the detected figure is set. May be included in any of the above eight direction regions. In this case, in the direction key detection process (step S35), the drawing position of the figure is associated with one of eight directions that are diagonally up, down, left, and right. An input command corresponding to the associated direction key is generated.

(3)表示画像制御処理
上記ジェスチャ認識処理(ステップS13)が終了すると、続いて表示画像制御ユニット40が以下のように表示画像の更新処理を実行する。図6はその制御手順と制御内容を示すフローチャートである。
(3) Display Image Control Process When the gesture recognition process (step S13) is completed, the display image control unit 40 subsequently executes a display image update process as follows. FIG. 6 is a flowchart showing the control procedure and control contents.

先ずステップS42において画像更新部41が、上記図形位置判断処理(ステップS34)により生成された入力コマンドをもとに、ジェスチャコマンド変換テーブル部22から当該入力コマンドが意味する表示処理内容を表す情報を読み出し、この読み出された情報をもとに表示画像データを更新する処理を行う。   First, in step S42, based on the input command generated by the graphic position determination process (step S34), the image update unit 41 obtains information representing the display processing content that the input command means from the gesture command conversion table unit 22. A process of updating the display image data based on the read information is performed.

例えば、上記図形位置判断処理(ステップS34)により生成された入力コマンドの意味が左方向キーを示すものであれば、EPG情報におけるカーソルの位置を左方向へ1列分シフトさせた画像に更新される。反対に入力コマンドの意味が右方向キーを示すものであれば、EPG情報におけるカーソルの位置を右向へ1列分シフトさせた画像に更新される。同様に、入力コマンドの意味が上又は下キーを示すものであれば、EPG情報におけるカーソルの位置をそれぞれ上方向又は下方向へ1列分シフトさせた画像に更新される。なお、8方向キーの場合も同様にEPGの表示画像が更新される。
そして、以上のように更新されたEPGの表示画像が、ステップS42によりディスプレイに出力され表示される。
For example, if the meaning of the input command generated by the graphic position determination process (step S34) indicates a left direction key, the cursor is updated to an image in which the position of the cursor in the EPG information is shifted by one column in the left direction. The On the other hand, if the meaning of the input command indicates a right arrow key, the cursor is updated in the EPG information to an image shifted by one column to the right. Similarly, if the meaning of the input command indicates an up or down key, the cursor position in the EPG information is updated to an image that is shifted up or down by one column, respectively. Note that the display image of the EPG is similarly updated in the case of the 8-direction key.
Then, the display image of the EPG updated as described above is output and displayed on the display in step S42.

したがって、ユーザはリモコン装置1のタッチパネル上において、図9(a)に示した4つの円のいずれかを選択的に図7に示すように描画することで、EPG情報におけるカーソル位置を所望の番組の位置にステップ移動させることが可能となる。例えば、EPG情報のカーソル位置を右方向へ2ステップ移動させる場合には、図9(a)の円Rを2回描画すればよい。   Therefore, the user selectively draws one of the four circles shown in FIG. 9A on the touch panel of the remote control device 1 as shown in FIG. 7, so that the cursor position in the EPG information is set to a desired program. It is possible to make step movement to the position. For example, when the cursor position of the EPG information is moved to the right by two steps, the circle R in FIG. 9A may be drawn twice.

以上詳述したように第1の実施形態では、リモコン装置1のタッチパネル上で描画された図形データをテレビジョン受信機2で受信して信号蓄積部21に記憶し、ジェスチャ認識ユニット30により上記記憶された図形データの終始点Aを検出すると共に、この終始点Aを構成する始点と終点との間の軌跡を検出して図形の形状を判定する。そして、終始点Aを有する所定の図形形状が検出されたとき、上記終始点Aに対する図形の描画位置の方向を検出してこの検出された方向を方向キーに対応付け、EPG情報におけるカーソル位置を移動させるようにしている。
したがって、テレビジョン受信機2は終始点Aを有する円形の図形を認識すればよいので、比較的簡単な画像処理によりジェスチャを認識することができる。また、リモコン装置1のタッチパネルにはカーソルキーを表示する必要がない。利用者はタッチパネルを視認することなく入力できる.
As described above in detail, in the first embodiment, the graphic data drawn on the touch panel of the remote control device 1 is received by the television receiver 2 and stored in the signal storage unit 21, and the above-mentioned storage is performed by the gesture recognition unit 30. The end point A of the graphic data thus detected is detected, and the locus between the start point and the end point constituting the end point A is detected to determine the shape of the graphic. When a predetermined figure shape having the start point A is detected, the direction of the drawing position of the figure with respect to the start point A is detected, the detected direction is associated with the direction key, and the cursor position in the EPG information is set. I try to move it.
Therefore, since the television receiver 2 only needs to recognize a circular figure having the starting point A, the gesture can be recognized by relatively simple image processing. Further, it is not necessary to display a cursor key on the touch panel of the remote control device 1. Users can input without viewing the touch panel.

(第2の実施形態)
この発明の第2の実施形態は、リモコン装置1のタッチパネル上に描画する図形の形状を異ならせることで、カーソルの移動操作に代えてEPG情報のページ変更操作等を行えるようにしたものである。
なお、この第2の実施形態においても、第1の実施形態で使用した図1及び図2を使用して説明を行う。
(Second Embodiment)
In the second embodiment of the present invention, by changing the shape of a figure drawn on the touch panel of the remote control device 1, a page changing operation of EPG information can be performed instead of a cursor moving operation. .
In the second embodiment, the description will be made with reference to FIGS. 1 and 2 used in the first embodiment.

ジェスチャ認識ユニット30の図形判断部33は、図11に示すように円形(a)以外に、四角形(b)、六角形(c)、三角形(d)又は五角形(e)をそれぞれ認識する処理機能を有している。この図形形状の認識処理は、タッチパネルに描画された図形の軌跡を、図形パターン記憶部24に予め記憶された複数の図形形状の基本パターンとパターンマッチングすることにより行われる。   The graphic determination unit 33 of the gesture recognition unit 30 recognizes a square (b), a hexagon (c), a triangle (d), or a pentagon (e) in addition to the circle (a) as shown in FIG. have. This graphic shape recognition processing is performed by pattern matching the trajectory of a graphic drawn on the touch panel with a plurality of basic patterns of graphic shapes stored in advance in the graphic pattern storage unit 24.

表示画像制御ユニット40の表示画像決定部43は、上記図形判断部33により認識された描画図形の形状の種類がEPG情報に対する操作内容のいずれに該当するかを、データベース20に記憶された、図形形状と操作内容との対応関係を表すテーブル情報(図示せず)をもとに判定する。そして、この判定された図形形状の種類に応じた表示画面を選択してディスプレイに表示させる処理を行う。   The display image determination unit 43 of the display image control unit 40 stores the graphic stored in the database 20 as to which of the operation contents for the EPG information corresponds to the shape type of the drawing graphic recognized by the graphic determination unit 33. The determination is based on table information (not shown) indicating the correspondence between the shape and the operation content. Then, a process of selecting a display screen corresponding to the determined figure shape type and displaying it on the display is performed.

例えば、いま図11(d)に示す三角形が描画され、かつこの三角形の描画方向がその終始点に対し右方向であれば、EPG情報のページ送り操作と判断して、次ページの表示画面を表示させる。反対に、三角形の描画方向がその終始点に対し左方向であれば、EPG情報のページ戻り操作と判断して、前ページの表示画面を表示させる。   For example, if the triangle shown in FIG. 11 (d) is drawn and the drawing direction of the triangle is rightward with respect to the starting point, it is determined that the EPG information page feed operation is performed, and the display screen of the next page is displayed. Display. On the other hand, if the triangle drawing direction is to the left with respect to the starting point, it is determined that the EPG information page return operation and the display screen of the previous page is displayed.

また、図11(b)に示す四角形が描画され、かつこの四角形の描画方向がその終始点に対し上方向であれば、放送衛星を用いた放送(BS放送)のEPG情報の切替操作と判断して、BS放送のEPG情報を表示させる。反対に、四角形の描画方向がその終始点に対し下方向であれば、通信衛星を用いた放送(CS放送)のEPG情報の切替操作と判断して、CS放送のEPG情報を表示させる。同様に、四角形の描画方向がその終始点に対し右方向であれば、ケーブルテレビジョン放送(CATV放送)のEPG情報の切替操作と判断して、CATV放送のEPG情報を表示させる。また、四角形の描画方向がその終始点に対し左方向であれば、地上デジタル放送のEPG情報の切替操作と判断して、地上デジタル放送のEPG情報を表示させる。   If the rectangle shown in FIG. 11B is drawn and the drawing direction of the rectangle is upward with respect to the start point, it is determined that the operation is a switching operation of EPG information for broadcasting using a broadcasting satellite (BS broadcasting). Then, EPG information of BS broadcast is displayed. On the other hand, if the drawing direction of the quadrangle is downward with respect to the starting point, it is determined that the operation is a switching operation of EPG information of broadcasting using a communication satellite (CS broadcasting), and EPG information of CS broadcasting is displayed. Similarly, if the drawing direction of the quadrangle is rightward with respect to the starting point, it is determined that the operation is for switching EPG information for cable television broadcasting (CATV broadcasting), and the EPG information for CATV broadcasting is displayed. If the quadrangular drawing direction is the left direction with respect to the start point, it is determined that the digital terrestrial broadcast EPG information is switched, and the digital terrestrial broadcast EPG information is displayed.

なお、上記EPG情報のページ変更後に、ユーザがリモコン装置1のタッチパネル上において円形の図形を描画すれば、第1の実施形態で述べた一連の処理に従い、表示中のEPG情報の番組を選択するためのカーソル移動が行われる。   If the user draws a circular figure on the touch panel of the remote control device 1 after changing the EPG information page, the program of the displayed EPG information is selected according to the series of processes described in the first embodiment. Cursor movement is performed.

以上述べたように第2の実施形態によれば、リモコン装置1のタッチパネル上に描画する図形の形状を異ならせると、カーソルの移動操作に代えてEPG情報のページ変更操作を行うことができる。   As described above, according to the second embodiment, if the shape of the figure drawn on the touch panel of the remote control device 1 is changed, a page changing operation of EPG information can be performed instead of the cursor moving operation.

(第3の実施形態)
この発明の第3の実施形態は、ユーザが腕を動かして空間に図形を描画した場合に、この図形を描画する動き、つまりユーザのジェスチャをカメラにより撮像してその撮像画像データをテレビジョン受信機に取り込み、この取り込まれた図形をもとにジェスチャを認識するようにしたものである。
(Third embodiment)
In the third embodiment of the present invention, when a user moves his / her arm and draws a figure in the space, the movement of drawing the figure, that is, the user's gesture is imaged by the camera, and the captured image data is received by the television. The gesture is recognized based on the captured figure.

この実施形態を実現するには、例えば図12に示すようにテレビジョン受信機2に付属してカメラ4を設置し、このカメラ4によりユーザのジェスチャを撮像する。テレビジョン受信機2の信号受信ユニット10は、カメラ4から出力された撮像画像データを受信し、この撮像画像データから腕の動きを表すデータを抽出して信号蓄積部21に記憶させる機能を有する。腕の認識はパターンマッチングにより可能である。なお、ジェスチャ認識ユニット30及び表示画像制御ユニット40の機能は、第1及び第2の実施形態で述べた機能と同じである。   In order to realize this embodiment, for example, as shown in FIG. 12, a camera 4 is attached to the television receiver 2, and a user's gesture is imaged by the camera 4. The signal receiving unit 10 of the television receiver 2 has a function of receiving captured image data output from the camera 4, extracting data representing arm movement from the captured image data, and storing the extracted data in the signal storage unit 21. . Arm recognition is possible by pattern matching. The functions of the gesture recognition unit 30 and the display image control unit 40 are the same as the functions described in the first and second embodiments.

このように第3の実施形態によれば、ユーザが腕を動かして空間に図形を描画した場合にも、このジェスチャによる図形をカメラ4により撮像してテレビジョン受信機2に取り込むことにより、先に述べた第1及び第2の実施形態と同様に、ユーザのジェスチャによりEPG情報に対する番組選択操作やページ変更操作を行うことができる。   As described above, according to the third embodiment, even when the user moves his / her arm and draws a figure in the space, the figure based on this gesture is captured by the camera 4 and loaded into the television receiver 2. As in the first and second embodiments described above, it is possible to perform a program selection operation and a page change operation for EPG information by a user's gesture.

(その他の実施形態)
第1の実施形態では、図形の終始点Aに対する描画位置を検出してカーソルの移動方向を制御するようにした。しかしこれに限らず、図形の描画速度、描画時間又は描画サイズを判定し、この図形の描画速度、描画時間又は描画サイズの判定結果に応じて、カーソルの移動量を変化させるようにしてもよい。
(Other embodiments)
In the first embodiment, the drawing position with respect to the starting point A of the figure is detected and the movement direction of the cursor is controlled. However, the present invention is not limited to this, and the drawing speed, drawing time, or drawing size of the figure may be determined, and the amount of movement of the cursor may be changed according to the determination result of the drawing speed, drawing time, or drawing size of the figure. .

例えば、ユーザが図形を通常の速度より遅いゆっくりとした速度で描いたり、通常の描画時間より長い時間をかけて描いたり、或いは通常サイズより大きなサイズで描いた場合には、カーソルの1回の移動ステップ量を大きくする。図形の描画速度又は描画時間は、図形データの受信開始タイミング及び受信終了タイミングをそれぞれ検出するか、又は終始点Aを構成する始点及び終点の検出タイミングを検出し、この検出した各タイミングをもとに計算により求めることができる。なお、この実施形態においても、カーソルの移動方向については、第1の実施形態で述べたように描画された図形の終始点Aに対する図形の描画位置の方向により決まる。   For example, if the user draws a figure at a slower speed slower than the normal speed, takes a longer time than the normal drawing time, or draws a figure larger than the normal size, Increase the moving step amount. The drawing speed or drawing time of the figure is detected by detecting the reception start timing and the reception end timing of the graphic data, respectively, or by detecting the detection timing of the start point and the end point constituting the start point A, and based on each detected timing. Can be obtained by calculation. In this embodiment as well, the movement direction of the cursor is determined by the direction of the drawing position of the figure with respect to the starting point A of the drawn figure as described in the first embodiment.

前記第1の実施形態では、ジェスチャ認識処理をテレビジョン受信機2において行うようにしたが、同処理をリモコン装置1において行い、その認識結果を表す入力コマンドをテレビジョン受信機へ送信するように構成してもよい。また、前記各実施形態では、テレビジョン受信機2に表示されるEPG情報をジェスチャにより操作する場合を例にとって説明したが、パーソナル・コンピュータの表示画面やビデオプロジェクタによる表示画面をジェスチャにより操作するようにしてもよい。
その他、情報入力装置の種類や構成、処理手順と処理内容、図形の形状等についても、この発明の用紙を逸脱しない範囲で種々変形して実施できる。
In the first embodiment, the gesture recognition process is performed in the television receiver 2, but the same process is performed in the remote controller 1, and an input command representing the recognition result is transmitted to the television receiver. It may be configured. In each of the above embodiments, the case where the EPG information displayed on the television receiver 2 is operated by the gesture has been described as an example. However, the display screen of the personal computer or the display screen by the video projector is operated by the gesture. It may be.
In addition, the type and configuration of the information input device, the processing procedure and processing content, the shape of the figure, and the like can be variously modified without departing from the paper of the present invention.

要するにこの発明は、上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、各実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。   In short, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in each embodiment. Furthermore, you may combine suitably the component covering different embodiment.

1…リモコン装置、2,5…テレビジョン受信機、3…通信回線、4…カメラ、10…信号受信ユニット、11…信号受信判断部、12…信号受信部、20…データベース、21…信号蓄積部、22…ジェスチャコマンド変換テーブル部、23…表示画像データ蓄積部、24…図形パターン記憶部、30…ジェスチャ認識ユニット、31…終始点一致検出部、32…図形追跡部、33…図形判断部、34…図形位置判断部、40…表示画像制御ユニット、41…画像更新部、42…画像出力部、43…表示画像決定部。   DESCRIPTION OF SYMBOLS 1 ... Remote control apparatus, 2, 5 ... Television receiver, 3 ... Communication line, 4 ... Camera, 10 ... Signal reception unit, 11 ... Signal reception judgment part, 12 ... Signal reception part, 20 ... Database, 21 ... Signal accumulation , 22 ... gesture command conversion table part, 23 ... display image data storage part, 24 ... figure pattern storage part, 30 ... gesture recognition unit, 31 ... start point coincidence detection part, 32 ... figure tracking part, 33 ... figure judgment part , 34... Graphic position determination unit, 40... Display image control unit, 41... Image update unit, 42.

Claims (9)

ジェスチャにより描かれた図形データを取り込んで保存する手段と、
前記保存された図形データ中から座標が一致する第1及び第2の点を検出し、この座標が一致する第1及び第2の点を前記図形データの終始点として認識する手段と、
前記終始点が検出された場合、前記保存された図形データの前記第1の点と第2の点との間の軌跡を検出する手段と、
前記認識された終始点及び前記検出された軌跡をもとに前記図形データの特徴を判定し、この判定された図形データの特徴を表す情報を入力情報に変換する変換手段と
を具備することを特徴とするジェスチャを用いた情報入力装置。
Means for capturing and saving graphic data drawn by gestures;
Means for detecting first and second points having the same coordinates from the stored graphic data, and recognizing the first and second points having the same coordinates as the start points of the graphic data;
Means for detecting a trajectory between the first point and the second point of the stored graphic data if the end point is detected;
Conversion means for determining characteristics of the graphic data based on the recognized starting point and the detected locus, and converting information representing the characteristics of the determined graphic data into input information. An information input device using a featured gesture.
前記変換手段は、
前記認識された終始点を中心に異なる方向に複数の方向領域を設定し、前記検出された軌跡の描画位置が前記複数の方向領域のいずれに含まれるかを判定する手段と、
前記判定結果を表す情報を、カーソルの移動方向を表す入力コマンドに変換する手段と
を備えることを特徴とする請求項1記載のジェスチャを用いた情報入力装置。
The converting means includes
Means for setting a plurality of direction areas in different directions around the recognized start point, and determining which of the plurality of direction areas the drawing position of the detected locus is included;
The information input device using a gesture according to claim 1, further comprising means for converting information representing the determination result into an input command representing a movement direction of a cursor.
前記変換手段は、
前記検出された軌跡をもとに前記図形データの形状の種類を判定する手段と、
前記判定された図形データの形状の種類に応じて前記入力コマンドの内容を変更する手段と
を、さらに備えることを特徴とする請求項2記載のジェスチャを用いた情報入力装置。
The converting means includes
Means for determining the type of shape of the graphic data based on the detected locus;
The information input device using a gesture according to claim 2, further comprising means for changing the content of the input command in accordance with the determined shape type of the graphic data.
前記変換手段は、
前記検出された軌跡をもとに、前記図形データの描画速度、描画時間及び描画サイズのいずれかを検出する手段と、
前記検出された図形データの描画速度、描画時間及び描画サイズのいずれかに応じて、前記入力コマンドの内容を変更する手段と
を具備することを特徴とする請求項2記載のジェスチャを用いた情報入力装置。
The converting means includes
Means for detecting any one of a drawing speed, a drawing time, and a drawing size of the graphic data based on the detected locus;
3. The information using a gesture according to claim 2, further comprising means for changing the content of the input command according to any one of the drawing speed, drawing time, and drawing size of the detected graphic data. Input device.
ジェスチャにより描かれた図形データを取り込んで保存する過程と、
前記保存された図形データから座標が一致する第1及び第2の点を検出し、この座標が一致する第1及び第2の点を前記図形データの終始点として認識する過程と、
前記終始点が検出された場合、前記保存された図形データの前記第1の点と第2の点との間の軌跡を検出する過程と、
前記認識された終始点及び前記検出された軌跡をもとに前記図形データの特徴を判定し、この判定された図形データの特徴を表す情報を入力情報に変換する変換過程と
を具備することを特徴とするジェスチャを用いた情報入力方法。
The process of capturing and saving graphic data drawn by gestures,
Detecting the first and second points having the same coordinates from the stored graphic data, and recognizing the first and second points having the same coordinates as the starting points of the graphic data;
A step of detecting a trajectory between the first point and the second point of the stored graphic data when the end point is detected;
A conversion process for determining characteristics of the graphic data based on the recognized starting point and the detected locus, and converting information representing the characteristics of the determined graphic data into input information. An information input method using a feature gesture.
前記変換過程は、
前記認識された終始点を中心に異なる方向に複数の方向領域を設定し、前記検出された軌跡の描画位置が前記複数の方向領域のいずれに含まれるかを判定する過程と、
前記判定結果を表す情報を、カーソルの移動方向を表す入力コマンドに変換する過程と
を備えることを特徴とする請求項1記載のジェスチャを用いた情報入力方法。
The conversion process is:
Setting a plurality of direction areas in different directions around the recognized start point, and determining which of the plurality of direction areas the drawing position of the detected trajectory is included in;
The information input method using a gesture according to claim 1, further comprising: converting information representing the determination result into an input command representing a movement direction of a cursor.
前記変換過程は、
前記検出された軌跡をもとに前記図形データの形状の種類を判定する過程と、
前記判定された図形データの形状の種類に応じて前記入力コマンドの内容を変更する過程と
を、さらに備えることを特徴とする請求項2記載のジェスチャを用いた情報入力方法。
The conversion process is:
Determining the shape type of the graphic data based on the detected locus;
3. The information input method using a gesture according to claim 2, further comprising a step of changing contents of the input command in accordance with the determined shape type of the graphic data.
前記変換過程は、
前記検出された軌跡をもとに、前記図形データの描画速度、描画時間及び描画サイズのいずれかを検出する過程と、
前記検出された図形データの描画速度、描画時間及び描画サイズのいずれかに応じて、前記入力コマンドの内容を変更する過程と
を、さらに具備することを特徴とする請求項2記載のジェスチャを用いた情報入力方法。
The conversion process is:
A process of detecting any of drawing speed, drawing time and drawing size of the graphic data based on the detected locus;
The gesture according to claim 2, further comprising a step of changing the content of the input command according to any one of a drawing speed, a drawing time, and a drawing size of the detected graphic data. How to enter information.
請求項1乃至4に記載に情報入力装置が備える各手段に対応する処理を、前記情報入力装置が備えるコンピュータに実行させるプログラム。   The program which makes the computer with which the said information input device performs the process corresponding to each means with which the information input device is provided of Claims 1 thru | or 4.
JP2010112500A 2010-05-14 2010-05-14 Information input device, method and program using gesture Expired - Fee Related JP5396332B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010112500A JP5396332B2 (en) 2010-05-14 2010-05-14 Information input device, method and program using gesture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010112500A JP5396332B2 (en) 2010-05-14 2010-05-14 Information input device, method and program using gesture

Publications (2)

Publication Number Publication Date
JP2011242889A true JP2011242889A (en) 2011-12-01
JP5396332B2 JP5396332B2 (en) 2014-01-22

Family

ID=45409492

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010112500A Expired - Fee Related JP5396332B2 (en) 2010-05-14 2010-05-14 Information input device, method and program using gesture

Country Status (1)

Country Link
JP (1) JP5396332B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013156980A (en) * 2012-01-05 2013-08-15 Panasonic Corp Input device through touch pad
JP2013235366A (en) * 2012-05-08 2013-11-21 Nippon Telegr & Teleph Corp <Ntt> Single-stroke figure direction detection device
CN114327064A (en) * 2021-12-29 2022-04-12 北京淳中科技股份有限公司 Plotting method, system, equipment and storage medium based on gesture control

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001005599A (en) * 1999-06-22 2001-01-12 Sharp Corp Information processor and information processing method an d recording medium recording information processing program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001005599A (en) * 1999-06-22 2001-01-12 Sharp Corp Information processor and information processing method an d recording medium recording information processing program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013156980A (en) * 2012-01-05 2013-08-15 Panasonic Corp Input device through touch pad
JP2013235366A (en) * 2012-05-08 2013-11-21 Nippon Telegr & Teleph Corp <Ntt> Single-stroke figure direction detection device
CN114327064A (en) * 2021-12-29 2022-04-12 北京淳中科技股份有限公司 Plotting method, system, equipment and storage medium based on gesture control

Also Published As

Publication number Publication date
JP5396332B2 (en) 2014-01-22

Similar Documents

Publication Publication Date Title
US9977497B2 (en) Method for providing haptic effect set by a user in a portable terminal, machine-readable storage medium, and portable terminal
JP5802667B2 (en) Gesture input device and gesture input method
JP5264844B2 (en) Gesture recognition apparatus and method
US20140300542A1 (en) Portable device and method for providing non-contact interface
KR20130105725A (en) Computer vision based two hand control of content
WO2014045953A1 (en) Information processing device and method, and program
US9886089B2 (en) Method and apparatus for controlling vibration
JP2006209563A (en) Interface device
US20170003762A1 (en) Systems and methods for text entry
US20160048209A1 (en) Method and apparatus for controlling vibration
JP6349800B2 (en) Gesture recognition device and method for controlling gesture recognition device
US20130285904A1 (en) Computer vision based control of an icon on a display
JP5358548B2 (en) Gesture recognition device
KR20150031986A (en) Display apparatus and control method thereof
EP2891949A1 (en) Information input device and information display method
JP2012027515A (en) Input method and input device
JP5396332B2 (en) Information input device, method and program using gesture
KR101233793B1 (en) Virtual mouse driving method using hand motion recognition
US20140304736A1 (en) Display device and method of controlling the display device
JP5449074B2 (en) Information input device
CN104914985A (en) Gesture control method and system and video flowing processing device
CN103336587B (en) The far-end suspension touch control equipment of a kind of nine axle inertial orientation input units and method
JP6075193B2 (en) Mobile terminal device
JP5165661B2 (en) Control device, control method, control program, and recording medium
JP5449088B2 (en) Information input device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120627

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121002

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131021

R150 Certificate of patent or registration of utility model

Ref document number: 5396332

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees