JP5449088B2 - Information input device - Google Patents

Information input device Download PDF

Info

Publication number
JP5449088B2
JP5449088B2 JP2010182572A JP2010182572A JP5449088B2 JP 5449088 B2 JP5449088 B2 JP 5449088B2 JP 2010182572 A JP2010182572 A JP 2010182572A JP 2010182572 A JP2010182572 A JP 2010182572A JP 5449088 B2 JP5449088 B2 JP 5449088B2
Authority
JP
Japan
Prior art keywords
information
graphic
link
tag information
uft
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010182572A
Other languages
Japanese (ja)
Other versions
JP2012043107A (en
Inventor
良輔 青木
篤彦 前田
智樹 渡部
稔 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010182572A priority Critical patent/JP5449088B2/en
Publication of JP2012043107A publication Critical patent/JP2012043107A/en
Application granted granted Critical
Publication of JP5449088B2 publication Critical patent/JP5449088B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、ユーザの指の動き等のジェスチャを用いてウエブページのリンクを選択操作する機能を備える情報入力装置に関する。   The present invention relates to an information input device having a function of selecting and operating a link of a web page using a gesture such as a finger movement of a user.

近年、インターネットにアクセスするためのブラウザ機能がパーソナル・コンピュータばかりでなくゲーム機やテレビジョン受信機等にも搭載され、テレビジョン受信機からインターネット上のウエブサイトを閲覧できるようになっている。   In recent years, browser functions for accessing the Internet have been installed not only in personal computers but also in game consoles, television receivers, and the like, so that websites on the Internet can be browsed from television receivers.

パーソナル・コンピュータは一般に卓上に設置されているので、キーボードや、マウス等のポインティングデバイスを使用してウエブサイトに対しアクセスすることができる。しかしながら、ゲーム機やテレビジョン受信機は離れた場所から見ることが多いため、マウス等のポインティングデバイスを接続して閲覧操作することは難しく、リモートコントローラによる操作に頼らざるを得ない。   Since a personal computer is generally installed on a table, the website can be accessed using a pointing device such as a keyboard or a mouse. However, since game machines and television receivers are often viewed from a remote location, it is difficult to perform browsing operations by connecting a pointing device such as a mouse, and it is necessary to rely on operations by a remote controller.

しかし、テレビジョン受信機のディスプレイに電子番組案内(Electronic Program Guide:EPG)情報を表示した場合、番組ごとのウエブサイトへのリンクが多数表示される。また、ニュースサイト等のウエブページを表示させた場合にも、ニュースのヘッドラインや各ジャンルへのリンクが多数表示される。一方、リモートコントローラは、一般に数字キーや機能キーの他には十字型のカーソルキーしか備えていない。このため、リモートコントローラを用いて上記多数のリンクを選択的に操作することは、非常に面倒である。   However, when electronic program guide (EPG) information is displayed on the display of the television receiver, many links to the website for each program are displayed. Also, when a web page such as a news site is displayed, a number of news headlines and links to each genre are displayed. On the other hand, a remote controller generally has only a cross-shaped cursor key in addition to numeric keys and function keys. For this reason, it is very troublesome to selectively operate the multiple links using a remote controller.

そこで、従来ではリンクごとに異なる向きの矢印タグを割り当てて表示し、この表示された矢印タグに従いリモートコントローラのカーソルキーを操作することで所望のリンクを選択操作できるようにする技術が提案されている(例えば、特許文献1を参照。)。
また、最近ではスマートフォンのようなタッチパネルつきのパーソナルデバイスが急速に普及しており、この種のデバイスをテレビジョン受信機のリモートコントローラとして使用することが検討されている。さらに、いわゆるテレビ電話サービスのためにテレビジョン受信機に備え付けられるカメラも登場しつつあり、カメラの画像認識を用いたリモコン操作も増えてきている。
Therefore, conventionally, a technique has been proposed in which an arrow tag having a different direction is assigned to each link and displayed, and a desired link can be selected and operated by operating the cursor key of the remote controller according to the displayed arrow tag. (For example, refer to Patent Document 1).
Recently, personal devices with touch panels such as smartphones are rapidly spreading, and the use of this type of device as a remote controller for a television receiver is being studied. In addition, cameras that are installed in television receivers for so-called videophone services are also appearing, and remote control operations using image recognition of cameras are increasing.

特開2008−217228号公報JP 2008-217228 A

ところが、ウエブページ上に存在するリンクの数は80程度もあり、一方矢印タグは上下左右を示す4種類しかない。このため、上記多数のリンクを個別に識別するには上記4種類の矢印タグを3種類もしくは4種類組み合わせなければならない。このような場合、ユーザは所望のリンクを1つ選択するためにその都度カーソルキーを3回もしくは4回操作しなければならず、操作数が多くなり1つのリンクを選択するまでに多くの手間と時間を要する。また、タッチパネルでこの上下左右の方向キーを入力するのは従来のメカニカルなボタンを押すよりも操作が煩わしい。さらにカメラを用いた画像認識を用いた従来の入力方法では上下左右の入力を行うのも容易ではない。   However, there are as many as 80 links on a web page, while there are only four types of arrow tags indicating up, down, left, and right. For this reason, in order to individually identify the large number of links, the four types of arrow tags must be combined in three or four types. In such a case, the user has to operate the cursor key three or four times each time in order to select one desired link, and the number of operations increases, and much effort is required before selecting one link. And takes time. Also, inputting the up / down / left / right direction keys on the touch panel is more troublesome than pressing a conventional mechanical button. Furthermore, it is not easy to perform vertical and horizontal input by a conventional input method using image recognition using a camera.

この発明は上記事情に着目してなされたもので、その目的とするところは、ウエブページ等のリンクをジェスチャを用いて少ない回数で選択操作できるようにし、しかもジェスチャによる操作を誤ることなく簡単かつ正確に行えるようにして操作性の向上を図った情報入力装置を提供することにある。   The present invention has been made by paying attention to the above circumstances, and the object of the present invention is to make it possible to select and operate a link such as a web page with a small number of times using a gesture, and to easily and easily perform an operation by the gesture. It is an object of the present invention to provide an information input device that can be accurately performed to improve operability.

上記目的を達成するためにこの発明の1つの観点は、ディスプレイに表示された情報ページに設定された、他の情報ページにアクセスするためのリンク情報に対し、一筆書きにより描かれる二次元図形の種類と当該二次元図形の終始点の位置とを組み合わせることで表現される固有の図形タグ情報を割り当て、この図形タグ情報を前記リンク情報に関連付けた状態で前記情報ページに表示させる。そして、この状態で一筆書きにより描画された二次元図形データを取り込んで、その描画軌跡と終始点の座標から前記描画された二次元図形の種類と当該二次元図形の終始点の位置関係を判定し、この判定された二次元図形の種類と当該二次元図形の終始点の位置関係を前記情報ページに表示中の図形タグ情報と照合し、両者が一致した場合に当該表示中の図形タグ情報が関連付けられたリンク情報を選択するようにしたものである。 In order to achieve the above object, one aspect of the present invention is that a two-dimensional figure drawn by a single stroke is set for link information for accessing another information page set in an information page displayed on a display. Unique graphic tag information expressed by combining the type and the position of the start point of the two-dimensional graphic is assigned, and this graphic tag information is displayed on the information page in a state associated with the link information. In this state, the two-dimensional graphic data drawn by a single stroke is taken and the positional relationship between the type of the drawn two-dimensional graphic and the starting point of the two-dimensional graphic is determined from the drawing locus and the coordinates of the starting point. If the two-dimensional figure type and the positional relationship between the start point of the two-dimensional figure are compared with the figure tag information being displayed on the information page, and the two match, the figure tag information being displayed The link information associated with is selected.

したがって、少数の二次元図形の組み合わせにより多数の図形タグ情報を表現することができ、この図形タグ情報をリンク情報に個別に割り当てることで、情報ページ上に多数のリンク情報が設定されている場合でも、ユーザは少数の図形描画回数により所望のリンク情報を選択することが可能となる。このため、例えば上下左右の4種類の矢印を組み合わせた矢印タグを使用する場合に比べ、リンク情報を選択する際の操作回数を減らして操作性を高めることが可能となる。
しかも、情報ページ上にはリンク情報に関連付けられて図形タグ情報が表示される。このため、ユーザは所望のリンク情報に関連付けられた図形タグ情報に従い、図形を誤ることなく常に簡単かつ正確に描画入力することができる。
Therefore, a large number of graphic tag information can be expressed by a combination of a small number of two-dimensional graphics, and a large number of link information is set on the information page by individually assigning this graphic tag information to the link information. However, the user can select desired link information with a small number of graphic drawing times. For this reason, it is possible to improve the operability by reducing the number of operations when selecting link information, compared to, for example, using an arrow tag that combines four types of arrows, that is, up, down, left, and right.
Moreover, graphic tag information is displayed on the information page in association with the link information. For this reason, the user can always draw and input a figure easily and accurately without making a mistake according to the figure tag information associated with the desired link information.

また、この発明の1つの観点は以下のような態様を備えることを特徴とする。
第1の態様は、タグ情報を表示させる際に、複数のリンク情報のうちユーザにより選択される可能性が高いリンク情報に対し、1個の二次元図形により表現される図形タグ情報を優先的に割り当てるものである。
第2の態様は、タグ情報を表示させる際に、図形数が同数の図形タグ情報が複数ある場合には、これらの図形タグ情報のうち楕円や円形のような丸みのある二次元図形を用いた図形タグ情報を、前記割り当て対象のリンク情報に対し優先的に割り当てるものである。
第3の態様は、タグ情報を表示させる際に多角形のような角のある図形を用いた図形タグ情報の場合に、角の数が少ない図形を前記割り当て対象のリンク情報に対し優先的に割り当てるものである。
第4の態様は、タグ情報を表示させる際に、複数の二次元図形の組み合わせにより表現される図形タグ情報が複数ある場合には、これらの図形タグ情報のうち複数の図形の配置関係が点対称をなす図形タグ情報を、前記割り当て対象のリンクに対し優先的に割り当てるものである。
これらの態様を選択的に採用することで、リンク情報のうち選択される可能性の高いリンク情報の選択操作を、より一層簡単かつ短時間に行うことが可能となる。
One aspect of the present invention is characterized by comprising the following aspects.
In the first aspect, when tag information is displayed, graphic tag information expressed by one two-dimensional graphic is preferentially given to link information that is highly likely to be selected by the user among a plurality of pieces of link information. To be assigned.
In the second mode, when tag information is displayed and there are a plurality of pieces of graphic tag information having the same number of figures, a rounded two-dimensional figure such as an ellipse or a circle is used. The assigned graphic tag information is preferentially assigned to the link information to be assigned.
In the third aspect, in the case of graphic tag information using a graphic with corners such as a polygon when displaying tag information, a graphic with a small number of corners is given priority over the link information to be allocated. Assign.
In the fourth aspect, when there is a plurality of graphic tag information expressed by a combination of a plurality of two-dimensional graphics when displaying the tag information, the positional relationship of the plurality of graphics among these graphic tag information is pointed out. Symmetric graphic tag information is preferentially assigned to the assignment target link.
By selectively adopting these modes, it is possible to perform a selection operation of link information that is highly likely to be selected from link information in a simpler and shorter time.

第5の態様は、図形タグの種類を表す情報と、リンク先のアドレスを表す情報と、図形タグ情報の表示位置を指定する情報と、表示色を指定する情報とを相互に関連付けるものである。このようにすると、図形タグ情報の表示位置及び表示色を制御することが可能となり、これにより図形タグ情報を常に最適な状態で表示することができる。   In the fifth aspect, information indicating the type of graphic tag, information indicating the link destination address, information specifying the display position of the graphic tag information, and information specifying the display color are associated with each other. . In this way, the display position and display color of the graphic tag information can be controlled, so that the graphic tag information can always be displayed in an optimal state.

第6の態様は、ユーザがリンク情報を選択する意志を示す操作を行ったか否かを判定し、当該操作が行われた場合にのみ前記図形タグ情報を前記情報ページに表示させるものである。このようにすると、図形タグ情報は、ユーザがリンク情報を選択する意志を示した場合にのみ表示される。このため、ユーザが表示画面のスクロール操作等のその他の操作を行った場合には図形タグ情報が表示されないようになり、これにより情報ページの表示画面が図形タグ情報により混雑して見難くならないようにすることができる。   In the sixth aspect, it is determined whether or not the user has performed an operation indicating the intention to select link information, and the graphic tag information is displayed on the information page only when the operation is performed. In this way, the graphic tag information is displayed only when the user indicates an intention to select link information. For this reason, when the user performs other operations such as a scroll operation of the display screen, the graphic tag information is not displayed, so that the display screen of the information page is not congested with the graphic tag information. Can be.

すなわちこの発明によれば、ウエブページ等のリンクをジェスチャを用いて少ない回数で選択操作できるようになり、しかもジェスチャによる操作を誤ることなく簡単かつ正確に行えるようにして操作性の向上を図った情報入力装置を提供することができる。   That is, according to the present invention, a link such as a web page can be selected and operated with a small number of times using a gesture, and the operability is improved by making it possible to easily and accurately perform the operation using the gesture. An information input device can be provided.

この発明の一実施形態に係わる情報入力装置のシステム構成を示す概略構成図。1 is a schematic configuration diagram showing a system configuration of an information input device according to an embodiment of the present invention. 図1に情報入力装置として示したテレビジョン受信機の機能構成を示すブロック図。The block diagram which shows the function structure of the television receiver shown as an information input device in FIG. 図2に示したテレビジョン受信機の全体の処理手順と処理内容を示すフローチャート。3 is a flowchart showing an overall processing procedure and processing contents of the television receiver shown in FIG. 2. 図3に示した全体の処理手順のうち信号受信処理の手順と処理内容を示すフローチャート。The flowchart which shows the procedure and content of a signal reception process among the whole process procedures shown in FIG. 図3に示した全体の処理手順のうちジェスチャ認識処理の手順と処理内容を示すフローチャート。The flowchart which shows the procedure and process content of gesture recognition process among the whole process procedures shown in FIG. 図3に示した全体の処理手順のうち表示画像制御処理の手順と処理内容を示すフローチャート。The flowchart which shows the procedure and process content of a display image control process among the whole process procedures shown in FIG. 図6に示した表示画像制御処理のうち、表示画像決定処理におけるUFT−リンク対応表処理及びジェスチェ入力対応処理の処理手順と処理内容を示すフローチャート。7 is a flowchart showing the processing procedure and processing contents of a UFT-link correspondence table process and a gesture input correspondence process in the display image determination process in the display image control process shown in FIG. 6. 図6に示した表示画像制御処理のうち、UFT情報表示判断処理を含む表示画像更新処理の処理手順と処理内容を示すフローチャート。7 is a flowchart showing a processing procedure and processing contents of a display image update process including a UFT information display determination process in the display image control process shown in FIG. 6. 図5に示したジェスチャ認識処理において、図形の始点と終点の一致を検出するための第1の方法を説明するための図。The figure for demonstrating the 1st method for detecting the coincidence of the start point and end point of a figure in the gesture recognition process shown in FIG. 図5に示したジェスチャ認識処理において、図形の始点と終点の一致を検出するための第2の方法を説明するための図。The figure for demonstrating the 2nd method for detecting the coincidence of the start point and end point of a figure in the gesture recognition process shown in FIG. 図5に示したジェスチャ認識処理において、方向キー検出処理を説明するための図。The figure for demonstrating a direction key detection process in the gesture recognition process shown in FIG. 図5に示したジェスチャ認識処理において、方向キー検出処理を説明するための図。The figure for demonstrating a direction key detection process in the gesture recognition process shown in FIG. 図7に示した表示画像決定処理において用いられるUFTの種類の一例を示す図。The figure which shows an example of the kind of UFT used in the display image determination process shown in FIG. 図7に示した表示画像決定処理において用いられるEUOTの種類の一例を示す図。The figure which shows an example of the kind of EUOT used in the display image determination process shown in FIG. 図7に示した表示画像決定処理において用いられるUFT−リンク対応表記憶部の初期状態を示す図。The figure which shows the initial state of the UFT-link corresponding table memory | storage part used in the display image determination process shown in FIG. 図7に示した表示画像決定処理において用いられるUFT−リンク対応表記憶部に情報を記憶させた状態を示す図。The figure which shows the state which memorize | stored the information in the UFT-link corresponding table memory | storage part used in the display image determination process shown in FIG. ディスプレイにUFTが表示された状態の一例を示す図。The figure which shows an example of the state by which UFT was displayed on the display. ディスプレイに表示されたUFTの1つが選択操作された状態を示す図。The figure which shows the state by which one of UFT displayed on the display was selected.

以下、図面を参照してこの発明に係わる実施形態を説明する。
この発明の一実施形態に係わる情報入力装置のシステム構成を示す概略構成図である。このシステムは、リモートコントロール装置(以後リモコン装置と略称する)1から送信されるリモコン信号をテレビジョン受信機2により受信するものとなっている。通信回線3としては例えば赤外線又は無線が用いられる。無線の場合の通信方式には、Bluetooth(登録商標)等の微弱又は小電力タイプの近距離無線データ通信方式が使用可能である。
Embodiments according to the present invention will be described below with reference to the drawings.
It is a schematic block diagram which shows the system configuration | structure of the information input device concerning one Embodiment of this invention. In this system, a television receiver 2 receives a remote control signal transmitted from a remote control device (hereinafter abbreviated as a remote control device) 1. For example, infrared or wireless is used as the communication line 3. As a communication method in the case of wireless, a short-range wireless data communication method of weak or low power type such as Bluetooth (registered trademark) can be used.

リモコン装置1は、入力デバイスとして静電容量型のタッチパネルを使用した端末からなる。そして、このタッチパネルの静電分布のデータをリアルタイムにリモコン信号としてテレビジョン受信機2へ送信する.   The remote control device 1 is composed of a terminal using a capacitive touch panel as an input device. Then, the electrostatic distribution data of the touch panel is transmitted to the television receiver 2 as a remote control signal in real time.

ところで、テレビジョン受信機2は以下のように構成される。図2はその機能構成を示すブロック図である。
すなわち、テレビジョン受信機2は、リモコン装置1から送信されたリモコン信号を受信する信号受信ユニット10と、データベース20と、ジェスチャ認識ユニット30と、表示画像制御ユニット40とを備えている。
By the way, the television receiver 2 is configured as follows. FIG. 2 is a block diagram showing the functional configuration.
That is, the television receiver 2 includes a signal receiving unit 10 that receives a remote control signal transmitted from the remote control device 1, a database 20, a gesture recognition unit 30, and a display image control unit 40.

信号受信ユニット10は、リモコン装置1から送信された赤外線又は無線からなるリモコン信号を受信する信号受信部12と、信号受信判断部11とを備えている。信号受信判断部11は、上記信号受信部12により受信されたリモコン信号をもとにタッチパネルに対する指の接触の有無を判断し、接触していると判断した期間における静電分布データをデータベース20内の信号蓄積部21に記憶させる処理を行う。
データベース20は、信号蓄積部21と、ジェスチャコマンド変換テーブル部22と、表示画像データ蓄積部23と、図形パターン記憶部24を備え、さらにUFT−リンク対応表記憶部25を備えている。
The signal receiving unit 10 includes a signal receiving unit 12 that receives an infrared or wireless remote control signal transmitted from the remote control device 1 and a signal reception determining unit 11. The signal reception determination unit 11 determines the presence / absence of finger contact with the touch panel based on the remote control signal received by the signal reception unit 12 and stores electrostatic distribution data in the database 20 in the period determined to be in contact. The process which memorize | stores in the signal storage part 21 is performed.
The database 20 includes a signal storage unit 21, a gesture command conversion table unit 22, a display image data storage unit 23, and a graphic pattern storage unit 24, and further includes a UFT-link correspondence table storage unit 25.

信号蓄積部21は、上記信号受信ユニット10により受信されたリモコン信号の静電分布データを記憶するために用いられる。ジェスチャコマンド変換テーブル部22には、認識対象の複数の入力コマンドに対応付けて、当該入力コマンドが意味する表示処理内容を表す情報が予め記憶されている。表示画像データ蓄積部23には、上記入力コマンドが意味する表示処理内容に応じた画像を表示するために必要な様々な表示画像データが記憶される。図形パターン記憶部24には、認識対象となる複数の図形形状の基本パターンが記憶される。   The signal storage unit 21 is used for storing electrostatic distribution data of the remote control signal received by the signal receiving unit 10. The gesture command conversion table unit 22 stores in advance information representing the display processing content that the input command means in association with a plurality of input commands to be recognized. The display image data storage unit 23 stores various display image data necessary for displaying an image corresponding to the display processing content meaning the input command. The graphic pattern storage unit 24 stores basic patterns of a plurality of graphic shapes to be recognized.

UFT−リンク対応表記憶部25は、ウエブページに表示される複数のリンク情報と、これらのリンク情報をジェスチャにより選択する際にその操作を支援するために用いるUFT(Unicursal Figure Tag)とを関連付けて記憶する。UFTとは、一筆書きで描ける図形の種類と、当該図形の始点と終点とが一致する点(以後終始点と呼ぶ)の位置とを組み合わせることで表現されるタグ情報である。UFT−リンク対応表記憶部25には、具体的には図16に例示するように、UFTの種類を表す情報に関連付けて、リンク先を表す情報と、UFTの表示位置を表す情報と、表示色を表す情報が記憶される。   The UFT-link correspondence table storage unit 25 associates a plurality of link information displayed on the web page with a UFT (Unicursal Figure Tag) used to support the operation when selecting the link information by gesture. And remember. UFT is tag information expressed by combining the type of figure that can be drawn with a single stroke and the position of the point (hereinafter referred to as the end point) where the start point and end point of the figure match. Specifically, in the UFT-link correspondence table storage unit 25, as illustrated in FIG. 16, information indicating the link destination, information indicating the display position of the UFT, and display are associated with information indicating the type of UFT. Information representing the color is stored.

ジェスチャ認識ユニット30は、UGI入力処理部310と、フリック入力処理部320を備えている。UGI入力処理部310はジェスチャにより一筆書きで入力される図形を認識するためのインタフェース機能(UGI;(Unicursal Gesture Interface)を有するもので、終始点一致検出部311と、図形追跡部312と、図形判断部313と、図形位置判断部314を備えている。   The gesture recognition unit 30 includes a UGI input processing unit 310 and a flick input processing unit 320. The UGI input processing unit 310 has an interface function (UGI; (Unicursal Gesture Interface)) for recognizing a graphic input by a stroke with a gesture. The UGI input processing unit 310, a graphic tracking unit 312, A determination unit 313 and a figure position determination unit 314 are provided.

終始点一致検出部311は、上記信号蓄積部21に記憶された静電分布データをもとに、ユーザがリモコン装置1のタッチパネル上で指を移動させることにより描画した図形データの終始点、つまり座標値が一致する2つの点を検出する機能を有する。   The end point coincidence detection unit 311 is based on the electrostatic distribution data stored in the signal storage unit 21, that is, the end point of the graphic data drawn by the user moving his / her finger on the touch panel of the remote control device 1, that is, It has a function of detecting two points whose coordinate values match.

図形追跡部312は、上記終始点一致検出部311により終始点として検出された2点、つまり始点と終点とを結ぶ図形の軌跡を、上記信号蓄積部21に記憶された静電分布のデータをもとに検出する機能を有する。   The figure tracking unit 312 uses the electrostatic distribution data stored in the signal storage unit 21 as the trace of the figure connecting the two points detected as the start points by the start point match detection unit 311, that is, the start point and the end point. It has a function to detect originally.

図形位置判断部314は、上記終始点一致検出部311により検出された終始点を中心にタッチパネルの上下左右各方向に4つの方向領域を設定し、上記図形追跡部312により検出された図形の軌跡の描画位置が上記4つの方向領域のいずれに含まれるかを判定する。   The figure position determination unit 314 sets four direction areas in the vertical and horizontal directions of the touch panel around the start point detected by the start point match detection unit 311, and the trace of the figure detected by the figure tracking unit 312. It is determined which of the four directional areas is included in the drawing position.

図形判断部313は、上記データベース20の図形パターン記憶部24に記憶された認識対象となる複数の図形形状の基本パターンを参照し、上記図形追跡部312により検出された軌跡がどの図形に対応するかを判定する。この判定処理にはパターンマッチングが用いられる。そして、上記判定された図形の形状の種類と、上記図形位置判断部314により判断された図形の描画方向をもとに、上記ジェスチャコマンド変換テーブル22から対応する入力コマンドを読み出す処理を行う。   The graphic determination unit 313 refers to the basic patterns of a plurality of graphic shapes to be recognized stored in the graphic pattern storage unit 24 of the database 20 and corresponds to which graphic the locus detected by the graphic tracking unit 312 corresponds. Determine whether. For this determination process, pattern matching is used. Based on the determined shape type of the figure and the drawing direction of the figure determined by the figure position determination unit 314, a process of reading a corresponding input command from the gesture command conversion table 22 is performed.

フリック入力処理部320は、ディスプレイに表示された情報をスクロールするための入力操作の形態を認識するもので、フリック入力検出部321と、フリック方向判定部322を備えている。フリック入力とは指をタッチパネルに触れた状態でスライドさせてから指をタッチパネルから離すことによって、表示情報のスクロール方向を入力する方式である。   The flick input processing unit 320 recognizes a form of an input operation for scrolling information displayed on the display, and includes a flick input detection unit 321 and a flick direction determination unit 322. Flick input is a method of inputting a scroll direction of display information by sliding a finger while touching the touch panel and then releasing the finger from the touch panel.

フリック入力検出部321は、タッチパネルに指がタッチされた場合の連続タッチ時間を検出し、この連続タッチ時間が予め定められた時間内のとき、このときのタッチ操作をフリック入力操作であると認識する。フリック方向判定部322は、上記連続タッチされているときの位置座標の変化を検出し、この検出された位置座標の変化の方向からフリック入力の方向を判定する。具体的には、タッチ位置が最初のタッチ位置座標から上下左右のいずれかの位置座標に変化した場合に、このときの操作をフリック入力操作と判定し、そのタッチ位置のスライド方向をスクロール方向として認識する。   The flick input detection unit 321 detects a continuous touch time when a finger is touched on the touch panel, and recognizes that the touch operation at this time is a flick input operation when the continuous touch time is within a predetermined time. To do. The flick direction determination unit 322 detects a change in position coordinates when the touch is continuously performed, and determines a flick input direction from the detected change direction of the position coordinates. Specifically, when the touch position changes from the initial touch position coordinate to any one of the upper, lower, left, and right position coordinates, the operation at this time is determined as a flick input operation, and the sliding direction of the touch position is set as the scroll direction. recognize.

表示画像制御ユニット40は、表示画像決定部410と、表示画像更新部420と、表示画像出力部430とを備えている。表示画像決定部410は、上記ジェスチャ認識ユニット30により生成された入力コマンドに応じてディスプレイの表示画像の内容を決定するもので、UFT−リンク対応表処理部411と、ジェスチャ入力対応処理部412を有している。   The display image control unit 40 includes a display image determination unit 410, a display image update unit 420, and a display image output unit 430. The display image determination unit 410 determines the content of the display image on the display according to the input command generated by the gesture recognition unit 30. The display image determination unit 410 includes a UFT-link correspondence table processing unit 411 and a gesture input correspondence processing unit 412. Have.

UFT−リンク対応表処理部411は、ディスプレイの表示画像中のリンクにUFTを関連付けるか否かを判断し、UFT−リンク対応表記憶部25のデータを更新する処理を行う。ジェスチャ入力対応処理部412は、ジェスチャ認識ユニット30により検出されたUGIによる図形入力操作及びフリック入力操作に応じてUFT−リンク対応表記憶部25のデータを更新し、かつ上記図形入力操作により選択されたリンクに対応するUFTの表示変更処理や、上記フリック入力操作に応じたスクロール処理を行う。   The UFT-link correspondence table processing unit 411 determines whether or not to associate a UFT with a link in the display image on the display, and performs a process of updating data in the UFT-link correspondence table storage unit 25. The gesture input correspondence processing unit 412 updates the data in the UFT-link correspondence table storage unit 25 according to the graphic input operation and flick input operation by the UGI detected by the gesture recognition unit 30, and is selected by the graphic input operation. A UFT display change process corresponding to the link and a scroll process corresponding to the flick input operation are performed.

表示画像更新部420は、UFT情報表示判断部421を有している。UFT情報表示判断部421は、上記図形位置判断部314により生成された入力コマンド、又は上記図形判断部313により更新された入力コマンドをもとに、表示画像データ蓄積部23から当該入力コマンドが意味するUFTの表示処理内容を表す情報を読み出し、この読み出されたUFT表示情報をもとに表示画像データを更新する処理を行う。
表示画像出力部430は、上記UFT情報表示判断部421により更新されたUFTの表示画像データを、ディスプレイに出力して表示させる処理を行う。
The display image update unit 420 includes a UFT information display determination unit 421. Based on the input command generated by the graphic position determination unit 314 or the input command updated by the graphic determination unit 313, the UFT information display determination unit 421 has the meaning of the input command from the display image data storage unit 23. The information indicating the display processing content of the UFT to be read is read, and the display image data is updated based on the read UFT display information.
The display image output unit 430 performs processing for outputting and displaying the display image data of the UFT updated by the UFT information display determination unit 421 on the display.

なお、以上述べた受信信号判断部11、ジェスチャ認識ユニット30及び表示画像制御ユニット40が備える各機能は、データベース20内のプログラムメモリ(図示せず)に格納されたアプリケーション・プログラムを、図示しない中央処理ユニット(CPU)に実行させることにより実現される。   Note that the functions of the received signal determination unit 11, the gesture recognition unit 30, and the display image control unit 40 described above are as follows. An application program stored in a program memory (not shown) in the database 20 is stored in the center (not shown). This is realized by causing a processing unit (CPU) to execute.

次に、以上のように構成されたテレビジョン受信機2による、ジェスチャを用いた入力情報の認識動作を説明する。
なお、ここではテレビジョン受信機2のディスプレイにニュースサイト等のウエブページを表示させ、このウエブページに表示されたリンクをリモコン装置1から選択操作する場合を例にとって説明する。
Next, the operation of recognizing input information using gestures by the television receiver 2 configured as described above will be described.
Here, a case where a web page such as a news site is displayed on the display of the television receiver 2 and a link displayed on the web page is selected and operated from the remote control device 1 will be described as an example.

リンクの選択処理は、概略次のような手順で実行される。
(1) 表示中のリンクに対応付けてUFTを表示させる。
(2) 選択したいリンクに対応付けて表示されているUFTに従い、リモコン装置1のタッチパネルにおいて当該UFTに対応する図形が描画入力されたとき、この描画入力された図形の種類と描画方向をもとに入力コマンドを生成する。
(3) 上記入力コマンドをもとに、どのリンクが選択されたかを判定する。
The link selection process is generally performed in the following procedure.
(1) Display UFT in association with the displayed link.
(2) When a figure corresponding to the UFT is drawn and input on the touch panel of the remote control device 1 in accordance with the UFT displayed in association with the link to be selected, based on the type and drawing direction of the drawn figure. Generate input commands for.
(3) Determine which link is selected based on the above input command.

以下、以上の処理を処理手順に従い説明する。図3は、その全体の処理手順と処理内容を示すフローチャートである。
リモコン装置1において、ユーザがタッチパネルにタッチ操作すると、その静電分布を表す情報がリモコン信号としてリモコン装置1から通信回線3を介してテレビジョン受信機2へ送られる。
Hereinafter, the above processing will be described according to the processing procedure. FIG. 3 is a flowchart showing the overall processing procedure and processing contents.
In the remote control device 1, when the user performs a touch operation on the touch panel, information representing the electrostatic distribution is sent from the remote control device 1 to the television receiver 2 through the communication line 3 as a remote control signal.

テレビジョン受信機2は、先ずステップS11において、信号受信ユニット10の信号受信部12及び信号受信判断部11が上記リモコン信号を受信する処理を行い、ステップS12において、上記受信されたリモコン信号により表される静電分布データをデータベース20内の信号蓄積部21に記憶させる。   First, in step S11, the television receiver 2 performs a process in which the signal receiving unit 12 and the signal reception determining unit 11 of the signal receiving unit 10 receive the remote control signal. In step S12, the television receiver 2 is represented by the received remote control signal. The electrostatic distribution data to be stored is stored in the signal storage unit 21 in the database 20.

次にステップS13において、ジェスチャ認識ユニット30が、上記信号蓄積部21に記憶された静電分布データをもとに、ユーザの操作がタッチパネル上でジェスチャにより一筆書きで図形を描いたUGI入力操作であるのか、又はディスプレイに表示された情報をスクロールするためのフリック入力操作であるのかを判定する。そして、UGI入力操作であれば、入力された図形の種類と描画方向を判定して対応する入力コマンドを出力する。これに対しフリック入力操作であれば、タッチ操作のスライド方向からスクロール方向を判定し、そのスクロールコマンドを出力する。   Next, in step S <b> 13, the gesture recognition unit 30 is a UGI input operation in which a user's operation draws a figure with a single stroke on the touch panel based on the electrostatic distribution data stored in the signal storage unit 21. It is determined whether there is a flick input operation for scrolling the information displayed on the display. If it is a UGI input operation, the type of the input figure and the drawing direction are determined and a corresponding input command is output. On the other hand, in the case of a flick input operation, the scroll direction is determined from the slide direction of the touch operation, and the scroll command is output.

最後にステップS14において、表示画像制御ユニット40が、上記ステップS13により生成された入力コマンドが意味する表示処理内容を表す情報を検索し、この情報に応じてウエブページの表示データにUTFを表示させるEPG情報に対する番組選択位置、つまりカーソルの位置を変化させるように表示画像データを更新する。   Finally, in step S14, the display image control unit 40 searches for information representing the display processing content that is meant by the input command generated in step S13, and displays the UTF on the display data of the web page according to this information. The display image data is updated so as to change the program selection position with respect to the EPG information, that is, the position of the cursor.

以下、上記各ステップS11〜S14における処理内容をより詳しく説明する。
(1)信号受信処理
図4はこの信号受信処理の手順と処理内容を示すフローチャートである。
信号受信ユニット10では、リモコン装置1から送信されたリモコン信号を信号受信部12が受信したことをステップS21で検出すると、先ずステップS22において信号受信判断部11が、上記受信されたリモコン信号をもとにユーザの指がタッチパネルに接触しているか否かを判定する。この判定の結果、接触していなければ、ステップS23により信号蓄積部21から静電分布データを消去する。一方、指がタッチパネルに触れ続けたとき、この連続する接触動作により描かれた図形を表す静電分布データを、ステップS24によりデータベース20の信号蓄積部21へ出力して蓄積させる。したがって、信号蓄積部21にはリモコン装置1のタッチパネル上に描かれた図形を表すデータが記憶される。
Hereafter, the processing content in each said step S11-S14 is demonstrated in detail.
(1) Signal reception processing
FIG. 4 is a flowchart showing the procedure and details of the signal reception process.
In the signal receiving unit 10, when it is detected in step S 21 that the signal receiving unit 12 has received the remote control signal transmitted from the remote control device 1, first, in step S 22, the signal reception determining unit 11 stores the received remote control signal. Whether or not the user's finger is in contact with the touch panel is determined. If the result of this determination is that there is no contact, the electrostatic distribution data is erased from the signal storage unit 21 in step S23. On the other hand, when the finger continues to touch the touch panel, the electrostatic distribution data representing the graphic drawn by the continuous contact operation is output to the signal storage unit 21 of the database 20 and stored in step S24. Therefore, data representing a figure drawn on the touch panel of the remote control device 1 is stored in the signal storage unit 21.

(2)ジェスチャ認識処理
図5はこのジェスチャ認識処理の手順と処理内容を示すフローチャートである。なお、同図において、ステップS30はUGI入力処理を、ステップS36はフリック入力処理をそれぞれ示す。
(2) Gesture Recognition Processing FIG. 5 is a flowchart showing the procedure and processing contents of this gesture recognition processing. In the figure, step S30 indicates a UGI input process, and step S36 indicates a flick input process.

ジェスチャ認識ユニット30は、先ずステップS31において終始点一致検出処理を以下のように実行する。すなわち、終始点一致検出部31が、信号蓄積部21から静電分布データを読み出し、この読み出した静電分布データをもとに、ユーザがリモコン装置1のタッチパネル上で指を移動させることにより描画した図形データの終始点、つまり座標値が一致する2つの点を検出する。   The gesture recognition unit 30 first executes the end point coincidence detection process in step S31 as follows. That is, the start point coincidence detection unit 31 reads out the electrostatic distribution data from the signal storage unit 21 and draws by moving the finger on the touch panel of the remote control device 1 based on the read out electrostatic distribution data. The end point of the graphic data, that is, two points having the same coordinate value are detected.

このとき、終始点の検出手法には例えば次の2つの手法が考えられる。第1の検出手法は、図9(a)〜(c)に示すように、ユーザがタッチパネル上で最初に指を触れた点Aから図形Bを描き始めて上記点Aに再度触れたとき、この点Aを終始点として検出するものである。第2の検出手法は、図10(a)〜(c)に示すように、ユーザがタッチパネル上で指を動かして図形を描いた場合に、その軌跡を追跡して当該軌跡が交差する点を終始点Aとして検出するものである。   At this time, for example, the following two methods can be considered as the starting point detection method. As shown in FIGS. 9A to 9C, the first detection method is such that when the user starts drawing the figure B from the point A where the user first touched the finger on the touch panel and touches the point A again, The point A is detected as the starting point. As shown in FIGS. 10A to 10C, the second detection method is such that when a user draws a figure by moving a finger on the touch panel, the locus is traced and the locus intersects. This is detected as the starting point A.

ジェスチャ認識ユニット30は、上記終始点Aが検出されると、ユーザがタッチパネル上で描画した図形はリンク選択操作を表す図形としての条件を満たすと判断し、ステップS32における図形追跡処理に移行する。これに対し終始点Aが検出されなかった場合には、何も処理せず、検出されない状態で指を離すと上記描画された図形はリンク選択操作を表す図形としての条件を満たさないと判断し、フリック入力処理S36に移行する。   When the end point A is detected, the gesture recognition unit 30 determines that the graphic drawn by the user on the touch panel satisfies the condition as a graphic representing the link selection operation, and proceeds to the graphic tracking process in step S32. On the other hand, if the starting point A is not detected, no processing is performed, and if the finger is released without being detected, it is determined that the drawn figure does not satisfy the condition as a figure representing the link selection operation. Then, the process proceeds to the flick input process S36.

フリック入力処理S36では、先ずステップS37においてタッチパネルに指がタッチされてからの連続タッチ時間が予め定められた時間内であるか否かが判定され、連続タッチ時間が予め定められた時間内の場合に、このときのタッチ操作はフリック入力操作であると判定される。続いてステップS38において、上記連続タッチされているときの位置座標の変化の方向からフリック入力の方向がスクロール方向として判定される。
なお、この判定処理を終了したのちジェスチャ認識ユニット30は、信号蓄積部21に記憶された上記判定対象の静電分布データを消去する。
In the flick input process S36, first, in step S37, it is determined whether or not the continuous touch time after the finger touches the touch panel is within a predetermined time, and the continuous touch time is within the predetermined time. In addition, it is determined that the touch operation at this time is a flick input operation. In step S38, the direction of flick input is determined as the scroll direction from the change direction of the position coordinates when the touch is continuously performed.
After completing this determination process, the gesture recognition unit 30 erases the determination target electrostatic distribution data stored in the signal storage unit 21.

さて、上記ステップS32に移行するとジェスチャ認識ユニット30は、図形追跡処理を以下のように実行する。すなわち、図形追跡部312により、上記終始点一致検出処理(ステップS31)により検出された終始点Aを構成する終点(時刻Te)から始点(時刻Ts)までの静電分布データを信号蓄積部21から読み出す。そして、この読み出した静電分布データをもとに、図形データの軌跡を追跡する処理を行う。   Now, if it transfers to said step S32, the gesture recognition unit 30 will perform a figure tracking process as follows. That is, the signal storage unit 21 stores the electrostatic distribution data from the end point (time Te) to the start point (time Ts) constituting the start point A detected by the end point match detection process (step S31) by the figure tracking unit 312. Read from. Then, based on the read electrostatic distribution data, processing for tracing the locus of the graphic data is performed.

図形データの軌跡を追跡する手段としては、例えば次のようなものが考えられる。すなわち、静電容量を用いたタッチパネルであれば、指が触れている点のその周辺に対する静電分布は凸型分布になる。したがって、この凸型分布の頂点を結ぶことで、描かれた図形データの軌跡を追跡することができる。   As means for tracking the trace of the graphic data, for example, the following can be considered. That is, in the case of a touch panel using electrostatic capacitance, the electrostatic distribution with respect to the periphery of the point touched by the finger is a convex distribution. Therefore, the locus of the drawn graphic data can be traced by connecting the vertices of the convex distribution.

上記図形データの軌跡が検出されると、ジェスチャ認識ユニット30は続いてステップS33において図形判断処理を実行する。すなわち、図形判断部313により、データベース20の図形パターン記憶部24から複数の基本図形パターンを順次読み出し、この読み出された基本図形パターンと上記図形追跡処理(ステップS32)により検出された図形の軌跡のパターンとをパターンマッチング処理により比較し、その類似度を検出する。そして、この検出された類似度がしきい値以上であって、かつ最も大きいものを選択する。そして、この選択された基本図形パターンを、上記タッチパネルに描かれた図形の形状の種類として認識する。   When the locus of the graphic data is detected, the gesture recognition unit 30 subsequently executes graphic determination processing in step S33. That is, a plurality of basic graphic patterns are sequentially read from the graphic pattern storage unit 24 of the database 20 by the graphic determination unit 313, and the read basic graphic pattern and the locus of the graphic detected by the graphic tracking process (step S32). Are compared by pattern matching processing, and the similarity is detected. Then, the highest similarity that is equal to or greater than the threshold value is selected. The selected basic graphic pattern is recognized as the shape type of the graphic drawn on the touch panel.

ジェスチャ認識ユニット30は、次にステップS34に移行して図形位置判断処理を実行する。すなわち、図形位置検出部314により、先ず上記終始点一致検出処理(ステップS31)により検出された終始点Aを中心に、図11に示すようにタッチパネルの入力領域を(a),(b)のように分割することにより上下左右各方向に4つの方向領域を設定する。そして、上記図形追跡処理(ステップS32)により検出された図形の軌跡の描画位置が上記4つの方向領域のいずれに含まれるかを判定する。この判定処理は、例えば描かれた図形の重心を求め、この重心と終始点Aが結ぶ直線の方向に図形の描画位置が存在するものと見なして、この直線の方向がいずれの方向領域の角度に含まれるかを判定することにより可能である。   Next, the gesture recognition unit 30 proceeds to step S34 and executes a graphic position determination process. That is, the graphic position detection unit 314 first sets the input area of the touch panel as shown in FIGS. 11A and 11B around the start point A detected by the end point match detection process (step S31) as shown in FIG. By dividing in this way, four direction areas are set in each of the upper, lower, left and right directions. Then, it is determined which of the four direction areas the drawing position of the locus of the figure detected by the figure tracking process (step S32) is included. For example, this determination processing obtains the center of gravity of the drawn figure, assumes that the drawing position of the figure exists in the direction of the straight line connecting the center of gravity and the start point A, and the direction of this straight line is the angle of any direction area. This is possible by determining whether it is included.

上記図形の描画位置が判定されると、ジェスチャ認識ユニット30は続いてステップS35において方向キー検出処理を実行し、上記図形位置判断処理(ステップS34)により判定された図形の描画位置を上下左右の4つの方向のいずれかに対応付けする。そして、この対応付けられた方向キーに対応する命令コマンドを生成する。   When the drawing position of the figure is determined, the gesture recognition unit 30 subsequently executes a direction key detection process in step S35, and the drawing position of the figure determined by the figure position determination process (step S34) is changed up, down, left, and right. Correspond to one of the four directions. Then, an instruction command corresponding to the associated direction key is generated.

例えば、図12(b)に示すように図形の描画位置が終始点Aに対し右方向領域に含まれる場合には右方向キーを示す入力コマンドが生成され、反対に図12(d)に示すように左方向領域に含まれる場合には左方向キーを示す入力コマンドが生成される。同様に、図12(a)に示すように図形の描画位置が終始点Aに対し上方向領域に含まれる場合には上方向キーを示す入力コマンドが生成され、反対に図12(c)に示すように下方向領域に含まれる場合には下方向キーを示す命令コマンドが生成される。   For example, as shown in FIG. 12B, when the drawing position of the figure is included in the right direction area with respect to the starting point A, an input command indicating the right direction key is generated, and conversely, as shown in FIG. Thus, if it is included in the left direction area, an input command indicating the left direction key is generated. Similarly, as shown in FIG. 12A, when the drawing position of the figure is included in the upward area with respect to the starting point A, an input command indicating an upward key is generated, and conversely in FIG. As shown, if it is included in the downward area, an instruction command indicating the downward key is generated.

(3)表示画像制御処理
上記ジェスチャ認識処理(ステップS13)が終了すると、続いて表示画像制御ユニット40が以下のように表示画像の更新処理を実行する。図6はその制御手順と制御内容を示すフローチャートである。
すなわち、先ずステップS41において表示画像決定部410が、上記ジェスチャ認識処理により生成された命令コマンドに対応する表示内容を決定する。続いて、ステップS42において表示画像更新部420が、上記図形位置判断処理(ステップS34)により生成された命令コマンドをもとに表示画面上の表示データを更新し、最後にステップS43において表示画像出力部430が、上記更新された表示データをディスプレイに表示する。
(3) Display Image Control Process When the gesture recognition process (step S13) is completed, the display image control unit 40 subsequently executes a display image update process as follows. FIG. 6 is a flowchart showing the control procedure and control contents.
That is, first in step S41, the display image determination unit 410 determines display contents corresponding to the command command generated by the gesture recognition process. Subsequently, in step S42, the display image update unit 420 updates the display data on the display screen based on the command command generated by the graphic position determination process (step S34), and finally, in step S43, the display image output is output. The unit 430 displays the updated display data on the display.

図7は、上記表示画像制御処理の処理手順と処理内容の具体例を示すフローチャートであり、図中S50はUFT−リンク対応表処理を、またS60はジェスチャ入力対応画面処理を示している。
表示画像決定部410のUFT−リンク対応表処理部411は、リモコン装置1のタッチパネルに指がタッチされたことが先に述べたジェスチァ認識部30で検出されたとき、ステップS41において指がタッチパネルに接触した状態がT秒連続したが否か否かを判定する。この判定の結果、指がタッチパネルにタッチされた状態がT秒未満であれば、ステップS52に移行し、ここでUFT−リンク対応表記憶部25を初期化する処理を実行する。
FIG. 7 is a flowchart showing a specific example of the processing procedure and processing contents of the display image control process. In FIG. 7, S50 shows UFT-link correspondence table processing, and S60 shows gesture input correspondence screen processing.
The UFT-link correspondence table processing unit 411 of the display image determining unit 410 detects that the finger is touched on the touch panel of the remote control device 1 by the gesture recognition unit 30 described above, and in step S41, the finger is applied to the touch panel. It is determined whether or not the contact state has continued for T seconds. As a result of this determination, if the state in which the finger is touched on the touch panel is less than T seconds, the process proceeds to step S52, where the process of initializing the UFT-link correspondence table storage unit 25 is executed.

すなわち、ユーザの指がタッチパネルに触れていないとき、もしくはタッチパネルにふれてもその時間長がT秒未満のときには、UFT−リンク対応表記憶部25のUFTに対応する情報は例えば図15に示すように“−”(無効)に初期化される。なお、上記判定時間Tは、表示画面のスクロール操作に用いられるフリック入力のための指のタッチ時間より長い時間に設定される。このようにすることで、フリック入力操作中にUFTが点滅表示されることを防ぐことができる。   That is, when the user's finger is not touching the touch panel, or when the time length is less than T seconds even if the user touches the touch panel, the information corresponding to the UFT in the UFT-link correspondence table storage unit 25 is as shown in FIG. To "-" (invalid). The determination time T is set to be longer than the finger touch time for flick input used for scrolling the display screen. By doing so, it is possible to prevent the UFT from blinking during the flick input operation.

一方、指がタッチパネルにタッチされた状態がT秒以上連続したとする。この場合UFT−リンク対応表処理部411は、ステップS53によりUFT−リンク対応表記憶部25が初期化された状態にあるか否かを判定する。この判定の結果、UFT−リンク対応表記憶部25が初期化された状態にあれば、UFT−リンク対応表処理部411はステップS54によりリンクとUFTとを関連付ける処理を実行する。   On the other hand, it is assumed that the state where the finger is touched on the touch panel continues for T seconds or more. In this case, the UFT-link correspondence table processing unit 411 determines whether or not the UFT-link correspondence table storage unit 25 is initialized in step S53. As a result of this determination, if the UFT-link correspondence table storage unit 25 is in an initialized state, the UFT-link correspondence table processing unit 411 executes processing for associating the link with the UFT in step S54.

このリンクとUFTとの関連付けは、以下のように行われる。すなわち、いま仮にUFTとして例えば図13(a)〜(l)に示すように12種類の図形パターンが用意されているものとする。なお、拡張用タグとして図14(a)〜(l)に示すようなExtended Unicursal Object Tag;EUOTを用意しておくことも可能である。   The association between the link and the UFT is performed as follows. That is, it is assumed that 12 types of graphic patterns are prepared as UFT as shown in FIGS. 13A to 13L, for example. It is also possible to prepare an Extended Unicursal Object Tag; EUOT as shown in FIGS.

UFT−リンク対応表処理部411は、ウエブページ上に表示されているリンクを順に選択し、この選択したリンクの1つ1つに対し適当なUFTを上記12種類のUFTの中から選択して割り当てる。なお、リンクの数が上記UFTの数(12種類)を超える場合には、上記12種類のUFTの中から2個を選択して組み合わせ、このUFTの組み合わせを上記リンクに割り当てる。そして、UFT−リンク対応表記憶部25において、上記選択されたUFT又はその組み合わせに対応付けて、上記リンクのリンク先を表すURL(Uniform Resource Locator)を記憶させる。さらに、上記選択したUFTの表示画面上の表示位置を表す座標情報と、表示色を表す情報をそれぞれ決定し、この決定した表示位置を表す座標情報及び表示色を表す情報を、上記選択したUFTに関連付けてUFT−リンク対応表記憶部25に記憶させる。図16はこのようにして関連付けの情報が記憶されたUFT−リンク対応表記憶部25の一例を示すものである。なお、図15は記憶前のUFT−リンク対応表記憶部25の状態を示す。   The UFT-link correspondence table processing unit 411 sequentially selects the links displayed on the web page, and selects an appropriate UFT for each of the selected links from the 12 types of UFTs. assign. When the number of links exceeds the number of UFTs (12 types), two of the 12 types of UFTs are selected and combined, and this combination of UFTs is assigned to the link. Then, the UFT-link correspondence table storage unit 25 stores a URL (Uniform Resource Locator) representing the link destination of the link in association with the selected UFT or a combination thereof. Further, the coordinate information indicating the display position of the selected UFT on the display screen and the information indicating the display color are respectively determined, and the coordinate information indicating the determined display position and the information indicating the display color are determined as the selected UFT. And stored in the UFT-link correspondence table storage unit 25. FIG. 16 shows an example of the UFT-link correspondence table storage unit 25 in which the association information is stored in this way. FIG. 15 shows the state of the UFT-link correspondence table storage unit 25 before storage.

ここで、上記各リンクに対するUFTの割り当て処理はランダムに行うのではなく、表示されているリンクの中で選択される可能性が高いものに、入力操作がし易いUFTを優先的に割り当てるようにする。その割当アルゴリズムには以下のものが考えられる。   Here, the UFT assignment process for each link is not performed at random, but a UFT that is easy to input is preferentially assigned to a link that is highly likely to be selected from the displayed links. To do. The following can be considered as the allocation algorithm.

第1のアルゴリズムは、UFTの集合を構成する複数のUFTを入力し易い順に並び替えておき、この状態で図形が1個により表されるUFTを、選択される可能性の高いリンクに対し優先的に割り当てるものである。   In the first algorithm, a plurality of UFTs constituting a set of UFTs are rearranged in order of input, and UFTs represented by one figure in this state are given priority over links that are likely to be selected. Is assigned.

第2のアルゴリズムは、同一数の図形で表現されるUFTの中では楕円や円形のような丸みのある円形に近い図形を用いたUFTを、選択される可能性が高いリンクに優先的に割り当てるものである。これは、楕円や円形のような丸みのある円形に近い図形のほうが滑らかに描けるためユーザのジェスチャ操作の負担が小さいからである。   The second algorithm preferentially assigns a UFT that uses a figure similar to a round shape such as an ellipse or a circle among UFTs represented by the same number of figures to a link that is likely to be selected. Is. This is because a figure close to a round shape such as an ellipse or a circle can be drawn more smoothly, so that the burden on the user's gesture operation is small.

第3のアルゴリズムは、多角形のような角のある図形に関しては角の数(頂点の数)が少ないものを選択される可能性の高いリンクに優先的に割り当てる。頂点の数が小さい図形ほど描きやすいからである。   The third algorithm preferentially assigns a graphic having a corner such as a polygon with a small number of corners (vertex number) to a link that is likely to be selected. This is because a figure with a smaller number of vertices is easier to draw.

第4のアルゴリズムは、複数の図形の組み合わせにより表現されるUFTの中では、点対称となる複数の図形の組み合わせを、選択される可能性の高いリンクに割り当てるものである。複数の図形を連続して一筆書きで描画する場合、各図形が点対称であれば終始点上の接線が同じであるため、ユーザは一連の図形をより円滑に描くことができ、負担が少ないからである。   In the fourth algorithm, in a UFT expressed by a combination of a plurality of figures, a combination of a plurality of figures that are point-symmetric is assigned to a link that is likely to be selected. When drawing multiple figures consecutively with a single stroke, if each figure is point-symmetric, the tangent line at the starting point is the same, so the user can draw a series of figures more smoothly and with less burden. Because.

なお、UFTの表示位置は関連付けられるリンクに近くかつ近くの他のリンクと重ならないような位置に設定される。また、表示色はすべて同一色に設定される。リンクの選択され易さを表す情報は、リンクに対する過去の選択履歴を保存しておくことにより、容易に得られる。   The UFT display position is set to a position that is close to the associated link and does not overlap other nearby links. The display colors are all set to the same color. Information indicating the ease of selection of a link can be easily obtained by storing a past selection history for the link.

上記表示画像決定部410による表示画像の決定を反映して、表示画像更新処理部420は以下のように表示画像データの更新処理を実行する。図8はその処理手順と処理内容を示すフローチャートであり、S70はUFT情報表示判断処理を示している。   Reflecting the determination of the display image by the display image determination unit 410, the display image update processing unit 420 executes display image data update processing as follows. FIG. 8 is a flowchart showing the processing procedure and processing contents, and S70 shows the UFT information display determination processing.

すなわち、表示画像更新処理部420は、UFT情報表示判断部421により、先ずステップS71において上記UFT−リンク対応表記憶部25が初期化された状態であるか否か判定する。この判定の結果、UFT−リンク対応表記憶部25に先に述べたように慣例付け情報が記憶されていれば、ステップS73によりこの関連付け情報をUFT−リンク対応表記憶部25から読み出し、この読み出された関連付け情報に基づいてウエブページ上にその各リンクに対応付けてUFTを表示させる。図17はその表示例を示すもので、この例ではディスプレイに表示中の各リンクのうち、リンクC、リンクD及びリンクEにそれぞれUFTが表示された場合を示している。   That is, the display image update processing unit 420 first determines whether or not the UFT-link correspondence table storage unit 25 is initialized in step S71 by the UFT information display determination unit 421. As a result of this determination, if the customizing information is stored in the UFT-link correspondence table storage unit 25 as described above, the association information is read from the UFT-link correspondence table storage unit 25 in step S73, The UFT is displayed on the web page in association with each link based on the association information that has been issued. FIG. 17 shows a display example. In this example, the UFT is displayed on each of the links C, D and E among the links currently displayed on the display.

先に述べたUFT−リンク対応処理部411によるリンクとUFTとの関連付け処理が終了すると、表示画像決定部410は次にジェスチャ入力対応処理を以下のように実行する。
すなわち、表示画像決定部410のジェスチャ入力対応処理部412は、先ずステップS61により表示画面上にUFTが表示されているか否かを判定する。そして、上記図17に例示したようにUFTが表示されていれば、ステップS62においてジェスチャ認識ユニット30における図形の検出を待つ。
When the association processing between the link and the UFT by the UFT-link correspondence processing unit 411 described above ends, the display image determination unit 410 next executes the gesture input correspondence processing as follows.
That is, the gesture input correspondence processing unit 412 of the display image determination unit 410 first determines whether or not UFT is displayed on the display screen in step S61. If the UFT is displayed as illustrated in FIG. 17 above, the detection of the graphic in the gesture recognition unit 30 is awaited in step S62.

この状態で、ユーザがリモコン装置1のタッチパネル上で、上記表示されたUFTに従いその図形を描画入力すると、この図形の描画入力がジェスチェ認識ユニット30により検出されて、その入力コマンドが生成される。なお、この図形の認識処理は先に図5、図9〜図12において説明した通りである。   In this state, when the user draws and inputs the figure on the touch panel of the remote control device 1 in accordance with the displayed UFT, the drawing input of the figure is detected by the gesture recognition unit 30, and the input command is generated. This graphic recognition process is as described above with reference to FIGS. 5 and 9 to 12.

上記入力コマンドが生成されると、ジェスチャ入力対応処理部412はステップS63に移行し、ここでUFTによるリンクの選択処理を行う。具体的には、上記入力コマンドに対応するUFTに関連付けられたリンクを「選択された状態」に保持し、UFT−リンク対応表記憶部25の該当するUFTの表示色を「黒」から「グレー」に変更する。この結果、表示画面上の上記選択されたUFTは、図18に示すように表示色が「黒」から「グレー」に変更される。このため、ユーザはこの表示色の変更により自身の選択操作が受付けられたことを確認できる。   When the input command is generated, the gesture input correspondence processing unit 412 proceeds to step S63, and performs a link selection process by UFT. Specifically, the link associated with the UFT corresponding to the input command is held in the “selected state”, and the display color of the corresponding UFT in the UFT-link correspondence table storage unit 25 is changed from “black” to “gray”. To "". As a result, the display color of the selected UFT on the display screen is changed from “black” to “gray” as shown in FIG. For this reason, the user can confirm that his / her selection operation has been accepted by changing the display color.

そして、この状態でユーザが上記図形の描画入力後の指をタッチパネルから離したとする。そうすると表示画像決定部410は、選択中のリンク先が存在するかどうかをステップS64により判定する。そして、上記したようにリンクを「選択された状態」が保持されていれば、当該選択中のリンクがアクセス先として決定されたと判断する。そして、ステップS66に移行して、ここで上記選択されたリンク先のウエブページのデータを取得する処理を実行する。   In this state, it is assumed that the user lifts his / her finger after inputting the drawing of the graphic from the touch panel. Then, the display image determination unit 410 determines whether or not there is a selected link destination in step S64. If the “selected state” of the link is held as described above, it is determined that the selected link is determined as the access destination. Then, the process proceeds to step S66, where a process of acquiring data of the selected linked web page is executed.

上記ウエブページの取得処理が行われると、表示画像更新部420は図8に示すようにステップS74からステップS75に移行し、ここで上記取得されたウエブページの表示データをそれまで表示されていた表示データに代えて表示させるべく表示画像データを更新する。この結果、ディスプレイには、上記更新後の新たなウエブページの表示画像データが表示される。そして、このウエブページの表示更新処理が終了すると、表示画像更新部420は上記リンクに対する「選択された状態」を初期化する。   When the acquisition process of the web page is performed, the display image update unit 420 proceeds from step S74 to step S75 as shown in FIG. 8, where the display data of the acquired web page has been displayed so far. The display image data is updated to be displayed instead of the display data. As a result, the display image data of the new web page after the update is displayed on the display. When the web page display update process is completed, the display image update unit 420 initializes the “selected state” for the link.

なお、上記ステップS64による判定の結果、選択中のリンクが存在しなかった場合には、ステップS67に移行して、先に述べたフリック入力処理S36による検出結果をもとに、フリック入力が行われた否かを判定する。そして、フリック入力がなされた場合には、ステップS68において、上記フリック入力のスライド方向に応じたスクロール処理を行うよう、表示画像更新部420に指示する。   If it is determined in step S64 that the selected link does not exist, the process proceeds to step S67, and the flick input is performed based on the detection result in the flick input process S36 described above. Judgment is made or not. If a flick input is made, in step S68, the display image update unit 420 is instructed to perform a scroll process according to the slide direction of the flick input.

このスクロール処理の指示を受けて表示画像更新部420は、図8に示すようにステップS76からステップS77に移行し、表示中のウエブページの表示画像を上下左右のいずれかの方向にスクロールするべく表示画像データを更新する。この結果、ディスプレイには上記更新後のスクロールされた表示画像データが表示される。   Upon receiving this scroll processing instruction, the display image update unit 420 proceeds from step S76 to step S77 as shown in FIG. 8 to scroll the display image of the currently displayed web page in either the up, down, left, or right direction. Update the display image data. As a result, the updated display image data after the update is displayed on the display.

以上詳述したようにこの実施形態では、テレビジョン受信機2において、そのディスプレイに表示されたウエブページ上に設定された各リンクに、図形の種類とその描画方向により表現されるUFTを関連付け、このUFTをウエブページ上の各リンクの位置に対応付けて表示する。そして、選択しようとするリンクに関連付けられたUFTをユーザがリモコン装置1のタッチパネル上で描画した場合に、この描画入力されたUFTをテレビジョン受信機2が認識して、このUFTに関連付けられたリンクを選択し、該当するサイトにアクセスして情報を取得するようにしている。   As described in detail above, in this embodiment, in the television receiver 2, each link set on the web page displayed on the display is associated with a UFT represented by the type of figure and the drawing direction, This UFT is displayed in association with the position of each link on the web page. Then, when the user draws the UFT associated with the link to be selected on the touch panel of the remote control device 1, the television receiver 2 recognizes the UFT that has been inputted and associated with the UFT. A link is selected, and the corresponding site is accessed to obtain information.

したがって、少数の図形の組み合わせで多数のUFTを表現することができ、このUFTをリンクに個別に関連付けることで、ウエブページ上に多数のリンクが設定されている場合でも、ユーザは少数の図形描画回数により所望のリンクを選択することが可能となる。このため、上下左右の4種類の矢印を組み合わせた矢印タグを使用する場合に比べ、リンクを選択する際の操作回数を減らして操作性を高めることができる。   Therefore, a large number of UFTs can be expressed by a combination of a small number of figures, and even if a large number of links are set on the web page by associating the UFTs individually with links, the user can draw a small number of figures. A desired link can be selected according to the number of times. For this reason, compared with the case where the arrow tag which combined 4 types of arrows of up, down, left, and right is used, the frequency | count of operation at the time of selecting a link can be reduced and operativity can be improved.

しかも、ウエブページ上には、各リンクの表示位置に対応付けられてかつ予め設定された表示色でUFTが表示される。このため、ユーザは所望のリンクに関連付けられたUFTに従い、図形を誤ることなく常に簡単かつ正確に描画入力することができる。また、その際UFTは、ユーザがタッチパネルに一定時間以上連続してタッチした場合に、つまりユーザがリンクを選択する意志を示した場合にのみ表示される。このため、ユーザが表示画面のスクロール操作等のためにタッチパネルに短時間タッチした場合にはUFTが表示されないようになり、これによりウエブページの表示画面がUFTにより混雑して見難くならないようにすることができる。   Moreover, the UFT is displayed on the web page in a display color that is associated with the display position of each link and set in advance. For this reason, the user can always draw and input easily and accurately without making a mistake in accordance with the UFT associated with the desired link. At that time, the UFT is displayed only when the user touches the touch panel continuously for a certain period of time, that is, when the user indicates the intention to select a link. For this reason, when the user touches the touch panel for a short time for scrolling the display screen, the UFT is not displayed, thereby preventing the display screen of the web page from being crowded by the UFT. be able to.

さらに、各リンクに対しUFTを関連付けする際には、UFTの集合を構成する複数のUFTを入力し易い順に並び替えておき、この配列に従い1個の図形のみで表現されるUFTを、選択される可能性の高いリンクに対し優先的に割り当てるようにしている。また、同一数の図形で表現されるUFTの中では楕円や円形のような丸みのある円形に近い図形を用いたUFTを、選択される可能性が高いリンクに優先的に割り当てるようにしている。この丸みのある図形と多角形のような角のある図形との区別は、図形の各点の接線の方向を見たときにすべての点で接線が滑らかにつながっているかどうかを判断することで可能となる。多角形の中では角の数が少ないものを優先的にリンクに割り当てるようにしている。また、多角形のように角のある図形を割り当てる場合に、角の数が少ない図形を選択される可能性が高いリンクに優先的に割り当てるようにしている。さらに、複数の図形の組み合わせにより表現されるUFTの中では、点対称となる複数の図形の組み合わせを、選択される可能性の高いリンクに割り当てるようにしている。したがって、選択される可能性の高いリンクの選択操作を、より一層簡単かつ短時間に行うことが可能となる。   Furthermore, when associating a UFT with each link, a plurality of UFTs constituting a set of UFTs are rearranged in order of input, and a UFT represented by only one figure is selected according to this arrangement. Is assigned to a link with a high possibility of being preferentially assigned. Also, among UFTs represented by the same number of figures, UFTs using figures that are close to a round shape such as an ellipse or a circle are preferentially assigned to links that are likely to be selected. . The distinction between this rounded figure and a polygonal figure such as a polygon is made by judging whether the tangents are smoothly connected at all points when looking at the tangent direction of each point of the figure. It becomes possible. Among polygons, those with a small number of corners are preferentially assigned to links. In addition, when a graphic with a corner such as a polygon is allocated, a graphic with a small number of corners is preferentially allocated to a link that is highly likely to be selected. Further, in a UFT expressed by a combination of a plurality of figures, a combination of a plurality of figures that are point-symmetric is assigned to a link that is highly likely to be selected. Therefore, it is possible to perform a link selection operation with a high possibility of being selected more easily and in a short time.

なお、この発明は上記実施形態に限定されるものではない。例えば、前記実施形態ではユーザがタッチパネルに一定時間以上連続してタッチしてリンクを選択する意志を示した場合に、リンクに対するUFTの関連付け処理を行うようにした。しかし、それに限定されるものではなく、ウエブページに出現する頻度の高いリンクに対してはUFTを予め固定的に関連付けて記憶しておき、上記リンクに対しては常に上記固定的に設定されたUFTが表示されるようにしてもよい。このようにすると、ユーザは頻繁に選択するリンクに関連付けられたUFTを記憶することで、さらに円滑な選択操作を行うことが可能となる。   The present invention is not limited to the above embodiment. For example, in the above-described embodiment, when the user indicates the intention to select a link by touching the touch panel continuously for a predetermined time or longer, the UFT is associated with the link. However, the present invention is not limited to this, and UFTs are stored in a fixed association in advance for links that frequently appear on the web page, and the above links are always set in a fixed manner. UFT may be displayed. In this way, the user can perform a smoother selection operation by storing the UFT associated with the frequently selected link.

また前記実施形態では、図形の終始点Aに対する描画位置を検出してカーソルの移動方向を制御するようにした。しかしこれに限らず、図形の描画速度、描画時間又は描画サイズを判定し、この図形の描画速度、描画時間又は描画サイズの判定結果に応じて、カーソルの移動量を変化させるようにしてもよい。   In the embodiment, the drawing position with respect to the starting point A of the figure is detected to control the moving direction of the cursor. However, the present invention is not limited to this, and the drawing speed, drawing time, or drawing size of the figure may be determined, and the amount of movement of the cursor may be changed according to the determination result of the drawing speed, drawing time, or drawing size of the figure. .

前記実施形態は、タッチパネル上でユーザが指により図形を描画し、その軌跡を認識する場合を例にとって説明した。しかし、それに限るものではなく、ユーザが腕を動かして空間に図形を描画し、この図形を描画する動き、つまりユーザのジェスチャをカメラにより撮像してその撮像画像データをテレビジョン受信機に取り込み、この取り込まれた図形をもとにジェスチャを認識するようにしてもよい。   The embodiment has been described by taking as an example a case where a user draws a figure with a finger on the touch panel and recognizes the locus. However, the present invention is not limited to this, and the user moves his / her arm to draw a figure in the space, the movement of drawing the figure, that is, the user's gesture is captured by the camera, and the captured image data is taken into the television receiver, You may make it recognize a gesture based on this taken-in figure.

この実施形態を実現するには、例えばテレビジョン受信機2に付属してカメラを設置し、このカメラによりユーザのジェスチャを撮像する。テレビジョン受信機2の信号受信ユニット10は、カメラから出力された撮像画像データを受信し、この撮像画像データから腕の動きを表すデータを抽出して信号蓄積部21に記憶させる機能を有する。腕の認識はパターンマッチングにより可能である。なお、ジェスチャ認識ユニット30及び表示画像制御ユニット40の機能は、前記実施形態で述べた機能と同じである。   In order to implement this embodiment, for example, a camera is attached to the television receiver 2 and a user's gesture is imaged by this camera. The signal receiving unit 10 of the television receiver 2 has a function of receiving captured image data output from the camera, extracting data representing arm movement from the captured image data, and storing the extracted data in the signal storage unit 21. Arm recognition is possible by pattern matching. The functions of the gesture recognition unit 30 and the display image control unit 40 are the same as those described in the above embodiment.

この実施形態によれば、ユーザが腕を動かして空間に図形を描画した場合にも、このジェスチャによる図形をカメラにより撮像してテレビジョン受信機2に取り込むことにより、先に述べた実施形態と同様に、ユーザのジェスチャによりウエブページのリンクの選択操作を行うことができる。   According to this embodiment, even when the user moves his / her arm and draws a figure in the space, the figure by this gesture is captured by the camera and taken into the television receiver 2 to obtain the embodiment described above. Similarly, a web page link selection operation can be performed by a user's gesture.

その他、情報入力装置の種類や構成、UFTを表現する図形の種類やサイズ、図形の組み合わせの種類等についても、この発明の要旨を逸脱しない範囲で種々変形して実施可能である。
要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
In addition, the type and configuration of the information input device, the type and size of the graphic representing the UFT, the type of graphic combination, and the like can be variously modified without departing from the scope of the present invention.
In short, the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.

1…リモコン装置、2…テレビジョン受信機、3…通信回線、10…信号受信ユニット、11…信号受信判断部、12…信号受信部、20…データベース、21…信号蓄積部、22…ジェスチャコマンド変換テーブル部、23…表示画像データ蓄積部、24…図形パターン記憶部、25…UFT−リンク対応表記憶部、30…ジェスチャ認識ユニット、310…UGI入力処理部、311…終始点一致検出部、312…図形追跡部、313…図形判断部、314…図形位置判断部、320…フリック入力処理部、321…フリック入力検出部、322…フリック方向判定部、40…表示画像制御ユニット、410…表示画像決定部、411…UFT−リンク対応表処理部、412…ジェスチャ入力対応処理部、420…表示画像更新部、421…UFT情報表示判断部、430…表示画像出力部、41…画像更新部、42…画像出力部、43…表示画像決定部。   DESCRIPTION OF SYMBOLS 1 ... Remote control device, 2 ... Television receiver, 3 ... Communication line, 10 ... Signal reception unit, 11 ... Signal reception judgment part, 12 ... Signal reception part, 20 ... Database, 21 ... Signal storage part, 22 ... Gesture command Conversion table section, 23 ... Display image data storage section, 24 ... Graphic pattern storage section, 25 ... UFT-link correspondence table storage section, 30 ... Gesture recognition unit, 310 ... UGI input processing section, 311 ... End point match detection section, 312 ... Graphic tracking unit, 313 ... Graphic determination unit, 314 ... Graphic position determination unit, 320 ... Flick input processing unit, 321 ... Flick input detection unit, 322 ... Flick direction determination unit, 40 ... Display image control unit, 410 ... Display Image determining unit, 411... UFT-link correspondence table processing unit, 412... Gesture input correspondence processing unit, 420. ... UFT information display determination unit, 430 ... display picture output unit, 41 ... image update section, 42 ... image output unit, 43 ... display image determination unit.

Claims (7)

ディスプレイに表示された情報ページに設定された、他の情報ページにアクセスするためのリンク情報に対し、一筆書きにより描かれる二次元図形の種類と当該二次元図形の終始点の位置とを組み合わせることで表現される固有の図形タグ情報を割り当て、この図形タグ情報を前記リンク情報に関連付けた状態で前記情報ページに表示させるタグ情報表示制御手段と、
一筆書きにより描画された二次元図形データを取り込み、この取り込んだ二次元図形データの描画軌跡と終始点の座標から二次元図形の種類と当該二次元図形の終始点の位置関係を判定する図形判定手段と、
前記判定された二次元図形の種類と当該二次元図形の終始点の位置関係を前記情報ページに表示中の図形タグ情報と照合し、両者が一致した場合に当該表示中の図形タグ情報が関連付けられたリンク情報を選択するリンク情報選択手段と
を具備することを特徴とする情報入力装置。
For the link information to access other information pages set on the information page displayed on the display, combine the type of 2D figure drawn with a single stroke and the position of the start point of the 2D figure a unique assignment graphic tag information, the tag information display control means for displaying on the information page while associating the graphic tag information to the link information in the representation,
Graphical judgment that captures two-dimensional graphic data drawn with a single stroke and determines the positional relationship between the type of the two-dimensional graphic and the starting point of the two-dimensional graphic from the drawing trajectory of the imported two-dimensional graphic data and the coordinates of the starting point Means,
The positional relationship between the determined two-dimensional figure type and the starting point of the two-dimensional figure is compared with the graphic tag information being displayed on the information page, and when the two match, the graphic tag information being displayed is associated. An information input device comprising: link information selection means for selecting the received link information.
前記タグ情報表示制御手段は、複数のリンク情報のうちユーザにより選択される可能性が高いリンク情報に対し、1個の二次元図形により表現される図形タグ情報を優先的に割り当てることを特徴とする請求項1記載の情報入力装置。   The tag information display control means preferentially assigns graphic tag information expressed by one two-dimensional graphic to link information that is highly likely to be selected by a user from among a plurality of link information. The information input device according to claim 1. 前記タグ情報表示制御手段は、図形数が同数の図形タグ情報が複数ある場合には、これらの図形タグ情報のうち楕円や円形のような丸みのある円形に近い二次元図形を用いた図形タグ情報を、前記割り当て対象のリンク情報に対し優先的に割り当てることを特徴とする請求項1又は2記載の情報入力装置。   When there are a plurality of pieces of graphic tag information having the same number of figures, the tag information display control means uses a figure tag using a two-dimensional figure close to a round shape such as an ellipse or a circle. 3. The information input device according to claim 1, wherein information is preferentially assigned to the link information to be assigned. 前記タグ情報表示制御手段は、図形数が同数の図形タグ情報が複数ある場合には、これらの図形タグ情報のうち多角形のような角のある二次元図形を用いた図形タグ情報を割り当てる場合に、角の数が少ない図形のタグ情報を前記割り当て対象のリンク情報に対し優先的に割り当てることを特徴とする請求項1又は2記載の情報入力装置。   When there are a plurality of graphic tag information with the same number of figures, the tag information display control means assigns graphic tag information using a two-dimensional figure having a corner such as a polygon among these graphic tag information. 3. The information input device according to claim 1, wherein tag information of a figure having a small number of corners is preferentially assigned to the link information to be assigned. 前記タグ情報表示制御手段は、複数の二次元図形の組み合わせにより表現される図形タグ情報が複数ある場合には、これらの図形タグ情報のうち複数の図形の配置関係が点対称をなす図形タグ情報を、前記割り当て対象のリンクに対し優先的に割り当てることを特徴とする請求項1乃4至のいずれかに記載の情報入力装置。   When there are a plurality of pieces of graphic tag information expressed by a combination of a plurality of two-dimensional figures, the tag information display control means has graphic tag information in which the arrangement relation of the plurality of figures is point-symmetric among these pieces of graphic tag information. 5. The information input device according to claim 1, wherein the information input device is preferentially assigned to the link to be assigned. 前記タグ情報表示制御手段は、図形タグの種類を表す情報と、リンク先のアドレスを表す情報と、図形タグ情報の表示位置を指定する情報と、表示色を指定する情報とを相互に関連付けることを特徴とする請求項1乃至5のいずれかに記載の情報入力装置。   The tag information display control means correlates information indicating a graphic tag type, information indicating a link destination address, information specifying a display position of graphic tag information, and information specifying a display color. The information input device according to any one of claims 1 to 5. 前記タグ情報表示制御手段は、ユーザがリンク情報を選択する意志を示す操作を行ったか否かを判定し、当該操作が行われた場合にのみ前記図形タグ情報を前記情報ページに表示させることを特徴とする請求項1乃至6のいずれかに記載の情報入力装置。   The tag information display control means determines whether or not the user has performed an operation indicating the intention to select link information, and displays the graphic tag information on the information page only when the operation is performed. The information input device according to claim 1, wherein the information input device is an information input device.
JP2010182572A 2010-08-17 2010-08-17 Information input device Expired - Fee Related JP5449088B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010182572A JP5449088B2 (en) 2010-08-17 2010-08-17 Information input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010182572A JP5449088B2 (en) 2010-08-17 2010-08-17 Information input device

Publications (2)

Publication Number Publication Date
JP2012043107A JP2012043107A (en) 2012-03-01
JP5449088B2 true JP5449088B2 (en) 2014-03-19

Family

ID=45899358

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010182572A Expired - Fee Related JP5449088B2 (en) 2010-08-17 2010-08-17 Information input device

Country Status (1)

Country Link
JP (1) JP5449088B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5643249B2 (en) * 2012-03-27 2014-12-17 日本電信電話株式会社 One-stroke figure direction detector
JP5873766B2 (en) * 2012-06-19 2016-03-01 日本電信電話株式会社 Information input device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021048A (en) * 1996-06-28 1998-01-23 Canon Inc Method and device for speech output
JP4805188B2 (en) * 2007-03-01 2011-11-02 日本電信電話株式会社 Web page browsing method, web page browsing apparatus, web page browsing program, and recording medium recording the web page browsing program

Also Published As

Publication number Publication date
JP2012043107A (en) 2012-03-01

Similar Documents

Publication Publication Date Title
EP3404520B1 (en) Method of displaying information by using touch input in mobile terminal
JP5001182B2 (en) Display control apparatus, electronic device, display control method, and program
US9785335B2 (en) Systems and methods for adaptive gesture recognition
JP5721662B2 (en) Input receiving method, input receiving program, and input device
JP5107453B1 (en) Information processing apparatus, operation screen display method, control program, and recording medium
US20150077362A1 (en) Terminal with fingerprint reader and method for processing user input through fingerprint reader
KR20130099186A (en) Display device, user interface method, and program
JP6584084B2 (en) Display control apparatus, control method therefor, program, and storage medium
WO2011115260A1 (en) Information input device, method of inputting information and information inputting program
KR20160097410A (en) Method of providing touchless input interface based on gesture recognition and the apparatus applied thereto
JP5388385B2 (en) Display control apparatus, display control method, and program
CN112328158A (en) Interactive method, display device, transmitting device, interactive system and storage medium
CN104516654A (en) Operation processing method and device
JP5449088B2 (en) Information input device
CN113721808A (en) Control method and device
US20230236673A1 (en) Non-standard keyboard input system
JP6411067B2 (en) Information processing apparatus and input method
JP5414920B2 (en) Display control apparatus, display control method, and program
JP5396332B2 (en) Information input device, method and program using gesture
JP2015022675A (en) Electronic apparatus, interface control method, and program
JP5449074B2 (en) Information input device
JP6722239B2 (en) Information processing device, input method, and program
JP5756730B2 (en) Information input device and program thereof
KR20140045835A (en) Touch user interface for searching menu and apparatus thereof
KR20090029551A (en) Apparatus and method of operating mobile internet browser using touch-pad

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120627

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130509

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131224

R150 Certificate of patent or registration of utility model

Ref document number: 5449088

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees