JP2005275652A - Apparatus and method for processing input trajectory - Google Patents

Apparatus and method for processing input trajectory Download PDF

Info

Publication number
JP2005275652A
JP2005275652A JP2004086161A JP2004086161A JP2005275652A JP 2005275652 A JP2005275652 A JP 2005275652A JP 2004086161 A JP2004086161 A JP 2004086161A JP 2004086161 A JP2004086161 A JP 2004086161A JP 2005275652 A JP2005275652 A JP 2005275652A
Authority
JP
Japan
Prior art keywords
gesture
recognition
input
character
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004086161A
Other languages
Japanese (ja)
Inventor
Tsuneichi Arai
常一 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004086161A priority Critical patent/JP2005275652A/en
Publication of JP2005275652A publication Critical patent/JP2005275652A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enhance the performance of input trajectory processing by solving the problems such that operations to change the setting of a gesture are complicated, a user is required to learn the operations and it is impossible to invalidate one or more gestures and respond the needs for stop recognition processing. <P>SOLUTION: Position coordinate data input to a position coordinate input part is transferred to a hand writing gesture recognition means, the recognition means digitizes a shape characteristic of the data, then, outputs the most analogous gesture code as a recognition result to a gesture code processing means with reference to a recognition dictionary. The gesture code processing means sends commands in response to the kinds of gesture codes transmitted from the dictionary to a command processing means. A gesture adaptation history storage means is connected to the gesture code processing means and the gesture adaptation history storage means stores the number of times of execution of gesture processing and the number of times of gesture cancellation after recognition of each gesture for each kind of gestures. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は入力軌跡処理装置および入力軌跡処理方法に関する。   The present invention relates to an input locus processing apparatus and an input locus processing method.

近年タブレット等の座標入力手段を用いて手書き文字やコマンドを入力する文字認識装置が普及している。コマンド入力のための入力軌跡はジェスチャーと呼ばれるが、ジェスチャーとその他の入力は明確に判別する必要があり、また操作性能が向上のためにユーザの用途等に応じたジェスチャーを設定が行われる。   In recent years, character recognition devices that input handwritten characters and commands using coordinate input means such as tablets have become widespread. An input trajectory for command input is called a gesture, but it is necessary to clearly distinguish a gesture from other inputs, and a gesture is set according to a user's purpose and the like in order to improve operation performance.

このような背景のもと、ジェスチャー判別、設定に関して従来以下のような装置が提案されていた。   Under such circumstances, the following devices have been proposed for gesture discrimination and setting.

特許文献1の装置では、所定のキー操作によって、ジェスチャー形状と対応コマンドを表示し、ジェスチャー変更プログラムを動作させる。   In the apparatus of Patent Document 1, a gesture shape and a corresponding command are displayed by a predetermined key operation, and a gesture change program is operated.

特許文献2の装置では、所定の操作によって、マクロジェスチャー操作登録プログラムを起動し、ジェスチャー入力前後に登録開始ボタン、登録終了ボタンを押すことによって、ジェスチャーを登録する。   In the apparatus of Patent Document 2, a macro gesture operation registration program is activated by a predetermined operation, and a gesture is registered by pressing a registration start button and a registration end button before and after the gesture input.

特許文献3の装置では、所定値よりも長い入力軌跡をジェスチャー、所定値よりも短い入力軌跡を文字と判別し、認識処理を行っていた。   In the apparatus of Patent Literature 3, an input locus longer than a predetermined value is determined as a gesture, and an input locus shorter than the predetermined value is determined as a character, and recognition processing is performed.

特許文献4の装置では、始点がアイコン外の入力軌跡をジェスチャー、始点がアイコン内の入力軌跡をアイコン指定と判別し、アイコン指定の場合はドラッグ&ドロップ等の処理を行っていた。   In the apparatus of Patent Document 4, it is determined that the input locus outside the icon is a gesture and the input locus within the icon is an icon designation, and processing such as drag and drop is performed when the icon is designated.

特許第2989084号公報Japanese Patent No. 2989084 特開平7−44311号公報JP 7-44311 A 特許第2905013号公報Japanese Patent No. 2905013 特許第2584782号公報Japanese Patent No. 2584782

特許文献1の装置は、ジェスチャー設定変更の操作が繁雑であり、ユーザは操作を習得する必要があった。また、1個または複数のジェスチャーを無効とし、認識処理を停止するニーズに対応することができなかった。   In the device of Patent Document 1, the operation for changing the gesture setting is complicated, and the user has to learn the operation. In addition, it has not been possible to meet the need for disabling one or more gestures and stopping the recognition process.

特許文献2の装置では、ジェスチャー登録時にマクロジェスチャー操作登録プログラムを起動させる必要があるため、プログラム起動メニューを全てのジェスチャー使用場面等に設ける等の必要があり、操作画面が煩雑となった。また、登録対象はジェスチャー操作の組合せのみであるので、用途が限定される。   In the apparatus of Patent Document 2, since it is necessary to activate a macro gesture operation registration program at the time of gesture registration, it is necessary to provide a program activation menu in every scene where gestures are used, and the operation screen becomes complicated. Further, since the registration target is only a combination of gesture operations, the usage is limited.

特許文献3の装置では、線長を手がかりとするため、ジェスチャーの線長を長く入力しなければならないため、入力の軽快感が失われる。また、大きな文字はジェスチャーとの判別が困難なため、文字サイズが制限され、用途が限定される。   In the apparatus of Patent Document 3, since the line length is used as a clue, it is necessary to input a long line length of the gesture, so that the lightness of input is lost. Further, since it is difficult to distinguish large characters from gestures, the character size is limited and the application is limited.

特許文献4の装置では、入力軌跡の始点を手がかりとするため、ユーザの視差や入力軌跡のぶれ、機器自体の精度に基く誤検出等により、ユーザの意図を正しく検出できないことがあり、操作性が不充分であった。   In the device of Patent Document 4, since the starting point of the input trajectory is used as a clue, the user's intention may not be detected correctly due to a user's parallax, blurring of the input trajectory, erroneous detection based on the accuracy of the device itself, and the like. Was insufficient.

さらに、従来のペン入力装置では、ジェスチャーと文字その他で軌跡の表示等に違いは存在しないため、ジェスチャーとその他の入力を容易に判別できない。   Furthermore, in the conventional pen input device, since there is no difference in the display of the trajectory between the gesture and the character or the like, the gesture and the other input cannot be easily distinguished.

また認識対象を所定期間制限することによって入力の判別を容易にするペン入力装置も存在するが、制限期間前の認識対象を処理するためには期間の終了を待たなければならず、操作性が悪いという印象を与えることがあった。   In addition, there are pen input devices that make it easy to determine the input by limiting the recognition target for a predetermined period, but in order to process the recognition target before the limit period, it is necessary to wait for the end of the period, and operability is reduced. It sometimes gave the impression that it was bad.

以上のとおり従来装置は入力軌跡処理の操作性能その他の性能が不充分であった。   As described above, the conventional apparatus has insufficient operation performance and other performance of the input trajectory processing.

本発明によれば、入力軌跡処理の性能を高めることができる。   According to the present invention, the performance of input trajectory processing can be improved.

本発明に係る入力軌跡処理装置は、ジェスチャーの入力軌跡を位置座標データとして入力する手段と、前記入力軌跡とジェスチャー辞書とのマッチングによって、前記入力軌跡に対応するジェスチャーを抽出する認識手段と、前記認識手段で抽出されたジェスチャーの適応状況を記憶するジェスチャー適応履歴記憶手段と、前記ジェスチャー適応履歴記憶手段の記憶内容に基いて、前記認識手段の処理を修正する手段とを備える。これによって、入力軌跡処理の性能を高めることができる。   The input trajectory processing device according to the present invention includes means for inputting an input trajectory of gesture as position coordinate data, recognition means for extracting a gesture corresponding to the input trajectory by matching the input trajectory and the gesture dictionary, Gesture adaptation history storage means for storing the adaptation state of the gesture extracted by the recognition means, and means for correcting the processing of the recognition means based on the stored contents of the gesture adaptation history storage means. As a result, the performance of the input trajectory process can be improved.

本発明に係る入力軌跡処理装置において、前記ジェスチャー適応履歴記憶手段が記憶する適応状況は、例えば、抽出されたジェスチャーの取り消し処理である。   In the input trajectory processing device according to the present invention, the adaptation status stored by the gesture adaptation history storage means is, for example, a cancellation process of the extracted gesture.

本発明に係る入力軌跡処理装置は、前記認識手段が特定のジェスチャーを認識したときに、その後に書かれたジェスチャーについての前記適応状況を変更する手段をさらに備えるものであってもよい。   The input trajectory processing device according to the present invention may further include means for changing the adaptation status for a gesture written after the recognition means recognizes a specific gesture.

本発明に係る入力軌跡処理装置は、前記適応状況が所定状態となったときに該ジェスチャーの形状を変更する手段をさらに備えるものであってもよい。   The input trajectory processing device according to the present invention may further include means for changing the shape of the gesture when the adaptation state reaches a predetermined state.

本発明に係る入力軌跡処理装置は、ジェスチャーの入力軌跡を位置座標データとして入力する手段と、前記入力軌跡とジェスチャー辞書とのマッチングによって、前記入力軌跡に対応するジェスチャーを抽出する認識手段と、前記認識手段が特定のジェスチャーを認識したときに、その後所定期間、前記認識手段のジェスチャーの認識を停止する手段とを備える。   The input trajectory processing device according to the present invention includes means for inputting an input trajectory of gesture as position coordinate data, recognition means for extracting a gesture corresponding to the input trajectory by matching the input trajectory and the gesture dictionary, Means for stopping recognition of the gesture of the recognition means for a predetermined period after the recognition means recognizes a specific gesture.

本発明に係る入力軌跡処理装置は、ジェスチャーの入力軌跡を位置座標データとして入力する手段と、前記入力軌跡とジェスチャー辞書とのマッチングによって、前記入力軌跡に対応するジェスチャーを抽出する認識手段と、前記認識手段が特定のジェスチャーを認識したときに、前記認識手段に所定の文字種のみ認識させる手段とを備える。   The input trajectory processing device according to the present invention includes means for inputting an input trajectory of gesture as position coordinate data, recognition means for extracting a gesture corresponding to the input trajectory by matching the input trajectory and the gesture dictionary, Means for causing the recognition means to recognize only a predetermined character type when the recognition means recognizes a specific gesture.

本発明に係る入力軌跡処理装置において、前記特定のジェスチャーは少なくとも2個定義され、第1のジェスチャーによって認識される文字種は、文字コードおよび編集ジェスチャーであり、第2のジェスチャーによって認識される文字種は文字コードであってもよい。   In the input trajectory processing device according to the present invention, at least two specific gestures are defined, the character types recognized by the first gesture are a character code and an edit gesture, and the character types recognized by the second gesture are It may be a character code.

本発明に係る入力軌跡処理装置において、前記所定の文字種のみ認識させる手段は、所定の文字種のみの認識を開始してから所定時間経過したときに、全ての文字種の認識に復帰するものであってもよい。   In the input trajectory processing device according to the present invention, the means for recognizing only the predetermined character type returns to the recognition of all the character types when a predetermined time has elapsed since the start of the recognition of only the predetermined character type. Also good.

本発明に係る入力軌跡処理装置において、前記認識手段が特定のジェスチャーを認識したときに、前記認識手段に所定の文字種のみ認識させる手段による文字種の制限を停止するものであてもよい。   In the input trajectory processing device according to the present invention, when the recognition unit recognizes a specific gesture, the restriction of the character type by the unit that causes the recognition unit to recognize only a predetermined character type may be stopped.

本発明に係る入力軌跡処理装置において、前記所定の文字種のみ認識させる手段は、複数の異なる所定のジェスチャーが相前後にて入力されたときに、これらジェスチャーに対応する文字種の全て認識対象とするものであってもよい。   In the input trajectory processing device according to the present invention, the means for recognizing only the predetermined character type recognizes all the character types corresponding to these gestures when a plurality of different predetermined gestures are input before and after. It may be.

本発明に係る入力軌跡処理方法は、ジェスチャーの入力軌跡を位置座標データとして入力するステップと、前記入力軌跡とジェスチャー辞書とのマッチングによって、前記入力軌跡に対応するジェスチャーを抽出する認識ステップと、前記認識手段で抽出されたジェスチャーの適応状況を記憶するジェスチャー適応履歴記憶ステップと、前記ジェスチャー適応履歴記憶手段の記憶内容に基いて、前記認識手段の処理を修正するステップとを備える。   The input trajectory processing method according to the present invention includes a step of inputting an input trajectory of a gesture as position coordinate data, a recognition step of extracting a gesture corresponding to the input trajectory by matching the input trajectory and a gesture dictionary, A gesture adaptation history storage step for storing the adaptation state of the gesture extracted by the recognition means; and a step for correcting the processing of the recognition means based on the stored contents of the gesture adaptation history storage means.

本発明に係る入力軌跡処理方法は、ジェスチャーの入力軌跡を位置座標データとして入力するステップと、前記入力軌跡とジェスチャー辞書とのマッチングによって、前記入力軌跡に対応するジェスチャーを抽出する認識ステップと、前記認識ステップによって特定のジェスチャーが認識されたときに、その後所定期間、前記認識ステップジェスチャーの認識を停止するステップとを備える。   The input trajectory processing method according to the present invention includes a step of inputting an input trajectory of a gesture as position coordinate data, a recognition step of extracting a gesture corresponding to the input trajectory by matching the input trajectory and a gesture dictionary, And a step of stopping recognition of the recognition step gesture for a predetermined period after a specific gesture is recognized by the recognition step.

本発明に係る入力軌跡処理方法は、ジェスチャーの入力軌跡を位置座標データとして入力するステップと、前記入力軌跡とジェスチャー辞書とのマッチングによって、前記入力軌跡に対応するジェスチャーを抽出する認識ステップと、前記認識ステップによって特定のジェスチャーが認識されたときに、前記認識ステップで所定の文字種のみが認識されるようにするステップとを備える。   The input trajectory processing method according to the present invention includes a step of inputting an input trajectory of a gesture as position coordinate data, a recognition step of extracting a gesture corresponding to the input trajectory by matching the input trajectory and a gesture dictionary, And a step of recognizing only a predetermined character type in the recognition step when a specific gesture is recognized in the recognition step.

次に本発明に係る入力軌跡処理装置および入力軌跡処理方法の好適な実施例を説明する。   Next, preferred embodiments of the input locus processing apparatus and the input locus processing method according to the present invention will be described.

[入力軌跡処理装置]
図1において、本発明に係る入力軌跡処理装置の実施例1は電子メイル送受信等のための携帯情報機器1に適用されている。
[Input locus processing device]
In FIG. 1, an input locus processing apparatus according to a first embodiment of the present invention is applied to a portable information device 1 for electronic mail transmission / reception.

携帯情報機器1は液晶表示部2およびカメラ部4を有し、液晶表示部2の表面には座標入力を行うための透明抵抗膜デジタイザが取り付けられ、その表示画面上をペン3で押圧することにより手書きの軌跡を入力し得る。   The portable information device 1 has a liquid crystal display unit 2 and a camera unit 4. A transparent resistive film digitizer for inputting coordinates is attached to the surface of the liquid crystal display unit 2, and the pen 3 is pressed on the display screen. Thus, a handwritten locus can be input.

カメラ部4はデジタルカメラであり、レンズ等の光学系およびCCD等の撮像素子で構成されている。   The camera unit 4 is a digital camera, and includes an optical system such as a lens and an image sensor such as a CCD.

ペン3は、手書き軌跡情報入力の他に、表示画面上のソフトボタン、ソフトキーボード等の入力に利用される。   The pen 3 is used for inputting soft buttons, a soft keyboard, and the like on the display screen in addition to inputting handwritten trajectory information.

携帯情報機器1は、入力された手書き軌跡データを公知の手書き文字認識手段によって認識され、あるいは、そのまま画像のメモとして取り込まれる。   The portable information device 1 recognizes the input handwriting trajectory data by a known handwritten character recognition means or captures it as an image memo as it is.

認識された文字は電子メイルの本文等に適用され、画像メモは電子メイルの添付データとされる。   The recognized character is applied to the text of the electronic mail, and the image memo is the attached data of the electronic mail.

カメラ部4で撮影された画像は液晶表示部2に表示され、また電子メイルに添付し得る。   An image taken by the camera unit 4 is displayed on the liquid crystal display unit 2 and can be attached to an electronic mail.

画像メモを含む電子メイルはユーザの指示操作によって、USBインターフェイス等を通じて、パーソナルコンピュータ5へ送られ、あるいは、スロット6Sに挿入される記録メディア6に記録される。記録メディア6に格納された電子メイルは、パーソナルコンピュータ5やプリンタ(図示省略)に送られる。また、携帯情報機器1で作成した電子メイルは、ローカルネットワークや公衆回線を通じ、他の携帯情報機器やパーソナルコンピュータへ送られる。   The electronic mail including the image memo is sent to the personal computer 5 through the USB interface or the like or recorded on the recording medium 6 inserted into the slot 6S according to a user's instruction operation. The electronic mail stored in the recording medium 6 is sent to a personal computer 5 or a printer (not shown). The electronic mail created by the portable information device 1 is sent to another portable information device or personal computer through a local network or a public line.

携帯情報機器1は、液晶表示部2におけるデータの作成、編集、表示、再生等の操作履歴をRAMに保存する。   The portable information device 1 stores an operation history of data creation, editing, display, reproduction, etc. in the liquid crystal display unit 2 in a RAM.

図2のブロック図に示すように、携帯情報機器1は、液晶表示部2(液晶表示素子、液晶制御回路、表示メモリを備える)よりなる画像表示部2−2と、液晶表示部表面の抵抗膜デジタイザによって構成される位置座標入力部2−1を有し、位置座標入力部2−1および画像表示部2−2はシステムバス11経由でCPU2−6に接続されている。   As shown in the block diagram of FIG. 2, the portable information device 1 includes an image display unit 2-2 including a liquid crystal display unit 2 (including a liquid crystal display element, a liquid crystal control circuit, and a display memory), and a resistance of the surface of the liquid crystal display unit A position coordinate input unit 2-1 configured by a film digitizer is included, and the position coordinate input unit 2-1 and the image display unit 2-2 are connected to the CPU 2-6 via the system bus 11.

ペン3によって位置座標入力部2−1上を押圧すると、押圧した位置の座標データがCPU2−6によって読み取られ、ペン3によって手書の軌跡が書かれたときには、その軌跡は位置座標データ群として、CPU2−6に読み取られる。   When the pen 3 is pressed on the position coordinate input unit 2-1, the coordinate data of the pressed position is read by the CPU 2-6, and when the handwriting trajectory is written by the pen 3, the trajectory is a position coordinate data group. , Read by the CPU 2-6.

CPU2−6は読み取った位置座標データに基いて画像データや手書き軌跡データを画像表示部2−2に表示し、あるいは手書認識処理手段によって認識処理する。   The CPU 2-6 displays image data or handwritten trajectory data on the image display unit 2-2 based on the read position coordinate data, or performs recognition processing by handwriting recognition processing means.

バス11にはキーボード2−3が接続され、キーを押すことにより、英数字等のキーコードが入力され、CPU2−6がキーコードを読み取られる。   A keyboard 2-3 is connected to the bus 11, and a key code such as alphanumeric characters is input by pressing a key, and the CPU 2-6 reads the key code.

カメラ部4には制御回路が含まれ、CCDによって撮影された画像は制御回路によってシステムバス11経由でCPU2−6送られる。CPU2−6は受信した画像をRAM7に記憶する。RAM7は画像データの保存や、認識処理プログラムのワーク領域等として使用される。   The camera unit 4 includes a control circuit, and an image photographed by the CCD is sent to the CPU 2-6 via the system bus 11 by the control circuit. The CPU 2-6 stores the received image in the RAM 7. The RAM 7 is used as a work area for storing image data and a recognition processing program.

CPU2−6はシステムバス11を介してROM8に接続され、CPU2−6は、ROM8に格納されたプログラムによって処理動作を行う。   The CPU 2-6 is connected to the ROM 8 via the system bus 11, and the CPU 2-6 performs a processing operation according to a program stored in the ROM 8.

ROM8には、さらに手書ジェスチャー認識処理手順や、認識するジェスチャー軌跡の形状の辞書データ、CCD制御プログラム、液晶表示部制御プログラム、その他の処理手順、携帯情報機器1のための他のアプリケーション処理手順等が記憶されている。   The ROM 8 further includes a handwriting gesture recognition processing procedure, dictionary data of the shape of the gesture locus to be recognized, a CCD control program, a liquid crystal display control program, other processing procedures, and other application processing procedures for the portable information device 1. Etc. are stored.

システムバス11には画像メディアI/F9が接続され、デジタルカメラ等のコンパクトフラッシュカードのデータの読み、書き、および画像データ等の記憶が可能である。   An image media I / F 9 is connected to the system bus 11 so that data of a compact flash card such as a digital camera can be read and written, and image data and the like can be stored.

システムバス11には、USBインターフェイス部10が接続され、CPU2−6によって制御されつつ、パーソナルコンピュータ5と通信して、手書き軌跡データファイルや画像データファイル等のやり取りを行う。   The USB interface unit 10 is connected to the system bus 11 and communicates with the personal computer 5 while being controlled by the CPU 2-6 to exchange handwritten locus data files and image data files.

システムバス11には、内部にPHS回線への接続コントローラやアンテナを内蔵した通信カード2−7が接続され、通信カード2―7内のコントローラに規定のコマンドを渡すことによって、公衆回線への接続、電子メイル送受信等を実行できる。   The system bus 11 is connected to a communication card 2-7 with a built-in controller connected to the PHS line and an antenna, and connected to the public line by passing a prescribed command to the controller in the communication card 2-7. Electronic mail transmission / reception can be executed.

なお通信カード2−7を、ローカルエリアネットワークカード等に変更すれば、ローカルエリアネットに対応することも可能である。また電子メイルの送受信はRFC882、RFC2231、RFC2822、RFC2045〜2049等の一般的なプロトコルに基く。   If the communication card 2-7 is changed to a local area network card or the like, it is possible to support a local area network. Transmission / reception of electronic mail is based on general protocols such as RFC882, RFC2231, RFC2822, and RFC2045-2049.

図3において、携帯情報機器1の機能ブロック図において、位置座標入力部2−1に入力された位置座標データは手書ジェスチャー認識手段3−1(CPU2−6および手書ジェスチャー認識処理手順に対応する。)に渡され、手書ジェスチャー認識手段3−1は、位置座標データの形状特徴を数値化した後、認識辞書3−2(ジェスチャー軌跡の形状の辞書データに対応する。)を参照して、最も類似度の高いジェスチャーコードを、認識結果としてジェスチャーコード処理手段3−3に出力する。   3, in the functional block diagram of the portable information device 1, the position coordinate data input to the position coordinate input unit 2-1 corresponds to the handwriting gesture recognition means 3-1 (CPU 2-6 and handwriting gesture recognition processing procedure). The handwriting gesture recognition means 3-1 digitizes the shape feature of the position coordinate data and then refers to the recognition dictionary 3-2 (corresponding to the dictionary data of the shape of the gesture trajectory). The gesture code having the highest similarity is output to the gesture code processing means 3-3 as a recognition result.

ジェスチャーコード処理手段3−3は、認識辞書3−2から送られてくるジェスチャーコードの種類に応じたコマンドをコマンド処理手段3―5におくる。例えば、入力軌跡が認識辞書3−2における削除ジェスチャーに最も類似していたときは、削除コマンドを出力し、コマンド処理部3−5によって、処理結果を表示部2−2に表示する。   The gesture code processing means 3-3 sends a command corresponding to the type of gesture code sent from the recognition dictionary 3-2 to the command processing means 3-5. For example, when the input locus is most similar to the delete gesture in the recognition dictionary 3-2, a delete command is output, and the command processing unit 3-5 displays the processing result on the display unit 2-2.

認識辞書3−2には標準的なジェスチャーの形状が数値化して記憶されており、手書ジェスチャー認識手段内3−1の認識アルゴリズムによって生成される。   In the recognition dictionary 3-2, a standard gesture shape is digitized and stored, and is generated by the recognition algorithm in the handwriting gesture recognition means 3-1.

表示部2−2は、システムバス11経由でCPU2−6の指示を受け、画像データやファイルアイコン等を画面上に表示する。   The display unit 2-2 receives an instruction from the CPU 2-6 via the system bus 11, and displays image data, file icons, and the like on the screen.

ジェスチャーコード処理手段3−3にはジェスチャー適応履歴記憶手段3−4が接続され、ジェスチャー適応履歴記憶手段3−4はジェスチャーの種類毎に、各ジェスチャー認識後に該ジェスチャーの処理を実行した回数と、該ジェスチャーを取り消した回数を記憶する。   A gesture adaptation history storage unit 3-4 is connected to the gesture code processing unit 3-3, and the gesture adaptation history storage unit 3-4 performs, for each type of gesture, the number of times the gesture processing has been executed after each gesture recognition, The number of times that the gesture has been canceled is stored.

ジェスチャーコード処理手段3−3およびコマンド処理手段3―5には、キー、メニュー処理手段3−6が接続され、キー、メニュー処理手段3−6はキーボード2−3から入力されたコマンドをコマンド処理手段3−5に送る。例えば、キーボード2−3の削除キーが押されたときには削除コマンドをコマンド処理手段3−5に送り、削除処理を実行する。   A key and menu processing means 3-6 are connected to the gesture code processing means 3-3 and command processing means 3-5, and the key and menu processing means 3-6 perform command processing on commands input from the keyboard 2-3. Send to means 3-5. For example, when the delete key on the keyboard 2-3 is pressed, a delete command is sent to the command processing means 3-5 to execute the delete process.

図4はジェスチャー辞書を示す表であり、ジェスチャーの適応履歴とジェスチャーの認識停止フラグを含む。   FIG. 4 is a table showing a gesture dictionary, which includes a gesture adaptation history and a gesture recognition stop flag.

ジェスチャー辞書には、ジェスチャーの形状データ、認識コード、ジェスチャー処理種類、ジェスチャー適応履歴、ジェスチャー停止フラグが記憶される。   The gesture dictionary stores gesture shape data, a recognition code, a gesture processing type, a gesture adaptation history, and a gesture stop flag.

ジェスチャーの形状データは、登録されているジェスチャーの軌跡の位置座標データを正規化した数値データである。   Gesture shape data is numerical data obtained by normalizing position coordinate data of a registered locus of a gesture.

認識コードは、認識結果の出力としての文字コードであり、削除処理やコピー処理等のコマンドに対応する。   The recognition code is a character code as an output of the recognition result, and corresponds to a command such as a deletion process or a copy process.

ジェスチャー適応履歴には、各ジェスチャーについて、入力軌跡の認識結果として抽出され、かつ対応するコマンドが実行された回数(適応回数という。)と、そのジェスチャーのコマンドが取り消された回数(取り消し回数という。)を、コンマで区切って順次記録する。例えば、実行回数が4回、取り消し回数が1回であれば「4,1」がジェスチャー適応履歴記憶領域に記憶される。   The gesture adaptation history is extracted as the recognition result of the input trajectory for each gesture, and the number of times the corresponding command is executed (referred to as adaptation count), and the number of times that the gesture command is canceled (referred to as cancellation count). ) Are recorded sequentially, separated by commas. For example, if the number of executions is 4 and the number of cancellations is 1, “4, 1” is stored in the gesture adaptation history storage area.

ジェスチャー停止フラグは、各ジェスチャーを認識対象から除外するフラグであり、ジェスチャー停止フラグが停止中のときは、該ジェスチャーが入力軌跡との比較を行わない。従って、ジェスチャー停止フラグが停止中のジェスチャーが入力されても、そのジェスチャーが認識結果とされることはない。認識対象のジェスチャーのジェスチャー停止フラグは「動作中」とされる。   The gesture stop flag is a flag for excluding each gesture from the recognition target. When the gesture stop flag is stopped, the gesture does not compare with the input locus. Therefore, even if a gesture whose gesture stop flag is stopped is input, the gesture is not regarded as a recognition result. The gesture stop flag of the recognition target gesture is set to “in operation”.

図4において、M型のジェスチャーについて認識コード「FF01(0xFF01)」、ジェスチャー処理種類「削除」、ジェスチャー適応履歴「4,1」、ジェスチャー停止フラグ「動作中」が記憶され、C型のジェスチャーについて認識コード「FF02(0xFF02)」、ジェスチャー処理種類「コピー」、ジェスチャー適応履歴「8,0」、ジェスチャー停止フラグ「動作中」が記憶され、P型のジェスチャーについて認識コード「FF03(0xFF03)、ジェスチャー処理種類「ペースト」、ジェスチャー適応履歴「2,1」、ジェスチャー停止フラグ「動作中」が記憶され、締印類似のジェスチャーについて認識コード「FF04(0xFF04)」、ジェスチャー処理種類「取り消し」、ジェスチャー適応履歴「1,0」、ジェスチャー停止フラグ「停止中」が記憶されている。   In FIG. 4, the recognition code “FF01 (0xFF01)”, the gesture processing type “deletion”, the gesture adaptation history “4, 1”, and the gesture stop flag “in operation” are stored for the M-type gesture. The recognition code “FF02 (0xFF02)”, the gesture processing type “copy”, the gesture adaptation history “8,0”, the gesture stop flag “in operation” are stored, and the recognition code “FF03 (0xFF03), gesture for the P-type gesture is stored. The processing type “paste”, the gesture adaptation history “2,1”, the gesture stop flag “in operation” are stored, and the recognition code “FF04 (0xFF04)”, the gesture processing type “cancel”, and the gesture adaptation for gestures similar to the seal History "1,0" The gesture stop flag “stopped” is stored.

図5、図6、図7、図8は、ジェスチャーのコマンド処理を表した操作表示画面の例である。   5, 6, 7, and 8 are examples of operation display screens representing gesture command processing.

図5の画面では、「テストの文字列」が選択されて反転しており、その反転文字列上に、C型のジェスチャーが記入されている。ここで図4のジェスチャー辞書を参照すると、「コピー」のコマンドが実行され、「テストの文字列」がコピーバッファ(RAM7)にコピーされる。   In the screen of FIG. 5, “test character string” is selected and inverted, and a C-type gesture is entered on the inverted character string. Referring to the gesture dictionary of FIG. 4, a “copy” command is executed, and “test character string” is copied to the copy buffer (RAM 7).

図5の画面に続いて図6の画面の操作が実行される。図6ではP型ジェスチャーが記入され、図4のジェスチャー辞書に基いて「ペースト」のコマンドが実行される。   Following the screen of FIG. 5, the operation of the screen of FIG. 6 is executed. In FIG. 6, a P-type gesture is entered, and a “paste” command is executed based on the gesture dictionary of FIG.

このとき、図5の操作によってコピーバッファに「テストの文字列」が保存されているので、「テストの文字列」がペーストジェスチャーの位置にペーストされる。   At this time, since “test character string” is stored in the copy buffer by the operation of FIG. 5, “test character string” is pasted at the position of the paste gesture.

図6の画面に続いて図7の画面の操作が実行される。図7では、図6のペーストジェスチャーを認識した直後に、締印類似のジェスチャーが記入され、図4のジェスチャー辞書に基いて、「取り消し」のコマンドが実行される。なお、ここではジェスチャー停止フラグは「動作中」になっていたとする
これによって、直前のジェスチャーであるペーストジェスチャーが取り消され、図6で実行された「テストの文字列」のペーストが取り消され、「テストの文字列」が消去される。
Following the screen of FIG. 6, the operation of the screen of FIG. 7 is executed. In FIG. 7, immediately after recognizing the paste gesture of FIG. 6, a gesture similar to a seal is entered, and a “cancel” command is executed based on the gesture dictionary of FIG. 4. Here, it is assumed that the gesture stop flag is “active”. This cancels the paste gesture that is the previous gesture, cancels the paste of the “test character string” executed in FIG. Test string "is deleted.

図7の取り消し処理を実行した結果、ジェスチャー適応履歴における取り消しの頻度が閾値より高くなったときに、図8のジェスチャー設定画面が自動的に表示される。取り消しの頻度の評価については図9に関連して後述し、ジェスチャー設定画面については、図10に関連して後述する。
[入力軌跡処理方法]
図1の携帯情報機器1によって実施される入力軌跡処理方法の実施例1を説明する。なおフローチャートの処理を実行するプログラムはROM8に記憶されている。
As a result of executing the canceling process of FIG. 7, when the canceling frequency in the gesture adaptation history becomes higher than the threshold, the gesture setting screen of FIG. 8 is automatically displayed. The cancellation frequency evaluation will be described later with reference to FIG. 9, and the gesture setting screen will be described later with reference to FIG.
[Input locus processing method]
A first embodiment of the input trajectory processing method performed by the portable information device 1 of FIG. 1 will be described. A program for executing the processing of the flowchart is stored in the ROM 8.

図3の位置座標入力手段2−1から手書ジェスチャー軌跡の位置座標データが入力されると、所定のアルゴリズムによって、ジェスチャー認識が行われ、図4におけるいずれかの認識コードが抽出される。ジェスチャー認識処理アルゴリズムは、例えば特許文献4記載のアルゴリズムと同様である。   When the position coordinate data of the handwriting gesture trajectory is input from the position coordinate input unit 2-1 in FIG. 3, gesture recognition is performed by a predetermined algorithm, and any one of the recognition codes in FIG. 4 is extracted. The gesture recognition processing algorithm is the same as the algorithm described in Patent Document 4, for example.

認識コードが決定されると、ジェスチャーコード処理手段3−3において、以下の各ステップによってジェスチャーコード処理が実行される。   When the recognition code is determined, gesture code processing is executed by the following steps in the gesture code processing means 3-3.

ステップS9―1:まず、ジェスチャーコード処理のためのワーク領域等の初期化が行われる。   Step S9-1: First, a work area and the like for gesture code processing are initialized.

ステップS9−2:ステップS9−1に続いて、認識コードが取り消し(0xFF04)であるか否かを判断する。取り消しであるときはステップS9−4に進み、取り消し以外のジェスチャーであれば、ステップS9−3に進む。   Step S9-2: Following step S9-1, it is determined whether or not the recognition code is canceled (0xFF04). If it is cancel, the process proceeds to step S9-4. If it is a gesture other than cancel, the process proceeds to step S9-3.

ステップS9−3:認識コードに基いて、ジェスチャー種類に応じたコマンド処理を実行する。すなわち、「削除」ジェスチャーであれば、選択された文字列等の削除処理を行い、「コピー」ジェスチャーであれば、コピーバッファに選択されている文字列等を記憶し、「ペースト」ジェスチャーであれば、コピーバッファに記憶されている文字列等をペーストする。   Step S9-3: Command processing corresponding to the gesture type is executed based on the recognition code. That is, if it is a “delete” gesture, the selected character string is deleted, and if it is a “copy” gesture, the selected character string is stored in the copy buffer. For example, the character string stored in the copy buffer is pasted.

ステップS9−4:直前のジェスチャー処理データについて取り消しの処理を実行する。直前のジェスチャー処理データは、後述するステップS9−11において記憶される。例えば、直前にペースト処理を実行していたときは、そのペーストした文字列を消去する。   Step S9-4: Cancel processing is performed on the immediately preceding gesture processing data. The immediately preceding gesture processing data is stored in step S9-11, which will be described later. For example, if paste processing has been executed immediately before, the pasted character string is deleted.

ステップS9−5:取り消されたジェスチャーについて、ジェスチャー適応履歴における取り消し回数に「1」を加算する。例えば、ぺースト処理を取り消した場合、直前の処理の認識コード(0xFF03)を参照してぺースト処理のジェスチャー適応履歴記憶領域を特定する。図4ではジェスチャー適応履歴は「2,1」であるのでし、取り消回数に「1」を加算し、「2,2」とする。   Step S9-5: For the canceled gesture, “1” is added to the number of cancellations in the gesture adaptation history. For example, when the paste process is canceled, the gesture adaptation history storage area of the paste process is specified with reference to the recognition code (0xFF03) of the immediately preceding process. In FIG. 4, since the gesture adaptation history is “2, 1”, “1” is added to the number of cancellations to obtain “2, 2”.

ステップS9−6:処理すべきジェスチャーについて、ジェスチャー適応履歴記憶領域の適応回数を「1」加算する。例えば、コピー処理を実行した場合、図4ではジェスチャー適応履歴は「8,0」であるのでし、適応回数に「1」を加算し、「9,0」とする。   Step S9-6: “1” is added to the number of adaptations in the gesture adaptation history storage area for the gesture to be processed. For example, when the copy process is executed, the gesture adaptation history is “8, 0” in FIG. 4, and “1” is added to the adaptation count to obtain “9, 0”.

ステップS9―7:取り消し回数をカウントした結果、取り消し頻度が閾値を越えたか否かを判断する。閾値を越えたときはステップS9−8に進み、閾値を越えていないときはステップS9−10に進む。   Step S9-7: As a result of counting the number of cancellations, it is determined whether or not the cancellation frequency exceeds a threshold value. When the threshold value is exceeded, the process proceeds to step S9-8, and when the threshold value is not exceeded, the process proceeds to step S9-10.

取り消し頻度の閾値は例えば「適応回数」とされ、ジェスチャー適応履歴において(適応回数<取り消し回数)のときは頻度が高いと判断する。例えば、ペースト処理の適応回数=2、取り消し回数=3ならば、取り消し頻度が高いと判断する。   The cancellation frequency threshold is, for example, “number of adaptations”, and it is determined that the frequency is high when the number of adaptations is less than the number of cancellations in the gesture adaptation history. For example, if the adaptation number of paste processes = 2 and the number of cancellations = 3, it is determined that the cancellation frequency is high.

なお頻度評価方法、閾値設定方法は、ジェスチャー種類の数や、ジェスチャーを実装するアプリケーション等に応じて最適なものを選択すべきである。   The frequency evaluation method and the threshold setting method should be selected optimally according to the number of gesture types, the application that implements the gesture, and the like.

ステップS9−8:図8のジェスチャー設定画面処理を表示する。   Step S9-8: The gesture setting screen process of FIG. 8 is displayed.

図10においてジェスチャー設定画面をより詳細に説明する。   The gesture setting screen will be described in detail with reference to FIG.

ジェスチャー設定画面には、ジェスチャー種類10−1、認識停止ラジオボタン10−2、10−3、現在のジェスチャー形状表示ボックス10−4、新規ジェスチャー形状入力ボックス10−5、設定終了ボタン10−6、クリアボタン10−7、キャンセルボタン10−8が設けられる。   The gesture setting screen includes a gesture type 10-1, a recognition stop radio button 10-2, 10-3, a current gesture shape display box 10-4, a new gesture shape input box 10-5, a setting end button 10-6, A clear button 10-7 and a cancel button 10-8 are provided.

現在のジェスチャー形状表示ボックス10−4には、現在設定されているジェスチャー形状が表示され、ユーザはジェスチャー種類10−1とともに現在のジェスチャー形状を確認し得る。   The current gesture shape display box 10-4 displays the currently set gesture shape, and the user can confirm the current gesture shape together with the gesture type 10-1.

認識停止ラジオボタン10−2、10−3は、ラジオボタン10−2がON、ラジオボタン10−3がOFFを示す。ラジオボタン10−2、10−3黒丸または白丸で表示され、有効となったラジオボタンが黒丸となる。ONのラジオボタン10−2が黒丸となると表示されているジェスチャーは認識対象から除外され、OFFのラジオボタン10−3が黒丸となると表示されているジェスチャーは認識対象となる。   The recognition stop radio buttons 10-2 and 10-3 indicate that the radio button 10-2 is ON and the radio button 10-3 is OFF. Radio buttons 10-2, 10-3 are displayed as black circles or white circles, and activated radio buttons are black circles. When the ON radio button 10-2 becomes a black circle, the displayed gesture is excluded from the recognition target, and when the OFF radio button 10-3 becomes a black circle, the displayed gesture becomes the recognition target.

白丸のラジオボタン10−2または10−3をペン3等で指示することにより黒丸に反転でき、他のラジオボタン10−3または10−2は白丸に反転される。   A white circle radio button 10-2 or 10-3 can be inverted to a black circle by pointing with the pen 3 or the like, and the other radio buttons 10-3 or 10-2 are inverted to a white circle.

新規ジェスチャー形状入力ボックス10−5においては、現在のジェスチャーに替えて登録すべき新規ジェスチャーの形状をペン3等により入力し得る。   In the new gesture shape input box 10-5, the shape of a new gesture to be registered in place of the current gesture can be input with the pen 3 or the like.

設定終了ボタン10―6は、認識停止ラジオボタン10−2、10−3や新規ジェスチャー形状入力ボックス10−5において行った設定を有効なものとし、ジェスチャー設定を終了するためのボタンである。   The setting end button 10-6 is a button for validating the setting performed in the recognition stop radio buttons 10-2 and 10-3 and the new gesture shape input box 10-5 and ending the gesture setting.

クリアボタン10−7は、その押下により、新規ジェスチャー形状入力ボックス10−5に入力した軌跡を消去するものである。   When the clear button 10-7 is pressed, the locus input in the new gesture shape input box 10-5 is deleted.

キャンセルボタン10−8は、その押下により、認識停止ラジオボタン10−2、10−3や新規ジェスチャー形状入力ボックス10−5において行った設定を無効とし、ジェスチャー設定を終了するものである。   When the cancel button 10-8 is pressed, the settings made in the recognition stop radio buttons 10-2 and 10-3 and the new gesture shape input box 10-5 are invalidated, and the gesture setting is ended.

ステップS9−9:ステップS9−8に続いて、ジェスチャー適応履歴の初期化を行う。ステップS9−8で、新規ジェスチャー形状が登録されたときには、該ジェスチャーの適応履歴を初期化し、適応回数=取り消し回数=0とする。   Step S9-9: Following step S9-8, the gesture adaptation history is initialized. When a new gesture shape is registered in step S9-8, the adaptation history of the gesture is initialized, and the number of adaptations = the number of cancellations = 0.

ステップS9−10:ジェスチャーコード処理を終了し、処理に使用したワーク領域等を解放する。   Step S9-10: The gesture code process is terminated and the work area used for the process is released.

ステップS9−11:今回処理したジェスチャー処理の内容を記憶する。すなわち、直前に処理したジェスチャーの種類を記憶しておき、次回の処理において参照可能とする。例えば、処理したジェスチャーが「ペースト」のジェスチャーであれば、認識コード=0xFF03およびそのジェスチャー処理種類「ペースト」を記憶しておく。   Step S9-11: The content of the gesture process processed this time is stored. That is, the type of gesture processed immediately before is stored and can be referred to in the next processing. For example, if the processed gesture is a “paste” gesture, the recognition code = 0xFF03 and the gesture processing type “paste” are stored.

図11において、図10のジェスチャー設定画面の処理は以下の各ステップによって実行される。   In FIG. 11, the process of the gesture setting screen of FIG. 10 is executed by the following steps.

ステップS11−1:ジェスチャー設定画面の処理を開始し、設定画面処理が使用するワーク領域等を初期化するとともに、設定画面のボタンや、枠を表示する。   Step S11-1: The processing of the gesture setting screen is started, the work area and the like used by the setting screen processing are initialized, and the buttons and frames of the setting screen are displayed.

ステップS11−2:ジェスチャー種類表示10−1を表示し、ステップS11−3に進む。   Step S11-2: The gesture type display 10-1 is displayed, and the process proceeds to Step S11-3.

ステップS11−3:ジェスチャー辞書においてジェスチャーの認識停止状態を参照し、認識停止ラジオボタン10−2、10−3を表示する。   Step S11-3: Refer to the gesture recognition stop state in the gesture dictionary and display the recognition stop radio buttons 10-2 and 10-3.

ステップS11―4:ジェスチャー辞書においてジェスチャー形状を参照し、現在のジェスチャー形状領域10−4内にジェスチャー形状を表示する。例えば、「ペースト」ジェスチャーであれば、図10に示すように、「ペースト」のジェスチャー形状を読込み、表示する。   Step S11-4: Refer to the gesture shape in the gesture dictionary, and display the gesture shape in the current gesture shape region 10-4. For example, in the case of a “paste” gesture, the “paste” gesture shape is read and displayed as shown in FIG.

ステップS11―5:認識停止ラジオボタン10−2または10−3がペン3によって押されたか否かを判断する。ラジオボタン10−2または10−3が押下されたときはステップS11―6に進み、押下されなかったときはステップS11−7にジャンプする。   Step S11-5: It is determined whether or not the recognition stop radio button 10-2 or 10-3 is pressed by the pen 3. When the radio button 10-2 or 10-3 is pressed, the process proceeds to step S11-6. When the radio button 10-2 or 10-3 is not pressed, the process jumps to step S11-7.

ステップS11−6:ラジオボタン10−2または10−3の押下に対応してワークエリアに、ジェスチャー停止フラグの書き換え内容を記録する。   Step S11-6: The content of rewriting the gesture stop flag is recorded in the work area in response to pressing of the radio button 10-2 or 10-3.

ステップS11−7:新規ジェスチャー入力領域10−5内にペン入力があったか否かを判断する。入力があったときはステップS11−8に進み、入力がなかったときはステップS11−10にジャンプする。   Step S11-7: It is determined whether or not there is a pen input in the new gesture input area 10-5. If there is an input, the process proceeds to step S11-8. If there is no input, the process jumps to step S11-10.

ペンダウンが10ー5内の位置座標である場合、ジェスチャーの新規入力として取り扱い、ペンアップするまでの位置座標データをジェスチャーの登録軌跡データとして取り扱う。   When pen down is a position coordinate within 10-5, it is handled as a new input of gesture, and the position coordinate data until pen up is handled as registered locus data of gesture.

ステップS11―8:新規ジェスチャー入力領域10−5に入力軌跡を描画するとともに、バッファ内にその軌跡の位置座標データを記憶し、ステップS11−9に進む。   Step S11-8: The input locus is drawn in the new gesture input area 10-5, the position coordinate data of the locus is stored in the buffer, and the process proceeds to Step S11-9.

ステップS11―9:ペンアップされた否かを判断する。ペンアップされたときは、ステップS11―10に進み、ペンダウンが継続しているときはステップS11―8に戻る。   Step S11-9: It is determined whether or not the pen is up. When the pen is up, the process proceeds to step S11-10, and when the pen-down continues, the process returns to step S11-8.

ステップS11―10:設定終了ボタン10−6が押されたか否かを判断する。設定終了ボタン10−6が押されたときはステップS11―11に進み、設定終了ボタン10−6が押されていなければステップS11―13に進む。   Step S11-10: It is determined whether or not the setting end button 10-6 has been pressed. When the setting end button 10-6 is pressed, the process proceeds to step S11-11. When the setting end button 10-6 is not pressed, the process proceeds to step S11-13.

ステップS11―11:ジェスチャー辞書への設定記憶処理を行う。すなわち、ステップS11―6でバッファに記憶した、ジェスチャー停止フラグの状態を、ジェスチャー辞書のジェスチャー停止フラグの記憶領域に記憶する。また、ステップS11―8でバッファに記憶した、新規ジェスチャー入力領域10−5内の入力軌跡位置座標を正規化するとともに、認識アルゴリズムによって特徴点等を抽出することによって、辞書データ化し、ジェスチャー形状記憶領域に記憶する。   Step S11-11: A setting storing process to the gesture dictionary is performed. That is, the state of the gesture stop flag stored in the buffer in step S11-6 is stored in the gesture stop flag storage area of the gesture dictionary. In addition, the input trajectory position coordinates in the new gesture input area 10-5 stored in the buffer in step S11-8 are normalized, and feature points are extracted by a recognition algorithm, thereby generating dictionary data and storing the gesture shape. Store in the area.

ステップS11―12:クリアボタン10−7が押された否か判断する。クリアボタン10−7が押されたときはステップS11―13に進み、押されていないときはステップS11―14に進む。   Step S11-12: It is determined whether or not the clear button 10-7 has been pressed. When the clear button 10-7 is pressed, the process proceeds to step S11-13. When the clear button 10-7 is not pressed, the process proceeds to step S11-14.

ステップS11―13:入力エリアのクリア処理を行う。すなわち入力エリア10―5内に入力された軌跡の描画を消去し、バッファ内に記憶した位置座標データを消去する。   Step S11-13: The input area is cleared. That is, the drawing of the locus input in the input area 10-5 is deleted, and the position coordinate data stored in the buffer is deleted.

ステップS11―14:キャンセルボタン10―8が押された否か判断する。キャンセルボタン10−8が押されたときはステップS11―15に進んでジェスチャー設定画面処理を終了し、キャンセルボタン10−8が押されなかったときは、入力待ちなり、ステップS11―5に戻る。   Step S11-14: It is determined whether or not the cancel button 10-8 is pressed. When the cancel button 10-8 is pressed, the process proceeds to step S11-15 to end the gesture setting screen process. When the cancel button 10-8 is not pressed, the process waits for input and returns to step S11-5.

ステップS11−15:ジェスチャー設定画面処理を終了し、確保したワーク領域等を解放する。また、図10の設定画面のクローズ処理を行う。   Step S11-15: The gesture setting screen process is terminated, and the secured work area and the like are released. Further, the setting screen closing process of FIG. 10 is performed.

ジェスチャー設定画面処理においては、取り消し頻度が高いジェスチャーが自動的に表示されるので、ユーザにとってそのジェスチャーの要否を容易に判断でき、その認識停止設定も容易である。またジェスチャーの形状の適否を判定して、新しい形状を登録することも容易である。   In the gesture setting screen process, since a gesture with a high cancellation frequency is automatically displayed, it is possible for the user to easily determine whether the gesture is necessary and to easily set the recognition stop. It is also easy to register the new shape by determining the suitability of the shape of the gesture.

これによってジェスチャー形状および認識対象ジェスチャーを、ユーザにとって使い易い状態にカスタマイズし得る。   Thereby, the gesture shape and the recognition target gesture can be customized to be easy to use for the user.

次に本発明に係る入力軌跡処理装置および入力軌跡処理方法の実施例2を図面に基いて説明する。
[入力軌跡処理装置]
実施例1では、ジェスチャーの取り消し頻度が高くなったときにジェスチャー設定画面が表示されるので、ユーザの判断で積極的にジェスチャーを認識対象から除外することは不可能であった。
Next, a second embodiment of the input locus processing apparatus and the input locus processing method according to the present invention will be described with reference to the drawings.
[Input locus processing device]
In the first embodiment, since the gesture setting screen is displayed when the frequency of canceling the gesture is high, it is impossible to positively exclude the gesture from the recognition target by the user's judgment.

実施例2では、ジェスチャーの認識を禁止するジェスチャー禁止ジェスチャーを設け、ジェスチャー禁止ジェスチャー入力後に入力されたジェスチャーを認識対象から除外する。   In the second embodiment, a gesture prohibiting gesture for prohibiting recognition of a gesture is provided, and a gesture input after inputting the gesture prohibiting gesture is excluded from recognition targets.

図12において、実施例2が適用された携帯情報機器1は、図3と同様の位置座標入力部2−1、表示部2−2、手書きジェスチャー認識手段3−1、認識辞書3−2、コマンド処理手段3−5、キー、メニュー処理手段3−6を備える。   12, the portable information device 1 to which the second embodiment is applied includes a position coordinate input unit 2-1, a display unit 2-2, a handwritten gesture recognition unit 3-1, a recognition dictionary 3-2, similar to FIG. 3. Command processing means 3-5, key and menu processing means 3-6 are provided.

実施例2では、手書きジェスチャー認識手段3−1およびキー、メニュー処理手段3−6にはジェスチャーコード処理手段12−2が接続され、ジェスチャーコード処理手段12−2にはジェスチャー禁止設定記憶手段12−1が接続される。   In the second embodiment, a gesture code processing means 12-2 is connected to the handwritten gesture recognition means 3-1 and the key / menu processing means 3-6, and a gesture prohibition setting storage means 12- is connected to the gesture code processing means 12-2. 1 is connected.

ジェスチャーコード処理手段12−2は禁止ジェスチャーを認識すると、次に入力されるジェスチャーの停止フラグを設定する。このため、ジェスチャーコード処理手段12−2は禁止ジェスチャー後に入力されたジェスチャーの認識コードをジェスチャー禁止設定記憶手段12−1に送る。   When the gesture code processing means 12-2 recognizes the prohibited gesture, it sets a stop flag for the next input gesture. For this reason, the gesture code processing unit 12-2 sends the gesture recognition code input after the prohibited gesture to the gesture prohibition setting storage unit 12-1.

ジェスチャー禁止設定記憶手段12−1は、ジェスチャーコード処理手段12−2から送られてくる認識コードのジェスチャーについて、ジェスチャー辞書のジェスチャー停止フラグを停止中に設定する。
図12における図3と同様の構成については説明を省略する。
[入力軌跡処理方法]
図13において、図12の入力軌跡処理装置で実施される入力軌跡処理方法は以下の各ステップによって実行される。なおフローチャートの処理を実行するプログラムはROM8に記憶されている。
The gesture prohibition setting storage unit 12-1 sets the gesture stop flag of the gesture dictionary to “stopped” for the gesture of the recognition code sent from the gesture code processing unit 12-2.
The description of the same configuration in FIG. 12 as in FIG. 3 is omitted.
[Input locus processing method]
In FIG. 13, the input trajectory processing method implemented by the input trajectory processing apparatus of FIG. 12 is executed by the following steps. A program for executing the processing of the flowchart is stored in the ROM 8.

ジェスチャーが入力され、実施例1と同様にジェスチャーを認識し、認識されたジェスチャーのジェスチャー停止フラグが動作中であったときに対応する認識コードを出力する。以後ステップS13−1以下の処理が実行される。   A gesture is input, the gesture is recognized in the same manner as in the first embodiment, and a corresponding recognition code is output when the gesture stop flag of the recognized gesture is in operation. Thereafter, the processes after step S13-1 are executed.

ステップS13−1:ジェスチャーコード処理を開始し、ジェスチャーコード処理のためのワーク領域等を初期化する。   Step S13-1: The gesture code process is started, and a work area and the like for the gesture code process are initialized.

ステップS13−2:入力されたジェスチャーが禁止ジェスチャーであるか否かを判断する。禁止ジェスチャーのときはステップS13−3に進み、禁止ジェスチャーでなかったときはステップS13−4に進む。   Step S13-2: It is determined whether or not the input gesture is a prohibited gesture. If it is a prohibited gesture, the process proceeds to step S13-3. If it is not a prohibited gesture, the process proceeds to step S13-4.

ステップS13―3:次の入力イベントの入力待ちとし、次の入力がジェスチャーか否か判断する。次の入力がジェスチャーのときは、ステップS13−5に進み、ジェスチャーでないとき、すなわちキーボード入力等であれば、ステップS13―6に進み、処理を終了する。   Step S13-3: Wait for input of the next input event, and determine whether or not the next input is a gesture. If the next input is a gesture, the process proceeds to step S13-5. If it is not a gesture, that is, if it is a keyboard input or the like, the process proceeds to step S13-6 and the process ends.

ステップS13―4:実施例1のステップS9−3と同様に、ジェスチャー種類に応じたコマンド処理を実行する。この処理は、実施例1と同様であるので説明は省略する。   Step S13-4: Similar to step S9-3 of the first embodiment, command processing corresponding to the gesture type is executed. Since this process is the same as that of the first embodiment, the description thereof is omitted.

ステップS13―5:入力されたジェスチャーの認識設定禁止処理を行う。禁止ジェスチャーの次に入力されたジェスチャーの辞書のジェスチャー停止フラグ記憶領域に停止中を記憶する。これによって、以後のジェスチャー認識において、該ジェスチャーは認識対象から除外される。   Step S13-5: Perform recognition setting prohibition processing for the input gesture. “Stopped” is stored in the gesture stop flag storage area of the dictionary of gestures input next to the prohibited gesture. Thus, the gesture is excluded from recognition targets in subsequent gesture recognition.

ステップS13―6:ジェスチャーコード処理を終了し、ワーク領域等の解放を行う。   Step S13-6: The gesture code process is terminated, and the work area and the like are released.

以上のとおり、ジェスチャー禁止ジェスチャーを設けることにより、ユーザは特定のジェスチャーを簡単に認識対象から外す設定を行うことができる。   As described above, by providing the gesture prohibited gesture, the user can easily set a specific gesture to be excluded from the recognition target.

なお、同様に、ジェスチャー起動ジェスチャーを設ければ、ジェスチャー起動ジェスチャー入力後に停止中のジェスチャーを入力することにより、該ジェスチャーのジェスチャー停止フラグを動作中に書き換えることができる。   Similarly, if a gesture activation gesture is provided, the gesture stop flag of the gesture can be rewritten during operation by inputting a gesture that is stopped after inputting the gesture activation gesture.

次に本発明に係る入力軌跡処理装置および入力軌跡処理方法の実施例3を図面に基いて説明する。
[入力軌跡処理装置]
実施例3はマクロジェスチャーの設定、処理を可能とする。
Next, a third embodiment of the input locus processing apparatus and the input locus processing method according to the present invention will be described with reference to the drawings.
[Input locus processing device]
The third embodiment enables macro gesture setting and processing.

図14において、実施例4が適用された携帯情報機器1は、図3と同様の位置座標入力部2−1、表示部2−2、手書きジェスチャー認識手段3−1、認識辞書3−2、コマンド処理手段3−5、キー、メニュー処理手段3−6を備える。   14, the portable information device 1 to which the fourth embodiment is applied includes a position coordinate input unit 2-1, a display unit 2-2, a handwritten gesture recognition unit 3-1, a recognition dictionary 3-2, Command processing means 3-5, key and menu processing means 3-6 are provided.

実施例3では、手書きジェスチャー認識手段3−1およびキー、メニュー処理手段3−6にはジェスチャーコード処理手段14−2が接続され、ジェスチャーコード処理手段14−2にはマクロジェスチャーマクロ記憶手段14−1が接続されている。   In the third embodiment, a gesture code processing means 14-2 is connected to the handwritten gesture recognition means 3-1 and the key / menu processing means 3-6, and a macro gesture macro storage means 14- is connected to the gesture code processing means 14-2. 1 is connected.

ジェスチャーコード処理手段14−2は、マクロ設定ジェスチャーを認識したときに、その後の一連のジェスチャー、メニュー操作をマクロジェスチャーマクロ記憶手段14−1に渡し、記憶させる処理を実行する。   When the gesture code processing unit 14-2 recognizes the macro setting gesture, the gesture code processing unit 14-2 performs a process of passing and storing a series of subsequent gestures and menu operations to the macro gesture macro storage unit 14-1.

図15において、マクロジェスチャーマクロ記憶構造において、例えばマクロ1については、記憶領域1に全文字列選択の操作が記憶され、記憶領域2にコピージェスチャーが記憶され、マクロ2については、記憶領域1に画像ファイル選択の操作が記憶され、記憶領域2に画像解像度変換の操作が記憶され、記憶領域3にメイル転送の操作が記憶される。   15, in the macro gesture macro storage structure, for example, for macro 1, all character string selection operations are stored in storage area 1, copy gestures are stored in storage area 2, and macro 2 is stored in storage area 1. An image file selection operation is stored, an image resolution conversion operation is stored in the storage area 2, and a mail transfer operation is stored in the storage area 3.

図16において、マクロジェスチャー辞書はジェスチャー形状、認識コード、ジェスチャー処理種類およびマクロ記憶領域によって構成される。
ジェスチャー形状には例えば丸1型のジェスチャー、丸2型のジェスチャー、丸a型のジェスチャー、丸B型のジェスチャー、丸E型のジェスチャーが登録される。
In FIG. 16, the macro gesture dictionary is composed of a gesture shape, a recognition code, a gesture processing type, and a macro storage area.
As the gesture shape, for example, a round 1 type gesture, a round 2 type gesture, a round a type gesture, a round B type gesture, and a round E type gesture are registered.

丸1型のジェスチャーに対して、例えば認識コードFF05、ジェスチャー処理種類マクロジェスチャー1、およびマクロ記憶領域1が登録され、丸2型のジェスチャーに対して、例えば認識コードFF06、ジェスチャー処理種類マクロジェスチャー2、およびマクロ記憶領域2が登録され、丸a型のジェスチャーに対して、例えば認識コードFF07、ジェスチャー処理種類マクロ開始ジェスチャー1、およびマクロ記憶領域1が登録され、丸B型のジェスチャーに対して、例えば認識コードFF08、ジェスチャー処理種類マクロ開始ジェスチャー2、およびマクロ記憶領域2が登録され、丸E型のジェスチャーに対して、例えば認識コードFF09、ジェスチャー処理種類マクロ終了ジェスチャーが登録される。
[入力軌跡処理方法]
図17において、図14の入力軌跡処理装置で実施される入力軌跡処理方法は以下の各ステップによって実行される。なおフローチャートの処理を実行するプログラムはROM8に記憶されている。
For example, the recognition code FF05, the gesture processing type macro gesture 1 and the macro storage area 1 are registered for the round type 1 gesture. For example, the recognition code FF06, the gesture processing type macro gesture 2 is registered for the round type 2 gesture. , And the macro storage area 2 are registered, for example, the recognition code FF07, the gesture processing type macro start gesture 1, and the macro storage area 1 are registered for the round a-type gesture, and for the round B-type gesture, For example, the recognition code FF08, the gesture processing type macro start gesture 2, and the macro storage area 2 are registered, and for example, the recognition code FF09 and the gesture processing type macro end gesture are registered for the round E-type gesture.
[Input locus processing method]
In FIG. 17, the input trajectory processing method implemented by the input trajectory processing apparatus of FIG. 14 is executed by the following steps. A program for executing the processing of the flowchart is stored in the ROM 8.

ジェスチャーが入力され、実施例1と同様にジェスチャーを認識されると、各ジェスチャーについてジェスチャー辞書の認識コードが識別されるとともに、マクロジェスチャー辞書中のマクロジェスチャーの認識コードが識別され、ステップS17−1以下の処理が実行される。   When the gesture is input and the gesture is recognized in the same manner as in the first embodiment, the recognition code of the gesture dictionary is identified for each gesture, and the recognition code of the macro gesture in the macro gesture dictionary is identified, and step S17-1 The following processing is executed.

ステップS17―1:マクロジェスチャーコード処理を開始する。まずジェスチャーコード処理のためのワーク領域等を初期化する。   Step S17-1: Macro gesture code processing is started. First, the work area for the gesture code processing is initialized.

ステップS17―2:入力されたジェスチャーがマクロ開始ジェスチャー(認識コード0xFF07または0xFF08)か否かを判断する。マクロ開始ジェスチャーのときはステップS17―3に進み、マクロ開始ジェスチャー以外のジェスチャーのときはステップS17−4に進む。   Step S17-2: It is determined whether or not the input gesture is a macro start gesture (recognition code 0xFF07 or 0xFF08). If it is a macro start gesture, the process proceeds to step S17-3. If it is a gesture other than the macro start gesture, the process proceeds to step S17-4.

ステップS17―3:まずマクロ開始ジェスチャーの種類を識別し、種類に応じた記憶場所を選択する。例えばマクロ開始ジェスチャーがマクロ開始ジェスチャー1であればマクロ記憶領域1を使用し、マクロ開始ジェスチャー2であればマクロ記憶領域2を使用する。   Step S17-3: First, the type of the macro start gesture is identified, and a storage location corresponding to the type is selected. For example, when the macro start gesture is the macro start gesture 1, the macro storage area 1 is used, and when the macro start gesture 2 is used, the macro storage area 2 is used.

ステップS17―4:実施例1のステップS9−3と同様に、マクロ開始ジェスチャー以外のジェスチャーの処理を実行する。   Step S17-4: Similar to step S9-3 of the first embodiment, processing of gestures other than the macro start gesture is executed.

ステップS17―5:次の入力イベントの入力待ちとし、次の入力がマクロ終了ジェスチャー(認識コードFF09)か否か判断する。次の入力がマクロ終了ジェスチャーのときは、ステップS17−10に進んで処理を終了し、マクロ終了ジェスチャーでないときはステップS17―6に進む。   Step S17-5: Waits for the next input event to be input, and determines whether or not the next input is a macro end gesture (recognition code FF09). When the next input is a macro end gesture, the process proceeds to step S17-10 to end the process, and when it is not a macro end gesture, the process proceeds to step S17-6.

ステップS17―6:入力がジェスチャーか否か判断する。入力がジェスチャーのときはステップS17−7に進み、ジェスチャー以外の入力のときはステップS17―8に進む。   Step S17-6: It is determined whether or not the input is a gesture. If the input is a gesture, the process proceeds to step S17-7. If the input is other than a gesture, the process proceeds to step S17-8.

ステップS17―7:入力されたジェスチャーの認識コードを、ステップS17−3で設定された記憶領域に記憶する。例えばマクロ開始ジェスチャーがマクロ開始ジェスチャー1であれば、マクロ1の記憶場所の記憶領域1から順にジェスチャーの認識コードを記憶していく。   Step S17-7: The recognition code of the input gesture is stored in the storage area set in step S17-3. For example, if the macro start gesture is the macro start gesture 1, the gesture recognition codes are stored in order from the storage area 1 of the storage location of the macro 1.

ステップS17―8:入力がメニュー選択指示であるか否かを判断する。入力がメニュー選択指示のときはステップS17−9に進み、メニュー選択指示以外のときはステップS17―3に戻って入力待ちになる。   Step S17-8: It is determined whether or not the input is a menu selection instruction. If the input is a menu selection instruction, the process proceeds to step S17-9. If the input is not a menu selection instruction, the process returns to step S17-3 and waits for input.

ステップS17―9:メニュー選択指示をマクロ記憶領域に記憶する。例えば、最初のマクロ開始ジェスチャーがマクロ開始ジェスチャー2であれば、マクロ2の記憶場所の記憶領域1から順次メニュー選択によって実行されたコマンドを記憶していく。   Step S17-9: Store the menu selection instruction in the macro storage area. For example, if the first macro start gesture is the macro start gesture 2, commands executed by menu selection are sequentially stored from the storage area 1 of the storage location of the macro 2.

ステップS17―10:マクロジェスチャーコード処理を終了し、ワーク領域、辞書ファイル等の解放を行う。   Step S17-10: The macro gesture code process is terminated, and the work area, dictionary file, etc. are released.

図15のマクロ2を生成する場合、例えば画像ファイルのサムネールが表示されている画像ファイ表示アプリケーションにおいて、まず画像ファイルサムネール表示領域の内で、マクロ開始ジェスチャー2を入力する。   When generating the macro 2 of FIG. 15, for example, in the image file display application in which the thumbnail of the image file is displayed, the macro start gesture 2 is first input in the image file thumbnail display area.

次に画像ファイルを選択ジェスチャーで選択すると、その選択コマンドがマクロ2の記憶領域1に記憶される。   Next, when an image file is selected with a selection gesture, the selection command is stored in the storage area 1 of the macro 2.

次にメニューから画像解像度変換が選ばれるとその画像解像度変換コマンドがマクロ2の記憶領域2に記憶され、次にメニューからメイル転送が選択されると、そのメイル転送コマンドがマクロ2の記憶領域3に記憶される。   Next, when image resolution conversion is selected from the menu, the image resolution conversion command is stored in the storage area 2 of the macro 2, and when mail transfer is selected from the menu, the mail transfer command is stored in the storage area 3 of the macro 2. Is remembered.

最後に、マクロ終了ジェスチャーが入力されると記憶処理が終了される。   Finally, when the macro end gesture is input, the storage process is ended.

図15のマクロ2のマクロコマンドが設定された後に、画像サムネール上で、マクロジェスチャー2(認識コード0xFF06)を書くと、マクロジェスチャー2と認識され、マクロ記憶領域2の中に記憶されているコマンドが順次実行される。これによってマクロジェスチャー2の下の画像ファイルが選択され、画像解像度変換、メイル転送が順次実行される。   When the macro gesture 2 (recognition code 0xFF06) is written on the image thumbnail after the macro command of macro 2 in FIG. 15 is set, the command is recognized as the macro gesture 2 and stored in the macro storage area 2 Are executed sequentially. As a result, the image file under the macro gesture 2 is selected, and image resolution conversion and mail transfer are sequentially executed.

実施例3は、マクロジェスチャー、マクロ開始ジェスチャー、マクロ終了ジェスチャーを設けることにより、ジェスチャーのマクロ機能が実現され、より複雑かつ高度な入力軌跡処理が可能である。   In the third embodiment, the macro function of the gesture is realized by providing the macro gesture, the macro start gesture, and the macro end gesture, and more complicated and advanced input trajectory processing is possible.

次に本発明に係る入力軌跡処理装置および入力軌跡処理方法の実施例4を図面に基いて説明する。
[入力軌跡処理装置]
実施例4では、認識処理変更ジェスチャーによってジェスチャー認識処理停止期間を設定し、ジェスチャー認識処理停止期間中は、編集ジェスチャー等を認識しない。これによって、通常のドラッグドロップ処理や、文字入力の操作が容易になる。
Next, a fourth embodiment of the input locus processing apparatus and the input locus processing method according to the present invention will be described with reference to the drawings.
[Input locus processing device]
In the fourth embodiment, the gesture recognition process stop period is set by the recognition process change gesture, and the edit gesture or the like is not recognized during the gesture recognition process stop period. This facilitates normal drag and drop processing and character input operations.

図18の機能ブロック図において、実施例4が適用された携帯情報機器1は、図3と同様の位置座標入力部2−1および表示部2−2を有し、位置座標入力部2−1には手書き文字認識手段3−1が接続されている。手書き文字認識手段3−1には、認識辞書3−2、認識文字種類変更指示手段3−3、入力文字編集処理手段3−4、手書きジェスチャー処理手段3−5、ドラッグドロップ処理手段3−6が接続され、入力文字編集処理手段3−4、手書きジェスチャー処理手段3−5、ドラッグドロップ処理手段3−6は表示部2−2に接続されている。   In the functional block diagram of FIG. 18, the portable information device 1 to which the fourth embodiment is applied has a position coordinate input unit 2-1 and a display unit 2-2 similar to those in FIG. 3, and the position coordinate input unit 2-1 Is connected with handwritten character recognition means 3-1. The handwritten character recognition means 3-1 includes a recognition dictionary 3-2, a recognized character type change instruction means 3-3, an input character editing processing means 3-4, a handwriting gesture processing means 3-5, and a drag drop processing means 3-6. Are connected, and the input character editing processing means 3-4, the handwriting gesture processing means 3-5, and the drag drop processing means 3-6 are connected to the display unit 2-2.

位置座標入力部2−1には、手書き文字や、ジェスチャーの手書軌跡が入力され、入力された手書き軌跡データは、手書き文字認識部3−1に送られる。   A handwritten character or a handwritten locus of a gesture is input to the position coordinate input unit 2-1, and the input handwritten locus data is sent to the handwritten character recognizing unit 3-1.

手書き文字認識部3−1は、入力された手書軌跡のXY位置座標データ列を認識処理し、文字コード、ジェスチャー認識コードおよびそのコード入力位置のXY座標等を出力する。手書き文字認識部3−1の認識処理は公知の認識アルゴリズム、例えば特許第3155577号等に記載のアルゴリズムによって処理される。同アルゴリズムでは、入力ストロークの始点、中間点、終点の位置座標と、辞書ストロークの位置座標間の距離を計算して、入力全ストロークの類似度を判定する。   The handwritten character recognition unit 3-1 recognizes the input XY position coordinate data string of the handwriting trajectory, and outputs a character code, a gesture recognition code, an XY coordinate of the code input position, and the like. The recognition process of the handwritten character recognition unit 3-1 is processed by a known recognition algorithm, for example, an algorithm described in Japanese Patent No. 3155777. In this algorithm, the distance between the position coordinates of the start point, intermediate point, and end point of the input stroke and the position coordinate of the dictionary stroke is calculated to determine the similarity of all input strokes.

出力された文字コード、認識コードは、そのコードの種類に応じて、認識文字種類変更指示手段3−3、入力文字編集処理手段3−4、手書きジェスチャー処理手段3−5およびドラッグドロップ処理手段3−6に渡される。   The output character code and recognition code are recognized character type change instruction means 3-3, input character edit processing means 3-4, handwritten gesture processing means 3-5 and drag drop processing means 3 according to the type of the code. Passed to -6.

認識辞書3−2には、複数ユーザの入力軌跡サンプルデータの平均値を、手書き文字認識部3−1により辞書データ化して登録してある。辞書データは、標準化した入力軌跡の特徴データと、文字コードおよびジェスチャー認識コードとを対応付けている。   In the recognition dictionary 3-2, an average value of input locus sample data of a plurality of users is registered as dictionary data by the handwritten character recognition unit 3-1. The dictionary data associates standardized input trajectory feature data with character codes and gesture recognition codes.

認識文字種変更指示手段3−3は、手書き文字認識部3−1から、認識処理変更ジェスチャーが送られてくると、ジェスチャー認識処理を停止する制御コマンドを手書き文字認識部3−1に送り、認識処理停止タイマーを起動し、規定時間が経過したらジェスチャー認識処理開始制御メッセージを手書き文字認識部3−1に送る。   When the recognition process change gesture is sent from the handwritten character recognition unit 3-1, the recognized character type change instruction unit 3-3 sends a control command to stop the gesture recognition process to the handwritten character recognition unit 3-1. A process stop timer is started, and when a specified time has elapsed, a gesture recognition process start control message is sent to the handwritten character recognition unit 3-1.

入力文字編集処理手段3−4は、手書き文字認識部3−1から文字コードが送られてくると、文字入力領域に文字コードを入力して文字フォントを表示し、文字編集処理を開始する。入力文字編集処理手段3−4の処理は、公知の手書き文字入力装置と同様である。   When the character code is sent from the handwritten character recognizing unit 3-1, the input character editing processing means 3-4 inputs the character code in the character input area, displays the character font, and starts the character editing process. The processing of the input character editing processing means 3-4 is the same as that of a known handwritten character input device.

手書きジェスチャー処理手段3−5は、手書き文字認識部3−1からジェスチャーの認識コードが送られてくると、その入力位置における編集処理を開始する。   The handwriting gesture processing means 3-5 starts the editing process at the input position when the gesture recognition code is sent from the handwritten character recognition unit 3-1.

ドラッグドロップ処理手段3−6は、ポインティングデバイスによる操作であり、公知のドラッグドロップ処理を行う。例えば、表示部においてファイルアイコン上にペンを押下し、押下状態のままペンを移動することにより、ファイルアイコンを別位置へ移動し得る。ファイルアイコンをファイルフォルダーアイコン上まで移動してペンを離すと、選択したファイルはファイルフォルダー内に移動する。   The drag drop processing means 3-6 is an operation by a pointing device, and performs a known drag drop process. For example, the file icon can be moved to another position by pressing the pen on the file icon in the display unit and moving the pen while the button is pressed. Move the file icon over the file folder icon and release the pen to move the selected file into the file folder.

図19は認識辞書の構成を示し、例えば、手書き軌跡の種類別の形状、出力文字コード、認識後の処理例の対応関係を記憶している。   FIG. 19 shows the configuration of the recognition dictionary, which stores, for example, the correspondence between types of handwritten trajectories, output character codes, and processing examples after recognition.

図19において、手書き軌跡は、手書き文字、ジェスチャー形状、認識処理変更ジェスチャーの3種類に分類される。手書き文字は、数字2を例としてあげているが、英文字や漢字等も当然処理可能である。   In FIG. 19, handwritten trajectories are classified into three types: handwritten characters, gesture shapes, and recognition process change gestures. As the handwritten character, the number 2 is given as an example, but English characters and kanji characters can naturally be processed.

ジェスチャーは入力文字等の編集に使用され、「挿入」、「削除」等のジェスチャーが定義される。   Gestures are used for editing input characters and the like, and gestures such as “insert” and “delete” are defined.

認識処理変更ジェスチャーは、下から上に直線を引いた形状等、通常の文字の入力時に使われる書き方と明瞭に区別し得る形状とされる。   The recognition processing change gesture has a shape that can be clearly distinguished from the writing method used when inputting normal characters, such as a shape in which a straight line is drawn from the bottom to the top.

認識処理変更ジェスチャーが入力されると、手書き文字認識部3−1は認識処理の結果、認識コード「0xFFFF」を認識文字種変更指示手段3−3に出力する。これによって認識文字種変更指示手段3−3は、ジェスチャー認識処理を停止する制御コマンドを手書き文字認識部3−1に送り、一定期間ジェスチャー認識処理を停止する。   When the recognition process change gesture is input, the handwritten character recognition unit 3-1 outputs the recognition code “0xFFFF” to the recognized character type change instruction unit 3-3 as a result of the recognition process. Accordingly, the recognized character type change instruction unit 3-3 sends a control command for stopping the gesture recognition process to the handwritten character recognition unit 3-1, and stops the gesture recognition process for a certain period.

ジェスチャー認識処理停止期間中は、編集ジェスチャー等を入力しても認識されないので、通常のドラッグドロップ処理や、文字入力の操作が容易になる。ジェスチャー認識処理停止期間中が終了すると、ジェスチャー認識処理が再開される。   During the gesture recognition process stop period, even if an edit gesture or the like is input, it is not recognized, so that a normal drag drop process or character input operation is facilitated. When the gesture recognition process stop period ends, the gesture recognition process is resumed.

図19の認識辞書では、手書き軌跡種類として手書き文字「2」、山型類似の編集ジェスチャーおよび縦線状の認識処理変更ジェスチャーが定義され、これら手書き軌跡種類に対して、認識コード「0xFF12」、「0xFFF0」、「0xFFFF」、処理例「文字入力領域に2が入力される。」、「そのジェスチャーが書かれた場所のコピーバッファに記憶されているものが挿入される。」、「一定期間の間ジェスチャー認識処理を禁止する。この軌跡を認識した後すぐに、上記編集ジェスチャーを書いても、編集動作は行わない。」が登録されている。   In the recognition dictionary of FIG. 19, a handwritten character “2”, a mountain-shaped similar editing gesture, and a vertical line-like recognition processing change gesture are defined as the handwriting locus type, and the recognition code “0xFF12”, “0xFFF0”, “0xFFFF”, processing example “2 is input in the character input area”, “what is stored in the copy buffer where the gesture is written is inserted”, “a certain period of time The gesture recognition process is forbidden during this period. Even if the editing gesture is written immediately after recognizing this locus, no editing operation is performed.

[入力軌跡処理方法]
次に、図18の入力軌跡処理装置で実施される入力軌跡処理方法の実施例4を図面に基いて説明する。
[Input locus processing method]
Next, a fourth embodiment of the input trajectory processing method implemented by the input trajectory processing apparatus of FIG. 18 will be described with reference to the drawings.

図20、図21、図22、図23は実施例4のジェスチャー入力時における表示部2−2の表示画面例であり、図24は入力軌跡処理方法を示すフローチャートである。   20, FIG. 21, FIG. 22 and FIG. 23 are examples of display screens of the display unit 2-2 at the time of gesture input according to the fourth embodiment, and FIG. 24 is a flowchart showing an input trajectory processing method.

図24において、入力軌跡処理方法は以下の各ステップによって実行される。   In FIG. 24, the input trajectory processing method is executed by the following steps.

なおフローチャートの処理を実行するプログラムはROM8に記憶されている。   A program for executing the processing of the flowchart is stored in the ROM 8.

ステップS24−1:入力位置座標の記憶バッファ等を初期化し、ペン入力処理を開始して、ステップS24−2に進む。   Step S24-1: The input position coordinate storage buffer and the like are initialized, pen input processing is started, and the process proceeds to Step S24-2.

ステップS24−2:始点座標位置のチェック処理を行う。すなわち、ペンで押下された最初の位置を始点として、始点の座標を取得し、ステップ24−3に進む。   Step S24-2: The starting point coordinate position is checked. That is, using the first position pressed with the pen as the starting point, the coordinates of the starting point are acquired, and the process proceeds to step 24-3.

ステップS24−3:始点位置に図20の様な、ファイルを表すアイコン等が存在するかどうかを判断するとともに、ジェスチャー認識処理停止期間中か否かを判断する。   Step S24-3: It is determined whether or not an icon representing a file or the like as shown in FIG. 20 exists at the start point position, and whether or not the gesture recognition process is stopped.

図20は、ファイルをアイコンとして表示するファイルブラウザーの表示画面であり、ペンをアイコン上で押下して移動せず離すことにファイルの内容を表示する等公知の操作が可能である。   FIG. 20 shows a display screen of a file browser that displays a file as an icon, and a known operation such as displaying the contents of the file by pressing the pen on the icon and moving it without moving is possible.

始点位置のアイコンが存在せず、かつジェスチャー認識処理停止期間中でないときは、ステップS24−5に進み、始点位置のアイコンが存在するとき、あるいはジェスチャー認識処理停止期間中のときはステップS24−5進む。   If the start position icon does not exist and the gesture recognition process is not stopped, the process proceeds to step S24-5. If the start position icon exists or the gesture recognition process is not stopped, step S24-5 is performed. move on.

すなわち、始点位置にアイコンがあるときは、ドラッグドロップ処理を実行する。実施例4はファイルブラウザーでの入力処理に適応されているが、ワープロその他のアプリケーションに適応する場合は他の処理が採用される。   That is, when there is an icon at the start point position, a drag drop process is executed. The fourth embodiment is adapted to input processing in a file browser, but other processing is adopted when adapting to a word processor or other applications.

ステップS24−4:通常のドラッグドロップ処理等を実行する。例えば、図20の電子メイル1.ETXファイルアイコン上でペンを押下し、ペンを押下したまま、ごみ箱アイコン上にペンを移動してペンを離せば、その電子メイル1.ETXファイルは削除される。   Step S24-4: A normal drag drop process or the like is executed. For example, the electronic mail 1. If you press the pen on the ETX file icon, move the pen over the trash can icon while holding down the pen, and release the pen, the electronic mail The ETX file is deleted.

ステップS24−5:入力軌跡の認識処理を行い、ステップS24−6に進む。入力された始点から終点(ペンが押下した地点から離された地点)までの位置座標データ列を正規化し、特徴点を抽出する。入力軌跡の特徴点は、認識辞書の辞書パターンの特徴点と比較され、最も一致度が高い辞書パターンの認識コードを認識結果とする。   Step S24-5: An input locus recognition process is performed, and the process proceeds to step S24-6. The position coordinate data string from the input start point to the end point (a point separated from the point where the pen is pressed) is normalized, and feature points are extracted. The feature points of the input trajectory are compared with the feature points of the dictionary pattern in the recognition dictionary, and the recognition code of the dictionary pattern with the highest degree of matching is used as the recognition result.

認識処理アルゴリズムは、前記特許第3155577号等に記載の公知アルゴリズムが使用される。   As the recognition processing algorithm, a known algorithm described in Japanese Patent No. 3155777 is used.

例えば下から上への縦線状のジェスチャーが入力されたとき、図19の認識処理変更ジェスチャーの一致度が最も高くなり、数字「2」の辞書パターンは一致度が低い。このように検出された一致度が最も高い認識コードを記憶しておく。   For example, when a vertical line-like gesture from the bottom to the top is input, the matching degree of the recognition processing change gesture of FIG. 19 is the highest, and the dictionary pattern of the number “2” has a low matching degree. The recognition code having the highest degree of coincidence detected in this way is stored.

ステップS24−6:ステップS24−5で認識された入力軌跡が認識処理変更ジェスチャー(認識コード0xFFFF)か否かを判断する。入力軌跡が認識処理変更ジェスチャーのときは、ステップS24−7に進み、認識処理変更ジェスチャーでなければステップS24−9に進む。   Step S24-6: It is determined whether or not the input locus recognized in step S24-5 is a recognition process change gesture (recognition code 0xFFFF). If the input locus is a recognition process change gesture, the process proceeds to step S24-7, and if it is not a recognition process change gesture, the process proceeds to step S24-9.

ステップS24−7:ジェスチャー禁止フラグをセットし、ジェスチャー禁止処理を行う。ジェスチャー禁止フラグをセットすることにより、次の入力軌跡の処理において、ステップS24−3からステップS24−4に分岐するので、常にドラッグドロップ処理が行われる。次にステップS24−8に進む。   Step S24-7: A gesture prohibition flag is set, and a gesture prohibition process is performed. By setting the gesture prohibition flag, the process branches from step S24-3 to step S24-4 in the next input trajectory process, so that a drag drop process is always performed. Next, the process proceeds to step S24-8.

ステップS24−8:ジェスチャー禁止タイマ−プロセスを開始し、ジェスチャー認識処理停止期間を設定する。ジェスチャー認識処理停止期間、例えば1分をタイマ−にセットし、セットした時間が経過したら、ジェスチャー禁止フラグをリセットすべく処理を行う。次にステップS24−9に進む。   Step S24-8: A gesture prohibition timer process is started and a gesture recognition process stop period is set. A gesture recognition processing stop period, for example, 1 minute is set in the timer, and when the set time has elapsed, processing is performed to reset the gesture prohibition flag. Next, the process proceeds to step S24-9.

ステップS24−9:公知のジェスチャー編集処理あるいは文字入力処理を実行し、ステップS24−10に進む。例えば、数字「2」が認識されていれば、その入力位置の文字入力領域に数字の2を入力し、画面上に「2」のフォントを表示する。また、ジェスチャーが認識されたときは該ジェスチャーの機能に対応した処理を実行する。例えば、「削除」ジェスチャー認識された場合には、その入力位置にある文字やファイルアイコンを消去する。   Step S24-9: A known gesture editing process or character input process is executed, and the process proceeds to Step S24-10. For example, if the number “2” is recognized, the number 2 is input in the character input area at the input position, and the font “2” is displayed on the screen. When a gesture is recognized, processing corresponding to the function of the gesture is executed. For example, when the “delete” gesture is recognized, the character or file icon at the input position is deleted.

ステップS24−10:1つの入力軌跡の処理を終了する。ここでワーク用記憶領域等を開放する。   Step S24-10: The process of one input locus is terminated. Here, the work storage area or the like is released.

このような構成で、ペン入力処理を行う事によって、認識処理変更ジェスチャーの一つとしてジェスチャー禁止ジェスチャーを実現できる。   With such a configuration, a gesture prohibiting gesture can be realized as one of the recognition processing change gestures by performing the pen input process.

この様にジェスチャー禁止ジェスチャーを図20の様なファイルブラウザ−アプリケーションに適応する事ができる。編集ジェスチャーが有効なときに、例えば、図20のW型の「削除」ジェスチャーを「海の写真.JPG」のファイルアイコン上に書き込むと、ステップS24−5において、「削除」ジェスチャーであると認識され、「海の写真.JPG」ファイルが削除されて、図21の様な表示画面になる。   In this way, the gesture prohibiting gesture can be applied to a file browser application as shown in FIG. When the edit gesture is valid, for example, if the W-type “delete” gesture of FIG. 20 is written on the file icon “Sea Photo.JPG”, it is recognized as a “delete” gesture in step S24-5. Then, the “sea photo.JPG” file is deleted, and a display screen as shown in FIG. 21 is obtained.

一方、ジェスチャー禁止ジェスチャーを入力した後に、図22の様に「削除」ジェスチャーを入力すると、「削除」ジェスチャーは認識されず、入力軌跡はステップS24−4のドラッグドロップ処理に渡される。その結果、例えば、ファイルの複数選択として処理される。   On the other hand, if the “delete” gesture is input as shown in FIG. 22 after inputting the gesture prohibition gesture, the “delete” gesture is not recognized, and the input trajectory is passed to the drag drop process in step S24-4. As a result, for example, it is processed as multiple selection of files.

ファイルの複数選択が行われると、例えば、図23のように、「海の写真.JPG」、「運動会.MQV」、「領主の舘.JPG」、「take2.MP3」、「take55.MP3」、「take3.MP3」が選択されたことが枠等で表示される。   When a plurality of files are selected, for example, as shown in FIG. 23, “Sea Photo.JPG”, “Athletic Meet.MQV”, “Rule of Lord.JPG”, “take2.MP3”, “take55.MP3” , “Take3.MP3” is selected and displayed in a frame or the like.

この様にジェスチャー禁止ジェスチャーを採用することにより、ジェスチャー以外の入力の操作性が著しく良好となる。またジェスチャー禁止処理自体、設定メニュー等の繁雑な操作無しに実行でき、PDA等の小型機器においても優れた操作性を実現し得る。   By adopting the gesture prohibition gesture in this way, the operability of input other than the gesture is remarkably improved. Further, the gesture prohibiting process itself can be executed without complicated operations such as a setting menu, and excellent operability can be realized even in a small device such as a PDA.

次に本発明に係る入力軌跡処理装置および入力軌跡処理方法の実施例5を図面に基いて説明する。
[入力軌跡処理装置]
実施例4では、ジェスチャー禁止ジェスチャーの実装によって、ジェスチャー認識を禁止したが、実施例5では、手書き文字入力に際して特定の文字の認識を禁止する。
Next, a fifth embodiment of the input locus processing apparatus and the input locus processing method according to the present invention will be described with reference to the drawings.
[Input locus processing device]
In the fourth embodiment, gesture recognition is prohibited by implementing a gesture prohibition gesture. However, in the fifth embodiment, recognition of a specific character is prohibited when handwritten characters are input.

特定の文字の認識を禁止に関して、従来装置では、認識文字種設定ボタン等がその文字入力領域の周辺に設置されていて、そのボタンを押すことによって、認識対象文字種の変更を行っていた。このような構成では、文字種設定ボタンのための設置面積を要し、小画面の携帯情報機器等では、アプリケーションレイアウトが難しくなる。また、あえて文字種設定ボタンを設けた場合、レイアウトの制限から文字入力領域と文字種設定ボタンとを近接配置できないこともあり、この場合操作性が悪化する。   Regarding the prohibition of recognition of a specific character, in the conventional apparatus, a recognition character type setting button or the like is installed around the character input area, and the recognition target character type is changed by pressing the button. In such a configuration, an installation area for the character type setting button is required, and application layout becomes difficult in a small-screen portable information device or the like. In addition, when a character type setting button is provided, the character input area and the character type setting button may not be placed close to each other due to layout limitations, and in this case, the operability deteriorates.

実施例5では、認識文字種制限変更ジェスチャーと認識文字種制限解除ジェスチャーを設けることにより、認識文字種制限、解除を可能にする。   In the fifth embodiment, the recognized character type restriction changing gesture and the recognized character type restriction releasing gesture are provided to enable the recognition character type restriction and release.

図25の機能ブロック図において、実施例5が適用された携帯情報機器1は、図3と同様の位置座標入力部2−1および表示部2−2を有し、位置座標入力部2−1には手書き文字筆跡データの文字切り手段10−1が接続されている。手書き文字筆跡データの文字切り手段10−1には、認識文字種制限変更指示手段10−2、ジェスチャー認識手段10−3、英数字認識処理手段10−4、平仮名漢字認識処理手段10−5が接続され、ジェスチャー認識手段10−3、英数字認識処理手段10−4および平仮名漢字認識処理手段10−5には入力文字編集処理手段18−4が接続され、さらに文字編集処理手段18−4には表示部2−2が接続されている。   In the functional block diagram of FIG. 25, the portable information device 1 to which the fifth embodiment is applied has a position coordinate input unit 2-1 and a display unit 2-2 similar to those in FIG. Is connected to a character cutting means 10-1 for handwritten character handwriting data. Connected to the character cutting means 10-1 for handwritten character handwriting data are a recognized character type restriction changing instruction means 10-2, a gesture recognition means 10-3, an alphanumeric recognition processing means 10-4, and a hiragana / kanji recognition processing means 10-5. An input character editing processing means 18-4 is connected to the gesture recognition means 10-3, alphanumeric recognition processing means 10-4 and hiragana / kanji recognition processing means 10-5, and further to the character editing processing means 18-4. A display unit 2-2 is connected.

手書き文字筆跡データの文字切り手段10−1は、位置座標入力手段2−1に入力された筆跡データをペンアップ時間や、文字枠によって1文字分の筆跡データに切り分ける。1文字分の筆跡データを切り分ける処理は、公知のアルゴリズムにより処理される。1文字分に区切られた筆跡データは、認識文字種制限変更指示手段10−2の指示に応じて、ジェスチャー認識手段10−3、英数字認識処理手段10−4、平仮名漢字認識処理手段10−5に受け渡される。英数字認識処理手段10−4、平仮名漢字認識処理手段10−5の認識処理も公知の認識アルゴリズムによる。   The character cutting means 10-1 for handwritten character handwriting data cuts the handwriting data input to the position coordinate input means 2-1 into handwriting data for one character according to the pen-up time and the character frame. The process of separating the handwriting data for one character is processed by a known algorithm. The handwriting data divided into one character is the gesture recognition means 10-3, alphanumeric recognition processing means 10-4, hiragana / kanji recognition processing means 10-5 according to the instruction of the recognized character type restriction change instruction means 10-2. Is passed on. The recognition processing of the alphanumeric recognition processing means 10-4 and the hiragana / kanji recognition processing means 10-5 is also based on a known recognition algorithm.

ジェスチャー認識手段10−3は、受け渡された1文字分の筆跡データを正規化し、特徴点を抽出し、その特徴点と辞書のジェスチャー筆跡データの特徴点とのマッチングを行い、最も一致度の高いジェスチャーの認識コードを入力文字編集処理手段18−4に出力する。   The gesture recognizing means 10-3 normalizes the handwritten data for one character passed, extracts the feature points, matches the feature points with the feature points of the gesture handwritten data in the dictionary, and has the highest degree of coincidence. The high gesture recognition code is output to the input character editing processing means 18-4.

ジェスチャー認識手段10−3が文字種制限変更ジェスチャーまたは文字種制限解除ジェスチャーを認識したときは、その認識コードを認識文字種制限変更指示手段10−2に渡し、認識対象文字種の制限を変更する。   When the gesture recognizing unit 10-3 recognizes the character type restriction changing gesture or the character type restriction releasing gesture, the recognition code is passed to the recognized character type restriction changing instruction unit 10-2 to change the restriction on the recognition target character type.

英数字認識処理手段10−4は、受け渡された文字分の筆跡データを正規化するとともに特徴点を抽出する。抽出された特徴点は認識辞書(図示省略)の英数字筆跡データの特徴点とマッチングされ、最も一致度の高い文字コードが入力文字編集処理手段18−4に出力される。   The alphanumeric character recognition processing means 10-4 normalizes the handwritten data for the passed characters and extracts the feature points. The extracted feature points are matched with the feature points of alphanumeric handwriting data in a recognition dictionary (not shown), and the character code having the highest degree of matching is output to the input character editing processing means 18-4.

平仮名漢字認識処理手段10−5は、受け渡された1文字分の筆跡データを正規化するとともに、特徴点を抽出する。抽出された特徴点は認識辞書(図示省略)の平仮名漢字筆跡データの特徴点とマッチングされ、最も一致度の高い文字コードが入力文字編集処理手段3−4に出力される。   The hiragana / kanji recognition processing means 10-5 normalizes the handwritten data for one character passed and extracts the feature points. The extracted feature points are matched with the feature points of the hiragana / kanji handwriting data in the recognition dictionary (not shown), and the character code having the highest matching degree is output to the input character editing processing means 3-4.

入力文字編集手段10−4は、ジェスチャー認識手段10−3、英数字認識処理手段10−4、平仮名漢字認識処理手段10−5から渡された文字コードと認識辞書との一致度から、最も一致度の高い文字コードあるいは認識コードを認識結果とする。   The input character editing means 10-4 is the best match based on the degree of coincidence between the character code passed from the gesture recognition means 10-3, the alphanumeric recognition processing means 10-4, and the hiragana / kanji recognition processing means 10-5 and the recognition dictionary. A character code or recognition code having a high degree is used as a recognition result.

認識結果が英数字、平仮名漢字の文字コードであれば、文字入力エリアに文字フォントを表示するために、表示部2−2に文字の表示データを送る。
認識結果がジェスチャーであれば、そのジェスチャーに応じた編集処理行い、文字消去や文字列挿入を行って、表示部2−2に表示する。
If the recognition result is a character code of alphanumeric characters and hiragana / kanji characters, display data of characters is sent to the display unit 2-2 in order to display a character font in the character input area.
If the recognition result is a gesture, editing processing corresponding to the gesture is performed, character deletion or character string insertion is performed, and the result is displayed on the display unit 2-2.

図26は認識辞書の構成を示し、例えば、入力軌跡の種類別の形状、出力文字コード、認識後の処理例の対応関係を記憶している。   FIG. 26 shows the configuration of a recognition dictionary, which stores, for example, the correspondence between types of input trajectories, output character codes, and processing examples after recognition.

図26において、認識辞書には手書き英数字「アットマーク」、「字」の手書き漢字&平仮名、縦波型編集ジェスチャー、縦線型文字種制限変更ジェスチャー、ガンマ型文字種制限解除ジェスチャーが定義され、手書き英数字「アットマーク」には認識コード「0xFF20」、認識後の処理例「文字入力領域に@が入力される。」が対応付けられ、「字」の手書き漢字&平仮名には認識コード「0x5B57」、認識後の処理例「文字入力領域に字が入力される。」が対応付けられ、縦波型編集ジェスチャーには認識コード「0xFFF1」、認識後の処理例「文字入力領域の文字ウエにこのジェスチャーが書かれると、認識後その文字が消される。」が対応付けられ、縦線型文字種制限変更ジェスチャーには認識コード「0xFFFF」、認識後の処理例「認識文字種を英数字に制限する。」が対応付けられ、ガンマ型文字種制限解除ジェスチャーには認識コード「0xFFFE」、認識後の処理例「認識文字種の制限を解除する。」が対応付けられる。   In FIG. 26, the recognition dictionary defines handwritten alphanumeric characters “at mark”, handwritten kanji & hiragana for “letter”, vertical wave type editing gesture, vertical line type character type restriction change gesture, and gamma type character type restriction release gesture. The identification code “0xFF20” is associated with the number “at mark”, and an example of processing after recognition “@ is input into the character input area”. The recognition code “0x5B57” is associated with the handwritten kanji and hiragana of “letter”. , The processing example after recognition “Character is input in character input area” is associated, the recognition code “0xFFF1” is used for the longitudinal wave type editing gesture, and the processing example after recognition “ When a gesture is written, the character is erased after recognition. ”Is associated with the recognition code“ 0xFFFF ”for the vertical line type restriction change gesture. An example of processing after recognition “Restrict recognition character type to alphanumeric characters” is associated, recognition code “0xFFFE” is used for a gamma type character type restriction release gesture, and an example of processing “Recognition restriction on recognized character type is released.” Are associated.

[入力軌跡処理方法]
次に、図25の入力軌跡処理装置で実施される入力軌跡処理方法の実施例5を図面に基いて説明する。
[Input locus processing method]
Next, a fifth embodiment of the input trajectory processing method performed by the input trajectory processing apparatus of FIG. 25 will be described with reference to the drawings.

図27、図28は電子メイルの新規メッセージ編集画面であり、認識前の入力軌跡を表示し、図28が認識後のフォントを表示する。また、図29は入力軌跡処理方法を示すフローチャートである。   27 and 28 are screens for editing a new message for electronic mail. The input trajectory before recognition is displayed, and FIG. 28 displays the font after recognition. FIG. 29 is a flowchart showing the input trajectory processing method.

図29において、1文字分の入力軌跡処理方法は以下の各ステップによって実行される。   In FIG. 29, the input trajectory processing method for one character is executed by the following steps.

なおフローチャートの処理を実行するプログラムはROM8に記憶されている。   A program for executing the processing of the flowchart is stored in the ROM 8.

ステップS29−1:1文字分の入力軌跡データ処理を開始する。すなわち位置座標入力部2−1にペン3で入力されたXY位置座標データ列を取得し、公知のアルゴリズムにより、そのXY位置座標データ列から1文字分のデータを切り分ける。図27のように、1つの四角の入力枠内に手書き文字が書かれているとき、各文字枠のXY位置座標データ列を1文字分の筆跡データとみなす。そして、文字枠への入力が開始されたときに、前の文字枠の入力を確定して、認識処理を実行する。ここで、1文字分の入力位置座標記憶バッファ等を初期化する。   Step S29-1: The input trajectory data processing for one character is started. That is, an XY position coordinate data string input to the position coordinate input unit 2-1 with the pen 3 is acquired, and data for one character is separated from the XY position coordinate data string by a known algorithm. As shown in FIG. 27, when handwritten characters are written in one square input frame, the XY position coordinate data string of each character frame is regarded as handwriting data for one character. Then, when the input to the character frame is started, the input of the previous character frame is confirmed and the recognition process is executed. Here, the input position coordinate storage buffer for one character is initialized.

ステップS29−2:1文字分の入力軌跡の位置座標データを読み込む処理を行う。   Step S29-2: The process of reading the position coordinate data of the input locus for one character is performed.

手書き文字筆跡データの文字切り手段10−1で生成された、1文字分の入力筆跡の位置座標データをRAM7の1次記憶領域に記憶する。   The position coordinate data of the input handwriting for one character generated by the character cutting means 10-1 for the handwritten handwriting data is stored in the primary storage area of the RAM 7.

図27の符号Aで示すように文字枠内に「W」を手書きで入力すると、その「W」の筆跡が位置座標データとして読み込まれる。   When “W” is input by handwriting into the character frame as indicated by reference symbol A in FIG. 27, the handwriting of “W” is read as position coordinate data.

ステップS29−3:認識文字種の制限の状態をチェックする。認識対象文字種が制限されていないときは、例えば、英数字、平仮名、カタカナ、漢字が認識対象文字種とされ、また認識対象文字種が英数字に制限されているときには、英数字を識対象文字種とする。   Step S29-3: The state of restriction of the recognized character type is checked. When the recognition target character type is not limited, for example, alphanumeric characters, hiragana, katakana, and kanji are recognized character types. When the recognition target character type is limited to alphanumeric characters, the alphanumeric character is the recognition character type. .

ステップS29−4:認識対象文字種の認識アルゴリズムを呼び出す処理を行う。認識対象文字種の制限値が「0」(制限無し)であれば、ジェスチャー認識手段10−3、英数字認識処理手段10−4、平仮名漢字認識処理手段10−5において、ジェスチャー認識処理関数プログラム、英数字認識処理関数プログラム、平仮名漢字認識処理関数プログラムを呼び出し、1文字分の入力軌跡位置座標データを各関数プログラムに渡す。もし、認識対象文字種の制限値が「1」(英数字に制限)であれば、ジェスチャー認識処理関数プログラム、英数字認識処理関数プログラムを呼び出し、1文字分の入力軌跡位置座標データを各関数プログラムに渡す。   Step S29-4: A process for calling a recognition algorithm for the character type to be recognized is performed. If the limit value of the character type to be recognized is “0” (no limit), the gesture recognition processing function program in the gesture recognition means 10-3, alphanumeric recognition processing means 10-4, hiragana / kanji recognition processing means 10-5, The alphanumeric recognition processing function program and the hiragana / kanji recognition processing function program are called, and the input locus position coordinate data for one character is passed to each function program. If the limit value of the character type to be recognized is “1” (limited to alphanumeric characters), the gesture recognition processing function program and the alphanumeric recognition processing function program are called, and the input locus position coordinate data for one character is stored in each function program. To pass.

また認識対象文字種が英数字に制限されているもきには、英数字を識対象文字種として、英数字の筆跡の辞書データマッチングを行い、最も一致度の高い英数字の文字コードを出力する。   When the recognition target character type is limited to alphanumeric characters, dictionary data matching of alphanumeric handwriting is performed using the alphanumeric character as the recognition character type, and the alphanumeric character code having the highest degree of matching is output.

ステップS29−5:ステップS29−4で呼び出した各関数プログラムの認識結果の文字コードと辞書パターンとの一致度を読み込む処理を行う。   Step S29-5: A process of reading the degree of coincidence between the character code of the recognition result of each function program called in step S29-4 and the dictionary pattern is performed.

各認識処理関数プログラムから、入力軌跡データと最も一致度の高い辞書パターンの文字コードと一致度を読み込み、さらにその中で最も高い一致度の文字コードを認識結果として出力する。   From each recognition processing function program, the character code and the matching degree of the dictionary pattern having the highest matching degree with the input trajectory data are read, and the character code having the highest matching degree among them is output as the recognition result.

ステップS29−6:認識結果の文字コードが文字種制限変更ジェスチャーか否かを判断する。ステップS29−5において決定した認識結果の文字コードが、図26の文字種制限変更ジェスチャーの文字コード(おxFFFF)であればステップS29−7に進み、文字種制限変更ジェスチャーの文字コード以外であればステップS29−8に進む。   Step S29-6: It is determined whether or not the character code of the recognition result is a character type restriction changing gesture. If the character code of the recognition result determined in step S29-5 is the character code of the character type restriction change gesture of FIG. 26 (OxFFFF), the process proceeds to step S29-7. Proceed to S29-8.

ステップS29−7:認識対象文字種の制限処理を行う。RAM内の文字種制限状態記憶領域の値を「1」に書き換える。これにより、次に認識する入力軌跡は、英数字かジェスチャーに限定される。   Step S29-7: A recognition target character type restriction process is performed. The value of the character type restriction state storage area in the RAM is rewritten to “1”. Thereby, the input locus to be recognized next is limited to alphanumeric characters or gestures.

例えば、図27の手書き電子メイルの本文入力編集アプリケーションにおいて、インターネットのページアドレスの入力は英数字のみで足りるので、文字種制限変更ジェスチャーを入力した後に、「http://WWW.ca」等と入力する。これによって、所望のアドレスを正確に入力し得る。   For example, in the text input / edit application for handwritten electronic mail shown in FIG. 27, since only an alphanumeric page is required to input an Internet page address, “http://WWW.ca” or the like is input after inputting a character type restriction changing gesture. To do. Thereby, a desired address can be accurately input.

図27、図28の例では、文字種制限処理を実行しているか否かは表示されないが、文字種制限が実施中であることをユーザに知らせるべきときには、入力軌跡の色を無制限状態とは異なる色する方法等を採用し得る。例えば、無制限状態では入力軌跡を黒で表示し、文字種制限処理状態では入力軌跡を赤で表示する。   In the examples of FIGS. 27 and 28, whether or not the character type restriction process is being executed is not displayed, but when the user should be informed that character type restriction is being implemented, the color of the input locus is different from the unrestricted state. Or the like. For example, the input locus is displayed in black in the unlimited state, and the input locus is displayed in red in the character type restriction processing state.

ステップS29−8:認識結果の文字コードが文字種制限解除ジェスチャーであるかどうかをチェックする。認識結果の文字コードが、文字種制限解除ジェスチャーの認識コード0xFFFFであればステップS29−9に進み、文字種制限解除ジェスチャー以外のコードであればステップS29−10に進む。   Step S29-8: It is checked whether or not the character code of the recognition result is a character type restriction release gesture. If the character code of the recognition result is the recognition code 0xFFFF of the character type restriction release gesture, the process proceeds to step S29-9, and if it is a code other than the character type restriction release gesture, the process proceeds to step S29-10.

ステップS29−9:認識対象文字種の制限を解除するために、RAM7M内の文字種制限状態記憶領域の値を「0」にする。これにより、次に認識する入力軌跡は、英数字、編集ジェスチャー、平仮名、カタカナ、漢字の全てが認識対象となる。   Step S29-9: The value of the character type restriction state storage area in the RAM 7M is set to “0” in order to release the restriction on the recognition target character type. As a result, the input trajectory to be recognized next includes all alphanumeric characters, editing gestures, hiragana, katakana, and kanji.

ステップS29−10:英数字、漢字、平仮名、カタカナの文字コードであれば、表示部2−2にその文字コードと入力された文字の位置座標を送り、その場所に文字フォントを表示する。編集ジェスチャーであれば、その編集ジェスチャーに応じた編集処理を行う。例えば、「消去」ジェスチャーであれば、そのジェスチャーが書かれた位置にある文字フォントを消去する。   Step S29-10: If the character code is alphanumeric, kanji, hiragana, or katakana, the character code and the position coordinates of the input character are sent to the display unit 2-2, and the character font is displayed at that location. If it is an edit gesture, an edit process corresponding to the edit gesture is performed. For example, in the case of an “erase” gesture, the character font at the position where the gesture is written is erased.

ステップS29−11:1文字分の軌跡データの処理を終了し、ワーク領域等のデータを消去する。次の文字が入力されていれば、ステップS29−1からの処理を再開し、文字が入力されていなければ入力待ちとなる。   Step S29-11: The processing of the trajectory data for one character is terminated, and the data such as the work area is deleted. If the next character has been input, the process from step S29-1 is resumed. If no character has been input, the process waits for input.

実施例5では、認識文字種変更ジェスチャーを実装する情報処理装置を実現でき、文字種制限によって認識率を向上し、希望の文字列を簡単に入力できる環境が得られる。   In the fifth embodiment, an information processing apparatus that implements a recognized character type change gesture can be realized, and a recognition rate can be improved by restricting character types, and an environment in which a desired character string can be easily input can be obtained.

なお、文字種制限の有効期間をあらかじめ設定しておき、所定時間経過時の自動的に制限を解除する構成も採用可能である。   It is also possible to adopt a configuration in which the effective period of the character type restriction is set in advance and the restriction is automatically released when a predetermined time has elapsed.

実施例5では、認識対象文字種を英数字に限定する例を説明したが、英数字文字コードには、全角、半角が存在し、コンピュータでの取り扱いが異ったり、用途が限定されることがある。また英数字では、半角コードが使用されることが多い。そこで、認識文字種変更ジェスチャーに半角全角コードの切り替え機能を追加することにより、より効果的な文字種制限が可能である。   In the fifth embodiment, an example in which the character type to be recognized is limited to alphanumeric characters has been described. However, there are two-byte and one-byte alphanumeric character codes, which may be handled differently by a computer and have limited applications. is there. For alphanumeric characters, half-width codes are often used. Therefore, by adding a single-byte full-width code switching function to the recognized character type change gesture, more effective character type restriction is possible.

半角全角コードの切り替えは、例えば、文字種制限変更ジェスチャーを文字種制限変更+半角ジェスチャーとして、このジェスチャーを認識した場合は、認識対象文字種を英数字編集ジェスチャーとし、認識結果として出力する英数字のコードを半角英数字コードに制限する。   For example, the character type restriction change gesture is changed to the character type restriction change + half-width gesture. If this gesture is recognized, the recognition target character type is the alphanumeric editing gesture, and the alphanumeric code to be output as the recognition result is changed. Restrict to single-byte alphanumeric codes.

一方、文字種制限解除ジェスチャーを文字種制限解除+全角ジェスチャーとして、このジェスチャーを認識した場合は、認識対象文字種を全部の種類である、英数字、平仮名カタカナ漢字、編集ジェスチャーとして、認識結果として出力する英数字、平仮名、カタカナ、漢字のコードを全角コードとする。   On the other hand, if this gesture is recognized as a character type restriction release gesture as a character type restriction release + full-width gesture, the recognition target character types are all types of alphanumeric characters, hiragana katakana kanji, and edit gestures. Numerals, hiragana, katakana, and kanji codes are double-byte codes.

ステップS29−10の処理時に、RAM7内の文字種制限状態記憶領域に「0」または「1」の値を記憶しておき、「0」なら英数字のコードを全角コードとし、「1」なら英数字のコードの半角コードと、ルールを設定してもよい。   During the process of step S29-10, a value of “0” or “1” is stored in the character type restriction state storage area in the RAM 7, and if it is “0”, the alphanumeric code is a full-width code, and if “1”, it is English. A single-byte code of a numeric code and a rule may be set.

実施例5の認識辞書の文字コードに全角の文字コードが記憶されている場合、文字コード変換テーブル等によって適宜半角の文字コードを生成すれば、半角コードを格納しておく必要はない。   When a full-width character code is stored in the character code of the recognition dictionary of the fifth embodiment, it is not necessary to store the half-width code if the half-width character code is appropriately generated by a character code conversion table or the like.

実施例5では、各文字種に対して認識アルゴリズム用意する構成で説明を行ったが、認識辞書を文字種別に用意し、1個の認識アルゴリズムを用い、認識対象文字種の制限の値に応じて、読み込む認識辞書を選択してもよい。   In the fifth embodiment, the description has been made with the configuration in which the recognition algorithm is prepared for each character type. However, the recognition dictionary is prepared for the character type, and one recognition algorithm is used, according to the limit value of the recognition target character type, A recognition dictionary to be read may be selected.

次に図25の携帯情報機器1で実施される入力軌跡処理方法の実施例6を図面に基いて説明する。
[入力軌跡処理方法]
Next, a sixth embodiment of the input trajectory processing method implemented in the portable information device 1 of FIG. 25 will be described with reference to the drawings.
[Input locus processing method]

実施例5では、全ての認識対象文字種を認識するモードと、英数字、編集ジェスチャーを認識するモードとの2種類のモードをジェスチャーによって変更したが、実施例6では、このモードの種類をさらに増やし、例えば、認識対象文字種を英数字のみに限定するジェスチャー1と、認識対象文字種をカタカナに限定するジェスチャー2と、平仮名および漢字に限定するジェスチャー3と、全ての文字種を認識するモードに戻すジェスチャー4とを設ける。   In the fifth embodiment, the mode for recognizing all character types to be recognized and the mode for recognizing alphanumeric characters and editing gestures are changed by gestures. In the sixth embodiment, the number of modes is further increased. For example, gesture 1 for limiting the character type to be recognized only to alphanumeric characters, gesture 2 for limiting the character type to be recognized to katakana, gesture 3 for limiting to hiragana and kanji, and gesture 4 for returning to the mode for recognizing all character types And provide.

図30において、実施例6は、実施例5のステップS29−1〜S29−5に対応するステップS30−1〜S30―5に続いて、以下の各ステップによって実行される。   In FIG. 30, the sixth embodiment is executed by the following steps following steps S30-1 to S30-5 corresponding to steps S29-1 to S29-5 of the fifth embodiment.

ステップS30−6:認識結果の文字コードがいずれかの文字種制限変更ジェスチャーであるかどうかをチェックする。文字コードがジェスチャー1のときはステップS30−7に進み、ジェスチャー2のときはステップS30−8に進み、ジェスチャー3のときはステップS30−9に進み、ジェスチャー4のときはステップS30−12に進む。また文字コードが文字種制限変更ジェスチャーでなかったときはステップS30−13に進む。   Step S30-6: It is checked whether the character code of the recognition result is any character type restriction changing gesture. When the character code is gesture 1, the process proceeds to step S30-7. When the character code is gesture 2, the process proceeds to step S30-8. When the character code is gesture 3, the process proceeds to step S30-9. . If the character code is not a character type restriction changing gesture, the process proceeds to step S30-13.

ステップS30−7:今回の認識対象の前の文字がジェスチャー2またはジェスチャー3であったか否かを判断する。ジェスチャー2またはジェスチャー3であったときは、ステップS30−10に進み、ジェスチャー2、ジェスチャー3のいずれでもなかったときは、ステップS30−11に進む。   Step S30-7: It is determined whether or not the previous character to be recognized is gesture 2 or gesture 3. When it is gesture 2 or gesture 3, the process proceeds to step S30-10, and when it is neither gesture 2 nor gesture 3, the process proceeds to step S30-11.

ステップS30−8:今回の認識対象の前の文字がジェスチャー1またはジェスチャー3であったか否かを判断する。ジェスチャー1またはジェスチャー3であったときは、ステップS30−10に進み、ジェスチャー1、ジェスチャー3のいずれでもなかったときは、ステップS30−11に進む。   Step S30-8: It is determined whether or not the previous character to be recognized is gesture 1 or gesture 3. When it is gesture 1 or gesture 3, the process proceeds to step S30-10, and when it is neither gesture 1 nor gesture 3, the process proceeds to step S30-11.

ステップS30−9:今回の認識対象の前の文字がジェスチャー1またはジェスチャー2であったか否かを判断する。ジェスチャー1またはジェスチャー2であったときは、ステップS30−10に進み、ジェスチャー1、ジェスチャー2のいずれでもなかったときは、ステップS30−11に進む。   Step S30-9: It is determined whether or not the previous character to be recognized is gesture 1 or gesture 2. When it is gesture 1 or gesture 2, the process proceeds to step S30-10, and when it is neither gesture 1 nor gesture 2, the process proceeds to step S30-11.

ステップS30−10:前後して異なる2種の文字種制限変更のジェスチャーが入力されたことにより、2種の文字種を認識対象とする。このようなOR処理を可能とすることにより多様な認識対象を設定でき、処理効率を維持しつつ認識率を高め得る。   Step S30-10: Two types of character types are set as recognition targets when two different types of character type restriction change gestures are input before and after. By enabling such OR processing, various recognition targets can be set, and the recognition rate can be increased while maintaining processing efficiency.

さらに、認識文字種の制限を細かく設定することによりジェスチャー形状の自由度が高まり、比較的シンプルな形状等、筆記容易なジェスチャー形状を採用し得る。これによってジェスチャーの入力ミス、誤認識を防止し得る。   Further, by finely setting the restrictions on the recognized character type, the degree of freedom of the gesture shape is increased, and a gesture shape that is easy to write, such as a relatively simple shape, can be employed. This can prevent gesture input errors and misrecognition.

ステップS30−11:実施例5のステップS29−7と同様に、1種の文字種のみを認識対象とする処理を実行する。   Step S30-11: Similar to step S29-7 in the fifth embodiment, a process is performed in which only one character type is recognized.

ステップS30−12:実施例5のステップS29−9と同様に、文字種制限を解除する。   Step S30-12: Similarly to step S29-9 of the fifth embodiment, the character type restriction is released.

ステップS30−13:実施例5のステップS29−10と同様に、文字フォントを表示する。   Step S30-13: Character fonts are displayed as in step S29-10 of the fifth embodiment.

ステップS30−14:実施例5のステップS29−11と同様に、処理を終了する。   Step S30-14: The process ends in the same manner as in step S29-11 of the fifth embodiment.

ステップ30−7〜S30−10の、各認識対象文字種制限のOR設定を可能とすることにより、以下のような多様な文字種制限設定が可能である。
制限ジェスチャー1を認識し、次に文字が入力される場合は:英数字に制限されて認識される。
制限ジェスチャー2を認識し、次に文字が入力される場合は:カタカナに制限されて認識される。
制限ジェスチャー3を認識し、次に文字が入力される場合は:平仮名漢字に制限されて認識される。
制限ジェスチャー4を認識し、次に文字が入力される場合は:認識対象の全ての文字種が認識される。
制限ジェスチャー1を認識し、次に制限ジェスチャー2を認識し、次に文字が入力される場合は:英数字、カタカナに制限されて認識される。
制限ジェスチャー2を認識し、次に制限ジェスチャー3を認識し、次に文字が入力される場合は:カタカナ、平仮名漢字に制限されて認識される。
制限ジェスチャー1を認識し、次に制限ジェスチャー3を認識し、次に文字が入力される場合は:英数字、平仮名漢字に制限されて認識される。
By enabling OR setting for each recognition target character type restriction in steps 30-7 to S30-10, the following various character type restriction settings are possible.
When a restricted gesture 1 is recognized and then a character is entered: it is recognized restricted to alphanumeric characters.
When the restriction gesture 2 is recognized and a character is input next: It is recognized as limited to katakana.
When the restricted gesture 3 is recognized and a character is input next: it is recognized limited to Hiragana / Kanji.
When the restricted gesture 4 is recognized and then a character is input: All character types to be recognized are recognized.
When a restriction gesture 1 is recognized, then a restriction gesture 2 is recognized, and then a character is input: recognition is limited to alphanumeric characters and katakana.
When a restricted gesture 2 is recognized, then a restricted gesture 3 is recognized, and then a character is input: it is recognized limited to katakana and hiragana kanji.
When a restriction gesture 1 is recognized, then a restriction gesture 3 is recognized, and then a character is input: recognition is restricted to alphanumeric characters and hiragana kanji.

実施例4、5では、平仮名カタカナなどの一般的な文字種単位で認識対象を制限したが、実施例7では、より高い自由度で認識対象を制限する、いわゆる認識対象のユーザカスタマイズを実現する。   In the fourth and fifth embodiments, the recognition target is limited in units of general character types such as hiragana katakana. In the seventh embodiment, so-called user customization of the recognition target is realized in which the recognition target is limited with a higher degree of freedom.

例えば、1個または複数のユーザカスタマイズ制限文字種ジェスチャーを定義しておき、各ユーザカスタマイズ制限文字種ジェスチャーと任意の文字あるいは文字列とを対応させる。そして、ユーザカスタマイズ制限文字種ジェスチャーの後に認識対象の文字等を入力することにより、確実に該文字等を認識し得る。   For example, one or a plurality of user customized restricted character type gestures are defined, and each user customized restricted character type gesture is associated with an arbitrary character or character string. Then, by inputting a character or the like to be recognized after the user customization restricted character type gesture, the character or the like can be reliably recognized.

ユーザカスタマイズ制限文字種ジェスチャーと文字等との対応付けは、アプリケーションソフトウエア等により実行する。   Correspondence between the user customization restricted character type gesture and the character or the like is executed by application software or the like.

例えば、1個のユーザカスタマイズ制限文字種ジェスチャーと「123.,高れ」を対応づけ、「123.,高れ」を認識させたいとき、該ユーザカスタマイズ制限文字種ジェスチャーに続いて「123.,高れ」を入力すれば、「123.,高れ」は認識されやすくなる。   For example, when one user-customized restricted character type gesture is associated with “123., high” and “123., high” is to be recognized, “123., high” follows the user-customized restricted character type gesture. "Is easy to recognize" 123., high ".

これによって使い易い認識装置にカスタマイズでき、特に、標準状態での認識率が悪いユーザにとって有効性が高い。   This allows customization to an easy-to-use recognition device, and is particularly effective for users who have a low recognition rate in the standard state.

本発明に係る文字認識装置の実施例1を適用した携帯情報機器を示す図である。(実施例1)It is a figure which shows the portable information device to which Example 1 of the character recognition apparatus which concerns on this invention is applied. (Example 1) 図1の携帯情報機器のブロック図である。(実施例1)It is a block diagram of the portable information device of FIG. (Example 1) 図1の携帯情報機器の機能ブロック図である。(実施例1)It is a functional block diagram of the portable information device of FIG. (Example 1) 図1の携帯情報機器が備えたジェスチャー辞書の構成図である。(実施例1)It is a block diagram of the gesture dictionary with which the portable information device of FIG. 1 was equipped. (Example 1) 図1の携帯情報機器における文字入力状態の画面を示す図である。(実施例1)It is a figure which shows the screen of the character input state in the portable information device of FIG. (Example 1) 図1の携帯情報機器における他の文字入力状態の画面を示す図である。(実施例1)It is a figure which shows the screen of the other character input state in the portable information device of FIG. (Example 1) 図1の携帯情報機器における文字入力取消操作の画面を示す図である。(実施例1)It is a figure which shows the screen of character input cancellation operation in the portable information device of FIG. (Example 1) 図1の携帯情報機器において文字入力取消操作が頻繁に行われたときに表示される画面を示す図である。(実施例1)It is a figure which shows the screen displayed when character input cancellation operation is performed frequently in the portable information device of FIG. (Example 1) 図1の携帯情報機器において実施される文字認識方法の実施例1を示すフローチャートである。(実施例1)It is a flowchart which shows Example 1 of the character recognition method implemented in the portable information device of FIG. (Example 1) 図1の携帯情報機器におけるジェスチャー設定画面を示す図である。(実施例1)It is a figure which shows the gesture setting screen in the portable information device of FIG. (Example 1) 図10のジェスチャー設定の処理を示すフローチャートである。(実施例1)It is a flowchart which shows the process of the gesture setting of FIG. (Example 1) 本発明に係る文字認識装置の実施例2を適用した携帯情報機器を示す機能ブロック図である。(実施例2)It is a functional block diagram which shows the portable information device to which Example 2 of the character recognition apparatus which concerns on this invention is applied. (Example 2) 図12の携帯情報機器において実施される文字認識方法の実施例2を示すフローチャートである。(実施例2)It is a flowchart which shows Example 2 of the character recognition method implemented in the portable information device of FIG. (Example 2) 本発明に係る文字認識装置の実施例3を適用した携帯情報機器を示す機能ブロック図である。(実施例3)It is a functional block diagram which shows the portable information device to which Example 3 of the character recognition apparatus which concerns on this invention is applied. Example 3 図14の文字認識装置におけるマクロ記憶領域の構成図である。(実施例3)It is a block diagram of the macro storage area in the character recognition apparatus of FIG. Example 3 図14の文字認識装置が備えたマクロジェスチャー辞書の構成図である。(実施例3)It is a block diagram of the macro gesture dictionary with which the character recognition apparatus of FIG. 14 was equipped. Example 3 図14の携帯情報機器において実施される文字認識方法の実施例3を示すフローチャートである。(実施例3)It is a flowchart which shows Example 3 of the character recognition method implemented in the portable information device of FIG. Example 3 本発明に係る文字認識装置の実施例4を適用した携帯情報機器を示す機能ブロック図である。(実施例4)It is a functional block diagram which shows the portable information device to which Example 4 of the character recognition apparatus which concerns on this invention is applied. (Example 4) 図18の文字認識装置における手書き軌跡の種類別の形状、出力コード、認識後の処理例を示す表である。(実施例4)It is a table | surface which shows the example according to the shape for every kind of handwritten locus | trajectory in the character recognition apparatus of FIG. 18, an output code, and recognition. (Example 4) 図18の文字認識装置における表示画面を示す図である。(実施例4)It is a figure which shows the display screen in the character recognition apparatus of FIG. (Example 4) 図18の文字認識装置における他の表示画面を示す図である。(実施例4)It is a figure which shows the other display screen in the character recognition apparatus of FIG. (Example 4) 図18の文字認識装置におけるさらに他の表示画面を示す図である。(実施例4)It is a figure which shows the further another display screen in the character recognition apparatus of FIG. (Example 4) 図18の文字認識装置におけるさらに他の表示画面を示す図である。(実施例4)It is a figure which shows the further another display screen in the character recognition apparatus of FIG. (Example 4) 図18の携帯情報機器において実施される文字認識方法の実施例4を示すフローチャートである。(実施例4)It is a flowchart which shows Example 4 of the character recognition method implemented in the portable information device of FIG. (Example 4) 本発明に係る文字認識装置の実施例5を適用した携帯情報機器を示す機能ブロック図である。(実施例5)It is a functional block diagram which shows the portable information device to which Example 5 of the character recognition apparatus which concerns on this invention is applied. (Example 5) 図25の文字認識装置における手書き軌跡の種類別の形状、出力コード、認識後の処理例を示す表である。(実施例5)It is a table | surface which shows the process example after the shape for every kind of handwritten locus | trajectory in the character recognition apparatus of FIG. 25, an output code, and recognition. (Example 5) 図25の文字認識装置における表示画面を示す図である。(実施例5)It is a figure which shows the display screen in the character recognition apparatus of FIG. (Example 5) 図25の文字認識装置における他の表示画面を示す図である。(実施例5)It is a figure which shows the other display screen in the character recognition apparatus of FIG. (Example 5) 図25の文字認識装置において実施される文字認識方法の実施例5を示すフローチャートである。(実施例5)It is a flowchart which shows Example 5 of the character recognition method implemented in the character recognition apparatus of FIG. (Example 5) 図25の文字認識装置において実施される文字認識方法の実施例6を示すフローチャートである。(実施例6)It is a flowchart which shows Example 6 of the character recognition method implemented in the character recognition apparatus of FIG. (Example 6)

符号の説明Explanation of symbols

1 携帯情報端末
2-1 位置座標入力部
2-2 画像表示部
2-3 キーボード
2-6 CPU
2-7 通信カード
3 ペン
3−1 手書きジェスチャー認識手段
3−2 認識辞書
3−3 ジェスチャーコード処理手段
3−4 ジェスチャー適応履歴記憶手段
3−5 コマンド処理手段
4 カメラ部
5 パーソナルコンピュータ
6 転送ファイル
7 RAM
8 ROM
9 画像メディアインターフェイス
10 USBインターフェイス
11 システムバス
1 Mobile Information Terminal 2-1 Position Coordinate Input Unit 2-2 Image Display Unit 2-3 Keyboard 2-6 CPU
2-7 Communication Card 3 Pen 3-1 Handwritten Gesture Recognition Unit 3-2 Recognition Dictionary 3-3 Gesture Code Processing Unit 3-4 Gesture Adaptation History Storage Unit 3-5 Command Processing Unit 4 Camera Unit 5 Personal Computer 6 Transfer File 7 RAM
8 ROM
9 Image media interface 10 USB interface 11 System bus

Claims (15)

ジェスチャーの入力軌跡を位置座標データとして入力する手段と、
前記入力軌跡とジェスチャー辞書とのマッチングによって、前記入力軌跡に対応するジェスチャーを抽出する認識手段と、
前記認識手段で抽出されたジェスチャーの適応状況を記憶するジェスチャー適応履歴記憶手段と、
前記ジェスチャー適応履歴記憶手段の記憶内容に基いて、前記認識手段の処理を修正する手段と、
を備えた入力軌跡処理装置。
Means for inputting a gesture input locus as position coordinate data;
Recognizing means for extracting a gesture corresponding to the input locus by matching the input locus with a gesture dictionary;
Gesture adaptation history storage means for storing adaptation states of gestures extracted by the recognition means;
Means for correcting the processing of the recognition means based on the stored contents of the gesture adaptation history storage means;
An input trajectory processing device.
前記ジェスチャー適応履歴記憶手段が記憶する適応状況は、抽出されたジェスチャーの取り消し処理であることを特徴とする請求項1記載の入力軌跡処理装置。 2. The input trajectory processing apparatus according to claim 1, wherein the adaptation status stored in the gesture adaptation history storage means is cancellation processing of the extracted gesture. 前記認識手段が特定のジェスチャーを認識したときに、その後に書かれたジェスチャーについての前記適応状況を変更する手段をさらに備えることを特徴とする請求項1または2に記載の入力軌跡処理装置。 3. The input trajectory processing apparatus according to claim 1, further comprising: a unit that changes the adaptation state of a gesture written after the recognition unit recognizes a specific gesture. 4. 前記適応状況が所定状態となったときに該ジェスチャーの形状を変更する手段をさらに備えることを特徴とする請求項1乃至3のいずれかに記載の入力軌跡処理装置。 4. The input trajectory processing apparatus according to claim 1, further comprising means for changing a shape of the gesture when the adaptation state reaches a predetermined state. ジェスチャーの入力軌跡を位置座標データとして入力する手段と、
前記入力軌跡とジェスチャー辞書とのマッチングによって、前記入力軌跡に対応するジェスチャーを抽出する認識手段と、
前記認識手段が特定のジェスチャーを認識したときに、その後所定期間、前記認識手段のジェスチャーの認識を停止する手段と、
を備えた入力軌跡処理装置。
Means for inputting a gesture input locus as position coordinate data;
Recognizing means for extracting a gesture corresponding to the input locus by matching the input locus with a gesture dictionary;
Means for stopping recognition of the gesture of the recognition means for a predetermined period after the recognition means recognizes a specific gesture;
An input trajectory processing device.
ジェスチャーの入力軌跡を位置座標データとして入力する手段と、
前記入力軌跡とジェスチャー辞書とのマッチングによって、前記入力軌跡に対応するジェスチャーを抽出する認識手段と、
前記認識手段が特定のジェスチャーを認識したときに、前記認識手段に所定の文字種のみ認識させる手段と、
を備えた入力軌跡処理装置。
Means for inputting a gesture input locus as position coordinate data;
Recognizing means for extracting a gesture corresponding to the input locus by matching the input locus with a gesture dictionary;
Means for causing the recognition means to recognize only a predetermined character type when the recognition means recognizes a specific gesture;
An input trajectory processing device.
前記特定のジェスチャーは少なくとも2個定義され、第1のジェスチャーによって認識される文字種は、文字コードおよび編集ジェスチャーであり、第2のジェスチャーによって認識される文字種は文字コードであることを特徴とする請求項6記載の入力軌跡処理装置。 The at least two specific gestures are defined, the character type recognized by the first gesture is a character code and an edit gesture, and the character type recognized by the second gesture is a character code. Item 7. The input trajectory processing device according to Item 6. 前記所定の文字種のみ認識させる手段は、所定の文字種のみの認識を開始してから所定時間経過したときに、全ての文字種の認識に復帰することを特徴とする請求項6または7記載の入力軌跡処理装置。 8. The input locus according to claim 6, wherein the means for recognizing only the predetermined character type returns to the recognition of all the character types when a predetermined time elapses after starting the recognition of only the predetermined character type. Processing equipment. 前記認識手段が特定のジェスチャーを認識したときに、前記認識手段に所定の文字種のみ認識させる手段による文字種の制限を停止することを特徴とする請求項6乃至8のいずれかに記載の入力軌跡処理装置。 9. The input trajectory process according to claim 6, wherein when the recognition unit recognizes a specific gesture, the restriction of the character type by the unit that causes the recognition unit to recognize only a predetermined character type is stopped. apparatus. 前記所定の文字種のみ認識させる手段は、複数の異なる所定のジェスチャーが相前後にて入力されたときに、これらジェスチャーに対応する文字種の全て認識対象とすることを特徴とする請求項6乃至9のいずれかに記載の入力軌跡処理装置。 The means for recognizing only the predetermined character type recognizes all character types corresponding to these gestures when a plurality of different predetermined gestures are input before and after each other. The input locus processing device according to any one of the above. ジェスチャーの入力軌跡を位置座標データとして入力するステップと、
前記入力軌跡とジェスチャー辞書とのマッチングによって、前記入力軌跡に対応するジェスチャーを抽出する認識ステップと、
前記認識手段で抽出されたジェスチャーの適応状況を記憶するジェスチャー適応履歴記憶ステップと、
前記ジェスチャー適応履歴記憶手段の記憶内容に基いて、前記認識手段の処理を修正するステップと、
を備えた入力軌跡処理方法。
Inputting a gesture input locus as position coordinate data;
A recognition step of extracting a gesture corresponding to the input trajectory by matching the input trajectory with a gesture dictionary;
A gesture adaptation history storage step for storing an adaptation state of the gesture extracted by the recognition means;
Modifying the processing of the recognition means based on the stored contents of the gesture adaptation history storage means;
An input trajectory processing method comprising:
ジェスチャーの入力軌跡を位置座標データとして入力するステップと、
前記入力軌跡とジェスチャー辞書とのマッチングによって、前記入力軌跡に対応するジェスチャーを抽出する認識ステップと、
前記認識ステップによって特定のジェスチャーが認識されたときに、その後所定期間、前記認識ステップジェスチャーの認識を停止するステップと、
を備えた入力軌跡処理方法。
Inputting a gesture input locus as position coordinate data;
A recognition step of extracting a gesture corresponding to the input trajectory by matching the input trajectory with a gesture dictionary;
A step of stopping recognition of the recognition step gesture for a predetermined period after a specific gesture is recognized by the recognition step;
An input trajectory processing method comprising:
ジェスチャーの入力軌跡を位置座標データとして入力するステップと、
前記入力軌跡とジェスチャー辞書とのマッチングによって、前記入力軌跡に対応するジェスチャーを抽出する認識ステップと、
前記認識ステップによって特定のジェスチャーが認識されたときに、前記認識ステップで所定の文字種のみが認識されるようにするステップと、
を備えた入力軌跡処理方法。
Inputting a gesture input locus as position coordinate data;
A recognition step of extracting a gesture corresponding to the input trajectory by matching the input trajectory with a gesture dictionary;
A step of recognizing only a predetermined character type in the recognition step when a specific gesture is recognized in the recognition step;
An input trajectory processing method comprising:
請求項11乃至13のいずれかに記載の7記載の入力軌跡処理方法をコンピュータに実行させるプログラムコードを含むコンピュータ実行可能なプログラム。 A computer-executable program including program code for causing a computer to execute the input trajectory processing method according to claim 11. 請求項14記載のコンピュータ実行可能なプログラムが格納されたコンピュータ読み取り可能な記憶媒体。
A computer-readable storage medium storing the computer-executable program according to claim 14.
JP2004086161A 2004-03-24 2004-03-24 Apparatus and method for processing input trajectory Withdrawn JP2005275652A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004086161A JP2005275652A (en) 2004-03-24 2004-03-24 Apparatus and method for processing input trajectory

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004086161A JP2005275652A (en) 2004-03-24 2004-03-24 Apparatus and method for processing input trajectory

Publications (1)

Publication Number Publication Date
JP2005275652A true JP2005275652A (en) 2005-10-06

Family

ID=35175285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004086161A Withdrawn JP2005275652A (en) 2004-03-24 2004-03-24 Apparatus and method for processing input trajectory

Country Status (1)

Country Link
JP (1) JP2005275652A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272708A (en) * 2006-03-31 2007-10-18 Nec Corp Portable device, and input support method and program
WO2007148731A1 (en) * 2006-06-22 2007-12-27 Konami Digital Entertainment Co., Ltd. Line shape processing device, line shape processing method, information recording medium, and program
JP2010134880A (en) * 2008-12-08 2010-06-17 Canon Inc Information processing apparatus and information processing method
JP2012231244A (en) * 2011-04-25 2012-11-22 Kyocera Corp Portable terminal, unlock program, and unlock method
JP2014048676A (en) * 2012-08-29 2014-03-17 Kyocera Document Solutions Inc Operation unit, and electronic device
KR20140114280A (en) * 2012-12-31 2014-09-26 후아웨이 테크놀러지 컴퍼니 리미티드 Input processing method and apparatus
JP2016015776A (en) * 2015-10-02 2016-01-28 京セラドキュメントソリューションズ株式会社 Operation device and electronic device
JP2016201122A (en) * 2008-03-04 2016-12-01 アップル インコーポレイテッド Touch event model programming interface
US9965177B2 (en) 2009-03-16 2018-05-08 Apple Inc. Event recognition
US9971502B2 (en) 2008-03-04 2018-05-15 Apple Inc. Touch event model
US10175876B2 (en) 2007-01-07 2019-01-08 Apple Inc. Application programming interfaces for gesture operations
US10216408B2 (en) 2010-06-14 2019-02-26 Apple Inc. Devices and methods for identifying user interface objects based on view hierarchy
US10719225B2 (en) 2009-03-16 2020-07-21 Apple Inc. Event recognition
US10732997B2 (en) 2010-01-26 2020-08-04 Apple Inc. Gesture recognizers with delegates for controlling and modifying gesture recognition
US10963142B2 (en) 2007-01-07 2021-03-30 Apple Inc. Application programming interfaces for scrolling
US11429190B2 (en) 2013-06-09 2022-08-30 Apple Inc. Proxy gesture recognizer

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272708A (en) * 2006-03-31 2007-10-18 Nec Corp Portable device, and input support method and program
WO2007148731A1 (en) * 2006-06-22 2007-12-27 Konami Digital Entertainment Co., Ltd. Line shape processing device, line shape processing method, information recording medium, and program
US8244073B2 (en) 2006-06-22 2012-08-14 Konami Digital Entertainment Co. Ltd. Line shape processing device, line shape processing method, information recording medium, and program
US10175876B2 (en) 2007-01-07 2019-01-08 Apple Inc. Application programming interfaces for gesture operations
US11954322B2 (en) 2007-01-07 2024-04-09 Apple Inc. Application programming interface for gesture operations
US10613741B2 (en) 2007-01-07 2020-04-07 Apple Inc. Application programming interface for gesture operations
US10963142B2 (en) 2007-01-07 2021-03-30 Apple Inc. Application programming interfaces for scrolling
US11449217B2 (en) 2007-01-07 2022-09-20 Apple Inc. Application programming interfaces for gesture operations
JP2018077872A (en) * 2008-03-04 2018-05-17 アップル インコーポレイテッド Touch event model programming interface
JP2016201122A (en) * 2008-03-04 2016-12-01 アップル インコーポレイテッド Touch event model programming interface
US9971502B2 (en) 2008-03-04 2018-05-15 Apple Inc. Touch event model
US10936190B2 (en) 2008-03-04 2021-03-02 Apple Inc. Devices, methods, and user interfaces for processing touch events
US11740725B2 (en) 2008-03-04 2023-08-29 Apple Inc. Devices, methods, and user interfaces for processing touch events
US10521109B2 (en) 2008-03-04 2019-12-31 Apple Inc. Touch event model
JP2010134880A (en) * 2008-12-08 2010-06-17 Canon Inc Information processing apparatus and information processing method
US9965177B2 (en) 2009-03-16 2018-05-08 Apple Inc. Event recognition
US11163440B2 (en) 2009-03-16 2021-11-02 Apple Inc. Event recognition
US11755196B2 (en) 2009-03-16 2023-09-12 Apple Inc. Event recognition
US10719225B2 (en) 2009-03-16 2020-07-21 Apple Inc. Event recognition
US10732997B2 (en) 2010-01-26 2020-08-04 Apple Inc. Gesture recognizers with delegates for controlling and modifying gesture recognition
US10216408B2 (en) 2010-06-14 2019-02-26 Apple Inc. Devices and methods for identifying user interface objects based on view hierarchy
JP2012231244A (en) * 2011-04-25 2012-11-22 Kyocera Corp Portable terminal, unlock program, and unlock method
JP2014048676A (en) * 2012-08-29 2014-03-17 Kyocera Document Solutions Inc Operation unit, and electronic device
KR101586890B1 (en) 2012-12-31 2016-01-19 후아웨이 테크놀러지 컴퍼니 리미티드 Input processing method and apparatus
KR20140114280A (en) * 2012-12-31 2014-09-26 후아웨이 테크놀러지 컴퍼니 리미티드 Input processing method and apparatus
US11429190B2 (en) 2013-06-09 2022-08-30 Apple Inc. Proxy gesture recognizer
JP2016015776A (en) * 2015-10-02 2016-01-28 京セラドキュメントソリューションズ株式会社 Operation device and electronic device

Similar Documents

Publication Publication Date Title
US20120131520A1 (en) Gesture-based Text Identification and Selection in Images
JP4637455B2 (en) User interface utilization method and product including computer usable media
JP5533837B2 (en) Handwriting input device and handwriting input control program
JP2005275652A (en) Apparatus and method for processing input trajectory
KR20150025452A (en) Method for processing data and an electronic device thereof
EP2306270B1 (en) Character input method and system
US9172879B2 (en) Image display control apparatus, image display apparatus, non-transitory computer readable medium, and image display control method
US20160259766A1 (en) Ink experience for images
JP6180888B2 (en) Electronic device, method and program
US20040240739A1 (en) Pen gesture-based user interface
US8577148B2 (en) Image combining apparatus and image combining program
KR20190021146A (en) Method and device for translating text displayed on display
JPWO2014147716A1 (en) Electronic device and handwritten document processing method
JP5306528B1 (en) Electronic device and handwritten document processing method
US20160321238A1 (en) Electronic device, method and storage medium
CN107133615A (en) Message processing device and information processing method
KR20150044540A (en) Apparatus and method for processing an information list in electronic device
US8913043B2 (en) Electronic writing apparatus, non-transitory recording medium, and electronic writing system
CN113641283A (en) Electronic device, screen writing mode switching method and medium thereof
JP3169604U (en) Terminal device and electronic pen system
JP2012108609A (en) Display device, display method, computer program and recording medium
JP6655331B2 (en) Electronic equipment and methods
JP2018026117A (en) Image display device, image display system and program
US8629846B2 (en) Information processing apparatus and information processing method
KR102103277B1 (en) Method for managing for image an electronic device thereof

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060606

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070605