JP3874571B2 - Gesture processing device and gesture processing method - Google Patents
Gesture processing device and gesture processing method Download PDFInfo
- Publication number
- JP3874571B2 JP3874571B2 JP14094499A JP14094499A JP3874571B2 JP 3874571 B2 JP3874571 B2 JP 3874571B2 JP 14094499 A JP14094499 A JP 14094499A JP 14094499 A JP14094499 A JP 14094499A JP 3874571 B2 JP3874571 B2 JP 3874571B2
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- display
- coordinate
- coordinates
- pen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、画面上でペン等による手書きでの編集を行えるようにした情報処理装置であり、詳しくは、ジェスチャー処理装置及びジェスチャー処理方法に関するものである。
【0002】
【従来の技術】
近年、液晶表示等の表示部分と、入力ペン等との当接部位の座標を検出するタブレットとを一体化した表示装置を備え、入力ペンにより直接編集できるように設定された情報機器、いわゆるペン情報入力方式の情報機器が市場に現れている。したがって、上記表示装置は、紙とペンを連想させるように、あたかも原稿用紙での校正と同様のことを、上記タブレット上で実現できるものとなっており、上記のような情報機器としては、例えばシャープ社製の日本語ワードプロセッサ"WV- S200"等が知られている。
【0003】
これらのペン情報入力機器において、その特性をより生かすための機能として、ジェスチャー機能というものが考えられた。このようなジェスチャー機能は、予め設定して記憶しておいた編集記号により、入力ペンでタブレット上の所望する位置の文字等を、任意の編集記号で描画することにより、表示装置上の文章を編集できるようになっている。
【0004】
【発明が解決しようとする課題】
ところが、上記従来では、描画開始時のペンダウン時から、描画完了時のペンアップが完了した後に、その入力ペンによるジェスチャー機能が有効か無効かを判別しており、ジェスチャー機能の動作に時間がかかっていた。また、上記従来では、描画中に入力ペンが、ジェスチャー機能の無効領域である、アイコン等の領域を通ると、ジェスチャー機能をキャンセルしていたため、そのようなキャンセル時には再度設定し直して、入力ペンによりタブレット上を描画する必要があり、ジェスチャー機能に手間取っているという問題を生じている。
【0005】
また、上記従来では、例えば、ユーザーが意図しないで、消去や抹消系の編集記号を入力して、意図しない文章に編集することがあり、そのような文章を元に戻すのに手間取るという問題も生じている。
【0006】
さらに、上記従来では、ジェスチャー機能を有効に機能させるために、入力ペンの軌跡や編集記号のリスト等を表示できるようになっているが、そのような表示の消去と表示とを繰り返すと、その処理時間が大きくなり処理速度が遅くなるという問題も生じている。
【0007】
【課題を解決するための手段】
本発明のジェスチャー処理装置は、以上の課題を解決するために、液晶ディスプレイ等の表示手段と、入力ペン等の入力手段により指示された表示手段の表示面上での連続する座標のストロークを出力する座標抽出手段と、座標抽出手段から出力される最初の座標に対応する表示位置が編集対象となる情報が表示される有効領域であるか否かを判定する判定手段と、判定手段により有効領域であると判定された最初の座標位置にカーソルを移動するポインティング処理手段と、判定手段により有効領域外であると判断された最初の座標に連続するストロークは取り込まず、有効領域であると判定された最初の座標に連続するストロークを取り込み予め記憶された基本ストロークと照合し最も近似する基本ストロークに対応する編集コマンドを出力するジェスチャー認識手段と、ジェスチャー認識手段から出力される編集コマンドに基づき表示手段上の上記有効領域に表示されたカーソルで指示される情報を編集する編集手段とを備えていることを特徴としている。
【0008】
さらに、本発明のジェスチャー処理装置の上記判定手段は有効領域内の最初の座標に連続する座標についての領域判定を行わないようにしたことを特徴としている。
【0009】
また、本発明のジェスチャー処理方法は、液晶ディスプレイ等の表示手段と、入力ペン等の入力手段により指示された表示手段の表示面上での連続する座標のストロークを出力する座標抽出手段とを備えるジェスチャー処理装置におけるジェスチャー処理方法であって、座標抽出手段から出力される最初の座標に対応する表示位置が編集対象となる情報が表示される予め定められた有効領域であるか否かを判定し、有効領域外であると判断された最初の座標に連続するストロークは取込まず、有効領域であると判定された最初の座標位置にカーソルを移動した後、有効領域であると判定された最初の座標に連続するストロークを取り込み予め記憶された基本ストロークとを照合し最も近似する基本ストロークに対応する編集コマンドを出力し、出力された編集コマンドに基づき表示手段上の上記有効領域に表示されたカーソルで指示される情報を編集することを特徴としている。
【0011】
上記の本発明によれば、ジェスチャー機能時に上記入力ペン等の入力手段により指示されて座標抽出手段により上記表示面上での最初に指示された座標の出力によって、上記ジェスチャー機能の有効と無効とを判定する判定手段と、その後のストロークによって編集コマンドを出力するジェスチャー認識手段とが設けられているから、ジェスチャー機能の有効/無効とその意図するコマンドとを正確に判断し抽出することができる。
【0012】
また、本発明によれば入力手段による最初の座標を出力した後に入力されたストロークの座標については、有効/無効の領域判定を行わないようにしたので、最初の座標が有効であれば、例えば、その後の連続したストロークがジェスチャー機能の無効領域に描かれても、ジェスチャー機能そのものが無効となることがない。
【0013】
【発明の実施の形態】
本発明の一実施例について図1ないし図23に基づいて説明すれば、以下の通りである。情報処理装置としてのジェスチャー処理装置では、図2に示すブロック図のように、プログラムを実行する中央処理装置(Central Processing Unit 、以下、CPUという)1が設けられ、そのCPU1のバスライン18に、各種データを記憶して読み出すためのRAM2、制御プログラムを格納しておくROM3、プリンタ5を制御するプリンタコントローラ4、外部記憶手段としてのICカード6に対して読み書きするためのICカードインターフェース7、およびフロッピーディスクドライブ(以下、FDDという)8を制御するFDコントローラ9が接続されている。
【0014】
さらに、上記バスライン18には、入力手段としてのキーボード10からの信号を上記バスライン18に入力するためのキーインターフェース11と、液晶ディスプレイ等の表示装置14(表示手段)を制御するための表示コントロール15とが接続されている。
【0015】
その上、上記バスライン18には、上記表示装置14の画像上と当接して、情報を入力したり、選択したりする入力ペン12からの信号をペン座標に変換して上記バスライン18に入力するためのペンインターフェース13が接続されており、よって、上記入力ペン12は、上記画像上を示す、いわゆるポインティング機能や、上記画像上を所定のイメージを描画することにより、画像上の情報を選択したり、編集記号を入力したりできるジェスチャー機能のための入力手段となっている。
【0016】
また、上記バスライン18には、手書き編集インターフェース16が接続されており、その手書き編集インターフェース16では、後に詳述するように、上記の入力ペン12からのペン座標をそれぞれ示す各座標データの信号により、メモリである手書き認識辞書(記憶手段)17に基づいて、上記各座標データの認識結果を上記バスライン18に出力するようになっている。
【0017】
また、上記手書き認識辞書17では、文字や記号を示す各基本ストロークが、後述する(1)横書きジェスチャーコマンドテーブル、(2)手書き文字テーブルと(3)縦書きジェスチャーコマンドテーブルというように内容により分類されてそれぞれ格納されている。このような基本ストロークの例としては、改行を示す編集記号である逆L字が、図3に示すように、9×9の枡目のそれぞれ相当する位置に〇で示したように埋まって示されている。
【0018】
一方、図2に示すように、前記表示装置14の画面上に、その画面の各座標を検出するための透明なタブレット(座標抽出手段)19が一体的に形成されていて、上記タブレット19は、表示装置14の文字配列、例えば図4(b)に示す縦40行、横80例に対応するように、図4(a)に示す碁盤の目状に各XY( 640×400 )座標が設定されている。
【0019】
これにより、図2に示す前記入力ペン12の先端部が、上記タブレット19上に当接すると、そのタブレット19におけるペン座標が、前記ペンインターフェース13にて検出され、座標コードに変換されてバスライン18に出力される。
【0020】
なお、上記のタブレットの方式としては、入力ペン12が当接して描画すると、その軌跡の各座標が検出できるものであれば特に限定されないが、例えば静電結合式タブレットや、電気ひずみおよび磁気ひずみ式タブレット、また、感圧式や超音波式や電気機械式タブレットも使用できる。
【0021】
このような上記構成を用いて、表示装置14上に文章を作成する場合、キーボード10から入力された文字や記号が、キーインターフェース11にて所定の文字コードや記号コードにそれぞれ変換されて、それら各コードがCPU1(図1におけるテキスト編集部1a)により一旦RAM2に順次格納される(図1におけるテキストメモリ2a)。
【0022】
その後、そのRAM2に格納されたコードを、キーボード10からの指示とROM3に格納されているプログラムとに基づいて、CPU1が、表示装置14に表示できるようにRAM2上に再度配列する(図1におけるビットマップメモリ2b)。続いて、上記RAM2上の各コード配列を、表示コントロール15を介して表示装置14上に表示するようなっている。
【0023】
また、上記構成では、このように一旦表示装置14上に表示された文章を、キーボード10、表示装置14上に設定されたアイコン、または後述する入力ペン12による指示により編集できて、上記CPU(編集手段)1は、所定のプログラムおよび上記指示に従って、RAM2におけるビットマップメモリ2bの各コード配列を並べ換える、つまり編集することができるようになっている。
【0024】
次に、表示装置14上に表示されている文章の編集を容易にするためのジェスチャー機能について説明する。まず、図1に示すように、CRTや液晶等の表示装置14と、その表示面上に設けられた透明なタブレット19とが一体に構成されたディスプレイタブレット20上で、その表示装置14上で表示されている文章等の画像の所望の位置において、例えば編集記号を示すイメージを入力ペン12にて描画する。
【0025】
そのような描画の各座標データは、上記タブレット19に接続されている軌跡座標抽出部21にて順次検出される。このとき、上記座標データの内、上記入力ペン12とタブレット19とが最初に当接したXY座標であるペンダウン座標が、図5に示すタブレット19におけるジェスチャー機能の有効領域19a内であるか無効領域19b内であるかを、上記軌跡座標抽出部21からの座標データが入力されるジェスチャー判定部(判定手段)22にて判定される。
【0026】
さらに、上記ジェスチャー判定部22では、上記のペンダウン座標が有効であると判定されると、そのペンダウン座標が、表示装置14における各表示画面に応じて設定され、入力ペン12により選択等が実行されるペンボタン領域であるか否かが判定される。
【0027】
その後、上記ペンダウン座標が、有効領域内であり、かつ、ペンボタン領域でないことが判定されると、上記ジェスチャー判定部22から座標データが入力される軌跡判定部23は、ジェスチャー機能のONを示すジェスチャー機能ONフラグをフラグ指示部(停止手段)24にセットする。
【0028】
このフラグ指示部24に、ジェスチャー機能ONフラグがセットされていると、上記の描画軌跡を示す各座標データは、ペンダウン座標も含めて軌跡判定部23に接続されている座標データバッファ25にそれぞれ順次記憶される。
【0029】
その上、上記フラグ指示部24にジェスチャー機能ONフラグがセットされていると、前記ジェスチャー判定部22は、入力される座標データが有効領域内であるか否か、およびペンボタン領域であるか否かの判定を停止して、入力された座標データを全て有効として軌跡判定部23に出力するようになっている。
【0030】
上記の入力ペン12による描画が終了して、入力ペン12がタブレット19から離間するペンアップの状態となると、軌跡判定部23は上記のジェスチャー機能ONフラグがセットされていることを確認して、上記各軌跡座標データの全てが上記データバッファ25からジェスチャーコマンド判定部(ジェスチャー認識手段)26に出力される。
【0031】
なお、上記のように各座標データが全てジャスチャーコマンド判定部26に出力されると、上記フラグ指示部24によるジェスチャー機能ONフラグがリセットされるようになっている。
【0032】
上記各軌跡座標データは、そのジャスチャーコマンド判定部26にて正規化されて図2に示す手書き認識辞書17に含まれるジェスチャーコマンドテーブル27にそれぞれ格納されている基本ストロークのデータと照合される。なお、上記のジャスチャーコマンド判定部27は前記の手書き編集インターフェース16に含まれ、また、前記の軌跡座標抽出部21、ジェスチャー判定部22、軌跡判定部23およびフラグ指示部24は、前記のペンインターフェース13に含まれており、前記の座標データバッファ25はRAM2に記憶領域が設定されている。
【0033】
上記のジェスチャーコマンドテーブル27には、図示している一字抹消コマンド27a、スペース挿入コマンド27b、手書き文字入力コマンド27cに対応する基本ストロークの他に、例えば図6および図7に示す複数の基本ストロークが、それぞれ対応するコマンドと共に記憶されている。
【0034】
また、上記ジェスチャーコマンドテーブル27における各基本ストロークを、ジャスチャーコマンド判定部26からアクセス可能とアクセス不可とをそれぞれ選択して設定できるコマンド選択部(選択手段)32が設けられており、そのコマンド選択部32での選択は、テキスト編集部1aを介して入力ペン12やキーボード10等の入力手段によって設定できるようになっている。
【0035】
なお、上記コマンド選択部32では、各基本ストロークを個々にジャスチャーコマンド判定部26からアクセス可能とアクセス不可とが選択設定できるようになっており、また、上記各基本ストロークをグルーピングして、各グループ毎に、アクセス可能とアクセス不可とが選択設定(設定手段)できるようにもなっている。
【0036】
また、上記の各基本ストロークにそれぞれ対応する各コマンドのアクセス可能とアクセス不可とを表にして記憶して、その表を任意に呼び出して表示装置14で表示するための登録バッファ33が設けられている。さらに、この登録バッファ33では、上記コマンド選択部32においてグルーピングされている場合、例えば、全て無効、一部有効、全て有効から選択できるように、グルーピングの表も記憶できるようになっている。
【0037】
前記のジャスチャーコマンド判定部27は、上記の各基本ストロークとの照合の結果、前記の軌跡座標と最も近似する基本ストロークに対応したコマンドを、テキスト編集部1aに出力すると共に、供給された軌跡座標から上記コマンドにより処理される文字または文字列の座標情報、つまり表示装置14における位置情報を上記テキスト編集部1aに出力する。
【0038】
これにより、上記テキスト編集部1aは、テキストメモリ2a内の文字や記号の配列の上記位置情報の文字や記号を、削除したり、その位置に挿入したりして編集できることになる。このとき、テキスト編集部1aは、上記のようなジェスチャー機能の起動時に、つまり入力ペン12による入力操作を開始する直前に、表示装置14において表示されているテキストメモリ2a内の画面情報を、呼び出して一時記憶しておくメモリである画面情報バッファ(記憶領域)31が設定されている。なお、上記画面情報バッファ31では、次の画面情報が記憶されると、以前の記憶された画面情報はクリアされるようになっている。
【0039】
これにより、上記の編集を取り消す場合等、予め以前の画面情報が記憶されているため、例えば図17に示すように、入力ペン12の軌跡表示、認識領域の矩形表示、認識情報の表示、認識表示の一覧、処理結果の取消か否かを問うメッセージ等を表示しても、編集画面の再表示、認識機能実行、編集処理の取消し等の実行が迅速化できる。
【0040】
また、上記のテキスト編集部1aは、ジャスチャーコマンド判定部27からのコマンドのみが入力されるだけでなく、前述したようにキーボード10からのコマンドも入力されて、そのコマンドによる編集等ができるようになっている。
【0041】
一方、上記の軌跡座標の処理とは独立して、軌跡座標抽出部21により抽出された軌跡座標データは、軌跡描画部28に出力されて上記軌跡座標データをつないだ軌跡イメージとなる。
【0042】
生成された軌跡イメージは、ビットマップメモリ2bに現在形成されている文字列、記号列またはイメージと合成されて、そのビットマップメモリ2bに記憶される。したがって、オペレータが入力ペン12で、タブレット19をなぞって入力したジェスチャーイメージは、リアルタイムに表示装置14上に表示されることになる。
【0043】
このようなジェスチャー編集の操作例を図8および図9に示す。まず、図8において、ディスプレイタブレット20に表示されているテキストの内、文字「え」を一字抹消する場合、入力ペン12にて「え」の文字の上を「V」のようにジェスチャー、つまり描画した後、上記入力ペン12をディスプレイタブレット20上から離す。
【0044】
なお、上のような描画の際、その開始位置が、上記の文字の範囲内で有ることが上記の文字の認識において肝要である。特に指示する文字の認識を容易にするため、上記の文字のほぼ中央部から描画を開始することが望ましい。
【0045】
続いて、その軌跡座標が抽出されて軌跡イメージがディスプレイタブレット20における表示装置14に表示されると共に、基本ストロークとの照合により得られた「V」の描画に相当する一字抹消のコマンドと共に、上記の「え」の文字の位置情報が、テキスト編集部1aに出力される。
【0046】
その後、上記の位置情報に基づいて、表示装置14におけるカーソル14aが元の位置、例えば「ほ」の文字の位置から入力ペン12にて操作された位置、つまり上記の場合文字「え」の位置に移動した後、前記のテキストメモリ2a内の上記の「え」を、上記のコマンドに基づき抹消することにより、ビットマップメモリ2b内の上記の「え」の文字が消去され、上記表示装置14における上記の「え」が抹消される。このようにしてジェスチャー編集が完了する。
【0047】
また、図9に示すように、各編集記号を図示しない入力ペンにより、ディスプレイタブレット20上に描画することにより、上記と同様に、ジェスチャー編集が可能となっている。なお、上記の編集記号のイメージである基本ストロークは任意に設定できるようになっている。
【0048】
次に、上記の構成によるポインティング機能について説明する。まず、従来のワードプロセッサでは、テキスト上の複数文字を領域指定する場合等にはカーソルを順次移動させていたが、上記構成では、カーソル14aの位置を直接入力ペン12の指示によりダイレクトに移動指示が可能となっている。
【0049】
なお、前記のジェスチャーとポインティングとの切り替えは、抽出された座標が軌跡を伴わない一点の座標であるか否か、すなわち上記各座標が連続であるか否かによって判断しており、このような判断は、前記軌跡判定部23にて行われている。
【0050】
そこで、例えば、ポインティングであると判断した場合、得られた座標は、ジェスチャーコマンドテーブル27と照合せず、その座標の位置情報のみをテキスト編集部1aに出力させている。このようなポインティング機能の操作例は図10に示す通りである。
【0051】
次に、上記構成を用いて、手書き文字入力について説明する。手書き文字入力は、前記のジェスチャー編集が軌跡座標と予め記憶した基本ストロークとを照合する処理と同等の処理方法により実行できるようになっている。
【0052】
つまり、図1に示すように、ジャスチャーコマンド判定部26と処理上の同等位置に、すなわち手書き編集インターフェース16に、手書き文字認識部29が形成され、手書き文字を予め記憶している手書き文字テーブル30が、ジェスチャーコマンドテーブル27と同様に図2に示す手書き認識辞書17に形成されている。
【0053】
上記の手書き文字認識部29は、軌跡座標抽出部21から供給される軌跡座標と、手書き文字テーブル30に記憶されている複数の基本文字ストロークとを照合し、最も近似する基本文字ストロークに対応する文字コードを上記の手書き文字テーブル30からテキスト編集部1aに出力させる。
【0054】
このような手書き文字入力機能と、前記のジェスチャー編集機能との異なる点は、手書き文字認識部29が位置情報を出力しないことである。なお、上記の手書き文字入力機能は、キーボード10からの指示や、表示装置14上のアイコンからの指示から立ち上げ可能にしており、また、ディスプレイタブレット20のタブレット19上に、図6に示すように、「△」をジェスチャーすることにより、ジェスチャー編集機能から立ち上げ可能となっている。
【0055】
このような手書き文字入力機能の操作例について説明すると、図11に示すように、手書き文字入力機能が立ち上げられると、ディスプレイタブレット20の所定位置に、手書き文字入力のためのウインドウ14bが表示され、そのウインドウ14a内の第1入力エリアに、入力ペン12にて文字を、例えば「す」と手書きする。
【0056】
その後、次の入力のため隣接する第2エリアに入力ペン12を接触させると、そのとき上記の第1エリアに手書きされた軌跡座標の文字認識が、前記の手書き文字テーブル30を参照して前記手書き文字認識部29にて前述したように実行され、その認識結果の文字をカーソル14aが示す位置に入力して表示するようになっている。
【0057】
これにより、例えば草書体などの字体を予め、手書き文字テーブル30に記憶させておき、その草書体を手書きで入力して、上記手書き文字テーブル30における草書字体を表示・印刷等が可能となっている。
【0058】
次に、ジェスチャー編集機能における上記構成の動作例について図12のフローチャートを参照しながら説明すると、まず、入力ペン12の先端部がディスプレイタブレット20上の所望する位置で当接または押圧、つまりダウンされると、その時の座標が、ペンインターフェース13を介して示される。
【0059】
一方、表示装置14における例えばアイコン領域や、ペンボタン領域での入力ペン12の機能は選択機能である。したがって、上記のようなジェスチャー編集機能のディスプレイタブレット20上での有効範囲は、上記の各領域を除外したタブレット19領域となる。
【0060】
このことから、上記ディスプレイタブレット20におけるタブレット19では、例えば図13に示すように、上記のディスプレイタブレット20において用いられる各画面に応じて予め、タブレット19における有効領域19aと、ジェスチャー機能に優先する例えばアイコン領域を示す無効領域19bと、ジェスチャー機能に優先するペンボタン領域19cがそれぞれ設定されている。
【0061】
そこで、前述したようにペンダウンが実行されて、その座標データ信号が軌跡座標抽出部21に出力されると、まず、その最初の入力ペン12の接触座標であるペンダウン座標を検出し(ステップ1、以下ステップをSと略す)、前記の有効領域座標とを比較し(S2)、その結果、上記ペンダウン座標が、有効領域座標外であればジェスチャー機能は無効となりジェスチャー機能が終了する。
【0062】
また、上記ペンダウン座標が、有効領域座標内であれば、次のステップとして、ジェスチャー機能を禁止する他の要因の一つであるペンボタン領域が、上記ペンダウン座標に有るか否かを検出し(S3)、そのペンダウン座標が、上記ペンボタン領域の座標上であれば、そのペンボタン処理のルーティンに移行する(S4)。
【0063】
一方、上記ペンダウン座標が、ペンボタン領域の座標外であれば、そのペンダウン座標を記憶しておき、入力ペン12による次の座標データが入力されると、その座標データと上記のペンダウン座標とを比較して、上記入力座標が上記ペンダウン座標に対して連続、つまり、そのX座標、Y座標の少なくとも一方が連続てあることが8座標分連続か否かを判定する(S5)。
【0064】
このとき、上記各座標データが連続軌跡であれば、ジェスチャー機能をONとして、ジェスチャーONフラグがセットされる(S6)と共に、入力ペン12がジェスチャー機能の有効領域外、つまりアイコン領域等を通っても、そのアイコン領域での入力ペン12のアイコン指示機能は停止される。また、上記S5における判定が連続軌跡ではない場合、ポインティング処理ルーティンに移行する(S7)。
【0065】
なお、上記のS5とS6のステップを逆、すなわちジェスチャーONフラグのセットが先でもよい。この場合、各座標データが連続でない時、ポインティング処理ルーティンに移行するが、その際には上記ジェスチャーONフラグがリセットされるようになっている。
【0066】
その後、ジェスチャー操作、つまり入力ペン12によるタブレット19上での所定のイメージの入力操作が行われて、入力ペン12とタブレット19との当接が解除、すなわち入力ペン12がアップされると、図14のフローチャートに示すように、まず、上記のようにジェスチャー機能がONであることを示す前記フラグがセットされているか否かを判定し(S11)、上記フラグがセットされていなければ、上記の入力操作がジェスチャー機能と無関係な動作と判定されて、ジェスチャー機能を終了する。
【0067】
また、上記フラグがセットされていれば、ジャスチャーコマンド判定部26は、ペンダウン座標からペンアップの座標に至る入力ペン12の各座標データを、認識処理のために、まず、専用の座標データメモリに正規化して格納する(S12)。
【0068】
次に、上記各座標データの認識処理を、ジャスチャーコマンド判定部26にて実行し(S13)、続いて、ジェスチャーコマンドテーブル27との比較の上で認識OKであれば(S14)、その認識結果にそった各編集処理を実行して(S15)、ジェスチャー編集が完了する。また、上記の認識処理で認識不能な場合はエラー処理(S16)に移行して、上記のジェスチャー編集を終了する。
【0069】
このように上記実施例の構成では、ペンアップに際しては、そのときのペン座標が、ジェスチャー機能の有効領域外であっても、その時点でジェスチャー機能ONとなっておれば、ジェスチャー認識を実行できるようになっており、さらに、ペンダウン座標が、前記有効領域内、およびペンボタン領域外であれば、上記ペンダウン座標に続く描画軌跡の座標が、上記の有効領域外、およびペンボタン領域内であって、その描画軌跡の座標データを有効として、その認識処理に移行できるようになっている。
【0070】
したがって、上記構成は、例えば図15に示すように、A点で、図示しない入力ペンがダウンされた場合、A点はジェスチャー有効領域19a内にあるため、そのダウン移行後の入力ペンの描画によるジェスチャー機能がONとなり、その入力ペンによる描画が完了後、その入力ペンのアップ座標が例えB点となり、そのB点がジェスチャー有効領域19a外、つまり無効領域19bとなっても、上記の描画、すなわちジェスチャーは有効となる。また、描画軌跡の途中における各座標が、上記無効領域19bとなっても同様である。
【0071】
しかし、上記構成は、例えば図16に示すように、ジェスチャー有効領域外、すなわち無効領域19a内となるC点にて、図示しない入力ペンがダウンされると、その入力ペンによる操作はジェスチャー機能OFFとなり、例えばアイコン処理等に移行することとなる。
【0072】
ところで、従来のようなジェスチャー機能では、描画が完了した後に、その描画が有効であるか否かを判定していたため、その判定に時間がかかっており、また、上記のような入力ペンによる描画の途中において、その入力ペンが、ジェスチャーの有効領域外の無効領域や、ペンボタン領域となるタブレット領域と当接すると、そのジェスチャー機能の処理が停止して、エラー処理に移行していた。
【0073】
このため、上記従来では、入力ペンの操作を、操作開始だけではなく操作完了までの操作に気を使う必要があり、そのジェスチャー機能における描画に手間取り、その操作性が劣化していた。
【0074】
しかしながら、上記実施例の構成では、入力ペン12によるペンダウン座標がジェスチャー機能の有効領域19a内であれば、ジェスチャー機能を開始すると共に、入力ペン12による描画中は、その入力ペン12がジェスチャーの有効領域19a外、つまり無効領域19bまたはペンボタン領域19cに当接しても、その描画を有効としている。
【0075】
これにより、上記構成は、ペンダウン座標によってジェスチャー機能を開始できるから、そのジェスチャー機能に必要な、例えばジェスチャーコマンドテーブル27の呼び出し等を予め準備できるから、ジェスチャー機能の迅速化を図ることが可能となり、その上、入力ペン12による描画中において、上記有効領域を特に意識する必要がなく、ジェスチャー機能の操作性を向上できるものとなっている。
【0076】
次に、上記ジェスチャー機能におけるコマンド選択機能の際の各動作について図18のフローチャートを参照しながら説明する。上記のコマンド選択機能の処理を、キーボード10等の入力手段からの指示信号により起動させると、まず、認識でき得る全てのコマンドの処理機能名を呼び出した後(S21)、その各処理機能名を表の項目として表示装置14にて表示する(S22)。
【0077】
続いて、キーボード10における実行キーにより、各項目毎に有効/無効を選定した後(S23)、キー操作にて有効/無効コマンドの更新か否かを例えば図19に示すように設定する(S24)。このとき、新たに選定した有効/無効コマンドに更新する場合は、実行キーをONとして、上記の選定データを取り込んで(S25)、更新し(S26)、表示装置14における画面をクリアして(S27)、前記の処理を完了し、一方、新たに選定した有効/無効コマンドに更新しない場合は、解除キーをONして更新しないで、表示装置14における画面をクリアして(S27)、前記処理を終了する。
【0078】
次に、上記コマンド選択機能における登録・呼出処理についての際の各動作について図20のフローチャートを参照しながら説明する。まず、上記の登録・呼出処理を、入力ペン12やキーボード10等の入力手段からの指示信号により起動させると、まず、登録処理か呼出処理かを判断し(S31)、登録処理であれば、現在の有効/無効コマンドデータの全てを表示装置14に呼び出して(S32)、確認した後、登録名をキーボード10等から入力して(S33)、その登録メイト共に上記有効/無効コマンドデータを登録バッファ33に記憶させて(S34)、上記登録処理を完了する。
【0079】
一方、前記S31において呼出処理であれば、登録名を入力して選択した後(S35)、登録バッファ33内の登録名を検索し(S36)、その登録名に該当する有効/無効コマンドデータを呼び出して表示装置14に表示し(S37)、それまでの有効/無効コマンドデータを上記登録名の有効/無効コマンドデータに更新して(S38)、呼出処理を完了する。
【0080】
このように上記実施例の構成では、個々のコマンドに対して、それぞれ有効と無効とを設定できることにより、ユーザーが必要とするジェスチャー機能のは有効とすることができる。これにより、不必要なジェスチャー機能の認識による誤動作を防止することができ、さらに、ユーザーが認識するジェスチャーコマンドの数を低減できるから、コマンドのユーザー認識率を高めることができる。
【0081】
したがって、上記構成は、ジェスチャー機能に用いる各コマンドの誤認識を低減できて、ユーザーの意図に、より正確な編集処理が可能となる。
【0082】
また、上記構成では、複数のユーザーが同一の情報処理装置を用いる場合等において、ユーザー毎にコマンドの有効/無効とを選定して、その選定内容を記憶、つまり登録しておくことができる。これにより、複数のユーザーが個々に必要とするジェスチャー機能をいつでも任意に選定できて、各ユーザーの編集方法等に合った編集処理が容易に可能となる。
【0083】
その上、上記構成は、ユーザーが替わる毎に個々のユーザーに必要なジェスチャー機能を代えた時、不用意に不必要なジェスチャー機能による誤った編集を行うことに起因する文章等の作成に手間取るということを軽減できる。
【0084】
次に、上記のコマンド選択機能における有効/無効のグルーピングによるモード選択処理について図21を参照しながら説明する。上記構成がジェスチャー機能中において、キーボード10や入力ペン12等によって、モード選択キーによる割り込みを発生させると、まず、認識でき得る全てのコマンドの処理機能名を呼び出した後、その各処理機能名を表の項目として表示装置14にて表示する(S41)。
【0085】
続いて、キーボード10における実行キーにより、各項目毎に有効/無効を選定して、有効コマンドグループと無効コマンドグループとを設定した後(S42)、いままでの有効/無効コマンドを上記のように選定したコマンドに更新するか否かをキー操作にて設定する(S43)。
【0086】
このとき、新たに選定した有効/無効コマンドに更新する場合は、実行キーをONとして、上記の選定データを取り込んで更新し(S44)、表示装置14における画面をクリアして(S45)、前記のモード選択処理を完了し、一方、新たに選定した有効/無効コマンドに更新しない場合は、解除キーをONして更新しないで、表示装置14における画面をクリアし(S45)、前記モード選択処理を終了する。
【0087】
このように上記構成では、ジェスチャー機能における無効コマンドを設定できることにより、上述したようにジェスチャー機能におけるジェスチャーコマンドの誤認識を防止することができる。
【0088】
その上、上記構成は、例えば消去・抹消系のコマンドを無効とし、他のコマンドを有効とする設定により、ジェスチャー編集は有効とすることができるが、ジェスチャー動作によって、表示装置14上における文章等の画像が誤消去される虞が回避される。このような一部有効のジェスチャー機能選択の画面の例を図21に示す。
【0089】
このように一部有効を選択できるから、ジェスチャー機能を扱う初心者に対し、表示装置14上における文章等の画像が誤消去される虞を防止する効果が特に大きく、上記構成を操作する際の不手際による文章等の再作成といった手間を省くことができて、操作性を向上させることができる。
【0090】
また、上記構成は、画面情報バッファ31を設けて、図23のフローチャートに示すように、ジェスチャー機能が立ち上がると、その時の表示装置14上の画像情報を上記画面情報バッファ31に記憶、すなわちセーブさせておく(S51)。
【0091】
続いて、入力ペン12がダウンされて(S52)、上記入力ペン12により編集機能を指示するコマンドが入力されて(S53)、編集範囲の認識が確定して(S54,S55)、上記入力ペン12がアップすると(S52)、上記コマンドおよび編集範囲をジャスチャーコマンド判定部26に出力し(S56)する。
【0092】
その後、表示装置14の表示画面を前記の画面情報バッファ31にセーブした画面情報を上記表示画面を戻す(S57)。続いて、テキストメモリ2aにも記憶されている上記画面情報に対して、編集動作等の機能を実行し、その結果を表示装置14に表示する(S58)。
【0093】
次に、その表示装置14の表示画面を取り消すか否かを判別し(S59)、取り消さない場合は上記のジェスチャー機能を完了し、取り消す場合は、前記の画面情報バッファ31にセーブされている画面情報に表示装置14の表示画面を戻し、かつ、上記テキストメモリ2a内の画面情報も元に戻す(S60)。
【0094】
このように上記構成は、ジェスチャー機能の入力ペン12による操作直前の表示装置14上の画像情報を上記画面情報バッファ31に記憶させるから、前述したようにジェスチャー機能の取り消し等の際の、元の画像への復帰を迅速化できるものとなっている。
【0095】
【発明の効果】
本発明のジェスチャー処理装置及びジェスチャー処理方法では、入力手段により表示面上に対し指示を開始、つまり最初の座標を指示したときにジェスチャー機能の有効と無効とを判定し、その後に続くストロークに基づいて編集コマンドを抽出するので、ジェスチャー機能の有効時における、有効領域に表示された情報の編集というジェスチャー機能の的確・迅速な処理が可能となる。また、本発明のジェスチャー処理装置及びジェスチャー処理方法では、入力手段により表示画面上の任意の位置にストロークを指示する途中に上記入力手段がジェスチャー無効領域を通っても、ジェスチャー機能が無効とならず、従来のようにジェスチャー機能が無効となって、再度入力手段により指示するといった手間を省くことができるという効果を奏する。
【図面の簡単な説明】
【図1】本発明のジェスチャー処理装置の要部ブロック図である。
【図2】本発明のジェスチャー処理装置のブロック図である。
【図3】本発明のジェスチャー処理装置における基本ストロークの認識例を示す説明図である。
【図4】本発明のジェスチャー処理装置のディスプレイタブレットにおける位置情報を示す説明図であって、(a)はタブレット、(b)は表示装置の表示面である。
【図5】本発明のディスプレイタブレットにおけるジェスチャー機能有効領域とジェスチャー機能無効領域とを示す説明図である。
【図6】本発明の基本ストロークの各例とそれらにそれぞれ対応するコマンドを示す説明図である。
【図7】本発明の基本ストロークの各例とそれらにそれぞれ対応するコマンドを示す説明図である。
【図8】本発明のジェスチャー処理装置におけるジェスチャー機能の編集動作例を示す説明図である。
【図9】本発明のジェスチャー処理装置におけるジェスチャー機能の各編集動作例を示す説明図である。
【図10】本発明のジェスチャー処理装置におけるポインティング機能の動作例を示す説明図である。
【図11】本発明のジェスチャー処理装置における手書き文字入力機能の動作例を示す説明図である。
【図12】本発明のジェスチャー機能におけるペンダウン時のフローチャートである。
【図13】本発明のディスプレイタブレットにおけるペンボタン領域を示す説明図である。
【図14】本発明のジェスチャー機能におけるペンアップ時のフローチャートである。
【図15】本発明のジェスチャー機能におけるディスプレイタブレット上での軌跡の例を示す説明図である。
【図16】本発明のジェスチャー機能におけるディスプレイタブレット上での他の軌跡の例を示す説明図である。
【図17】本発明のジェスチャー機能におけるディスプレイタブレットでの表示例を示す説明図である。
【図18】本発明のジェスチャー機能における呼び出しの有効/無効を設定する際のフローチャートである。
【図19】本発明のジェスチャー機能における呼び出しの有効/無効を設定する際の表示装置での表示例を示す説明図である。
【図20】本発明のジェスチャー機能における登録・呼出を設定する際のフローチャートである。
【図21】本発明のジェスチャー機能におけるモードの設定の際のフローチャートである。
【図22】本発明のモードを選択する際の表示装置での表示例を示す説明図である。
【図23】本発明のジェスチャー機能における画像情報のセーブ方法を示すフローチャートである。
【符号の説明】
12 入力ペン
14 表示装置
19 タブレット
22 ジェスチャー判定部(判定手段)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information processing apparatus that can perform handwritten editing with a pen or the like on a screen, and particularly relates to a gesture processing apparatus and a gesture processing method.
[0002]
[Prior art]
2. Description of the Related Art In recent years, information devices, so-called pens, that are equipped with a display device that integrates a display portion such as a liquid crystal display and a tablet that detects the coordinates of a contact portion with an input pen or the like and that can be directly edited by an input pen Information input-type information devices are appearing on the market. Therefore, the display device can realize on the tablet the same as the calibration on the manuscript paper, as if reminiscent of paper and a pen. Sharp's Japanese word processor "WV-S200" is known.
[0003]
In these pen information input devices, a gesture function has been considered as a function for making the most of the characteristics. Such a gesture function is a method of drawing a text on a display device by drawing a character or the like at a desired position on a tablet with an input pen using an editing symbol stored in advance. It can be edited.
[0004]
[Problems to be solved by the invention]
However, in the above conventional method, after the pen-down at the start of drawing and the pen-up at the completion of drawing is completed, it is determined whether the gesture function by the input pen is valid or invalid. It was. Further, in the above conventional case, when the input pen passes an area such as an icon which is an invalid area of the gesture function during drawing, the gesture function is cancelled. Therefore, it is necessary to draw on the tablet, and there is a problem that the gesture function is troublesome.
[0005]
Further, in the above-described conventional case, for example, the user may unintentionally input an edit symbol for deletion or deletion and edit it into an unintended sentence, and there is a problem that it takes time to restore such a sentence. Has occurred.
[0006]
Furthermore, in the above-described conventional case, in order to make the gesture function function effectively, the locus of the input pen, the list of edit symbols, and the like can be displayed. There is also a problem that the processing time increases and the processing speed decreases.
[0007]
[Means for Solving the Problems]
In order to solve the above problems, the gesture processing apparatus of the present invention outputs a stroke of continuous coordinates on the display surface of the display means indicated by the display means such as a liquid crystal display and the input means such as an input pen. A coordinate extracting unit that determines whether the display position corresponding to the first coordinate output from the coordinate extracting unit is an effective area in which information to be edited is displayed;Pointing processing means for moving the cursor to the first coordinate position determined to be an effective area by the determination means;Strokes that continue to the first coordinates determined to be outside the effective area by the determination means are not captured, but strokes that are consecutive to the first coordinates determined to be the effective area are captured and stored in advance.MatchAnd a gesture recognition means for outputting an edit command corresponding to the closest basic stroke, and displayed in the effective area on the display means based on the edit command output from the gesture recognition means.Indicated by the cursorAnd an editing means for editing information.
[0008]
Furthermore, the gesture processing of the present inventionThe determination means of the apparatus is characterized in that the region determination is not performed for coordinates that are continuous with the first coordinate in the effective region.
[0009]
The gesture processing of the present inventionThe method includes: a gesture processing method in a gesture processing apparatus, comprising: display means such as a liquid crystal display; and coordinate extraction means for outputting a stroke of continuous coordinates on the display surface of the display means designated by the input means such as an input pen. Then, it is determined whether or not the display position corresponding to the first coordinate output from the coordinate extracting means is a predetermined effective area in which information to be edited is displayed, and is outside the effective area After the cursor is moved to the first coordinate position determined to be an effective area, the stroke continuous to the first coordinate determined to be an effective area is not taken. Checks the basic strokes stored in advance and outputs the editing command corresponding to the closest basic stroke. Based on the output editing command To edit the information that is indicated by being displayed on the effective area of the display unit cursorIt is characterized by that.
[0011]
According to the present invention, the gesture function is enabled / disabled by the output of the first specified coordinate on the display surface by the coordinate extraction unit, which is instructed by the input unit such as the input pen during the gesture function. And a gesture recognizing unit that outputs an edit command by a subsequent stroke, the validity / invalidity of the gesture function and the intended command can be accurately determined and extracted.
[0012]
In addition, according to the present invention, the valid / invalid area determination is not performed for the coordinates of the stroke input after the first coordinates are output by the input means. If the first coordinates are valid, for example, Even if subsequent successive strokes are drawn in the invalid area of the gesture function, the gesture function itself is not invalidated.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
An embodiment of the present invention will be described with reference to FIGS. 1 to 23 as follows. In the gesture processing apparatus as the information processing apparatus, as shown in the block diagram of FIG. 2, a central processing unit (hereinafter referred to as a CPU) 1 for executing a program is provided, and the
[0014]
Further, the
[0015]
In addition, the
[0016]
Also, a
[0017]
In the
[0018]
On the other hand, as shown in FIG. 2, a transparent tablet (coordinate extracting means) 19 for detecting each coordinate of the screen is integrally formed on the screen of the
[0019]
Thus, when the tip of the
[0020]
The tablet system is not particularly limited as long as the coordinates of the locus can be detected when the
[0021]
When a sentence is created on the
[0022]
After that, the code stored in the
[0023]
In the above configuration, the text once displayed on the
[0024]
Next, a gesture function for facilitating editing of the text displayed on the
[0025]
Each coordinate data of such drawing is sequentially detected by the locus coordinate
[0026]
Further, when the
[0027]
Thereafter, when it is determined that the pen-down coordinate is within the effective area and not the pen button area, the
[0028]
When the gesture function ON flag is set in the
[0029]
In addition, when the gesture function ON flag is set in the
[0030]
When the drawing with the
[0031]
Note that when all the coordinate data is output to the gesture
[0032]
Each locus coordinate data is normalized by the gesture
[0033]
In the gesture command table 27, in addition to the basic strokes corresponding to the single
[0034]
In addition, a command selection unit (selection means) 32 that can select and set each basic stroke in the gesture command table 27 by selecting whether access from the gesture
[0035]
In the
[0036]
In addition, a
[0037]
The gesture
[0038]
As a result, the text editing unit 1a can edit the character or symbol in the position information in the text memory 2a by deleting or inserting the character or symbol in the position information. At this time, the text editing unit 1a calls the screen information in the text memory 2a displayed on the
[0039]
Thereby, since the previous screen information is stored in advance when the above editing is canceled, for example, as shown in FIG. 17, the locus display of the
[0040]
The text editing unit 1a is not only input with commands from the gesture
[0041]
On the other hand, independent of the above-described processing of the trajectory coordinates, the trajectory coordinate data extracted by the trajectory coordinate
[0042]
The generated trajectory image is combined with the character string, symbol string, or image currently formed in the bitmap memory 2b and stored in the bitmap memory 2b. Therefore, the gesture image input by the operator by tracing the
[0043]
Examples of such gesture editing operations are shown in FIGS. First, in FIG. 8, when erasing one character “E” in the text displayed on the
[0044]
In the above drawing, it is important for the recognition of the character that the starting position is within the range of the character. In particular, in order to facilitate the recognition of the designated character, it is desirable to start drawing from substantially the center of the character.
[0045]
Subsequently, the trajectory coordinates are extracted and the trajectory image is displayed on the
[0046]
Thereafter, based on the position information, the
[0047]
Also, as shown in FIG. 9, gesture editing can be performed in the same manner as described above by drawing each editing symbol on the
[0048]
Next, the pointing function configured as described above will be described. First, in the conventional word processor, the cursor is sequentially moved when a plurality of characters on the text are designated. However, in the above configuration, the position of the
[0049]
Note that the switching between the gesture and the pointing is determined based on whether or not the extracted coordinates are one-point coordinates without a locus, that is, whether or not each of the coordinates is continuous. The determination is performed by the
[0050]
Therefore, for example, when it is determined that the pointing is performed, the obtained coordinates are not collated with the gesture command table 27, and only the position information of the coordinates is output to the text editing unit 1a. An example of the operation of such a pointing function is as shown in FIG.
[0051]
Next, handwritten character input will be described using the above configuration. The handwritten character input can be executed by the processing method equivalent to the processing in which the gesture editing is performed by comparing the locus coordinates with the previously stored basic stroke.
[0052]
That is, as shown in FIG. 1, a handwritten character table in which a handwritten
[0053]
The handwritten
[0054]
A difference between such a handwritten character input function and the gesture editing function is that the handwritten
[0055]
An operation example of such a handwritten character input function will be described. As shown in FIG. 11, when the handwritten character input function is started, a window 14b for handwritten character input is displayed at a predetermined position of the
[0056]
After that, when the
[0057]
Thus, for example, a font such as a cursive font is stored in advance in the handwritten character table 30 and the cursive font is input by handwriting so that the cursive font in the handwritten character table 30 can be displayed and printed. Yes.
[0058]
Next, an operation example of the above configuration in the gesture editing function will be described with reference to the flowchart of FIG. 12. First, the tip of the
[0059]
On the other hand, for example, the function of the
[0060]
From this, in the
[0061]
Therefore, when pen-down is executed as described above and the coordinate data signal is output to the locus coordinate
[0062]
If the pen-down coordinates are within the effective area coordinates, the next step is to detect whether the pen-down area, which is one of the other factors prohibiting the gesture function, exists in the pen-down coordinates ( S3) If the pen-down coordinate is on the coordinate of the pen button area, the routine proceeds to the pen button processing routine (S4).
[0063]
On the other hand, if the pen-down coordinate is outside the coordinates of the pen button area, the pen-down coordinate is stored, and when the next coordinate data is input by the
[0064]
At this time, if each coordinate data is a continuous trajectory, the gesture function is turned on and the gesture ON flag is set (S6), and the
[0065]
Note that the above steps S5 and S6 may be reversed, that is, the gesture ON flag may be set first. In this case, when each coordinate data is not continuous, the routine shifts to the pointing processing routine. At that time, the gesture ON flag is reset.
[0066]
Thereafter, when a gesture operation, that is, an input operation of a predetermined image on the
[0067]
If the flag is set, the gesture
[0068]
Next, the recognition processing of each coordinate data is executed by the gesture command determination unit 26 (S13), and if the recognition is OK after comparison with the gesture command table 27 (S14), the recognition is performed. Each editing process according to the result is executed (S15), and the gesture editing is completed. If the recognition process cannot be recognized, the process proceeds to an error process (S16), and the gesture editing is finished.
[0069]
As described above, in the configuration of the above-described embodiment, when pen-up is performed, even if the pen coordinate is outside the effective area of the gesture function, gesture recognition can be performed if the gesture function is ON at that time. Furthermore, if the pen-down coordinates are within the effective area and outside the pen button area, the coordinates of the drawing trajectory following the pen-down coordinates are outside the effective area and within the pen button area. Thus, the coordinate data of the drawing trajectory is validated and the recognition process can be performed.
[0070]
Therefore, for example, as shown in FIG. 15, when the input pen (not shown) is down at point A, the above configuration is based on the drawing of the input pen after the down transition because point A is in the gesture effective area 19a. After the gesture function is turned on and the drawing with the input pen is completed, the up coordinate of the input pen becomes the point B, for example, even if the point B is outside the gesture valid area 19a, that is, the invalid area 19b, That is, the gesture is valid. The same is true even if each coordinate in the middle of the drawing locus becomes the invalid area 19b.
[0071]
However, for example, as shown in FIG. 16, when the input pen (not shown) is brought down at the point C outside the effective gesture area, that is, in the ineffective area 19a, the above-described configuration causes the gesture function to be turned off. Thus, for example, the process shifts to icon processing or the like.
[0072]
By the way, in the conventional gesture function, since it is determined whether or not the drawing is valid after the drawing is completed, the determination takes time, and the drawing with the input pen as described above is performed. If the input pen comes into contact with the invalid area outside the effective area of the gesture or the tablet area as the pen button area in the middle of the process, the process of the gesture function is stopped and the process proceeds to error processing.
[0073]
For this reason, conventionally, it is necessary to pay attention not only to the start of the operation but also to the operation completion until the operation of the input pen is performed, and it takes time to draw in the gesture function, and the operability is deteriorated.
[0074]
However, in the configuration of the above-described embodiment, if the pen-down coordinate by the
[0075]
Thereby, since the above-mentioned configuration can start the gesture function by the pen-down coordinates, it is possible to prepare the call of the gesture command table 27 necessary for the gesture function in advance, so that the gesture function can be speeded up. In addition, during drawing with the
[0076]
Next, each operation in the command selection function in the gesture function will be described with reference to the flowchart of FIG. When the process of the command selection function is activated by an instruction signal from the input means such as the
[0077]
Subsequently, after valid / invalid is selected for each item by the execution key on the keyboard 10 (S23), whether or not the valid / invalid command is updated by key operation is set as shown in FIG. 19, for example (S24). ). At this time, when updating to a newly selected valid / invalid command, the execution key is turned ON, the selection data is taken in (S25), updated (S26), and the screen on the
[0078]
Next, each operation in the registration / call processing in the command selection function will be described with reference to the flowchart of FIG. First, when the above registration / call processing is activated by an instruction signal from an input means such as the
[0079]
On the other hand, if it is a call process in S31, after inputting and selecting a registered name (S35), the registered name in the
[0080]
As described above, in the configuration of the above embodiment, the gesture function required by the user can be validated by enabling and disabling each command. Thereby, it is possible to prevent an erroneous operation due to recognition of unnecessary gesture functions, and further, it is possible to reduce the number of gesture commands recognized by the user, so that the user recognition rate of the commands can be increased.
[0081]
Therefore, the above configuration can reduce misrecognition of each command used for the gesture function, and enables more accurate editing processing according to the user's intention.
[0082]
Further, in the above configuration, when a plurality of users use the same information processing apparatus, it is possible to select whether the command is valid / invalid for each user, and to store, that is, register the selection contents. This makes it possible to arbitrarily select gesture functions that a plurality of users individually require at any time, and easily perform an editing process suitable for each user's editing method.
[0083]
In addition, the above configuration takes time to create sentences and the like caused by inadvertently editing with unnecessary gesture functions when the gesture functions necessary for individual users are changed every time the user changes. Can be reduced.
[0084]
Next, a mode selection process by valid / invalid grouping in the command selection function will be described with reference to FIG. When the above configuration is a gesture function, when an interrupt by a mode selection key is generated by the
[0085]
Subsequently, the execution key on the
[0086]
At this time, when updating to a newly selected valid / invalid command, the execution key is turned ON, the selection data is taken in and updated (S44), the screen on the
[0087]
As described above, in the above configuration, the invalid command in the gesture function can be set, so that erroneous recognition of the gesture command in the gesture function can be prevented as described above.
[0088]
In addition, the above-described configuration can, for example, disable gesture / erase commands and enable gesture editing by setting other commands to be valid. The possibility of erroneous deletion of the image is avoided. An example of such a partially valid gesture function selection screen is shown in FIG.
[0089]
Since it is possible to select a partly valid in this way, it is particularly effective for preventing a beginner who handles the gesture function from accidentally erasing an image such as a sentence on the
[0090]
In the above configuration, the
[0091]
Subsequently, the
[0092]
Thereafter, the screen information obtained by saving the display screen of the
[0093]
Next, it is determined whether or not to cancel the display screen of the display device 14 (S59). If not cancelled, the above gesture function is completed. If cancelled, the screen saved in the
[0094]
As described above, since the image information on the
[0095]
【The invention's effect】
In the gesture processing device and the gesture processing method of the present invention, the instruction is started on the display surface by the input means, that is, the gesture function is determined to be valid or invalid when the first coordinate is designated, and based on the subsequent stroke Since the edit command is extracted, accurate and quick processing of the gesture function of editing information displayed in the effective area can be performed when the gesture function is valid. In the gesture processing device and the gesture processing method of the present invention, even if the input unit passes the gesture invalid area while the stroke is instructed to an arbitrary position on the display screen by the input unit, the gesture function is not invalidated. Thus, there is an effect that it is possible to save the trouble of invalidating the gesture function as in the prior art and instructing again by the input means.
[Brief description of the drawings]
FIG. 1 is a principal block diagram of a gesture processing apparatus according to the present invention.
FIG. 2 is a block diagram of a gesture processing apparatus according to the present invention.
FIG. 3 is an explanatory diagram showing an example of basic stroke recognition in the gesture processing device of the present invention.
4A and 4B are explanatory diagrams showing position information on a display tablet of the gesture processing device of the present invention, in which FIG. 4A is a tablet, and FIG. 4B is a display surface of the display device.
FIG. 5 is an explanatory diagram showing a gesture function valid area and a gesture function invalid area in the display tablet of the present invention.
FIG. 6 is an explanatory diagram showing examples of basic strokes according to the present invention and commands corresponding to them.
FIG. 7 is an explanatory diagram showing examples of basic strokes according to the present invention and commands corresponding to them.
FIG. 8 is an explanatory diagram showing an editing operation example of a gesture function in the gesture processing apparatus of the present invention.
FIG. 9 is an explanatory diagram showing an example of each editing operation of the gesture function in the gesture processing device according to the present invention.
FIG. 10 is an explanatory diagram showing an operation example of a pointing function in the gesture processing apparatus of the present invention.
FIG. 11 is an explanatory diagram showing an operation example of a handwritten character input function in the gesture processing apparatus of the present invention.
FIG. 12 is a flowchart at the time of pen-down in the gesture function of the present invention.
FIG. 13 is an explanatory diagram showing a pen button area in the display tablet of the present invention.
FIG. 14 is a flowchart at the time of pen-up in the gesture function of the present invention.
FIG. 15 is an explanatory diagram showing an example of a locus on a display tablet in the gesture function of the present invention.
FIG. 16 is an explanatory diagram showing another example of the locus on the display tablet in the gesture function of the present invention.
FIG. 17 is an explanatory diagram showing a display example on a display tablet in the gesture function of the present invention.
FIG. 18 is a flowchart when setting the validity / invalidity of a call in the gesture function of the present invention.
FIG. 19 is an explanatory diagram showing a display example on the display device when setting validity / invalidity of a call in the gesture function of the present invention.
FIG. 20 is a flowchart for setting registration / calling in the gesture function of the present invention.
FIG. 21 is a flowchart for setting a mode in the gesture function of the present invention.
FIG. 22 is an explanatory diagram showing a display example on the display device when a mode of the present invention is selected.
FIG. 23 is a flowchart showing a method for saving image information in the gesture function of the present invention.
[Explanation of symbols]
12 Input pen
14 Display device
19 tablets
22 Gesture determination unit (determination means)
Claims (3)
入力ペン等の入力手段により指示された表示手段の表示面上での連続する座標のストロークを出力する座標抽出手段と、
座標抽出手段から出力される最初の座標に対応する表示位置が編集対象となる情報が表示される有効領域であるか否かを判定する判定手段と、
判定手段により有効領域であると判定された最初の座標位置にカーソルを移動するポインティング処理手段と、
判定手段により有効領域外であると判断された最初の座標に連続するストロークは取り込まず、有効領域であると判定された最初の座標に連続するストロークを取り込み予め記憶された基本ストロークと照合し最も近似する基本ストロークに対応する編集コマンドを出力するジェスチャー認識手段と、
ジェスチャー認識手段から出力される編集コマンドに基づき表示手段上の上記有効領域に表示されたカーソルで指示される情報を編集する編集手段とを備えているジェスチャー処理装置。Display means such as a liquid crystal display;
Coordinate extraction means for outputting strokes of continuous coordinates on the display surface of the display means designated by the input means such as an input pen;
Determining means for determining whether or not the display position corresponding to the first coordinates output from the coordinate extracting means is an effective area in which information to be edited is displayed;
Pointing processing means for moving the cursor to the first coordinate position determined to be an effective area by the determination means;
Strokes continuous to the first coordinates determined to be outside the effective area by the judging means are not taken in, but strokes consecutive to the first coordinates judged to be in the valid area are taken in and compared with the basic stroke stored in advance. Gesture recognition means for outputting an editing command corresponding to the approximate basic stroke;
A gesture processing apparatus comprising: editing means for editing information indicated by a cursor displayed in the effective area on the display means based on an edit command output from the gesture recognition means.
座標抽出手段から出力される最初の座標に対応する表示位置が編集対象となる情報が表示される予め定められた有効領域であるか否かを判定し、
有効領域外であると判断された最初の座標に連続するストロークは取込まず、有効領域であると判定された最初の座標位置にカーソルを移動した後、有効領域であると判定された最初の座標に連続するストロークを取り込み予め記憶された基本ストロークと照合し最も近似する基本ストロークに対応する編集コマンドを出力し、
出力された編集コマンドに基づき表示手段上の上記有効領域に表示されたカーソルで指示される情報を編集するジェスチャー処理方法。A gesture processing method in a gesture processing apparatus, comprising: display means such as a liquid crystal display; and coordinate extraction means for outputting a stroke of continuous coordinates on the display surface of the display means designated by an input means such as an input pen. ,
Determining whether the display position corresponding to the first coordinate output from the coordinate extraction means is a predetermined effective area in which information to be edited is displayed;
Strokes continuous to the first coordinate determined to be outside the valid area are not captured, and after moving the cursor to the first coordinate position determined to be the valid area, the first stroke determined to be the valid area Takes a series of strokes in the coordinates, compares them with the pre-stored basic strokes, and outputs an editing command corresponding to the basic stroke that is closest to
A gesture processing method for editing information indicated by a cursor displayed in the effective area on the display unit based on an output editing command.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14094499A JP3874571B2 (en) | 1999-05-21 | 1999-05-21 | Gesture processing device and gesture processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14094499A JP3874571B2 (en) | 1999-05-21 | 1999-05-21 | Gesture processing device and gesture processing method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP28327692A Division JP3292752B2 (en) | 1992-10-21 | 1992-10-21 | Gesture processing device and gesture processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11345072A JPH11345072A (en) | 1999-12-14 |
JP3874571B2 true JP3874571B2 (en) | 2007-01-31 |
Family
ID=15280454
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP14094499A Expired - Lifetime JP3874571B2 (en) | 1999-05-21 | 1999-05-21 | Gesture processing device and gesture processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3874571B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4886582B2 (en) * | 2007-04-24 | 2012-02-29 | パナソニック株式会社 | Character input device, character input program, and character input method |
US8924892B2 (en) * | 2008-08-22 | 2014-12-30 | Fuji Xerox Co., Ltd. | Multiple selection on devices with many gestures |
US20100064261A1 (en) * | 2008-09-09 | 2010-03-11 | Microsoft Corporation | Portable electronic device with relative gesture recognition mode |
JP5519546B2 (en) * | 2011-01-31 | 2014-06-11 | パナソニック株式会社 | Handwritten character input device |
JP2012048765A (en) * | 2011-12-09 | 2012-03-08 | Panasonic Corp | Input apparatus, input method and program for input |
-
1999
- 1999-05-21 JP JP14094499A patent/JP3874571B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH11345072A (en) | 1999-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5796406A (en) | Gesture-based input information processing apparatus | |
US6938220B1 (en) | Information processing apparatus | |
EP0607926B1 (en) | Information processing apparatus with a gesture editing function | |
JP4742132B2 (en) | Input device, image processing program, and computer-readable recording medium | |
EP0597379B1 (en) | Pen input processing apparatus | |
JP2001005599A (en) | Information processor and information processing method an d recording medium recording information processing program | |
JP3292752B2 (en) | Gesture processing device and gesture processing method | |
JP2963589B2 (en) | Gesture processing device and gesture processing method | |
JP2999335B2 (en) | Gesture processing device and gesture processing method | |
JP3075882B2 (en) | Document creation and editing device | |
JP2009151449A (en) | Electric blackboard with undo function | |
JP3874571B2 (en) | Gesture processing device and gesture processing method | |
US20050122322A1 (en) | Document creating method apparatus and program for visually handicapped person | |
JP3258978B2 (en) | Gesture processing device and gesture processing method | |
JP2905013B2 (en) | Gesture processing device and gesture processing method | |
JP3469816B2 (en) | Gesture processing device and gesture processing method | |
JP3217084B2 (en) | Handwritten character recognition device | |
JP3025152B2 (en) | Handwritten character recognition input device | |
JP3469817B2 (en) | Gesture processing device and gesture processing method | |
JPH06324798A (en) | Document processor provided with handwriting editing function | |
JPH0744308A (en) | Word processor | |
JP3153704B2 (en) | Character recognition device | |
JPH0830730A (en) | Character recognition processor | |
JPH08137865A (en) | Character information processor with address book managing function | |
JPH0728950A (en) | Handwritten character recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20061024 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091102 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101102 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111102 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111102 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121102 Year of fee payment: 6 |
|
EXPY | Cancellation because of completion of term |