JP3874571B2 - Gesture processing device and gesture processing method - Google Patents

Gesture processing device and gesture processing method Download PDF

Info

Publication number
JP3874571B2
JP3874571B2 JP14094499A JP14094499A JP3874571B2 JP 3874571 B2 JP3874571 B2 JP 3874571B2 JP 14094499 A JP14094499 A JP 14094499A JP 14094499 A JP14094499 A JP 14094499A JP 3874571 B2 JP3874571 B2 JP 3874571B2
Authority
JP
Japan
Prior art keywords
gesture
display
coordinate
coordinates
pen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP14094499A
Other languages
Japanese (ja)
Other versions
JPH11345072A (en
Inventor
豊 中村
浩幸 重松
宗紀 坂本
宏行 長澤
寛 中尾
靖浩 中島
正明 倉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP14094499A priority Critical patent/JP3874571B2/en
Publication of JPH11345072A publication Critical patent/JPH11345072A/en
Application granted granted Critical
Publication of JP3874571B2 publication Critical patent/JP3874571B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画面上でペン等による手書きでの編集を行えるようにした情報処理装置であり、詳しくは、ジェスチャー処理装置及びジェスチャー処理方法に関するものである。
【0002】
【従来の技術】
近年、液晶表示等の表示部分と、入力ペン等との当接部位の座標を検出するタブレットとを一体化した表示装置を備え、入力ペンにより直接編集できるように設定された情報機器、いわゆるペン情報入力方式の情報機器が市場に現れている。したがって、上記表示装置は、紙とペンを連想させるように、あたかも原稿用紙での校正と同様のことを、上記タブレット上で実現できるものとなっており、上記のような情報機器としては、例えばシャープ社製の日本語ワードプロセッサ"WV- S200"等が知られている。
【0003】
これらのペン情報入力機器において、その特性をより生かすための機能として、ジェスチャー機能というものが考えられた。このようなジェスチャー機能は、予め設定して記憶しておいた編集記号により、入力ペンでタブレット上の所望する位置の文字等を、任意の編集記号で描画することにより、表示装置上の文章を編集できるようになっている。
【0004】
【発明が解決しようとする課題】
ところが、上記従来では、描画開始時のペンダウン時から、描画完了時のペンアップが完了した後に、その入力ペンによるジェスチャー機能が有効か無効かを判別しており、ジェスチャー機能の動作に時間がかかっていた。また、上記従来では、描画中に入力ペンが、ジェスチャー機能の無効領域である、アイコン等の領域を通ると、ジェスチャー機能をキャンセルしていたため、そのようなキャンセル時には再度設定し直して、入力ペンによりタブレット上を描画する必要があり、ジェスチャー機能に手間取っているという問題を生じている。
【0005】
また、上記従来では、例えば、ユーザーが意図しないで、消去や抹消系の編集記号を入力して、意図しない文章に編集することがあり、そのような文章を元に戻すのに手間取るという問題も生じている。
【0006】
さらに、上記従来では、ジェスチャー機能を有効に機能させるために、入力ペンの軌跡や編集記号のリスト等を表示できるようになっているが、そのような表示の消去と表示とを繰り返すと、その処理時間が大きくなり処理速度が遅くなるという問題も生じている。
【0007】
【課題を解決するための手段】
本発明のジェスチャー処理装置は、以上の課題を解決するために、液晶ディスプレイ等の表示手段と、入力ペン等の入力手段により指示された表示手段の表示面上での連続する座標のストロークを出力する座標抽出手段と、座標抽出手段から出力される最初の座標に対応する表示位置が編集対象となる情報が表示される有効領域であるか否かを判定する判定手段と、判定手段により有効領域であると判定された最初の座標位置にカーソルを移動するポインティング処理手段と、判定手段により有効領域外であると判断された最初の座標に連続するストロークは取り込まず、有効領域であると判定された最初の座標に連続するストロークを取り込み予め記憶された基本ストロークと照合し最も近似する基本ストロークに対応する編集コマンドを出力するジェスチャー認識手段と、ジェスチャー認識手段から出力される編集コマンドに基づき表示手段上の上記有効領域に表示されたカーソルで指示される情報を編集する編集手段とを備えていることを特徴としている。
【0008】
さらに、本発明のジェスチャー処理装置の上記判定手段は有効領域内の最初の座標に連続する座標についての領域判定を行わないようにしたことを特徴としている。
【0009】
また、本発明のジェスチャー処理方法は、液晶ディスプレイ等の表示手段と、入力ペン等の入力手段により指示された表示手段の表示面上での連続する座標のストロークを出力する座標抽出手段とを備えるジェスチャー処理装置におけるジェスチャー処理方法であって、座標抽出手段から出力される最初の座標に対応する表示位置が編集対象となる情報が表示される予め定められた有効領域であるか否かを判定し、有効領域外であると判断された最初の座標に連続するストロークは取込まず、有効領域であると判定された最初の座標位置にカーソルを移動した後、有効領域であると判定された最初の座標に連続するストロークを取り込み予め記憶された基本ストロークとを照合し最も近似する基本ストロークに対応する編集コマンドを出力し、出力された編集コマンドに基づき表示手段上の上記有効領域に表示されたカーソルで指示される情報を編集することを特徴としている。
【0011】
上記の本発明によれば、ジェスチャー機能時に上記入力ペン等の入力手段により指示されて座標抽出手段により上記表示面上での最初に指示された座標の出力によって、上記ジェスチャー機能の有効と無効とを判定する判定手段と、その後のストロークによって編集コマンドを出力するジェスチャー認識手段とが設けられているから、ジェスチャー機能の有効/無効とその意図するコマンドとを正確に判断し抽出することができる。
【0012】
また、本発明によれば入力手段による最初の座標を出力した後に入力されたストロークの座標については、有効/無効の領域判定を行わないようにしたので、最初の座標が有効であれば、例えば、その後の連続したストロークがジェスチャー機能の無効領域に描かれても、ジェスチャー機能そのものが無効となることがない。
【0013】
【発明の実施の形態】
本発明の一実施例について図1ないし図23に基づいて説明すれば、以下の通りである。情報処理装置としてのジェスチャー処理装置では、図2に示すブロック図のように、プログラムを実行する中央処理装置(Central Processing Unit 、以下、CPUという)1が設けられ、そのCPU1のバスライン18に、各種データを記憶して読み出すためのRAM2、制御プログラムを格納しておくROM3、プリンタ5を制御するプリンタコントローラ4、外部記憶手段としてのICカード6に対して読み書きするためのICカードインターフェース7、およびフロッピーディスクドライブ(以下、FDDという)8を制御するFDコントローラ9が接続されている。
【0014】
さらに、上記バスライン18には、入力手段としてのキーボード10からの信号を上記バスライン18に入力するためのキーインターフェース11と、液晶ディスプレイ等の表示装置14(表示手段)を制御するための表示コントロール15とが接続されている。
【0015】
その上、上記バスライン18には、上記表示装置14の画像上と当接して、情報を入力したり、選択したりする入力ペン12からの信号をペン座標に変換して上記バスライン18に入力するためのペンインターフェース13が接続されており、よって、上記入力ペン12は、上記画像上を示す、いわゆるポインティング機能や、上記画像上を所定のイメージを描画することにより、画像上の情報を選択したり、編集記号を入力したりできるジェスチャー機能のための入力手段となっている。
【0016】
また、上記バスライン18には、手書き編集インターフェース16が接続されており、その手書き編集インターフェース16では、後に詳述するように、上記の入力ペン12からのペン座標をそれぞれ示す各座標データの信号により、メモリである手書き認識辞書(記憶手段)17に基づいて、上記各座標データの認識結果を上記バスライン18に出力するようになっている。
【0017】
また、上記手書き認識辞書17では、文字や記号を示す各基本ストロークが、後述する(1)横書きジェスチャーコマンドテーブル、(2)手書き文字テーブルと(3)縦書きジェスチャーコマンドテーブルというように内容により分類されてそれぞれ格納されている。このような基本ストロークの例としては、改行を示す編集記号である逆L字が、図3に示すように、9×9の枡目のそれぞれ相当する位置に〇で示したように埋まって示されている。
【0018】
一方、図2に示すように、前記表示装置14の画面上に、その画面の各座標を検出するための透明なタブレット(座標抽出手段)19が一体的に形成されていて、上記タブレット19は、表示装置14の文字配列、例えば図4(b)に示す縦40行、横80例に対応するように、図4(a)に示す碁盤の目状に各XY( 640×400 )座標が設定されている。
【0019】
これにより、図2に示す前記入力ペン12の先端部が、上記タブレット19上に当接すると、そのタブレット19におけるペン座標が、前記ペンインターフェース13にて検出され、座標コードに変換されてバスライン18に出力される。
【0020】
なお、上記のタブレットの方式としては、入力ペン12が当接して描画すると、その軌跡の各座標が検出できるものであれば特に限定されないが、例えば静電結合式タブレットや、電気ひずみおよび磁気ひずみ式タブレット、また、感圧式や超音波式や電気機械式タブレットも使用できる。
【0021】
このような上記構成を用いて、表示装置14上に文章を作成する場合、キーボード10から入力された文字や記号が、キーインターフェース11にて所定の文字コードや記号コードにそれぞれ変換されて、それら各コードがCPU1(図1におけるテキスト編集部1a)により一旦RAM2に順次格納される(図1におけるテキストメモリ2a)。
【0022】
その後、そのRAM2に格納されたコードを、キーボード10からの指示とROM3に格納されているプログラムとに基づいて、CPU1が、表示装置14に表示できるようにRAM2上に再度配列する(図1におけるビットマップメモリ2b)。続いて、上記RAM2上の各コード配列を、表示コントロール15を介して表示装置14上に表示するようなっている。
【0023】
また、上記構成では、このように一旦表示装置14上に表示された文章を、キーボード10、表示装置14上に設定されたアイコン、または後述する入力ペン12による指示により編集できて、上記CPU(編集手段)1は、所定のプログラムおよび上記指示に従って、RAM2におけるビットマップメモリ2bの各コード配列を並べ換える、つまり編集することができるようになっている。
【0024】
次に、表示装置14上に表示されている文章の編集を容易にするためのジェスチャー機能について説明する。まず、図1に示すように、CRTや液晶等の表示装置14と、その表示面上に設けられた透明なタブレット19とが一体に構成されたディスプレイタブレット20上で、その表示装置14上で表示されている文章等の画像の所望の位置において、例えば編集記号を示すイメージを入力ペン12にて描画する。
【0025】
そのような描画の各座標データは、上記タブレット19に接続されている軌跡座標抽出部21にて順次検出される。このとき、上記座標データの内、上記入力ペン12とタブレット19とが最初に当接したXY座標であるペンダウン座標が、図5に示すタブレット19におけるジェスチャー機能の有効領域19a内であるか無効領域19b内であるかを、上記軌跡座標抽出部21からの座標データが入力されるジェスチャー判定部(判定手段)22にて判定される。
【0026】
さらに、上記ジェスチャー判定部22では、上記のペンダウン座標が有効であると判定されると、そのペンダウン座標が、表示装置14における各表示画面に応じて設定され、入力ペン12により選択等が実行されるペンボタン領域であるか否かが判定される。
【0027】
その後、上記ペンダウン座標が、有効領域内であり、かつ、ペンボタン領域でないことが判定されると、上記ジェスチャー判定部22から座標データが入力される軌跡判定部23は、ジェスチャー機能のONを示すジェスチャー機能ONフラグをフラグ指示部(停止手段)24にセットする。
【0028】
このフラグ指示部24に、ジェスチャー機能ONフラグがセットされていると、上記の描画軌跡を示す各座標データは、ペンダウン座標も含めて軌跡判定部23に接続されている座標データバッファ25にそれぞれ順次記憶される。
【0029】
その上、上記フラグ指示部24にジェスチャー機能ONフラグがセットされていると、前記ジェスチャー判定部22は、入力される座標データが有効領域内であるか否か、およびペンボタン領域であるか否かの判定を停止して、入力された座標データを全て有効として軌跡判定部23に出力するようになっている。
【0030】
上記の入力ペン12による描画が終了して、入力ペン12がタブレット19から離間するペンアップの状態となると、軌跡判定部23は上記のジェスチャー機能ONフラグがセットされていることを確認して、上記各軌跡座標データの全てが上記データバッファ25からジェスチャーコマンド判定部(ジェスチャー認識手段)26に出力される。
【0031】
なお、上記のように各座標データが全てジャスチャーコマンド判定部26に出力されると、上記フラグ指示部24によるジェスチャー機能ONフラグがリセットされるようになっている。
【0032】
上記各軌跡座標データは、そのジャスチャーコマンド判定部26にて正規化されて図2に示す手書き認識辞書17に含まれるジェスチャーコマンドテーブル27にそれぞれ格納されている基本ストロークのデータと照合される。なお、上記のジャスチャーコマンド判定部27は前記の手書き編集インターフェース16に含まれ、また、前記の軌跡座標抽出部21、ジェスチャー判定部22、軌跡判定部23およびフラグ指示部24は、前記のペンインターフェース13に含まれており、前記の座標データバッファ25はRAM2に記憶領域が設定されている。
【0033】
上記のジェスチャーコマンドテーブル27には、図示している一字抹消コマンド27a、スペース挿入コマンド27b、手書き文字入力コマンド27cに対応する基本ストロークの他に、例えば図6および図7に示す複数の基本ストロークが、それぞれ対応するコマンドと共に記憶されている。
【0034】
また、上記ジェスチャーコマンドテーブル27における各基本ストロークを、ジャスチャーコマンド判定部26からアクセス可能とアクセス不可とをそれぞれ選択して設定できるコマンド選択部(選択手段)32が設けられており、そのコマンド選択部32での選択は、テキスト編集部1aを介して入力ペン12やキーボード10等の入力手段によって設定できるようになっている。
【0035】
なお、上記コマンド選択部32では、各基本ストロークを個々にジャスチャーコマンド判定部26からアクセス可能とアクセス不可とが選択設定できるようになっており、また、上記各基本ストロークをグルーピングして、各グループ毎に、アクセス可能とアクセス不可とが選択設定(設定手段)できるようにもなっている。
【0036】
また、上記の各基本ストロークにそれぞれ対応する各コマンドのアクセス可能とアクセス不可とを表にして記憶して、その表を任意に呼び出して表示装置14で表示するための登録バッファ33が設けられている。さらに、この登録バッファ33では、上記コマンド選択部32においてグルーピングされている場合、例えば、全て無効、一部有効、全て有効から選択できるように、グルーピングの表も記憶できるようになっている。
【0037】
前記のジャスチャーコマンド判定部27は、上記の各基本ストロークとの照合の結果、前記の軌跡座標と最も近似する基本ストロークに対応したコマンドを、テキスト編集部1aに出力すると共に、供給された軌跡座標から上記コマンドにより処理される文字または文字列の座標情報、つまり表示装置14における位置情報を上記テキスト編集部1aに出力する。
【0038】
これにより、上記テキスト編集部1aは、テキストメモリ2a内の文字や記号の配列の上記位置情報の文字や記号を、削除したり、その位置に挿入したりして編集できることになる。このとき、テキスト編集部1aは、上記のようなジェスチャー機能の起動時に、つまり入力ペン12による入力操作を開始する直前に、表示装置14において表示されているテキストメモリ2a内の画面情報を、呼び出して一時記憶しておくメモリである画面情報バッファ(記憶領域)31が設定されている。なお、上記画面情報バッファ31では、次の画面情報が記憶されると、以前の記憶された画面情報はクリアされるようになっている。
【0039】
これにより、上記の編集を取り消す場合等、予め以前の画面情報が記憶されているため、例えば図17に示すように、入力ペン12の軌跡表示、認識領域の矩形表示、認識情報の表示、認識表示の一覧、処理結果の取消か否かを問うメッセージ等を表示しても、編集画面の再表示、認識機能実行、編集処理の取消し等の実行が迅速化できる。
【0040】
また、上記のテキスト編集部1aは、ジャスチャーコマンド判定部27からのコマンドのみが入力されるだけでなく、前述したようにキーボード10からのコマンドも入力されて、そのコマンドによる編集等ができるようになっている。
【0041】
一方、上記の軌跡座標の処理とは独立して、軌跡座標抽出部21により抽出された軌跡座標データは、軌跡描画部28に出力されて上記軌跡座標データをつないだ軌跡イメージとなる。
【0042】
生成された軌跡イメージは、ビットマップメモリ2bに現在形成されている文字列、記号列またはイメージと合成されて、そのビットマップメモリ2bに記憶される。したがって、オペレータが入力ペン12で、タブレット19をなぞって入力したジェスチャーイメージは、リアルタイムに表示装置14上に表示されることになる。
【0043】
このようなジェスチャー編集の操作例を図8および図9に示す。まず、図8において、ディスプレイタブレット20に表示されているテキストの内、文字「え」を一字抹消する場合、入力ペン12にて「え」の文字の上を「V」のようにジェスチャー、つまり描画した後、上記入力ペン12をディスプレイタブレット20上から離す。
【0044】
なお、上のような描画の際、その開始位置が、上記の文字の範囲内で有ることが上記の文字の認識において肝要である。特に指示する文字の認識を容易にするため、上記の文字のほぼ中央部から描画を開始することが望ましい。
【0045】
続いて、その軌跡座標が抽出されて軌跡イメージがディスプレイタブレット20における表示装置14に表示されると共に、基本ストロークとの照合により得られた「V」の描画に相当する一字抹消のコマンドと共に、上記の「え」の文字の位置情報が、テキスト編集部1aに出力される。
【0046】
その後、上記の位置情報に基づいて、表示装置14におけるカーソル14aが元の位置、例えば「ほ」の文字の位置から入力ペン12にて操作された位置、つまり上記の場合文字「え」の位置に移動した後、前記のテキストメモリ2a内の上記の「え」を、上記のコマンドに基づき抹消することにより、ビットマップメモリ2b内の上記の「え」の文字が消去され、上記表示装置14における上記の「え」が抹消される。このようにしてジェスチャー編集が完了する。
【0047】
また、図9に示すように、各編集記号を図示しない入力ペンにより、ディスプレイタブレット20上に描画することにより、上記と同様に、ジェスチャー編集が可能となっている。なお、上記の編集記号のイメージである基本ストロークは任意に設定できるようになっている。
【0048】
次に、上記の構成によるポインティング機能について説明する。まず、従来のワードプロセッサでは、テキスト上の複数文字を領域指定する場合等にはカーソルを順次移動させていたが、上記構成では、カーソル14aの位置を直接入力ペン12の指示によりダイレクトに移動指示が可能となっている。
【0049】
なお、前記のジェスチャーとポインティングとの切り替えは、抽出された座標が軌跡を伴わない一点の座標であるか否か、すなわち上記各座標が連続であるか否かによって判断しており、このような判断は、前記軌跡判定部23にて行われている。
【0050】
そこで、例えば、ポインティングであると判断した場合、得られた座標は、ジェスチャーコマンドテーブル27と照合せず、その座標の位置情報のみをテキスト編集部1aに出力させている。このようなポインティング機能の操作例は図10に示す通りである。
【0051】
次に、上記構成を用いて、手書き文字入力について説明する。手書き文字入力は、前記のジェスチャー編集が軌跡座標と予め記憶した基本ストロークとを照合する処理と同等の処理方法により実行できるようになっている。
【0052】
つまり、図1に示すように、ジャスチャーコマンド判定部26と処理上の同等位置に、すなわち手書き編集インターフェース16に、手書き文字認識部29が形成され、手書き文字を予め記憶している手書き文字テーブル30が、ジェスチャーコマンドテーブル27と同様に図2に示す手書き認識辞書17に形成されている。
【0053】
上記の手書き文字認識部29は、軌跡座標抽出部21から供給される軌跡座標と、手書き文字テーブル30に記憶されている複数の基本文字ストロークとを照合し、最も近似する基本文字ストロークに対応する文字コードを上記の手書き文字テーブル30からテキスト編集部1aに出力させる。
【0054】
このような手書き文字入力機能と、前記のジェスチャー編集機能との異なる点は、手書き文字認識部29が位置情報を出力しないことである。なお、上記の手書き文字入力機能は、キーボード10からの指示や、表示装置14上のアイコンからの指示から立ち上げ可能にしており、また、ディスプレイタブレット20のタブレット19上に、図6に示すように、「△」をジェスチャーすることにより、ジェスチャー編集機能から立ち上げ可能となっている。
【0055】
このような手書き文字入力機能の操作例について説明すると、図11に示すように、手書き文字入力機能が立ち上げられると、ディスプレイタブレット20の所定位置に、手書き文字入力のためのウインドウ14bが表示され、そのウインドウ14a内の第1入力エリアに、入力ペン12にて文字を、例えば「す」と手書きする。
【0056】
その後、次の入力のため隣接する第2エリアに入力ペン12を接触させると、そのとき上記の第1エリアに手書きされた軌跡座標の文字認識が、前記の手書き文字テーブル30を参照して前記手書き文字認識部29にて前述したように実行され、その認識結果の文字をカーソル14aが示す位置に入力して表示するようになっている。
【0057】
これにより、例えば草書体などの字体を予め、手書き文字テーブル30に記憶させておき、その草書体を手書きで入力して、上記手書き文字テーブル30における草書字体を表示・印刷等が可能となっている。
【0058】
次に、ジェスチャー編集機能における上記構成の動作例について図12のフローチャートを参照しながら説明すると、まず、入力ペン12の先端部がディスプレイタブレット20上の所望する位置で当接または押圧、つまりダウンされると、その時の座標が、ペンインターフェース13を介して示される。
【0059】
一方、表示装置14における例えばアイコン領域や、ペンボタン領域での入力ペン12の機能は選択機能である。したがって、上記のようなジェスチャー編集機能のディスプレイタブレット20上での有効範囲は、上記の各領域を除外したタブレット19領域となる。
【0060】
このことから、上記ディスプレイタブレット20におけるタブレット19では、例えば図13に示すように、上記のディスプレイタブレット20において用いられる各画面に応じて予め、タブレット19における有効領域19aと、ジェスチャー機能に優先する例えばアイコン領域を示す無効領域19bと、ジェスチャー機能に優先するペンボタン領域19cがそれぞれ設定されている。
【0061】
そこで、前述したようにペンダウンが実行されて、その座標データ信号が軌跡座標抽出部21に出力されると、まず、その最初の入力ペン12の接触座標であるペンダウン座標を検出し(ステップ1、以下ステップをSと略す)、前記の有効領域座標とを比較し(S2)、その結果、上記ペンダウン座標が、有効領域座標外であればジェスチャー機能は無効となりジェスチャー機能が終了する。
【0062】
また、上記ペンダウン座標が、有効領域座標内であれば、次のステップとして、ジェスチャー機能を禁止する他の要因の一つであるペンボタン領域が、上記ペンダウン座標に有るか否かを検出し(S3)、そのペンダウン座標が、上記ペンボタン領域の座標上であれば、そのペンボタン処理のルーティンに移行する(S4)。
【0063】
一方、上記ペンダウン座標が、ペンボタン領域の座標外であれば、そのペンダウン座標を記憶しておき、入力ペン12による次の座標データが入力されると、その座標データと上記のペンダウン座標とを比較して、上記入力座標が上記ペンダウン座標に対して連続、つまり、そのX座標、Y座標の少なくとも一方が連続てあることが8座標分連続か否かを判定する(S5)。
【0064】
このとき、上記各座標データが連続軌跡であれば、ジェスチャー機能をONとして、ジェスチャーONフラグがセットされる(S6)と共に、入力ペン12がジェスチャー機能の有効領域外、つまりアイコン領域等を通っても、そのアイコン領域での入力ペン12のアイコン指示機能は停止される。また、上記S5における判定が連続軌跡ではない場合、ポインティング処理ルーティンに移行する(S7)。
【0065】
なお、上記のS5とS6のステップを逆、すなわちジェスチャーONフラグのセットが先でもよい。この場合、各座標データが連続でない時、ポインティング処理ルーティンに移行するが、その際には上記ジェスチャーONフラグがリセットされるようになっている。
【0066】
その後、ジェスチャー操作、つまり入力ペン12によるタブレット19上での所定のイメージの入力操作が行われて、入力ペン12とタブレット19との当接が解除、すなわち入力ペン12がアップされると、図14のフローチャートに示すように、まず、上記のようにジェスチャー機能がONであることを示す前記フラグがセットされているか否かを判定し(S11)、上記フラグがセットされていなければ、上記の入力操作がジェスチャー機能と無関係な動作と判定されて、ジェスチャー機能を終了する。
【0067】
また、上記フラグがセットされていれば、ジャスチャーコマンド判定部26は、ペンダウン座標からペンアップの座標に至る入力ペン12の各座標データを、認識処理のために、まず、専用の座標データメモリに正規化して格納する(S12)。
【0068】
次に、上記各座標データの認識処理を、ジャスチャーコマンド判定部26にて実行し(S13)、続いて、ジェスチャーコマンドテーブル27との比較の上で認識OKであれば(S14)、その認識結果にそった各編集処理を実行して(S15)、ジェスチャー編集が完了する。また、上記の認識処理で認識不能な場合はエラー処理(S16)に移行して、上記のジェスチャー編集を終了する。
【0069】
このように上記実施例の構成では、ペンアップに際しては、そのときのペン座標が、ジェスチャー機能の有効領域外であっても、その時点でジェスチャー機能ONとなっておれば、ジェスチャー認識を実行できるようになっており、さらに、ペンダウン座標が、前記有効領域内、およびペンボタン領域外であれば、上記ペンダウン座標に続く描画軌跡の座標が、上記の有効領域外、およびペンボタン領域内であって、その描画軌跡の座標データを有効として、その認識処理に移行できるようになっている。
【0070】
したがって、上記構成は、例えば図15に示すように、A点で、図示しない入力ペンがダウンされた場合、A点はジェスチャー有効領域19a内にあるため、そのダウン移行後の入力ペンの描画によるジェスチャー機能がONとなり、その入力ペンによる描画が完了後、その入力ペンのアップ座標が例えB点となり、そのB点がジェスチャー有効領域19a外、つまり無効領域19bとなっても、上記の描画、すなわちジェスチャーは有効となる。また、描画軌跡の途中における各座標が、上記無効領域19bとなっても同様である。
【0071】
しかし、上記構成は、例えば図16に示すように、ジェスチャー有効領域外、すなわち無効領域19a内となるC点にて、図示しない入力ペンがダウンされると、その入力ペンによる操作はジェスチャー機能OFFとなり、例えばアイコン処理等に移行することとなる。
【0072】
ところで、従来のようなジェスチャー機能では、描画が完了した後に、その描画が有効であるか否かを判定していたため、その判定に時間がかかっており、また、上記のような入力ペンによる描画の途中において、その入力ペンが、ジェスチャーの有効領域外の無効領域や、ペンボタン領域となるタブレット領域と当接すると、そのジェスチャー機能の処理が停止して、エラー処理に移行していた。
【0073】
このため、上記従来では、入力ペンの操作を、操作開始だけではなく操作完了までの操作に気を使う必要があり、そのジェスチャー機能における描画に手間取り、その操作性が劣化していた。
【0074】
しかしながら、上記実施例の構成では、入力ペン12によるペンダウン座標がジェスチャー機能の有効領域19a内であれば、ジェスチャー機能を開始すると共に、入力ペン12による描画中は、その入力ペン12がジェスチャーの有効領域19a外、つまり無効領域19bまたはペンボタン領域19cに当接しても、その描画を有効としている。
【0075】
これにより、上記構成は、ペンダウン座標によってジェスチャー機能を開始できるから、そのジェスチャー機能に必要な、例えばジェスチャーコマンドテーブル27の呼び出し等を予め準備できるから、ジェスチャー機能の迅速化を図ることが可能となり、その上、入力ペン12による描画中において、上記有効領域を特に意識する必要がなく、ジェスチャー機能の操作性を向上できるものとなっている。
【0076】
次に、上記ジェスチャー機能におけるコマンド選択機能の際の各動作について図18のフローチャートを参照しながら説明する。上記のコマンド選択機能の処理を、キーボード10等の入力手段からの指示信号により起動させると、まず、認識でき得る全てのコマンドの処理機能名を呼び出した後(S21)、その各処理機能名を表の項目として表示装置14にて表示する(S22)。
【0077】
続いて、キーボード10における実行キーにより、各項目毎に有効/無効を選定した後(S23)、キー操作にて有効/無効コマンドの更新か否かを例えば図19に示すように設定する(S24)。このとき、新たに選定した有効/無効コマンドに更新する場合は、実行キーをONとして、上記の選定データを取り込んで(S25)、更新し(S26)、表示装置14における画面をクリアして(S27)、前記の処理を完了し、一方、新たに選定した有効/無効コマンドに更新しない場合は、解除キーをONして更新しないで、表示装置14における画面をクリアして(S27)、前記処理を終了する。
【0078】
次に、上記コマンド選択機能における登録・呼出処理についての際の各動作について図20のフローチャートを参照しながら説明する。まず、上記の登録・呼出処理を、入力ペン12やキーボード10等の入力手段からの指示信号により起動させると、まず、登録処理か呼出処理かを判断し(S31)、登録処理であれば、現在の有効/無効コマンドデータの全てを表示装置14に呼び出して(S32)、確認した後、登録名をキーボード10等から入力して(S33)、その登録メイト共に上記有効/無効コマンドデータを登録バッファ33に記憶させて(S34)、上記登録処理を完了する。
【0079】
一方、前記S31において呼出処理であれば、登録名を入力して選択した後(S35)、登録バッファ33内の登録名を検索し(S36)、その登録名に該当する有効/無効コマンドデータを呼び出して表示装置14に表示し(S37)、それまでの有効/無効コマンドデータを上記登録名の有効/無効コマンドデータに更新して(S38)、呼出処理を完了する。
【0080】
このように上記実施例の構成では、個々のコマンドに対して、それぞれ有効と無効とを設定できることにより、ユーザーが必要とするジェスチャー機能のは有効とすることができる。これにより、不必要なジェスチャー機能の認識による誤動作を防止することができ、さらに、ユーザーが認識するジェスチャーコマンドの数を低減できるから、コマンドのユーザー認識率を高めることができる。
【0081】
したがって、上記構成は、ジェスチャー機能に用いる各コマンドの誤認識を低減できて、ユーザーの意図に、より正確な編集処理が可能となる。
【0082】
また、上記構成では、複数のユーザーが同一の情報処理装置を用いる場合等において、ユーザー毎にコマンドの有効/無効とを選定して、その選定内容を記憶、つまり登録しておくことができる。これにより、複数のユーザーが個々に必要とするジェスチャー機能をいつでも任意に選定できて、各ユーザーの編集方法等に合った編集処理が容易に可能となる。
【0083】
その上、上記構成は、ユーザーが替わる毎に個々のユーザーに必要なジェスチャー機能を代えた時、不用意に不必要なジェスチャー機能による誤った編集を行うことに起因する文章等の作成に手間取るということを軽減できる。
【0084】
次に、上記のコマンド選択機能における有効/無効のグルーピングによるモード選択処理について図21を参照しながら説明する。上記構成がジェスチャー機能中において、キーボード10や入力ペン12等によって、モード選択キーによる割り込みを発生させると、まず、認識でき得る全てのコマンドの処理機能名を呼び出した後、その各処理機能名を表の項目として表示装置14にて表示する(S41)。
【0085】
続いて、キーボード10における実行キーにより、各項目毎に有効/無効を選定して、有効コマンドグループと無効コマンドグループとを設定した後(S42)、いままでの有効/無効コマンドを上記のように選定したコマンドに更新するか否かをキー操作にて設定する(S43)。
【0086】
このとき、新たに選定した有効/無効コマンドに更新する場合は、実行キーをONとして、上記の選定データを取り込んで更新し(S44)、表示装置14における画面をクリアして(S45)、前記のモード選択処理を完了し、一方、新たに選定した有効/無効コマンドに更新しない場合は、解除キーをONして更新しないで、表示装置14における画面をクリアし(S45)、前記モード選択処理を終了する。
【0087】
このように上記構成では、ジェスチャー機能における無効コマンドを設定できることにより、上述したようにジェスチャー機能におけるジェスチャーコマンドの誤認識を防止することができる。
【0088】
その上、上記構成は、例えば消去・抹消系のコマンドを無効とし、他のコマンドを有効とする設定により、ジェスチャー編集は有効とすることができるが、ジェスチャー動作によって、表示装置14上における文章等の画像が誤消去される虞が回避される。このような一部有効のジェスチャー機能選択の画面の例を図21に示す。
【0089】
このように一部有効を選択できるから、ジェスチャー機能を扱う初心者に対し、表示装置14上における文章等の画像が誤消去される虞を防止する効果が特に大きく、上記構成を操作する際の不手際による文章等の再作成といった手間を省くことができて、操作性を向上させることができる。
【0090】
また、上記構成は、画面情報バッファ31を設けて、図23のフローチャートに示すように、ジェスチャー機能が立ち上がると、その時の表示装置14上の画像情報を上記画面情報バッファ31に記憶、すなわちセーブさせておく(S51)。
【0091】
続いて、入力ペン12がダウンされて(S52)、上記入力ペン12により編集機能を指示するコマンドが入力されて(S53)、編集範囲の認識が確定して(S54,S55)、上記入力ペン12がアップすると(S52)、上記コマンドおよび編集範囲をジャスチャーコマンド判定部26に出力し(S56)する。
【0092】
その後、表示装置14の表示画面を前記の画面情報バッファ31にセーブした画面情報を上記表示画面を戻す(S57)。続いて、テキストメモリ2aにも記憶されている上記画面情報に対して、編集動作等の機能を実行し、その結果を表示装置14に表示する(S58)。
【0093】
次に、その表示装置14の表示画面を取り消すか否かを判別し(S59)、取り消さない場合は上記のジェスチャー機能を完了し、取り消す場合は、前記の画面情報バッファ31にセーブされている画面情報に表示装置14の表示画面を戻し、かつ、上記テキストメモリ2a内の画面情報も元に戻す(S60)。
【0094】
このように上記構成は、ジェスチャー機能の入力ペン12による操作直前の表示装置14上の画像情報を上記画面情報バッファ31に記憶させるから、前述したようにジェスチャー機能の取り消し等の際の、元の画像への復帰を迅速化できるものとなっている。
【0095】
【発明の効果】
本発明のジェスチャー処理装置及びジェスチャー処理方法では、入力手段により表示面上に対し指示を開始、つまり最初の座標を指示したときにジェスチャー機能の有効と無効とを判定し、その後に続くストロークに基づいて編集コマンドを抽出するので、ジェスチャー機能の有効時における、有効領域に表示された情報の編集というジェスチャー機能の的確・迅速な処理が可能となる。また、本発明のジェスチャー処理装置及びジェスチャー処理方法では、入力手段により表示画面上の任意の位置にストロークを指示する途中に上記入力手段がジェスチャー無効領域を通っても、ジェスチャー機能が無効とならず、従来のようにジェスチャー機能が無効となって、再度入力手段により指示するといった手間を省くことができるという効果を奏する。
【図面の簡単な説明】
【図1】本発明のジェスチャー処理装置の要部ブロック図である。
【図2】本発明のジェスチャー処理装置のブロック図である。
【図3】本発明のジェスチャー処理装置における基本ストロークの認識例を示す説明図である。
【図4】本発明のジェスチャー処理装置のディスプレイタブレットにおける位置情報を示す説明図であって、(a)はタブレット、(b)は表示装置の表示面である。
【図5】本発明のディスプレイタブレットにおけるジェスチャー機能有効領域とジェスチャー機能無効領域とを示す説明図である。
【図6】本発明の基本ストロークの各例とそれらにそれぞれ対応するコマンドを示す説明図である。
【図7】本発明の基本ストロークの各例とそれらにそれぞれ対応するコマンドを示す説明図である。
【図8】本発明のジェスチャー処理装置におけるジェスチャー機能の編集動作例を示す説明図である。
【図9】本発明のジェスチャー処理装置におけるジェスチャー機能の各編集動作例を示す説明図である。
【図10】本発明のジェスチャー処理装置におけるポインティング機能の動作例を示す説明図である。
【図11】本発明のジェスチャー処理装置における手書き文字入力機能の動作例を示す説明図である。
【図12】本発明のジェスチャー機能におけるペンダウン時のフローチャートである。
【図13】本発明のディスプレイタブレットにおけるペンボタン領域を示す説明図である。
【図14】本発明のジェスチャー機能におけるペンアップ時のフローチャートである。
【図15】本発明のジェスチャー機能におけるディスプレイタブレット上での軌跡の例を示す説明図である。
【図16】本発明のジェスチャー機能におけるディスプレイタブレット上での他の軌跡の例を示す説明図である。
【図17】本発明のジェスチャー機能におけるディスプレイタブレットでの表示例を示す説明図である。
【図18】本発明のジェスチャー機能における呼び出しの有効/無効を設定する際のフローチャートである。
【図19】本発明のジェスチャー機能における呼び出しの有効/無効を設定する際の表示装置での表示例を示す説明図である。
【図20】本発明のジェスチャー機能における登録・呼出を設定する際のフローチャートである。
【図21】本発明のジェスチャー機能におけるモードの設定の際のフローチャートである。
【図22】本発明のモードを選択する際の表示装置での表示例を示す説明図である。
【図23】本発明のジェスチャー機能における画像情報のセーブ方法を示すフローチャートである。
【符号の説明】
12 入力ペン
14 表示装置
19 タブレット
22 ジェスチャー判定部(判定手段)
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information processing apparatus that can perform handwritten editing with a pen or the like on a screen, and particularly relates to a gesture processing apparatus and a gesture processing method.
[0002]
[Prior art]
2. Description of the Related Art In recent years, information devices, so-called pens, that are equipped with a display device that integrates a display portion such as a liquid crystal display and a tablet that detects the coordinates of a contact portion with an input pen or the like and that can be directly edited by an input pen Information input-type information devices are appearing on the market. Therefore, the display device can realize on the tablet the same as the calibration on the manuscript paper, as if reminiscent of paper and a pen. Sharp's Japanese word processor "WV-S200" is known.
[0003]
In these pen information input devices, a gesture function has been considered as a function for making the most of the characteristics. Such a gesture function is a method of drawing a text on a display device by drawing a character or the like at a desired position on a tablet with an input pen using an editing symbol stored in advance. It can be edited.
[0004]
[Problems to be solved by the invention]
However, in the above conventional method, after the pen-down at the start of drawing and the pen-up at the completion of drawing is completed, it is determined whether the gesture function by the input pen is valid or invalid. It was. Further, in the above conventional case, when the input pen passes an area such as an icon which is an invalid area of the gesture function during drawing, the gesture function is cancelled. Therefore, it is necessary to draw on the tablet, and there is a problem that the gesture function is troublesome.
[0005]
Further, in the above-described conventional case, for example, the user may unintentionally input an edit symbol for deletion or deletion and edit it into an unintended sentence, and there is a problem that it takes time to restore such a sentence. Has occurred.
[0006]
Furthermore, in the above-described conventional case, in order to make the gesture function function effectively, the locus of the input pen, the list of edit symbols, and the like can be displayed. There is also a problem that the processing time increases and the processing speed decreases.
[0007]
[Means for Solving the Problems]
  In order to solve the above problems, the gesture processing apparatus of the present invention outputs a stroke of continuous coordinates on the display surface of the display means indicated by the display means such as a liquid crystal display and the input means such as an input pen. A coordinate extracting unit that determines whether the display position corresponding to the first coordinate output from the coordinate extracting unit is an effective area in which information to be edited is displayed;Pointing processing means for moving the cursor to the first coordinate position determined to be an effective area by the determination means;Strokes that continue to the first coordinates determined to be outside the effective area by the determination means are not captured, but strokes that are consecutive to the first coordinates determined to be the effective area are captured and stored in advance.MatchAnd a gesture recognition means for outputting an edit command corresponding to the closest basic stroke, and displayed in the effective area on the display means based on the edit command output from the gesture recognition means.Indicated by the cursorAnd an editing means for editing information.
[0008]
  Furthermore, the gesture processing of the present inventionThe determination means of the apparatus is characterized in that the region determination is not performed for coordinates that are continuous with the first coordinate in the effective region.
[0009]
  The gesture processing of the present inventionThe method includes: a gesture processing method in a gesture processing apparatus, comprising: display means such as a liquid crystal display; and coordinate extraction means for outputting a stroke of continuous coordinates on the display surface of the display means designated by the input means such as an input pen. Then, it is determined whether or not the display position corresponding to the first coordinate output from the coordinate extracting means is a predetermined effective area in which information to be edited is displayed, and is outside the effective area After the cursor is moved to the first coordinate position determined to be an effective area, the stroke continuous to the first coordinate determined to be an effective area is not taken. Checks the basic strokes stored in advance and outputs the editing command corresponding to the closest basic stroke. Based on the output editing command To edit the information that is indicated by being displayed on the effective area of the display unit cursorIt is characterized by that.
[0011]
According to the present invention, the gesture function is enabled / disabled by the output of the first specified coordinate on the display surface by the coordinate extraction unit, which is instructed by the input unit such as the input pen during the gesture function. And a gesture recognizing unit that outputs an edit command by a subsequent stroke, the validity / invalidity of the gesture function and the intended command can be accurately determined and extracted.
[0012]
In addition, according to the present invention, the valid / invalid area determination is not performed for the coordinates of the stroke input after the first coordinates are output by the input means. If the first coordinates are valid, for example, Even if subsequent successive strokes are drawn in the invalid area of the gesture function, the gesture function itself is not invalidated.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
An embodiment of the present invention will be described with reference to FIGS. 1 to 23 as follows. In the gesture processing apparatus as the information processing apparatus, as shown in the block diagram of FIG. 2, a central processing unit (hereinafter referred to as a CPU) 1 for executing a program is provided, and the bus line 18 of the CPU 1 RAM 2 for storing and reading various data, ROM 3 for storing control programs, printer controller 4 for controlling printer 5, IC card interface 7 for reading and writing to IC card 6 as external storage means, and An FD controller 9 for controlling a floppy disk drive (hereinafter referred to as FDD) 8 is connected.
[0014]
Further, the bus line 18 has a key interface 11 for inputting signals from the keyboard 10 as input means to the bus line 18 and a display for controlling a display device 14 (display means) such as a liquid crystal display. The control 15 is connected.
[0015]
In addition, the bus line 18 is in contact with the image of the display device 14, and signals from the input pen 12 for inputting or selecting information are converted into pen coordinates to be converted to the bus line 18. A pen interface 13 for inputting is connected. Therefore, the input pen 12 can display information on the image by drawing a predetermined image on the image or a so-called pointing function indicating the image. It is an input means for a gesture function that allows selection and input of edit symbols.
[0016]
Also, a handwriting editing interface 16 is connected to the bus line 18, and the handwriting editing interface 16, as will be described in detail later, is a signal of each coordinate data indicating the pen coordinates from the input pen 12. Thus, the recognition result of each coordinate data is output to the bus line 18 based on the handwriting recognition dictionary (storage means) 17 which is a memory.
[0017]
In the handwriting recognition dictionary 17, the basic strokes indicating characters and symbols are classified according to the contents, such as (1) horizontal writing gesture command table, (2) handwritten character table, and (3) vertical writing gesture command table, which will be described later. Each has been stored. As an example of such a basic stroke, an inverted L character, which is an edit symbol indicating a line feed, is embedded in a position corresponding to each of 9 × 9 squares as indicated by a circle as shown in FIG. Has been.
[0018]
On the other hand, as shown in FIG. 2, a transparent tablet (coordinate extracting means) 19 for detecting each coordinate of the screen is integrally formed on the screen of the display device 14. The XY (640 × 400) coordinates are arranged in a grid pattern shown in FIG. 4A so as to correspond to the character arrangement of the display device 14, for example, the vertical 40 rows and horizontal 80 examples shown in FIG. Is set.
[0019]
Thus, when the tip of the input pen 12 shown in FIG. 2 abuts on the tablet 19, the pen coordinates on the tablet 19 are detected by the pen interface 13, converted into a coordinate code, and the bus line. 18 is output.
[0020]
The tablet system is not particularly limited as long as the coordinates of the locus can be detected when the input pen 12 is in contact with the drawing, but for example, an electrostatic coupling tablet, an electric strain and a magnetic strain can be used. Tablets, pressure sensitive, ultrasonic and electromechanical tablets can also be used.
[0021]
When a sentence is created on the display device 14 using such a configuration, characters and symbols input from the keyboard 10 are converted into predetermined character codes and symbol codes by the key interface 11, respectively. Each code is temporarily stored in the RAM 2 once by the CPU 1 (text editing unit 1a in FIG. 1) (text memory 2a in FIG. 1).
[0022]
After that, the code stored in the RAM 2 is rearranged on the RAM 2 so that the CPU 1 can display it on the display device 14 based on the instruction from the keyboard 10 and the program stored in the ROM 3 (in FIG. 1). Bit map memory 2b). Subsequently, each code arrangement on the RAM 2 is displayed on the display device 14 via the display control 15.
[0023]
In the above configuration, the text once displayed on the display device 14 can be edited by the keyboard 10, an icon set on the display device 14, or an instruction by the input pen 12 described later, and the CPU ( The editing means) 1 can rearrange, that is, edit, each code arrangement of the bitmap memory 2b in the RAM 2 in accordance with a predetermined program and the above instruction.
[0024]
Next, a gesture function for facilitating editing of the text displayed on the display device 14 will be described. First, as shown in FIG. 1, on a display tablet 20 in which a display device 14 such as a CRT or a liquid crystal and a transparent tablet 19 provided on the display surface are integrally formed, on the display device 14. For example, an image indicating an edit symbol is drawn by the input pen 12 at a desired position of the displayed image such as a sentence.
[0025]
Each coordinate data of such drawing is sequentially detected by the locus coordinate extraction unit 21 connected to the tablet 19. At this time, in the coordinate data, the pen-down coordinate that is the XY coordinate where the input pen 12 and the tablet 19 first contact each other is within the effective area 19a of the gesture function in the tablet 19 shown in FIG. It is determined by the gesture determination unit (determination means) 22 to which the coordinate data from the locus coordinate extraction unit 21 is input whether it is within 19b.
[0026]
Further, when the gesture determination unit 22 determines that the pen-down coordinate is valid, the pen-down coordinate is set according to each display screen on the display device 14 and is selected by the input pen 12. It is determined whether it is a pen button area.
[0027]
Thereafter, when it is determined that the pen-down coordinate is within the effective area and not the pen button area, the locus determination unit 23 to which coordinate data is input from the gesture determination unit 22 indicates that the gesture function is ON. The gesture function ON flag is set in the flag instruction unit (stop means) 24.
[0028]
When the gesture function ON flag is set in the flag instruction unit 24, each coordinate data indicating the drawing trajectory is sequentially stored in the coordinate data buffer 25 connected to the trajectory determination unit 23 including the pen-down coordinate. Remembered.
[0029]
In addition, when the gesture function ON flag is set in the flag instruction unit 24, the gesture determination unit 22 determines whether or not the input coordinate data is within the valid area and whether or not the pen button area. This determination is stopped, and all the input coordinate data are validated and output to the locus determination unit 23.
[0030]
When the drawing with the input pen 12 is finished and the input pen 12 is in a pen-up state in which the input pen 12 is separated from the tablet 19, the trajectory determination unit 23 confirms that the gesture function ON flag is set, All the locus coordinate data is output from the data buffer 25 to the gesture command determination unit (gesture recognition means) 26.
[0031]
Note that when all the coordinate data is output to the gesture command determination unit 26 as described above, the gesture function ON flag by the flag instruction unit 24 is reset.
[0032]
Each locus coordinate data is normalized by the gesture command determination unit 26 and collated with basic stroke data stored in the gesture command table 27 included in the handwriting recognition dictionary 17 shown in FIG. The gesture command determination unit 27 is included in the handwriting editing interface 16, and the locus coordinate extraction unit 21, the gesture determination unit 22, the locus determination unit 23, and the flag instruction unit 24 include the pen The coordinate data buffer 25 is included in the interface 13, and a storage area is set in the RAM 2.
[0033]
In the gesture command table 27, in addition to the basic strokes corresponding to the single character deletion command 27a, the space insertion command 27b, and the handwritten character input command 27c shown in the figure, for example, a plurality of basic strokes shown in FIGS. Are stored together with the corresponding commands.
[0034]
In addition, a command selection unit (selection means) 32 that can select and set each basic stroke in the gesture command table 27 by selecting whether access from the gesture command determination unit 26 is possible or not is provided. The selection in the unit 32 can be set by an input means such as the input pen 12 or the keyboard 10 via the text editing unit 1a.
[0035]
In the command selection unit 32, each basic stroke can be individually set to be accessible or inaccessible from the gesture command determination unit 26, and each basic stroke is grouped, For each group, access and inaccessibility can be selected and set (setting means).
[0036]
In addition, a registration buffer 33 is provided for storing, in a table, the accessibility and inaccessibility of each command corresponding to each of the basic strokes, and calling the table arbitrarily and displaying it on the display device 14. Yes. Further, in the registration buffer 33, when grouping is performed in the command selection unit 32, for example, a grouping table can be stored so that all can be selected from invalid, partially valid, and all valid.
[0037]
The gesture command determination unit 27 outputs a command corresponding to the basic stroke closest to the trajectory coordinate to the text editing unit 1a as a result of collation with each of the basic strokes, and supplies the supplied trajectory. From the coordinates, the coordinate information of the character or character string processed by the command, that is, the position information on the display device 14 is output to the text editing unit 1a.
[0038]
As a result, the text editing unit 1a can edit the character or symbol in the position information in the text memory 2a by deleting or inserting the character or symbol in the position information. At this time, the text editing unit 1a calls the screen information in the text memory 2a displayed on the display device 14 when the gesture function as described above is activated, that is, immediately before the input operation with the input pen 12 is started. A screen information buffer (storage area) 31 is set as a memory to be temporarily stored. In the screen information buffer 31, when the next screen information is stored, the previously stored screen information is cleared.
[0039]
Thereby, since the previous screen information is stored in advance when the above editing is canceled, for example, as shown in FIG. 17, the locus display of the input pen 12, the rectangular display of the recognition area, the display of the recognition information, and the recognition Even when a display list, a message asking whether or not to cancel the processing result, and the like are displayed, it is possible to speed up the execution of redisplaying the editing screen, executing the recognition function, canceling the editing process, and the like.
[0040]
The text editing unit 1a is not only input with commands from the gesture command determination unit 27, but also receives commands from the keyboard 10 as described above so that editing can be performed using the commands. It has become.
[0041]
On the other hand, independent of the above-described processing of the trajectory coordinates, the trajectory coordinate data extracted by the trajectory coordinate extraction unit 21 is output to the trajectory drawing unit 28 and becomes a trajectory image obtained by connecting the trajectory coordinate data.
[0042]
The generated trajectory image is combined with the character string, symbol string, or image currently formed in the bitmap memory 2b and stored in the bitmap memory 2b. Therefore, the gesture image input by the operator by tracing the tablet 19 with the input pen 12 is displayed on the display device 14 in real time.
[0043]
Examples of such gesture editing operations are shown in FIGS. First, in FIG. 8, when erasing one character “E” in the text displayed on the display tablet 20, a gesture like “V” is performed on the character “E” with the input pen 12. That is, after drawing, the input pen 12 is moved away from the display tablet 20.
[0044]
In the above drawing, it is important for the recognition of the character that the starting position is within the range of the character. In particular, in order to facilitate the recognition of the designated character, it is desirable to start drawing from substantially the center of the character.
[0045]
Subsequently, the trajectory coordinates are extracted and the trajectory image is displayed on the display device 14 of the display tablet 20, and with a single character deletion command corresponding to the drawing of “V” obtained by collation with the basic stroke, The position information of the character “e” is output to the text editing unit 1a.
[0046]
Thereafter, based on the position information, the cursor 14a on the display device 14 is moved to the original position, for example, the position where the input pen 12 is operated from the position of the character "H", that is, the position of the character "E" in the above case. , The character “e” in the bitmap memory 2b is deleted by deleting the character “e” in the text memory 2a based on the command. The above “e” in Era is deleted. In this way, gesture editing is completed.
[0047]
Also, as shown in FIG. 9, gesture editing can be performed in the same manner as described above by drawing each editing symbol on the display tablet 20 with an input pen (not shown). Note that the basic stroke, which is the image of the edit symbol, can be arbitrarily set.
[0048]
Next, the pointing function configured as described above will be described. First, in the conventional word processor, the cursor is sequentially moved when a plurality of characters on the text are designated. However, in the above configuration, the position of the cursor 14a is directly instructed by the instruction of the input pen 12. It is possible.
[0049]
Note that the switching between the gesture and the pointing is determined based on whether or not the extracted coordinates are one-point coordinates without a locus, that is, whether or not each of the coordinates is continuous. The determination is performed by the locus determination unit 23.
[0050]
Therefore, for example, when it is determined that the pointing is performed, the obtained coordinates are not collated with the gesture command table 27, and only the position information of the coordinates is output to the text editing unit 1a. An example of the operation of such a pointing function is as shown in FIG.
[0051]
Next, handwritten character input will be described using the above configuration. The handwritten character input can be executed by the processing method equivalent to the processing in which the gesture editing is performed by comparing the locus coordinates with the previously stored basic stroke.
[0052]
That is, as shown in FIG. 1, a handwritten character table in which a handwritten character recognition unit 29 is formed in the same position as the gesture command determination unit 26, that is, in the handwriting editing interface 16, and stores handwritten characters in advance. 30 is formed in the handwriting recognition dictionary 17 shown in FIG.
[0053]
The handwritten character recognition unit 29 compares the trajectory coordinates supplied from the trajectory coordinate extraction unit 21 with a plurality of basic character strokes stored in the handwritten character table 30, and corresponds to the closest basic character stroke. The character code is output from the handwritten character table 30 to the text editing unit 1a.
[0054]
A difference between such a handwritten character input function and the gesture editing function is that the handwritten character recognition unit 29 does not output position information. The handwritten character input function can be started up from an instruction from the keyboard 10 or an instruction from an icon on the display device 14, and is displayed on the tablet 19 of the display tablet 20 as shown in FIG. In addition, it is possible to start up from the gesture editing function by gesturing “Δ”.
[0055]
An operation example of such a handwritten character input function will be described. As shown in FIG. 11, when the handwritten character input function is started, a window 14b for handwritten character input is displayed at a predetermined position of the display tablet 20. In the first input area in the window 14a, a character is handwritten with, for example, “su” with the input pen 12.
[0056]
After that, when the input pen 12 is brought into contact with the adjacent second area for the next input, the character recognition of the locus coordinates handwritten in the first area is referred to the handwritten character table 30 as described above. It is executed by the handwritten character recognition unit 29 as described above, and the character as a result of the recognition is input and displayed at the position indicated by the cursor 14a.
[0057]
Thus, for example, a font such as a cursive font is stored in advance in the handwritten character table 30 and the cursive font is input by handwriting so that the cursive font in the handwritten character table 30 can be displayed and printed. Yes.
[0058]
Next, an operation example of the above configuration in the gesture editing function will be described with reference to the flowchart of FIG. 12. First, the tip of the input pen 12 is brought into contact with or pressed at a desired position on the display tablet 20, that is, down. Then, the coordinates at that time are indicated via the pen interface 13.
[0059]
On the other hand, for example, the function of the input pen 12 in the icon area or the pen button area in the display device 14 is a selection function. Therefore, the effective range of the gesture editing function as described above on the display tablet 20 is the tablet 19 area excluding the above-described areas.
[0060]
From this, in the tablet 19 in the display tablet 20, for example, as shown in FIG. 13, for example, priority is given to the effective area 19a in the tablet 19 and the gesture function in advance according to each screen used in the display tablet 20, for example. An invalid area 19b indicating an icon area and a pen button area 19c having priority over the gesture function are set.
[0061]
Therefore, when pen-down is executed as described above and the coordinate data signal is output to the locus coordinate extraction unit 21, first, the pen-down coordinate that is the contact coordinate of the first input pen 12 is detected (step 1, Hereinafter, the step is abbreviated as S), and the effective area coordinates are compared (S2). As a result, if the pen-down coordinates are outside the effective area coordinates, the gesture function becomes invalid and the gesture function ends.
[0062]
If the pen-down coordinates are within the effective area coordinates, the next step is to detect whether the pen-down area, which is one of the other factors prohibiting the gesture function, exists in the pen-down coordinates ( S3) If the pen-down coordinate is on the coordinate of the pen button area, the routine proceeds to the pen button processing routine (S4).
[0063]
On the other hand, if the pen-down coordinate is outside the coordinates of the pen button area, the pen-down coordinate is stored, and when the next coordinate data is input by the input pen 12, the coordinate data and the pen-down coordinate are obtained. In comparison, it is determined whether or not the input coordinates are continuous with respect to the pen-down coordinates, that is, that at least one of the X and Y coordinates is continuous for eight coordinates (S5).
[0064]
At this time, if each coordinate data is a continuous trajectory, the gesture function is turned on and the gesture ON flag is set (S6), and the input pen 12 passes outside the effective area of the gesture function, that is, through the icon area or the like. In addition, the icon instruction function of the input pen 12 in the icon area is stopped. If the determination at S5 is not a continuous trajectory, the routine proceeds to pointing processing routine (S7).
[0065]
Note that the above steps S5 and S6 may be reversed, that is, the gesture ON flag may be set first. In this case, when each coordinate data is not continuous, the routine shifts to the pointing processing routine. At that time, the gesture ON flag is reset.
[0066]
Thereafter, when a gesture operation, that is, an input operation of a predetermined image on the tablet 19 by the input pen 12 is performed and the contact between the input pen 12 and the tablet 19 is released, that is, the input pen 12 is raised, As shown in the flowchart of FIG. 14, first, it is determined whether or not the flag indicating that the gesture function is ON as described above is set (S11). If the flag is not set, It is determined that the input operation is unrelated to the gesture function, and the gesture function is terminated.
[0067]
If the flag is set, the gesture command determination unit 26 first uses the dedicated coordinate data memory for each coordinate data of the input pen 12 from the pen-down coordinate to the pen-up coordinate for recognition processing. Is normalized and stored (S12).
[0068]
Next, the recognition processing of each coordinate data is executed by the gesture command determination unit 26 (S13), and if the recognition is OK after comparison with the gesture command table 27 (S14), the recognition is performed. Each editing process according to the result is executed (S15), and the gesture editing is completed. If the recognition process cannot be recognized, the process proceeds to an error process (S16), and the gesture editing is finished.
[0069]
As described above, in the configuration of the above-described embodiment, when pen-up is performed, even if the pen coordinate is outside the effective area of the gesture function, gesture recognition can be performed if the gesture function is ON at that time. Furthermore, if the pen-down coordinates are within the effective area and outside the pen button area, the coordinates of the drawing trajectory following the pen-down coordinates are outside the effective area and within the pen button area. Thus, the coordinate data of the drawing trajectory is validated and the recognition process can be performed.
[0070]
Therefore, for example, as shown in FIG. 15, when the input pen (not shown) is down at point A, the above configuration is based on the drawing of the input pen after the down transition because point A is in the gesture effective area 19a. After the gesture function is turned on and the drawing with the input pen is completed, the up coordinate of the input pen becomes the point B, for example, even if the point B is outside the gesture valid area 19a, that is, the invalid area 19b, That is, the gesture is valid. The same is true even if each coordinate in the middle of the drawing locus becomes the invalid area 19b.
[0071]
However, for example, as shown in FIG. 16, when the input pen (not shown) is brought down at the point C outside the effective gesture area, that is, in the ineffective area 19a, the above-described configuration causes the gesture function to be turned off. Thus, for example, the process shifts to icon processing or the like.
[0072]
By the way, in the conventional gesture function, since it is determined whether or not the drawing is valid after the drawing is completed, the determination takes time, and the drawing with the input pen as described above is performed. If the input pen comes into contact with the invalid area outside the effective area of the gesture or the tablet area as the pen button area in the middle of the process, the process of the gesture function is stopped and the process proceeds to error processing.
[0073]
For this reason, conventionally, it is necessary to pay attention not only to the start of the operation but also to the operation completion until the operation of the input pen is performed, and it takes time to draw in the gesture function, and the operability is deteriorated.
[0074]
However, in the configuration of the above-described embodiment, if the pen-down coordinate by the input pen 12 is within the effective area 19a of the gesture function, the gesture function is started and the input pen 12 is enabled for the gesture while the input pen 12 is drawing. The drawing is valid even if it is outside the area 19a, that is, in contact with the invalid area 19b or the pen button area 19c.
[0075]
Thereby, since the above-mentioned configuration can start the gesture function by the pen-down coordinates, it is possible to prepare the call of the gesture command table 27 necessary for the gesture function in advance, so that the gesture function can be speeded up. In addition, during drawing with the input pen 12, there is no need to be particularly aware of the effective area, and the operability of the gesture function can be improved.
[0076]
Next, each operation in the command selection function in the gesture function will be described with reference to the flowchart of FIG. When the process of the command selection function is activated by an instruction signal from the input means such as the keyboard 10, first, the process function names of all recognizable commands are called (S21), and then the process function names are displayed. It is displayed on the display device 14 as a table item (S22).
[0077]
Subsequently, after valid / invalid is selected for each item by the execution key on the keyboard 10 (S23), whether or not the valid / invalid command is updated by key operation is set as shown in FIG. 19, for example (S24). ). At this time, when updating to a newly selected valid / invalid command, the execution key is turned ON, the selection data is taken in (S25), updated (S26), and the screen on the display device 14 is cleared ( S27), when the above process is completed, and when updating to the newly selected valid / invalid command is not performed, the screen on the display device 14 is cleared without turning on the release key and updating (S27), The process ends.
[0078]
Next, each operation in the registration / call processing in the command selection function will be described with reference to the flowchart of FIG. First, when the above registration / call processing is activated by an instruction signal from an input means such as the input pen 12 or the keyboard 10, it is first determined whether the registration processing or call processing (S31). All of the current valid / invalid command data is called to the display device 14 (S32), and after confirmation, the registered name is input from the keyboard 10 or the like (S33), and the valid / invalid command data is registered with the registered mate. The data is stored in the buffer 33 (S34), and the registration process is completed.
[0079]
On the other hand, if it is a call process in S31, after inputting and selecting a registered name (S35), the registered name in the registration buffer 33 is searched (S36), and valid / invalid command data corresponding to the registered name is obtained. Called and displayed on the display device 14 (S37), the valid / invalid command data so far is updated to the valid / invalid command data of the registered name (S38), and the calling process is completed.
[0080]
As described above, in the configuration of the above embodiment, the gesture function required by the user can be validated by enabling and disabling each command. Thereby, it is possible to prevent an erroneous operation due to recognition of unnecessary gesture functions, and further, it is possible to reduce the number of gesture commands recognized by the user, so that the user recognition rate of the commands can be increased.
[0081]
Therefore, the above configuration can reduce misrecognition of each command used for the gesture function, and enables more accurate editing processing according to the user's intention.
[0082]
Further, in the above configuration, when a plurality of users use the same information processing apparatus, it is possible to select whether the command is valid / invalid for each user, and to store, that is, register the selection contents. This makes it possible to arbitrarily select gesture functions that a plurality of users individually require at any time, and easily perform an editing process suitable for each user's editing method.
[0083]
In addition, the above configuration takes time to create sentences and the like caused by inadvertently editing with unnecessary gesture functions when the gesture functions necessary for individual users are changed every time the user changes. Can be reduced.
[0084]
Next, a mode selection process by valid / invalid grouping in the command selection function will be described with reference to FIG. When the above configuration is a gesture function, when an interrupt by a mode selection key is generated by the keyboard 10 or the input pen 12, etc., first, the processing function names of all commands that can be recognized are called, and then each processing function name is displayed. It is displayed on the display device 14 as a table item (S41).
[0085]
Subsequently, the execution key on the keyboard 10 is used to select valid / invalid for each item, and after setting the valid command group and invalid command group (S42), the valid / invalid commands so far are set as described above. Whether or not to update to the selected command is set by key operation (S43).
[0086]
At this time, when updating to a newly selected valid / invalid command, the execution key is turned ON, the selection data is taken in and updated (S44), the screen on the display device 14 is cleared (S45), On the other hand, if the mode selection process is not updated and the newly selected valid / invalid command is not updated, the release key is turned on and the screen on the display device 14 is cleared without updating (S45). Exit.
[0087]
As described above, in the above configuration, the invalid command in the gesture function can be set, so that erroneous recognition of the gesture command in the gesture function can be prevented as described above.
[0088]
In addition, the above-described configuration can, for example, disable gesture / erase commands and enable gesture editing by setting other commands to be valid. The possibility of erroneous deletion of the image is avoided. An example of such a partially valid gesture function selection screen is shown in FIG.
[0089]
Since it is possible to select a partly valid in this way, it is particularly effective for preventing a beginner who handles the gesture function from accidentally erasing an image such as a sentence on the display device 14, and is troublesome when operating the above configuration. It is possible to save the trouble of re-creating a sentence or the like, and to improve operability.
[0090]
In the above configuration, the screen information buffer 31 is provided, and when the gesture function is activated, as shown in the flowchart of FIG. 23, the image information on the display device 14 at that time is stored in the screen information buffer 31, that is, saved. (S51).
[0091]
Subsequently, the input pen 12 is lowered (S52), a command for instructing an editing function is input by the input pen 12 (S53), the recognition of the editing range is confirmed (S54, S55), and the input pen is determined. When 12 is up (S52), the command and editing range are output to the gesture command determination unit 26 (S56).
[0092]
Thereafter, the screen information obtained by saving the display screen of the display device 14 in the screen information buffer 31 is returned to the display screen (S57). Subsequently, a function such as an editing operation is executed on the screen information stored in the text memory 2a, and the result is displayed on the display device 14 (S58).
[0093]
Next, it is determined whether or not to cancel the display screen of the display device 14 (S59). If not cancelled, the above gesture function is completed. If cancelled, the screen saved in the screen information buffer 31 is canceled. The display screen of the display device 14 is returned to the information, and the screen information in the text memory 2a is also restored (S60).
[0094]
As described above, since the image information on the display device 14 immediately before the operation by the input pen 12 of the gesture function is stored in the screen information buffer 31 in the above configuration, the original function when the gesture function is canceled as described above. The return to the image can be speeded up.
[0095]
【The invention's effect】
In the gesture processing device and the gesture processing method of the present invention, the instruction is started on the display surface by the input means, that is, the gesture function is determined to be valid or invalid when the first coordinate is designated, and based on the subsequent stroke Since the edit command is extracted, accurate and quick processing of the gesture function of editing information displayed in the effective area can be performed when the gesture function is valid. In the gesture processing device and the gesture processing method of the present invention, even if the input unit passes the gesture invalid area while the stroke is instructed to an arbitrary position on the display screen by the input unit, the gesture function is not invalidated. Thus, there is an effect that it is possible to save the trouble of invalidating the gesture function as in the prior art and instructing again by the input means.
[Brief description of the drawings]
FIG. 1 is a principal block diagram of a gesture processing apparatus according to the present invention.
FIG. 2 is a block diagram of a gesture processing apparatus according to the present invention.
FIG. 3 is an explanatory diagram showing an example of basic stroke recognition in the gesture processing device of the present invention.
4A and 4B are explanatory diagrams showing position information on a display tablet of the gesture processing device of the present invention, in which FIG. 4A is a tablet, and FIG. 4B is a display surface of the display device.
FIG. 5 is an explanatory diagram showing a gesture function valid area and a gesture function invalid area in the display tablet of the present invention.
FIG. 6 is an explanatory diagram showing examples of basic strokes according to the present invention and commands corresponding to them.
FIG. 7 is an explanatory diagram showing examples of basic strokes according to the present invention and commands corresponding to them.
FIG. 8 is an explanatory diagram showing an editing operation example of a gesture function in the gesture processing apparatus of the present invention.
FIG. 9 is an explanatory diagram showing an example of each editing operation of the gesture function in the gesture processing device according to the present invention.
FIG. 10 is an explanatory diagram showing an operation example of a pointing function in the gesture processing apparatus of the present invention.
FIG. 11 is an explanatory diagram showing an operation example of a handwritten character input function in the gesture processing apparatus of the present invention.
FIG. 12 is a flowchart at the time of pen-down in the gesture function of the present invention.
FIG. 13 is an explanatory diagram showing a pen button area in the display tablet of the present invention.
FIG. 14 is a flowchart at the time of pen-up in the gesture function of the present invention.
FIG. 15 is an explanatory diagram showing an example of a locus on a display tablet in the gesture function of the present invention.
FIG. 16 is an explanatory diagram showing another example of the locus on the display tablet in the gesture function of the present invention.
FIG. 17 is an explanatory diagram showing a display example on a display tablet in the gesture function of the present invention.
FIG. 18 is a flowchart when setting the validity / invalidity of a call in the gesture function of the present invention.
FIG. 19 is an explanatory diagram showing a display example on the display device when setting validity / invalidity of a call in the gesture function of the present invention.
FIG. 20 is a flowchart for setting registration / calling in the gesture function of the present invention.
FIG. 21 is a flowchart for setting a mode in the gesture function of the present invention.
FIG. 22 is an explanatory diagram showing a display example on the display device when a mode of the present invention is selected.
FIG. 23 is a flowchart showing a method for saving image information in the gesture function of the present invention.
[Explanation of symbols]
12 Input pen
14 Display device
19 tablets
22 Gesture determination unit (determination means)

Claims (3)

液晶ディスプレイ等の表示手段と、
入力ペン等の入力手段により指示された表示手段の表示面上での連続する座標のストロークを出力する座標抽出手段と、
座標抽出手段から出力される最初の座標に対応する表示位置が編集対象となる情報が表示される有効領域であるか否かを判定する判定手段と、
判定手段により有効領域であると判定された最初の座標位置にカーソルを移動するポインティング処理手段と、
判定手段により有効領域外であると判断された最初の座標に連続するストロークは取り込まず、有効領域であると判定された最初の座標に連続するストロークを取り込み予め記憶された基本ストロークと照合し最も近似する基本ストロークに対応する編集コマンドを出力するジェスチャー認識手段と、
ジェスチャー認識手段から出力される編集コマンドに基づき表示手段上の上記有効領域に表示されたカーソルで指示される情報を編集する編集手段とを備えているジェスチャー処理装置。
Display means such as a liquid crystal display;
Coordinate extraction means for outputting strokes of continuous coordinates on the display surface of the display means designated by the input means such as an input pen;
Determining means for determining whether or not the display position corresponding to the first coordinates output from the coordinate extracting means is an effective area in which information to be edited is displayed;
Pointing processing means for moving the cursor to the first coordinate position determined to be an effective area by the determination means;
Strokes continuous to the first coordinates determined to be outside the effective area by the judging means are not taken in, but strokes consecutive to the first coordinates judged to be in the valid area are taken in and compared with the basic stroke stored in advance. Gesture recognition means for outputting an editing command corresponding to the approximate basic stroke;
A gesture processing apparatus comprising: editing means for editing information indicated by a cursor displayed in the effective area on the display means based on an edit command output from the gesture recognition means.
上記判定手段は有効領域内の最初の座標に連続する座標についての領域判定を行わないようにした請求項1記載のジェスチャー処理装置。  The gesture processing apparatus according to claim 1, wherein the determination unit is configured not to perform region determination on coordinates that are continuous with the first coordinate in the effective region. 液晶ディスプレイ等の表示手段と、入力ペン等の入力手段により指示された表示手段の表示面上での連続する座標のストロークを出力する座標抽出手段とを備えるジェスチャー処理装置におけるジェスチャー処理方法であって、
座標抽出手段から出力される最初の座標に対応する表示位置が編集対象となる情報が表示される予め定められた有効領域であるか否かを判定し、
有効領域外であると判断された最初の座標に連続するストロークは取込まず、有効領域であると判定された最初の座標位置にカーソルを移動した後、有効領域であると判定された最初の座標に連続するストロークを取り込み予め記憶された基本ストロークと照合し最も近似する基本ストロークに対応する編集コマンドを出力し、
出力された編集コマンドに基づき表示手段上の上記有効領域に表示されたカーソルで指示される情報を編集するジェスチャー処理方法。
A gesture processing method in a gesture processing apparatus, comprising: display means such as a liquid crystal display; and coordinate extraction means for outputting a stroke of continuous coordinates on the display surface of the display means designated by an input means such as an input pen. ,
Determining whether the display position corresponding to the first coordinate output from the coordinate extraction means is a predetermined effective area in which information to be edited is displayed;
Strokes continuous to the first coordinate determined to be outside the valid area are not captured, and after moving the cursor to the first coordinate position determined to be the valid area, the first stroke determined to be the valid area Takes a series of strokes in the coordinates, compares them with the pre-stored basic strokes, and outputs an editing command corresponding to the basic stroke that is closest to
A gesture processing method for editing information indicated by a cursor displayed in the effective area on the display unit based on an output editing command.
JP14094499A 1999-05-21 1999-05-21 Gesture processing device and gesture processing method Expired - Lifetime JP3874571B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14094499A JP3874571B2 (en) 1999-05-21 1999-05-21 Gesture processing device and gesture processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14094499A JP3874571B2 (en) 1999-05-21 1999-05-21 Gesture processing device and gesture processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP28327692A Division JP3292752B2 (en) 1992-10-21 1992-10-21 Gesture processing device and gesture processing method

Publications (2)

Publication Number Publication Date
JPH11345072A JPH11345072A (en) 1999-12-14
JP3874571B2 true JP3874571B2 (en) 2007-01-31

Family

ID=15280454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14094499A Expired - Lifetime JP3874571B2 (en) 1999-05-21 1999-05-21 Gesture processing device and gesture processing method

Country Status (1)

Country Link
JP (1) JP3874571B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4886582B2 (en) * 2007-04-24 2012-02-29 パナソニック株式会社 Character input device, character input program, and character input method
US8924892B2 (en) * 2008-08-22 2014-12-30 Fuji Xerox Co., Ltd. Multiple selection on devices with many gestures
US20100064261A1 (en) * 2008-09-09 2010-03-11 Microsoft Corporation Portable electronic device with relative gesture recognition mode
JP5519546B2 (en) * 2011-01-31 2014-06-11 パナソニック株式会社 Handwritten character input device
JP2012048765A (en) * 2011-12-09 2012-03-08 Panasonic Corp Input apparatus, input method and program for input

Also Published As

Publication number Publication date
JPH11345072A (en) 1999-12-14

Similar Documents

Publication Publication Date Title
US5796406A (en) Gesture-based input information processing apparatus
US6938220B1 (en) Information processing apparatus
EP0607926B1 (en) Information processing apparatus with a gesture editing function
JP4742132B2 (en) Input device, image processing program, and computer-readable recording medium
EP0597379B1 (en) Pen input processing apparatus
JP2001005599A (en) Information processor and information processing method an d recording medium recording information processing program
JP3292752B2 (en) Gesture processing device and gesture processing method
JP2963589B2 (en) Gesture processing device and gesture processing method
JP2999335B2 (en) Gesture processing device and gesture processing method
JP3075882B2 (en) Document creation and editing device
JP2009151449A (en) Electric blackboard with undo function
JP3874571B2 (en) Gesture processing device and gesture processing method
US20050122322A1 (en) Document creating method apparatus and program for visually handicapped person
JP3258978B2 (en) Gesture processing device and gesture processing method
JP2905013B2 (en) Gesture processing device and gesture processing method
JP3469816B2 (en) Gesture processing device and gesture processing method
JP3217084B2 (en) Handwritten character recognition device
JP3025152B2 (en) Handwritten character recognition input device
JP3469817B2 (en) Gesture processing device and gesture processing method
JPH06324798A (en) Document processor provided with handwriting editing function
JPH0744308A (en) Word processor
JP3153704B2 (en) Character recognition device
JPH0830730A (en) Character recognition processor
JPH08137865A (en) Character information processor with address book managing function
JPH0728950A (en) Handwritten character recognition device

Legal Events

Date Code Title Description
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061024

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091102

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111102

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111102

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121102

Year of fee payment: 6

EXPY Cancellation because of completion of term