JPH08286807A - データ処理装置及びそのジェスチャ認識方法 - Google Patents
データ処理装置及びそのジェスチャ認識方法Info
- Publication number
- JPH08286807A JPH08286807A JP11641695A JP11641695A JPH08286807A JP H08286807 A JPH08286807 A JP H08286807A JP 11641695 A JP11641695 A JP 11641695A JP 11641695 A JP11641695 A JP 11641695A JP H08286807 A JPH08286807 A JP H08286807A
- Authority
- JP
- Japan
- Prior art keywords
- pen
- gesture
- contact
- data processing
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/142—Image acquisition using hand-held instruments; Constructional details of the instruments
- G06V30/1423—Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/32—Digital ink
- G06V30/36—Matching; Classification
Abstract
(57)【要約】
【目的】 手書き文字入力領域等においてもジェスチャ
と他の文字、図形とを区別して認識でき、しかも入力領
域に拘わらず有効なジェスチャを定義することを可能に
したデータ処理装置及びそのジェスチャ認識方法を提供
する。 【構成】 ペン27がディジタイザ27に接触した回数
d(ステップ4、5)、接触後の静止回数P1(ステッ
プ7、15)、接触した状態での移動回数m(ステップ
8、9,10)及び移動後の静止回数P2(ステップ1
2、16)を計測する。そして、これらの計測値d,P
1,m,P2に応じて、ジェスチャを認識する(図3)。
と他の文字、図形とを区別して認識でき、しかも入力領
域に拘わらず有効なジェスチャを定義することを可能に
したデータ処理装置及びそのジェスチャ認識方法を提供
する。 【構成】 ペン27がディジタイザ27に接触した回数
d(ステップ4、5)、接触後の静止回数P1(ステッ
プ7、15)、接触した状態での移動回数m(ステップ
8、9,10)及び移動後の静止回数P2(ステップ1
2、16)を計測する。そして、これらの計測値d,P
1,m,P2に応じて、ジェスチャを認識する(図3)。
Description
【0001】
【産業上の利用分野】本発明は、ペンによる手書き入力
可能なデータ処理装置及びそのジェスチャ認識方法に関
する。
可能なデータ処理装置及びそのジェスチャ認識方法に関
する。
【0002】
【従来の技術】ペン入力可能なデータ処理装置におい
て、ジェスチャと呼ばれる、印刷業務で使われている校
正記号を取り入れたコマンド体系を用いるものは従来よ
り知られている。このようなジェスチャを用いるソフト
(例えば米国マイクロソフト社の「Windows f
or Pen Computing(登録商標)」な
ど)は、主として入力されたペンの軌跡の形状で認識す
るジェスチャを使用して、テキストの編集等の操作を行
うようにしている。
て、ジェスチャと呼ばれる、印刷業務で使われている校
正記号を取り入れたコマンド体系を用いるものは従来よ
り知られている。このようなジェスチャを用いるソフト
(例えば米国マイクロソフト社の「Windows f
or Pen Computing(登録商標)」な
ど)は、主として入力されたペンの軌跡の形状で認識す
るジェスチャを使用して、テキストの編集等の操作を行
うようにしている。
【0003】また、ウインドウの移動や拡大といった操
作は、ウインドウに付加された枠やタイトルバーに備え
られたボタン等にペンを接触させることにより行うよう
にしている。
作は、ウインドウに付加された枠やタイトルバーに備え
られたボタン等にペンを接触させることにより行うよう
にしている。
【0004】
【発明が解決しようとする課題】しかしながら、上記従
来例では、軌跡の形状で認識するジェスチャを使用して
いるため、手書き文字入力領域や自由手書き領域でのジ
ェスチャの認識ができない、あるいは手書き文字入力領
域や自由手書き領域でジェスチャと類似した文字や図形
を入力できない、という問題があった。
来例では、軌跡の形状で認識するジェスチャを使用して
いるため、手書き文字入力領域や自由手書き領域でのジ
ェスチャの認識ができない、あるいは手書き文字入力領
域や自由手書き領域でジェスチャと類似した文字や図形
を入力できない、という問題があった。
【0005】そのため、従来はウインドウシステム全体
で有効なジェスチャを無効にし、各領域毎に特有のジェ
スチャを定義することで対応しており、ウインドウシス
テム全体として有効なジェスチャを定義できないという
問題があった。
で有効なジェスチャを無効にし、各領域毎に特有のジェ
スチャを定義することで対応しており、ウインドウシス
テム全体として有効なジェスチャを定義できないという
問題があった。
【0006】本発明は上述した点に鑑みなされたもので
あり、手書き文字入力領域等においてもジェスチャと他
の文字、図形とを区別して認識でき、しかも入力領域に
拘わらず有効なジェスチャを定義することを可能にした
データ処理装置及びそのジェスチャ認識方法を提供する
ことを目的とする。
あり、手書き文字入力領域等においてもジェスチャと他
の文字、図形とを区別して認識でき、しかも入力領域に
拘わらず有効なジェスチャを定義することを可能にした
データ処理装置及びそのジェスチャ認識方法を提供する
ことを目的とする。
【0007】
【課題を解決するための手段】上記目的を達成するため
本発明は、ペンと、ペン接触位置検出手段とを備え、ジ
ェスチャにより操作命令を入力可能なデータ処理装置に
おいて、前記ペンの静止状態を検出する静止状態検出手
段と、前記ペンの接触回数を計測する接触回数計測手段
と、前記ペンの接触後の静止回数を計測する第1の静止
回数計測手段と、前記ペンの移動後の静止回数を計測す
る第2の静止回数計測手段と、前記ペンの移動回数を計
測する移動回数計測手段と、前記計測したペンの接触回
数、接触後の静止回数、移動後の静止回数及び移動回数
に基づいてジェスチャを認識するジェスチャ認識手段と
を設けるようにしたものである。
本発明は、ペンと、ペン接触位置検出手段とを備え、ジ
ェスチャにより操作命令を入力可能なデータ処理装置に
おいて、前記ペンの静止状態を検出する静止状態検出手
段と、前記ペンの接触回数を計測する接触回数計測手段
と、前記ペンの接触後の静止回数を計測する第1の静止
回数計測手段と、前記ペンの移動後の静止回数を計測す
る第2の静止回数計測手段と、前記ペンの移動回数を計
測する移動回数計測手段と、前記計測したペンの接触回
数、接触後の静止回数、移動後の静止回数及び移動回数
に基づいてジェスチャを認識するジェスチャ認識手段と
を設けるようにしたものである。
【0008】また、前記ペンの静止状態検出中に時間と
ともに変化するメニューを表示するメニュー表示手段を
さらに設けることが望ましい。
ともに変化するメニューを表示するメニュー表示手段を
さらに設けることが望ましい。
【0009】上記目的を達成するため本発明は、ペン
と、ペン接触位置検出手段とを備え、ジェスチャにより
操作命令を入力可能なデータ処理装置のジェスチャ認識
方法において、前記ペンの静止状態を検出し、前記ペン
の接触回数と、前記ペンの接触後の静止回数と、前記ペ
ンの移動後の静止回数と、前記ペンの移動回数とを計測
し、前記計測したペンの接触回数、接触後の静止回数、
移動後の静止回数及び移動回数に基づいてジェスチャを
認識するようにしたものである。
と、ペン接触位置検出手段とを備え、ジェスチャにより
操作命令を入力可能なデータ処理装置のジェスチャ認識
方法において、前記ペンの静止状態を検出し、前記ペン
の接触回数と、前記ペンの接触後の静止回数と、前記ペ
ンの移動後の静止回数と、前記ペンの移動回数とを計測
し、前記計測したペンの接触回数、接触後の静止回数、
移動後の静止回数及び移動回数に基づいてジェスチャを
認識するようにしたものである。
【0010】また、前記ペンの静止状態検出中に時間と
ともに変化するメニューを表示することが望ましい。
ともに変化するメニューを表示することが望ましい。
【0011】
【作用】請求項1記載のデータ処理装置又は請求項3記
載のジェスチャ認識方法によれば、ペンの静止状態が検
出され、ペンの接触回数と、ペンの接触後の静止回数
と、ペンの移動後の静止回数と、ペンの移動回数とが計
測され、計測したペンの接触回数、接触後の静止回数、
移動後の静止回数及び移動回数に基づいてジェスチャが
認識される。
載のジェスチャ認識方法によれば、ペンの静止状態が検
出され、ペンの接触回数と、ペンの接触後の静止回数
と、ペンの移動後の静止回数と、ペンの移動回数とが計
測され、計測したペンの接触回数、接触後の静止回数、
移動後の静止回数及び移動回数に基づいてジェスチャが
認識される。
【0012】請求項2記載のデータ処理装置又は請求項
4記載のジェスチャ認識方法によれば、ペンの静止状態
検出中に時間とともに変化するメニューが表示される。
4記載のジェスチャ認識方法によれば、ペンの静止状態
検出中に時間とともに変化するメニューが表示される。
【0013】
【実施例】以下本発明の実施例を図面を参照して説明す
る。
る。
【0014】(第1の実施例)図1は本発明の実施例に
かかるデータ処理装置の構成を示すブロック図であり、
この装置は、装置全体の制御を行うCPU21と、CP
U21で実行される処理のプログラム等を格納するRO
M22と、CPU21の演算途中のデータ等を格納する
RAM23と、入力ペン27による入力操作パネルを構
成し、入力ペン27の接触位置を検出するディジタイザ
25と、液晶ディスプレイ26と、ディジタイザ25及
び液晶ディスプレイ26が接続され、データ入出力及び
操作入力のインターフェースとして機能するI/Oコン
トローラ24とを備えている。
かかるデータ処理装置の構成を示すブロック図であり、
この装置は、装置全体の制御を行うCPU21と、CP
U21で実行される処理のプログラム等を格納するRO
M22と、CPU21の演算途中のデータ等を格納する
RAM23と、入力ペン27による入力操作パネルを構
成し、入力ペン27の接触位置を検出するディジタイザ
25と、液晶ディスプレイ26と、ディジタイザ25及
び液晶ディスプレイ26が接続され、データ入出力及び
操作入力のインターフェースとして機能するI/Oコン
トローラ24とを備えている。
【0015】図2は、CPU21で実行されるジェスチ
ャ認識処理のフローチャートである。
ャ認識処理のフローチャートである。
【0016】ステップ1では変数の初期化を行う。ここ
でいうところの変数とは、ペンの接触回数d、ペンの移
動回数m(d)、ペンの接触後の静止回数P1(d)、
ペン移動後の静止回数P2(d)であり、これらの変数
値をすべて0にすることにより初期化を行う。ここで変
数m,P1,P2はdをインデックスとする配列変数であ
り、接触回数dの上限はジェスチャの種類によって予め
定められている。
でいうところの変数とは、ペンの接触回数d、ペンの移
動回数m(d)、ペンの接触後の静止回数P1(d)、
ペン移動後の静止回数P2(d)であり、これらの変数
値をすべて0にすることにより初期化を行う。ここで変
数m,P1,P2はdをインデックスとする配列変数であ
り、接触回数dの上限はジェスチャの種類によって予め
定められている。
【0017】ステップ2では入力ペン27の静止状態を
検出する。入力ペン27がディジタイザ25に接触して
いなければI/Oコントローラ24からCPU21へは
信号が送られないので、何らかの信号が送られてくるま
での時間をCPU21が計測し、所定時間を過ぎた場合
に静止状態と判定する。ステップ3では、静止状態であ
るか否かを判断し、静止状態であればステップ14へ進
み、そうでなければステップ4へ進む。ステップ14で
は、変数d,m,P1,P2のいずれかに変化があったか
否かを判断し、あれば処理を終了し、なければステップ
2へ戻る。
検出する。入力ペン27がディジタイザ25に接触して
いなければI/Oコントローラ24からCPU21へは
信号が送られないので、何らかの信号が送られてくるま
での時間をCPU21が計測し、所定時間を過ぎた場合
に静止状態と判定する。ステップ3では、静止状態であ
るか否かを判断し、静止状態であればステップ14へ進
み、そうでなければステップ4へ進む。ステップ14で
は、変数d,m,P1,P2のいずれかに変化があったか
否かを判断し、あれば処理を終了し、なければステップ
2へ戻る。
【0018】一方、ステップ4では入力ペン27がディ
ジタイザ25に接触したか否かを判断し、接触していな
ければステップ2へ戻り、接触していればステップ5へ
進む。ステップ5ではペンの接触回数dを1増やす。ス
テップ6ではステップ2と同様にペンに静止状態を検出
する。この場合、ペン27はディジタイザ25に接触し
た状態で静止しており、この状態で一定時間経過したも
のを「プレス」と呼ぶ。
ジタイザ25に接触したか否かを判断し、接触していな
ければステップ2へ戻り、接触していればステップ5へ
進む。ステップ5ではペンの接触回数dを1増やす。ス
テップ6ではステップ2と同様にペンに静止状態を検出
する。この場合、ペン27はディジタイザ25に接触し
た状態で静止しており、この状態で一定時間経過したも
のを「プレス」と呼ぶ。
【0019】ステップ7ではプレス状態か否かを判断
し、プレス状態であればステップ15へ進み、そうでな
ければステップ8へ進む。ステップ15ではペン接触後
の静止回数P1(d)を1増やし、ステップ6へ戻る。
またステップ8では、ペンが離れたか否かを判断し、離
れたらステップ2へ戻り、そうでなければステップ9を
実行する。
し、プレス状態であればステップ15へ進み、そうでな
ければステップ8へ進む。ステップ15ではペン接触後
の静止回数P1(d)を1増やし、ステップ6へ戻る。
またステップ8では、ペンが離れたか否かを判断し、離
れたらステップ2へ戻り、そうでなければステップ9を
実行する。
【0020】ステップ9ではペン27が移動したか否か
を判断し、移動していればステップ10へ進み、そうで
なければステップ6へ戻る。ステップ10では、ペン移
動回数m(d)を1増やす。ステップ11ではステップ
2と同様にペンの静止状態を検出する。すなわち、ペン
移動後の静止状態を検出する。ステップS2では、静止
状態か否かを判断し、静止状態であればステップ16に
進み、そうでなければステップ3に進む。ステップ16
はペン移動後の静止回数P2(d)を1増やし、ステッ
プ6へ戻る。ここではペン移動後のプレスを累積してい
る。一方、ステップ13ではステップ8と同様にペンが
離れたか否かを判断し、離れていればステップ2へ戻
り、接触していればステップ11へ戻る。
を判断し、移動していればステップ10へ進み、そうで
なければステップ6へ戻る。ステップ10では、ペン移
動回数m(d)を1増やす。ステップ11ではステップ
2と同様にペンの静止状態を検出する。すなわち、ペン
移動後の静止状態を検出する。ステップS2では、静止
状態か否かを判断し、静止状態であればステップ16に
進み、そうでなければステップ3に進む。ステップ16
はペン移動後の静止回数P2(d)を1増やし、ステッ
プ6へ戻る。ここではペン移動後のプレスを累積してい
る。一方、ステップ13ではステップ8と同様にペンが
離れたか否かを判断し、離れていればステップ2へ戻
り、接触していればステップ11へ戻る。
【0021】以上の動作を終了した時点で、少なくとも
1つの変数は変化しているので、その変数の値に応じて
図3に示すように多数のジェスチャが認識できる。図3
は変数の値とジェスチャの対応を表す図であり、1回の
接触(すなわちd=1)で認識できるジェスチャが6種
類、2回以上の接触はすべて1回の接触で可能な6種類
のジェスチャの組み合わせであるので、d回の接触で可
能なジェスチャは6d種類となる。実際に使用する場合
は、その中から覚えやすく、意味のありそうなものを選
んで選択する。
1つの変数は変化しているので、その変数の値に応じて
図3に示すように多数のジェスチャが認識できる。図3
は変数の値とジェスチャの対応を表す図であり、1回の
接触(すなわちd=1)で認識できるジェスチャが6種
類、2回以上の接触はすべて1回の接触で可能な6種類
のジェスチャの組み合わせであるので、d回の接触で可
能なジェスチャは6d種類となる。実際に使用する場合
は、その中から覚えやすく、意味のありそうなものを選
んで選択する。
【0022】図3において、「タップ」はペン27がデ
ィジタイザ25に1回触れる操作、「プレス」はペン2
7をディジタイザ25に接触させ静止させる操作(ジェ
スチャの欄の黒丸が静止状態を表す)、「ドラッグ」は
ペン27をディジタイザ25に接触させたまま移動させ
る操作であり、他の操作はこれらの操作の組合せであ
る。そして、例えば接触回数dが1で、他の変数が0の
とき、「タップ」と認識され、接触回数d及び接触後の
静止回数P1が1で、他の変数が0のとき「プレス」と
認識され、接触回数d及び移動回数mが1で、他の変数
が0のとき、「ドラッグ」と認識され、接触回数d、接
触後の静止回数P1、移動回数m及び移動後の静止回数
P2がすべて1のとき、「プレス・ドラッグ・プレス」
と認識される。
ィジタイザ25に1回触れる操作、「プレス」はペン2
7をディジタイザ25に接触させ静止させる操作(ジェ
スチャの欄の黒丸が静止状態を表す)、「ドラッグ」は
ペン27をディジタイザ25に接触させたまま移動させ
る操作であり、他の操作はこれらの操作の組合せであ
る。そして、例えば接触回数dが1で、他の変数が0の
とき、「タップ」と認識され、接触回数d及び接触後の
静止回数P1が1で、他の変数が0のとき「プレス」と
認識され、接触回数d及び移動回数mが1で、他の変数
が0のとき、「ドラッグ」と認識され、接触回数d、接
触後の静止回数P1、移動回数m及び移動後の静止回数
P2がすべて1のとき、「プレス・ドラッグ・プレス」
と認識される。
【0023】本実施例では、プレスからはじまるジェス
チャを実行可能なジェスチャとして定義し、それ以外の
入力に関しては手書き文字や図形の入力として扱うこと
とし、ジェスチャと手書き文字あるいは図形の入力とを
容易に区別できるようにしている。その際、ジェスチャ
の認識を先に行うことになる。
チャを実行可能なジェスチャとして定義し、それ以外の
入力に関しては手書き文字や図形の入力として扱うこと
とし、ジェスチャと手書き文字あるいは図形の入力とを
容易に区別できるようにしている。その際、ジェスチャ
の認識を先に行うことになる。
【0024】図4はウィンドウシステムにおいてウィン
ドウマネージャの基本的な動作とジェスチャとの対応例
を示す図であり、このような設定によりプレスからはじ
まるジェスチャを用いて基本的な動作を指示することが
可能となる。
ドウマネージャの基本的な動作とジェスチャとの対応例
を示す図であり、このような設定によりプレスからはじ
まるジェスチャを用いて基本的な動作を指示することが
可能となる。
【0025】以上のように本実施例では、軌跡の形状で
はなく、接触回数d、接触後の静止回数P1、移動回数
m及び移動後の静止回数P2の組み合わせにより、ジェ
スチャを定義し、認識するようにしたので、入力領域が
手書き文字入力領域や自由手書き領域であるか否かに拘
らずジェスチャを他の文字や図形と区別して認識でき、
ウィンドウシステム全体で有効なジェスチャを定義する
ことができる。その結果、ウィンドウに固有の枠やタイ
トルバー及びそれに付随するボタンが不要となる。
はなく、接触回数d、接触後の静止回数P1、移動回数
m及び移動後の静止回数P2の組み合わせにより、ジェ
スチャを定義し、認識するようにしたので、入力領域が
手書き文字入力領域や自由手書き領域であるか否かに拘
らずジェスチャを他の文字や図形と区別して認識でき、
ウィンドウシステム全体で有効なジェスチャを定義する
ことができる。その結果、ウィンドウに固有の枠やタイ
トルバー及びそれに付随するボタンが不要となる。
【0026】(第2の実施例)本実施例におけるハード
ウェアの構成は図1に示す第1の実施例と同一である。
ウェアの構成は図1に示す第1の実施例と同一である。
【0027】本実施例では、図5に示す処理を図2のス
テップ6の代わりに使用する。その他の処理は第1の実
施例と同一である。
テップ6の代わりに使用する。その他の処理は第1の実
施例と同一である。
【0028】図6は本実施例の表示画面であり、所定時
間プレスを続けると図のようなメニューが表示され、プ
レス時間とともにゆっくりとメニューのアイテムが回転
していく様子を表している。ペン27が動くとアイテム
が選択され実行される。
間プレスを続けると図のようなメニューが表示され、プ
レス時間とともにゆっくりとメニューのアイテムが回転
していく様子を表している。ペン27が動くとアイテム
が選択され実行される。
【0029】この処理の手順を図5に沿って説明する。
ステップ51ではプレス時間を計測する変数Cを0にす
る。ステップ52ではペン27が静止しているか否かを
判断し、静止していればステップ53へ進み、そうでな
ければステップ56へ進む。ステップ53では変数Cを
1増やす。ステップ54では、変数Cが最大になったか
否かを調べ、最大ならばステップ51へ進み、そうでな
ければステップ55を実行する。ステップ55では、変
数Cの値に応じて表示するアイテムを図6に示すように
回転させ、表示する。変数Cの値が所定値より小さいと
きは何も表示せず処理を続ける。ステップ55を終了し
た場合はステップ52へ戻る。ステップ56ではペン2
7が動いたか、あるいは離れたかのいずれかの状態であ
り、その時点でメニューの最初に表示されているアイテ
ムが選択されたものとしてアイテムに対応した命令を実
行し終了する。
ステップ51ではプレス時間を計測する変数Cを0にす
る。ステップ52ではペン27が静止しているか否かを
判断し、静止していればステップ53へ進み、そうでな
ければステップ56へ進む。ステップ53では変数Cを
1増やす。ステップ54では、変数Cが最大になったか
否かを調べ、最大ならばステップ51へ進み、そうでな
ければステップ55を実行する。ステップ55では、変
数Cの値に応じて表示するアイテムを図6に示すように
回転させ、表示する。変数Cの値が所定値より小さいと
きは何も表示せず処理を続ける。ステップ55を終了し
た場合はステップ52へ戻る。ステップ56ではペン2
7が動いたか、あるいは離れたかのいずれかの状態であ
り、その時点でメニューの最初に表示されているアイテ
ムが選択されたものとしてアイテムに対応した命令を実
行し終了する。
【0030】以上のように本実施例では、ペン27の静
止(プレス)時間を示す変数Cの値に応じてメニューの
表示アイテムを回転させて表示するようにしたので、ペ
ン27を移動することなくメニューを選択することがで
きる。
止(プレス)時間を示す変数Cの値に応じてメニューの
表示アイテムを回転させて表示するようにしたので、ペ
ン27を移動することなくメニューを選択することがで
きる。
【0031】
【発明の効果】以上詳述したように請求項1記載のデー
タ処理装置又は請求項3記載のジェスチャ認識方法によ
れば、、ペンの静止状態が検出され、ペンの接触回数
と、ペンの接触後の静止回数と、ペンの移動後の静止回
数と、ペンの移動回数とが計測され、計測したペンの接
触回数、接触後の静止回数、移動後の静止回数及び移動
回数に基づいてジェスチャが認識されるので、手書き文
字入力領域等においてもジェスチャと他の文字、図形と
を区別して認識でき、しかも入力領域に拘わらず有効な
ジェスチャを定義することを可能となる。その結果、ウ
インドウに固有の枠やタイトルバー及びそれに付随する
ボタンなども不要となる。
タ処理装置又は請求項3記載のジェスチャ認識方法によ
れば、、ペンの静止状態が検出され、ペンの接触回数
と、ペンの接触後の静止回数と、ペンの移動後の静止回
数と、ペンの移動回数とが計測され、計測したペンの接
触回数、接触後の静止回数、移動後の静止回数及び移動
回数に基づいてジェスチャが認識されるので、手書き文
字入力領域等においてもジェスチャと他の文字、図形と
を区別して認識でき、しかも入力領域に拘わらず有効な
ジェスチャを定義することを可能となる。その結果、ウ
インドウに固有の枠やタイトルバー及びそれに付随する
ボタンなども不要となる。
【0032】また、請求項2記載のデータ処理装置又は
請求項4記載のジェスチャ認識方法によれば、ペンの静
止状態検出中に時間とともに変化するメニューが表示さ
れるので、ペンを移動することなくメニューの選択が可
能となる。
請求項4記載のジェスチャ認識方法によれば、ペンの静
止状態検出中に時間とともに変化するメニューが表示さ
れるので、ペンを移動することなくメニューの選択が可
能となる。
【図1】本発明の実施例にかかるデータ処理装置の構成
を示すブロック図である。
を示すブロック図である。
【図2】本発明の第1の実施例にかかるジェスチャ認識
処理のフローチャートである。
処理のフローチャートである。
【図3】変数の値と認識されるジェスチャとの関係を示
す図である。
す図である。
【図4】ウインドウマネージャの基本的動作とジェスチ
ャとの対応例を示す図である。
ャとの対応例を示す図である。
【図5】本発明の第2の実施例にかかるペンの静止検出
処理のフローチャートである。
処理のフローチャートである。
【図6】ペンの静止時間に伴うメニュー表示の変化を示
す図である。
す図である。
21 CPU 22 ROM 23 RAM 24 I/Oコントローラ 25 ディジタイザ 27 入力ペン
Claims (4)
- 【請求項1】 ペンと、ペン接触位置検出手段とを備
え、ジェスチャにより操作命令を入力可能なデータ処理
装置において、 前記ペンの静止状態を検出する静止状態検出手段と、 前記ペンの接触回数を計測する接触回数計測手段と、 前記ペンの接触後の静止回数を計測する第1の静止回数
計測手段と、 前記ペンの移動後の静止回数を計測する第2の静止回数
計測手段と、 前記ペンの移動回数を計測する移動回数計測手段と、 前記計測したペンの接触回数、接触後の静止回数、移動
後の静止回数及び移動回数に基づいてジェスチャを認識
するジェスチャ認識手段とを設けたことを特徴とするデ
ータ処理装置。 - 【請求項2】 前記ペンの静止状態検出中に時間ととも
に変化するメニューを表示するメニュー表示手段をさら
に設けたことを特徴とする請求項1記載のデータ処理装
置。 - 【請求項3】 ペンと、ペン接触位置検出手段とを備
え、ジェスチャにより操作命令を入力可能なデータ処理
装置のジェスチャ認識方法において、 前記ペンの静止状態を検出し、 前記ペンの接触回数と、前記ペンの接触後の静止回数
と、前記ペンの移動後の静止回数と、前記ペンの移動回
数とを計測し、 前記計測したペンの接触回数、接触後の静止回数、移動
後の静止回数及び移動回数に基づいてジェスチャを認識
することを特徴とするジェスチャ認識方法。 - 【請求項4】 前記ペンの静止状態検出中に時間ととも
に変化するメニューを表示することを特徴とする請求項
3記載のジェスチャ認識方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11641695A JPH08286807A (ja) | 1995-04-18 | 1995-04-18 | データ処理装置及びそのジェスチャ認識方法 |
EP96106019A EP0738950B1 (en) | 1995-04-18 | 1996-04-17 | Data processing method and apparatus using a handwriting instrument |
DE69606214T DE69606214T2 (de) | 1995-04-18 | 1996-04-17 | Datenverarbeitungsverfahren und -geräte, die eine Schreibvorrichtung verwenden |
US08/634,426 US5748926A (en) | 1995-04-18 | 1996-04-18 | Data processing method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11641695A JPH08286807A (ja) | 1995-04-18 | 1995-04-18 | データ処理装置及びそのジェスチャ認識方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH08286807A true JPH08286807A (ja) | 1996-11-01 |
Family
ID=14686540
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11641695A Pending JPH08286807A (ja) | 1995-04-18 | 1995-04-18 | データ処理装置及びそのジェスチャ認識方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US5748926A (ja) |
EP (1) | EP0738950B1 (ja) |
JP (1) | JPH08286807A (ja) |
DE (1) | DE69606214T2 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6369807B1 (en) | 1997-06-04 | 2002-04-09 | Nec Corporation | Online character entry device |
JP2006085703A (ja) * | 2004-09-13 | 2006-03-30 | Microsoft Corp | フリックジェスチャ |
JP2011090532A (ja) * | 2009-10-23 | 2011-05-06 | Rakuten Inc | 端末装置、機能実行方法、機能実行プログラム及び情報処理システム |
US8169412B2 (en) | 2007-08-01 | 2012-05-01 | Sharp Kabushiki Kaisha | Display apparatus and display method capable of adjusting position of image associated with application program by specifying commands indicative of screen size and display position |
JP2012198939A (ja) * | 2008-08-22 | 2012-10-18 | Fuji Xerox Co Ltd | 情報処理装置及びプログラム |
JP2013512505A (ja) * | 2009-11-24 | 2013-04-11 | クアルコム,インコーポレイテッド | タッチスクリーンユーザインターフェース上でコマンドを修正する方法 |
US9814033B2 (en) | 2008-02-19 | 2017-11-07 | Optis Cellular Technology, Llc | Receiving control information through PDCCH |
US10374775B2 (en) | 2007-09-13 | 2019-08-06 | Optis Cellular Technology, Llc | Method for transmitting uplink signals |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US6037937A (en) * | 1997-12-04 | 2000-03-14 | Nortel Networks Corporation | Navigation tool for graphical user interface |
WO1999028811A1 (en) * | 1997-12-04 | 1999-06-10 | Northern Telecom Limited | Contextual gesture interface |
US6310610B1 (en) | 1997-12-04 | 2001-10-30 | Nortel Networks Limited | Intelligent touch display |
JP2000122808A (ja) * | 1998-10-19 | 2000-04-28 | Fujitsu Ltd | 入力処理方法及び入力制御装置 |
US7966078B2 (en) | 1999-02-01 | 2011-06-21 | Steven Hoffberg | Network media appliance system and method |
US6897853B2 (en) * | 2000-11-10 | 2005-05-24 | Microsoft Corp. | Highlevel active pen matrix |
US7193609B2 (en) | 2002-03-19 | 2007-03-20 | America Online, Inc. | Constraining display motion in display navigation |
EP1552424A1 (en) * | 2002-08-16 | 2005-07-13 | Myorigo OY | Varying-content menus for touch screens |
US7707039B2 (en) | 2004-02-15 | 2010-04-27 | Exbiblio B.V. | Automatic modification of web pages |
US8442331B2 (en) | 2004-02-15 | 2013-05-14 | Google Inc. | Capturing text from rendered documents using supplemental information |
US7812860B2 (en) | 2004-04-01 | 2010-10-12 | Exbiblio B.V. | Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device |
US10635723B2 (en) | 2004-02-15 | 2020-04-28 | Google Llc | Search engines and systems with handheld document data capture devices |
US8081849B2 (en) | 2004-12-03 | 2011-12-20 | Google Inc. | Portable scanning and memory device |
US7894670B2 (en) | 2004-04-01 | 2011-02-22 | Exbiblio B.V. | Triggering actions in response to optically or acoustically capturing keywords from a rendered document |
US8146156B2 (en) | 2004-04-01 | 2012-03-27 | Google Inc. | Archive of text captures from rendered documents |
US20060098900A1 (en) | 2004-09-27 | 2006-05-11 | King Martin T | Secure data gathering from rendered documents |
US20060081714A1 (en) | 2004-08-23 | 2006-04-20 | King Martin T | Portable scanning device |
US9116890B2 (en) | 2004-04-01 | 2015-08-25 | Google Inc. | Triggering actions in response to optically or acoustically capturing keywords from a rendered document |
US9008447B2 (en) | 2004-04-01 | 2015-04-14 | Google Inc. | Method and system for character recognition |
US7990556B2 (en) | 2004-12-03 | 2011-08-02 | Google Inc. | Association of a portable scanner with input/output and storage devices |
WO2008028674A2 (en) * | 2006-09-08 | 2008-03-13 | Exbiblio B.V. | Optical scanners, such as hand-held optical scanners |
US9143638B2 (en) | 2004-04-01 | 2015-09-22 | Google Inc. | Data capture from rendered documents using handheld device |
US8713418B2 (en) | 2004-04-12 | 2014-04-29 | Google Inc. | Adding value to a rendered document |
US8489624B2 (en) | 2004-05-17 | 2013-07-16 | Google, Inc. | Processing techniques for text capture from a rendered document |
US8620083B2 (en) | 2004-12-03 | 2013-12-31 | Google Inc. | Method and system for character recognition |
US8874504B2 (en) | 2004-12-03 | 2014-10-28 | Google Inc. | Processing techniques for visual capture data from a rendered document |
WO2006003588A2 (en) * | 2004-06-29 | 2006-01-12 | Koninklijke Philips Electronics N.V. | Multi-layered display of a graphical user interface |
US8346620B2 (en) | 2004-07-19 | 2013-01-01 | Google Inc. | Automatic modification of web pages |
TW200744018A (en) * | 2006-05-16 | 2007-12-01 | Uniwill Comp Corp | Transmission apparatus and transmission method thereof |
US20110035662A1 (en) | 2009-02-18 | 2011-02-10 | King Martin T | Interacting with rendered documents using a multi-function mobile device, such as a mobile phone |
US20140033134A1 (en) * | 2008-11-15 | 2014-01-30 | Adobe Systems Incorporated | Various gesture controls for interactions in between devices |
KR101027566B1 (ko) * | 2008-11-17 | 2011-04-06 | (주)메디슨 | 초음파 진단기 및 초음파 진단기에서의 명령 신호 생성 방법 |
US8836645B2 (en) * | 2008-12-09 | 2014-09-16 | Microsoft Corporation | Touch input interpretation |
US8447066B2 (en) | 2009-03-12 | 2013-05-21 | Google Inc. | Performing actions based on capturing information from rendered documents, such as documents under copyright |
EP2406767A4 (en) | 2009-03-12 | 2016-03-16 | Google Inc | AUTOMATIC CONTENT SUPPLY ASSOCIATED WITH CAPTURED INFORMATION, TYPE INFORMATION CAPTURED IN REAL TIME |
US8438503B2 (en) * | 2009-09-02 | 2013-05-07 | Universal Electronics Inc. | System and method for enhanced command input |
US9081799B2 (en) | 2009-12-04 | 2015-07-14 | Google Inc. | Using gestalt information to identify locations in printed information |
US9323784B2 (en) | 2009-12-09 | 2016-04-26 | Google Inc. | Image search using text-based elements within the contents of images |
TWI496069B (zh) * | 2013-06-28 | 2015-08-11 | Insyde Software Corp | Method of Judging Electronic Device and Multi - window Touch Command |
CN111399668A (zh) | 2015-01-20 | 2020-07-10 | Otm技术有限公司 | 用于生成输入的设备和方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2536608A3 (fr) * | 1982-11-19 | 1984-05-25 | Nord Est Parisien Ste Electro | Procede de formation d'un message au moyen d'un clavier, dispositif et application s'y rapportant |
US5333209A (en) * | 1992-03-24 | 1994-07-26 | At&T Bell Laboratories | Method of recognizing handwritten symbols |
JPH0619615A (ja) * | 1992-06-29 | 1994-01-28 | Matsushita Electric Ind Co Ltd | 手書き文字入力装置 |
-
1995
- 1995-04-18 JP JP11641695A patent/JPH08286807A/ja active Pending
-
1996
- 1996-04-17 DE DE69606214T patent/DE69606214T2/de not_active Expired - Lifetime
- 1996-04-17 EP EP96106019A patent/EP0738950B1/en not_active Expired - Lifetime
- 1996-04-18 US US08/634,426 patent/US5748926A/en not_active Expired - Lifetime
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6369807B1 (en) | 1997-06-04 | 2002-04-09 | Nec Corporation | Online character entry device |
JP2006085703A (ja) * | 2004-09-13 | 2006-03-30 | Microsoft Corp | フリックジェスチャ |
US9417701B2 (en) | 2004-09-13 | 2016-08-16 | Microsoft Technology Licensing, Llc | Flick gesture |
US8169412B2 (en) | 2007-08-01 | 2012-05-01 | Sharp Kabushiki Kaisha | Display apparatus and display method capable of adjusting position of image associated with application program by specifying commands indicative of screen size and display position |
US10374775B2 (en) | 2007-09-13 | 2019-08-06 | Optis Cellular Technology, Llc | Method for transmitting uplink signals |
US11012222B2 (en) | 2007-09-13 | 2021-05-18 | Optis Cellular Technology, Llc | Method for transmitting uplink signals |
US9814033B2 (en) | 2008-02-19 | 2017-11-07 | Optis Cellular Technology, Llc | Receiving control information through PDCCH |
US10123321B2 (en) | 2008-02-19 | 2018-11-06 | Optis Cellular Technology, Llc | Decoding control information received over a control channel |
US10624081B2 (en) | 2008-02-19 | 2020-04-14 | Optis Cellular Technology, Llc | Decoding control information received over a control channel |
US11032814B2 (en) | 2008-02-19 | 2021-06-08 | Optis Cellular Technology, Llc | Decoding control information received over a control channel |
JP2012198939A (ja) * | 2008-08-22 | 2012-10-18 | Fuji Xerox Co Ltd | 情報処理装置及びプログラム |
JP2011090532A (ja) * | 2009-10-23 | 2011-05-06 | Rakuten Inc | 端末装置、機能実行方法、機能実行プログラム及び情報処理システム |
JP2013512505A (ja) * | 2009-11-24 | 2013-04-11 | クアルコム,インコーポレイテッド | タッチスクリーンユーザインターフェース上でコマンドを修正する方法 |
Also Published As
Publication number | Publication date |
---|---|
EP0738950A1 (en) | 1996-10-23 |
EP0738950B1 (en) | 2000-01-19 |
DE69606214D1 (de) | 2000-02-24 |
US5748926A (en) | 1998-05-05 |
DE69606214T2 (de) | 2000-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH08286807A (ja) | データ処理装置及びそのジェスチャ認識方法 | |
JP4828826B2 (ja) | 自動的に適応可能な仮想キーボード | |
US8957854B2 (en) | Zero-click activation of an application | |
US10331219B2 (en) | Identification and use of gestures in proximity to a sensor | |
JP3829366B2 (ja) | 入力装置、および入力方法 | |
JPH0876926A (ja) | 画像表示装置 | |
KR20100000617A (ko) | 문자 입력 장치 및 그 문자 입력 방법 | |
US9811238B2 (en) | Methods and systems for interacting with a digital marking surface | |
JP2000137571A (ja) | 手書き入力装置及び手書き入力処理プログラムを記録した記録媒体 | |
JPH04127315A (ja) | パーソナル・コンピュータ | |
JP6127401B2 (ja) | 情報処理装置、プログラム及び情報処理方法 | |
KR20180000974A (ko) | 터치스크린 장치 및 그 지문 인식 방법 | |
JPH1195912A (ja) | 座標入力装置、座標入力方法及び座標入力プログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JP6525022B2 (ja) | 携帯情報端末及びプログラム | |
US11561649B2 (en) | Operation judgment method for interactive touch system | |
JP3232537B2 (ja) | コンピュータおよびウインドウ制御方法 | |
JPH0830379A (ja) | 感圧式入力装置 | |
JPH08234907A (ja) | データ処理装置 | |
JP6455856B2 (ja) | 手書文字入力装置及びコンピュータプログラム | |
KR20010102638A (ko) | 자판 입력 시스템 및 그 입력 방법 | |
JPH0399312A (ja) | 情報処理装置 | |
JP3001764B2 (ja) | 情報入力装置および入力用ウインドウの表示制御方法と出力制御方法 | |
JP2994176B2 (ja) | 罫線入力装置 | |
JPH07160416A (ja) | 情報処理装置 | |
JPS63317817A (ja) | キ−ボ−ド制御方式 |