JPH08286807A - データ処理装置及びそのジェスチャ認識方法 - Google Patents

データ処理装置及びそのジェスチャ認識方法

Info

Publication number
JPH08286807A
JPH08286807A JP11641695A JP11641695A JPH08286807A JP H08286807 A JPH08286807 A JP H08286807A JP 11641695 A JP11641695 A JP 11641695A JP 11641695 A JP11641695 A JP 11641695A JP H08286807 A JPH08286807 A JP H08286807A
Authority
JP
Japan
Prior art keywords
pen
gesture
contact
data processing
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11641695A
Other languages
English (en)
Inventor
Ryoji Fukuda
亮治 福田
Takashi Harada
隆史 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP11641695A priority Critical patent/JPH08286807A/ja
Priority to EP96106019A priority patent/EP0738950B1/en
Priority to DE69606214T priority patent/DE69606214T2/de
Priority to US08/634,426 priority patent/US5748926A/en
Publication of JPH08286807A publication Critical patent/JPH08286807A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/36Matching; Classification

Abstract

(57)【要約】 【目的】 手書き文字入力領域等においてもジェスチャ
と他の文字、図形とを区別して認識でき、しかも入力領
域に拘わらず有効なジェスチャを定義することを可能に
したデータ処理装置及びそのジェスチャ認識方法を提供
する。 【構成】 ペン27がディジタイザ27に接触した回数
d(ステップ4、5)、接触後の静止回数P1(ステッ
プ7、15)、接触した状態での移動回数m(ステップ
8、9,10)及び移動後の静止回数P2(ステップ1
2、16)を計測する。そして、これらの計測値d,P
1,m,P2に応じて、ジェスチャを認識する(図3)。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ペンによる手書き入力
可能なデータ処理装置及びそのジェスチャ認識方法に関
する。
【0002】
【従来の技術】ペン入力可能なデータ処理装置におい
て、ジェスチャと呼ばれる、印刷業務で使われている校
正記号を取り入れたコマンド体系を用いるものは従来よ
り知られている。このようなジェスチャを用いるソフト
(例えば米国マイクロソフト社の「Windows f
or Pen Computing(登録商標)」な
ど)は、主として入力されたペンの軌跡の形状で認識す
るジェスチャを使用して、テキストの編集等の操作を行
うようにしている。
【0003】また、ウインドウの移動や拡大といった操
作は、ウインドウに付加された枠やタイトルバーに備え
られたボタン等にペンを接触させることにより行うよう
にしている。
【0004】
【発明が解決しようとする課題】しかしながら、上記従
来例では、軌跡の形状で認識するジェスチャを使用して
いるため、手書き文字入力領域や自由手書き領域でのジ
ェスチャの認識ができない、あるいは手書き文字入力領
域や自由手書き領域でジェスチャと類似した文字や図形
を入力できない、という問題があった。
【0005】そのため、従来はウインドウシステム全体
で有効なジェスチャを無効にし、各領域毎に特有のジェ
スチャを定義することで対応しており、ウインドウシス
テム全体として有効なジェスチャを定義できないという
問題があった。
【0006】本発明は上述した点に鑑みなされたもので
あり、手書き文字入力領域等においてもジェスチャと他
の文字、図形とを区別して認識でき、しかも入力領域に
拘わらず有効なジェスチャを定義することを可能にした
データ処理装置及びそのジェスチャ認識方法を提供する
ことを目的とする。
【0007】
【課題を解決するための手段】上記目的を達成するため
本発明は、ペンと、ペン接触位置検出手段とを備え、ジ
ェスチャにより操作命令を入力可能なデータ処理装置に
おいて、前記ペンの静止状態を検出する静止状態検出手
段と、前記ペンの接触回数を計測する接触回数計測手段
と、前記ペンの接触後の静止回数を計測する第1の静止
回数計測手段と、前記ペンの移動後の静止回数を計測す
る第2の静止回数計測手段と、前記ペンの移動回数を計
測する移動回数計測手段と、前記計測したペンの接触回
数、接触後の静止回数、移動後の静止回数及び移動回数
に基づいてジェスチャを認識するジェスチャ認識手段と
を設けるようにしたものである。
【0008】また、前記ペンの静止状態検出中に時間と
ともに変化するメニューを表示するメニュー表示手段を
さらに設けることが望ましい。
【0009】上記目的を達成するため本発明は、ペン
と、ペン接触位置検出手段とを備え、ジェスチャにより
操作命令を入力可能なデータ処理装置のジェスチャ認識
方法において、前記ペンの静止状態を検出し、前記ペン
の接触回数と、前記ペンの接触後の静止回数と、前記ペ
ンの移動後の静止回数と、前記ペンの移動回数とを計測
し、前記計測したペンの接触回数、接触後の静止回数、
移動後の静止回数及び移動回数に基づいてジェスチャを
認識するようにしたものである。
【0010】また、前記ペンの静止状態検出中に時間と
ともに変化するメニューを表示することが望ましい。
【0011】
【作用】請求項1記載のデータ処理装置又は請求項3記
載のジェスチャ認識方法によれば、ペンの静止状態が検
出され、ペンの接触回数と、ペンの接触後の静止回数
と、ペンの移動後の静止回数と、ペンの移動回数とが計
測され、計測したペンの接触回数、接触後の静止回数、
移動後の静止回数及び移動回数に基づいてジェスチャが
認識される。
【0012】請求項2記載のデータ処理装置又は請求項
4記載のジェスチャ認識方法によれば、ペンの静止状態
検出中に時間とともに変化するメニューが表示される。
【0013】
【実施例】以下本発明の実施例を図面を参照して説明す
る。
【0014】(第1の実施例)図1は本発明の実施例に
かかるデータ処理装置の構成を示すブロック図であり、
この装置は、装置全体の制御を行うCPU21と、CP
U21で実行される処理のプログラム等を格納するRO
M22と、CPU21の演算途中のデータ等を格納する
RAM23と、入力ペン27による入力操作パネルを構
成し、入力ペン27の接触位置を検出するディジタイザ
25と、液晶ディスプレイ26と、ディジタイザ25及
び液晶ディスプレイ26が接続され、データ入出力及び
操作入力のインターフェースとして機能するI/Oコン
トローラ24とを備えている。
【0015】図2は、CPU21で実行されるジェスチ
ャ認識処理のフローチャートである。
【0016】ステップ1では変数の初期化を行う。ここ
でいうところの変数とは、ペンの接触回数d、ペンの移
動回数m(d)、ペンの接触後の静止回数P1(d)、
ペン移動後の静止回数P2(d)であり、これらの変数
値をすべて0にすることにより初期化を行う。ここで変
数m,P1,P2はdをインデックスとする配列変数であ
り、接触回数dの上限はジェスチャの種類によって予め
定められている。
【0017】ステップ2では入力ペン27の静止状態を
検出する。入力ペン27がディジタイザ25に接触して
いなければI/Oコントローラ24からCPU21へは
信号が送られないので、何らかの信号が送られてくるま
での時間をCPU21が計測し、所定時間を過ぎた場合
に静止状態と判定する。ステップ3では、静止状態であ
るか否かを判断し、静止状態であればステップ14へ進
み、そうでなければステップ4へ進む。ステップ14で
は、変数d,m,P1,P2のいずれかに変化があったか
否かを判断し、あれば処理を終了し、なければステップ
2へ戻る。
【0018】一方、ステップ4では入力ペン27がディ
ジタイザ25に接触したか否かを判断し、接触していな
ければステップ2へ戻り、接触していればステップ5へ
進む。ステップ5ではペンの接触回数dを1増やす。ス
テップ6ではステップ2と同様にペンに静止状態を検出
する。この場合、ペン27はディジタイザ25に接触し
た状態で静止しており、この状態で一定時間経過したも
のを「プレス」と呼ぶ。
【0019】ステップ7ではプレス状態か否かを判断
し、プレス状態であればステップ15へ進み、そうでな
ければステップ8へ進む。ステップ15ではペン接触後
の静止回数P1(d)を1増やし、ステップ6へ戻る。
またステップ8では、ペンが離れたか否かを判断し、離
れたらステップ2へ戻り、そうでなければステップ9を
実行する。
【0020】ステップ9ではペン27が移動したか否か
を判断し、移動していればステップ10へ進み、そうで
なければステップ6へ戻る。ステップ10では、ペン移
動回数m(d)を1増やす。ステップ11ではステップ
2と同様にペンの静止状態を検出する。すなわち、ペン
移動後の静止状態を検出する。ステップS2では、静止
状態か否かを判断し、静止状態であればステップ16に
進み、そうでなければステップ3に進む。ステップ16
はペン移動後の静止回数P2(d)を1増やし、ステッ
プ6へ戻る。ここではペン移動後のプレスを累積してい
る。一方、ステップ13ではステップ8と同様にペンが
離れたか否かを判断し、離れていればステップ2へ戻
り、接触していればステップ11へ戻る。
【0021】以上の動作を終了した時点で、少なくとも
1つの変数は変化しているので、その変数の値に応じて
図3に示すように多数のジェスチャが認識できる。図3
は変数の値とジェスチャの対応を表す図であり、1回の
接触(すなわちd=1)で認識できるジェスチャが6種
類、2回以上の接触はすべて1回の接触で可能な6種類
のジェスチャの組み合わせであるので、d回の接触で可
能なジェスチャは6d種類となる。実際に使用する場合
は、その中から覚えやすく、意味のありそうなものを選
んで選択する。
【0022】図3において、「タップ」はペン27がデ
ィジタイザ25に1回触れる操作、「プレス」はペン2
7をディジタイザ25に接触させ静止させる操作(ジェ
スチャの欄の黒丸が静止状態を表す)、「ドラッグ」は
ペン27をディジタイザ25に接触させたまま移動させ
る操作であり、他の操作はこれらの操作の組合せであ
る。そして、例えば接触回数dが1で、他の変数が0の
とき、「タップ」と認識され、接触回数d及び接触後の
静止回数P1が1で、他の変数が0のとき「プレス」と
認識され、接触回数d及び移動回数mが1で、他の変数
が0のとき、「ドラッグ」と認識され、接触回数d、接
触後の静止回数P1、移動回数m及び移動後の静止回数
2がすべて1のとき、「プレス・ドラッグ・プレス」
と認識される。
【0023】本実施例では、プレスからはじまるジェス
チャを実行可能なジェスチャとして定義し、それ以外の
入力に関しては手書き文字や図形の入力として扱うこと
とし、ジェスチャと手書き文字あるいは図形の入力とを
容易に区別できるようにしている。その際、ジェスチャ
の認識を先に行うことになる。
【0024】図4はウィンドウシステムにおいてウィン
ドウマネージャの基本的な動作とジェスチャとの対応例
を示す図であり、このような設定によりプレスからはじ
まるジェスチャを用いて基本的な動作を指示することが
可能となる。
【0025】以上のように本実施例では、軌跡の形状で
はなく、接触回数d、接触後の静止回数P1、移動回数
m及び移動後の静止回数P2の組み合わせにより、ジェ
スチャを定義し、認識するようにしたので、入力領域が
手書き文字入力領域や自由手書き領域であるか否かに拘
らずジェスチャを他の文字や図形と区別して認識でき、
ウィンドウシステム全体で有効なジェスチャを定義する
ことができる。その結果、ウィンドウに固有の枠やタイ
トルバー及びそれに付随するボタンが不要となる。
【0026】(第2の実施例)本実施例におけるハード
ウェアの構成は図1に示す第1の実施例と同一である。
【0027】本実施例では、図5に示す処理を図2のス
テップ6の代わりに使用する。その他の処理は第1の実
施例と同一である。
【0028】図6は本実施例の表示画面であり、所定時
間プレスを続けると図のようなメニューが表示され、プ
レス時間とともにゆっくりとメニューのアイテムが回転
していく様子を表している。ペン27が動くとアイテム
が選択され実行される。
【0029】この処理の手順を図5に沿って説明する。
ステップ51ではプレス時間を計測する変数Cを0にす
る。ステップ52ではペン27が静止しているか否かを
判断し、静止していればステップ53へ進み、そうでな
ければステップ56へ進む。ステップ53では変数Cを
1増やす。ステップ54では、変数Cが最大になったか
否かを調べ、最大ならばステップ51へ進み、そうでな
ければステップ55を実行する。ステップ55では、変
数Cの値に応じて表示するアイテムを図6に示すように
回転させ、表示する。変数Cの値が所定値より小さいと
きは何も表示せず処理を続ける。ステップ55を終了し
た場合はステップ52へ戻る。ステップ56ではペン2
7が動いたか、あるいは離れたかのいずれかの状態であ
り、その時点でメニューの最初に表示されているアイテ
ムが選択されたものとしてアイテムに対応した命令を実
行し終了する。
【0030】以上のように本実施例では、ペン27の静
止(プレス)時間を示す変数Cの値に応じてメニューの
表示アイテムを回転させて表示するようにしたので、ペ
ン27を移動することなくメニューを選択することがで
きる。
【0031】
【発明の効果】以上詳述したように請求項1記載のデー
タ処理装置又は請求項3記載のジェスチャ認識方法によ
れば、、ペンの静止状態が検出され、ペンの接触回数
と、ペンの接触後の静止回数と、ペンの移動後の静止回
数と、ペンの移動回数とが計測され、計測したペンの接
触回数、接触後の静止回数、移動後の静止回数及び移動
回数に基づいてジェスチャが認識されるので、手書き文
字入力領域等においてもジェスチャと他の文字、図形と
を区別して認識でき、しかも入力領域に拘わらず有効な
ジェスチャを定義することを可能となる。その結果、ウ
インドウに固有の枠やタイトルバー及びそれに付随する
ボタンなども不要となる。
【0032】また、請求項2記載のデータ処理装置又は
請求項4記載のジェスチャ認識方法によれば、ペンの静
止状態検出中に時間とともに変化するメニューが表示さ
れるので、ペンを移動することなくメニューの選択が可
能となる。
【図面の簡単な説明】
【図1】本発明の実施例にかかるデータ処理装置の構成
を示すブロック図である。
【図2】本発明の第1の実施例にかかるジェスチャ認識
処理のフローチャートである。
【図3】変数の値と認識されるジェスチャとの関係を示
す図である。
【図4】ウインドウマネージャの基本的動作とジェスチ
ャとの対応例を示す図である。
【図5】本発明の第2の実施例にかかるペンの静止検出
処理のフローチャートである。
【図6】ペンの静止時間に伴うメニュー表示の変化を示
す図である。
【符号の説明】
21 CPU 22 ROM 23 RAM 24 I/Oコントローラ 25 ディジタイザ 27 入力ペン

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 ペンと、ペン接触位置検出手段とを備
    え、ジェスチャにより操作命令を入力可能なデータ処理
    装置において、 前記ペンの静止状態を検出する静止状態検出手段と、 前記ペンの接触回数を計測する接触回数計測手段と、 前記ペンの接触後の静止回数を計測する第1の静止回数
    計測手段と、 前記ペンの移動後の静止回数を計測する第2の静止回数
    計測手段と、 前記ペンの移動回数を計測する移動回数計測手段と、 前記計測したペンの接触回数、接触後の静止回数、移動
    後の静止回数及び移動回数に基づいてジェスチャを認識
    するジェスチャ認識手段とを設けたことを特徴とするデ
    ータ処理装置。
  2. 【請求項2】 前記ペンの静止状態検出中に時間ととも
    に変化するメニューを表示するメニュー表示手段をさら
    に設けたことを特徴とする請求項1記載のデータ処理装
    置。
  3. 【請求項3】 ペンと、ペン接触位置検出手段とを備
    え、ジェスチャにより操作命令を入力可能なデータ処理
    装置のジェスチャ認識方法において、 前記ペンの静止状態を検出し、 前記ペンの接触回数と、前記ペンの接触後の静止回数
    と、前記ペンの移動後の静止回数と、前記ペンの移動回
    数とを計測し、 前記計測したペンの接触回数、接触後の静止回数、移動
    後の静止回数及び移動回数に基づいてジェスチャを認識
    することを特徴とするジェスチャ認識方法。
  4. 【請求項4】 前記ペンの静止状態検出中に時間ととも
    に変化するメニューを表示することを特徴とする請求項
    3記載のジェスチャ認識方法。
JP11641695A 1995-04-18 1995-04-18 データ処理装置及びそのジェスチャ認識方法 Pending JPH08286807A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP11641695A JPH08286807A (ja) 1995-04-18 1995-04-18 データ処理装置及びそのジェスチャ認識方法
EP96106019A EP0738950B1 (en) 1995-04-18 1996-04-17 Data processing method and apparatus using a handwriting instrument
DE69606214T DE69606214T2 (de) 1995-04-18 1996-04-17 Datenverarbeitungsverfahren und -geräte, die eine Schreibvorrichtung verwenden
US08/634,426 US5748926A (en) 1995-04-18 1996-04-18 Data processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11641695A JPH08286807A (ja) 1995-04-18 1995-04-18 データ処理装置及びそのジェスチャ認識方法

Publications (1)

Publication Number Publication Date
JPH08286807A true JPH08286807A (ja) 1996-11-01

Family

ID=14686540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11641695A Pending JPH08286807A (ja) 1995-04-18 1995-04-18 データ処理装置及びそのジェスチャ認識方法

Country Status (4)

Country Link
US (1) US5748926A (ja)
EP (1) EP0738950B1 (ja)
JP (1) JPH08286807A (ja)
DE (1) DE69606214T2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6369807B1 (en) 1997-06-04 2002-04-09 Nec Corporation Online character entry device
JP2006085703A (ja) * 2004-09-13 2006-03-30 Microsoft Corp フリックジェスチャ
JP2011090532A (ja) * 2009-10-23 2011-05-06 Rakuten Inc 端末装置、機能実行方法、機能実行プログラム及び情報処理システム
US8169412B2 (en) 2007-08-01 2012-05-01 Sharp Kabushiki Kaisha Display apparatus and display method capable of adjusting position of image associated with application program by specifying commands indicative of screen size and display position
JP2012198939A (ja) * 2008-08-22 2012-10-18 Fuji Xerox Co Ltd 情報処理装置及びプログラム
JP2013512505A (ja) * 2009-11-24 2013-04-11 クアルコム,インコーポレイテッド タッチスクリーンユーザインターフェース上でコマンドを修正する方法
US9814033B2 (en) 2008-02-19 2017-11-07 Optis Cellular Technology, Llc Receiving control information through PDCCH
US10374775B2 (en) 2007-09-13 2019-08-06 Optis Cellular Technology, Llc Method for transmitting uplink signals

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US6037937A (en) * 1997-12-04 2000-03-14 Nortel Networks Corporation Navigation tool for graphical user interface
WO1999028811A1 (en) * 1997-12-04 1999-06-10 Northern Telecom Limited Contextual gesture interface
US6310610B1 (en) 1997-12-04 2001-10-30 Nortel Networks Limited Intelligent touch display
JP2000122808A (ja) * 1998-10-19 2000-04-28 Fujitsu Ltd 入力処理方法及び入力制御装置
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
US6897853B2 (en) * 2000-11-10 2005-05-24 Microsoft Corp. Highlevel active pen matrix
US7193609B2 (en) 2002-03-19 2007-03-20 America Online, Inc. Constraining display motion in display navigation
EP1552424A1 (en) * 2002-08-16 2005-07-13 Myorigo OY Varying-content menus for touch screens
US7707039B2 (en) 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
US7812860B2 (en) 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US10635723B2 (en) 2004-02-15 2020-04-28 Google Llc Search engines and systems with handheld document data capture devices
US8081849B2 (en) 2004-12-03 2011-12-20 Google Inc. Portable scanning and memory device
US7894670B2 (en) 2004-04-01 2011-02-22 Exbiblio B.V. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US8146156B2 (en) 2004-04-01 2012-03-27 Google Inc. Archive of text captures from rendered documents
US20060098900A1 (en) 2004-09-27 2006-05-11 King Martin T Secure data gathering from rendered documents
US20060081714A1 (en) 2004-08-23 2006-04-20 King Martin T Portable scanning device
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US9008447B2 (en) 2004-04-01 2015-04-14 Google Inc. Method and system for character recognition
US7990556B2 (en) 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
WO2008028674A2 (en) * 2006-09-08 2008-03-13 Exbiblio B.V. Optical scanners, such as hand-held optical scanners
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US8713418B2 (en) 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
US8489624B2 (en) 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
US8620083B2 (en) 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
US8874504B2 (en) 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
WO2006003588A2 (en) * 2004-06-29 2006-01-12 Koninklijke Philips Electronics N.V. Multi-layered display of a graphical user interface
US8346620B2 (en) 2004-07-19 2013-01-01 Google Inc. Automatic modification of web pages
TW200744018A (en) * 2006-05-16 2007-12-01 Uniwill Comp Corp Transmission apparatus and transmission method thereof
US20110035662A1 (en) 2009-02-18 2011-02-10 King Martin T Interacting with rendered documents using a multi-function mobile device, such as a mobile phone
US20140033134A1 (en) * 2008-11-15 2014-01-30 Adobe Systems Incorporated Various gesture controls for interactions in between devices
KR101027566B1 (ko) * 2008-11-17 2011-04-06 (주)메디슨 초음파 진단기 및 초음파 진단기에서의 명령 신호 생성 방법
US8836645B2 (en) * 2008-12-09 2014-09-16 Microsoft Corporation Touch input interpretation
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
EP2406767A4 (en) 2009-03-12 2016-03-16 Google Inc AUTOMATIC CONTENT SUPPLY ASSOCIATED WITH CAPTURED INFORMATION, TYPE INFORMATION CAPTURED IN REAL TIME
US8438503B2 (en) * 2009-09-02 2013-05-07 Universal Electronics Inc. System and method for enhanced command input
US9081799B2 (en) 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
TWI496069B (zh) * 2013-06-28 2015-08-11 Insyde Software Corp Method of Judging Electronic Device and Multi - window Touch Command
CN111399668A (zh) 2015-01-20 2020-07-10 Otm技术有限公司 用于生成输入的设备和方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2536608A3 (fr) * 1982-11-19 1984-05-25 Nord Est Parisien Ste Electro Procede de formation d'un message au moyen d'un clavier, dispositif et application s'y rapportant
US5333209A (en) * 1992-03-24 1994-07-26 At&T Bell Laboratories Method of recognizing handwritten symbols
JPH0619615A (ja) * 1992-06-29 1994-01-28 Matsushita Electric Ind Co Ltd 手書き文字入力装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6369807B1 (en) 1997-06-04 2002-04-09 Nec Corporation Online character entry device
JP2006085703A (ja) * 2004-09-13 2006-03-30 Microsoft Corp フリックジェスチャ
US9417701B2 (en) 2004-09-13 2016-08-16 Microsoft Technology Licensing, Llc Flick gesture
US8169412B2 (en) 2007-08-01 2012-05-01 Sharp Kabushiki Kaisha Display apparatus and display method capable of adjusting position of image associated with application program by specifying commands indicative of screen size and display position
US10374775B2 (en) 2007-09-13 2019-08-06 Optis Cellular Technology, Llc Method for transmitting uplink signals
US11012222B2 (en) 2007-09-13 2021-05-18 Optis Cellular Technology, Llc Method for transmitting uplink signals
US9814033B2 (en) 2008-02-19 2017-11-07 Optis Cellular Technology, Llc Receiving control information through PDCCH
US10123321B2 (en) 2008-02-19 2018-11-06 Optis Cellular Technology, Llc Decoding control information received over a control channel
US10624081B2 (en) 2008-02-19 2020-04-14 Optis Cellular Technology, Llc Decoding control information received over a control channel
US11032814B2 (en) 2008-02-19 2021-06-08 Optis Cellular Technology, Llc Decoding control information received over a control channel
JP2012198939A (ja) * 2008-08-22 2012-10-18 Fuji Xerox Co Ltd 情報処理装置及びプログラム
JP2011090532A (ja) * 2009-10-23 2011-05-06 Rakuten Inc 端末装置、機能実行方法、機能実行プログラム及び情報処理システム
JP2013512505A (ja) * 2009-11-24 2013-04-11 クアルコム,インコーポレイテッド タッチスクリーンユーザインターフェース上でコマンドを修正する方法

Also Published As

Publication number Publication date
EP0738950A1 (en) 1996-10-23
EP0738950B1 (en) 2000-01-19
DE69606214D1 (de) 2000-02-24
US5748926A (en) 1998-05-05
DE69606214T2 (de) 2000-07-13

Similar Documents

Publication Publication Date Title
JPH08286807A (ja) データ処理装置及びそのジェスチャ認識方法
JP4828826B2 (ja) 自動的に適応可能な仮想キーボード
US8957854B2 (en) Zero-click activation of an application
US10331219B2 (en) Identification and use of gestures in proximity to a sensor
JP3829366B2 (ja) 入力装置、および入力方法
JPH0876926A (ja) 画像表示装置
KR20100000617A (ko) 문자 입력 장치 및 그 문자 입력 방법
US9811238B2 (en) Methods and systems for interacting with a digital marking surface
JP2000137571A (ja) 手書き入力装置及び手書き入力処理プログラムを記録した記録媒体
JPH04127315A (ja) パーソナル・コンピュータ
JP6127401B2 (ja) 情報処理装置、プログラム及び情報処理方法
KR20180000974A (ko) 터치스크린 장치 및 그 지문 인식 방법
JPH1195912A (ja) 座標入力装置、座標入力方法及び座標入力プログラムを記録したコンピュータ読み取り可能な記録媒体
JP6525022B2 (ja) 携帯情報端末及びプログラム
US11561649B2 (en) Operation judgment method for interactive touch system
JP3232537B2 (ja) コンピュータおよびウインドウ制御方法
JPH0830379A (ja) 感圧式入力装置
JPH08234907A (ja) データ処理装置
JP6455856B2 (ja) 手書文字入力装置及びコンピュータプログラム
KR20010102638A (ko) 자판 입력 시스템 및 그 입력 방법
JPH0399312A (ja) 情報処理装置
JP3001764B2 (ja) 情報入力装置および入力用ウインドウの表示制御方法と出力制御方法
JP2994176B2 (ja) 罫線入力装置
JPH07160416A (ja) 情報処理装置
JPS63317817A (ja) キ−ボ−ド制御方式