JPH08286831A - ペン入力型電子装置及びその制御方法 - Google Patents

ペン入力型電子装置及びその制御方法

Info

Publication number
JPH08286831A
JPH08286831A JP11385595A JP11385595A JPH08286831A JP H08286831 A JPH08286831 A JP H08286831A JP 11385595 A JP11385595 A JP 11385595A JP 11385595 A JP11385595 A JP 11385595A JP H08286831 A JPH08286831 A JP H08286831A
Authority
JP
Japan
Prior art keywords
gesture
input
command
trajectory
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11385595A
Other languages
English (en)
Inventor
Takashi Harada
隆史 原田
Ryoji Fukuda
亮治 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP11385595A priority Critical patent/JPH08286831A/ja
Priority to US08/630,750 priority patent/US5798758A/en
Publication of JPH08286831A publication Critical patent/JPH08286831A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

(57)【要約】 【目的】 過去に入力したジェスチャを簡単な操作で再
利用でき、操作性を向上させたペン入力型電子装置及び
その制御方法を提供する。 【構成】 表示画面上の過去に入力したジェスチャの表
示領域(ジェスチャ表示領域)外にペン入力があると、
ジェスチャ認識を行い(S19)、ペン入力位置のオブ
ジェクトに対して認識したジェスチャに対応するコマン
ドを実行する(S21)とともに、その軌跡データと対
応するコマンドを保持する(S22,S23)。ジェス
チャ表示領域内にペン入力があると、その領域に対応す
る過去の軌跡データを再表示し(S15)、ペンの移動
(ドラッグ)にしたがって、操作対象オブジェクト上ま
で当該軌跡データを移動させ、ペンが離されると(入力
終了、S16)、当該軌跡データに対応するコマンドを
前記オブジェクトに対して実行する(S17,S1
8)。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ペンにより軌跡を入力
して操作を行うペン入力型電子装置及びその制御方法に
関する。
【0002】
【従来の技術】ペン入力型電子装置におけるジェスチャ
(印刷業務で使われている構成記号を取り入れたコマン
ド体系)による入力は、コマンドの実行と操作対象の特
定という2つの作業を同時に行えるものであり、有用な
マン・マシンインターフェースとして従来より利用され
ている。
【0003】
【発明が解決しようとする課題】しかしながら、上述し
たようにジェスチャ入力は操作対象の指定を含むため、
軌跡が入力された位置の情報が重要であり、キーボード
によるコマンド入力のように繰り返してのコマンドの実
行やヒストリの利用はできなかった。
【0004】本発明はこの点に着目してなされたもので
あり、過去に入力したジェスチャを簡単な操作で再利用
でき、操作性を向上させたペン入力型電子装置及びその
制御方法を提供することを目的とする。
【0005】
【課題を解決するための手段】上記目的を達成するため
本発明は、軌跡を入力する入力手段と、前記入力手段に
より入力された軌跡をジェスチャとして認識し、対応す
るコマンドに変換する認識手段とを備えたペン入力型電
子装置において、前記入力手段により入力されたジェス
チャの軌跡を保持する軌跡保持手段と、前記軌跡保持手
段により保持された軌跡とコマンドとを対応付ける変換
手段と、前記軌跡保持手段により保持されたジェスチャ
の軌跡を再表示する再表示手段と、操作者が前記入力手
段により、再表示されたジェスチャの中から所望のジェ
スチャを選択し、操作対象を特定すると、選択されたジ
ェスチャに対応するコマンドを特定された操作対象に対
して実行する実行手段とを設けるようにしたものであ
る。
【0006】また、前記実行手段は、操作者が順序を指
定して複数のジェスチャを選択したときは、該指定され
た順序に従って前記複数のジェスチャに対応するコマン
ドを実行することが望ましい。
【0007】さらに本発明は、軌跡を入力する入力手段
と、前記入力手段により入力された軌跡をジェスチャと
して認識し、対応するコマンドに変換する認識手段とを
備えたペン入力型電子装置の制御方法において、前記入
力手段により入力されたジェスチャの軌跡及び該軌跡に
対応するコマンドを保持し、該保持したジェスチャの軌
跡を再表示し、操作者が前記入力手段により、再表示さ
れたジェスチャの中から所望のジェスチャを選択し、操
作対象を特定すると、選択されたジェスチャに対応する
コマンドを特定された操作対象に対して実行するように
したものである。
【0008】また、操作者が順序を指定して複数のジェ
スチャを選択したときは、該指定された順序に従って前
記複数のジェスチャに対応するコマンドを実行すること
が望ましい。
【0009】
【作用】請求項1記載のペン入力型電子装置又は請求項
3記載の制御方法によれば、入力手段により入力された
ジェスチャの軌跡及び該軌跡に対応するコマンドが保持
され、該保持したジェスチャの軌跡が再表示され、操作
者が前記入力手段により、再表示されたジェスチャの中
から所望のジェスチャを選択し、操作対象を特定する
と、選択されたジェスチャに対応するコマンドが特定さ
れた操作対象に対して実行される。
【0010】請求項2記載のペン入力型電子装置又は請
求項4記載の制御方法によれば、操作者が順序を指定し
て複数のジェスチャを選択したときは、該指定された順
序に従って前記複数のジェスチャに対応するコマンドが
実行される。
【0011】
【実施例】
(第1の実施例)以下本発明の第1の実施例を図面を参
照して説明する。
【0012】図1は、本実施例にかかるペン入力型電子
装置の機能ブロック図である。同図において、1は軌跡
データを入力するための入力部、2は操作対象や軌跡デ
ータを表示する表示部、3は入力された軌跡データ並び
に過去に入力された軌跡データの表示管理を行うための
表示制御部、4は入力された軌跡をジェスチャとして認
識し、対応するコマンドに変換するためのジェスチャ認
識部、5はジェスチャ認識部4で変換されたコマンドの
実行、および過去に入力された軌跡に対応するコマンド
を実行するためのコマンド実行制御部、6は過去に入力
された軌跡データとその軌跡データが入力された際にジ
ェスチャ認識部4において認識され変換されたコマンド
を保存するための軌跡データ管理部である。
【0013】図4は、表示部2の表示画面の一例を示す
図であり、同図において「オブジェクト」は操作対象を
示す。また、以下の説明では図4に示した「過去に入力
したジェスチャの表示領域」を単に「ジェスチャ表示領
域」と呼ぶ。またジェスチャ表示領域は同図に示すよう
に複数のフィールドに分かれており、それぞれ1つのフ
ィールドに1つのジェスチャが表示されている。
【0014】なお、図1に示した装置は、実際には例え
ばプログラムに従って各種の演算処理を行うCPU、プ
ログラム等を記憶するROM、CPUによる演算に使用
するRAM、入力用ペン、ディジタイザ、液晶ディスプ
レイ等により構成され、上述した各機能ブロックの機能
が実現される。
【0015】図2は、表示制御部3で実行される処理の
フローチャートを示し、これを基に表示制御部3におけ
る処理の説明を行う。
【0016】図2のステップS1では、まずオブジェク
トの移動・消去等の際に起こるコマンド実行制御部5か
らの書換要求があるかどうかをチェックし、ある場合に
はステップS2でそれらに対応する描画コマンドを表示
部2に送る。また、書換要求がない場合にはステップS
3に進み、軌跡データ管理部6から過去に入力された軌
跡の表示に関する書換要求があるかどうかをチェック
し、ある場合にはステップS4において軌跡データ管理
部6にあるデータを基に表示部2に対し描画コマンドを
発行する。
【0017】ステップS3で書換要求がない場合にはス
テップS5に進み、軌跡入力部1からのデータを待つ。
軌跡入力部1に入力があった場合、軌跡入力部1からは
座標データが送られてくるので、まずステップS6にお
いて軌跡入力部1からの入力があったことを示すフラグ
を立てる。次にステップS7においては表示部2に対し
座標データとその点の表示コマンドを送り、ステップS
8でそのデータを内部で保持しておく。
【0018】一方、ステップS5において軌跡入力部1
からのデータがない場合、まず軌跡入力部1からの入力
があったことを示すフラグを見る(ステップS9)。こ
のときフラグが立っていればステップS10において表
示した軌跡を消去するため、ステップS8で保存した点
に対する表示消去コマンドを表示部2に送る。また、ス
テップS9でフラグが立っていないときは、直ちにステ
ップS1にもどる。
【0019】図3は本装置における全体的な処理の流れ
を示すフローチャートである。
【0020】同図においてまず、ステップS11におい
て軌跡入力部1への入力を待ち、入力があった場合には
ステップS12で座標データを表示制御部3、およびジ
ェスチャ認識部4に送る。これ以降の表示制御部3での
処理は図2を参照して説明したとおりである。ステップ
S13において、ジェスチャ認識部4ではその座標値が
ジェスチャ表示領域内かどうかを見る。ジェスチャ表示
領域内であれば入力位置のフィールドに表示されている
ジェスチャに対応する軌跡データを、軌跡データ管理部
6からコマンド実行制御部5に送る(ステップS1
4)。
【0021】つぎにステップS15において、ステップ
S14でコマンド実行制御部5に送ったデータの表示命
令を出す。このときの軌跡データの表示位置は、フィー
ルド内に表示されている軌跡と入力位置との位置関係が
保持されるように表示させる。このため、この段階では
表示部2には選択されたジェスチャが2重になって表示
される。次にステップS16において軌跡入力が終了し
たかどうかを判断する。入力が終了していなければステ
ップS15を繰り返す。これにより現在入力中の軌跡に
追随してジェスチャ表示領域の選択フィールド内のジェ
スチャが移動する。ステップS16で軌跡入力が終了し
たと判断された場合には、軌跡データ管理部6でジェス
チャとともに保持していた、そのジェスチャに対応する
コマンドを軌跡データ管理部6より取得し(ステップS
17)、それを軌跡入力が終了した位置のデータととも
にコマンド実行制御部5に渡す(ステップS18)。こ
れにより軌跡入力終了位置にあるオブジェクトに対し
て、選択したジェスチャに対応するコマンドを実行する
ことができる。
【0022】一方、ステップS13において入力位置が
ジェスチャ表示領域でない場合、ステップS19に進
み、入力された軌跡に対しジェスチャ認識を行い、ステ
ップS20ではそれに対応するコマンドとコマンドの実
行位置とをコマンド実行制御部5に送る。ステップS2
1において、コマンド実行制御部5でステップS20で
送られたコマンドを実行する。ステップS22におい
て、ジェスチャ認識部4から軌跡データ管理部6に軌跡
データと認識結果のコマンドを送り、軌跡データ管理部
6ではそれらのデータを保持する。但しステップS12
において入力された軌跡に対応するコマンドがオブジェ
クトの移動、リサイズの場合には保持しない。ステップ
S23において、軌跡データ管理部6ではステップS2
2で受け取ったデータとそれまでに保持しているデータ
を基に、表示制御部3に対しジェスチャ表示領域の更新
を依頼する。例えばジェスチャ表示領域にジェスチャを
表示するためのフイールドが10個ある場合、10個ま
でならば単純にフィールドを埋めていくだけであるが、
11個目からは表示されているもののなかから一番古い
ものを消去し、それ以外のものの表示を1フィールドず
つずらし最新のものを追加する等の処理を行う。
【0023】以上の処理により、ジェスチャ表示領域に
表示されたジェスチャの中から任意の1つを選択し、そ
れを画面上に表示されている任意のオブジェクト上まで
ドラック&ドロップすることにより、表示されていたジ
ェスチャの軌跡がペン等の入力装置に動きに追随し、入
力終了先の(ドロップした位置にある)オブジェクトに
対し、そのジェスチャが過去に入力された際に実行した
操作と同じ操作を繰り返すことができるようになる。こ
れにより、過去に入力したジェスチャを簡単な操作で再
利用でき、操作性を向上させることができる。
【0024】[第2の実施例]図5は本実施例における
処理の流れを示すフローチャートであり、前述した第1
の実施例における図3の処理に代わるものである。これ
以外の点は、第1の実施例と同一である。
【0025】図5においてまず、ステップS31におい
て軌跡入力部1への入力を待ち、入力があった場合には
ステップS32で軌跡入力部1から送られてくる一連の
座標列を受け取り、表示制御部3およびジェスチャ認識
部4に送る。これ以後の表示制御部3での処理は図2を
参照して説明したとおりである。ステップS33におい
て、ジェスチャ認識部4ではその座標列の開始点がジェ
スチャ表示領域内かどうかを見る。ステップS34では
それらの軌跡データを数字として認識を行う。ステップ
S35ではその結果が数字であるかどうかを判断し、数
字であると判断した場合には、ステップS36におい
て、現在入力の行われたフィールドに表示されている軌
跡データとそれが入力された際にジェスチャ認識部4に
おいて得られたコマンドを、軌跡データ管理部6より取
得する。ステップS37では軌跡データ管理部6より取
得した軌跡データを画面の任意の位置にステップS34
で得られた数字とともに表示する。このとき数字付きの
軌跡データが複数ある場合には、数字順に順番に表示す
る。またステップS38ではステップS36で得られた
コマンドを、ステップS34で得られた数字とともに保
持し(以下ではこれを「実行待ちコマンド」と呼び、実
行待ちコマンドを数字順に並べたものを「実行待ちコマ
ンドリスト」と呼ぶ)、実行待ちコマンドリストを生
成、或いは更新する。以上のステップS34からステッ
プS38までの処理をジェスチャ表示領域内に入力があ
る限り続ける。
【0026】ステップS33において、軌跡入力の開始
点がジェスチャ表示領域外の場合には、さらにステップ
S39において軌跡データに対しジェスチャ認識を行
う。
【0027】ステップS40ではステップS39の結果
を判断する。ステップS40においてオブジェクトの選
択ジェスチャであると判断された場合には、次にステッ
プS41において実行待ちコマンドリストの有無を調べ
る。リストが存在する場合には、ステップS42におい
て実行待ちコマンドリストとオブジェクト選択ジェスチ
ャのホットポイント(操作対象位置)をコマンド実行制
御部5に渡す。ステップS43ではコマンド実行制御部
5において実行待ちコマンドリスト内のコマンドをそれ
に付加されている順番に1つずつ実行する。ステップS
41において実行待ちコマンドリストがない場合には、
ステップS44において選択されたオブジェクトを実行
対象オブジェクトとして保持する。
【0028】ステップS40でコマンド実行ジェスチャ
であると判断された場合には、まずステップS45で実
行対象オブジェクトがあるかどうかを調べる。実行対象
オブジェクトがある場合には、前記ステップS42,S
43の処理を行い、ない場合には直ちにステップS31
にもどる。
【0029】以上の処理により以下のようなことが可能
になる。すなわち画面のジェスチャ表示領域に表示され
ているジェスチャ上に実行させたい順番(の数字)を上
書きし、最後にそれらのジェスチャを効かせたいオブジ
ェクトを選択することで、それらのジェスチャに対応す
るコマンドを操作者が指示した順番に実行させることが
できる。また逆に、オブジェクトを先に選択しておき、
つぎに実行させたいコマンドに対応するジェスチャの上
に、実行する順番(を指示する数字)を書き込む。そし
て指示順コマンド実行ジェスチャを入力することで、選
択されたジェスチャに対応する一連のコマンドを操作者
の指示する順番に実行させることができる。これによ
り、複数のコマンドを実行させる場合における操作性を
さらに向上させることができる。
【0030】
【発明の効果】以上詳述したように請求項1記載のペン
入力型電子装置又は請求項3記載の制御方法によれば、
入力手段により入力されたジェスチャの軌跡及び該軌跡
に対応するコマンドが保持され、該保持したジェスチャ
の軌跡が再表示され、操作者が前記入力手段により、再
表示されたジェスチャの中から所望のジェスチャを選択
し、操作対象を特定すると、選択されたジェスチャに対
応するコマンドが特定された操作対象に対して実行され
るので、過去に入力したジェスチャを簡単な操作で再利
用でき、操作性を向上させることができる。
【0031】請求項2記載のペン入力型電子装置又は請
求項4記載の制御方法によれば、操作者が順序を指定し
て複数のジェスチャを選択したときは、該指定された順
序に従って前記複数のジェスチャに対応するコマンドが
実行されるので、複数のコマンドを実行させる場合にお
ける操作性をさらに向上させることができる。
【図面の簡単な説明】
【図1】本発明の第1の実施例にかかるペン入力型電子
装置の機能ブロック図である。
【図2】図1の表示制御部における処理のフローチャー
トである。
【図3】図1の装置における処理の流れを示すフローチ
ャートである。
【図4】図1の表示部の表示画面の一例を示す図であ
る。
【図5】本発明の第2の実施例にかかるペン入力型電子
装置における処理の流れを示すフローチャートである。
【符号の説明】
1 軌跡入力部 2 表示部 3 表示制御部 4 ジェスチャ認識部 5 コマンド実行制御部 6 軌跡データ管理部

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 軌跡を入力する入力手段と、前記入力手
    段により入力された軌跡をジェスチャとして認識し、対
    応するコマンドに変換する認識手段とを備えたペン入力
    型電子装置において、 前記入力手段により入力されたジェスチャの軌跡及び該
    軌跡に対応するコマンドを保持する保持手段と、 該保持手段により保持されたジェスチャの軌跡を再表示
    する再表示手段と、 操作者が前記入力手段により、再表示されたジェスチャ
    の中から所望のジェスチャを選択し、操作対象を特定す
    ると、選択されたジェスチャに対応するコマンドを特定
    された操作対象に対して実行する実行手段とを設けたこ
    とを特徴とするペン入力型電子装置。
  2. 【請求項2】 前記実行手段は、操作者が順序を指定し
    て複数のジェスチャを選択したときは、該指定された順
    序に従って前記複数のジェスチャに対応するコマンドを
    実行することを特徴とする請求項1記載のペン入力型電
    子装置。
  3. 【請求項3】 軌跡を入力する入力手段と、前記入力手
    段により入力された軌跡をジェスチャとして認識し、対
    応するコマンドに変換する認識手段とを備えたペン入力
    型電子装置の制御方法において、 前記入力手段により入力されたジェスチャの軌跡及び該
    軌跡に対応するコマンドを保持し、 該保持したジェスチャの軌跡を再表示し、 操作者が前記入力手段により、再表示されたジェスチャ
    の中から所望のジェスチャを選択し、操作対象を特定す
    ると、選択されたジェスチャに対応するコマンドを特定
    された操作対象に対して実行することを特徴とするペン
    入力型電子装置の制御方法。
  4. 【請求項4】 操作者が順序を指定して複数のジェスチ
    ャを選択したときは、該指定された順序に従って前記複
    数のジェスチャに対応するコマンドを実行することを特
    徴とする請求項3記載のペン入力型電子装置の制御方
    法。
JP11385595A 1995-04-14 1995-04-14 ペン入力型電子装置及びその制御方法 Pending JPH08286831A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP11385595A JPH08286831A (ja) 1995-04-14 1995-04-14 ペン入力型電子装置及びその制御方法
US08/630,750 US5798758A (en) 1995-04-14 1996-04-10 Gesture-based data processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11385595A JPH08286831A (ja) 1995-04-14 1995-04-14 ペン入力型電子装置及びその制御方法

Publications (1)

Publication Number Publication Date
JPH08286831A true JPH08286831A (ja) 1996-11-01

Family

ID=14622770

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11385595A Pending JPH08286831A (ja) 1995-04-14 1995-04-14 ペン入力型電子装置及びその制御方法

Country Status (2)

Country Link
US (1) US5798758A (ja)
JP (1) JPH08286831A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7184592B2 (en) 2001-09-19 2007-02-27 Ricoh Company, Ltd. Information processing apparatus, method of controlling the same, and program for causing a computer to execute such a method
JP2016042394A (ja) * 2016-01-04 2016-03-31 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
US9619141B2 (en) 2011-06-07 2017-04-11 Sony Corporation Information processing terminal and method, program, and recording medium

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
JP4356847B2 (ja) * 1995-11-10 2009-11-04 万太郎 矢島 フィールド定義情報生成方法、ならびび、フィールド定義情報生成装置
EP0849697B1 (en) * 1996-12-20 2003-02-12 Hitachi Europe Limited A hand gesture recognition system and method
US6157372A (en) * 1997-08-27 2000-12-05 Trw Inc. Method and apparatus for controlling a plurality of controllable devices
US6950534B2 (en) * 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US20010008561A1 (en) * 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US6396523B1 (en) 1999-07-29 2002-05-28 Interlink Electronics, Inc. Home entertainment device remote control
WO2001026090A1 (en) * 1999-10-07 2001-04-12 Interlink Electronics, Inc. Home entertainment device remote control
US7302641B1 (en) * 1999-12-03 2007-11-27 Mantaro Yajima Information processing method and apparatus for making document
US6765557B1 (en) 2000-04-10 2004-07-20 Interlink Electronics, Inc. Remote control having touch pad to screen mapping
US20040125076A1 (en) * 2001-06-08 2004-07-01 David Green Method and apparatus for human interface with a computer
US7200803B2 (en) * 2002-06-27 2007-04-03 Microsoft Corporation System and method for visually categorizing electronic notes
JP2005084862A (ja) * 2003-09-08 2005-03-31 Digital Electronics Corp 表示装置、そのカスタマイズ方法及びカスタマイズプログラムが記録されたコンピュータ読み取り可能な記録媒体
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
US7707039B2 (en) 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US10635723B2 (en) 2004-02-15 2020-04-28 Google Llc Search engines and systems with handheld document data capture devices
US7812860B2 (en) 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US20060081714A1 (en) 2004-08-23 2006-04-20 King Martin T Portable scanning device
US8146156B2 (en) 2004-04-01 2012-03-27 Google Inc. Archive of text captures from rendered documents
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US20060098900A1 (en) 2004-09-27 2006-05-11 King Martin T Secure data gathering from rendered documents
US8081849B2 (en) 2004-12-03 2011-12-20 Google Inc. Portable scanning and memory device
US7990556B2 (en) 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
US9008447B2 (en) 2004-04-01 2015-04-14 Google Inc. Method and system for character recognition
US7894670B2 (en) 2004-04-01 2011-02-22 Exbiblio B.V. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US8713418B2 (en) 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
US8620083B2 (en) 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
US8874504B2 (en) 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
US8489624B2 (en) 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
US9021529B2 (en) 2004-07-15 2015-04-28 Microsoft Technology Licensing, Llc Content recordation techniques
US8346620B2 (en) 2004-07-19 2013-01-01 Google Inc. Automatic modification of web pages
US7583819B2 (en) * 2004-11-05 2009-09-01 Kyprianos Papademetriou Digital signal processing methods, systems and computer program products that identify threshold positions and values
JP4397347B2 (ja) * 2005-04-26 2010-01-13 アルプス電気株式会社 入力装置
US7487461B2 (en) * 2005-05-04 2009-02-03 International Business Machines Corporation System and method for issuing commands based on pen motions on a graphical keyboard
EP2067119A2 (en) 2006-09-08 2009-06-10 Exbiblio B.V. Optical scanners, such as hand-held optical scanners
US7924271B2 (en) * 2007-01-05 2011-04-12 Apple Inc. Detecting gestures on multi-event sensitive devices
JP4787782B2 (ja) * 2007-03-30 2011-10-05 富士通コンポーネント株式会社 機器操作システム、制御装置
JP5005413B2 (ja) * 2007-04-09 2012-08-22 株式会社東海理化電機製作所 車載機器制御装置
WO2010096193A2 (en) 2009-02-18 2010-08-26 Exbiblio B.V. Identifying a document by performing spectral analysis on the contents of the document
EP2406767A4 (en) 2009-03-12 2016-03-16 Google Inc AUTOMATIC CONTENT SUPPLY ASSOCIATED WITH CAPTURED INFORMATION, TYPE INFORMATION CAPTURED IN REAL TIME
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
US9250788B2 (en) * 2009-03-18 2016-02-02 IdentifyMine, Inc. Gesture handlers of a gesture engine
US9081799B2 (en) 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
JP2011128962A (ja) * 2009-12-18 2011-06-30 Canon Inc 画像処理装置、画像処理方法、及びコンピュータプログラム
EP2577436A4 (en) * 2010-06-01 2016-03-30 Nokia Technologies Oy METHOD, DEVICE AND SYSTEM FOR RECEIVING USER DEVICES
CN102713822A (zh) 2010-06-16 2012-10-03 松下电器产业株式会社 信息输入装置、信息输入方法以及程序
WO2012075629A1 (en) * 2010-12-08 2012-06-14 Nokia Corporation User interface
WO2013074866A1 (en) * 2011-11-16 2013-05-23 Flextronics Ap, Llc Feature recognition for configuring a vehicle console and associated devices
TWI552892B (zh) * 2015-04-14 2016-10-11 鴻海精密工業股份有限公司 車輛控制系統及其操作方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4648064A (en) * 1976-01-02 1987-03-03 Morley Richard E Parallel process controller
US4701845A (en) * 1984-10-25 1987-10-20 Unisys Corporation User interface processor for computer network with maintenance and programmable interrupt capability
US4695941A (en) * 1985-07-29 1987-09-22 General Electric Company Loss of electrical feedback detector
US5535331A (en) * 1987-09-04 1996-07-09 Texas Instruments Incorporated Processor condition sensing circuits, systems and methods
US5179702A (en) * 1989-12-29 1993-01-12 Supercomputer Systems Limited Partnership System and method for controlling a highly parallel multiprocessor using an anarchy based scheduler for parallel execution thread scheduling
US5063600A (en) * 1990-05-14 1991-11-05 Norwood Donald D Hybrid information management system for handwriting and text
US5347295A (en) * 1990-10-31 1994-09-13 Go Corporation Control of a computer through a position-sensed stylus
US5398310A (en) * 1992-04-13 1995-03-14 Apple Computer, Incorporated Pointing gesture based computer note pad paging and scrolling interface
US5483468A (en) * 1992-10-23 1996-01-09 International Business Machines Corporation System and method for concurrent recording and displaying of system performance data

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7184592B2 (en) 2001-09-19 2007-02-27 Ricoh Company, Ltd. Information processing apparatus, method of controlling the same, and program for causing a computer to execute such a method
US9619141B2 (en) 2011-06-07 2017-04-11 Sony Corporation Information processing terminal and method, program, and recording medium
US9665273B2 (en) 2011-06-07 2017-05-30 Sony Corporation Information processing terminal and method, program, and recording medium
JP2016042394A (ja) * 2016-01-04 2016-03-31 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体

Also Published As

Publication number Publication date
US5798758A (en) 1998-08-25

Similar Documents

Publication Publication Date Title
JPH08286831A (ja) ペン入力型電子装置及びその制御方法
US5742285A (en) Virtual screen display system
JPH10154060A (ja) マルチウィンドウ表示処理装置および表示装置制御プログラムを記録した媒体
JP2003140791A (ja) 情報処理装置及び情報処理装置の制御方法
JPH06324668A (ja) 画面表示方法及び表示装置
JPH064834U (ja) データ処理装置
JPH0778215A (ja) 業務プログラムの実行方法
JP2972560B2 (ja) 表形式データの表示制御方法
JPH10222689A (ja) 図形表示方法及び装置及び図形表示プログラムを格納した記憶媒体
JPH04328626A (ja) 情報処理装置
JPH09146894A (ja) 携帯型情報機器及びデータ表示方法
JPH05189187A (ja) マルチウィンドウ表示方式
JPH0540590A (ja) マルチウインドウ表示方法及びその装置
JPH08329192A (ja) 情報処理装置及びその方法
JPH02111995A (ja) 複数カーソルによる入力データ処理表示方法
JP2981563B2 (ja) 電子機器
JPH09282132A (ja) マルチウインドウ表示装置
JP2843077B2 (ja) キーボードと位置入力装置を併用した情報処理装置
JPH08180107A (ja) スケジュール情報処理装置及びスケジュール情報管理方法
JPH02266484A (ja) 情報認識装置
JPH07210360A (ja) コマンド選択方式
JPH06309093A (ja) 手書き入力装置
JPH11327633A (ja) プラントオペレーション装置及びその装置の処理プログラムを記録する記録媒体
JPH0895739A (ja) Cad装置
JPH07219735A (ja) Guiパーツレイアウト装置および方法