JPH09101874A - 表示制御方法 - Google Patents
表示制御方法Info
- Publication number
- JPH09101874A JPH09101874A JP26047895A JP26047895A JPH09101874A JP H09101874 A JPH09101874 A JP H09101874A JP 26047895 A JP26047895 A JP 26047895A JP 26047895 A JP26047895 A JP 26047895A JP H09101874 A JPH09101874 A JP H09101874A
- Authority
- JP
- Japan
- Prior art keywords
- pen
- gesture
- icon
- display
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
タの表示制御方法に関し、ユーザーが操作の過程を直感
的に認識しやすい表示制御方法を提供することを目的と
する。 【解決手段】 ペン2の画面上での座標とタブレット4
との接触の有無を検出し、アイコンを移動させるときに
はペン2により所望のアイコンを選択した後、ペン2を
タブレット4から離間させることにより、選択したアイ
コンに影を付けあたかもペン2によりアイコンを持ち上
げているかのように表示を行い、また、アイコンを削除
するときにはペン2でアイコンを切断する動作をするこ
とによりアイコンに切断線を表示して、直感的に操作を
把握できるようにする。
Description
り、特に、ペンを入力デバイスとして用いるコンピュー
タの表示制御方法に関する。近年、携帯型情報端末機器
の入力デバイスとしてペン型の入力デバイスを装備した
機器が増えている。これはペン型の入力デバイスがキー
ボードと違い入力方法が人間の感覚に合致しているため
である。
ィングデバイスとしても有効に使用でき、今後、入力イ
ンタフェースとしての活用が期待されている。
かりやすいインタフェースを実現するためにアイコン等
の図形を用いて使用者とのやりとりを行ういわゆるGU
I(Graphical User Interfac
e)なるインタフェースが用いられている。従来のGU
Iでは様々なメタファーを用いて操作性を向上させてい
た。
Iではユーザーが行なっている操作の過程が表示に反映
されていなかったため、操作が処理のどの段階にあるか
が直感的に認識できないなどの問題点があった。
で、ユーザーが操作の過程を直感的に認識しやすい表示
制御方法を提供することを目的とする。
面表示されたオブジェクトを指示手段により直接指示す
ることにより該オブジェクトを処理する情報処理装置に
おいて、前記指示手段の位置を検出する検出手段と、前
記検出手段により検出された前記指示手段の動きに応じ
て前記オブジェクトの表示を制御する表示制御手段とを
有し、前記オブジェクトの表示をオブジェクトの処理の
進行に従って順次変更することを特徴とする。
オブジェクトの処理の進行に従って順次変更することに
より、オブジェクトの処理状況を順次把握できるため、
処理状況を直感的に把握できる。請求項2は、オブジェ
クトを選択したときにオブジェクトに影を付与すること
を特徴とする。
たときに選択されたオブジェクトに影を付けることによ
り、選択されたオブジェクトが画面から浮き上がって表
示され、選択したオブジェクトを直感的に把握できる。
請求項3は、オブジェクトを削除するときにオブジェク
トに切断線を表示することを特徴とする。
るときにオブジェクトに切断線を表示することにより、
オブジェクトが画面上で切断されたかのように表示され
るため、オブジェクトを削除する処理を直感的に把握で
きる。請求項4は、オブジェクトを削除するときには指
示手段によりオブジェクトを切断する動作を行うことを
特徴とする。
るときには指示手段によりオブジェクトを切断する動作
を行うことによりオブジェクトが削除されるため、オブ
ジェクトを削除する処理を直感的な動作で実行できる。
請求項5は、オブジェクトを移動させるときに指示手段
によりオブジェクトを選択した後、指示手段を画面より
離間させることによりオブジェクトに影を付け、前記指
示手段の移動に応じて前記オブジェクトを移動させるこ
とを特徴とする。
せるときには指示手段によりオブジェクトを選択した
後、指示手段を画面より離間させることによりオブジェ
クトに影を付け、指示手段の移動に応じて前記オブジェ
クトを移動させるため、指示手段によりオブジェクトを
持ち上げて移動させているかのような表示が行われ、従
って、オブジェクトの移動を直感的に把握できる。
は指示手段によりオブジェクトを囲む動作であることを
特徴とする。請求項6によれば、オブジェクトを選択す
る動作を指示手段によりオブジェクトを囲む動作とする
ことにより、選択するオブジェクトを丸で囲むような感
覚でオブジェクトの選択が行えるため、オブジェクトの
選択を直感的に実施できる。
ク構成図を示す。本実施例のコンピュータ1は、ペン型
の入力デバイスを有するシステムで、ユーザーが処理の
指示を行うためのペン2、ペン2の状態を検出するため
のタブレット3、処理情報やアイコンなどの表示を行う
ためのディスプレイ4、タブレット3により認識したペ
ン2の状態に応じてディスプレイ4に表示されたオブジ
ェクトに映像効果を付与するとともに各種処理を実行す
るCPU5、処理データなどを保持するメモリ6等より
構成されている。
ットよりなり、ペン2の先端のタブレット3の表面への
接触及び非接触時の位置及びペン2のタブレット3の表
面への接触・非接触を検知できる構成とされている。タ
ブレット3で検出されたペン2の状態はCPU5に供給
される。ディスプレイ4は、例えばLCD(Liqui
d Crystal Display;液晶ディスプレ
イ)よりなり、CPU5、又は、メモリ6から供給され
る表示データに応じた画像を表示する。
ン2の状態に関する情報が供給され、タブレット3から
供給されたペン2の状態の情報に応じて後述するように
オブジェクトの移動・削除などを処理を実行し、ディス
プレイ4に表示するオブジェクトの表示制御する。
ロック図を示す。CPU5は、タブレット3から供給さ
れるペン2の状態を示す情報からペン2の状態を認識す
るペン状態認識部11、ペン状態認識部11で認識した
ペン2の状態に応じてユーザーが指示したジェスチャコ
マンドを認識するジェスチャ認識部12、ジェスチャ認
識部12で認識されたジェスチャコマンドに応じて操作
対象(オブジェクト)を選択するオブジェクト選択部1
3、オブジェクト選択部13で選択されたオブジェクト
に対してジェスチャコマンドに応じたビジュアルエフェ
クトをかけるビジュアルエフェクト部14より構成され
る。
リ6に設定されたジェスチャ操作管理表21により管理
されている。図3に本発明の一実施例のジェスチャ動作
を管理する管理表の構成図を示す。図3(A)は、ジェ
スチャ操作管理表21の構成図、図3(B)は、ジェス
チャ操作を管理するポインタ管理表22の構成図を示
す。
作が格納されたジェスチャ項目a、ジェスチャに応じた
映像効果が格納された映像効果項目b、次のジェスチャ
が認識されるまでに実行される処理が格納された経過処
理項目cより構成され、一連のジェスチャ毎に、処理順
に格納されている。図3(A)には2種類の移動処理
(1)、(2)と削除処理との3種類の処理が登録され
ている。
認識すべき操作を示しており、ここでは、選択(1)、
(2)、切断(1)、(2)、ポイント(1)、(2)
が示されている。選択(1)は、オブジェクト(アイコ
ン)に接触しているペン2をタブレット3を介してディ
スプレイ4面から離間させる動作によりアイコンを選択
するジェスチャを示している。また、選択(2)は、タ
ブレット3を介してディスプレイ4面にペン2を接触さ
せた状態で、アイコンの周囲を囲むジェスチャを示して
いる。選択(1)、(2)のジェスチャによりアイコン
を選択することができる。
に横切る動作を、切断(2)は、アイコンを左から右に
横切るジェスチャを示している。切断(1)、(2)に
よりアイコンが上下に切断することができる。ポイント
(1)は、ペン2をタブレット3を介してディスプレイ
4面に接触させる動作を示している。ポイント2は、ペ
ン2をタブレット3を介してディスプレイ4面より離す
動作を示している。ポイント(1)、(2)のジェスチ
ャによりアイコンのポインティングをできる。
認識されたジェスチャに応じて実施する映像効果が設定
されている。映像効果としては、アイコンに影を付ける
表示、アイコンの影を消去する表示、元のアイコン位置
を破線にする表示、アイコンを実線化する表示、アイコ
ンに斜めに切断線を入れる表示、アイコンに十字に切断
線を入れ、アイコンを消去する表示が設定されている。
れるまでに実行すべき処理が設定されている。経過処理
cに設定される処理としては、アイコンの移動を可能と
するアイコン移動処理、次のジェスチャを有効とする時
間を設定するタイマーを起動するタイマー起動処理が設
定されている。
ジェスチャ操作名d、次に認識すべきジェスチャを認識
するための次認識ジェスチャ項目eより構成され、現在
処理中のジェスチャと次に認識すべきジェスチャとが管
理されている。図4に本発明の一実施例の並列動作を管
理する管理表の構成図を示す。図4(A)は、ジェスチ
ャ項目aの各ジェスチャの動作状態を管理する認識ジェ
スチャ表23の構成図、図4(B)は、経過処理項目c
の処理の動作状態を管理するための経過処理管理表24
の構成図を示す。
管理表21のジェスチャ項目aに設定された選択
(1)、(2)、切断(1)、(2)、ポイント
(1)、(2)が次に実行可能か否かを示す有効フラグ
f、認識処理を初期状態から行う必要があるか否かを示
すリセットフラグg、ジェスチャの認識が成功したか否
かを示す認識成功フラグh、認識した対象とするオブジ
ェクトを示す選択オブジェクトポインタiより構成され
る。
能な項目はセット(`1`)され、ジェスチャが実行不
可能な項目はリセット(`0`)される。すなわち、次
に実行されるべきジェスチャを示している。また、リセ
ットフラグgは、ジェスチャの認識が行われていないと
きにはセット(`1`)され、ジェスチャの認識が実行
されている最中にはリセット(`0`)される。
認識処理が行われ、ジェスチャが認識されたときにはセ
ット(`1`)され、ジェスチャが認識できなっかたと
き、及び、通常はリセット(`0`)されている。選択
オブジェクトポインタiは、ジェスチャによって認識さ
れたオブジェクト(アイコン)を呼び出すためのポイン
タを登録する。
理表21の経過処理項目cに設定されたアイコン移動、
タイマ起動などの処理項目毎に処理の有無を示す有効フ
ラグj,次の処理が実行の有無を示す不成功フラグkよ
り構成される。有効フラグjは、ジェスチャが認識され
て経過処理が行われるときは、セット(`1`)され
て、処理が実行されていないときには、リセット(`0
`)される。
理の実行が実行不可能になったときに、セット(`1
`)され、通常はリセット状態(`0`)に保持され
る。例えば、タイマ起動時に一定時間経過しても次のジ
ェスチャが認識されないときにセットされる。後述する
ように、この不成功フラグkがセットされたときにはシ
ステム全体が初期化されて、システムが待ち状態に陥ら
ないように構成されている。
図5に本発明の一実施例の移動処理(1)の動作説明図
を示す。移動処理(1)では、最初に選択(1)ジェス
チャを認識しようと試みる。ここで、選択(1)ジェス
チャは、図5(A)に示すようにディスプレイ4に表示
されたアイコン31等のオブジェクトにタブレット3を
介してタッチしているペン2を画面から離す動きであ
る。なお、ペン2が指示している位置は、画面上にペン
カーソル32として表示される。ペンカーソル32は、
例えば、白抜きの矢印として画面表示される。
にポインタ管理表22のジェスチャ操作名dが移動処理
(1)に設定され、次認識ジェスチャ項目eがジェスチ
ャ操作管理表21の移動処理(1)のジェスチャ項目a
の2段目を示す`2`が設定される。また、ジェスチャ
操作管理表21の映像効果項目bが実施され、図5
(B)に示すように映像効果としてアイコン31に影3
3が付けられる。このときの経過処理cとしては次のジ
ェスチャであるポイント(1)ジェスチャが認識される
まで、アイコン31をペン2の位置に応じて移動させる
処理が実施される。ここで、ポイント(1)ジェスチャ
は、ペン2を画面に接触させる動作である。
れると、アイコン31に付けられた影33を消去し、ア
イコン31の移動が停止される。このとき、移動処理
(1)では、図5(C)に示すようにアイコン31の移
動が停止したときに元のアイコン位置にアイコン31`
を破線で表示させる。ここで、一定時間内に図5(D)
に示すように再びペン2により元の位置の破線のアイコ
ン31`を接触したときには、元のアイコン位置に元の
アイコン31`を再び実線として表示させ、アイコンの
複写が行える構成とされている。このため、ポイント
(1)ジェスチャ認識時に経過処理cとしてタイマーが
起動され、次のジェスチャである選択(1)ジェスチャ
がタイマーが切れる前に実施されたときには、映像効果
項目bのアイコン31の実線化が行われる。
図6に本発明の一実施例の移動処理(2)の動作説明図
を示す。移動処理(2)では、図6(A)に示すように
選択(2)によりペン2をディスプレイ面に接触させず
に移動させようとするアイコン31の周囲を囲むように
動かすことによりアイコン31の選択が行われ、図6
(B)に示すように選択されたアイコン31に影33が
付けられる。このとき、タイマーが起動され、一定時間
内に次のジェスチャであるポイント(1)が認識されれ
ば、図6(C)に示すようにアイコン31が元の位置P
0からポイント(1)で指示された位置P1にアイコン
31が移動される。
ャも実施されないときには、映像効果としてアイコンに
付けられた影33が消去される。ポイント(1)のジェ
スチャによりアイコン31が移動された場合には、次に
ポイント(2)のジェスチャの認識を待機する。ここ
で、ポイント(2)のジェスチャが実施されると図6
(D)に示されるようにアイコン31に映像効果として
付けられた影が消去される。
本発明の一実施例の削除処理の動作説明図を示す。削除
処理は、切断(1)、(2)の2つのジェスチャにより
実現されている。まず、図7(A)に示すようにペン2
をアイコン31上を右から左に横切らせる切断(1)ジ
ェスチャにより図7(B)に示すように映像効果として
削除しようとするアイコン31に切断線34が表示され
る。このとき、経過処理としてタイマーが起動され、一
定時間内にペン2をアイコン31上を左から右に横切ら
せる切断(2)ジェスチャを認識すれば、図7(C)に
示すように切断線34に加えて切断線35を表示して、
アイコン31を削除する。
(D)に示すアイコン31の周囲を囲むようにペン2を
移動させる選択(2)のジェスチャを行うことにより、
切断線34が消去され、元の状態に復元される。さら
に、一定時間経過しても切断(2)又は選択(2)のジ
ェスチャが行われないときには、切断線34が消去さ
れ、元の状態に復元される。
削除処理は、メモリ6に保持されたジェスチャ操作管理
表21、ポインタ管理表22、認識ジェスチャ表23、
経過処理管理表24に従ってCPU5が動作されること
により実行される。図8に本発明の一実施例のCPUの
動作フローチャートを示す。
6に格納されたポインタ管理表22、認識ジェスチャ表
23、経過処理管理表24を初期化する(ステップS1
−1)。次に、CPU5は、ペン状態認識部11により
タブレット3からの情報を取得し、ディスプレイ4上で
のペン2の状態情報を取得する(ステップS1−2)。
によりステップS1−2で取得したペン2の情報から後
述する認識処理によりユーザーの行ったジェスチャを認
識する(ステップS1−3〜S1−8)。CPU5は、
ジェスチャを認識すると、ジェスチャ操作管理表21を
検索し、ジェスチャ操作管理表21に設定された経過処
理を実施すると共に認識ジェスチャ表23の内容を更新
する(ステップS1−9、S1−10)。
チャに応じてジェスチャ操作管理表21に設定された映
像効果を表示し、ステップS1−2に戻る(ステップS
1−13)。なお、認識されたジェスチャが存在しない
場合及びジェスチャの認識に失敗した場合には、映像効
果は実施しないでステップS1−2戻り、再びジェスチ
ャの認識を実施する(ステップS1−11、S1−1
2)。
ー13を繰り返し、ディスプレイ4に表示されたアイコ
ンなどのオブジェクトに対してあらかじめ設定された映
像効果を付与する。図9に本発明の一実施例の選択
(1)を認識するための処理の動作フローチャートを示
す。
を認識するための処理では、まず、認識ジェスチャ表2
3の有効フラグfを検知する(ステップS2−1)。こ
こで、有効フラグfがリセットされていれば、ジェスチ
ャを認識できない状態にあるため、認識処理は終了され
る。また、有効フラグfがセットされていれば、ジェス
チャを認識できる状態であるため、次に認識ジェスチャ
表23のリセットフラグgを検知する(ステップS2−
2)。リセットフラグgがセットされていれば、認識を
初期状態から行う必要があることを示しているため、ま
ず、ペン2がディスプレイ4に接触しているか否か、す
なわち、ペン2がタブレット3に接触しているか否かが
判断される(ステップS2−3)。ペン2がディスプレ
イ4に接触している場合には、初期状態ではないため、
そのまま処理を終了する。また、ペン2がディスプレイ
4に接触していない場合には、リセットフラグgをリセ
ットし、ペン2の一連の動作を認識するため一連の座標
を順次格納した座標リストをクリアし、このとき取得し
た座標データを先頭座標に設定する(ステップS2−4
〜S2−6)。以上により初期化が終了する。
加する(ステップS2−7)。ここで、ステップS2−
2でリセットフラグgがリセットされている場合には、
ステップS2−7で続けて座標データが追加される。こ
こで、追加された座標データが座標リストの先頭座標か
否かが判断される(ステップS2−8)。ステップS2
−8でペン2の指示位置が先頭座標のときには、まだ選
択(1)が選択された状態ではないため、処理を終了す
る。また、ステップS2−8で座標データが先頭座標で
はないときには選択(1)処理か否かを判断するため
に、次に先頭座標近傍に位置するか否かが判断される
(ステップS2−9)。
ストの先頭座標近傍にないときには、選択(1)が選択
されないと判断できるため、選択(1)のリセットフラ
グgをセットして処理を終了する(ステップS2−1
4)。また、ステップS2−9でペン2の座標が座標リ
ストの先頭座標近傍に留まっているときには、選択
(1)が選択される可能性があるため、次に選択(1)
のジェスチャーであるペン2がディスプレイ4に接触し
ているか否かが判断される(ステップS2−10)。
イ4に接触していなければ、選択(1)が選択されたと
判断できないため、処理を終了する。また、ステップS
2−10でペン2がディスプレイ4に接触していれば、
選択(1)が選択されたと判断でき、次にペン2が指示
している座標に位置するアイコンを検索する(ステップ
S2−11)。
が指示している座標にアイコンがあれば、そのアイコン
を選択(1)により選択されたアイコンとして認識ジェ
スチャ表23の認識成功フラグhをセットし、選択オブ
ジェクトポインタiに選択されたアイコンを識別する情
報を設定する(ステップS2−12、S2−13)。ま
た、ステップS2−11の検索の結果、ペン2が指示し
ている座標にアイコンが存在しなければ、選択(1)が
実施されたとは判断できないため、選択(1)のリセッ
トフラグgをセットして処理を終了する(ステップS2
−12、S2−14)。
される。図10に本発明の一実施例の選択(2)を認識
するための処理の動作フローチャートを示す。ステップ
S1−4の選択(2)ジェスチャを認識するための処理
では、まず、認識ジェスチャ表23の有効フラグfを検
知する(ステップS3−1)。ここで、有効フラグfが
リセットされていれば、ジェスチャを認識できない状態
にあるため、認識処理は終了される。また、有効フラグ
fがセットされていれば、ジェスチャを認識できる状態
であるため、次に認識ジェスチャ表23のリセットフラ
グgを検知する(ステップS3−2)。リセットフラグ
gがセットされていれば、認識を初期状態から行う必要
があることを示しているため、まず、ペン2がディスプ
レイ4に接触しているか否か、すなわち、ペン2がタブ
レット3に接触しているか否かが判断される(ステップ
S3−2)。ペン2がディスプレイ4に接触している場
合には、初期状態ではないため、そのまま処理を終了す
る。また、ペン2がディスプレイ4に接触していない場
合には、リセットフラグgをリセットし、ペン2の一連
の動作を認識するため一連の座標を順次格納した座標リ
ストをクリアし、このとき取得した座標データを先頭座
標に設定する(ステップS3−4〜S3−6)。以上に
より初期化が終了する。
加する(ステップS3−7)。ここで、ステップS3−
2でリセットフラグgがリセットされている場合には、
次にペン2がディスプレイ4に接触しているか否かが判
断される(ステップS3−8)。
4に接触している場合には、選択(2)のジェスチャで
はないので、次に初期状態となるように設定されるよう
にリセットフラグgをセットして処理を終了する(ステ
ップS3−9)。また、ステップS3−8でペン2がデ
ィスプレイ4に接触していない場合には、選択(2)の
ジェスチャである可能性があるため、そのときペン2が
指示している座標をペン2の軌跡を保持している座標リ
ストに追加する(ステップS3−7)。
タが新たに追加されると、次に、追加された座標データ
が座標リストの先頭座標か否かが判断される(ステップ
S3−10)。ステップS3−10でペン2の指示位置
が先頭座標のときには、まだ選択(2)が選択された状
態ではないため、処理を終了する。また、ステップS3
−10で座標データが先頭座標ではないときには選択
(2)処理か否かを判断するために、次に先頭座標近傍
に位置するか否かが判断される(ステップS3−1
1)。
リストの先頭座標近傍にないときには、選択(2)が選
択されないかまたは選択(2)のジェスチャの途中であ
ると判断できるため、このまま処理を終了する。また、
ステップS3−11でペン2の座標が座標リストの先頭
座標近傍に存在するときには、選択(2)が選択される
可能性があるため、次に選択(2)のジェスチャーであ
るペン2の軌跡により形成された閉領域に含まれるアイ
コンを検索する(ステップS3−12)。
が指示した座標の軌跡により形成された閉領域内にアイ
コンがあれば、そのアイコンを選択(2)により選択さ
れたアイコンとして認識ジェスチャ表23の認識成功フ
ラグhをセットし、選択オブジェクトポインタiに選択
されたアイコンを識別する情報を設定する(ステップS
3−13、S3−14)。また、ステップS3−13の
検索の結果、ペン2が指示した座標の軌跡により形成さ
れた閉領域内にアイコンが存在しなければ、選択(2)
が実施されたとは判断できないため、選択(2)のリセ
ットフラグgをセットして処理を終了する(S3−1
3、S3−9)。
される。図11に本発明の一実施例の切断(1)を認識
するための処理の動作フローチャートを示す。ステップ
S1−5の切断(1)ジェスチャを認識するための処理
では、まず、認識ジェスチャ表23の有効フラグfを検
知する(ステップS4−1)。ここで、有効フラグfが
リセットされていれば、ジェスチャを認識できない状態
にあるため、認識処理は終了される。また、有効フラグ
fがセットされていれば、ジェスチャを認識できる状態
であるため、次に認識ジェスチャ表23のリセットフラ
グgを検知する(ステップS4−2)。リセットフラグ
gがセットされていれば、認識を初期状態から行う必要
があることを示しているため、まず、ペン2がディスプ
レイ4に接触しているか否か、すなわち、ペン2がタブ
レット3に接触しているか否かが判断される(ステップ
S4−3)。ペン2がディスプレイ4に接触している場
合には、初期状態ではないため、そのまま処理を終了す
る。また、ペン2がディスプレイ4に接触していない場
合には、リセットフラグgをリセットし、ペン2の一連
の動作を認識するため一連の座標を順次格納した座標リ
ストをクリアし、このとき取得した座標データを先頭座
標に設定する(ステップS4−4〜S2−6)。以上に
より初期化が終了する。
加する(ステップS4−7)。ここで、ステップS4−
2でリセットフラグgがリセットされている場合には、
ステップS4−7で続けて座標データが追加される。こ
こで、追加された座標データが座標リストの先頭座標か
否かが判断される(ステップS4−8)。ステップS4
−8でペン2の指示位置が先頭座標のときには、まだ切
断(1)が選択された状態ではないため、処理を終了す
る。また、ステップS4−8で座標データが先頭座標で
はないときには切断(1)処理か否かを判断するため
に、次に切断(1)のジェスチャーであるペン2がディ
スプレイ4に接触しているか否かが判断される(ステッ
プS4−9)。
4に接触していなければ、切断(1)が選択されたと判
断できないため、処理を終了する。また、ステップS4
−9でペン2がディスプレイ4に接触していれば、切断
(1)が選択される可能性があると判断でき、次に座標
リストよりペン2の軌跡が左から右に横切るアイコンを
検索する(ステップS4−10)。
の軌跡が左から右に横切るアイコンがあれば、そのアイ
コンを切断(1)により選択されたアイコンとして認識
ジェスチャ表23の認識成功フラグhをセットし、選択
オブジェクトポインタiに切断しようとするアイコンを
識別する情報を設定する(ステップS4−12)。ま
た、ステップS4−10の検索の結果、ペン2の軌跡が
左から右に横切るアイコンが存在しなければ、切断
(1)が実施されたとは判断できないため、切断(1)
のリセットフラグgをセットして処理を終了する(ステ
ップS4−13)。
される。図12に本発明の一実施例の切断(2)を認識
するための処理の動作フローチャートを示す。ステップ
S1−6の切断(2)ジェスチャを認識するための処理
では、まず、認識ジェスチャ表23の有効フラグfを検
知する(ステップS5−1)。ここで、有効フラグfが
リセットされていれば、ジェスチャを認識できない状態
にあるため、認識処理は終了される。また、有効フラグ
fがセットされていれば、ジェスチャを認識できる状態
であるため、次に認識ジェスチャ表23のリセットフラ
グgを検知する(ステップS5−2)。リセットフラグ
gがセットされていれば、認識を初期状態から行う必要
があることを示しているため、まず、ペン2がディスプ
レイ4に接触しているか否か、すなわち、ペン2がタブ
レット3に接触しているか否かが判断される(ステップ
S5−3)。ペン2がディスプレイ4に接触している場
合には、初期状態ではないため、そのまま処理を終了す
る。また、ペン2がディスプレイ4に接触していない場
合には、リセットフラグgをリセットし、ペン2の一連
の動作を認識するため一連の座標を順次格納した座標リ
ストをクリアし、このとき取得した座標データを先頭座
標に設定する(ステップS5−4〜S5−6)。以上に
より初期化が終了する。
加する(ステップS5−7)。ここで、ステップS5−
2でリセットフラグgがリセットされている場合には、
ステップS5−7で続けて座標データが追加される。こ
こで、追加された座標データが座標リストの先頭座標か
否かが判断される(ステップS5−8)。ステップS4
−8でペン2の指示位置が先頭座標のときには、まだ切
断(2)が選択された状態ではないため、処理を終了す
る。また、ステップS5−8で座標データが先頭座標で
はないときには切断(2)処理か否かを判断するため
に、次に切断(2)のジェスチャーであるペン2がディ
スプレイ4に接触しているか否かが判断される(ステッ
プS5−9)。
4に接触していなければ、切断(2)が選択されたと判
断できないため、処理を終了する。また、ステップS5
−9でペン2がディスプレイ4に接触していれば、切断
(2)が選択される可能性があると判断でき、次に座標
リストよりペン2の軌跡が左から右に横切るアイコンを
検索する(ステップS5−10)。
の軌跡が右から左に横切るアイコンがあれば、そのアイ
コンを切断(2)により選択されたアイコンとして認識
ジェスチャ表23の認識成功フラグhをセットし、選択
オブジェクトポインタiに切断しようとするアイコンを
識別する情報を設定する(ステップS5−12)。ま
た、ステップS5−10の検索の結果、ペン2の軌跡が
右から左に横切るアイコンが存在しなければ、切断
(2)が実施されたとは判断できないため、切断(1)
のリセットフラグgをセットして処理を終了する(ステ
ップS5−13)。
される。図13に本発明の一実施例のポイント(1)を
認識するための処理の動作フローチャートを示す。ステ
ップS1−7のポイント(1)ジェスチャを認識するた
めの処理では、まず、認識ジェスチャ表23の有効フラ
グfを検知する(ステップS6−1)。ここで、有効フ
ラグfがリセットされていれば、ジェスチャを認識でき
ない状態にあるため、認識処理は終了される。また、有
効フラグfがセットされていれば、ジェスチャを認識で
きる状態であるため、次に認識ジェスチャ表23のリセ
ットフラグgを検知する(ステップS6−2)。リセッ
トフラグgがセットされていれば、認識を初期状態から
行う必要があることを示しているため、まず、ペン2が
ディスプレイ4に接触しているか否か、すなわち、ペン
2がタブレット3に接触しているか否かが判断される
(ステップS6−3)。ペン2がディスプレイ4に接触
している場合には、ポイント(1)は認識できないた
め、そのまま処理を終了する。また、ペン2がディスプ
レイ4に接触していない場合には、リセットフラグgを
リセットし、認識処理が実行中であることを設定する
(ステップS6−4)。
に、次にポイント(1)のジェスチャーであるペン2が
ディスプレイ4に接触しているか否かが判断される(ス
テップS6−5)。ステップS6−5でペン2がディス
プレイ4に接触していなければ、ポイント(1)が選択
されたと判断できないため、処理を終了する。また、ス
テップS6−5でペン2がディスプレイ4に接触してい
れば、ポイント(1)が選択される可能性があると判断
でき、ペン2が指示している位置のアイコンを検索する
(ステップS6−6)。
指示している位置にアイコンがあれば、そのアイコンを
ポイント(1)により選択されたアイコンとして認識ジ
ェスチャ表23の認識成功フラグhをセットし、選択オ
ブジェクトポインタiに指示されたアイコンを識別する
情報を設定する(ステップS6−7)。また、ステップ
S6−6の検索の結果、ペン2が指示している位置にア
イコンが存在しなければ、ポイント(1)が実施された
とは判断できないため、ポイント(1)のリセットフラ
グgをセットして処理を終了する(ステップS6−
8)。
認識される。図14に本発明の一実施例のポイント
(2)を認識するための処理の動作フローチャートを示
す。ステップS1−8のポイント(2)ジェスチャを認
識するための処理では、まず、認識ジェスチャ表23の
有効フラグfを検知する(ステップS7−1)。ここ
で、有効フラグfがリセットされていれば、ジェスチャ
を認識できない状態にあるため、認識処理は終了され
る。また、有効フラグfがセットされていれば、ジェス
チャを認識できる状態であるため、次に認識ジェスチャ
表23のリセットフラグgを検知する(ステップS7−
2)。リセットフラグgがセットされていれば、認識を
初期状態から行う必要があることを示しているため、ま
ず、ペン2がディスプレイ4に接触しているか否か、す
なわち、ペン2がタブレット3に接触しているか否かが
判断される(ステップS7−3)。ペン2がディスプレ
イ4に接触していない場合には、ポイント(2)は認識
できないため、そのまま処理を終了する。また、ペン2
がディスプレイ4に接触している場合には、リセットフ
ラグgをリセットし、認識処理が実行中であることを設
定する(ステップS7−4)。以上により初期化が終了
する。
に、次にポイント(2)のジェスチャーであるペン2が
ディスプレイ4に接触しているか否かが判断される(ス
テップS7−5)。ステップS7−5でペン2がディス
プレイ4に接触していれば、ポイント(2)が選択され
たと判断できないため、処理を終了する。また、ステッ
プS7−5でペン2がディスプレイ4に接触していなけ
れば、ポイント(2)が選択された可能性があると判断
でき、ペン2が指示している位置のアイコンを検索する
(ステップS7−6)。
指示している位置にアイコンがあれば、そのアイコンを
ポイント(2)により選択されたアイコンとして認識ジ
ェスチャ表23の認識成功フラグhをセットし、選択オ
ブジェクトポインタiに指示されたアイコンを識別する
情報を設定する(ステップS7−7)。また、ステップ
S6−6の検索の結果、ペン2が指示している位置にア
イコンが存在しなければ、ポイント(2)が実施された
とは判断できないため、ポイント(2)のリセットフラ
グgをセットして処理を終了する(ステップS7−
8)。
認識される。CPU5は、図8に示すようにステップS
1−3〜S1−8の認識処理が層構造をなし、ペン2の
座標及びディスプレ4との接触状態を取得しながら、図
9〜図14に説明した認識処理が順次実行され、認識結
果に応じて映像効果を表示する。このように、本実施例
によれば、アイコンを移動させようとするときには移動
しようとするアイコンを選択(1)又は(2)により選
択することにより、映像効果としてアイコンに影が付き
アイコンが画面から浮き上がったかのような表示とされ
アイコンが選択されたことが直感的に認識できるように
なる。また、アイコンを削除するときには、ペン2によ
り削除しようとするアイコンに×を書くことによりアイ
コンに切断線が表示され、アイコンがこれから削除され
ることが直感的に認識できる。このとき、途中でペン2
により○を書くジェスチャを行えば、アイコンが復元さ
れる。このように、直感的にアイコンの削除や移動を行
え、使い勝手の良い入出力インタフェースを実現でき
る。
理時の表示制御について説明したがこれに限ることはな
く、ジェスチャ管理表21に他の処理のときの表示制御
を設定すれば、上述した移動処理及び削除処理と同様に
直感的な表示が行える。また、本実施例では、アイコン
の移動・削除についての説明を行っているがアイコンに
限ることはなく、他の図形・文字に対しても同様に対応
できる。
トの表示をオブジェクトの処理の進行に従って順次変更
することにより、オブジェクトの処理状況を順次把握で
きるため、処理状況を直感的に把握できる等の特長を有
する。
たときに選択されたオブジェクトに影を付けることによ
り、選択されたオブジェクトが画面から浮き上がって表
示され、選択したオブジェクトを直感的に把握できる等
の特長を有する。請求項3によれば、オブジェクトを削
除するときにオブジェクトに切断線を表示することによ
り、オブジェクトが画面上で切断されたかのように表示
されるため、オブジェクトを削除する処理を直感的に把
握できる等の特長を有する。
るときには指示手段によりオブジェクトを切断する動作
を行うことによりオブジェクトが削除されるため、オブ
ジェクトを削除する処理を直感的な動作で実行できる等
の特長を有する。請求項5によれば、オブジェクトを移
動させるときには指示手段によりオブジェクトを選択し
た後、指示手段を画面より離間させることによりオブジ
ェクトに影を付け、指示手段の移動に応じて前記オブジ
ェクトを移動させるため、指示手段によりオブジェクト
を持ち上げて移動させているこのような表示が行われ、
従って、オブジェクトの移動を直感的に把握できる等の
特長を有する。
る動作を指示手段によりオブジェクトを囲む動作とする
ことにより、選択するオブジェクトを丸で囲むような感
覚でオブジェクトの選択が行えるため、オブジェクトの
選択を直感的に実施できる等の特長を有する
る。
管理表の構成図である。
の構成図である。
図である。
図である。
る。
トである。
の処理の動作フローチャートである。
めの処理の動作フローチャートである。
めの処理の動作フローチャートである。
めの処理の動作フローチャートである。
るための処理の動作フローチャートである。
るための処理の動作フローチャートである。
Claims (6)
- 【請求項1】 画面表示されたオブジェクトを指示手段
により直接指示することにより該オブジェクトを処理す
る情報処理装置において、 前記指示手段の位置を検出する検出手段と、 前記検出手段により検出された前記指示手段の動きに応
じて前記オブジェクトの表示を制御する表示制御手段と
を有し、 前記オブジェクトの表示をオブジェクトの処理の進行に
従って順次変更することを特徴とする表示制御方法。 - 【請求項2】 前記オブジェクトを選択したときに前記
オブジェクトに影を付与することを特徴とする請求項1
記載の表示制御方法。 - 【請求項3】 前記オブジェクトを削除するときに前記
オブジェクトに切断線を表示することを特徴とする請求
項1又は2記載の表示制御方法。 - 【請求項4】 前記オブジェクトを削除するときには前
記指示手段により前記オブジェクトを切断する動作を行
うことを特徴とする請求項1乃至3のいずれか一項記載
の表示制御方法。 - 【請求項5】 前記オブジェクトを移動させるときに前
記指示手段により前記オブジェクトを選択した後、前記
指示手段を画面より離間させることにより前記オブジェ
クトに影を付け、前記指示手段の移動に応じて前記オブ
ジェクトを移動させることを特徴とする請求項1乃至4
のいずれか一項記載の表示制御方法。 - 【請求項6】 前記オブジェクトを選択する動作は前記
指示手段により前記オブジェクトを囲む動作であること
を特徴とする請求項1乃至5のいずれか一項記載の表示
制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP26047895A JP3688361B2 (ja) | 1995-10-06 | 1995-10-06 | 表示制御装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP26047895A JP3688361B2 (ja) | 1995-10-06 | 1995-10-06 | 表示制御装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09101874A true JPH09101874A (ja) | 1997-04-15 |
JP3688361B2 JP3688361B2 (ja) | 2005-08-24 |
Family
ID=17348517
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP26047895A Expired - Fee Related JP3688361B2 (ja) | 1995-10-06 | 1995-10-06 | 表示制御装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3688361B2 (ja) |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008015783A1 (fr) * | 2006-08-01 | 2008-02-07 | Sega Corporation | Procédé de commande de sélection d'objets affichés sur un écran, machine de jeux l'utilisant et programme de contrôle d'exécution du procédé |
US7350158B2 (en) | 2003-02-07 | 2008-03-25 | Sony Corporation | Icon display system and method, electronic appliance, and computer program |
JP2009129034A (ja) * | 2007-11-21 | 2009-06-11 | Yokogawa Electric Corp | オブジェクト移動装置 |
JP2012134849A (ja) * | 2010-12-22 | 2012-07-12 | Sony Corp | 画像処理装置、画像処理方法およびプログラム |
JP2013045470A (ja) * | 2011-08-25 | 2013-03-04 | Samsung Electronics Co Ltd | タッチスクリーン装置のロック解除装置及び方法 |
JP2013054738A (ja) * | 2011-08-31 | 2013-03-21 | Samsung Electronics Co Ltd | 携帯端末機のユーザインターフェース提供方法及びその装置 |
JP2013080521A (ja) * | 2005-12-30 | 2013-05-02 | Apple Inc | インターフェース再構成モードを有する携帯用電子装置 |
JP2013232200A (ja) * | 2010-09-22 | 2013-11-14 | Nikon Corp | 画像表示装置 |
WO2014034031A1 (ja) * | 2012-08-30 | 2014-03-06 | パナソニック株式会社 | 情報入力装置及び情報表示方法 |
US8713458B2 (en) | 2007-02-15 | 2014-04-29 | Nokia Corporation | Visualization of information associated with applications in user interfaces |
JP5489377B1 (ja) * | 2012-12-28 | 2014-05-14 | パナソニック株式会社 | 表示装置、表示方法及び表示プログラム |
WO2014119004A1 (ja) * | 2013-01-31 | 2014-08-07 | 株式会社 東芝 | 電子機器および手書き文書処理方法 |
JP2014521135A (ja) * | 2011-09-28 | 2014-08-25 | テンセント テクノロジー (シェンツェン) カンパニー リミテッド | タッチ端末におけるインタラクション方法及び装置、ネットワークアプリケーションにおけるインタラクション方法及びサーバー、コンピュータ記憶媒体 |
JP2015515040A (ja) * | 2012-02-15 | 2015-05-21 | アップル インコーポレイテッド | ドキュメント内のコンテンツオブジェクトを共有するためのデバイス、方法、及びグラフィカルユーザインタフェース |
US9367232B2 (en) | 2007-01-07 | 2016-06-14 | Apple Inc. | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display |
US9619143B2 (en) | 2008-01-06 | 2017-04-11 | Apple Inc. | Device, method, and graphical user interface for viewing application launch icons |
JP2017084003A (ja) * | 2015-10-26 | 2017-05-18 | 船井電機株式会社 | 入力装置 |
US9772751B2 (en) | 2007-06-29 | 2017-09-26 | Apple Inc. | Using gestures to slide between user interfaces |
US10250735B2 (en) | 2013-10-30 | 2019-04-02 | Apple Inc. | Displaying relevant user interface objects |
US10313505B2 (en) | 2006-09-06 | 2019-06-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface for configuring and displaying widgets |
US10620780B2 (en) | 2007-09-04 | 2020-04-14 | Apple Inc. | Editing interface |
US10739974B2 (en) | 2016-06-11 | 2020-08-11 | Apple Inc. | Configuring context-specific user interfaces |
US10788953B2 (en) | 2010-04-07 | 2020-09-29 | Apple Inc. | Device, method, and graphical user interface for managing folders |
US11126321B2 (en) | 2007-09-04 | 2021-09-21 | Apple Inc. | Application menu user interface |
US11281368B2 (en) | 2010-04-07 | 2022-03-22 | Apple Inc. | Device, method, and graphical user interface for managing folders with multiple pages |
US11675476B2 (en) | 2019-05-05 | 2023-06-13 | Apple Inc. | User interfaces for widgets |
US11816325B2 (en) | 2016-06-12 | 2023-11-14 | Apple Inc. | Application shortcuts for carplay |
-
1995
- 1995-10-06 JP JP26047895A patent/JP3688361B2/ja not_active Expired - Fee Related
Cited By (60)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7350158B2 (en) | 2003-02-07 | 2008-03-25 | Sony Corporation | Icon display system and method, electronic appliance, and computer program |
US9933913B2 (en) | 2005-12-30 | 2018-04-03 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
US10915224B2 (en) | 2005-12-30 | 2021-02-09 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
US11650713B2 (en) | 2005-12-30 | 2023-05-16 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
JP2013080521A (ja) * | 2005-12-30 | 2013-05-02 | Apple Inc | インターフェース再構成モードを有する携帯用電子装置 |
JP2016170798A (ja) * | 2005-12-30 | 2016-09-23 | アップル インコーポレイテッド | インターフェース再構成モードを有する携帯用電子装置 |
US10884579B2 (en) | 2005-12-30 | 2021-01-05 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
US10359907B2 (en) | 2005-12-30 | 2019-07-23 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
US11449194B2 (en) | 2005-12-30 | 2022-09-20 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
WO2008015783A1 (fr) * | 2006-08-01 | 2008-02-07 | Sega Corporation | Procédé de commande de sélection d'objets affichés sur un écran, machine de jeux l'utilisant et programme de contrôle d'exécution du procédé |
US10778828B2 (en) | 2006-09-06 | 2020-09-15 | Apple Inc. | Portable multifunction device, method, and graphical user interface for configuring and displaying widgets |
US11736602B2 (en) | 2006-09-06 | 2023-08-22 | Apple Inc. | Portable multifunction device, method, and graphical user interface for configuring and displaying widgets |
US10313505B2 (en) | 2006-09-06 | 2019-06-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface for configuring and displaying widgets |
US11240362B2 (en) | 2006-09-06 | 2022-02-01 | Apple Inc. | Portable multifunction device, method, and graphical user interface for configuring and displaying widgets |
US10732821B2 (en) | 2007-01-07 | 2020-08-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display |
US11169691B2 (en) | 2007-01-07 | 2021-11-09 | Apple Inc. | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display |
US9367232B2 (en) | 2007-01-07 | 2016-06-14 | Apple Inc. | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display |
US11586348B2 (en) | 2007-01-07 | 2023-02-21 | Apple Inc. | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display |
US10254949B2 (en) | 2007-01-07 | 2019-04-09 | Apple Inc. | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display |
US8713458B2 (en) | 2007-02-15 | 2014-04-29 | Nokia Corporation | Visualization of information associated with applications in user interfaces |
US9772751B2 (en) | 2007-06-29 | 2017-09-26 | Apple Inc. | Using gestures to slide between user interfaces |
US11507255B2 (en) | 2007-06-29 | 2022-11-22 | Apple Inc. | Portable multifunction device with animated sliding user interface transitions |
US10761691B2 (en) | 2007-06-29 | 2020-09-01 | Apple Inc. | Portable multifunction device with animated user interface transitions |
US11010017B2 (en) | 2007-09-04 | 2021-05-18 | Apple Inc. | Editing interface |
US11126321B2 (en) | 2007-09-04 | 2021-09-21 | Apple Inc. | Application menu user interface |
US11604559B2 (en) | 2007-09-04 | 2023-03-14 | Apple Inc. | Editing interface |
US11861138B2 (en) | 2007-09-04 | 2024-01-02 | Apple Inc. | Application menu user interface |
US10620780B2 (en) | 2007-09-04 | 2020-04-14 | Apple Inc. | Editing interface |
JP2009129034A (ja) * | 2007-11-21 | 2009-06-11 | Yokogawa Electric Corp | オブジェクト移動装置 |
US9619143B2 (en) | 2008-01-06 | 2017-04-11 | Apple Inc. | Device, method, and graphical user interface for viewing application launch icons |
US10628028B2 (en) | 2008-01-06 | 2020-04-21 | Apple Inc. | Replacing display of icons in response to a gesture |
US11281368B2 (en) | 2010-04-07 | 2022-03-22 | Apple Inc. | Device, method, and graphical user interface for managing folders with multiple pages |
US11809700B2 (en) | 2010-04-07 | 2023-11-07 | Apple Inc. | Device, method, and graphical user interface for managing folders with multiple pages |
US11500516B2 (en) | 2010-04-07 | 2022-11-15 | Apple Inc. | Device, method, and graphical user interface for managing folders |
US10788953B2 (en) | 2010-04-07 | 2020-09-29 | Apple Inc. | Device, method, and graphical user interface for managing folders |
JP2013232200A (ja) * | 2010-09-22 | 2013-11-14 | Nikon Corp | 画像表示装置 |
JP2012134849A (ja) * | 2010-12-22 | 2012-07-12 | Sony Corp | 画像処理装置、画像処理方法およびプログラム |
JP2013045470A (ja) * | 2011-08-25 | 2013-03-04 | Samsung Electronics Co Ltd | タッチスクリーン装置のロック解除装置及び方法 |
JP2013054738A (ja) * | 2011-08-31 | 2013-03-21 | Samsung Electronics Co Ltd | 携帯端末機のユーザインターフェース提供方法及びその装置 |
JP2014521135A (ja) * | 2011-09-28 | 2014-08-25 | テンセント テクノロジー (シェンツェン) カンパニー リミテッド | タッチ端末におけるインタラクション方法及び装置、ネットワークアプリケーションにおけるインタラクション方法及びサーバー、コンピュータ記憶媒体 |
EP2763004A4 (en) * | 2011-09-28 | 2015-05-06 | Tencent Tech Shenzhen Co Ltd | INTERACTION METHOD AND DEVICE IN A TOUCH END UNIT, AND INTERACTION METHODS, SERVER AND COMPUTER MEMORY MEDIUM IN A NETWORK APPLICATION |
US10803235B2 (en) | 2012-02-15 | 2020-10-13 | Apple Inc. | Device, method, and graphical user interface for sharing a content object in a document |
US10289660B2 (en) | 2012-02-15 | 2019-05-14 | Apple Inc. | Device, method, and graphical user interface for sharing a content object in a document |
US11783117B2 (en) | 2012-02-15 | 2023-10-10 | Apple Inc. | Device, method, and graphical user interface for sharing a content object in a document |
JP2015515040A (ja) * | 2012-02-15 | 2015-05-21 | アップル インコーポレイテッド | ドキュメント内のコンテンツオブジェクトを共有するためのデバイス、方法、及びグラフィカルユーザインタフェース |
JPWO2014034031A1 (ja) * | 2012-08-30 | 2016-08-08 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 情報入力装置及び情報表示方法 |
US9798456B2 (en) | 2012-08-30 | 2017-10-24 | Panasonic Intellectual Property Corporation Of America | Information input device and information display method |
WO2014034031A1 (ja) * | 2012-08-30 | 2014-03-06 | パナソニック株式会社 | 情報入力装置及び情報表示方法 |
US8988380B2 (en) | 2012-12-28 | 2015-03-24 | Panasonic Intellectual Property Corporation Of America | Display apparatus, display method, and display program |
JP5489377B1 (ja) * | 2012-12-28 | 2014-05-14 | パナソニック株式会社 | 表示装置、表示方法及び表示プログラム |
WO2014119004A1 (ja) * | 2013-01-31 | 2014-08-07 | 株式会社 東芝 | 電子機器および手書き文書処理方法 |
US11316968B2 (en) | 2013-10-30 | 2022-04-26 | Apple Inc. | Displaying relevant user interface objects |
US10972600B2 (en) | 2013-10-30 | 2021-04-06 | Apple Inc. | Displaying relevant user interface objects |
US10250735B2 (en) | 2013-10-30 | 2019-04-02 | Apple Inc. | Displaying relevant user interface objects |
JP2017084003A (ja) * | 2015-10-26 | 2017-05-18 | 船井電機株式会社 | 入力装置 |
US10739974B2 (en) | 2016-06-11 | 2020-08-11 | Apple Inc. | Configuring context-specific user interfaces |
US11073799B2 (en) | 2016-06-11 | 2021-07-27 | Apple Inc. | Configuring context-specific user interfaces |
US11733656B2 (en) | 2016-06-11 | 2023-08-22 | Apple Inc. | Configuring context-specific user interfaces |
US11816325B2 (en) | 2016-06-12 | 2023-11-14 | Apple Inc. | Application shortcuts for carplay |
US11675476B2 (en) | 2019-05-05 | 2023-06-13 | Apple Inc. | User interfaces for widgets |
Also Published As
Publication number | Publication date |
---|---|
JP3688361B2 (ja) | 2005-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH09101874A (ja) | 表示制御方法 | |
US11481538B2 (en) | Device, method, and graphical user interface for providing handwriting support in document editing | |
US10346016B1 (en) | Nested zoom in windows on a touch sensitive device | |
US9628423B2 (en) | Electronic sticky note system, information processing terminal, method for processing electronic sticky note, medium storing program, and data structure of electronic sticky note | |
US8525839B2 (en) | Device, method, and graphical user interface for providing digital content products | |
JPH07152527A (ja) | 図形編集装置 | |
JP5659586B2 (ja) | 表示制御装置および表示制御方法、表示制御プログラム、記録媒体 | |
JP5942762B2 (ja) | 情報処理装置及びプログラム | |
US9477373B1 (en) | Simultaneous zoom in windows on a touch sensitive device | |
JPH11305933A (ja) | 入力装置及び入力方法 | |
JP2004030536A (ja) | 情報処理装置および同装置で使用される文字入力支援方法 | |
JP2003099176A (ja) | 画面自動復帰方法及び画面自動復帰装置 | |
US10140003B1 (en) | Simultaneous zoom in windows on a touch sensitive device | |
WO2022218352A1 (zh) | 触控操作方法及装置 | |
JPH06332611A (ja) | 手書き入力装置 | |
JP6057006B2 (ja) | 情報処理装置及びプログラム | |
JP2000020198A (ja) | 端末制御方法及びそれを用いた端末装置並びにそれを実現するプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JPH06282400A (ja) | ポップアップメニューの自動退避表示方式及びその表示方法 | |
JP2003140791A (ja) | 情報処理装置及び情報処理装置の制御方法 | |
JP5749245B2 (ja) | 電子機器、表示方法、及び表示プログラム | |
JPH06301472A (ja) | 手書き入力装置 | |
JPS61267128A (ja) | 表示消去方式 | |
JPH06309093A (ja) | 手書き入力装置 | |
JP2019204384A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP7228964B2 (ja) | 情報処理装置、情報処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040709 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050516 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050608 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090617 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100617 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110617 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120617 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120617 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130617 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140617 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |