JP3688361B2 - Display control device - Google Patents
Display control device Download PDFInfo
- Publication number
- JP3688361B2 JP3688361B2 JP26047895A JP26047895A JP3688361B2 JP 3688361 B2 JP3688361 B2 JP 3688361B2 JP 26047895 A JP26047895 A JP 26047895A JP 26047895 A JP26047895 A JP 26047895A JP 3688361 B2 JP3688361 B2 JP 3688361B2
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- pen
- icon
- display
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
本発明は表示制御装置に係り、特に、ペンを入力デバイスとして用いるコンピュータの表示制御装置に関する。
近年、携帯型情報端末機器の入力デバイスとしてペン型の入力デバイスを装備した機器が増えている。これはペン型の入力デバイスがキーボードと違い入力方法が人間の感覚に合致しているためである。
【0002】
このようなペン型入力デバイスはポインティングデバイスとしても有効に使用でき、今後、入力インタフェースとしての活用が期待されている。
【0003】
【従来の技術】
コンピュータなどにおいては直感的にわかりやすいインタフェースを実現するためにアイコン等の図形を用いて使用者とのやりとりを行ういわゆるGUI(Graphical User Interface)なるインタフェースが用いられている。従来のGUIでは様々なメタファーを用いて操作性を向上させていた。
【0004】
【発明が解決しようとする課題】
しかるに、従来のGUIではユーザーが行なっている操作の過程が表示に反映されていなかったため、操作が処理のどの段階にあるかが直感的に認識できないなどの問題点があった。
【0005】
本発明は上記の点に鑑みてなされたもので、ユーザーが操作の過程を直感的に認識しやすい表示とする表示制御装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
本発明は、画面表示されたオブジェクトの表示を指示手段の指示に応じて制御する表示制御装置において、指示手段の位置を検出する検出手段と、指示手段の動きに対応づけてオブジェクトへの映像効果を記憶したジェスチャ管理表と、検出手段により検出された指示手段の動きに応じてジェスチャ管理表を参照して、ジェスチャ管理表から取得された映像効果に応じてオブジェクトの表示を制御する表示制御手段とを有し、表示制御手段はオブジェクトを移動させるときに、指示手段によりオブジェクトを選択した後、指示手段を画面より離間させる動作によりオブジェクトに影付けを行なうことを特徴とする。
【0007】
本発明によれば、オブジェクトを移動させるときに、指示手段によりオブジェクトを選択した後、指示手段を画面より離間させる動作によりオブジェクトに影付けを行なうことにより、オブジェクトの移動を直感的に把握できる。
【0013】
【発明の実施の形態】
図1に本発明の一実施例のブロック構成図を示す。本実施例のコンピュータ1は、ペン型の入力デバイスを有するシステムで、ユーザーが処理の指示を行うためのペン2、ペン2の状態を検出するためのタブレット3、処理情報やアイコンなどの表示を行うためのディスプレイ4、タブレット3により認識したペン2の状態に応じてディスプレイ4に表示されたオブジェクトに映像効果を付与するとともに各種処理を実行するCPU5、処理データなどを保持するメモリ6等より構成されている。
【0014】
タブレット3は、例えば電磁誘導型タブレットよりなり、ペン2の先端のタブレット3の表面への接触及び非接触時の位置及びペン2のタブレット3の表面への接触・非接触を検知できる構成とされている。タブレット3で検出されたペン2の状態はCPU5に供給される。ディスプレイ4は、例えばLCD(Liquid Crystal Display;液晶ディスプレイ)よりなり、CPU5、又は、メモリ6から供給される表示データに応じた画像を表示する。
【0015】
CPU5にはタブレット3で検出されたペン2の状態に関する情報が供給され、タブレット3から供給されたペン2の状態の情報に応じて後述するようにオブジェクトの移動・削除などを処理を実行し、ディスプレイ4に表示するオブジェクトの表示制御する。
【0016】
図2に本発明の一実施例のCPUの機能ブロック図を示す。CPU5は、タブレット3から供給されるペン2の状態を示す情報からペン2の状態を認識するペン状態認識部11、ペン状態認識部11で認識したペン2の状態に応じてユーザーが指示したジェスチャコマンドを認識するジェスチャ認識部12、ジェスチャ認識部12で認識されたジェスチャコマンドに応じて操作対象(オブジェクト)を選択するオブジェクト選択部13、オブジェクト選択部13で選択されたオブジェクトに対してジェスチャコマンドに応じたビジュアルエフェクトをかけるビジュアルエフェクト部14より構成される。
【0017】
CPU5でのオブジェクトの動作は、メモリ6に設定されたジェスチャ操作管理表21により管理されている。
図3に本発明の一実施例のジェスチャ動作を管理する管理表の構成図を示す。図3(A)は、ジェスチャ操作管理表21の構成図、図3(B)は、ジェスチャ操作を管理するポインタ管理表22の構成図を示す。
【0018】
ジェスチャ操作管理表21はジェスチャ操作が格納されたジェスチャ項目a、ジェスチャに応じた映像効果が格納された映像効果項目b、次のジェスチャが認識されるまでに実行される処理が格納された経過処理項目cより構成され、一連のジェスチャ毎に、処理順に格納されている。図3(A)には2種類の移動処理(1)、(2)と削除処理との3種類の処理が登録されている。
【0019】
ジェスチャ項目aは、ペン2の動きにより認識すべき操作を示しており、ここでは、選択(1)、(2)、切断(1)、(2)、ポイント(1)、(2)が示されている。選択(1)は、オブジェクト(アイコン)に接触しているペン2をタブレット3を介してディスプレイ4面から離間させる動作によりアイコンを選択するジェスチャを示している。また、選択(2)は、タブレット3を介してディスプレイ4面にペン2を接触させた状態で、アイコンの周囲を囲むジェスチャを示している。選択(1)、(2)のジェスチャによりアイコンを選択することができる。
【0020】
また、切断(1)は、アイコンを右から左に横切る動作を、切断(2)は、アイコンを左から右に横切るジェスチャを示している。切断(1)、(2)によりアイコンが上下に切断することができる。
ポイント(1)は、ペン2をタブレット3を介してディスプレイ4面に接触させる動作を示している。ポイント2は、ペン2をタブレット3を介してディスプレイ4面より離す動作を示している。ポイント(1)、(2)のジェスチャによりアイコンのポインティングをできる。
【0021】
映像効果項目bには、ジェスチャ項目aで認識されたジェスチャに応じて実施する映像効果が設定されている。映像効果としては、アイコンに影を付ける表示、アイコンの影を消去する表示、元のアイコン位置を破線にする表示、アイコンを実線化する表示、アイコンに斜めに切断線を入れる表示、アイコンに十字に切断線を入れ、アイコンを消去する表示が設定されている。
【0022】
経過処理cには、次のジェスチャが認識されるまでに実行すべき処理が設定されている。経過処理cに設定される処理としては、アイコンの移動を可能とするアイコン移動処理、次のジェスチャを有効とする時間を設定するタイマーを起動するタイマー起動処理が設定されている。
【0023】
また、ポインタ管理表22は、処理されるジェスチャ操作名d、次に認識すべきジェスチャを認識するための次認識ジェスチャ項目eより構成され、現在処理中のジェスチャと次に認識すべきジェスチャとが管理されている。
図4に本発明の一実施例の並列動作を管理する管理表の構成図を示す。図4(A)は、ジェスチャ項目aの各ジェスチャの動作状態を管理する認識ジェスチャ表23の構成図、図4(B)は、経過処理項目cの処理の動作状態を管理するための経過処理管理表24の構成図を示す。
【0024】
認識ジェスチャ表23は、ジェスチャ操作管理表21のジェスチャ項目aに設定された選択(1)、(2)、切断(1)、(2)、ポイント(1)、(2)が次に実行可能か否かを示す有効フラグf、認識処理を初期状態から行う必要があるか否かを示すリセットフラグg、ジェスチャの認識が成功したか否かを示す認識成功フラグh、認識した対象とするオブジェクトを示す選択オブジェクトポインタiより構成される。
【0025】
有効フラグfは、次にジェスチャが実行可能な項目はセット(`1`)され、ジェスチャが実行不可能な項目はリセット(`0`)される。すなわち、次に実行されるべきジェスチャを示している。
また、リセットフラグgは、ジェスチャの認識が行われていないときにはセット(`1`)され、ジェスチャの認識が実行されている最中にはリセット(`0`)される。
【0026】
また、認識成功フラグhは、ジェスチャの認識処理が行われ、ジェスチャが認識されたときにはセット(`1`)され、ジェスチャが認識できなっかたとき、及び、通常はリセット(`0`)されている。
選択オブジェクトポインタiは、ジェスチャによって認識されたオブジェクト(アイコン)を呼び出すためのポインタを登録する。
【0027】
経過処理管理表24は、ジェスチャ操作管理表21の経過処理項目cに設定されたアイコン移動、タイマ起動などの処理項目毎に処理の有無を示す有効フラグj,次の処理が実行の有無を示す不成功フラグkより構成される。有効フラグjは、ジェスチャが認識されて経過処理が行われるときは、セット(`1`)されて、処理が実行されていないときには、リセット(`0`)される。
【0028】
また、不成功フラグkは、経過処理中に処理の実行が実行不可能になったときに、セット(`1`)され、通常はリセット状態(`0`)に保持される。例えば、タイマ起動時に一定時間経過しても次のジェスチャが認識されないときにセットされる。後述するように、この不成功フラグkがセットされたときにはシステム全体が初期化されて、システムが待ち状態に陥らないように構成されている。
【0029】
まず、移動(1)処理について説明する。図5に本発明の一実施例の移動処理(1)の動作説明図を示す。
移動処理(1)では、最初に選択(1)ジェスチャを認識しようと試みる。ここで、選択(1)ジェスチャは、図5(A)に示すようにディスプレイ4に表示されたアイコン31等のオブジェクトにタブレット3を介してタッチしているペン2を画面から離す動きである。なお、ペン2が指示している位置は、画面上にペンカーソル32として表示される。ペンカーソル32は、例えば、白抜きの矢印として画面表示される。
【0030】
この選択(1)ジェスチャを認識したときにポインタ管理表22のジェスチャ操作名dが移動処理(1)に設定され、次認識ジェスチャ項目eがジェスチャ操作管理表21の移動処理(1)のジェスチャ項目aの2段目を示す`2`が設定される。また、ジェスチャ操作管理表21の映像効果項目bが実施され、図5(B)に示すように映像効果としてアイコン31に影33が付けられる。このときの経過処理cとしては次のジェスチャであるポイント(1)ジェスチャが認識されるまで、アイコン31をペン2の位置に応じて移動させる処理が実施される。ここで、ポイント(1)ジェスチャは、ペン2を画面に接触させる動作である。
【0031】
次に、ポイント(1)ジェスチャが認識されると、アイコン31に付けられた影33を消去し、アイコン31の移動が停止される。このとき、移動処理(1)では、図5(C)に示すようにアイコン31の移動が停止したときに元のアイコン位置にアイコン31`を破線で表示させる。ここで、一定時間内に図5(D)に示すように再びペン2により元の位置の破線のアイコン31`を接触したときには、元のアイコン位置に元のアイコン31`を再び実線として表示させ、アイコンの複写が行える構成とされている。このため、ポイント(1)ジェスチャ認識時に経過処理cとしてタイマーが起動され、次のジェスチャである選択(1)ジェスチャがタイマーが切れる前に実施されたときには、映像効果項目bのアイコン31の実線化が行われる。
【0032】
次に、移動処理(2)について説明する。図6に本発明の一実施例の移動処理(2)の動作説明図を示す。
移動処理(2)では、図6(A)に示すように選択(2)によりペン2をディスプレイ面に接触させずに移動させようとするアイコン31の周囲を囲むように動かすことによりアイコン31の選択が行われ、図6(B)に示すように選択されたアイコン31に影33が付けられる。このとき、タイマーが起動され、一定時間内に次のジェスチャであるポイント(1)が認識されれば、図6(C)に示すようにアイコン31が元の位置P0からポイント(1)で指示された位置P1にアイコン31が移動される。
【0033】
また、一定時間が経過しても何のジェスチャも実施されないときには、映像効果としてアイコンに付けられた影33が消去される。
ポイント(1)のジェスチャによりアイコン31が移動された場合には、次にポイント(2)のジェスチャの認識を待機する。ここで、ポイント(2)のジェスチャが実施されると図6(D)に示されるようにアイコン31に映像効果として付けられた影が消去される。
【0034】
次に、削除処理について説明する。図7に本発明の一実施例の削除処理の動作説明図を示す。
削除処理は、切断(1)、(2)の2つのジェスチャにより実現されている。まず、図7(A)に示すようにペン2をアイコン31上を右から左に横切らせる切断(1)ジェスチャにより図7(B)に示すように映像効果として削除しようとするアイコン31に切断線34が表示される。このとき、経過処理としてタイマーが起動され、一定時間内にペン2をアイコン31上を左から右に横切らせる切断(2)ジェスチャを認識すれば、図7(C)に示すように切断線34に加えて切断線35を表示して、アイコン31を削除する。
【0035】
また、一定時間が経過しない内に図7(D)に示すアイコン31の周囲を囲むようにペン2を移動させる選択(2)のジェスチャを行うことにより、切断線34が消去され、元の状態に復元される。
さらに、一定時間経過しても切断(2)又は選択(2)のジェスチャが行われないときには、切断線34が消去され、元の状態に復元される。
【0036】
以上のように、移動処理(1)、(2)、削除処理は、メモリ6に保持されたジェスチャ操作管理表21、ポインタ管理表22、認識ジェスチャ表23、経過処理管理表24に従ってCPU5が動作されることにより実行される。
図8に本発明の一実施例のCPUの動作フローチャートを示す。
【0037】
CPU5は、動作開始時にはまず、メモリ6に格納されたポインタ管理表22、認識ジェスチャ表23、経過処理管理表24を初期化する(ステップS1−1)。次に、CPU5は、ペン状態認識部11によりタブレット3からの情報を取得し、ディスプレイ4上でのペン2の状態情報を取得する(ステップS1−2)。
【0038】
次に、CPU5は、ジェスチャ認識部12によりステップS1−2で取得したペン2の情報から後述する認識処理によりユーザーの行ったジェスチャを認識する(ステップS1−3〜S1−8)。CPU5は、ジェスチャを認識すると、ジェスチャ操作管理表21を検索し、ジェスチャ操作管理表21に設定された経過処理を実施すると共に認識ジェスチャ表23の内容を更新する(ステップS1−9、S1−10)。
【0039】
また、CPU5は、続けて認識したジェスチャに応じてジェスチャ操作管理表21に設定された映像効果を表示し、ステップS1−2に戻る(ステップS1−13)。なお、認識されたジェスチャが存在しない場合及びジェスチャの認識に失敗した場合には、映像効果は実施しないでステップS1−2戻り、再びジェスチャの認識を実施する(ステップS1−11、S1−12)。
【0040】
CPU5は、上記ステップS1−2〜S1ー13を繰り返し、ディスプレイ4に表示されたアイコンなどのオブジェクトに対してあらかじめ設定された映像効果を付与する。
図9に本発明の一実施例の選択(1)を認識するための処理の動作フローチャートを示す。
【0041】
ステップS1−3の選択(1)ジェスチャを認識するための処理では、まず、認識ジェスチャ表23の有効フラグfを検知する(ステップS2−1)。ここで、有効フラグfがリセットされていれば、ジェスチャを認識できない状態にあるため、認識処理は終了される。また、有効フラグfがセットされていれば、ジェスチャを認識できる状態であるため、次に認識ジェスチャ表23のリセットフラグgを検知する(ステップS2−2)。リセットフラグgがセットされていれば、認識を初期状態から行う必要があることを示しているため、まず、ペン2がディスプレイ4に接触しているか否か、すなわち、ペン2がタブレット3に接触しているか否かが判断される(ステップS2−3)。ペン2がディスプレイ4に接触している場合には、初期状態ではないため、そのまま処理を終了する。また、ペン2がディスプレイ4に接触していない場合には、リセットフラグgをリセットし、ペン2の一連の動作を認識するため一連の座標を順次格納した座標リストをクリアし、このとき取得した座標データを先頭座標に設定する(ステップS2−4〜S2−6)。以上により初期化が終了する。
【0042】
次に取得した座標データを座標リストに追加する(ステップS2−7)。ここで、ステップS2−2でリセットフラグgがリセットされている場合には、ステップS2−7で続けて座標データが追加される。
ここで、追加された座標データが座標リストの先頭座標か否かが判断される(ステップS2−8)。ステップS2−8でペン2の指示位置が先頭座標のときには、まだ選択(1)が選択された状態ではないため、処理を終了する。また、ステップS2−8で座標データが先頭座標ではないときには選択(1)処理か否かを判断するために、次に先頭座標近傍に位置するか否かが判断される(ステップS2−9)。
【0043】
ステップS2−9でペン2の座標が座標リストの先頭座標近傍にないときには、選択(1)が選択されないと判断できるため、選択(1)のリセットフラグgをセットして処理を終了する(ステップS2−14)。また、ステップS2−9でペン2の座標が座標リストの先頭座標近傍に留まっているときには、選択(1)が選択される可能性があるため、次に選択(1)のジェスチャーであるペン2がディスプレイ4に接触しているか否かが判断される(ステップS2−10)。
【0044】
ステップS2−10でペン2がディスプレイ4に接触していなければ、選択(1)が選択されたと判断できないため、処理を終了する。また、ステップS2−10でペン2がディスプレイ4に接触していれば、選択(1)が選択されたと判断でき、次にペン2が指示している座標に位置するアイコンを検索する(ステップS2−11)。
【0045】
ステップS2−11の検索の結果、ペン2が指示している座標にアイコンがあれば、そのアイコンを選択(1)により選択されたアイコンとして認識ジェスチャ表23の認識成功フラグhをセットし、選択オブジェクトポインタiに選択されたアイコンを識別する情報を設定する(ステップS2−12、S2−13)。また、ステップS2−11の検索の結果、ペン2が指示している座標にアイコンが存在しなければ、選択(1)が実施されたとは判断できないため、選択(1)のリセットフラグgをセットして処理を終了する(ステップS2−12、S2−14)。
【0046】
以上により選択(1)のジェスチャが認識される。
図10に本発明の一実施例の選択(2)を認識するための処理の動作フローチャートを示す。
ステップS1−4の選択(2)ジェスチャを認識するための処理では、まず、認識ジェスチャ表23の有効フラグfを検知する(ステップS3−1)。ここで、有効フラグfがリセットされていれば、ジェスチャを認識できない状態にあるため、認識処理は終了される。また、有効フラグfがセットされていれば、ジェスチャを認識できる状態であるため、次に認識ジェスチャ表23のリセットフラグgを検知する(ステップS3−2)。リセットフラグgがセットされていれば、認識を初期状態から行う必要があることを示しているため、まず、ペン2がディスプレイ4に接触しているか否か、すなわち、ペン2がタブレット3に接触しているか否かが判断される(ステップS3−2)。ペン2がディスプレイ4に接触している場合には、初期状態ではないため、そのまま処理を終了する。また、ペン2がディスプレイ4に接触していない場合には、リセットフラグgをリセットし、ペン2の一連の動作を認識するため一連の座標を順次格納した座標リストをクリアし、このとき取得した座標データを先頭座標に設定する(ステップS3−4〜S3−6)。以上により初期化が終了する。
【0047】
次に取得した座標データを座標リストに追加する(ステップS3−7)。ここで、ステップS3−2でリセットフラグgがリセットされている場合には、次にペン2がディスプレイ4に接触しているか否かが判断される(ステップS3−8)。
【0048】
ステップS3−8でペン2がディスプレイ4に接触している場合には、選択(2)のジェスチャではないので、次に初期状態となるように設定されるようにリセットフラグgをセットして処理を終了する(ステップS3−9)。また、ステップS3−8でペン2がディスプレイ4に接触していない場合には、選択(2)のジェスチャである可能性があるため、そのときペン2が指示している座標をペン2の軌跡を保持している座標リストに追加する(ステップS3−7)。
【0049】
ステップS3−7で座標リストに座標データが新たに追加されると、次に、追加された座標データが座標リストの先頭座標か否かが判断される(ステップS3−10)。ステップS3−10でペン2の指示位置が先頭座標のときには、まだ選択(2)が選択された状態ではないため、処理を終了する。また、ステップS3−10で座標データが先頭座標ではないときには選択(2)処理か否かを判断するために、次に先頭座標近傍に位置するか否かが判断される(ステップS3−11)。
【0050】
ステップS3−11でペン2の座標が座標リストの先頭座標近傍にないときには、選択(2)が選択されないかまたは選択(2)のジェスチャの途中であると判断できるため、このまま処理を終了する。また、ステップS3−11でペン2の座標が座標リストの先頭座標近傍に存在するときには、選択(2)が選択される可能性があるため、次に選択(2)のジェスチャーであるペン2の軌跡により形成された閉領域に含まれるアイコンを検索する(ステップS3−12)。
【0051】
ステップS3−12の検索の結果、ペン2が指示した座標の軌跡により形成された閉領域内にアイコンがあれば、そのアイコンを選択(2)により選択されたアイコンとして認識ジェスチャ表23の認識成功フラグhをセットし、選択オブジェクトポインタiに選択されたアイコンを識別する情報を設定する(ステップS3−13、S3−14)。また、ステップS3−13の検索の結果、ペン2が指示した座標の軌跡により形成された閉領域内にアイコンが存在しなければ、選択(2)が実施されたとは判断できないため、選択(2)のリセットフラグgをセットして処理を終了する(S3−13、S3−9)。
【0052】
以上により選択(2)のジェスチャが認識される。
図11に本発明の一実施例の切断(1)を認識するための処理の動作フローチャートを示す。
ステップS1−5の切断(1)ジェスチャを認識するための処理では、まず、認識ジェスチャ表23の有効フラグfを検知する(ステップS4−1)。ここで、有効フラグfがリセットされていれば、ジェスチャを認識できない状態にあるため、認識処理は終了される。また、有効フラグfがセットされていれば、ジェスチャを認識できる状態であるため、次に認識ジェスチャ表23のリセットフラグgを検知する(ステップS4−2)。リセットフラグgがセットされていれば、認識を初期状態から行う必要があることを示しているため、まず、ペン2がディスプレイ4に接触しているか否か、すなわち、ペン2がタブレット3に接触しているか否かが判断される(ステップS4−3)。ペン2がディスプレイ4に接触している場合には、初期状態ではないため、そのまま処理を終了する。また、ペン2がディスプレイ4に接触していない場合には、リセットフラグgをリセットし、ペン2の一連の動作を認識するため一連の座標を順次格納した座標リストをクリアし、このとき取得した座標データを先頭座標に設定する(ステップS4−4〜S2−6)。以上により初期化が終了する。
【0053】
次に取得した座標データを座標リストに追加する(ステップS4−7)。ここで、ステップS4−2でリセットフラグgがリセットされている場合には、ステップS4−7で続けて座標データが追加される。
ここで、追加された座標データが座標リストの先頭座標か否かが判断される(ステップS4−8)。ステップS4−8でペン2の指示位置が先頭座標のときには、まだ切断(1)が選択された状態ではないため、処理を終了する。また、ステップS4−8で座標データが先頭座標ではないときには切断(1)処理か否かを判断するために、次に切断(1)のジェスチャーであるペン2がディスプレイ4に接触しているか否かが判断される(ステップS4−9)。
【0054】
ステップS4−9でペン2がディスプレイ4に接触していなければ、切断(1)が選択されたと判断できないため、処理を終了する。また、ステップS4−9でペン2がディスプレイ4に接触していれば、切断(1)が選択される可能性があると判断でき、次に座標リストよりペン2の軌跡が左から右に横切るアイコンを検索する(ステップS4−10)。
【0055】
ステップS4−10の検索の結果、ペン2の軌跡が左から右に横切るアイコンがあれば、そのアイコンを切断(1)により選択されたアイコンとして認識ジェスチャ表23の認識成功フラグhをセットし、選択オブジェクトポインタiに切断しようとするアイコンを識別する情報を設定する(ステップS4−12)。また、ステップS4−10の検索の結果、ペン2の軌跡が左から右に横切るアイコンが存在しなければ、切断(1)が実施されたとは判断できないため、切断(1)のリセットフラグgをセットして処理を終了する(ステップS4−13)。
【0056】
以上により切断(1)のジェスチャが認識される。
図12に本発明の一実施例の切断(2)を認識するための処理の動作フローチャートを示す。
ステップS1−6の切断(2)ジェスチャを認識するための処理では、まず、認識ジェスチャ表23の有効フラグfを検知する(ステップS5−1)。ここで、有効フラグfがリセットされていれば、ジェスチャを認識できない状態にあるため、認識処理は終了される。また、有効フラグfがセットされていれば、ジェスチャを認識できる状態であるため、次に認識ジェスチャ表23のリセットフラグgを検知する(ステップS5−2)。リセットフラグgがセットされていれば、認識を初期状態から行う必要があることを示しているため、まず、ペン2がディスプレイ4に接触しているか否か、すなわち、ペン2がタブレット3に接触しているか否かが判断される(ステップS5−3)。ペン2がディスプレイ4に接触している場合には、初期状態ではないため、そのまま処理を終了する。また、ペン2がディスプレイ4に接触していない場合には、リセットフラグgをリセットし、ペン2の一連の動作を認識するため一連の座標を順次格納した座標リストをクリアし、このとき取得した座標データを先頭座標に設定する(ステップS5−4〜S5−6)。以上により初期化が終了する。
【0057】
次に取得した座標データを座標リストに追加する(ステップS5−7)。ここで、ステップS5−2でリセットフラグgがリセットされている場合には、ステップS5−7で続けて座標データが追加される。
ここで、追加された座標データが座標リストの先頭座標か否かが判断される(ステップS5−8)。ステップS4−8でペン2の指示位置が先頭座標のときには、まだ切断(2)が選択された状態ではないため、処理を終了する。また、ステップS5−8で座標データが先頭座標ではないときには切断(2)処理か否かを判断するために、次に切断(2)のジェスチャーであるペン2がディスプレイ4に接触しているか否かが判断される(ステップS5−9)。
【0058】
ステップS5−9でペン2がディスプレイ4に接触していなければ、切断(2)が選択されたと判断できないため、処理を終了する。また、ステップS5−9でペン2がディスプレイ4に接触していれば、切断(2)が選択される可能性があると判断でき、次に座標リストよりペン2の軌跡が左から右に横切るアイコンを検索する(ステップS5−10)。
【0059】
ステップS5−10の検索の結果、ペン2の軌跡が右から左に横切るアイコンがあれば、そのアイコンを切断(2)により選択されたアイコンとして認識ジェスチャ表23の認識成功フラグhをセットし、選択オブジェクトポインタiに切断しようとするアイコンを識別する情報を設定する(ステップS5−12)。また、ステップS5−10の検索の結果、ペン2の軌跡が右から左に横切るアイコンが存在しなければ、切断(2)が実施されたとは判断できないため、切断(1)のリセットフラグgをセットして処理を終了する(ステップS5−13)。
【0060】
以上により切断(2)のジェスチャが認識される。
図13に本発明の一実施例のポイント(1)を認識するための処理の動作フローチャートを示す。
ステップS1−7のポイント(1)ジェスチャを認識するための処理では、まず、認識ジェスチャ表23の有効フラグfを検知する(ステップS6−1)。ここで、有効フラグfがリセットされていれば、ジェスチャを認識できない状態にあるため、認識処理は終了される。また、有効フラグfがセットされていれば、ジェスチャを認識できる状態であるため、次に認識ジェスチャ表23のリセットフラグgを検知する(ステップS6−2)。リセットフラグgがセットされていれば、認識を初期状態から行う必要があることを示しているため、まず、ペン2がディスプレイ4に接触しているか否か、すなわち、ペン2がタブレット3に接触しているか否かが判断される(ステップS6−3)。ペン2がディスプレイ4に接触している場合には、ポイント(1)は認識できないため、そのまま処理を終了する。また、ペン2がディスプレイ4に接触していない場合には、リセットフラグgをリセットし、認識処理が実行中であることを設定する(ステップS6−4)。
【0061】
ポイント(1)処理か否かを判断するために、次にポイント(1)のジェスチャーであるペン2がディスプレイ4に接触しているか否かが判断される(ステップS6−5)。
ステップS6−5でペン2がディスプレイ4に接触していなければ、ポイント(1)が選択されたと判断できないため、処理を終了する。また、ステップS6−5でペン2がディスプレイ4に接触していれば、ポイント(1)が選択される可能性があると判断でき、ペン2が指示している位置のアイコンを検索する(ステップS6−6)。
【0062】
ステップS6−6の検索の結果、ペン2が指示している位置にアイコンがあれば、そのアイコンをポイント(1)により選択されたアイコンとして認識ジェスチャ表23の認識成功フラグhをセットし、選択オブジェクトポインタiに指示されたアイコンを識別する情報を設定する(ステップS6−7)。また、ステップS6−6の検索の結果、ペン2が指示している位置にアイコンが存在しなければ、ポイント(1)が実施されたとは判断できないため、ポイント(1)のリセットフラグgをセットして処理を終了する(ステップS6−8)。
【0063】
以上によりポイント(1)のジェスチャが認識される。
図14に本発明の一実施例のポイント(2)を認識するための処理の動作フローチャートを示す。
ステップS1−8のポイント(2)ジェスチャを認識するための処理では、まず、認識ジェスチャ表23の有効フラグfを検知する(ステップS7−1)。ここで、有効フラグfがリセットされていれば、ジェスチャを認識できない状態にあるため、認識処理は終了される。また、有効フラグfがセットされていれば、ジェスチャを認識できる状態であるため、次に認識ジェスチャ表23のリセットフラグgを検知する(ステップS7−2)。リセットフラグgがセットされていれば、認識を初期状態から行う必要があることを示しているため、まず、ペン2がディスプレイ4に接触しているか否か、すなわち、ペン2がタブレット3に接触しているか否かが判断される(ステップS7−3)。ペン2がディスプレイ4に接触していない場合には、ポイント(2)は認識できないため、そのまま処理を終了する。また、ペン2がディスプレイ4に接触している場合には、リセットフラグgをリセットし、認識処理が実行中であることを設定する(ステップS7−4)。以上により初期化が終了する。
【0064】
ポイント(2)処理か否かを判断するために、次にポイント(2)のジェスチャーであるペン2がディスプレイ4に接触しているか否かが判断される(ステップS7−5)。
ステップS7−5でペン2がディスプレイ4に接触していれば、ポイント(2)が選択されたと判断できないため、処理を終了する。また、ステップS7−5でペン2がディスプレイ4に接触していなければ、ポイント(2)が選択された可能性があると判断でき、ペン2が指示している位置のアイコンを検索する(ステップS7−6)。
【0065】
ステップS7−6の検索の結果、ペン2が指示している位置にアイコンがあれば、そのアイコンをポイント(2)により選択されたアイコンとして認識ジェスチャ表23の認識成功フラグhをセットし、選択オブジェクトポインタiに指示されたアイコンを識別する情報を設定する(ステップS7−7)。また、ステップS6−6の検索の結果、ペン2が指示している位置にアイコンが存在しなければ、ポイント(2)が実施されたとは判断できないため、ポイント(2)のリセットフラグgをセットして処理を終了する(ステップS7−8)。
【0066】
以上によりポイント(2)のジェスチャが認識される。
CPU5は、図8に示すようにステップS1−3〜S1−8の認識処理が層構造をなし、ペン2の座標及びディスプレ4との接触状態を取得しながら、図9〜図14に説明した認識処理が順次実行され、認識結果に応じて映像効果を表示する。
このように、本実施例によれば、アイコンを移動させようとするときには移動しようとするアイコンを選択(1)又は(2)により選択することにより、映像効果としてアイコンに影が付きアイコンが画面から浮き上がったかのような表示とされアイコンが選択されたことが直感的に認識できるようになる。また、アイコンを削除するときには、ペン2により削除しようとするアイコンに×を書くことによりアイコンに切断線が表示され、アイコンがこれから削除されることが直感的に認識できる。このとき、途中でペン2により○を書くジェスチャを行えば、アイコンが復元される。このように、直感的にアイコンの削除や移動を行え、使い勝手の良い入出力インタフェースを実現できる。
【0067】
なお、本実施例では、移動処理及び削除処理時の表示制御について説明したがこれに限ることはなく、ジェスチャ管理表21に他の処理のときの表示制御を設定すれば、上述した移動処理及び削除処理と同様に直感的な表示が行える。また、本実施例では、アイコンの移動・削除についての説明を行っているがアイコンに限ることはなく、他の図形・文字に対しても同様に対応できる。
【0068】
【発明の効果】
上述の如く、本発明によれば、オブジェクトを移動させるときに、指示手段によりオブジェクトを選択した後、指示手段を画面より離間させる動作によりオブジェクトに影付けを行なうことにより、オブジェクトの移動を直感的に把握できる等の特長を有する。
【図面の簡単な説明】
【図1】本発明の一実施例のブロック構成図である。
【図2】本発明の一実施例の要部のブロック構成図である。
【図3】本発明の一実施例のジェスチャ動作を管理する管理表の構成図である。
【図4】本発明の一実施例の並列動作を管理する管理表の構成図である。
【図5】本発明の一実施例の移動処理(1)の動作説明図である。
【図6】本発明の一実施例の移動処理(2)の動作説明図である。
【図7】本発明の一実施例の削除処理の動作説明図である。
【図8】本発明の一実施例のCPUの動作フローチャートである。
【図9】本発明の一実施例の選択(1)を認識するための処理の動作フローチャートである。
【図10】本発明の一実施例の選択(2)を認識するための処理の動作フローチャートである。
【図11】本発明の一実施例の切断(1)を認識するための処理の動作フローチャートである。
【図12】本発明の一実施例の切断(2)を認識するための処理の動作フローチャートである。
【図13】本発明の一実施例のポイント(1)を認識するための処理の動作フローチャートである。
【図14】本発明の一実施例のポイント(2)を認識するための処理の動作フローチャートである。
【符号の説明】
1 コンピュータシステム
2 ペン
3 タブレット
4 ディスプレイ
5 CPU
6 メモリ
11 ペン状態認識部
12 ジェスチャ認識部
13 オブジェクト選択部
14 ビジュアル・エフェクト部
21 ジェスチャ操作管理表
22 ポインタ管理表
23 認識ジェスチャ表
24 経過処理管理表
31 アイコン
32 ペンカーソル
33 影
34、35 切断線[0001]
BACKGROUND OF THE INVENTION
The present invention provides display controlapparatusIn particular, computer display control using a pen as an input deviceapparatusAbout.
In recent years, devices equipped with pen-type input devices are increasing as input devices for portable information terminal devices. This is because the input method of the pen-type input device matches the human sense, unlike the keyboard.
[0002]
Such a pen-type input device can be used effectively as a pointing device and is expected to be used as an input interface in the future.
[0003]
[Prior art]
In a computer or the like, a so-called GUI (Graphical User Interface) interface that uses a graphic such as an icon to exchange with a user is used to realize an intuitively easy-to-understand interface. In the conventional GUI, operability is improved by using various metaphors.
[0004]
[Problems to be solved by the invention]
However, in the conventional GUI, since the process of the operation performed by the user is not reflected on the display, there is a problem that it is not possible to intuitively recognize which stage of the operation is in the process.
[0005]
The present invention has been made in view of the above points, and it is easy for the user to intuitively recognize the process of operation.DisplayDisplay controlapparatusThe purpose is to provide.
[0006]
[Means for Solving the Problems]
The present invention provides display control for controlling display of an object displayed on a screen in accordance with an instruction from an instruction means.apparatusA detecting means for detecting the position of the pointing means;A gesture management table that stores video effects on objects in association with movement of the instruction means;The movement of the indicating means detected by the detecting meansRefer to the gesture management table accordingly, depending on the video effect obtained from the gesture management tableDisplay control means for controlling the display of the object, and when the display control means moves the object, after the object is selected by the instruction means, the object is shaded by moving the instruction means away from the screen. It is characterized by.
[0007]
According to the present invention,When an object is moved, the movement of the object can be intuitively grasped by selecting the object by the instruction means and then shadowing the object by an operation of moving the instruction means away from the screen.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram showing an embodiment of the present invention. The
[0014]
The
[0015]
Information relating to the state of the
[0016]
FIG. 2 shows a functional block diagram of the CPU of one embodiment of the present invention. The
[0017]
The operation of the object in the
FIG. 3 shows a configuration diagram of a management table for managing gesture operations according to an embodiment of the present invention. FIG. 3A shows a configuration diagram of the gesture operation management table 21, and FIG. 3B shows a configuration diagram of the pointer management table 22 that manages the gesture operations.
[0018]
The gesture operation management table 21 includes a gesture item “a” in which a gesture operation is stored, a video effect item “b” in which a video effect corresponding to the gesture is stored, and a progress process in which a process executed until the next gesture is recognized is stored. It consists of item c and is stored in the order of processing for each series of gestures. In FIG. 3A, three types of processing, that is, two types of movement processing (1), (2) and deletion processing are registered.
[0019]
The gesture item a indicates an operation to be recognized by the movement of the
[0020]
In addition, cutting (1) indicates an operation of crossing the icon from right to left, and cutting (2) indicates a gesture of crossing the icon from left to right. The icons can be cut up and down by cutting (1) and (2).
Point (1) indicates an operation of bringing the
[0021]
In the video effect item b, a video effect to be executed according to the gesture recognized by the gesture item a is set. Image effects include a display that adds a shadow to the icon, a display that erases the shadow of the icon, a display that makes the original icon position a broken line, a display that makes the icon a solid line, a display that puts a cutting line diagonally, and a cross that appears on the icon Is set to display a cut line and erase the icon.
[0022]
In the progress process c, a process to be executed before the next gesture is recognized is set. As the process set in the progress process c, an icon movement process that enables icon movement and a timer activation process that activates a timer that sets a time for enabling the next gesture are set.
[0023]
The pointer management table 22 includes a gesture operation name d to be processed and a next recognition gesture item e for recognizing a gesture to be recognized next. A gesture being currently processed and a gesture to be recognized next are displayed. It is managed.
FIG. 4 shows a configuration diagram of a management table for managing parallel operations according to an embodiment of the present invention. 4A is a configuration diagram of the recognition gesture table 23 for managing the operation state of each gesture of the gesture item a, and FIG. 4B is a progress process for managing the operation state of the process of the progress process item c. The block diagram of the management table 24 is shown.
[0024]
In the recognition gesture table 23, the selection (1), (2), disconnection (1), (2), point (1), (2) set in the gesture item a of the gesture operation management table 21 can be executed next. A valid flag f indicating whether or not the recognition process needs to be performed from the initial state, a recognition flag h indicating whether or not the gesture has been successfully recognized, and an object to be recognized It is comprised from the selection object pointer i which shows.
[0025]
For the valid flag f, items that can be executed next are set (` 1 `), and items that cannot be executed are reset (` 0 `). That is, the gesture to be executed next is shown.
The reset flag g is set (` 1 `) when the gesture is not recognized, and is reset (` 0 `) while the gesture is being recognized.
[0026]
The recognition success flag h is set (` 1 `) when a gesture recognition process is performed and the gesture is recognized, and is normally reset (` 0 `) when the gesture cannot be recognized. ing.
The selected object pointer i registers a pointer for calling an object (icon) recognized by the gesture.
[0027]
The progress process management table 24 is a valid flag j indicating the presence / absence of processing for each process item such as icon movement and timer activation set in the progress process item c of the gesture operation management table 21, and indicates whether the next process is executed. It consists of unsuccessful flag k. The valid flag j is set (` 1 `) when the gesture is recognized and the progress process is performed, and is reset (` 0 `) when the process is not executed.
[0028]
The unsuccessful flag k is set (` 1 `) when the execution of the process becomes impossible during the progress process, and is normally held in the reset state (` 0 `). For example, it is set when the next gesture is not recognized even if a predetermined time elapses when the timer is started. As will be described later, when the unsuccessful flag k is set, the entire system is initialized so that the system does not enter a waiting state.
[0029]
First, the movement (1) process will be described. FIG. 5 is a diagram for explaining the operation of the movement process (1) according to the embodiment of the present invention.
In the movement process (1), an attempt is first made to recognize the selection (1) gesture. Here, the selection (1) gesture is a movement of releasing the
[0030]
When the selection (1) gesture is recognized, the gesture operation name d in the pointer management table 22 is set in the movement process (1), and the next recognition gesture item e is the gesture item in the movement process (1) in the gesture operation management table 21. ` 2 ` indicating the second stage of a is set. Also, the video effect item b in the gesture operation management table 21 is implemented, and a
[0031]
Next, when the point (1) gesture is recognized, the
[0032]
Next, the movement process (2) will be described. FIG. 6 is a diagram for explaining the operation of the movement process (2) according to the embodiment of the present invention.
In the movement process (2), as shown in FIG. 6A, by selecting (2), the
[0033]
Further, when no gesture is performed even after a predetermined time has elapsed, the
When the
[0034]
Next, the deletion process will be described. FIG. 7 is a diagram for explaining the operation of deletion processing according to an embodiment of the present invention.
The deletion process is realized by two gestures of cutting (1) and (2). First, as shown in FIG. 7 (A), cutting the
[0035]
Further, by performing the selection (2) gesture in which the
Furthermore, when the cutting (2) or selection (2) gesture is not performed even after a predetermined time has elapsed, the cutting
[0036]
As described above, the movement processing (1), (2), and deletion processing are performed by the
FIG. 8 shows an operational flowchart of the CPU according to the embodiment of the present invention.
[0037]
At the start of operation, the
[0038]
Next, the
[0039]
Further, the
[0040]
The
FIG. 9 shows an operation flowchart of processing for recognizing the selection (1) of the embodiment of the present invention.
[0041]
Selection in step S1-3 (1) In the process for recognizing a gesture, first, the valid flag f in the recognition gesture table 23 is detected (step S2-1). Here, if the valid flag f is reset, since the gesture cannot be recognized, the recognition process ends. If the valid flag f is set, the gesture can be recognized. Next, the reset flag g in the recognition gesture table 23 is detected (step S2-2). If the reset flag g is set, it indicates that the recognition needs to be performed from the initial state. Therefore, first, whether or not the
[0042]
Next, the acquired coordinate data is added to the coordinate list (step S2-7). Here, when the reset flag g is reset in step S2-2, coordinate data is added continuously in step S2-7.
Here, it is determined whether or not the added coordinate data is the first coordinate in the coordinate list (step S2-8). If the indication position of the
[0043]
If it is determined in step S2-9 that the coordinate of the
[0044]
If the
[0045]
As a result of the search in step S2-11, if there is an icon at the coordinates indicated by the
[0046]
As described above, the gesture of selection (1) is recognized.
FIG. 10 shows an operation flowchart of processing for recognizing the selection (2) of the embodiment of the present invention.
In the selection in step S1-4 (2) processing for recognizing a gesture, first, the valid flag f in the recognition gesture table 23 is detected (step S3-1). Here, if the valid flag f is reset, since the gesture cannot be recognized, the recognition process ends. If the valid flag f is set, the gesture can be recognized. Next, the reset flag g in the recognition gesture table 23 is detected (step S3-2). If the reset flag g is set, it indicates that the recognition needs to be performed from the initial state. Therefore, first, whether or not the
[0047]
Next, the acquired coordinate data is added to the coordinate list (step S3-7). If the reset flag g is reset in step S3-2, it is next determined whether or not the
[0048]
If the
[0049]
When coordinate data is newly added to the coordinate list in step S3-7, it is next determined whether or not the added coordinate data is the top coordinate of the coordinate list (step S3-10). If the indication position of the
[0050]
If it is determined in step S3-11 that the coordinate of the
[0051]
As a result of the search in step S3-12, if there is an icon in the closed region formed by the locus of the coordinates pointed by the
[0052]
As described above, the gesture of selection (2) is recognized.
FIG. 11 shows an operation flowchart of processing for recognizing the disconnection (1) according to the embodiment of the present invention.
In the process of recognizing the disconnection (1) gesture in step S1-5, first, the valid flag f in the recognition gesture table 23 is detected (step S4-1). Here, if the valid flag f is reset, since the gesture cannot be recognized, the recognition process ends. If the valid flag f is set, the gesture can be recognized. Next, the reset flag g in the recognition gesture table 23 is detected (step S4-2). If the reset flag g is set, it indicates that the recognition needs to be performed from the initial state. Therefore, first, whether or not the
[0053]
Next, the acquired coordinate data is added to the coordinate list (step S4-7). If the reset flag g is reset at step S4-2, coordinate data is added at step S4-7.
Here, it is determined whether or not the added coordinate data is the first coordinate in the coordinate list (step S4-8). When the indication position of the
[0054]
If the
[0055]
As a result of the search in step S4-10, if there is an icon whose
[0056]
Thus, the cutting (1) gesture is recognized.
FIG. 12 shows an operation flowchart of processing for recognizing the disconnection (2) according to the embodiment of the present invention.
In the process for recognizing the disconnection (2) gesture in step S1-6, first, the valid flag f in the recognition gesture table 23 is detected (step S5-1). Here, if the valid flag f is reset, since the gesture cannot be recognized, the recognition process ends. If the valid flag f is set, the gesture can be recognized. Next, the reset flag g in the recognition gesture table 23 is detected (step S5-2). If the reset flag g is set, it indicates that the recognition needs to be performed from the initial state. Therefore, first, whether or not the
[0057]
Next, the acquired coordinate data is added to the coordinate list (step S5-7). Here, when the reset flag g is reset in step S5-2, coordinate data is added continuously in step S5-7.
Here, it is determined whether or not the added coordinate data is the first coordinate in the coordinate list (step S5-8). When the indication position of the
[0058]
If the
[0059]
As a result of the search in step S5-10, if there is an icon whose trajectory of the
[0060]
Thus, the cutting (2) gesture is recognized.
FIG. 13 shows an operation flowchart of processing for recognizing the point (1) of the embodiment of the present invention.
In the process for recognizing the point (1) gesture in step S1-7, first, the valid flag f in the recognition gesture table 23 is detected (step S6-1). Here, if the valid flag f is reset, since the gesture cannot be recognized, the recognition process ends. If the valid flag f is set, the gesture can be recognized. Next, the reset flag g in the recognition gesture table 23 is detected (step S6-2). If the reset flag g is set, it indicates that the recognition needs to be performed from the initial state. Therefore, first, whether or not the
[0061]
In order to determine whether or not point (1) processing is being performed, it is next determined whether or not the
If the
[0062]
If there is an icon at the position indicated by the
[0063]
As described above, the gesture of point (1) is recognized.
FIG. 14 shows an operation flowchart of processing for recognizing the point (2) of the embodiment of the present invention.
In the process of recognizing the point (2) gesture in step S1-8, first, the valid flag f in the recognition gesture table 23 is detected (step S7-1). Here, if the valid flag f is reset, since the gesture cannot be recognized, the recognition process ends. If the valid flag f is set, the gesture can be recognized. Next, the reset flag g in the recognition gesture table 23 is detected (step S7-2). If the reset flag g is set, it indicates that the recognition needs to be performed from the initial state. Therefore, first, whether or not the
[0064]
In order to determine whether or not the processing is point (2), it is next determined whether or not the
If the
[0065]
If there is an icon at the position indicated by the
[0066]
As described above, the gesture of point (2) is recognized.
The
As described above, according to this embodiment, when an icon is to be moved, the icon to be moved is selected as a video effect by selecting the icon to be moved by selecting (1) or (2). The display is as if it was lifted from the screen, and the user can intuitively recognize that the icon has been selected. Further, when deleting an icon, a cutting line is displayed on the icon by writing x on the icon to be deleted with the
[0067]
In the present embodiment, the display control at the time of the movement process and the deletion process has been described. However, the present invention is not limited to this, and if the display control at the time of other processes is set in the gesture management table 21, the above-described movement process and Intuitive display can be performed as in the deletion process. In this embodiment, the movement / deletion of the icon is described. However, the present invention is not limited to the icon, and can be similarly applied to other figures / characters.
[0068]
【The invention's effect】
As mentioned above, according to the present invention,When moving an object, after the object is selected by the instruction means, the movement of the object can be grasped intuitively by shadowing the object by moving the instruction means away from the screen.Etc.
[Brief description of the drawings]
FIG. 1 is a block diagram of an embodiment of the present invention.
FIG. 2 is a block diagram of a main part of an embodiment of the present invention.
FIG. 3 is a configuration diagram of a management table for managing gesture operations according to an embodiment of the present invention.
FIG. 4 is a configuration diagram of a management table for managing parallel operations according to an embodiment of the present invention.
FIG. 5 is an operation explanatory diagram of movement processing (1) according to an embodiment of the present invention.
FIG. 6 is an operation explanatory diagram of movement processing (2) according to an embodiment of the present invention.
FIG. 7 is an operation explanatory diagram of deletion processing according to an embodiment of the present invention.
FIG. 8 is an operation flowchart of a CPU according to an embodiment of the present invention.
FIG. 9 is an operation flowchart of processing for recognizing selection (1) according to an embodiment of the present invention;
FIG. 10 is an operation flowchart of processing for recognizing selection (2) according to the embodiment of this invention.
FIG. 11 is an operation flowchart of processing for recognizing disconnection (1) according to an embodiment of the present invention.
FIG. 12 is an operation flowchart of processing for recognizing disconnection (2) according to an embodiment of the present invention;
FIG. 13 is an operation flowchart of processing for recognizing point (1) according to an embodiment of the present invention.
FIG. 14 is an operation flowchart of processing for recognizing point (2) according to the embodiment of the present invention.
[Explanation of symbols]
1 Computer system
2 pens
3 tablets
4 display
5 CPU
6 memory
11 Pen state recognition unit
12 Gesture recognition unit
13 Object selection part
14 Visual effects section
21 Gesture operation management table
22 Pointer management table
23 Recognition gesture table
24 progress management table
31 icon
32 Pen cursor
33 Shadow
34, 35 cutting line
Claims (3)
前記指示手段の状態を検出する検出手段と、
前記指示手段の動きに対応づけて前記オブジェクトへの映像効果を記憶した管理表と、
前記検出手段により検出された前記指示手段の状態に応じて前記指示手段の動きを認識し、前記指示手段の動きに応じて前記管理表を参照して、前記管理表から取得された映像効果に応じて前記オブジェクトの表示を制御する表示制御手段とを有し、
前記表示制御手段は、前記オブジェクトを移動させるときに、前記指示手段により前記オブジェクトを選択した後、前記指示手段を画面より離間させる動作により前記オブジェクトに影付けを行なうことを特徴とする表示制御装置。In a display control device that controls display of an object displayed on a screen in accordance with an instruction from an instruction unit,
Detecting means for detecting the state of the indicating means ;
A management table storing video effects on the object in association with the movement of the instruction means;
The movement of the instruction unit is recognized according to the state of the instruction unit detected by the detection unit, and the management table is referred to according to the movement of the instruction unit to obtain the video effect obtained from the management table. Display control means for controlling the display of the object in response ,
The display control means is operated to move the object, wherein after selecting the object by the instruction means, the display control device, characterized in that the operation of separating from the screen the indication means performs shading on the object .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP26047895A JP3688361B2 (en) | 1995-10-06 | 1995-10-06 | Display control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP26047895A JP3688361B2 (en) | 1995-10-06 | 1995-10-06 | Display control device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09101874A JPH09101874A (en) | 1997-04-15 |
JP3688361B2 true JP3688361B2 (en) | 2005-08-24 |
Family
ID=17348517
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP26047895A Expired - Fee Related JP3688361B2 (en) | 1995-10-06 | 1995-10-06 | Display control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3688361B2 (en) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004295159A (en) | 2003-02-07 | 2004-10-21 | Sony Corp | Icon display system and method, electronic equipment, and computer program |
US7509588B2 (en) | 2005-12-30 | 2009-03-24 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
EP2047894A1 (en) * | 2006-08-01 | 2009-04-15 | Sega Corporation | Method for controlling selection of objects displayed on display, game machine using same, and program for controlling execution of the method |
US10313505B2 (en) | 2006-09-06 | 2019-06-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface for configuring and displaying widgets |
US8519964B2 (en) | 2007-01-07 | 2013-08-27 | Apple Inc. | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display |
US8713458B2 (en) | 2007-02-15 | 2014-04-29 | Nokia Corporation | Visualization of information associated with applications in user interfaces |
US9772751B2 (en) | 2007-06-29 | 2017-09-26 | Apple Inc. | Using gestures to slide between user interfaces |
US11126321B2 (en) | 2007-09-04 | 2021-09-21 | Apple Inc. | Application menu user interface |
US9619143B2 (en) | 2008-01-06 | 2017-04-11 | Apple Inc. | Device, method, and graphical user interface for viewing application launch icons |
US8619038B2 (en) | 2007-09-04 | 2013-12-31 | Apple Inc. | Editing interface |
JP4968587B2 (en) * | 2007-11-21 | 2012-07-04 | 横河電機株式会社 | Object moving device |
US10788976B2 (en) | 2010-04-07 | 2020-09-29 | Apple Inc. | Device, method, and graphical user interface for managing folders with multiple pages |
US8423911B2 (en) | 2010-04-07 | 2013-04-16 | Apple Inc. | Device, method, and graphical user interface for managing folders |
JP2012089112A (en) * | 2010-09-22 | 2012-05-10 | Nikon Corp | Image display device |
JP5655550B2 (en) * | 2010-12-22 | 2015-01-21 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
US20130055169A1 (en) * | 2011-08-25 | 2013-02-28 | Samsung Electronics Co. Ltd. | Apparatus and method for unlocking a touch screen device |
US20130050143A1 (en) * | 2011-08-31 | 2013-02-28 | Samsung Electronics Co., Ltd. | Method of providing of user interface in portable terminal and apparatus thereof |
CN103019426A (en) * | 2011-09-28 | 2013-04-03 | 腾讯科技(深圳)有限公司 | Interacting method and interacting device in touch terminal |
US10289660B2 (en) | 2012-02-15 | 2019-05-14 | Apple Inc. | Device, method, and graphical user interface for sharing a content object in a document |
EP2891949A4 (en) * | 2012-08-30 | 2015-09-16 | Panasonic Ip Corp America | Information input device and information display method |
JP5489377B1 (en) | 2012-12-28 | 2014-05-14 | パナソニック株式会社 | Display device, display method, and display program |
JP2014149614A (en) * | 2013-01-31 | 2014-08-21 | Toshiba Corp | Electronic apparatus and handwritten document processing method |
KR102405189B1 (en) | 2013-10-30 | 2022-06-07 | 애플 인크. | Displaying relevant user interface objects |
JP6536350B2 (en) * | 2015-10-26 | 2019-07-03 | 船井電機株式会社 | Input device |
DK201670595A1 (en) | 2016-06-11 | 2018-01-22 | Apple Inc | Configuring context-specific user interfaces |
US11816325B2 (en) | 2016-06-12 | 2023-11-14 | Apple Inc. | Application shortcuts for carplay |
US11675476B2 (en) | 2019-05-05 | 2023-06-13 | Apple Inc. | User interfaces for widgets |
-
1995
- 1995-10-06 JP JP26047895A patent/JP3688361B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH09101874A (en) | 1997-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3688361B2 (en) | Display control device | |
JP5204305B2 (en) | User interface apparatus and method using pattern recognition in portable terminal | |
CN104035671B (en) | Page operations method and its electronic device | |
US8525839B2 (en) | Device, method, and graphical user interface for providing digital content products | |
US5564112A (en) | System and method for generating place holders to temporarily suspend execution of a selected command | |
JP5659586B2 (en) | Display control device, display control method, display control program, and recording medium | |
US5249296A (en) | Information processing apparatus for controlling window positions | |
KR20090055982A (en) | Method and system for producing and managing documents based on multi-layer on touch-screens | |
CN103150113A (en) | Method and device for selecting display content of touch screen | |
JP3385965B2 (en) | Input device and input method | |
TWI485616B (en) | Method for recording trajectory and electronic apparatus | |
JP5725127B2 (en) | Portable terminal device, data operation processing method, and data operation processing program | |
JP5165661B2 (en) | Control device, control method, control program, and recording medium | |
WO2014103357A1 (en) | Electronic apparatus and input method | |
JPH09114624A (en) | Menu display method | |
JP5749245B2 (en) | Electronic device, display method, and display program | |
JPH06282400A (en) | Method and system for automatic save and display of pop up menu | |
JP2003140791A (en) | Information processor and method for controlling information processor | |
JP2000020198A (en) | Terminal controlling method, terminal device using it and computer-readable recording medium stored with program for realizing it | |
JPH06301472A (en) | Handwriting input device | |
JP6408273B2 (en) | Information processing apparatus, information processing program, and information processing method | |
JP2018092681A (en) | Control program, control method, and information processing apparatus | |
JP6475874B2 (en) | Information processing apparatus, information processing program, and information processing method | |
JPH06309093A (en) | Handwriting input device | |
JP2015109116A (en) | Electronic apparatus, display method and display program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040709 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050516 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050608 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090617 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100617 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110617 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120617 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120617 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130617 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140617 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |