JP2009526314A - タッチ入力を確認するための方法 - Google Patents

タッチ入力を確認するための方法 Download PDF

Info

Publication number
JP2009526314A
JP2009526314A JP2008554248A JP2008554248A JP2009526314A JP 2009526314 A JP2009526314 A JP 2009526314A JP 2008554248 A JP2008554248 A JP 2008554248A JP 2008554248 A JP2008554248 A JP 2008554248A JP 2009526314 A JP2009526314 A JP 2009526314A
Authority
JP
Japan
Prior art keywords
animated
control
displaying
touch
animation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008554248A
Other languages
English (en)
Other versions
JP5068771B2 (ja
Inventor
チェン クリスティーナ
ヘニオン ジョージ
ホフマイスター ニック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2009526314A publication Critical patent/JP2009526314A/ja
Application granted granted Critical
Publication of JP5068771B2 publication Critical patent/JP5068771B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

コントロールに対応する座標における接触感知ディスプレイとの接触を検出することを含む、接触感知ディスプレイを用いたタッチ入力を確認するためのシステムおよび方法。接触感知ディスプレイ上のアニメーションによる描画が表示され、コントロールに対応する座標における接触感知ディスプレイとの接触がアニメーションによる描画の開始から終了までにわたる期間中ずっと検出される場合、アクションがアニメーションによる描画の終了時に実行される。

Description

本発明は、タッチ入力を確認するための方法に関する。
ユーザビリティ(使いやすさ)を高め、コンピュータをさらに多様に使用できるようにするために様々なデータ入力技術が開発されてきた。典型的なコンピューティング環境、特に、ユーザのインタラクション(コンピュータと対話すること)のためのグラフィカルユーザインターフェースを組み込むコンピューティング環境は、1つまたは複数の別個の入力デバイスから入力を受け取るように最適化されることができる。例として、人は、キーボードを用いて文字(すなわち、テキスト、数字、および記号)を入力することができ、マウスまたはトラックボールなどのポインティングデバイスを用いてディスプレイ上のポインタの画像の位置を制御することができる。グラフィカルユーザインターフェースを組み込むコンピューティング環境は、音声入力方法および手書き入力方法を含む1つまたは複数の自然入力方法を通じて入力を受け取ることもできる。音声入力方法に関して、音声入力の音素が、音声入力をタイプされたテキストに変換するために分析される。手書き入力方法に関して、ペン型のスタイラスが、ポインティングデバイスの通常の用途に役立つように、および手書きをタイプされたテキストに変換するために分析される電子インクを生成するために利用されることができる。
別の自然入力方法は、ユーザが接触感知ディスプレイを(例えば、指を使って)触って、アクションを実行するか、または接触感知ディスプレイによって描画されたボタンおよびメニューを作動するタッチ入力である。接触感知ディスプレイは、概して2つのコンポーネント、すなわち、ディスプレイおよびタッチセンサを含む。ディスプレイは、例えば、ブラウン管ディスプレイ、LEDディスプレイ、またはプラズマディスプレイを含む任意の通常のディスプレイであってよい。概して、よく利用されるタッチセンサは、抵抗式システムおよび静電容量式システムのうちの一方である。抵抗式システムおよび静電容量式システムのタッチセンサは、ディスプレイを覆い、少なくとも半透明であり、それによって、ディスプレイがタッチセンサ越しに見られることを可能にする。別のタッチセンサは、表面弾性波システムである。これらのシステムのそれぞれが以下でより詳細に説明される。
抵抗式システムは、ディスプレイを覆うガラスパネルを含む。ガラスパネルは、互いに間を空けられた導電層と抵抗層とで覆われる。傷防止層が抵抗式システムの外面を形成することもできる。ディスプレイの動作中、電流が導電層および抵抗層を通り抜ける。ユーザが傷防止層に触り、圧力をかけるとき、導電層および抵抗層が、対応する位置で互いに接触する。電界の変化が認識され、接触位置の座標が計算され、入力に変換される。
静電容量式システムは、電荷を蓄積し、ディスプレイを覆う静電容量層を含む。ユーザが静電容量層に触るとき、電荷の一部がユーザに伝えられ、それによって静電容量層の電荷を減らす。電荷の減少が、静電容量層のそれぞれの端に配置された回路で計測され、コンピュータが、それぞれの端の電荷の相対的な差から接触位置の座標を計算する。
表面弾性波システムは、表示面の軸に沿って配置された2つのトランスデューサ(1つの受信トランスデューサおよび1つの送信トランスデューサ)を含む。さらに、表面弾性波システムは、一方のトランスデューサから他方のトランスデューサに送信された信号を反射する種々の反射器を含む。受信トランスデューサが、波が接触によって乱されたかどうかを検出し、コンピュータが接触位置の座標を計算し、その座標が入力に変換される。
場合によっては、ユーザは、接触感知ディスプレイの領域に意図せずに触ってしまうか、または別のやり方で接触してしまい、それによって、ユーザが実行または作動することを意図していなかったアクションを実行するか、またはコントロールを作動する可能性がある。例えば、ユーザは、ソフトウェアアプリケーションを終了するか、製品もしくはサービスを購入するか、またはゲームアプリケーションの取り消すことができないアクションを実行するコントロールに意図せずに触れて作動する可能性がある。接触感知ディスプレイに意図せずに接触することの影響を制限するために、本発明の種々の態様は、コントロールに対応する座標における接触感知ディスプレイとの接触を検出することを含む方法を含む。接触感知ディスプレイ上のアニメーションによる描画が表示され、コントロールに対応する座標における接触感知ディスプレイとの接触がアニメーションによる描画の開始から終了までにわたる期間中ずっと検出される場合、アクションがアニメーションによる描画の終了時に実行される。
アニメーションによる描画は、アニメーションによる描画の少なくとも一部の色を修正することを含むことができるか、またはアニメーションによる描画の少なくとも一部の幅、長さ、色のグラデーション、および色のスペクトルのうちの少なくとも1つを修正することを含むことができる。可聴信号が、アニメーションによる描画と共に含まれることもできる。一部の態様において、テーマを有するソフトウェアアプリケーションがロードされ、アニメーションによる描画が、テーマに対応する視覚的な要素を持つように選択される。
本発明の種々の態様を特徴付ける新規性の利点および特徴が、添付の特許請求の範囲において具体的に示される。しかし、新規性の利点および特徴のさらなる理解を得るために、本発明の態様に関連する種々の実施形態および概念を説明し、例示する以下の説明内容および添付の図面に対する参照がなされることができる。
上述の「発明の開示」、および以下の「発明を実施するための最良の形態」は、添付の図面と併せて読まれる場合により深く理解されるであろう。
導入
以下の説明および添付の図は、接触感知ディスプレイを組み込むコンピュータシステムに関し、接触感知ディスプレイの使用を通じて入力された選択されたアクションを確認するためのシステムおよび方法を開示する。接触感知ディスプレイを有するコンピュータシステムを利用するために、ユーザは、接触感知ディスプレイを(例えば、指を使って)触って、アクションを実行するか、または接触感知ディスプレイによって描画されたコントロール(例えば、ボタンおよびメニュー)を作動する。場合によっては、ユーザは、接触感知ディスプレイの領域に意図せずに触ってしまうか、または別のやり方で接触してしまい、それによって、ユーザが実行または作動することを意図していなかったアクションを実行するか、またはコントロールを作動する可能性がある。例えば、ユーザは、ソフトウェアアプリケーションを終了するか、製品もしくはサービスを購入するか、またはゲームアプリケーションの取り消すことができないアクションを実行するコントロールに意図せずに触れて作動する可能性がある。接触感知ディスプレイに意図せずに触れることの影響を制限するために、本発明の種々の態様は、ユーザが、アクションを実行するか、または特定のコントロールを作動することを意図することを確認するために、ユーザが、接触感知ディスプレイ上のアニメーションによる描画中ずっと接触感知ディスプレイのある領域に接触したままであるプロセスを含む。
例示的なコンピューティングシステム環境
図1は、本明細書の特徴が実装されることができる好適なコンピューティングシステム環境100の例を示す。コンピューティングシステム環境100は、好適なコンピューティング環境の一例に過ぎず、本明細書において説明される特徴の用途または機能の範囲に関するいかなる限定を示唆するようにも意図されない。同様に、コンピューティング環境100は、例示的な動作環境100に示されたコンポーネントの任意の1つまたは組合せに関していかなる依存性または要求を有するようにも解釈されるべきではない。
本明細書の特徴が、コンピュータによって実行されているプログラムモジュールなどのコンピュータが実行可能な命令との全般的な関連で説明される。概して、プログラムモジュールは、特定のタスクを実行するか、または特定の抽象データ型を実装するルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。さらに、当業者は、それらの特徴がハンドヘルドデバイス、マルチプロセッサシステム、マイクロプロセッサベースのまたはプログラム可能な家庭用電化製品、ミニコンピュータ、メインフレームコンピュータなどを含むその他のコンピュータシステム構成を用いて実施されることができることを理解するであろう。それらの特徴は、通信ネットワークを介して接続されたリモートの処理デバイスによってタスクが実行される分散コンピューティング環境において実施されることもできる。分散コンピューティング環境においては、プログラムモジュールは、メモリ記憶装置を含むローカルのコンピュータ記憶媒体およびリモートのコンピュータ記憶媒体の両方に配置されることができる。
図1を参照すると、本明細書において説明される特徴を実装するための例示的なシステム100は、処理ユニット120と、システムメモリ130と、システムメモリを含む種々のシステムコンポーネントを処理ユニット120に結合するシステムバス121とを含むコンピュータ110の形態の汎用コンピューティングデバイスを含む。
コンピュータ110は、様々なコンピュータ可読媒体を含むことができる。限定でなく例として、コンピュータ可読媒体は、コンピュータ記憶媒体および通信媒体を含むことができる。システムメモリ130は、読み出し専用メモリ(ROM)131およびランダムアクセスメモリ(RAM)132などの揮発性および/または不揮発性メモリの形態のコンピュータ記憶媒体を含むことができる。起動中などにコンピュータ110内の要素間で情報を転送することに役立つ基礎的なルーチンを含む基本入出力システム133(BIOS)が、ROM131に記憶されることができる。RAM132は、処理ユニット120によって直ちにアクセスできる、および/または処理ユニット120によって現在使用されているデータおよび/またはプログラムモジュールを含むことができる。限定ではなく例として、図1は、オペレーティングシステム134、アプリケーションプログラム135、その他のプログラムモジュール136、およびプログラムデータ137を示す。
コンピュータ110は、その他のリムーバブル/非リムーバブルの揮発性/不揮発性コンピュータ記憶媒体を含むこともできる。単なる例として、図1は、非リムーバブル不揮発性磁気媒体からの読み出し、または当該磁気媒体に対する書き込みを行うハードディスクドライブ141と、リムーバブル不揮発性磁気ディスク152からの読み出し、または当該磁気ディスクに対する書き込みを行う磁気ディスクドライブ151と、CD ROMまたはその他の光媒体などのリムーバブル不揮発性光ディスク156からの読み出し、または当該光ディスクに対する書き込みを行う光ディスクドライブ155とを示す。例示的な動作環境で使用されることができるその他のリムーバブル/非リムーバブルの揮発性/不揮発性コンピュータ記憶媒体は、磁気テープカセット、フラッシュメモリカード、デジタルバーサタイルディスク、デジタルビデオテープ、固体RAM、固体ROMなどを含むがこれらに限定されない。ハードディスクドライブ141は、インターフェース140などの非リムーバブルメモリインターフェースを介してシステムバス121に接続されることができ、磁気ディスクドライブ151および光ディスクドライブ155は、インターフェース150などのリムーバブルメモリインターフェースによってシステムバス121に接続されることができる。
上で説明され図1に示されたドライブおよびそれらのドライブに関連するコンピュータ記憶媒体は、コンピュータ110のためのコンピュータ可読命令、データ構造、プログラムモジュール、およびその他のデータの記憶を行うことができる。図1において、例えばハードディスクドライブ141は、オペレーティングシステム144、アプリケーションプログラム145、その他のプログラムモジュール146、およびプログラムデータ147を記憶するものとして示されている。これらのコンポーネントは、オペレーティングシステム134、アプリケーションプログラム135、その他のプログラムモジュール136、およびプログラムデータ137と同じであるか、または異なるかのいずれであってもよいことに留意されたい。オペレーティングシステム144、アプリケーションプログラム145、その他のプログラムモジュール146、およびプログラムデータ147は、少なくともそれらが異なるコピーであることを示すためにここでは異なる番号が与えられる。ユーザは、キーボード162、および一般的にマウス、トラックボール、またはタッチパッドと呼ばれるポインティングデバイス161などの入力デバイスを介してコンピュータ110に命令および情報を入力することができる。その他の入力デバイス(図示せず)は、マイクロホン、ジョイスティック、ゲームパッド、衛星通信用パラボラアンテナ、スキャナなどを含む可能性がある。これらのおよびその他の入力デバイスは、システムバスに結合されているユーザ入力インターフェース160を介して処理ユニット120に接続されることが多いが、パラレルポート、ゲームポート、またはユニバーサルシリアルバス(USB)などのその他のインターフェースおよびバス構造によって接続されてもよい。モニタ191またはその他の種類のディスプレイデバイスも、ビデオインターフェース190などのインターフェースを介してシステムバス121に接続されることができる。ビデオインターフェース190は双方向的であることができ、モニタ191に関連するセンサからのビデオ入力を受信することができる。例えば、モニタ191は、モニタ表面への接触が入力データとして使用されることができるように接触および/または接近を感知することができる。これに影響を与えるための入力センサは、静電容量式接触感知デバイス、抵抗式接触センサのアレイ、光学式センサもしくはカメラ、またはモニタ191が接触および/または接近を感知できるようにするための任意のその他の所望のセンサである可能性がある。代替的な構成において、または加えて、接触および/または接近感知入力システムは、モニタ191と分かれていてよく、テーブルの上面192などの平面と、カメラ193などの、平面が接触を感知できるようにするための任意の適用可能な感知システムとを含むことができる。モニタに加えて、コンピュータは、出力周辺機器インターフェース195を介して接続されることができる、スピーカ197およびプリンタ196などのその他の周辺出力デバイスを含んでもよい。
コンピュータ110は、リモートコンピュータ180などの1つまたは複数のリモートコンピュータへの論理接続を使用したネットワーク化された環境で動作することができる。リモートコンピュータ180はパーソナルコンピュータであってよく、図1にはメモリ記憶装置181のみが示されたが、概して、コンピュータ110に関して上述された要素の多くまたは全てを含む。図1に示された論理接続は、ローカルエリアネットワーク(LAN)171および広域ネットワーク(WAN)173を含むが、その他のネットワークを含んでもよい。
LANネットワーキング環境において使用される場合、コンピュータ110は、ネットワークインターフェースまたはアダプタ170を介してLAN171に接続されることができる。WANネットワーキング環境において使用される場合、コンピュータ110は、モデム172、またはインターネットなどのWAN173を介して通信を確立するためのその他の手段を含むことができる。内蔵でも外付けでもよいモデム172は、ユーザ入力インターフェース160またはその他の適切なメカニズムを介してシステムバス121に接続されることができる。ネットワーク化された環境において、コンピュータ110に関連して示されたプログラムモジュール、またはそれらのモジュールの一部は、リモートのメモリ記憶装置に記憶されることができる。限定ではなく例として、図1は、メモリ装置181に存在するものとしてリモートアプリケーションプログラム185を示す。図示されたネットワーク接続は例示的であり、コンピュータ間で通信リンクを確立するその他の手段が使用され得ることが理解されるであろう。本明細書において説明される特徴の多くは、処理ユニット120を構成する1つまたは複数のユニットで実行するために上述の媒体などの1つまたは複数のコンピュータ可読媒体に記憶されたコンピュータが実行可能な命令を使用して実装されることができる。
図1に示されたコンピューティングデバイスは、図2に示されるテーブルディスプレイデバイス200を有するシステムに組み込まれることができる。ディスプレイデバイス200は、テーブルの上面などの平面であってよい表示面201を含むことができる。以下で説明されるように、表示面201は、ユーザインターフェースとして機能することに役立つこともできる。
ディスプレイデバイス200は、コンピュータによって生成された画像をそのディスプレイデバイス200の表示面201上に表示することができ、このことは、デバイス200がコンピューティングプロセス、テレビまたはその他の視覚的画像の表示、ビデオゲームなどのためのディスプレイモニタとして使用されることを可能にする。ディスプレイは投射型であってよく、デジタルライトプロセッシング(digital light processing)(DLP)技術を使用することができるか、またはディスプレイは液晶ディスプレイ(LCD)技術などのその他のディスプレイ技術に基づくことができる。プロジェクタ202が、表示面201の下面に光を投射するために使用されることができる。プロジェクタ202は、直接そのように光を投射することができるか、または1つもしくは複数の鏡を使用してそのように光を投射することができる。図2に示されるように、プロジェクタ202が、所望の画像に関する光を第1の反射面203aに投射し、次に、第1の反射面203aが光を第2の反射面203bに反射することができ、最後に、第2の反射面203bがその光を表示面201の下面に反射することができ、面201に所望の表示に対応する光を放射させる。
画像を表示するための出力ディスプレイとして使用されることに加えて、デバイス200は、入力受け取りデバイスとしても使用されることができる。図2に示されるように、デバイス200は、デバイスの内部に取り付けられた、IR発光ダイオード(LED)などの1つまたは複数の発光デバイス204を含むことができる。デバイス204からの光は、表示面201を通って上方に投射されることができ、表示面201の上にある様々なオブジェクトに反射することができる。例えば、1つまたは複数のオブジェクト205が、表示面201に物理的に接触して置かれる可能性がある。1つまたは複数のその他のオブジェクト206が、表示面201に近いが、物理的に接触はせずに(例えば、近くに浮かんで)置かれる可能性がある。(1つまたは複数の)発光デバイス204から放射された光は、これらのオブジェクトに反射することができ、IR光が使用される場合にはIRカメラであってよいカメラ207によって検出されることができる。次に、カメラ207からの信号が、オブジェクトの形状と反射光の量/種類とに基づいてオブジェクトおよびオブジェクトの向き(例えば、触れているかまたは浮いている、傾いている、部分的に触れているなど)を種々のアプリケーションのための種々の設定に基づいて特定することができる処理のためにコンピューティングデバイス(例えば、図1に示されたデバイス)に転送されることができる。オブジェクト205、206の特定を補助するために、オブジェクトは、それらのオブジェクトの下面にバーコードなどの反射パターンを含むことができる。接触しているオブジェクト205を浮いているオブジェクト206と区別することを補助するために、表示面201は、放射された光を拡散する透光層を含むことができる。反射されてこの層を通ってカメラ207に戻る光の量に基づいて、関連する処理システムは、オブジェクトが面201に触れているかどうかを判定することができ、オブジェクトが触れていない場合、オブジェクトと面201との間の距離を判定することができる。したがって、種々の物理的なオブジェクト(例えば、指、肘、手、スタイラスペン、ブロックなど)が、物理的な制御部材として使用されることができ、デバイス200に(または関連するコンピューティングデバイスに)入力を提供することができる。
図2に示されたデバイス200は、データの表示および入力の受け取りのために光投射および検出技術を使用するものとして示されているが、その他の技術も同様に使用されることができる。例えば、スタイラス感知ディスプレイが、タブレットに基づくラップトップコンピュータで現在使用可能であり、そのようなディスプレイはデバイス200として使用されることができる。さらに、スタイラスおよび接触感知ディスプレイが、多くの携帯情報端末(PDA)で利用可能であり、それらの種類のディスプレイもデバイス200として使用されることができる。
また、デバイス200は、表示面201がテーブルの上面として機能するようにして実質的に水平の向きに示される。その他の向きも使用されることができる。例えば、デバイス200は、垂直の壁などの任意の所望の面に表示を投射するように向きを決められることができる。反射IR光は、任意のそのような向きを決められた面からやはり受け取られることができる。
インターフェースの説明
図3Aを参照すると、コントロール301が、表示面201などの接触感知ディスプレイ上に描画されたグラフィカルユーザインターフェースの一部として示される。したがって、グラフィカルユーザインターフェースは、接触感知ディスプレイ上に描画される種々の画像と、タッチ入力方法またはその他の入力方法を通じて作動されることができるコントロールとを含む、図3Aに示されていないその他の要素を組み込むことができる。コントロール301は、対象領域303およびフィードバック/アニメーション領域305を含むものとして示される。対象領域303は、ゴルフボールの外観を有する概して円形の形態を有し、対象領域303は、斜め方向に伸びる単語「EXIT」を包含する。フィードバック/アニメーション領域305は、対象領域303の一部に近接し、対象領域303の一部の周りに広がる複数のブロック部分307A〜307Lを含む。ブロック部分307Aは概して三角形の形態を有する一方、ブロック部分307B〜307Lのそれぞれは、台形、長方形、または正方形の形状を呈する。さらに、ブロック部分307Lは、文字「X」または類似した形状の記号を含む。
コントロール301は、この例においてはソフトウェアアプリケーションを終了することである重大な取り消すことができないアクションを実行するための機能をユーザに提供するアニメーションによるフィードバック確認グラフィックである。以下でより詳細に説明されるように、ソフトウェアアプリケーションを終了するためにユーザによって使用される通常の手順は、(a)コントロール301に対応する位置において接触感知ディスプレイに触れることと、(b)接触感知ディスプレイ上にアニメーションが描画される間中ずっとコントロール301に対応する接触感知ディスプレイの部分に接触したままであることとを伴う。ユーザが、アニメーションによる描画中ずっと、コントロール301に対応する位置において接触感知ディスプレイに接触したままである場合、ソフトウェアアプリケーションは終了するか、またはそうでなければ閉じる。したがって、コントロール301は、ユーザがソフトウェアアプリケーションを終了するために利用することができるコントロールである。本発明のさらなる態様において、同様のコントロールが、例えば、製品およびサービスの購入、または取り消すことができないアクションの実行を含むその他の機能のために利用されることができる。
ここで、ソフトウェアアプリケーションを終了するためにユーザによって使用される手順がより詳細に説明される。図3Bを参照すると、ユーザの手309が、コントロール301に(すなわち、コントロール301に対応する接触感知ディスプレイの位置に)触れているか、または別のやり方で接触しているものとして示される。より具体的には、手309の指が、対象領域303に接触するように伸ばされる。コントロール301に接触すると、ブロック部分307A〜307Lは、連続的にアニメーションされるようになり、このアニメーションは、図3C〜3Fに示されるようにコントロール301にアニメーションの性質を与えるためにこの例においては色の変化を伴う。ブロック部分307A〜307Lのそれぞれが色を変更してしまうと、アニメーションによる描画が完了し、ソフトウェアアプリケーションが終了する。
手309が最初にコントロール301に接触するとき、図3Bに示されるように、ブロック部分307A〜307Lは、図3Aのように同じ色を呈する。次に、図3Cに示されるように、ブロック部分307Aが色を変え、ブロック部分307B〜307Dが順番に続く。ユーザがコントロール301に接触したままである場合、図3Dに示されるように、ブロック部分307E〜307Hが連続的に色を変更してアニメーションによる描画を継続する。ユーザがコントロール301に接触したままであり続ける場合、図3Eに示されるように、ブロック部分307Iおよび307Jが連続的に色を変更する。最後に、ユーザがコントロール301に接触したままであり続ける場合、図3Fに示されるように、ブロック部分307Kおよび307Lが連続的に色を変更し、その結果、ブロック部分307A〜307Lのそれぞれがアニメーションによる描画を通じて色を変更し終わる。ブロック部分307A〜307Lのそれぞれの色の変更に続いて、ソフトウェアアプリケーションが終了する。この例において、手309は、コントロール301に触れ、アニメーションによる描画を開始する物理的なオブジェクトとして利用される。本発明のさらなる構成において、その他の物理的なオブジェクト(例えば、肘、手、スタイラスペン、ブロックなど)が、デバイス200に入力を与えるか、または別のやり方でコントロール301に接触する物理的な制御部材として使用されることができる。
上述の説明に基づいて、コントロール301に対応する接触感知ディスプレイの部分に接触することは、ブロック部分307A〜307Lの連続的なアニメーションによる変化(すなわち、色の変更)を含むアニメーションによる描画を開始する。ブロック部分307A〜307Lのそれぞれが色を変更してしまうと、アニメーションによる描画が完了し、ソフトウェアアプリケーションが終了する。ブロック部分307A〜307Lが色を変更する期間(すなわち、コントロール301との接触とソフトウェアアプリケーションの終了との間の期間)は、例えば、0.5秒から1分までの範囲を含むように大きく変わる可能性がある。場合によっては、ユーザは、意図せずにコントロール301に触れるか、または別のやり方で接触する可能性がある。ソフトウェアアプリケーションの終了(すなわち、取り消すことができないアクション)がコントロール301に最初に接触するや否や行われる場合、コントロール301との意図しない接触は、ソフトウェアアプリケーションを意図せずに閉じさせてしまい、この閉じることはユーザの意図に反する可能性がある。最初の接触とソフトウェアアプリケーションの終了との間にアニメーションによる描画(すなわち、期間)を提供することによって、ソフトウェアアプリケーションの意図しない終了の可能性が最小化される。さらに、最初の接触とソフトウェアアプリケーションの終了との間の期間を提供することによって、ユーザは、取り消すことができないアクションと、ユーザが取り消すことができないアクションを実行することを本当に意図するかどうかとを考える機会を与えられる。したがって、コントロール301に接触することと、アニメーションによる描画中ずっとコントロール301に接触したままであることとは、ユーザが、ソフトウェアアプリケーションを終了するか、またはそうでなければ、取り消すことができないアクションを実行するように本当に意図することの確認として機能する。
図4A〜4Cは、ユーザが意図せずにコントロール301に接触するか、またはアニメーションによる描画の開始後にソフトウェアプログラムを終了しないと判断するシナリオにおけるコントロール301を示す。図4Aを参照すると、ユーザに最初に接触するときのコントロール301が示され、ブロック部分307A〜307Lのそれぞれは同じ色を呈する。図4Bに示されるように、次に、ブロック部分307A〜307Dが、図3Cに関して上述されているのと同じやり方で連続的に色を変更する。アニメーションによる描画を取り消すか、または別のやり方で止め、ソフトウェアプログラムを終了しないようにするために、次に、ユーザは、コントロール301との接触をやめるために手309をどける。手309をどけると、図4Cに示されるように、アニメーションによる描画が止まり、コントロール301は最初の状態に戻る。したがって、ブロック部分307A〜307Dは、再び色を変更し、それらのブロック部分の最初の状態に戻る。
図4A〜4Cに関連して検討された一連のイベントは、コントロール301との意図しない接触が原因で起こる可能性がある。接触感知ディスプレイを有するコンピュータシステムの使用中、手309またはユーザのその他の部位(例えば、手首、前腕、反対の手、ゆったりした服の一部)が、コントロール301に対応する位置において接触感知ディスプレイに接触する可能性がある。この接触が起こる場合、ユーザは、ブロック部分307A〜307Lのうちの1つまたは複数の色の変化(すなわち、アニメーションによる描画)を見ることができ、ソフトウェアアプリケーションが終了しないようにするために速やかに接触を中止することができる。たとえユーザがアニメーションによる描画を見ないとしても、最初の接触とソフトウェアアプリケーションの終了との間の期間は、ユーザがその後の動作によって接触を確実に中止するのに十分なだけ長くすることができる。
また、図4A〜4Cに関連して説明された一連のイベントは、ユーザの意図が変わったために起こる可能性がある。例えば、ユーザは、ソフトウェアアプリケーションを終了することを意図し、コントロール301に意図的に接触する可能性がある。しかし、アニメーションによる描画の終了に先立って、ユーザは、ソフトウェアアプリケーションを終了しないと判断する可能性がある。終了しないようにするために、ユーザは、単に、コントロール301との接触領域から手309をどける。換言すると、ユーザは、ソフトウェアアプリケーションの終了が行われないようにするためにコントロール301との接触を中止する。
コントロール301との接触を中止する1つのやり方は、持ち上げるか、またはその他のやり方で接触感知ディスプレイとの接触を中止することである。コントロール301との接触を中止する別のやり方は、手309をコントロール301に対応しないグラフィカルユーザインターフェースの部分に滑らせるか、またはその他のやり方で移動することである。しかし、本発明の一部の態様において、手309をコントロール301に対応しないグラフィカルユーザインターフェースの部分に移動することは、コントロール301のアニメーションによる描画を停止せず、ソフトウェアアプリケーションを終了することを回避しない可能性がある。すなわち、コンピューティング環境は、持ち上げるか、またはその他のやり方で接触感知ディスプレイとの接触を中止することだけが、コントロール301のアニメーションによる描画を停止し、ソフトウェアアプリケーションが終了しないようにするのに十分であるように構成されることができる。
コントロール301に関連するアニメーションによる描画は、ブロック部分307A〜307Lの色の連続した変化として上で説明され、図に示されている。色の変化は、(例えば、赤色から黄色への、青色から緑色への、橙色から青色への、もしくは茶色から金色への)スペクトル色の変化、(例えば、薄い橙色から濃い橙色への、濃い青色から薄い青色への、濃い黄色から薄い黄色への、灰色から黒色への)色のグラデーションの変化、またはスペクトル色および色のグラデーションの変化の組合せであることができる。コントロール301において、ブロック部分307A〜307Lは、それぞれグラデーションまたはスペクトルが変化する様々な色をそれぞれ含むことができる。すなわち、ブロック部分307A〜307Lのそれぞれは、最初に、橙色から赤色までの範囲の色を有する可能性があり、色の変化の後、ブロック部分307A〜307Lは、黄色から橙色までの範囲の色を有する可能性がある。コントロール301は、ブロック部分307A〜307Lのうちの一部または全てが、接触すると変化する様々な色を最初に有するように構成されることもできる。さらなる代替として、対象領域303に関連する色が、コントロール301のアニメーションによる描画中ずっと変化することもできる。したがって、色の変化がコントロール301のアニメーションによる描画中に起こるやり方は、大きく変わる可能性がある。
コントロール301に関する様々なその他のアニメーション技術が、色の変化に加えて利用されることができる。コントロール301のアニメーションによる描画は、対象領域303またはフィードバック/アニメーション領域305の形状の変化を含むことができる。例えば、対象領域303が、アニメーションによる描画中にサイズが大きくなるか、もしくは小さくなることができ、またはブロック部分307A〜307Lが、三角形、台形、長方形、もしくは正方形から任意のその他の幾何学的もしくは非幾何学的形状に変化することができる。コントロール301の一部は、コントロール301のアニメーションによる描画中に消えるか、または透明もしくは半透明になることもできる。例えば、ブロック部分307A〜307Lは、アニメーションによる描画が進むにつれて順次消えることができる。コントロール301のアニメーションによる描画は、対象領域303の消失、対象領域303の爆発、または対象領域303がアニメーションによる描画の最後の要素として接触感知スクリーンから消えるまでの対象領域303の縦揺れを組み込むこともできる。したがって、上で説明された色の変化に加えて、広範囲のアニメーション技術がコントロール301と共に利用されることができる。
コントロール301のアニメーションによる描画は、色の変化またはその他のアニメーション技術を含むことができる視覚的性質を有するものとして上で説明されている。視覚的性質に加えて、コントロール301のアニメーションによる描画は、可聴的性質も組み込むことができる。つまり、コントロール301との接触とソフトウェアアプリケーションの終了との間の期間は、可聴信号が終了するとソフトウェアアプリケーションが閉じることを示す可聴信号を含むことができる。例えば、コントロール301との接触が始まると歌のクリップが再生を開始することができる。コントロール301との接触が曲のクリップ中ずっと継続する場合、ソフトウェアアプリケーションは曲のクリップの完了時に終了することができる。より具体的には、視覚的信号および可聴信号の両方がコントロール301のアニメーションによる描画の一部で利用されるように、曲のクリップの開始は、ブロック部分307Aの色の最初の変化と同時に起こることができ、曲のクリップの終了はブロック部分307Lの色の変化と同時に起こることができる。曲のクリップに加えて、音階、上昇もしくは下降する楽音、音のランダムな集合、発話された言葉、またはその他の音が、コントロール301に関連して利用されることができる。
ブロック部分307A〜307Lは、対象領域303の近くに配置され、対象領域303の周りに広がる。ブロック部分307A〜307Lなどの要素が対象領域の周りに広がる程度は、大きく変わる可能性がある。ブロック部分307A〜307Lが対象領域303の周囲の距離の少なくとも50%に広がるようにすることの利点は、ブロック部分307A〜307Lに関連するアニメーションの可視性に関連する。すなわち、ブロック部分307A〜307Lが対象領域303の周囲の距離の少なくとも50%に広がるようにすることによって、コントロール301に関連するアニメーションは、たとえ手309がコントロール301の一部を覆うか、または別のやり方で見にくくするとしても人によって見られ易く、認識され易い。
コントロール301は、アクションを実行するか、または特定のコントロールを作動する(例えば、ソフトウェアアプリケーションを終了する)ために利用されることができる1つの画像の例を提供する。図5Aを参照すると、コントロール311が、図示された形態のバーベルと、バーベルを握っている人とを有するものとして示される。コントロール301と同様に、コントロール311はソフトウェアアプリケーションを終了するための機能をユーザに提供し、ソフトウェアアプリケーションを終了するためにユーザによって使用される通常の手順は、(a)コントロール311に対応する位置において接触感知ディスプレイに触れることと、(b)接触感知ディスプレイ上にアニメーションが描画される間中ずっとコントロール311に対応する接触感知ディスプレイの部分に接触したままであることとを伴う。ユーザが、アニメーションによる描画中ずっと、コントロール311に対応する位置において接触感知ディスプレイに接触したままである場合、ソフトウェアアプリケーションは終了するか、またはそうでなければ閉じる。したがって、コントロール311は、ユーザがソフトウェアアプリケーションを終了するために利用することができるコントロールである。
ここで、ソフトウェアアプリケーションを終了するためにユーザによって使用される手順がより詳細に説明される。図5Bを参照すると、手309が、コントロール311に(すなわち、コントロール311に対応する接触感知ディスプレイの位置に)触れているか、または別のやり方で接触しているものとして示される。より具体的には、手309の指が、コントロール311に接触するように伸ばされる。コントロール311に接触すると、図5Cに示されるように、コントロール311に示された人が立ち上がり、バーベルを上に持ち上げ、人の下の地面が、亀裂を示し始めるように見える。ユーザがコントロール311に接触したままである場合、地面は、亀裂のさらなる表れを示し、図5Dに示されるように最終的に穴を形成する。ユーザがコントロール311に接触したままであり続ける場合、人およびバーベルが、図5Eに示されるように穴に落ち始め、図5Fに示されるように最終的に穴を通って消える。コントロール311の人およびバーベルが消えると、コントロール311のアニメーションによる描画が終了し、ソフトウェアアプリケーションが終了する。したがって、コントロール311は、ソフトウェアアプリケーションにおいてアクションを実行するか、または特定の機能(例えば、終了)を作動するために利用されることができるアニメーションによる描画のさらなる例を提供する。
コントロール311のアニメーションによる描画が行われる期間(すなわち、コントロール311との接触とソフトウェアアプリケーションの終了との間の期間)は、例えば、0.5秒から1分までの範囲を含むように大きく変わる可能性がある。コントロール301と同様に、ユーザは、意図せずにコントロール311に触れるか、または別のやり方で接触する可能性がある。ソフトウェアアプリケーションの終了がコントロール311に最初に接触するや否や行われる場合、コントロール311との意図しない接触がソフトウェアアプリケーションを意図せずに閉じさせてしまい、この閉じることはユーザの意図に反する可能性がある。最初の接触とソフトウェアアプリケーションの終了との間にアニメーションによる描画(すなわち、期間)を提供することによって、ソフトウェアアプリケーションの意図しない終了の可能性が最小化される。したがって、コントロール311に接触することと、アニメーションによる描画中ずっとコントロール311に接触したままであることとは、ユーザが、ソフトウェアアプリケーションを終了するように本当に意図することの確認として機能する。
コントロール301と同様に、コントロール311は、ユーザの意図を確認するために利用されることができるアニメーションによる描画の例を提供するように意図される。コントロール311に関連するアニメーションによる描画の色、形状、および内容全体は、大きく変わる可能性がある。さらに、コントロール311のアニメーションによる描画に関連する音声またはその他の可聴信号が、アニメーションによる描画を向上するために利用されることができる。
コントロール301において、対象領域303およびフィードバック/アニメーション領域305は、接触感知ディスプレイ上に描画される画像の2つの異なる領域である。しかし、コントロール311に関して、対象領域およびフィードバック/アニメーション領域は組み合わせられる。つまり、ユーザが触れるコントロール311の部分は、フィードバックおよびアニメーションによる描画を提供する部分でもある。したがって、コントロールの様々な領域は、別々であるか、または組み合わされることができる。一部の構成において、コントロールは、ユーザが触れる領域から離れて移動する可能性がある。コントロール311において、例えば、ユーザが画像の上部(すなわち、重量挙げ選手の頭部)に触れたとすれば、画像のその部分は、(図5Fのように)アニメーションによる描画が終了するのに先立って下に向かって移動する。一部の構成において、元の位置の接触感知ディスプレイに接触し続けることは、アクションが実行されるべきであることを確認するのに十分である。その他の構成において、ユーザは、画像の移動に追従するように要求される可能性がある。
コントロール301および311は、予め表示されたグラフィカルな描画である。より具体的には、コントロール301および311は、ユーザがディスプレイに接触してアニメーションによる描画を開始する時間に先立って表示面201などの接触感知ディスプレイ上に描画される。本発明の一部の構成において、グラフィカルな画像は、ユーザがソフトウェアアプリケーションを終了するように本当に意図することの確認として機能するアニメーションによる描画を提供するために、接触感知ディスプレイに接触すると現れる可能性がある。
コントロール301および311は、特定のゲームアプリケーションに関連する可能性があるテーマをそれぞれ有する。上述のように、対象領域303は、ゴルフボールの外観を有する概して円形の形態を有する。したがって、コントロール301は、スポーツゲーム、またはより具体的にはゴルフを含むゲームにおける使用に好適である可能性がある。同様に、コントロール311は重量挙げの概念を含み、したがって、スポーツゲームまたはサーカスのテーマを有するゲームにおける使用にやはり好適である可能性がある。例えば、ソフトウェアアプリケーションがチェスのゲームを含む場合、ソフトウェアアプリケーションを終了するか、またはソフトウェアアプリケーションに関連するその他のアクションを実行するために利用されるアニメーションによる描画は、チェスのゲームに関連する視覚的な要素(例えば、チェスのコマまたはチェスボード)を含む可能性がある。ソフトウェアアプリケーションは、お金の管理に関連する可能性もあり(例えば、会計ソフトウェアまたは税金計算ソフトウェア)、そのソフトウェアに関連する視覚的な要素は、お金またはお金に関連する要素をテーマとして有する可能性がある。したがって、アニメーションによる描画は、ソフトウェアアプリケーションのテーマに対応する視覚的な要素を有するように選択されることができる。上述のように、コントロール301および311のアニメーションによる描画は、視覚的性質に加えて可聴的性質を組み込むこともでき、可聴的性質は、ソフトウェアアプリケーションに関連するテーマをやはり有することができる。
手309に加えて、その他の物理的なオブジェクト(例えば、肘、手、スタイラスペン、ブロックなど)が、デバイス200に入力を与えるか、または別のやり方でコントロール301に接触する物理的な制御部材として使用されることができる。例えば、チェスゲームにおいて、デバイス200の上に載っているチェスのコマは、入力を提供する要素であることができる。より具体的には、チェスのコマを1つの位置から別の位置に動かすことが入力である可能性があり、アニメーションによる描画は、チェスのコマを所望の位置に置くと始まることができる。ユーザがアニメーションによる描画の終了に先立ってチェスのコマを再配置する場合、移動は取り消されることができる。しかし、ユーザがアニメーションによる描画の終了に先立ってチェスのコマを再配置しない場合、移動は取り消されることができなくなる可能性がある。したがって、アニメーションによる描画は、ユーザ入力を確認するために様々な物理的なオブジェクトと共に利用されることができる。
画像301および311のそれぞれは、ソフトウェアアプリケーションを終了するための確認プロセスを示すために利用される。ソフトウェアアプリケーションを終了することに加えて、アニメーションによる描画を利用する同様のプロセスが、例えば、製品もしくはサービスの購入、ボタンもしくはメニューの作動、またはゲームアプリケーションにおける取り消すことができないアクションの実行のために利用されることができる。別の例として、ポーカーのゲームを含むソフトウェアアプリケーションは、アクションを実行するのに先立って、ユーザがオールインする(全てのチップをかける)ように意図することを確かめるためのアニメーションによる確認プロセスを利用することができる。したがって、ユーザの意図を確認するためのアニメーションによる描画の使用は、接触感知ディスプレイを有するコンピューティング環境において様々なアクションを実行するか、または様々なコントロールを作動するために利用されることができる。
システムの説明
図6を参照すると、本発明の態様を組み込む例示的なシステムが開示される。システムは、検出モジュール401と、制御モジュール403と、アニメーションモジュール405と、ディスプレイモジュール407とを含む。検出モジュール401は、接触感知ディスプレイからの入力を検出し、入力を処理する。制御モジュール403は、検出モジュール401、アニメーションモジュール405、およびディスプレイモジュール407のそれぞれの動作全体を制御する。アニメーションモジュール405は、画像301および311のアニメーションによる描画に関連するデータを記憶し、アニメーションによる描画に関する信号を制御モジュール403またはディスプレイモジュール407のいずれかに送信する。最後に、ディスプレイモジュール407は、制御モジュール403またはアニメーションモジュール405のいずれかからの信号に基づいて、グラフィカルユーザインターフェースに関する信号を接触感知ディスプレイに送信する。
ここで、モジュール401〜407の通常の動作が説明される。検出モジュール401は、接触感知ディスプレイからの入力を検出し、入力を処理し、処理された入力を制御モジュール403に中継する。次に、制御モジュール403は、ディスプレイモジュール407に、検出モジュール401によって検出された入力に基づいて、接触感知ディスプレイ上に描画されるグラフィカルユーザインターフェースを修正するように指示する。例えば、ユーザが、コントロールに対応する位置で接触感知ディスプレイに接触する場合、検出モジュール401は入力を検出し、対応する信号を制御モジュール403に送信する。コントロールが、アニメーションによる描画を通じた確認が必要なコントロールではない場合、制御モジュール403は、適切な場合、グラフィカルユーザインターフェースの修正に関する信号をディスプレイモジュール407に送信することができる。より具体的には、例えば、ユーザがメニューに関するコントロールを作動した場合、グラフィカルユーザインターフェースは、メニューを表示するために修正されることができる。
コントロールが、アニメーションによる描画を通じた確認が望まれるコントロール(すなわち、画像301および311のうちの1つ)である場合、制御モジュール403は、対応する信号をアニメーションモジュール405に送信することができる。制御モジュール403からの信号を受信すると、アニメーションモジュール405は、アニメーションによる描画に関する信号をディスプレイモジュール407に送信する。次に、ディスプレイモジュール407は、対応する信号を接触感知ディスプレイに送信し、それによって接触感知ディスプレイ上にアニメーションを描画する。より具体的には、ユーザが画像301および311のうちの1つに関するコントロールを作動した場合、グラフィカルユーザインターフェース上に描画された画像が、画像301および311のうちの1つに関連するアニメーションによる描画を表示するように修正されることができる。
上述のように、画像301および311に関連するアニメーションによる描画は、ユーザが接触感知ディスプレイの特定の部分に接触したままである限り継続する。したがって、検出モジュール401は、ユーザが接触感知ディスプレイに接触するかどうかを検出し続け、関連する信号を制御モジュール403に中継する。ユーザが接触を中止する場合、制御モジュール403は、アニメーションモジュール405に、アニメーションによる描画に関連する信号の送信を中止するように指示する。ユーザが接触感知ディスプレイとの接触を中止しない場合、アニメーションによる描画が完了すると、アニメーションモジュール405が、対応する信号を制御モジュール403に送信する。次に、制御モジュール403は、アクション(すなわち、ソフトウェアアプリケーションの終了)を実行し、そのようにディスプレイモジュール407に指示する。代替として、制御モジュール403は、アニメーションによる描画が完了するときを判定するためにアニメーションモジュール405に継続的にポーリングすることができる。
本発明の態様は、ハードウェアまたはソフトウェアによって実装されることができる。すなわち、コンピューティング環境は、上述のやり方で動作するハードウェアを組み込むことができる。しかし、代替として、モジュール401〜407の種々の機能は、コンピューティング環境のソフトウェアに組み込まれることができる。換言すると、接触感知ディスプレイからの入力は、例えば、コンピューティング環境に直接送信されることができる。さらに、モジュール401〜407のうちの任意のモジュールが、単一のモジュールに組み込まれることができるか、または複数のモジュールから形成されることができる。したがって、本発明の態様が実装されるやり方は大きく変わる可能性がある。
方法の説明
上で説明されたシステムのさらなる理解が、本発明の種々の態様の実行において実行されるステップを示す流れ図を開示する図7を参照することによって得ることができる。最初に、接触感知ディスプレイからの入力が受け取られる(ステップ501)。上で説明されたように、検出モジュール401は、接触感知ディスプレイからの入力を検出し、入力を処理し、処理された入力を制御モジュール403に中継する。
入力の受け取りに続いて、システム(例えば、制御モジュール403)は、入力が、確認を必要とするコントロールの領域内にあるかどうかを判定する(ステップ503)。例えば通常のボタンおよびメニューなどの一部のコントロールは、確認を必要としない。確認が必要とされない場合、入力に関連する機能が実行される(ステップ505)。その他のコントロールは、例えば、意図しない作動を防ぐために確かに確認を必要とする。確認を必要とする可能性があるコントロールの例は、ソフトウェアアプリケーションを終了するか、製品もしくはサービスを購入するか、またはゲームアプリケーションの取り消すことができないアクションを実行するコントロールを含む。したがって、確認が必要とされる場合、アニメーションによる描画が開始される(ステップ507)。上で説明されたように、制御モジュール403は、コントロールがアニメーションによる描画を通じた確認が必要であるコントロールである場合、アニメーションモジュール405に信号を送信することができる。制御モジュール403からの信号を受信すると、アニメーションモジュール405は、アニメーションによる描画に関する信号をディスプレイモジュール407に送信し、ディスプレイモジュール407は、アニメーションによる描画が接触感知ディスプレイ上に表示されるように指示する。
アニメーションによる描画の開始に続いて、システムは、コントロールの領域内の入力が受け取られ続けているかどうかを判定する(ステップ509)。入力が受け取られ続けない場合、コントロールがリセットされ(ステップ511)、このリセットは、アニメーションによる描画を停止することと、コントロールに関連する画像を最初の状態に戻すこととを伴う可能性がある。上で説明されたように、図4Bは、コントロール301をアニメーションによる描画として開示する。ユーザが入力を中止する(すなわち、コントロール301との接触をやめるために手309をどける)場合、図4Cに示されるように、アニメーションによる描画が止まり、コントロール301は最初の状態に戻る。
入力が受け取られ続ける(ステップ509)場合、システムは、アニメーションによる描画が完了しているかどうかを判定する(ステップ513)。アニメーションによる描画が完了していないとき、システムは、コントロールの領域内の入力が受け取られ続けているかどうかを再び判定し(ステップ509)、このプロセスは、入力がもはや受け取られないか、またはアニメーションによる描画が完了しているかのいずれかまで継続する。アニメーションによる描画が完了しているとき、コントロールに関連する機能が実行される(ステップ515)。したがって、アニメーションによる描画の完了に続いて、例えば、ソフトウェアアプリケーションが終了されるか、製品もしくはサービスが購入されるか、またはゲームアプリケーションの取り消すことができないアクションが実行される。
上記の説明に基づいて、確認を必要とするコントロールの領域(すなわち、画像300および340のうちのいずれか1つ)内の入力は、アニメーションによる描画を開始する。入力が受け取られ続け、アニメーションによる描画が完了されるのに十分な時間を有する場合、コントロールに関連する機能が実行される。しかし、入力がアニメーションによる描画の完了に先立って停止する場合、コントロールに関連する機能は実行されず、コントロールはリセットする。したがって、ユーザが、(a)確認を必要とするコントロールの領域において接触感知ディスプレイに接触し、(b)アニメーションによる描画中ずっと接触したままである場合、コントロールに関連する機能が実行される。
本発明の範囲内で、図7の流れ図に関連する種々のステップが異なる順序で実行されることができるか、またはさらなるステップが追加されることができる。例えば、ステップ513(すなわち、アニメーションによる描画が完了しているか?)は、ステップ509(すなわち、コントロールの領域内の入力を受け取り続けるか?)に先立って実行されることができる。さらに、一部の構成は、ステップ513と515との間に、コントロールの領域内の入力が受け取られ続けているかどうかを判定するステップを組み込むことができる。したがって、ステップの順番および数は大きく変わる可能性がある。
本発明が、種々の実施形態を参照して上でおよび添付の図面において開示された。しかし、本開示によって満足される目的は、本発明の態様に関連する種々の特徴および概念の例を提供することであり、本発明の態様の範囲を限定することではない。当業者は、多数の変更および修正が、添付の特許請求の範囲によって規定される本発明の範囲から逸脱することなしに上述の実施形態に対してなされることができることを認識するであろう。
例示的なコンピューティングシステム環境の概略図である。 例示的なテーブルディスプレイデバイスの平面図である。 本発明の態様による第1のグラフィカルユーザインターフェースの一部を示す図である。 本発明の態様による第1のグラフィカルユーザインターフェースの一部を示す図である。 本発明の態様による第1のグラフィカルユーザインターフェースの一部を示す図である。 本発明の態様による第1のグラフィカルユーザインターフェースの一部を示す図である。 本発明の態様による第1のグラフィカルユーザインターフェースの一部を示す図である。 本発明の態様による第1のグラフィカルユーザインターフェースの一部を示す図である。 本発明のさらなる態様による第1のグラフィカルユーザインターフェースの一部を示す図である。 本発明のさらなる態様による第1のグラフィカルユーザインターフェースの一部を示す図である。 本発明のさらなる態様による第1のグラフィカルユーザインターフェースの一部を示す図である。 本発明の態様による第2のグラフィカルユーザインターフェースの一部を示す図である。 本発明の態様による第2のグラフィカルユーザインターフェースの一部を示す図である。 本発明の態様による第2のグラフィカルユーザインターフェースの一部を示す図である。 本発明の態様による第2のグラフィカルユーザインターフェースの一部を示す図である。 本発明の態様による第2のグラフィカルユーザインターフェースの一部を示す図である。 本発明の態様による第2のグラフィカルユーザインターフェースの一部を示す図である。 本発明の様々な態様が実装され得るシステムの概略図である。 本発明の様々な例による方法を示す流れ図である。

Claims (20)

  1. 対象に対応する座標におけるディスプレイとの接触を検出するステップと、
    検出された接触に応じて、前記対象の近くの前記ディスプレイ上にアニメーションによる描画を表示し、音声データを再生するステップと、
    前記接触が所定の期間維持される場合、前記所定の期間中、前記表示するステップおよび前記再生するステップを継続し、アクションを実行し、前記接触が前記所定の期間の終了に先立って中断される場合、前記表示するステップおよび前記再生するステップを終了するステップと
    を備えることを特徴とする方法。
  2. 前記アニメーションによる描画を表示する前記ステップは、前記アニメーションによる描画の少なくとも一部の色を修正するステップを含むことを特徴とする請求項1に記載の方法。
  3. 前記アニメーションによる描画を表示する前記ステップは、前記アニメーションによる描画の少なくとも一部の幅、長さ、色のグラデーション、および色のスペクトルのうちの少なくとも1つを修正するステップを含むことを特徴とする請求項1に記載の方法。
  4. 音声データを再生する前記ステップは曲のクリップを再生するステップを含むことを特徴とする請求項1に記載の方法。
  5. 前記アニメーションによる描画を表示する前記ステップは、前記対象に関連する画像の一部を動かすステップを含むことを特徴とする請求項1に記載の方法。
  6. テーマを有するソフトウェアアプリケーションをロードするステップと、
    前記テーマに対応する視覚的な要素を持つように前記アニメーションによる描画を選択するステップと
    をさらに含むことを特徴とする請求項1に記載の方法。
  7. 接触を検出する前記ステップに先立って前記対象を表示するステップをさらに含むことを特徴とする請求項1に記載の方法。
  8. 前記アクションを実行するステップは、ソフトウェアアプリケーションを閉じるステップを含むことを特徴とする請求項1に記載の方法。
  9. アプリケーションにおいて命令の入力の確認を保証するための方法であって、
    対象を有するユーザインターフェースをディスプレイ上に表示するステップと、
    前記対象に対応する座標における前記ディスプレイとの接触を検出するステップと、
    検出された接触に応じて、前記対象の近くに、前記アプリケーションに関連するテーマを有するアニメーションによるフィードバック確認グラフィックを表示するステップと
    を備えることを特徴とする方法。
  10. 前記アニメーションによるフィードバック確認グラフィックを表示する前記ステップは、前記アニメーションによる描画の少なくとも一部の色を修正するステップを含むことを特徴とする請求項9に記載の方法。
  11. 前記アニメーションによるフィードバック確認グラフィックを表示する前記ステップは、前記対象の少なくとも50%の周りに前記グラフィックを位置付けるステップを含むことを特徴とする請求項9に記載の方法。
  12. 前記アニメーションによるフィードバック確認グラフィックを表示する前記ステップは、前記アニメーションによる描画の少なくとも一部の幅および長さのうちの少なくとも1つを修正するステップを含むことを特徴とする請求項9に記載の方法。
  13. テーマを有するソフトウェアアプリケーションをロードするステップと、
    前記テーマに対応する視覚的な要素を持つように前記アニメーションによるフィードバック確認グラフィックを選択するステップと
    をさらに含むことを特徴とする請求項9に記載の方法。
  14. 所定の期間の後に、取り消すことができないアクションを実行するステップをさらに含むことを特徴とする請求項9に記載の方法。
  15. ソフトウェアアプリケーションに関するコントロールを接触感知ディスプレイ上に表示するステップと、
    前記コントロールに対応する座標における前記接触感知ディスプレイとの接触を検出するステップと、
    前記検出された接触に応じて、前記接触感知ディスプレイ上にアニメーションによる描画を表示するステップと、
    前記コントロールに対応する前記座標における前記接触感知ディスプレイとの前記接触が、前記アニメーションによる描画の開始から終了までにわたる期間の実質的な部分中ずっと検出される場合に、前記アニメーションによる描画の前記終了時に前記ソフトウェアアプリケーションを終了するステップと
    を備えることを特徴とする方法。
  16. 前記アニメーションによる描画を表示する前記ステップは、前記アニメーションによる描画の少なくとも一部の色を修正するステップを含むことを特徴とする請求項15に記載の方法。
  17. 前記アニメーションによる描画を表示する前記ステップは、前記アニメーションによる描画の少なくとも一部の幅、長さ、色のグラデーション、および色のスペクトルのうちの少なくとも1つを修正するステップを含むことを特徴とする請求項15に記載の方法。
  18. 前記アニメーションによる描画を表示する前記ステップは、可聴信号を提供するステップを含むことを特徴とする請求項15に記載の方法。
  19. 前記アニメーションによる描画を表示する前記ステップは、前記コントロールに関連する画像の一部を動かすステップを含むことを特徴とする請求項15に記載の方法。
  20. 前記ソフトウェアアプリケーションのテーマに対応する視覚的な要素を有するように前記アニメーションによる描画を選択するステップをさらに含む請求項15に記載の方法。
JP2008554248A 2006-02-10 2007-01-20 タッチ入力を確認するための方法 Active JP5068771B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/352,071 US8312372B2 (en) 2006-02-10 2006-02-10 Method for confirming touch input
US11/352,071 2006-02-10
PCT/US2007/001611 WO2007094925A1 (en) 2006-02-10 2007-01-20 Method for confirming touch input

Publications (2)

Publication Number Publication Date
JP2009526314A true JP2009526314A (ja) 2009-07-16
JP5068771B2 JP5068771B2 (ja) 2012-11-07

Family

ID=38370201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008554248A Active JP5068771B2 (ja) 2006-02-10 2007-01-20 タッチ入力を確認するための方法

Country Status (7)

Country Link
US (1) US8312372B2 (ja)
EP (1) EP1987415B1 (ja)
JP (1) JP5068771B2 (ja)
KR (1) KR101405739B1 (ja)
CN (1) CN101384979B (ja)
CA (1) CA2636606C (ja)
WO (1) WO2007094925A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150002786A (ko) * 2012-04-16 2015-01-07 퀄컴 인코포레이티드 제스처들을 이용한 디바이스와의 상호작용
JP2015049643A (ja) * 2013-08-30 2015-03-16 コニカミノルタ株式会社 表示装置

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7469381B2 (en) 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
WO2007121557A1 (en) * 2006-04-21 2007-11-01 Anand Agarawala System for organizing and visualizing display objects
US7844915B2 (en) 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
JP4257549B2 (ja) * 2007-07-17 2009-04-22 トヨタ自動車株式会社 操作装置
US8239201B2 (en) 2008-09-13 2012-08-07 At&T Intellectual Property I, L.P. System and method for audibly presenting selected text
US8436816B2 (en) 2008-10-24 2013-05-07 Apple Inc. Disappearing button or slider
WO2010103823A1 (ja) * 2009-03-12 2010-09-16 パナソニック株式会社 画像表示装置および画像表示方法
US20110043461A1 (en) * 2009-08-24 2011-02-24 Ming-Te Lai Systems and methods for application management
US8429565B2 (en) * 2009-08-25 2013-04-23 Google Inc. Direct manipulation gestures
US20110163944A1 (en) * 2010-01-05 2011-07-07 Apple Inc. Intuitive, gesture-based communications with physics metaphors
EP2523081B1 (en) 2010-01-06 2019-09-18 Huawei Device Co., Ltd. Method and terminal for displaying picture/interface
CN102193706A (zh) * 2010-03-03 2011-09-21 上海三旗通信科技有限公司 一种采用flash实现的自主交互待机方式
US20120004033A1 (en) * 2010-06-30 2012-01-05 Martin Lyons Device and method for replicating a user interface at a display
US20120086643A1 (en) * 2010-10-07 2012-04-12 Microsoft Corporation Keyboard device with optically enhanced display output
US9645986B2 (en) * 2011-02-24 2017-05-09 Google Inc. Method, medium, and system for creating an electronic book with an umbrella policy
JP5704655B2 (ja) * 2012-04-12 2015-04-22 株式会社Nttドコモ 表示装置及びプログラム
US10691230B2 (en) 2012-12-29 2020-06-23 Apple Inc. Crown input for a wearable electronic device
KR20140111497A (ko) * 2013-03-11 2014-09-19 삼성전자주식회사 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법, 저장 매체 및 휴대 단말
US9164674B2 (en) 2013-03-28 2015-10-20 Stmicroelectronics Asia Pacific Pte Ltd Three-dimensional gesture recognition system, circuit, and method for a touch screen
US20150024841A1 (en) * 2013-04-29 2015-01-22 Atlas Gaming Technologies Pty. Ltd. Gaming machine & method of play
US10503388B2 (en) 2013-09-03 2019-12-10 Apple Inc. Crown input for a wearable electronic device
EP2960767A1 (en) * 2014-06-24 2015-12-30 Google, Inc. Computerized systems and methods for rendering an animation of an object in response to user input
US9864979B2 (en) * 2014-08-29 2018-01-09 Panasonic Intellectual Property Management Co., Ltd. Transaction terminal device
US9916077B1 (en) * 2014-11-03 2018-03-13 Google Llc Systems and methods for controlling network usage during content presentation
US20160202865A1 (en) 2015-01-08 2016-07-14 Apple Inc. Coordination of static backgrounds and rubberbanding
US10409480B2 (en) 2016-12-28 2019-09-10 Amazon Technologies, Inc. Interruption and resumption of feedback animation for touch-based interactions
US10289300B2 (en) * 2016-12-28 2019-05-14 Amazon Technologies, Inc. Feedback animation for touch-based interactions
US10922743B1 (en) 2017-01-04 2021-02-16 Amazon Technologies, Inc. Adaptive performance of actions associated with custom user interface controls
US10521854B1 (en) 2017-01-04 2019-12-31 Amazon Technologies, Inc. Selection and display of custom user interface controls
JP2020042370A (ja) * 2018-09-06 2020-03-19 アイシン精機株式会社 表示制御装置
CN115904600A (zh) * 2022-12-23 2023-04-04 北京字跳网络技术有限公司 交互方法、装置、电子设备和存储介质

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6238927A (ja) * 1985-08-14 1987-02-19 Casio Comput Co Ltd 操作状態表示方法
JPH05341908A (ja) * 1992-06-12 1993-12-24 Mitsubishi Electric Corp 画面操作制御装置
JPH07261932A (ja) * 1994-03-18 1995-10-13 Hitachi Ltd センサ内蔵型液晶表示装置及びこれを用いた情報処理システム
JPH10124257A (ja) * 1996-10-15 1998-05-15 Sharp Corp データ入力処理装置
JP2000163444A (ja) * 1998-11-25 2000-06-16 Seiko Epson Corp 携帯情報機器及び情報記憶媒体
JP2002140141A (ja) * 2000-10-31 2002-05-17 Pacific Century Cyberworks Japan Co Ltd 画面の制御装置及び画面の制御方法
JP2002287862A (ja) * 2001-03-13 2002-10-04 Microsoft Corp コンピュータ入力装置に近接する物理的存在の感知に応答して情報を表示する方法
JP2003019346A (ja) * 2001-07-10 2003-01-21 Konami Co Ltd ゲーム装置、ゲームタイトル画像表示制御方法及びプログラム
JP2003150175A (ja) * 2001-11-13 2003-05-23 Promenade:Kk 音楽等の検聴方法および音楽等の番組送出装置
JP2003216301A (ja) * 2002-01-23 2003-07-31 Sharp Corp 表示装置、表示方法、その方法をコンピュータを用いて実現するプログラムおよびそのプログラムを記録した記録媒体
JP2004070492A (ja) * 2002-08-02 2004-03-04 Hitachi Ltd タッチパネルを備えた表示装置及び情報処理方法
JP2004253004A (ja) * 2004-05-28 2004-09-09 Mitsubishi Electric Corp グラフィカルユーザインタフェース装置
JP2005316790A (ja) * 2004-04-30 2005-11-10 Nippon Telegr & Teleph Corp <Ntt> 情報入力方法および情報入出力装置並びにプログラム
JP2005322088A (ja) * 2004-05-10 2005-11-17 Namco Ltd プログラム、情報記憶媒体及び電子機器

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE32253E (en) 1980-09-22 1986-09-30 Xerox Corporation Interactive user-machine interface method and apparatus for copier/duplicator
US5119079A (en) 1990-09-17 1992-06-02 Xerox Corporation Touch screen user interface with expanding touch locations for a reprographic machine
US6160536A (en) * 1995-03-27 2000-12-12 Forest; Donald K. Dwell time indication method and apparatus
JPH096508A (ja) * 1995-06-16 1997-01-10 Sony Corp 通信端末装置及び表示方法
US5874956A (en) 1995-11-13 1999-02-23 Platinum Technology Apparatus and method for three dimensional manipulation of point of view and object
JPH09297609A (ja) * 1996-05-01 1997-11-18 Kayaba Ind Co Ltd グラフィックパネル式操作装置
US5969708A (en) * 1996-10-15 1999-10-19 Trimble Navigation Limited Time dependent cursor tool
US6803905B1 (en) 1997-05-30 2004-10-12 International Business Machines Corporation Touch sensitive apparatus and method for improved visual feedback
US6331840B1 (en) 1998-03-27 2001-12-18 Kevin W. Nielson Object-drag continuity between discontinuous touch screens of a single virtual desktop
US6204828B1 (en) * 1998-03-31 2001-03-20 International Business Machines Corporation Integrated gaze/manual cursor positioning system
US6252596B1 (en) 1998-03-31 2001-06-26 Canon Kabushiki Kaisha Command entry highlight editing for a menu selection system and method
US20010015719A1 (en) * 1998-08-04 2001-08-23 U.S. Philips Corporation Remote control has animated gui
US6232957B1 (en) * 1998-09-14 2001-05-15 Microsoft Corporation Technique for implementing an on-demand tool glass for use in a desktop user interface
US6333753B1 (en) * 1998-09-14 2001-12-25 Microsoft Corporation Technique for implementing an on-demand display widget through controlled fading initiated by user contact with a touch sensitive input device
KR100648231B1 (ko) 1999-10-19 2006-11-24 삼성전자주식회사 터치 스크린을 갖는 보조 액정디스플레이 패널을 이용한 포인팅 장치를 구비하는 휴대용 컴퓨터 및 그 방법
US6714220B2 (en) 2000-01-19 2004-03-30 Siemens Aktiengesellschaft Interactive input with limit-value monitoring and on-line help for a palmtop device
NZ523065A (en) * 2000-05-11 2004-11-26 Nes Stewart Irvine A graphical user interface where a procedure is activated by movement of a pointer over a predetermined path
US7730401B2 (en) * 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
US6896618B2 (en) * 2001-09-20 2005-05-24 Igt Point of play registration on a gaming machine
US6712698B2 (en) * 2001-09-20 2004-03-30 Igt Game service interfaces for player tracking touch screen display
US6690387B2 (en) 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
US6882337B2 (en) * 2002-04-18 2005-04-19 Microsoft Corporation Virtual keyboard for touch-typing using audio feedback
US6885363B2 (en) * 2002-05-09 2005-04-26 Gateway, Inc. Pointing device dwell time
US6776546B2 (en) 2002-06-21 2004-08-17 Microsoft Corporation Method and system for using a keyboard overlay with a touch-sensitive display screen
US20040119754A1 (en) * 2002-12-19 2004-06-24 Srinivas Bangalore Context-sensitive interface widgets for multi-modal dialog systems
US7890324B2 (en) * 2002-12-19 2011-02-15 At&T Intellectual Property Ii, L.P. Context-sensitive interface widgets for multi-modal dialog systems
US7194699B2 (en) * 2003-01-14 2007-03-20 Microsoft Corporation Animating images to reflect user selection
US7231231B2 (en) * 2003-10-14 2007-06-12 Nokia Corporation Method and apparatus for locking a mobile telephone touch screen
KR100593982B1 (ko) * 2003-11-06 2006-06-30 삼성전자주식회사 가상 그래피티를 제공하는 장치 및 방법과 그에 따른기록매체
EP1697827B1 (en) 2003-11-18 2017-01-04 Johnson Controls Technology Company Reconfigurable user interface
KR20050076472A (ko) 2004-01-20 2005-07-26 엘지전자 주식회사 터치센서를 이용한 이동통신 단말기의 사이드키
EP1596271A1 (en) 2004-05-11 2005-11-16 Hitachi Europe S.r.l. Method for displaying information and information display system
US7546543B2 (en) * 2004-06-25 2009-06-09 Apple Inc. Widget authoring and editing environment
JP4210936B2 (ja) * 2004-07-08 2009-01-21 ソニー株式会社 情報処理装置及びこれに用いるプログラム
KR20060009706A (ko) 2004-07-26 2006-02-01 삼성전자주식회사 터치 스크린 시스템 및 그 메뉴표시방법
EP1776630A2 (en) * 2004-08-02 2007-04-25 Koninklijke Philips Electronics N.V. Pressure-controlled navigating in a touch screen
US7694234B2 (en) * 2005-08-04 2010-04-06 Microsoft Corporation Virtual magnifying glass with on-the fly control functionalities
US7480870B2 (en) * 2005-12-23 2009-01-20 Apple Inc. Indication of progress towards satisfaction of a user input condition
US7657849B2 (en) * 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6238927A (ja) * 1985-08-14 1987-02-19 Casio Comput Co Ltd 操作状態表示方法
JPH05341908A (ja) * 1992-06-12 1993-12-24 Mitsubishi Electric Corp 画面操作制御装置
JPH07261932A (ja) * 1994-03-18 1995-10-13 Hitachi Ltd センサ内蔵型液晶表示装置及びこれを用いた情報処理システム
JPH10124257A (ja) * 1996-10-15 1998-05-15 Sharp Corp データ入力処理装置
JP2000163444A (ja) * 1998-11-25 2000-06-16 Seiko Epson Corp 携帯情報機器及び情報記憶媒体
JP2002140141A (ja) * 2000-10-31 2002-05-17 Pacific Century Cyberworks Japan Co Ltd 画面の制御装置及び画面の制御方法
JP2002287862A (ja) * 2001-03-13 2002-10-04 Microsoft Corp コンピュータ入力装置に近接する物理的存在の感知に応答して情報を表示する方法
JP2003019346A (ja) * 2001-07-10 2003-01-21 Konami Co Ltd ゲーム装置、ゲームタイトル画像表示制御方法及びプログラム
JP2003150175A (ja) * 2001-11-13 2003-05-23 Promenade:Kk 音楽等の検聴方法および音楽等の番組送出装置
JP2003216301A (ja) * 2002-01-23 2003-07-31 Sharp Corp 表示装置、表示方法、その方法をコンピュータを用いて実現するプログラムおよびそのプログラムを記録した記録媒体
JP2004070492A (ja) * 2002-08-02 2004-03-04 Hitachi Ltd タッチパネルを備えた表示装置及び情報処理方法
JP2005316790A (ja) * 2004-04-30 2005-11-10 Nippon Telegr & Teleph Corp <Ntt> 情報入力方法および情報入出力装置並びにプログラム
JP2005322088A (ja) * 2004-05-10 2005-11-17 Namco Ltd プログラム、情報記憶媒体及び電子機器
JP2004253004A (ja) * 2004-05-28 2004-09-09 Mitsubishi Electric Corp グラフィカルユーザインタフェース装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150002786A (ko) * 2012-04-16 2015-01-07 퀄컴 인코포레이티드 제스처들을 이용한 디바이스와의 상호작용
JP2015515065A (ja) * 2012-04-16 2015-05-21 クアルコム,インコーポレイテッド ジェスチャを使用したデバイスとの対話
KR102255774B1 (ko) * 2012-04-16 2021-05-24 퀄컴 인코포레이티드 제스처들을 이용한 디바이스와의 상호작용
JP2015049643A (ja) * 2013-08-30 2015-03-16 コニカミノルタ株式会社 表示装置

Also Published As

Publication number Publication date
CN101384979B (zh) 2012-07-11
JP5068771B2 (ja) 2012-11-07
EP1987415B1 (en) 2018-08-01
CA2636606C (en) 2014-03-25
KR20080100181A (ko) 2008-11-14
KR101405739B1 (ko) 2014-06-10
CN101384979A (zh) 2009-03-11
EP1987415A1 (en) 2008-11-05
EP1987415A4 (en) 2014-07-16
US20070192692A1 (en) 2007-08-16
US8312372B2 (en) 2012-11-13
WO2007094925A1 (en) 2007-08-23
CA2636606A1 (en) 2007-08-23

Similar Documents

Publication Publication Date Title
JP5068771B2 (ja) タッチ入力を確認するための方法
US7612786B2 (en) Variable orientation input mode
KR102091368B1 (ko) 그래픽 메시징 사용자 인터페이스 내의 확인응답 옵션들의 적용
KR101841599B1 (ko) 사용자 인터렉션을 제공하는 사용자 단말 장치 및 그 방법
US8446376B2 (en) Visual response to touch inputs
US8502789B2 (en) Method for handling user input in an interactive input system, and interactive input system executing the method
US9740321B2 (en) Method for operating application program and mobile electronic device using the same
US10257423B2 (en) Method and system for determining proper positioning of an object
US7453443B2 (en) Method of deactivating lock and portable electronic device
US20050226505A1 (en) Determining connectedness and offset of 3D objects relative to an interactive surface
KR20180044877A (ko) 압력-기반 햅틱들
US20100083109A1 (en) Method for handling interactions with multiple users of an interactive input system, and interactive input system executing the method
US20050275637A1 (en) Method for displaying information responsive to sensing a physical presence proximate to a computer input device
WO2011085468A1 (en) Method for handling and transferring data in an interactive input system, and interactive input system executing the method
US20240370093A1 (en) User interfaces for gestures
CA2689846C (en) Method for handling user input in an interactive input system, and interactive input system executing the method
KR20140119539A (ko) 터치 감지 디스플레이를 이용한 스크래치 복권 제공 시스템 및 그 제공방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120810

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120815

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150824

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5068771

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250