JP5775526B2 - 三状態タッチ入力システム - Google Patents

三状態タッチ入力システム Download PDF

Info

Publication number
JP5775526B2
JP5775526B2 JP2012542087A JP2012542087A JP5775526B2 JP 5775526 B2 JP5775526 B2 JP 5775526B2 JP 2012542087 A JP2012542087 A JP 2012542087A JP 2012542087 A JP2012542087 A JP 2012542087A JP 5775526 B2 JP5775526 B2 JP 5775526B2
Authority
JP
Japan
Prior art keywords
touch
touch screen
user interface
state
graphical user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012542087A
Other languages
English (en)
Other versions
JP2013513164A5 (ja
JP2013513164A (ja
Inventor
ウィグドール,ダニエル・ジョン
ロンバード,ジャロッド
パーキンズ,アヌスカ・ゾリョミ
ヘイズ,ショーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2013513164A publication Critical patent/JP2013513164A/ja
Publication of JP2013513164A5 publication Critical patent/JP2013513164A5/ja
Application granted granted Critical
Publication of JP5775526B2 publication Critical patent/JP5775526B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/006Teaching or communicating with blind persons using audible presentation of the information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Description

[0001] タッチ感応表示画面は、データー入力またはユーザーからのその他の入力を受け取るために、従前からのキーボードやその他の人間−機械インターフェース(「HMI」)の代替として、増々普及しつつある。タッチ・スクリーンは、携帯用デバイスおよび据置型デバイスの双方を含む種々のデバイスにおいて用いられている。タッチ・スクリーンを有する携帯用デバイスは、例えば、移動体電話機、パーソナル・ディジタル・アシスタント(「PDA」)、ならびに音楽およびビデオを再生するパーソナル・メディア・プレーヤーを通常含む。タッチ・スクリーンを用いる据置型デバイスは、例えば、車両、ポイント・オブ・セールス(「POS」)端末、ならびに医療および工業用途において用いられる機器において用いられるものを通常含む。
[0002] タッチ・スクリーン上で直接データーに触れて操作できることは、ユーザーに対する大きな魅力となる。多くの観点において、タッチ・スクリーンは、従前のマウスよりも有利な入力メカニズムとして用いることができる。タッチ・スクリーンを用いると、ユーザーは、彼らが選択したいグラフィカル・ユーザー・インターフェース・エレメント(例えば、アイコン)上において、マウスを用いてユーザー・インターフェース上でカーソルを位置付けなければならない代わりに、スクリーンを単にタップしさえすれば済ますことができる。
[0003] タッチ・スクリーンは、計算機からの出力をユーザーに表示するため、およびユーザーからの入力を受け取るための双方の役割を果たすことができる。ユーザーの入力選択肢は、例えば、スクリーン上における制御部、ナビゲーション、オブジェクト・アイコンとして表示することができる。ユーザーがスクリーン上においてスタイラスまたは指を用いて、関連のあるアイコンにタッチすることによって入力選択肢を選択すると、計算機はこのタッチの場所を検知し、このアイコンを提示したアプリケーションまたはユーティリティにメッセージを送る。
[0004] 従来のタッチ・スクリーン入力デバイスは、視覚障害者にとって問題となる可能性がある。何故なら、視覚障害者は、彼らの指またはスタイラスと、スクリーン上に現れる所望のグラフィカル・ユーザー・インターフェース・エレメントとの位置合わせ(alignment)を、それに接触する前では、判断することができないからである。加えて、彼らは、スクリーンに接触する前では、それにタッチした感触(impact)を検証する手段を有しておらず、感触が検証できた時点では、基本アプリケーションは既にその接触に応答して動作しているであろう。
[0005] この欠点を克服するために、一実施態様では、マウスのような三状態入力デバイスをシミュレートするタッチ・スクリーン入力デバイスを提供する。これらの状態の1つは、スクリーンにタッチしたときにグラフィカル・ユーザー・インターフェース・エレメントを作動させる効果を下検分(preview)するために用いられる。このプレビュー状態において、スクリーン上でグラフィカル・ユーザー・インターフェース・エレメントに指またはスタイラスを用いてタッチしても、そのエレメントと関連付けられている動作が実行されることはない。逆に、プレビュー状態にある間にスクリーンにタッチすると、オーディオ・キューがユーザーに与えられて、タッチしたエレメントと関連付けられている動作が実行されたときにどんな動作が発生するか示す。
[0006] 実施態様の中には、一旦ユーザーが選択を望むグラフィカル・ユーザー・インターフェース・エレメントを突き止めた(locate)なら、ユーザーは、第1の指またはスタイラスがそのエレメントとの接触を維持しつつ、タッチ・スクリーン上において第2の指またはスタイラスを置くことができる。このように、所望のグラフィカル・ユーザー・インターフェース・エレメントを作動させることができる。即ち、第2の指またはスタイラスで接触することによってタッチ・スクリーンを第2状態に置くと、従来の入力デバイスを用いてそのエレメントが選択されたときのように、基本アプリケーションに応答させる。
[0007] この摘要は、詳細な説明の章において以下で更に説明する概念から選択したものを紹介するために、設けられている。この摘要は、特許請求する主題の主要な特徴や必須の特徴を特定することを意図するのではなく、特許請求する主題の範囲を限定するときに補助として使用されることを意図するのでもない。
図1は、ユーザーがユーザー入力を受け取るためにタッチ・スクリーンを用いるデバイスと対話処理する携帯用計算環境の一例を示す。 図2は、タッチ・スクリーンを採用することができる計算機の種々のフォーム・ファクター例を示す。 図3は、従来のマウス入力デバイスについての状態図を示す。 図4は、従来のタッチ・スクリーン入力デバイスについての状態図を示す。 図5は、三状態タッチ・スクリーン入力デバイスについての状態図の一例を示す。 図6は、選択肢のメニューを提示するタッチ・スクリーンにタッチするユーザーの指を示す。 図7は、図6において「散布図」と呼ばれる選択肢にタッチするユーザーの指を示す。 図8は、指がスクリーンと接触する場所を中心として位置付けられた円をタッチ・スクリーン上に提示させる、図6および図7に示したタッチ・スクリーンにタッチする指を示す。 図9は、選択されたグラフィカル・ユーザー・インターフェース・エレメントを作動させるために、図8において示したタッチ・スクリーンにタッチする第2の指を示す。 図10は、ユーザー入力を受け取るために、タッチ・スクリーンを採用する計算機上にインストールすることができる機能コンポーネントを示すアーキテクチャの一例である。
[0018] 図1は、ユーザー102が、ユーザー入力を受け取るためにタッチ・スクリーン110を用いるデバイス105と対話処理する携帯用計算環境100の一例を示す。図1に示すように、デバイス105は、携帯用計算プラットフォーム、または移動体電話機、スマート・フォン、PDA、ウルトラ移動体PC(パーソナル・コンピューター)、ハンドヘルド・ゲーム・デバイス、パーソナル・メディア・プレーヤー等というような情報機器として構成されるのが普通である。通例、タッチ・スクリーン110は、表示コンポーネント上に作成されたタッチ・スクリーン・コンポーネントで構成されている。表示コンポーネントは、PCまたはラップトップ・コンピューター上にある典型的なモニタと同様に画像を表示する。多くのアプリケーションにおいて、デバイス105は、軽量、薄さ、および低コストのために、液晶ディスプレイ(「LCD」)を用いる。しかしながら、代替アプリケーションでは、例えば、陰極線管(「CRT」)、プラズマ・スクリーン、および電子ルミネセンス・スクリーンを含む他の従来の表示技術を利用することもできる。
[0019] タッチ・センサー・コンポーネントは、表示コンポーネントの上面上に置かれている。タッチ・センサーは透過性であり、それを通じて表示が見えるようになっている。多くの異なるタイプのタッチ・センサー技術が知られており、個々の実施態様の必要性を満たすために、適宜応用することができる。これらには、とりわけ、抵抗性、容量性、近傍磁界、光学撮像、ストレイン・ゲージ、散乱信号、音響パルス認識、赤外線、および表面弾性波技術が、含まれる。現在のタッチ・スクリーンの中には、多数の同時タッチ地点間で区別することができるもの、および/または圧力に感応するものもある。タッチ・スクリーン110との対話処理は、通例、指または親指を用いて行われ、また容量型でないタッチ・センサーでは、スタイラスを用いることもできる。
[0020] この計算機を採用することができる他のフォーム・ファクターの一例を図2に示す。この中には、デスクトップ・コンピューター1301、ノートブック・コンピューター1302、タブレット・コンピューター1303、ハンドヘルド・コンピューター1304、パーソナル・ディジタル・アシスタント1305、メディア・プレーヤー1306、移動体電話機1307等が含まれる。加えて、コンピューターは、これらのタイプの組み合わせでもよく、例えば、パーソナル・ディジタル・アシスタント、メディア・プレーヤー、および移動体電話機の組み合わせであるデバイスであってもよい。
[0021] 図1および図2に示したフォーム・ファクターの多くは携帯用であるが、本構成は、タッチ・スクリーンが採用される据置計算機であれば、そのいずれにおいても用いることができる。これらのデバイスには、例えば、現金自動預け払い機(「ATM」)、ポイント・オブ・セールス(「POS」)端末、セルフ・サービス・キオスクなどや、航空会社、銀行、レストラン、および小売店が、問い合わせを行うこと、自分自身でチェック・アウトすること、または他のタイプのトランザクションを完了することをユーザーに可能にするために用いるデバイスが含まれる。また、例えば、機械または機器を制御し、発注を行い、在庫を管理する等のためにもタッチ・スクリーンが用いられる、産業用、医療用、およびその他の用途も考えられる。また、タッチ・スクリーンは、加熱、換気、および空調(「HVAC」)、娯楽、およびナビゲーションというようなサブシステムを制御するために、自動車においても極普通になりつつある。新たなサーフェース・コンピューター製品、特に、Microsoft CorporationによるMicrosoft Surface(商標)も、本入力デバイスと共に用いるように適応可能である場合もある。
[0022] 本明細書において記載する方法、技法、およびシステムの理解を容易にするために、従来のマウスの動作を、状態図を用いてその機能をモデル化する従来のタッチ・スクリーン入力デバイスと比較することが、役に立つと考えられる。
[0023] 最初に、マウスがその追跡範囲外にあるとき(機械式マウスが表面から持ち上げられたときに起こるような)、マウスは状態0にあり、範囲外と呼ぶことができる。次に、マウスがその追跡範囲内にあるが、そのボタンがいずれも押下されていない場合を考える。この状態は、追跡と呼ぶことができ、スクリーン上に現れるカーソルまたはポインタがマウスの動きに追従する状態を記述する。この追跡状態を状態1と呼ぶことができる。追跡状態では、カーソルまたはポインタを、所望のグラフィカル・ユーザー・インターフェース・エレメントであれば、そのいずれの上にも、マウスを動かすことによって位置付けることができる。また、マウスは、ボタンが押下されたときに、第2状態(状態2と呼ぶ)で動作することができる。ドラッギングと呼ぶことができるこの状態では、グラフィカル・ユーザー・インターフェース・エレメントまたはオブジェクトがマウスの動きに追従するように、これらをディスプレイ上で移動させる(「ドラッグする」)。尚、選択にはボタンの押下および解放が伴うので、アイコンを選択する行為は、ドラッギング状態の下位状態と見なすことができることは、注記してしかるべきである。
[0024] 図3は、前述のマウスについての状態図を示す。状態0において、マウスは範囲外となり、状態1において、追跡状態となる。マウスを範囲内に戻すことによって、マウスは状態0から状態1に入ることができる。機械式マウスの場合、これは、マウスをマウス・パッドのような表面に戻すことが必要となる。マウスは、ボタンを押下する(「クリックする」)ことによって、状態1から状態2に入ることができる。また、マウスは、ボタンを解放することによって、状態2から状態1に戻ることができる。
[0025] 図4は、従来のタッチ・スクリーン入力デバイスについての状態遷移図を示し、この入力デバイスは、1ビットの圧力、即ち、接触または無接触だけを検知できると仮定する。マウスは3つの状態を有するが、タッチ・スクリーン入力デバイスは、2つの状態しか有しておらず、これらは状態0(範囲外)および状態2(ドラッギング)に対応する。即ち、従来のタッチ・スクリーン入力デバイスは、追跡状態を有していない。
[0026] 従来のタッチ・スクリーン入力デバイスにおいて追跡状態がないことは、視力があるユーザー(sighted user)であれば克服することができる。何故なら、彼らは彼らの指またはスタイラスの、スクリーン上に現れる所望のグラフィカル・ユーザー・インターフェース・エレメントとの位置合わせ(alignment)を、それに接触する前に、視覚的に判断することができるからである。しかしながら、視覚障害者は、スクリーンに接触する前に、スクリーンにタッチする感覚(impact)を検証する手段を有しておらず、感覚が検証できた時点には、基本アプリケーションがその接触に応答して既に動作しているであろう。
[0027] この欠点を克服するために、マウスのような三状態入力デバイスをシミュレートするタッチ・スクリーン入力デバイスを提供する。追加の状態は、スクリーンにタッチしたときに状態2に入る効果を下検分するために用いられる。このプレビュー状態では、スクリーン上においてグラフィカル・ユーザー・インターフェース・エレメントにタッチしても、そのエレメントと関連付けられている動作を実行させない。代わりに、プレビュー状態にある間にスクリーンにタッチすると、ユーザーにオーディオ・キューが与えられて、タッチ・スクリーン入力デバイスが状態2になると、どの動作が行われるのかが示される。
[0028] 図5は、三状態タッチ・スクリーン入力デバイスについての状態図の一例を示す。状態0および2は、図4における状態0および2に対応する。しかしながら、一般性のために、図5における状態2をタッチ状態と呼び、これは、タッチされているグラフィカル・ユーザー・インターフェース・エレメントをドラッグし選択するというような行為を含むとよいことは、注記してしかるべきである。例えば、この第2状態では、タッチ・スクリーンに沿った最初のタッチの移動に応答して、グラフィカル・ユーザー・インターフェース・エレメントをタッチ・スクリーン上においてドラッグすることができる。これら2つの状態に加えて、新たな状態、状態1も設けられる。実施態様によっては、この状態がオーディオ・プレビュー状態と呼ばれるとよいと考えられる。オーディオ・プレビュー状態には、1本の指またはスタイラスでスクリーンにタッチすることによって、範囲外状態(状態0)から入ることができる。この状態にある間、種々のグラフィカル・ユーザー・インターフェース・エレメントが接触されると、オーディオ・キューを与えて、接触されているエレメントの機能を記述する。例えば、図6に示すように、ユーザーの指は、Microsoft Surface(商標)コンピューター製品と共に用いられるタッチ・スクリーンによって受けられる。指は、選択肢のメニュー205を提示するスクリーンにタッチしている。タッチ・スクリーン上で指を受けたことの結果、タッチ・スクリーン上に円210が発生する。図7では、指は「散布図」(Scatter View)と呼ばれる選択肢にタッチする。このタッチに応答して、「散布図」と言うオーディオ・キューを発生する。
[0029] 一旦ユーザーが選択したいグラフィカル・ユーザー・インターフェース・エレメントを突き止めたなら、ユーザーは、第1の指またはスタイラスがエレメントとの接触を維持している間に、第2の指またはスタイラスをタッチ・スクリーン上に置くことによって、状態2に入ることができる。このようにして、所望のグラフィカル・ユーザー・インターフェース・エレメントを作動させることができる。即ち、第2の指またはスタイラスで接触を行うことによってタッチ・スクリーンを第2状態に移行させることによって、従来の入力デバイスを用いてそのエレメントが選択されたときと同様に、基本のアプリケーションに応答させる。
[0030] 図5に示すように、ユーザーは第2の指またはスタイラスをタッチ/スクリーンから持ち上げることによって、第2状態から出ることができ、スクリーンをオーディオ・プレビュー状態に戻す。即ち、第2の指またはスタイラスがないことを検出すると、スクリーンをオーディオ・プレビュー状態に戻す。
[0031] 実施態様の中には、第2の指またはスタイラスをスクリーン上のどこに置いても、または代わりにスクリーンの規定部分上に置くことによって、タッチ状態を、オーディオ・プレビュー状態からタッチ状態に移行させることができる場合がある。他の実施形態では、ユーザーが第1の指またはスタイラスに近接してスクリーンとの接触を行う。例えば、場合によっては、第2の指またはスタイラスが、第1の指またはスタイラスから規定の距離以内で接触を行う。このような一例を図8に示す。この例では、タッチ状態に入るために、第1の指またはスタイラスがスクリーンと接触した位置を中心にして位置付けられた円210が、タッチ・スクリーン上に表示される。指は、「大項目」(Large Item)と呼ばれる矩形220と接触している。この矩形220にタッチすると、オーディオ・キュー「大項目」がユーザーに提示される。タッチ状態に入るために、ユーザーは第2の指またはスタイラスを用いて、表示されている円210内のスクリーンと接触を行う。図9は、タッチ状態にあるこの入力デバイスを示す。この第2の指によって円230が発生し、図示のように、この円230は円210と重複している。
[0032] 図10は、ユーザー入力を受け取るためにタッチ・スクリーンを採用する計算機上にインストールすることができる機能コンポーネントを示すアーキテクチャの一例400である。機能コンポーネントは、代わりに、ソフトウェア、ハードウェア、ファームウェア、またはソフトウェア、ハードウェア、およびファームウェアの種々の組み合わせを用いても実現可能である。例えば、アーキテクチャ例400における機能コンポーネントは、メモリーに格納されている命令をプロセッサが実行することによって、実行中に作成することもできる。
[0033] 特定の所望機能を設けるためには、通例、ホスト・アプリケーション407が利用される。しかしながら、場合によっては、ホスト・アプリケーション407によって実現される機構および機能は、代わりに、デバイスのオペレーティング・システムまたはミドルウェアによって設けることもできる。例えば、実施態様の中には、タッチ・スクリーンを通じたファイル・システムの動作および入力を、基本的なオペレーティング・システムの機能としてサポートすることもできる。
[0034] オーディオ・プレビュー・コンポーネント402は、種々の入力イベントをホスト・アプリケーション407に露出するように構成されており、ホスト・アプリケーションとハードウェア特定入力コントローラー間における仲介として機能する。これらのコントローラーは、タッチ・スクリーン・コントローラー425、オーディオ・コントローラー430、および恐らくはその他の入力コントローラー428(例えば、キーボード・コントローラー)を含み、通例、ソフトウェアでデバイス・ドライバーとして実装することができる。タッチ・スクリーン・コントローラー425は、タッチ・スクリーンと相互作用を行い、タッチ・スクリーンは図11では1つのハードウェア・レイヤ440において抽象化されている。他の機能の中で、タッチ・スクリーン・コントローラー425は、タッチ座標、および/またはタッチ・スクリーンに加えられた圧力を示すデーターを取り込み、取り込んだデーターをオーディオ・プレビュー・コンポーネント420に、通例、入力イベントの形態で戻すように構成されている。
[0035] このように、オーディオ・プレビュー・コンポーネント420は、物理的座標のような入力イベントをタッチ・スクリーン・コントローラー425から受け取るように構成されている。入力イベントの本質(nature)がタッチ・スクリーンの状態を決定する。即ち、ユーザーが1本または2本の指あるいはスタイラスでスクリーンに接触したやり方によって、スクリーンが範囲外状態なのか、オーディオ・プレビュー状態なのか、またはタッチ状態なのか決定される。プレビュー状態では、オーディオ・プレビュー・コンポーネント420が、次に、タッチ即ち接触されているグラフィカル・ユーザー・インターフェース・エレメントによって実行される機能に関する情報を得るために、ホスト・アプリケーションに対するしかるべきコールを明確に示す(formulate)。例えば、ホスト・アプリケーション407がプログラム・アクセスを許可する場合、オーディオ・プレビュー・コンポーネント420は、ユーザーがオーディオ・プレビュー状態またはタッチ状態のいずれかにおいて選択したグラフィカル・ユーザー・インターフェース・エレメントを特定するデーターを、ホスト・アプリケーション407において抽出することができる。オーディオ・プレビュー・コンポーネント420がホスト・アプリケーション407のコンテンツにプログラム的にアクセスできない場合、必要な情報をオーディオ・プレビュー・コンポーネント420に露出することができるしかるべきAPIを組み込むために、ホスト・プログラムを書くことが必要になる場合がある。抽出されたデーターは、通例テキストの形態であり、オーディオ・プレビュー・コンポーネント420によってアクセスされるテキスト−音声変換器またはモジュールを用いて、テキスト−音声変換を受けることができる。あるいは、抽出されたデーターは、タッチ即ち接触されているグラフィカル・ユーザー・インターフェース・エレメントの作動によって実行される機能を示すオーディオ・データーを発生するために用いることができる。例えば、場合によっては、「保存」、「閉じる」などのような共通して用いられるグラフィカル・ユーザー・インターフェース・エレメントを表すために、別個のトーンを用いることもできる。次いで、オーディオ・プレビュー・コンポーネント420は、オーディオ・データーをオーディオ・コントローラー434に露出することができる。オーディオ・コントローラー434は、オーディオをレンダリングすることができるように、ハードウェア・レイヤ440にあるオーディオ発生器に駆動信号を送ることができる。
[0036] 本願において用いる場合、「コンポーネント」および「システム」などの用語は、コンピューター関連エンティティを指し、ハードウェア、またはハードウェアおよびソフトウェアの組み合わせ、ソフトウェア、あるいは実行中のソフトウェアのいずれでもよいことを意図している。例えば、コンポーネントは、プロセッサ上で実行するプロセス、プロセッサ、オブジェクト、インスタンス、エクゼキュータブル、実行のスレッド、プログラム、および/またはコンピューターであってもよいが、これらに限定されるのではない。例示として、コンピューター上で実行するアプリケーションおよびそのコンピューターの双方がコンポーネントであることができる。1つまたは複数のコンポーネントが1つのプロセスおよび/または実行のスレッドの中に常駐してもよく、1つのコンポーネントを1つのコンピューター上に局在化すること、および/または2つ以上のコンピューター間で分散することもできる。
[0037] 更に、特許請求する主題は、方法、装置、あるいは、開示した主題を実現するためにコンピューターを制御するソフトウェア、ファームウェア、ハードウェア、またはそのあらゆる組み合わせを生産する標準的なプログラミングおよび/または設計技法を用いる生産品目として実現することができる。「製造品目」という用語は、本明細書において用いられる場合、あらゆるコンピューター読み取り可能デバイスまたは記憶媒体からでもアクセス可能な、機械読み取り可能コンピューター・プログラムを包含することを意図している。例えば、コンピューター読み取り可能記憶媒体は、磁気記憶デバイス(例えば、ハード・ディスク、フロッピー・ディスク、磁気帯、...)、光ディスク(例えば、コンパクト・ディスク(CD)、ディジタル・バーサタイル・ディスク(DVD)...)、スマート・カード、およびフラッシュ・メモリー・デバイス(例えば、カード、スティック、キー・ドライブ...)を含むことができるが、これらに限定されるのではない。勿論、特許請求する主題の範囲または主旨から逸脱することなく、この構成には多くの変更を行うこともできることは、当業者には認められよう。
[0038] 以上構造的特徴および/または方法論的動作に特定的な文言で主題について説明したが、添付した特許請求の範囲において定義される主題は、必ずしも、先に説明した特定的な特徴や動作に限定されるのではないことは言うまでもない。逆に、前述の特定的な特徴および動作は、特許請求の範囲を実現する形態例として開示したまでである。

Claims (11)

  1. 移動体デバイスにユーザー・インターフェースを設ける方法であって、
    タッチ・スクリーン上に1つまたは複数のグラフィカル・ユーザー・インターフェース・エレメントを表示するステップと、
    前記タッチ・スクリーン上の前記グラフィカル・ユーザー・インターフェース・エレメントの位置において、第1のタッチを受け取るステップと、
    前記グラフィカル・ユーザー・インターフェース・エレメントに関連付けられた機能を示すオーディオ・キューが与えられ、前記第1のタッチを受け取った場所を中心として既定の距離を半径とした円を表示する第1の状態に入ることによって、前記第1のタッチを受け取ったことに応答するステップと、
    前記第1のタッチを受け取り続けている間に、前記タッチ・スクリーン上において第2のタッチを受け取るステップと、
    前記第1のタッチを受け取った場所から前記規定の距離未満にある前記タッチ・スクリーンの一部上において前記第2のタッチを受け取った場合にのみ、前記グラフィカル・ユーザー・インターフェース・エレメントに関連付けられた前記機能が実行される前記第1の状態とは異なる第2の状態に入ることによって、前記第2のタッチを受け取ったことに応答するステップと、
    を備えている、方法。
  2. 請求項1記載の方法において、前記第2の状態が、当該第2の状態にある間における前記第1のタッチの前記タッチ・スクリーンに沿った移動に応答して、前記グラフィカル・ユーザー・インターフェース・エレメントを前記タッチ・スクリーン上においてドラッグさせる、方法。
  3. 請求項1又は2に記載の方法において、前記グラフィカル・ユーザー・インターフェース・エレメントが、電子デバイス上で実行されているアプリケーションへのユーザー・インターフェースの一部を表し、前記グラフィカル・ユーザー・インターフェース・エレメントによって実行される機能が、前記アプリケーションに規定の態様で応答させる、方法。
  4. 請求項3に記載の方法において、前記第1の状態に入るステップが、前記グラフィカル・ユーザー・インターフェース・エレメントによって実行される機能にしたがって応答することを、前記アプリケーションに行わせない、方法。
  5. 請求項1〜4のいずれか一項に記載の方法であって、更に、
    前記第2のタッチがないことを検出するステップと、
    前記第2のタッチがないことに応答して、前記第1の状態に戻るステップと、
    を備えている、方法。
  6. 請求項1〜5のいずれか一項に記載の方法を実行するためのプログラム。
  7. 請求項1〜5のいずれか一項に記載の方法を実行するためのプログラムを記録した記録媒体。
  8. 電子デバイスにおいて用いるためのタッチ・スクリーン・ディスプレイ・システムであって、
    ユーザー入力を受け取り、1つまたは複数のグラフィカル・ユーザー・インターフェース・エレメントを表示するように構成されているタッチ・スクリーンと、
    前記グラフィカル・ユーザー・インターフェース・エレメントによって実行される機能を示すオーディオ・キューが与えられ、第1のタッチを受け取った場所を中心として既定の距離を半径とした円を表示するプレビュー状態に入ることによって、前記グラフィカル・ユーザー・インターフェース・エレメントの位置において前記タッチ・スクリーン上で前記第1のタッチを受け取ったことに応答するように構成されているオーディオ・プレビュー・コンポーネントと、
    前記第1のタッチを受け取った場所から前記規定の距離未満にある前記タッチ・スクリーンの一部上において第2のタッチを受け取った場合にのみ、前記グラフィカル・ユーザー・インターフェース・エレメントと関連付けられており前記プレビュー状態とは異なる第2の状態に入ることによって、前記第1のタッチを受け取り続けている間に前記タッチ・スクリーン上において前記第2のタッチを受け取ったことに応答するように構成されているタッチ・スクリーン・プロセッサと、
    を備えている、タッチ・スクリーン・ディスプレイ・システム。
  9. 請求項8に記載のタッチ・スクリーン・ディスプレイ・システムであって、更に、前記電子デバイス上に常駐するアプリケーションを備えており、このアプリケーションが、前記グラフィカル・ユーザー・インターフェース・エレメントを含むユーザー・インターフェースを有し、前記オーディオ・プレビュー・コンポーネントが、前記グラフィカル・ユーザー・インターフェース・エレメントと関連付けられたテキストをオーディオ・キューに変換するテキスト−音声変換コンポーネントを含み、前記テキストが、前記アプリケーションによって前記オーディオ・プレビュー・コンポーネントに露出される、タッチ・スクリーン・ディスプレイ・システム。
  10. 請求項8又は9に記載のタッチ・スクリーン・ディスプレイ・システムにおいて、前記第2の状態が、前記第1のタッチの前記タッチ・スクリーンに沿った移動に応答して、前記グラフィカル・ユーザー・インターフェース・エレメントを前記タッチ・スクリーン上においてドラッグさせる、タッチ・スクリーン・ディスプレイ・システム。
  11. 請求項8〜10のいずれか一項に記載のタッチ・スクリーン・ディスプレイ・システムであって、更に、電子デバイス上に常駐するアプリケーションを備えており、このアプリケーションが、前記グラフィカル・ユーザー・インターフェース・エレメントを含むユーザー・インターフェースを有し、前記グラフィカル・ユーザー・インターフェース・エレメントによって実行される機能が、前記アプリケーションに規定の態様で応答させる、タッチ・スクリーン・ディスプレイ・システム。
JP2012542087A 2009-12-03 2010-11-23 三状態タッチ入力システム Active JP5775526B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/630,381 2009-12-03
US12/630,381 US20110138284A1 (en) 2009-12-03 2009-12-03 Three-state touch input system
PCT/US2010/057701 WO2011068713A2 (en) 2009-12-03 2010-11-23 Three-state touch input system

Publications (3)

Publication Number Publication Date
JP2013513164A JP2013513164A (ja) 2013-04-18
JP2013513164A5 JP2013513164A5 (ja) 2014-02-27
JP5775526B2 true JP5775526B2 (ja) 2015-09-09

Family

ID=44083226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012542087A Active JP5775526B2 (ja) 2009-12-03 2010-11-23 三状態タッチ入力システム

Country Status (9)

Country Link
US (1) US20110138284A1 (ja)
EP (1) EP2507698B1 (ja)
JP (1) JP5775526B2 (ja)
KR (1) KR101872533B1 (ja)
CN (1) CN102763062B (ja)
AU (1) AU2010326223B2 (ja)
CA (1) CA2779706C (ja)
RU (1) RU2559749C2 (ja)
WO (1) WO2011068713A2 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9953392B2 (en) 2007-09-19 2018-04-24 T1V, Inc. Multimedia system and associated methods
US9965067B2 (en) 2007-09-19 2018-05-08 T1V, Inc. Multimedia, multiuser system and associated methods
US8600816B2 (en) * 2007-09-19 2013-12-03 T1visions, Inc. Multimedia, multiuser system and associated methods
EP2490113B1 (en) * 2011-02-15 2016-11-23 Lg Electronics Inc. Display device and method of controlling operation thereof
TWI441052B (zh) * 2011-02-24 2014-06-11 Avermedia Tech Inc 手勢操作方法及多媒體播放裝置
US20130021269A1 (en) * 2011-07-20 2013-01-24 Google Inc. Dynamic Control of an Active Input Region of a User Interface
WO2013068793A1 (en) * 2011-11-11 2013-05-16 Nokia Corporation A method, apparatus, computer program and user interface
KR20190090060A (ko) * 2012-03-21 2019-07-31 김시환 단계적 정보 제공 시스템 및 방법
JP5798532B2 (ja) * 2012-08-23 2015-10-21 株式会社Nttドコモ ユーザインタフェース装置、ユーザインタフェース方法及びプログラム
CN102902477A (zh) * 2012-08-24 2013-01-30 中国电力科学研究院 一种基于触摸屏的电力系统仿真控制方法
KR101940220B1 (ko) 2012-10-23 2019-01-18 엘지디스플레이 주식회사 전원제어부를 포함하는 표시장치 및 그 구동방법
JP5806270B2 (ja) * 2013-09-21 2015-11-10 株式会社豊田自動織機 タッチスイッチモジュール
CN104516559A (zh) * 2013-09-27 2015-04-15 华硕电脑股份有限公司 触控输入装置的多点触控方法
CN103942000A (zh) * 2014-04-23 2014-07-23 宁波保税区攀峒信息科技有限公司 —种触摸事件识别方法
CN106062855A (zh) * 2014-11-03 2016-10-26 天才工厂 电子装置及利用该电子装置的学习信息提供方法
US9542037B2 (en) 2015-03-08 2017-01-10 Apple Inc. Device, method, and user interface for processing intensity of touch contacts
US10015364B2 (en) * 2015-05-11 2018-07-03 Pictureworks Pte Ltd System and method for previewing digital content
US10671343B1 (en) * 2016-06-30 2020-06-02 Amazon Technologies, Inc. Graphical interface to preview functionality available for speech-enabled processing
DE102016216318A1 (de) * 2016-08-30 2018-03-01 Continental Automotive Gmbh Verfahren und Vorrichtung zur Bedienung eines elektronischen Gerätes
EP3736677A1 (en) * 2019-05-10 2020-11-11 MyScript A method and corresponding device for selecting and editing handwriting input elements
US20200379716A1 (en) * 2019-05-31 2020-12-03 Apple Inc. Audio media user interface
CN110908580B (zh) * 2019-11-11 2021-11-02 广州视源电子科技股份有限公司 控制应用的方法和装置

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4307266A (en) * 1978-08-14 1981-12-22 Messina John D Communication apparatus for the handicapped
US5483261A (en) * 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US6009355A (en) * 1997-01-28 1999-12-28 American Calcar Inc. Multimedia information and control system for automobiles
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7614008B2 (en) * 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US7358956B2 (en) * 1998-09-14 2008-04-15 Microsoft Corporation Method for providing feedback responsive to sensing a physical presence proximate to a control of an electronic device
US6532005B1 (en) * 1999-06-17 2003-03-11 Denso Corporation Audio positioning mechanism for a display
JP2001134382A (ja) * 1999-11-04 2001-05-18 Sony Corp 図形処理装置
US6999066B2 (en) * 2002-06-24 2006-02-14 Xerox Corporation System for audible feedback for touch screen displays
US7023427B2 (en) * 2002-06-28 2006-04-04 Microsoft Corporation Method and system for detecting multiple touches on a touch-sensitive screen
US7814439B2 (en) * 2002-10-18 2010-10-12 Autodesk, Inc. Pan-zoom tool
US20050071761A1 (en) * 2003-09-25 2005-03-31 Nokia Corporation User interface on a portable electronic device
JP4387242B2 (ja) * 2004-05-10 2009-12-16 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及びゲーム装置
CA2573002A1 (en) * 2004-06-04 2005-12-22 Benjamin Firooz Ghassabian Systems to enhance data entry in mobile and fixed environment
JP4763695B2 (ja) * 2004-07-30 2011-08-31 アップル インコーポレイテッド タッチ・センシティブ入力デバイスのためのモード・ベースのグラフィカル・ユーザ・インタフェース
US20060077182A1 (en) * 2004-10-08 2006-04-13 Studt Peter C Methods and systems for providing user selectable touch screen functionality
US7735012B2 (en) * 2004-11-04 2010-06-08 Apple Inc. Audio user interface for computing devices
JP2006139615A (ja) * 2004-11-12 2006-06-01 Access Co Ltd 表示装置、メニュー表示プログラムおよびタブ表示プログラム
FR2878344B1 (fr) * 2004-11-22 2012-12-21 Sionnest Laurent Guyot Dispositif de commandes et d'entree de donnees
US7728818B2 (en) * 2005-09-30 2010-06-01 Nokia Corporation Method, device computer program and graphical user interface for user input of an electronic device
KR20070113022A (ko) * 2006-05-24 2007-11-28 엘지전자 주식회사 사용자 입력에 반응하는 터치스크린 장치 및 이의 작동방법
US20090213086A1 (en) * 2006-04-19 2009-08-27 Ji Suk Chae Touch screen device and operating method thereof
US20070257891A1 (en) * 2006-05-03 2007-11-08 Esenther Alan W Method and system for emulating a mouse on a multi-touch sensitive surface
KR100748469B1 (ko) * 2006-06-26 2007-08-10 삼성전자주식회사 키패드 터치에 의한 사용자 인터페이스 방법 및 그 휴대단말기
US7880728B2 (en) * 2006-06-29 2011-02-01 Microsoft Corporation Application switching via a touch screen interface
US7843427B2 (en) * 2006-09-06 2010-11-30 Apple Inc. Methods for determining a cursor position from a finger contact with a touch screen display
US7581186B2 (en) * 2006-09-11 2009-08-25 Apple Inc. Media manager with integrated browsers
JP2008097172A (ja) * 2006-10-10 2008-04-24 Sony Corp 表示装置および表示方法
US20080129520A1 (en) * 2006-12-01 2008-06-05 Apple Computer, Inc. Electronic device with enhanced audio feedback
US7777732B2 (en) * 2007-01-03 2010-08-17 Apple Inc. Multi-event input system
US8970503B2 (en) * 2007-01-05 2015-03-03 Apple Inc. Gestures for devices having one or more touch sensitive surfaces
US7924271B2 (en) * 2007-01-05 2011-04-12 Apple Inc. Detecting gestures on multi-event sensitive devices
US8144129B2 (en) * 2007-01-05 2012-03-27 Apple Inc. Flexible touch sensing circuits
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US8519964B2 (en) * 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
JP2008204275A (ja) * 2007-02-21 2008-09-04 Konica Minolta Business Technologies Inc 入力操作装置および入力操作方法
US8115753B2 (en) * 2007-04-11 2012-02-14 Next Holdings Limited Touch screen system with hover and click input methods
KR100894966B1 (ko) * 2007-06-07 2009-04-24 에스케이 텔레콤주식회사 이동 단말기에서 멀티 터치를 동시 인식하는 방법 및 멀티터치를 동시 인식 가능한 이동 단말기
US9830804B2 (en) * 2007-06-19 2017-11-28 At & T Intellectual Property, I, L.P. Methods, apparatuses, and computer program products for implementing situational control processes
US20100275150A1 (en) * 2007-10-02 2010-10-28 Access Co., Ltd. Terminal device, link selection method, and display program
KR101398134B1 (ko) * 2007-10-04 2014-05-20 엘지전자 주식회사 휴대 단말기의 동영상 재생장치 및 방법
US8063905B2 (en) * 2007-10-11 2011-11-22 International Business Machines Corporation Animating speech of an avatar representing a participant in a mobile communication
US20090102805A1 (en) * 2007-10-18 2009-04-23 Microsoft Corporation Three-dimensional object simulation using audio, visual, and tactile feedback
US20090122018A1 (en) * 2007-11-12 2009-05-14 Leonid Vymenets User Interface for Touchscreen Device
US20090166098A1 (en) * 2007-12-31 2009-07-02 Apple Inc. Non-visual control of multi-touch device
KR101499546B1 (ko) * 2008-01-17 2015-03-09 삼성전자주식회사 터치 스크린 장치의 디스플레이 영역 제어 방법, 장치, 및기록매체
US8237665B2 (en) * 2008-03-11 2012-08-07 Microsoft Corporation Interpreting ambiguous inputs on a touch-screen
JP4853507B2 (ja) * 2008-10-30 2012-01-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8456420B2 (en) * 2008-12-31 2013-06-04 Intel Corporation Audible list traversal
US9489131B2 (en) * 2009-02-05 2016-11-08 Apple Inc. Method of presenting a web page for accessibility browsing
KR101597553B1 (ko) * 2009-05-25 2016-02-25 엘지전자 주식회사 기능 실행 방법 및 그 장치
US8681106B2 (en) * 2009-06-07 2014-03-25 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US9262063B2 (en) * 2009-09-02 2016-02-16 Amazon Technologies, Inc. Touch-screen user interface
EP2494432B1 (en) * 2009-10-27 2019-05-29 Harmonix Music Systems, Inc. Gesture-based user interface
US8446392B2 (en) * 2009-11-16 2013-05-21 Smart Technologies Ulc Method for determining the location of a pointer in a pointer input region, and interactive input system executing the method

Also Published As

Publication number Publication date
WO2011068713A3 (en) 2011-09-29
AU2010326223A1 (en) 2012-05-24
JP2013513164A (ja) 2013-04-18
US20110138284A1 (en) 2011-06-09
KR101872533B1 (ko) 2018-08-02
CA2779706C (en) 2019-06-04
CN102763062B (zh) 2015-09-16
EP2507698A2 (en) 2012-10-10
WO2011068713A2 (en) 2011-06-09
RU2012127679A (ru) 2014-01-10
CN102763062A (zh) 2012-10-31
RU2559749C2 (ru) 2015-08-10
AU2010326223B2 (en) 2014-05-01
EP2507698B1 (en) 2020-09-02
EP2507698A4 (en) 2016-05-18
CA2779706A1 (en) 2011-06-09
KR20120117809A (ko) 2012-10-24

Similar Documents

Publication Publication Date Title
JP5775526B2 (ja) 三状態タッチ入力システム
US10156980B2 (en) Toggle gesture during drag gesture
US10928907B2 (en) Content-based tactile outputs
US10042599B2 (en) Keyboard input to an electronic device
JP5129140B2 (ja) タッチスクリーン型インターフェースを用いるコンピュータの作動
US9146672B2 (en) Multidirectional swipe key for virtual keyboard
JP5456529B2 (ja) グラフィカル・ユーザ・インターフェース・オブジェクトを操作する方法及びコンピュータシステム
US20090187842A1 (en) Drag and Drop User Interface for Portable Electronic Devices with Touch Sensitive Screens
US20140306897A1 (en) Virtual keyboard swipe gestures for cursor movement
US20100214239A1 (en) Method and touch panel for providing tactile feedback
US20120169776A1 (en) Method and apparatus for controlling a zoom function
US10108286B2 (en) Auto-baseline determination for force sensing
JP2012208962A (ja) タッチスクリーン型ユーザ・インターフェース上への仮想入力装置の配置
KR102228335B1 (ko) 그래픽 사용자 인터페이스의 일 부분을 선택하는 방법
JP2007516481A (ja) タッチベースユーザ入力装置で2点ユーザ入力を認識する方法および装置
US8842088B2 (en) Touch gesture with visible point of interaction on a touch screen
US10042440B2 (en) Apparatus, system, and method for touch input
CN110945469A (zh) 触摸输入设备及方法
KR20160027063A (ko) 그래픽 사용자 인터페이스의 일 부분을 선택하는 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141203

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150703

R150 Certificate of patent or registration of utility model

Ref document number: 5775526

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250