JP2015503795A - タッチスクリーンのインタラクション方法および装置 - Google Patents

タッチスクリーンのインタラクション方法および装置 Download PDF

Info

Publication number
JP2015503795A
JP2015503795A JP2014550277A JP2014550277A JP2015503795A JP 2015503795 A JP2015503795 A JP 2015503795A JP 2014550277 A JP2014550277 A JP 2014550277A JP 2014550277 A JP2014550277 A JP 2014550277A JP 2015503795 A JP2015503795 A JP 2015503795A
Authority
JP
Japan
Prior art keywords
interaction
detected
area
display
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014550277A
Other languages
English (en)
Inventor
ロン、アヴィヴ
シュカトフ、ミッキー
セヴリューギン、ヴァシリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2015503795A publication Critical patent/JP2015503795A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【解決手段】本明細書において、タッチスクリーンのインタラクションに関連する方法、装置、および記憶媒体が開示される。様々な実施形態において、方法は、モバイルデバイスなどのデバイスにより、デバイスのタッチセンサー式ディスプレイのエリアとの起こりつつあるインタラクションを検出する段階と、デバイスにより、検出に応答して、検出された起こりつつあるインタラクションのアシストを提供する段階とを含み得る。様々な実施形態において、アシストを提供する段階は、検出された起こりつつあるインタラクションのエリアにズームインする段階、または検出された起こりつつあるインタラクションのエリアにビジュアルエイドを表示する段階を含み得る。他の実施形態が開示または特許請求され得る。【選択図】図1

Description

[関連出願の相互参照]
本願は、同時に提出される、発明の名称が「Facilitating The User of Selectable Elements on Touch Screens」である、米国特許出願<未割り当て>(代理人クライアント参照番号ITL2517wo)に関連する。
本願は、データ処理の技術分野に関し、より詳細には、タッチスクリーンのインタラクションに関連する方法、装置、および記憶媒体に関する。
本明細書において提供される背景の説明は、本開示の文脈を一般的に提示することを目的としている。本明細書において異なるように示されていない限り、このセクションに説明される題材は、本願の請求項の先行技術ではなく、このセクションに含まれるからといって先行技術として認められない。
コンピューティング、ネットワーキング、および関連する技術における最近の進歩は、パーソナルデジタルアシスタント、スマートフォン、タブレットコンピュータ、およびその他などのモバイルコンピューティングデバイス(以下単に、モバイルデバイス)の急速な採用に繋がった。益々、モバイルデバイスは、情報を表示するため、および、ユーザによるスクリーンのタッチを通じたユーザ入力を取得するために構成されたタッチセンサー式ディスプレイ(タッチセンサー式画面とも呼ばれる)を含み得る。デスクトップコンピュータまたはラップトップコンピュータなどの従来のコンピューティングデバイスの表示と比較し、タッチセンサー式画面は典型的には、より小さい表示エリアを有する。したがって、ユーザ、特に視覚障害があるユーザにとって、表示される情報とインタラクションを行うことがより困難であることが多い。
本願発明の実施形態が、添付の図面に図示された、限定ではなく例示的な実施形態を用いて説明される。同様の参照符号は同様の要素を示す。図面は本開示の実施形態に従って全てが構成されている。
タッチスクリーンのインタラクションを促進させる方法を図示するブロック図である。 図1の方法をさらに図示する、例示的なデバイスの外観図である。 図1の方法をさらに図示する、例示的なデバイスの外観図である。 図1の方法をさらに図示する、他の例示的なデバイスの外観図である。 図1の方法をさらに図示する、他の例示的なデバイスの外観図である。 図2〜5の例示的なデバイスの例示的なアーキテクチャ図を図示する。 図1の方法の全てまたは選択された態様を実施するよう構成された命令を有する例示的な非一時的なコンピュータ可読記憶媒体を図示する。 図1の方法を実施するデバイスとして用いられるのに適した例示的なコンピューティングシステムを図示する。
本明細書において、タッチスクリーンのインタラクションに関連する方法、装置、および記憶媒体が開示される。様々な実施形態において、方法は、
モバイルデバイスなどのデバイスにより、デバイスのタッチセンサー式ディスプレイのエリアとの起こりつつあるインタラクションを検出する段階と、
デバイスにより、検出に応答して、検出された起こりつつあるインタラクションのアシストを提供する段階と
を含み得る。
様々な実施形態において、アシストを提供する段階は、検出された起こりつつあるインタラクションのエリアにズームインする段階、または、検出された起こりつつあるインタラクションのエリアにビジュアルエイドを表示する段階を含み得る。様々な実施形態において、ビジュアルエイドを表示する段階は、検出された起こりつつあるインタラクションのエリアに、1または複数の起伏を表す1または複数の画像を表示する段階を含み得る。
他の当業者に研究の本質を伝達すべく当業者に一般的に採用されている用語を用いて、例示的な実施形態の様々な態様が説明される。しかし当業者には、説明される態様のいくつかのみを用いて代替的な実施形態が実施され得ることが明らかとなろう。説明を目的とし、例示的な実施形態の深い理解を提供するために特定の数、材料、および構成が明記される。しかし当業者には、それら特定的な詳細を用いずとも代替的な実施形態が実施され得ることが明らかとなろう。他の例において、例示的な実施形態を曖昧にしないようにするため、周知の特徴は省略または単純化されている。
様々な動作が、順番に、例示的な実施形態を理解するにあたり最も役立つやり方で複数の別個の動作として説明される。しかし、説明の順序は、これらの動作が必ず順序に依存することを示唆するものとして解釈されてはならない。特に、これらの動作は、提示される順序で実行される必要はない。さらに、別個の動作としての動作の説明は、それら動作が、独立して、および/または、別個のエンティティによって必ず実行されることを要するものとして解釈されてはならない。別個のモジュールとしてのエンティティおよび/またはモジュールの説明は同様に、モジュールが別個であること、および/または別個の動作を実行することを要するものとして解釈されるべきではない。様々な実施形態において、図示および/または説明される動作、エンティティ、データ、および/またはモジュールは、融合されてもよく、さらに副部品に分割されてもよく、および/または、省略されてもよい。
「一実施形態において」または「実施形態において」という文言が繰り返し用いられる。これらの文言は一般的に同じ実施形態を指さないが、指すかもしれない。文脈上他のことが示されない限り、「備える」、「有する」、および「含む」といった用語は同義語である。「A/B」という文言は、「AまたはB」であることを意味する。「Aおよび/またはB」という文言は、「(A)、(B)、または(AおよびB)」であることを意味する。「A、B、およびCのうち少なくとも1つ」という文言は、「(A)、(B)、(C)、(AおよびB)、(AおよびC)、(BおよびC)、または(A、B、およびC)」であることを意味する。
図1を参照すると、本開示の様々な実施形態に係る、タッチスクリーンのインタラクションを促進させる方法が図示されている。示されるように、方法100はブロック102から開始し得る。ここでモバイルデバイスなどのデバイスは、自身の外的環境をモニタリングして、デバイスのタッチセンサー式ディスプレイのエリアとの起こりつつあるインタラクションを検出し得る。ブロック102から、起こりつつあるインタラクションの検出に応じて、方法100はブロック104へ移行し得る。ここで、デバイスは、検出された起こりつつあるインタラクションのアシストを提供し得る。ブロック104から、アシストの提供に応じて、方法100はブロック102に戻り得、先述したように、動作を継続する。
様々な実施形態において、モバイルデバイスは、パーソナルデジタルアシスタント、スマートフォン、またはタブレットコンピュータであり得る。他の実施形態において、デバイスは、デスクトップコンピュータまたはラップトップコンピュータであり得る。
様々な実施形態において、デバイスは、自身の外的環境の画像、例えば、デバイスの前方の空間の画像を継続的に分析して、デバイスのユーザの手および/または指の動きを検出することにより、自身の外的環境をモニタリングして、起こりつつあるインタラクションを検出し得る。様々な実施形態において、エリアとの起こりつつあるインタラクションは、ユーザの指がエリアから予め定められた距離内にある場合に検出されたものと見なされ得る。予め定められた距離は、実施例毎に異なり得、好ましくは、異なるデバイスおよび/またはユーザ毎にカスタマイズされ得る。様々な実施形態において、デバイスは、自身の外的環境の画像、例えば、デバイスの前方の空間の画像を取り込むよう構成された1または複数のカメラを含み得る。
様々な実施形態において、起こりつつあるインタラクションの検出に応じて、デバイスは、検出された起こりつつあるインタラクションのエリアにズームインすることによりアシストを提供し得る。他の実施形態において、デバイスは、検出された起こりつつあるインタラクションのエリアにビジュアルエイドを表示し得る。様々な実施形態において、表示されるビジュアルエイドは、検出された起こりつつあるインタラクションのエリアに1または複数の起伏を表す1または複数の画像を含み得る。
ここで図2および3を参照すると、本開示の実施形態に係る、図1の方法をさらに図示する、デバイスの外観図のペアが示されている。示されるように、デバイス200は、タッチセンサー式画面202、および1または複数の前方を向いたカメラ206a〜206bを含み得る。動作の間、様々な情報、例えばアイコン204a〜204lが、例えば、デバイス200で動作するアプリケーションにより、または、(例えば、タッチセンサー式画面202に関連付けられたデバイスドライバを介して)デバイス200のオペレーティングシステムによりタッチセンサー式画面202に表示され得る。さらに、カメラ206a〜206bは定期的または継続的に、デバイス200の前方の空間の画像を取り込み得る。取り込まれた画像は、デバイス200の入力ドライバ、例えば、タッチセンサー式画面202に関連付けられたデバイスドライバへ提供され得る。入力ドライバは、デバイス200のユーザの手および/または指の動きに関し画像を分析して、タッチセンサー式画面202のエリア、例えば、エリア208との起こりつつあるインタラクションを検出し得る。図3に図示されるように、検出に応答して、入力ドライバはデバイス200に、エリアに表示される情報にズームインさせる。様々な実施形態において、ズームインは、ユーザがエリアに継続して接近するらしいか否かを反映して、速度が異なり得る、および/または適合され得る。したがって、タッチスクリーンのインタラクションは、視覚障害があるユーザにとって特に、よりユーザフレンドリーであり得る。
ここで図4および5を参照すると、本開示の実施形態に係る、図1の方法をさらに図示する、デバイスの外観図の他のペアが示されている。示されるように、デバイス400は同様に、タッチセンサー式画面402、および1または複数の前方を向いたカメラ406a〜406bを含み得る。動作の間、様々な情報、例えば、アイコン404a〜404lが、(例えば、タッチセンサー式画面402に関連付けられたデバイスドライバを介して)例えば、デバイス400で動作するアプリケーションにより、または、デバイス400のオペレーティングシステムによりタッチセンサー式画面402に表示され得る。さらに、カメラ406a〜406bは定期的または継続的に、デバイス400の前方の空間の画像を取り込み得る。取り込まれた画像は、デバイス400の入力ドライバ、例えば、タッチセンサー式画面402に関連付けられたデバイスドライバへ提供され得る。入力ドライバは、デバイス400のユーザの手および/または指の動きに関し画像を分析して、タッチセンサー式画面402のエリアとの起こりつつあるインタラクションを検出し得る。検出に応答して、入力ドライバはデバイス400に、1または複数のビジュアルエイド408を表示させて、ユーザの指または指が移動して向かっているタッチセンサー式画面402のエリアまたは複数のエリアをユーザのために確認しユーザをアシストさせ得る。様々な実施形態において、ビジュアルエイドは、例えば水のさざ波を伝える一連の起伏を表す一連の画像を含み得る。様々な実施形態において、起伏の割合は、ユーザがエリアに継続して接近するらしいか否かを反映して、異なり得る、および/または適合され得る。さらに、様々な実施形態において、例えば、ユーザの2本の指のジェスチャを介した画像の拡大または縮小をサポートするアプリケーションの表示を現在有しているターゲットであるらしいエリアを網羅するより広いエリアに関して、ユーザの2本の指のターゲットであるらしいエリアに対応するよう2組の一連の起伏が表示され得る。したがって、タッチスクリーンのインタラクションは、視覚障害があるユーザにとって特に、よりユーザフレンドリーでもあり得る。
ここで図6を参照すると、本開示の様々な実施形態に係る、図2〜5のデバイスのアーキテクチャ図が示されている。図示されるように、デバイス200/400のアーキテクチャ600は、様々なハードウェア要素608、例えば、先述したタッチセンサー式画面202/402、およびカメラ206a〜206b/406a〜406bを含み得る。ハードウェア要素608には、1または複数のデバイスドライバ606、例えば、タッチセンサー式画面202/402、およびカメラ206a〜206b/406a〜406bに関連付けられた1または複数のデバイスドライバが関連付けられ得る。デバイス200/400のアーキテクチャ600は、更なるデバイスドライバ606を介して、アプリケーション602のためにタッチセンサー式画面202/402に情報を表示するよう構成されたディスプレイマネージャ604も含み得る。
実施形態に関して、カメラ206a〜206b/406a〜406bと関連付けられてデバイスドライバ606は、デバイス200/400の外的環境の画像を定期的/継続的に取り込むようカメラ206a〜206b/406a〜406bを制御するよう構成され得る。様々な実施形態において、デバイスドライバ606はさらに、ユーザの手および/または指の動きに関し画像を分析するよう、またはユーザの手および/または指の動きに関し画像を分析するために、他のデバイスドライバ606、例えばタッチセンサー式画面202/402に関連付けられたデバイスドライバ606に画像を提供するよう構成され得る。
追加的に、図2〜3の実施形態に関して、モニタリング/分析デバイスドライバ606は、起こりつつあるインタラクションの検出に応じて、例えば、タッチセンサー式画面202/402のエリアから予め定められた距離内のユーザの指の検出に応じて、エリアに表示される情報にズームインするようディスプレイマネージャ604に通知するよう構成され得る。さらに、図4〜5の実施形態に関して、モニタリング/分析デバイスドライバ606は、1または複数のビジュアルエイドを表示する(または他のデバイスドライバ606に表示させる)よう構成され得る。
図7は、本開示の様々な実施形態に係るコンピュータ可読記憶媒体を図示する。図示されるように、コンピュータ可読記憶媒体702は、複数のプログラミング命令704を含み得る。プログラミング命令704は、プログラミング命令の実行に応答してデバイス200/400に、図1を参照して先述した方法100の動作を実行させるよう構成され得る。代替的な実施形態において、プログラミング命令704は代わりに、複数のコンピュータ可読記憶媒体702に配置され得る。様々な実施形態において、コンピュータ可読記憶媒体702は、コンパクトディスク(CD)、デジタルビデオディスク(DVD)、フラッシュ、およびその他などの非一時的なコンピュータ可読記憶媒体であり得る。
図8は、本開示の様々な実施形態に係る、デバイス200/400で用いられるのに適した例示的なコンピュータシステムを図示する。示されるように、コンピューティングシステム800は、複数のプロセッサまたはプロセッサコア802、およびシステムメモリ804を含む。請求項を含む本願の目的のために、「プロセッサ」および「プロセッサコア」という用語は、文脈上明らかに他のことを要さない限り、同義語として見なされ得る。追加的に、コンピューティングシステム800は、大容量記憶デバイス806(ディスケット、ハードドライブ、コンパクトディスク読取専用メモリ(CD−ROM)、およびその他など)、入出力(I/O)デバイス808(タッチセンサー式画面202/402)、カメラ206a〜206b/406a/406b、およびその他など)、および通信インタフェース810(WiFi、Bluetooth(登録商標)、3G/4Gネットワークインタフェースカード、モデム、およびその他など)を含む。要素は、1または複数のバスを表すシステムバス812を介して互いに結合され得る。複数のバスの場合、複数のバスは、1または複数のバスブリッジ(図示せず)によりブリッジ接続され得る。
これらの要素のそれぞれは、当技術分野で公知の従来の機能を実行するよう構成され得る。特に、システムメモリ804および大容量記憶装置806は、本明細書においてまとめて演算ロジック822として示される、図1を参照して先述された方法100の動作を実行するよう構成されたプログラミング命令のワーキングコピーおよび永続的なコピーを格納するために採用され得る。演算ロジック822はさらに、他の機能、例えば、様々なデバイスドライバ機能を提供するプログラミング命令を含み得る。様々なコンポーネントは、プロセッサ802によりサポートされるアセンブラ命令、または、例えばそのような命令にコンパイルされ得るCなどの高水準言語により実装され得る。
プログラミング命令の永続的なコピーは、例えば、コンパクトディスク(CD)などの配布媒体(図示せず)を通じて、または(配信サーバ(図示せず)からの)通信インタフェース810を通じて工場または現場において大容量記憶装置806内に配置され得る。つまり、演算ロジック822の実装を有する1または複数の配布媒体が、様々なコンピューティングデバイスをプログラミングするべく演算ロジック822を配布するために採用され得る。
一実施形態に関して、プロセッサ802のうち少なくとも1つは、演算ロジック822と一緒にパッケージングされ得る。一実施形態に関して、プロセッサ802のうち少なくとも1つは、演算ロジック822と一緒にパッケージングされてシステムインパッケージ(SiP)を形成し得る。一実施形態に関して、プロセッサ802のうち少なくとも1つは、演算ロジック822と同じダイに統合され得る。一実施形態に関して、プロセッサ802のうち少なくとも1つは、演算ロジック822と同じダイに統合されて、システムオンチップ(SoC)を形成し得る。少なくとも1つの実施形態に関して、SoCは、スマートフォン、携帯電話、タブレット、または他のモバイルデバイスで利用され得る。
他の点に関しては、示される要素802〜812の構成は公知であり、したがって、さらに説明されない。様々な実施形態において、システム800は、より多くの、またはより少ないコンポーネント、および/または異なるアーキテクチャを有し得る。
本明細書において特定の実施形態が図示および説明されてきたが、当業者には、本開示の実施形態の範囲から逸脱することなく、多様な代替および/または同等の実施例が、示され説明される特定の実施形態に取って代わり得ることを理解されよう。本願は、本明細書に説明される実施形態の何らかの適合例または変形例を網羅することが意図されている。よって、本開示の実施形態は、請求項およびその同等物によってのみ限定されることが明白に意図されている。

Claims (25)

  1. デバイスにより、前記デバイスのタッチセンサー式ディスプレイのエリアとの起こりつつあるインタラクションを検出する段階と、
    前記デバイスにより、検出に応答して、検出された前記起こりつつあるインタラクションのアシストを提供する段階と
    を備える、方法。
  2. 前記検出する段階は、前記デバイスの1または複数のカメラにより取り込まれた画像データを処理する段階を有する、請求項1に記載の方法。
  3. 前記処理する段階は、前記画像データを処理して、前記デバイスのユーザの指の複数の動きを検出する段階を含む、請求項2に記載の方法。
  4. 前記提供する段階は、検出された起こりつつあるインタラクションの前記エリアにズームインする段階を有する、請求項1から3のいずれか1項に記載の方法。
  5. 前記提供する段階は、前記検出された起こりつつあるインタラクションの前記エリアにズームインするよう前記デバイスのディスプレイマネージャに通知する段階を有する、請求項4に記載の方法。
  6. 前記提供する段階は、検出された起こりつつあるインタラクションの前記エリアにビジュアルエイドを表示する段階を有する、請求項1から5のいずれか1項に記載の方法。
  7. 前記表示する段階は、前記検出された起こりつつあるインタラクションの前記エリアに、1または複数の起伏を表す1または複数の画像を含むビジュアルエイドを表示する段階を含む、請求項6に記載の方法。
  8. 前記デバイスはモバイルデバイスである、請求項1から7のいずれか1項に記載の方法。
  9. 1または複数のプロセッサと、
    前記1または複数のプロセッサと結合され、タッチセンサー式画面を含むディスプレイユニットと、
    ディスプレイドライバと
    を備え、
    前記ディスプレイドライバは、前記1または複数のプロセッサにより動作させられて、
    前記タッチセンサー式画面のエリアとの起こりつつあるインタラクションを検出し、
    検出に応答して、検出された前記起こりつつあるインタラクションのアシストを提供する、または前記アシストが提供されるようにする、
    装置。
  10. 前記装置は1または複数のカメラをさらに備え、
    前記ディスプレイドライバは、前記1または複数のカメラにより取り込まれた画像データを処理して、前記タッチセンサー式画面との起こりつつあるインタラクションを検出する、請求項9に記載の装置。
  11. 前記ディスプレイドライバは、前記画像データを処理して、前記装置のユーザの指の複数の動きを検出する、請求項10に記載の装置。
  12. 前記装置はディスプレイマネージャをさらに備え、
    前記ディスプレイマネージャは、前記1または複数のプロセッサにより動作させられて、前記ディスプレイユニットに画像を表示し、
    前記ディスプレイドライバは、前記ディスプレイマネージャに、検出に応答して、検出された起こりつつあるインタラクションの前記エリアにズームインさせる、請求項9から11のいずれか1項に記載の装置。
  13. 前記ディスプレイドライバは、検出に応答して、前記検出された起こりつつあるインタラクションの前記エリアにズームインするよう前記ディスプレイマネージャに通知する、請求項12に記載の装置。
  14. 前記ディスプレイドライバは、検出に応答して、検出された起こりつつあるインタラクションの前記エリアにビジュアルエイドを表示する、請求項9から13のいずれか1項に記載の装置。
  15. 前記ディスプレイドライバは、検出に応答して、前記検出された起こりつつあるインタラクションの前記エリアに、1または複数の起伏を表す1または複数の画像を含むビジュアルエイドを表示する、請求項14に記載の装置。
  16. 前記装置は、スマートフォンまたはコンピューティングタブレットのうち選択される1つである、請求項9から15のいずれか1項に記載の装置。
  17. 1または複数のプロセッサと、
    前記1または複数のプロセッサと結合された複数の前方を向いたカメラと、
    前記1または複数のプロセッサと結合され、タッチセンサー式画面を含むディスプレイユニットと、
    前記1または複数のプロセッサにより動作させられて前記ディスプレイユニットに画像を表示するディスプレイマネージャと、
    ディスプレイドライバと
    を備える装置であり、
    前記ディスプレイドライバは、前記1または複数のプロセッサにより動作させられて、
    前記1または複数の前方を向いたカメラにより取り込まれた画像データを処理し、
    前記装置のユーザの指の複数の動きを検出し、
    前記タッチセンサー式画面のエリアとの起こりつつあるインタラクションを識別し、
    検出に応答して、検出された前記起こりつつあるインタラクションのアシストを提供する、または前記アシストが提供されるようにする、
    装置。
  18. タッチセンサー式ディスプレイを有するデバイスに、
    前記デバイスをモニタリングして、前記タッチセンサー式ディスプレイのエリアとの起こりつつあるインタラクションを検出する手順と、
    検出に応答して、検出された前記起こりつつあるインタラクションのアシストを提供する手順と
    を実行させる、プログラム。
  19. 前記デバイスの1または複数のカメラにより取り込まれた画像データを処理して、前記タッチセンサー式ディスプレイのエリアとの起こりつつあるインタラクションを検出する手順を前記デバイスに実行させる、請求項18に記載のプログラム。
  20. 前記デバイスの1または複数のカメラにより取り込まれた画像データを処理して、前記デバイスのユーザの指の複数の動きを検出する手順を前記デバイスに実行させる、請求項19に記載のプログラム。
  21. 前記検出に応答して、検出された起こりつつあるインタラクションの前記エリアにズームインする手順を前記デバイスに実行させる、請求項18から20のいずれか1項に記載のプログラム。
  22. 検出された前記起こりつつあるインタラクションの前記エリアにズームインさせる通知が前記デバイスのディスプレイマネージャに送信されるようにする手順を前記デバイスに実行させる、請求項21に記載のプログラム。
  23. 前記検出に応答して、検出された起こりつつあるインタラクションの前記エリアにビジュアルエイドを表示する手順を前記デバイスに実行させる、請求項18から22のいずれか1項に記載のプログラム。
  24. 前記デバイスのディスプレイドライバに、前記検出された起こりつつあるインタラクションの前記エリアに、1または複数の起伏を表す1または複数の画像を含むビジュアルエイドを表示させる手順を前記デバイスに実行させる、請求項23に記載のプログラム。
  25. 前記デバイスはモバイルデバイスである、請求項18から24のいずれか1項に記載のプログラム。
JP2014550277A 2012-01-03 2012-01-03 タッチスクリーンのインタラクション方法および装置 Pending JP2015503795A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2012/020025 WO2013103333A1 (en) 2012-01-03 2012-01-03 Touch screen interaction methods and apparatuses

Publications (1)

Publication Number Publication Date
JP2015503795A true JP2015503795A (ja) 2015-02-02

Family

ID=48745329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014550277A Pending JP2015503795A (ja) 2012-01-03 2012-01-03 タッチスクリーンのインタラクション方法および装置

Country Status (6)

Country Link
US (1) US20130335360A1 (ja)
JP (1) JP2015503795A (ja)
CN (1) CN104024986A (ja)
DE (1) DE112012005561T5 (ja)
TW (1) TWI482063B (ja)
WO (1) WO2013103333A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101894567B1 (ko) * 2012-02-24 2018-09-03 삼성전자 주식회사 락스크린 운용 방법 및 이를 지원하는 단말기
CN107402664A (zh) * 2017-05-02 2017-11-28 上海飞智电子科技有限公司 应用于电容触摸屏的触控设备、处理设备及触控系统
CN108803911A (zh) * 2017-05-02 2018-11-13 上海飞智电子科技有限公司 触控及触摸控制指令生成方法、可读存储介质、及设备
CN113110788B (zh) * 2019-08-14 2023-07-04 京东方科技集团股份有限公司 信息显示交互方法及装置、计算机设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005301827A (ja) * 2004-04-14 2005-10-27 Fuji Xerox Co Ltd 音響情報処理装置、音響情報提供方法
JP2006236143A (ja) * 2005-02-25 2006-09-07 Sony Ericsson Mobilecommunications Japan Inc 入力処理プログラム、携帯端末装置、及び入力処理方法
JP2006235859A (ja) * 2005-02-23 2006-09-07 Yamaha Corp 座標入力装置
JP2008505381A (ja) * 2004-06-29 2008-02-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 表示装置の汚れを防ぐ方法及び装置
JP2010128685A (ja) * 2008-11-26 2010-06-10 Fujitsu Ten Ltd 電子機器
JP2011248767A (ja) * 2010-05-28 2011-12-08 Sony Corp 情報処理装置、情報処理システム及びプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6073036A (en) * 1997-04-28 2000-06-06 Nokia Mobile Phones Limited Mobile station with touch input having automatic symbol magnification function
CN100437451C (zh) * 2004-06-29 2008-11-26 皇家飞利浦电子股份有限公司 用于防止弄脏显示设备的方法与设备
US9030418B2 (en) * 2008-06-24 2015-05-12 Lg Electronics Inc. Mobile terminal capable of sensing proximity touch
US8237666B2 (en) * 2008-10-10 2012-08-07 At&T Intellectual Property I, L.P. Augmented I/O for limited form factor user-interfaces
US8159465B2 (en) * 2008-12-19 2012-04-17 Verizon Patent And Licensing Inc. Zooming techniques for touch screens
US8669945B2 (en) * 2009-05-07 2014-03-11 Microsoft Corporation Changing of list views on mobile device
KR101567785B1 (ko) * 2009-05-28 2015-11-11 삼성전자주식회사 휴대단말에서 줌 기능 제어 방법 및 장치
KR101387270B1 (ko) * 2009-07-14 2014-04-18 주식회사 팬택 터치 궤적에 따라 메뉴 정보를 표시하는 이동 단말기
US8373669B2 (en) * 2009-07-21 2013-02-12 Cisco Technology, Inc. Gradual proximity touch screen
US8933960B2 (en) * 2009-08-14 2015-01-13 Apple Inc. Image alteration techniques
US8543942B1 (en) * 2010-08-13 2013-09-24 Adobe Systems Incorporated Method and system for touch-friendly user interfaces
US8405627B2 (en) * 2010-12-07 2013-03-26 Sony Mobile Communications Ab Touch input disambiguation
JP5612459B2 (ja) * 2010-12-24 2014-10-22 京セラ株式会社 携帯端末装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005301827A (ja) * 2004-04-14 2005-10-27 Fuji Xerox Co Ltd 音響情報処理装置、音響情報提供方法
JP2008505381A (ja) * 2004-06-29 2008-02-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 表示装置の汚れを防ぐ方法及び装置
JP2006235859A (ja) * 2005-02-23 2006-09-07 Yamaha Corp 座標入力装置
JP2006236143A (ja) * 2005-02-25 2006-09-07 Sony Ericsson Mobilecommunications Japan Inc 入力処理プログラム、携帯端末装置、及び入力処理方法
JP2010128685A (ja) * 2008-11-26 2010-06-10 Fujitsu Ten Ltd 電子機器
JP2011248767A (ja) * 2010-05-28 2011-12-08 Sony Corp 情報処理装置、情報処理システム及びプログラム

Also Published As

Publication number Publication date
CN104024986A (zh) 2014-09-03
TW201344531A (zh) 2013-11-01
DE112012005561T5 (de) 2014-11-06
US20130335360A1 (en) 2013-12-19
WO2013103333A1 (en) 2013-07-11
TWI482063B (zh) 2015-04-21

Similar Documents

Publication Publication Date Title
US10552644B2 (en) Method and apparatus for displaying information content
US9632618B2 (en) Expanding touch zones of graphical user interface widgets displayed on a screen of a device without programming changes
JP6037973B2 (ja) ユーザ・インターフェースのための入力モード間の自動切り替え
JP2012530301A (ja) 動き検出を用いてモバイル・コンピューティング・デバイス上でパン及びズーム機能を処理する方法
JP2016500872A (ja) アプリケーションとの対話処理としてのマルチモード・ユーザー表現およびユーザー感覚量
WO2015103993A1 (en) Chat window presentation control method and system
JP2014530443A (ja) 側面に搭載されたタッチパッドを用いたナビゲーション・アプリケーション
EP2778880B1 (en) Method for controlling display function and an electronic device thereof
WO2019036099A1 (en) MODIFYING USER INTERFACE OF MULTI-SCREEN DISPLAY DEVICE
US10275341B2 (en) Mobile application usability testing
JP2012155487A (ja) 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
US20160350136A1 (en) Assist layer with automated extraction
US9984441B2 (en) Unobtrusive sizing and placement of pop-ups
JP2015503795A (ja) タッチスクリーンのインタラクション方法および装置
JP2015114970A (ja) 情報処理装置および情報処理方法
US20150002275A1 (en) Methods, apparatuses, and computer program products for data transfer between wireless memory tags
JP5835240B2 (ja) 情報処理装置、情報処理方法及びプログラム
EP2629221B1 (en) Altering sampling rate to thwart attacks that involve analyzing hardware sensor output
WO2017067165A1 (zh) 多指滑动手势的识别方法、装置及终端设备
WO2018205392A1 (zh) 控制响应区域显示控制方法、电子装置及存储介质
JP2015125777A (ja) ジェスチャベース入力からタッチ表面への遷移の指示
US10156928B2 (en) Extended user touch input
JP6662861B2 (ja) ユーザアクションに応答して直接操作の有効化を決定するためのヒットテスト
US20150026607A1 (en) System and method for predicting preferred data representation
US20140232659A1 (en) Methods, apparatuses, and computer program products for executing functions based on hover gestures or touch gestures

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150520

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150819

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150924

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151119

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160329