JP2013504794A - 時間分離タッチ入力 - Google Patents

時間分離タッチ入力 Download PDF

Info

Publication number
JP2013504794A
JP2013504794A JP2011526967A JP2011526967A JP2013504794A JP 2013504794 A JP2013504794 A JP 2013504794A JP 2011526967 A JP2011526967 A JP 2011526967A JP 2011526967 A JP2011526967 A JP 2011526967A JP 2013504794 A JP2013504794 A JP 2013504794A
Authority
JP
Japan
Prior art keywords
touch input
display
anchor
image
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011526967A
Other languages
English (en)
Inventor
フォン,ジェフリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2013504794A publication Critical patent/JP2013504794A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Ticket-Dispensing Machines (AREA)
  • Position Input By Displaying (AREA)

Abstract

タッチ入力処理方法は、第1タッチ入力を認識するステップと、次いで第1入力の終了後に、第1タッチ入力から時間的に分離した第2タッチ入力を認識するステップとを含む。次いで、時間的に分離した第1タッチ入力および第2タッチ入力の組み合わせを多タッチ制御に変換する。
【選択図】図1

Description

従来技術
[0001] 計算機は、種々の異なる形態的要素(form factor)で設計されることがある。異なる形態的要素によって、キーボード、マウス、トラック・パッド、タッチ・スクリーン等のような、異なる入力メカニズムを利用する場合がある。
ユーザーがデバイスを用いるときに体験する楽しさ(enjoyment)、そしてユーザーが完全にデバイスのパワーを引き出すことができる範囲は、ユーザーがそのデバイスに所望の機能を実行させることができる容易さによって、少なくとも部分的に影響されると考えられる。したがって、使い易さ、および完全装備の入力メカニズム(full featured input mechanism)は、好ましいユーザー体験に寄与すると考えられる。
[0002] この摘要は、詳細な説明において以下で更に説明する概念から選択したものを、簡略化した形態で紹介するために設けられている。この摘要は、特許請求する主題の主要な特徴や必須の特徴を特定することを意図するのではなく、特許請求する主題の範囲を限定するために用いられることを意図するのでもない。更に、特許請求する主題は、本開示の任意の部分に記されている欠点の内任意のものまたは全てを解決する実施態様に限定されるのでもない。
[0003] タッチ入力の処理について開示する。第1タッチ入力が認識され、この第1タッチ入力の終了後、第1タッチ入力から時間的に分離して、第2タッチ入力が認識される。第1タッチ入力および第2タッチ入力の時間的に離れた組み合わせが、多タッチ制御に変換される。
図1は、本発明の一実施形態にしたがって、時間分離タッチ入力を処理するように構成されている計算機を示す。 図2は、本発明の一実施形態にしたがって、単一タッチ入力を多タッチ制御に変換する方法のプロセス・フローである。 図3は、計算機のディスプレイによって表示される画像の倍率を大きくする多タッチ倍率制御に変換される時間分離タッチ入力を示す。 図4は、計算機のディスプレイによって表示される画像の倍率を小さくする多タッチ倍率制御に変換される時間分離タッチ入力を示す。 図5は、計算機のディスプレイによって表示される画像を回転させる多タッチ倍率制御に変換される時間分離タッチ入力を示す。
[0009] 本開示は、時間分離タッチ入力を多タッチ制御に変換する方法に関する。以下に説明する方法では、任意の所与の時点において1つのタッチ入力しか分析できないデバイスが、時間的に重複する2つ以上のタッチ入力を分析するように特別に構成されているデバイスでなければ以前では利用できなかった、最大範囲の多タッチ制御を処理することを可能にする。
[0010] 以下に説明する方法は、加えてまたは代わりに、2つ以上の時間的に重複するタッチ入力を分析するように構成されているデバイスにおいて多タッチ制御を出す代替方法としても用いることができる。これによって、ユーザーは、左手で計算機を保持しつつ、右親指および右人差し指を用いて時間的に重複するタッチ入力を実行するのではなく、1つの手のみを用いて多タッチ制御を出すことが可能となり、例えば、右手で計算機を保持しつつ、右親指を用いて時間的分離タッチ入力を実行することが可能となる。
[0011] 図1は、時間分離タッチ入力を多タッチ制御に解釈するように構成されている計算機10の非限定的な一例をいくらか模式的に示す。計算機10は、視覚的に画像を提示するように構成されたディスプレイ12を含む。ディスプレイ12は、液晶ディスプレイ、発光ダイオード・ディスプレイ、プラズマ・ディスプレイ、陰極線管ディスプレイ、後方投影ディスプレイ、または事実上任意の他の適したディスプレイを含むことができる。
[0012] また、計算機10は、ディスプレイ上におけるタッチ入力を認識するように構成されているタッチ入力サブシステム14も含む。このタッチ入力サブシステムは、オプションとして、多タッチ入力を認識するように構成することもできる。タッチ入力サブシステムは、種々の異なるタッチ感知技術を利用することができ、個々の実施形態において用いられるタイプのディスプレイと協同するように選択すればよい。タッチ入力サブシステムは、ディスプレイ付近の電界変化、ディスプレイ上における圧力変化、および/またはディスプレイ上またはその付近における他の変化を検出するように構成することができる。このような変化は、ディスプレイ上における特定の位置またはその付近で発生するタッチ入力によって起こすことができ、このような変化は、したがって、そのような位置におけるタッチ入力と相関付けることができる。実施形態によっては、ディスプレイおよびタッチ入力サブシステムが容量性タッチ・スクリーン・パネルまたは抵抗性タッチ・スクリーン・パネルのような、少なくとも一部のコンポーネントを共有することもできる。
[0013] また、計算機10は、単一タッチ入力を多タッチ制御に変換するように構成されている制御サブシステム16も含むことができる。一例として、制御サブシステムは、2つ以上の時間的に分離したタッチ入力の総合的解釈に基づいて、ディスプレイ上において画像を操作するように構成することができる。制御サブシステムは、ロジック・サブシステム18およびメモリー20を含むことができる。制御サブシステム、ロジック・サブシステム、およびメモリーは、図1では、破線の矩形として模式的に描かれている。
[0014] ロジック・サブシステム18は、1つ以上の命令を実行するように構成されている1つ以上の物理デバイスを含むことができる。例えば、ロジック・サブシステムは、1つ以上のプログラム、ルーチン、オブジェクト、コンポーネント、データー構造、または他の論理構造の一部である1つ以上の命令を実行するように構成することができる。このような命令は、タスクを実行するため、データー・タイプを実装するため、1つ以上のデバイス(例えば、ディスプレイ12)の状態を変化させるため、またはそれ以外で所望の結果に到達するために実装することができる。ロジック・サブシステムは、ソフトウェア命令を実行するように構成されている1つ以上のプロセッサを含むことができる。加えてまたは代わりに、ロジック・サブシステムは、ハードウェアまたはファームウェア命令を実行するように構成されている1つ以上のハードウェアまたはファームウェア・ロジック・マシンを含むこともできる。オプションとして、ロジック・サブシステムは、実施形態によっては離れて位置していることもある2つ以上のデバイスに跨って分散されている個別のコンポーネントを含むこともできる。
[0015] メモリー20は、データーおよび/または命令を保持するように構成されている1つ以上の物理デバイスを含むことができる。命令は、ロジック・サブシステムによって実行されると、このロジック・サブシステムに、本明細書において説明する方法およびプロセスを実施させる。メモリー20は、リムーバブル媒体および/または内蔵デバイスを含むことができる。メモリー20は、とりわけ、光メモリー・デバイス、半導体メモリー・デバイス、および/または磁気メモリー・デバイスを含むことができる。メモリー20は、以下の特性の内1つ以上を有する部分を含むことができる。揮発性、不揮発性、ダイナミック、スタティック、リード/ライト、リード・オンリー、ランダム・アクセス、順次アクセス、位置アドレス可能、ファイル・アドレス可能、およびコンテンツ・アドレス可能。実施形態によっては、ロジック・サブシステム18およびメモリー20を1つ以上の共通デバイスおよび/または計算システム(例えば、チップまたは特定用途集積回路におけるシステム)に統合することもできる。
[0016] 計算機10は、ハンド・ヘルド計算機(例えば、パーソナル・データー・アシスタント、パーソナル・ゲーミング・デバイス、パーソナル・メディア・プレーヤー、移動体通信デバイス等)、ラップトップ計算機、据置型計算システム、またはタッチ入力を認識することができる他の計算機であれば事実上何でもよい。実施形態によっては、ディスプレイを制御サブシステムと共に共通筐体に統合することもでき、別の実施形態では、有線またはワイヤレス・データー接続を通じてデバイスを制御サブシステムに接続することもできる。いずれの場合でも、ディスプレイは、この開示に限って言えば、計算機の一部と見なされる。
[0017] 図2は、単一タッチ入力を多タッチ制御に変換する方法22のプロセス・フローを示す。24において、方法22は、画像をディスプレイ上に提示することを含む。例えば、26において、図3は、計算機10が画像28をディスプレイ12上に提示していることを示す。画像28は、図3では模式的に白い矩形として表されている。しかしながら、画像は種々の異なる形態をなすことができ、種々の異なるグラフィカル・ユーザー・インターフェース・エレメントも含み、なおもそれらに限定されないことは言うまでもない。非限定的な一例として、このような画像は、写真、ビデオ、ウェブ・ページ、ゲーム、文書、インタラクティブ・ユーザー・インターフェース、またはディスプレイ12によって表示することができる他のコンテンツであれば事実上いずれでもよい。画像は、ディスプレイによって提示されるものの一部のみを構成する場合もあり、または画像は、ディスプレイによって提示されるものの全体を構成する場合もある。
[0018] 30において、図2の方法22は、ディスプレイ上における第1位置において第1タッチ入力を認識することを含む。例えば、26において、図3は、ユーザー32が第1位置34においてディスプレイ12にタッチすることを示す。計算機は、タッチ入力サブシステムを利用してこのタッチ入力を検出し、ディスプレイ上のどこでこのタッチ入力が発生したか判断することができる。前述のように、本開示の範囲から逸脱することなく、事実上あらゆるタッチ検知技術でも利用することができる。
[0019] 図2に戻って、36において、方法22は第1位置においてアンカーを設定することを含む。このアンカーは、後続のタッチ入力をこの位置と比較できるように、第1タッチ入力が発生した位置の場所(location of the position)を覚えておくために用いることができる。実施形態によっては、アンカー・インディケーターを、第1タッチ入力が発生した位置に表示することによって、後続のタッチ入力のための視覚的参照をユーザーに与えることができる。例えば、38において、図3は第1位置34に表示されているアンカー・インディケーター40を示す。尚、アンカー・インディケーターは、第1タッチ入力の終了後も表示されたまま残っているが、オプションとして、第1タッチ入力の終了前に初期に表示してもよいことを記しておく。
[0020] 計算機は、特定のタイプの入力に応答するアンカーを設定するように構成することができる。実施形態によっては、タッチ入力が所与の位置において所定の時間期間保持された場合に、この所与の位置にアンカーを設定するように計算機を構成することもできる。このような実施形態では、タッチ入力が所定期間保持されない場合、アンカーは設定されない。実施形態によっては、所与の位置を2回叩くまたは3回叩くことによって、アンカーが設定されるとよい場合もある。別の実施形態では、非タッチ入力(例えば、ボタンの押下)と一緒に行われたタッチ入力に応答して、アンカーを設定することもできる。ある種の入力のみに応答してアンカー点を設定することは効果的であると考えられるが、本開示はアンカーを設定する入力のいずれのタイプにも限定されないことは言うまでもない。
[0021] 図2の42において、方法22は、第1タッチ入力の終了後にディスプレイ上において第2タッチ入力を認識することを含む。言い換えると、第1タッチ入力および第2タッチ入力は時間的に分離している。第1タッチ入力および第2タッチ入力は時間的に重複しない。44において、図3は、ユーザーが開始位置46においてディスプレイ12にタッチすることによって、第2タッチ入力を開始したことを示す。
[0022] 図2に戻って、48において、方法22は、第1タッチ入力および第2タッチ入力の時間的に分離された組み合わせを、多タッチ制御に変換することを含む。本開示の範囲から逸脱することなく、時間的分離タッチ入力を種々の異なるタイプの制御に変換することができる。例えば、時間分離タッチ入力は、アプリケーションを開くまたは閉じるための制御、アプリケーション内でコマンドを出すための制御、ショートカットを実行するための制御等に変換することができる。変換される制御の一部は、ディスプレイ上において画像を操作するための制御(例えば、ズーム制御、回転制御等)であってもよい。
[0023] 50に示すように、方法22は、オプションとして、第1タッチ入力によって設定されたアンカーに対する第2タッチ入力の経路に基づいて、ディスプレイ上において画像の特性を変化させることを含むことができる。例えば、52において、図3は、ユーザーが経路54を有するタッチ入力を実行することを示す。この経路54は、第1タッチ入力によって設定され、アンカー・インディケーター40によって示されるアンカーから離れるように方向付けられている。言い換えると、アンカーと第2タッチ入力との間の距離が大きくなっている。また、図3は、経路54が第2タッチ入力によって設定されたアンカーから離れるように導かれると、画像28の倍率が大きくなることも示す。実施形態によっては、倍率の増減量は、第2タッチ入力がアンカーから離れるように動く速度、および/または第2タッチ入力がアンカーから離れるように動く角度によって調節することもできる。
[0024] 別の例として、図4は、ユーザーが経路56を有するタッチ入力を実行していることを示す。経路56は、第1タッチ入力によって設定されたアンカーに向かって導かれている。言い換えると、アンカーと第2タッチ入力との間の距離が狭まっている。また、図4は、経路56が第1タッチ入力によって設定されたアンカーに向かって導かれると、画像28の倍率が低くなることも示す。実施形態によっては、倍率の増減量は、第2タッチ入力がアンカーに向かって動く速度、および/または第2タッチ入力がアンカーに向かって動く角度によって調節することもできる。
[0025] 更に別の例として、図5は、ユーザー32が経路58を有するタッチ入力を実行していることを示す。経路58は、第1タッチ入力によって設定されたアンカーを回るように導かれている。また、図5は、第2タッチ入力が第1タッチ入力によって設定されたアンカーを回るように導かれると、画像28が回転することをも示す。実施形態によっては、回転量は、第2タッチ入力がアンカーの回りを動く速度、および/または第2タッチ入力がアンカーの回りを動く距離によって調節することもできる。
[0026] 以上で説明した多タッチ型制御は、時間分離タッチ入力から変換することができる種々の異なる制御の非限定的な例である。実施形態によっては、2つ以上の異なる制御を、1組の時間分離タッチ入力から纏めることもできる(例えば、アンカーから離れるようにかつアンカーを回るように動くタッチ入力に応答して倍率が変化し回転する)。
[0027] アンカーが一旦設定されても、様々な異なるイベントおよび/またはシナリオに応答して、解除することができる。例えば、アンカーが設定された後、しきい値時間限度以内で和合性のある(compatible)第2タッチ入力が実行されない場合、このアンカーを解除することもできる。別の例として、第2タッチ入力が完了した後および/または画像の特性を変化させた後に、アンカーを解除することもできる。アンカーを解除することによって、計算機は、時間分離タッチ入力と共に考慮する必要がないタッチ入力、および/または異なるアンカーを設定するためのタッチ入力を処理する用意を整えることができる。
[0028] 尚、本明細書において説明した構成および/または手法は、本質的に例示的であること、そして多数の変形が可能であるので、これらの具体的な実施形態または例を限定的な意味で解釈してはならないことは言うまでもない。本明細書において説明した具体的なルーチンまたは方法は、任意の数の処理方策の内1つ以上を表すことができる。したがって、図示した種々の動作(act)は、図示の順序で、他の順序で、並列に実行することもでき、場合によっては省略することもできる。同様に、前述のプロセスの順序も変更することもできる。
[0029] 本開示の主題は、種々のプロセス、システム、および構成の全ての新規および非自明なコンビネーションおよびサブコンビネーション、ならびに本明細書において開示したその他の特徴、機能、動作、および/またはプロパティ、更にはそのあらゆるそして全ての均等物を含む。

Claims (15)

  1. ディスプレイ(12)において画像(28)を操作する方法(22)であって、
    前記ディスプレイ上に前記画像を提示するステップ(24)と、
    前記ディスプレイ上の第1位置(34)において、第1タッチ入力を認識するステップ(30)と、
    前記第1位置にアンカーを設定するステップ(36)と、
    前記第1タッチ入力の終了後に、前記ディスプレイ上において第2タッチ入力を認識するステップ(42)と、
    前記第1タッチ入力によって設定された前記アンカーに対する前記第2タッチ入力の経路(54)に基づいて、前記ディスプレイ上において前記画像の特性を変更するステップ(50)と、
    を含む、方法。
  2. 請求項1記載の方法において、前記ディスプレイ上において前記画像の特性を変更するステップが、前記第2タッチ入力の経路が、前記第1タッチ入力によって設定された前記アンカーから離れるように導かれた場合、前記画像の倍率を大きくするステップを含む、方法。
  3. 請求項1記載の方法において、前記ディスプレイ上において前記画像の特性を変更するステップが、前記第2タッチ入力の経路が、前記第1タッチ入力によって設定された前記アンカーに向かうように導かれた場合、前記画像の倍率を小さくするステップを含む、方法。
  4. 請求項1記載の方法において、前記ディスプレイ上において前記画像の特性を変更するステップが、前記第2タッチ入力の経路が、前記第1タッチ入力によって設定された前記アンカーを回るように導かれた場合、前記画像を回転させるステップを含む、方法。
  5. 請求項1記載の方法であって、更に、前記第1タッチ入力の終了後、前記第1位置にアンカー・インディケーターを表示するステップを含む、方法。
  6. 請求項1記載の方法において、タッチ入力が終了する前に、所定の時間期間前記タッチ入力が所与の位置に保持された場合にのみ、アンカーが設定される、方法。
  7. 請求項1記載の方法であって、更に、前記画像の特性を変更した後に、前記アンカーを解除するステップを含む、方法。
  8. 請求項1記載の方法において、前記ディスプレイ上において第1タッチ入力を認識するステップが、前記ディスプレイ付近における電界変化を検出するステップを含む、方法。
  9. 請求項1記載の方法において、前記ディスプレイ上において第1タッチ入力を認識するステップが、前記ディスプレイ上における圧力変化を検出するステップを含む、方法。
  10. 計算機(10)であって、
    画像(28)を視覚的に提示するように構成されたディスプレイ(12)と、
    制御サブシステム(16)であって、
    前記ディスプレイ上においてタッチ入力を認識するように構成されたタッチ入力サブシステム(14)と、
    前記タッチ入力サブシステムによって第1位置において認識された第1タッチ入力に応答して、第1位置(34)においてアンカーを設定し、
    前記第1タッチ入力の終了後に認識された第2タッチ入力に応答して、前記ディスプレイ上において前記画像の特性を変更する、
    ように構成された、制御サブシステム(16)と、
    を含み、前記制御サブシステムが、前記第2タッチ入力の前記アンカーに対する経路(54)に基づいて、前記画像の特性を変更するように構成された、計算機。
  11. 請求項10記載の計算機において、前記第2タッチ入力の経路が、前記第1タッチ入力によって設定された前記アンカーから離れるように導かれた場合、前記制御サブシステムが前記ディスプレイにおいて前記画像の倍率を大きくするように構成された、計算機。
  12. 請求項10記載の計算機において、前記第2タッチ入力の経路が、前記第1タッチ入力によって設定された前記アンカーに向かうように導かれた場合、前記制御サブシステムが前記ディスプレイにおいて前記画像の倍率を小さくするように構成されている、計算機。
  13. 請求項10記載の計算機において、前記第2タッチ入力の経路が、前記第1タッチ入力によって設定された前記アンカーを回るように導かれた場合、前記制御サブシステムが前記画像を回転させるように構成された、計算機。
  14. 請求項10記載の計算機において、前記制御サブシステムが、前記第1タッチ入力に応答して、前記ディスプレイに前記第1位置にアンカー・インディケーターを表示させるように構成された、計算機。
  15. 請求項10記載の計算機において、タッチ入力が終了する前に、所定の時間期間前記タッチ入力が所与の位置に保持された場合にのみ、前記制御サブシステムが前記アンカーを設定するように構成された、計算機。
JP2011526967A 2008-09-09 2009-09-10 時間分離タッチ入力 Pending JP2013504794A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/206,763 US20100060588A1 (en) 2008-09-09 2008-09-09 Temporally separate touch input
PCT/US2009/056494 WO2010030765A2 (en) 2008-09-09 2009-09-10 Temporally separate touch input

Publications (1)

Publication Number Publication Date
JP2013504794A true JP2013504794A (ja) 2013-02-07

Family

ID=41798842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011526967A Pending JP2013504794A (ja) 2008-09-09 2009-09-10 時間分離タッチ入力

Country Status (7)

Country Link
US (1) US20100060588A1 (ja)
EP (1) EP2329347A4 (ja)
JP (1) JP2013504794A (ja)
KR (1) KR20130114764A (ja)
CN (1) CN102150122A (ja)
RU (1) RU2011108311A (ja)
WO (1) WO2010030765A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014209334A (ja) * 2013-03-26 2014-11-06 株式会社Nttドコモ 情報端末、表示制御方法、及び表示制御プログラム
JP2016164702A (ja) * 2015-03-06 2016-09-08 京セラドキュメントソリューションズ株式会社 表示入力装置、それを備えた画像形成装置、表示入力装置の制御方法およびプログラム

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8816967B2 (en) * 2008-09-25 2014-08-26 Apple Inc. Capacitive sensor having electrodes arranged on the substrate and the flex circuit
US20100149114A1 (en) * 2008-12-16 2010-06-17 Motorola, Inc. Simulating a multi-touch screen on a single-touch screen
KR101610109B1 (ko) * 2009-05-19 2016-04-11 삼성전자주식회사 전기장 통신을 이용한 입력 위치 추적 장치
KR20110026066A (ko) * 2009-09-07 2011-03-15 삼성전자주식회사 휴대용 단말기에서 화면 상태를 전환시키기 위한 장치 및 방법
US8797364B2 (en) * 2009-10-23 2014-08-05 Kyocera Document Solutions Inc. Display device and display control method
WO2011130919A1 (en) 2010-04-23 2011-10-27 Motorola Mobility, Inc. Electronic device and method using touch-detecting surface
US8537128B2 (en) * 2010-06-21 2013-09-17 Apple Inc. Portable multi-touch input device
JP5269851B2 (ja) * 2010-09-27 2013-08-21 富士フイルム株式会社 画像編集装置及びその画像編集方法並びにそのプログラム
JP2012194915A (ja) * 2011-03-17 2012-10-11 Seiko Epson Corp 画像表示システム
US9851889B2 (en) * 2011-09-16 2017-12-26 Kt Corporation Apparatus and method for rotating a displayed image by using multi-point touch inputs
KR101951480B1 (ko) * 2012-01-09 2019-02-22 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
KR20130094044A (ko) * 2012-02-15 2013-08-23 삼성전자주식회사 영상 표시 장치에서 자막 속성을 변경하기 위한 장치 및 방법
US9977876B2 (en) * 2012-02-24 2018-05-22 Perkinelmer Informatics, Inc. Systems, methods, and apparatus for drawing chemical structures using touch and gestures
JP5656919B2 (ja) * 2012-05-31 2015-01-21 京セラドキュメントソリューションズ株式会社 送信装置
JP2014010777A (ja) * 2012-07-02 2014-01-20 Fujitsu Ltd 表示プログラム、表示方法、及び情報処理装置
US10222975B2 (en) * 2012-08-27 2019-03-05 Apple Inc. Single contact scaling gesture
JP2014112335A (ja) * 2012-12-05 2014-06-19 Fuji Xerox Co Ltd 情報処理装置及びプログラム
US20140160054A1 (en) * 2012-12-06 2014-06-12 Qualcomm Incorporated Anchor-drag touch symbol recognition
US9417791B2 (en) * 2013-03-29 2016-08-16 Deere & Company Active feedback interface for touch screen display
US9769227B2 (en) 2014-09-24 2017-09-19 Microsoft Technology Licensing, Llc Presentation of computing environment on multiple devices
US10025684B2 (en) 2014-09-24 2018-07-17 Microsoft Technology Licensing, Llc Lending target device resources to host device computing environment
US10448111B2 (en) 2014-09-24 2019-10-15 Microsoft Technology Licensing, Llc Content projection
US20160088060A1 (en) * 2014-09-24 2016-03-24 Microsoft Technology Licensing, Llc Gesture navigation for secondary user interface
US10635296B2 (en) 2014-09-24 2020-04-28 Microsoft Technology Licensing, Llc Partitioned application presentation across devices
US10739968B2 (en) * 2015-11-23 2020-08-11 Samsung Electronics Co., Ltd. Apparatus and method for rotating 3D objects on a mobile device screen
US10785441B2 (en) 2016-03-07 2020-09-22 Sony Corporation Running touch screen applications on display device not having touch capability using remote controller having at least a touch sensitive surface
JP6245334B2 (ja) * 2016-10-26 2017-12-13 富士通株式会社 表示プログラム
WO2018160205A1 (en) 2017-03-03 2018-09-07 Perkinelmer Informatics, Inc. Systems and methods for searching and indexing documents comprising chemical information
EP3502858B1 (en) * 2017-12-22 2023-08-16 Dassault Systèmes Gesture-based manipulator for rotation

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05135146A (ja) * 1991-10-31 1993-06-01 Internatl Business Mach Corp <Ibm> 図形移動変形方法及び装置
JPH11288460A (ja) * 1998-04-02 1999-10-19 Sony Corp 表示画面の移動制御装置及びこれを備えた電子機器
JP2008181523A (ja) * 2007-01-25 2008-08-07 Samsung Electronics Co Ltd タッチスクリーンにおける使用性向上のための装置および方法
JP2010067178A (ja) * 2008-09-12 2010-03-25 Leading Edge Design:Kk 複数点入力可能な入力装置及び複数点入力による入力方法
JP2011053770A (ja) * 2009-08-31 2011-03-17 Nifty Corp 情報処理装置及び入力処理方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8725033D0 (en) * 1987-10-26 1987-12-02 Crosfield Electronics Ltd Interactive image display
US5428721A (en) * 1990-02-07 1995-06-27 Kabushiki Kaisha Toshiba Data processing apparatus for editing image by using image conversion
JPH06167966A (ja) * 1992-06-15 1994-06-14 Seiko Epson Corp 表示回路
US5396590A (en) * 1992-09-17 1995-03-07 Apple Computer, Inc. Non-modal method and apparatus for manipulating graphical objects
JP3862336B2 (ja) * 1996-12-26 2006-12-27 キヤノン株式会社 画像編集方法及び装置
US6920619B1 (en) * 1997-08-28 2005-07-19 Slavoljub Milekic User interface for removing an object from a display
EP1717679B1 (en) * 1998-01-26 2016-09-21 Apple Inc. Method for integrating manual input
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7760187B2 (en) * 2004-07-30 2010-07-20 Apple Inc. Visual expander
US7254775B2 (en) * 2001-10-03 2007-08-07 3M Innovative Properties Company Touch panel system and method for distinguishing multiple touch inputs
US7814419B2 (en) * 2003-11-26 2010-10-12 Nokia Corporation Changing an orientation of a user interface via a course of motion
US7366995B2 (en) * 2004-02-03 2008-04-29 Roland Wescott Montague Combination tool that zooms in, zooms out, pans, rotates, draws, or manipulates during a drag
US20050249435A1 (en) * 2004-05-06 2005-11-10 Rai Barinder S Apparatuses and methods for rotating an image
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
JP2006139615A (ja) * 2004-11-12 2006-06-01 Access Co Ltd 表示装置、メニュー表示プログラムおよびタブ表示プログラム
KR101354316B1 (ko) * 2005-03-04 2014-01-22 애플 인크. 다기능 휴대용 장치
US7605804B2 (en) * 2005-04-29 2009-10-20 Microsoft Corporation System and method for fine cursor positioning using a low resolution imaging touch screen
TWI309800B (en) * 2006-04-12 2009-05-11 High Tech Comp Corp Electronic device having a fuction for magnifying/reducing images in-situ adn the method of the same
US8077153B2 (en) * 2006-04-19 2011-12-13 Microsoft Corporation Precise selection techniques for multi-touch screens
US20070257891A1 (en) * 2006-05-03 2007-11-08 Esenther Alan W Method and system for emulating a mouse on a multi-touch sensitive surface
US20080006454A1 (en) * 2006-07-10 2008-01-10 Apple Computer, Inc. Mutual capacitance touch sensing device
US7864163B2 (en) * 2006-09-06 2011-01-04 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US8130211B2 (en) * 2007-09-24 2012-03-06 Microsoft Corporation One-touch rotation of virtual objects in virtual workspace

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05135146A (ja) * 1991-10-31 1993-06-01 Internatl Business Mach Corp <Ibm> 図形移動変形方法及び装置
JPH11288460A (ja) * 1998-04-02 1999-10-19 Sony Corp 表示画面の移動制御装置及びこれを備えた電子機器
JP2008181523A (ja) * 2007-01-25 2008-08-07 Samsung Electronics Co Ltd タッチスクリーンにおける使用性向上のための装置および方法
JP2010067178A (ja) * 2008-09-12 2010-03-25 Leading Edge Design:Kk 複数点入力可能な入力装置及び複数点入力による入力方法
JP2011053770A (ja) * 2009-08-31 2011-03-17 Nifty Corp 情報処理装置及び入力処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014209334A (ja) * 2013-03-26 2014-11-06 株式会社Nttドコモ 情報端末、表示制御方法、及び表示制御プログラム
JP2016164702A (ja) * 2015-03-06 2016-09-08 京セラドキュメントソリューションズ株式会社 表示入力装置、それを備えた画像形成装置、表示入力装置の制御方法およびプログラム

Also Published As

Publication number Publication date
KR20130114764A (ko) 2013-10-21
WO2010030765A3 (en) 2010-05-14
RU2011108311A (ru) 2012-09-10
CN102150122A (zh) 2011-08-10
US20100060588A1 (en) 2010-03-11
EP2329347A2 (en) 2011-06-08
EP2329347A4 (en) 2013-04-10
WO2010030765A2 (en) 2010-03-18

Similar Documents

Publication Publication Date Title
JP2013504794A (ja) 時間分離タッチ入力
US9658766B2 (en) Edge gesture
EP2715491B1 (en) Edge gesture
US9128605B2 (en) Thumbnail-image selection of applications
US9329774B2 (en) Switching back to a previously-interacted-with application
US9052820B2 (en) Multi-application environment
JP5684291B2 (ja) オンおよびオフスクリーン・ジェスチャーの組み合わせ
US9104440B2 (en) Multi-application environment
US20120304131A1 (en) Edge gesture
CA2847177A1 (en) Semantic zoom gestures
JP2010176332A (ja) 情報処理装置、情報処理方法およびプログラム
JP2014182814A (ja) 描画装置、描画方法および描画プログラム
US20160117000A1 (en) Touchscreen input method and apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140516