JP2009205685A - シングルポインティングデバイスによるマルチポイントジェスチャのシミュレーション - Google Patents

シングルポインティングデバイスによるマルチポイントジェスチャのシミュレーション Download PDF

Info

Publication number
JP2009205685A
JP2009205685A JP2009070904A JP2009070904A JP2009205685A JP 2009205685 A JP2009205685 A JP 2009205685A JP 2009070904 A JP2009070904 A JP 2009070904A JP 2009070904 A JP2009070904 A JP 2009070904A JP 2009205685 A JP2009205685 A JP 2009205685A
Authority
JP
Japan
Prior art keywords
gesture
input
point
multipoint
software
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009070904A
Other languages
English (en)
Other versions
JP2009205685A5 (ja
Inventor
George R Dicker
アール ディッカー ジョージ
Os Marcel Van
ファン オス マルセル
Richard Williamson
ウィリアムソン リチャード
Chris Blumenberg
ブルーメンバーグ クリス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2009205685A publication Critical patent/JP2009205685A/ja
Publication of JP2009205685A5 publication Critical patent/JP2009205685A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Abstract

【課題】本発明は、シングルポインティングデバイスを使用するコンピュータシステムがマルチポイントジェスチャ入力をシミュレートできるようにする。
【解決手段】シミュレーションソフトウェアが、(例えば、マウスからの入力などの)シングルポインティング入力を受け取り、これを指のピンチ、逆ピンチ、平行移動、回転などのシミュレートしたマルチポイントジェスチャ入力に変換することができる。このシミュレーションソフトウェアにより、ユーザは、マルチポイントジェスチャ入力を作成する際に、キーボードのキーを使用して追加の制御を行えるようにもなる。
【選択図】図1

Description

本発明は、一般にマルチタッチジェスチャに関し、より具体的には、シングルポインティング入力デバイスを利用してマルチタッチジェスチャをシミュレートすることに関する。
マルチポイントセンサパネルとは、同時に複数の地点のイベントを感知できるパネルのことである。従って、マルチポイントセンサパネルは、例えば、2つの異なる位置で同時に発生する、パネルに押し付けられた2本の指又はその他のオブジェクトによって引き起こされる2つのタッチイベントを感知することができる。マルチポイントセンサパネルの例については、2007年1月3日に出願された「近接センサ及びマルチタッチセンサの検出及び復調」という名称の米国特許出願第11/649,998号に解説があり、該特許は全体が引用により本明細書に組み入れられる。出願の後半で解説されるように、マルチポイントセンサパネルは、マルチタッチセンサパネルの他に(マルチ近接センサパネルなどの)別のタイプのセンサパネルも含むことができる。マルチポイントセンサパネルを使用して、様々な電子デバイスに向上したユーザインタフェースを提供することができる。
マルチポイントセンサパネルを利用して、向上したユーザ体験を提供する1つの方法として、ユーザがマルチポイントジェスチャを使用してデバイスとコミュニケーションできるようにすることがある。ジェスチャとは、(例えば、通常のマウスクリックの場合のように)単に位置を特定するだけでなく、任意的にある方向及び速度を含む1又は複数のオブジェクトの一定の動きを特定することもできるユーザ入力のことである。例えば、従来のマウスベースのジェスチャでは、通常、ユーザがジェスチャを行うためにマウスボタンを押し、所定の経路に従ってマウスを動かすことが行われる。マルチタッチ機能では、より複雑なジェスチャを使用できるようになる。例えば、ユーザは、パネルの表面上で2又はそれ以上の指を同時に動かすことによりジェスチャを行うことができる。マルチポイントジェスチャ(及びより正確にはマルチタッチジェスチャ)については、2004年7月30日に出願された「タッチセンシティブ入力デバイスのためのジェスチャ」という名称の米国特許出願第10/903,964号で詳細に解説されており、該特許は全体が引用により本明細書に組み入れられる。
米国特許出願第11/649,998号 米国特許出願第10/903,964号
マルチタッチジェスチャの最大の利点を得るために、マルチタッチ対応デバイスで実行されるソフトウェアもまた、マルチタッチ対応であることが必要であると考えられる。しかしながら、このようなソフトウェアの開発は困難な場合がある。普通のパーソナルコンピュータ及び/又はワークステーションコンピュータなどのソフトウェアを開発するための既存のコンピュータプラットフォームは、通常マルチタッチ対応ではない。このような対応がなされていなければ、既存のソフトウェア開発コンピュータは、通常、開発中のマルチタッチ対応ソフトウェアをこれらのコンピュータ上でテストすることができない。
開発者は、開発中のソフトウェアをマルチタッチ対応デバイスでロードすることができ、その後このソフトウェアをこのデバイスでテストする。しかしながら、実際には、開発者は様々なバージョンのソフトウェアに対して多くの反復テストを行う必要があり、個々のバージョンのソフトウェアをロードして別個のデバイスでテストする必要があるため、非常に時間がかかるとともに開発プロセスを著しく減速させる可能性がある。
本発明は、シングルポインティングデバイスを使用するコンピュータシステムがマルチポイントジェスチャ入力をシミュレートできるようにすることに関する。シミュレーションソフトウェアが、(例えば、マウスからの入力などの)シングルポインティング入力を受け取り、これを、指のピンチ、逆ピンチ、平行移動、回転などのシミュレートしたマルチポイントジェスチャ入力に変換することができる。このシミュレーションソフトウェアにより、ユーザは、マルチポイントジェスチャ入力を作成する際に、キーボードのキーを使用して追加の制御を行えるようにもなる。
様々な所定の方法により、受け取ったシングルポイントジェスチャ入力をマルチポイントジェスチャ入力に変換することができる。例えば、受け取ったシングルポイントジェスチャ入力を第1のジェスチャ入力として使用し、一方で第1のジェスチャ入力を所定のベクトルだけ変位させることにより第2のジェスチャ入力を作成することができる。これとは別に、或いはこれに加えて、第2のジェスチャ入力を、第1のジェスチャ入力と所定の地点に関して対称なジェスチャとして定めることができる。別の代替例では、複数のシングルポイントジェスチャ入力をシングルポインティングデバイスから連続して受け取り、この連続して受け取った複数のシングルポイント入力の少なくとも部分的に同時に行われた動作を定めるマルチポイントジェスチャ入力に変換することができる。
マルチタッチジェスチャを特徴とする例示的なデバイスと、本発明の1つの実施形態による、このデバイスのためのソフトウェアの開発に使用する例示的なデバイスとを示す図である。 本発明の1つの実施形態によるテスタデバイスで実行できる例示的なソフトウェアを示す図である。 本発明の1つの実施形態によるタッチの開始位置を定めるための例示的なスキームを示す図である。 本発明の1つの実施形態によるタッチの開始位置を定めるための例示的なスキームを示す図である。 本発明の1つの実施形態によるタッチに関するジェスチャの動きを定めるための例示的なスキームを示す図である。 本発明の1つの実施形態によるタッチに関するジェスチャの動きを定めるための例示的なスキームを示す図である。 本発明の1つの実施形態によるジェスチャを定めるための例示的なスキームを示す図である。 本発明の1つの実施形態によるジェスチャを定めるための例示的なスキームを示す図である。 本発明の1つの実施形態によるシングルポインティングデバイスを利用して入力できるいくつかの例示的なシミュレートしたマルチタッチジェスチャを示す図である。
以下の好ましい実施形態の説明では、本明細書の一部を形成する添付図面を参照し、該図面において、本発明を実施できる特定の実施形態を例示目的で示す。本発明の好ましい実施形態の範囲から逸脱することなく、他の実施形態を利用し、構造的な変更を行うことができる。
本発明は、シングルポインティングデバイスを使用するコンピュータシステムがマルチポイントジェスチャ入力をシミュレートできるようにすることに関する。シミュレーションソフトウェアが、(例えば、マウスからの入力などの)シングルポインティング入力を受け取り、これを、指のピンチ、逆ピンチ、平行移動、回転などのシミュレートしたマルチポイントジェスチャ入力に変換することができる。このシミュレーションソフトウェアにより、ユーザは、マルチポイントジェスチャ入力を作成する際に、キーボードのキーを使用して追加の制御を行えるようになる。
ユーザが、シミュレートしたマルチポイントジェスチャ入力を入力した場合、デバイスシミュレータがマーカーを表示し、シミュレートした対象デバイスの画面全体に渡って動かして、マウス及びキーボード(又はその他の入力デバイス)を使用して行われているタッチイベントの種類を示すことができる。これらのマーカーは、例えば、マルチタッチパネル上で、或いはその近くで検出された指先を表す小さな円又はその他の形状であってもよい。マルチポイントソフトウェアをテストする際には、このマーカーを円の重心などの実際の点入力として解釈することができる。
本明細書では、ポータブルデバイス、パーソナルコンピュータ及び/又はワークステーションのマルチポイント機能をシミュレートするという観点で本発明の実施形態について説明するが、本発明の実施形態はこれらのデバイスに制限されるものではなく、一般に、任意のマルチポイント対応デバイスの機能を任意の他のデバイス上でシミュレートすることができる。以下の詳細な説明は、マルチタッチセンサパネルのシミュレーションに焦点を当てたものであるが、その教示をマルチポイントセンサパネルに大まかに適用することができる。
図1は、マルチタッチジェスチャ入力を受け取ることができる例示的なデバイス(110)と、本発明の実施形態による、このデバイス用のソフトウェアの開発に使用できるデバイス(100)とを示す図である。デバイス110は、ハンドヘルドデバイス、ノートブックコンピュータなどであってもよい。いくつかの実施形態では、デバイス110は、ディスプレイとマルチタッチセンサパネル111との組合せを含むことができる。しかしながら、別の実施形態では、デバイス110は、トラックパッドなどのディスプレイのないマルチタッチセンサパネルを含むことができる。後半の実施形態のいくつかでは、デバイス110は、別個のディスプレイを含むこともできる。例えば、デバイス110は、マルチタッチ対応トラックパッドとモニタとを含むノートブックコンピュータであってもよい。
デバイス100は、ユーザと交信するためのモニタ101、キーボード102、及びマウス103を含むことができる。或いは、デバイスは、ユーザと交信するための他のインタフェースデバイスを含むことができる。本実施例では、デバイス100は、シングルポインティングデバイス(すなわち、マウス103)を含む。マウスは、一度に1つの空間点の選択しか許可しないためシングルポインティングデバイスと考えることができる。これとは逆に、マルチタッチセンサパネルは、(例えば、パネル上又はパネル近くの2又はそれ以上の異なる地点において2又はそれ以上の指を降ろすことにより)一度に複数の空間点の選択を許可するため、マルチポインティングデバイスと考えることができる。本発明の実施形態は、デバイス100がシングルポインティングデバイスのみを含むことを求めるものではなく、マルチポインティングデバイスを含むこともできる。デバイス100は、CPU及び1又はそれ以上のメモリを含むことができる。1又はそれ以上のメモリは命令及びデータを記憶することができ、CPUはメモリが記憶した命令を実行することができる。従って、デバイス100は、限定的な意味ではないが、ソフトウェア開発キット(Software Development Kit:SDK)ソフトウェアを含む様々なソフトウェアを実行することができる。
上述したように、デバイス100を使用して、デバイス110のためのソフトウェアを開発又はテストすることができる。従って、デバイス100をテスタデバイスと呼ぶことができ、デバイス110を対象デバイスと呼ぶことができる。
図2は、本発明の1つの実施形態によるテスタデバイスで実行できる例示的なソフトウェアを示す図である。このソフトウェアは、オペレーティングシステム(OS200)を含むことができる。ソフトウェアはまた、ユーザインタフェースアプリケーションプログラミングインタフェース(API)201を含むこともできる。API201は、対象デバイス(すなわち、デバイス110)で実行されるプログラムをユーザと交信できるようにするアプリケーションプログラミングインタフェースであってもよい。これらのAPIは、通常、対象デバイス110で実行されるが、デバイス110のために設計されたソフトウェアをデバイス100側でテストするためにデバイス100側で実行することができる。API201は、対象デバイス(110)側での実行を意図された対応するAPIと同じものであってもよい。或いは、API210を異なるデバイス(デバイス100)側で実行できるようにするために、デバイス110側で実行されるAPIからAPI210を修正することができる。しかしながら、第2の代替例においても、API201は、同じ又は同様のインタフェースを、これらを使用しているソフトウェア(例えば、本実施例ではソフトウェア202)に提供することができる。従って、例えば、API201は、デバイス110側で実行される同様のAPIが提供するヘッダと同じヘッダをソフトウェア202に提供することができる。
本発明のいくつかの実施形態では、エミュレーションソフトウェア205を使用して、UI API201をOS200及びデバイス100上で実行できるようにすることができる。別の実施形態では、エミュレーションソフトウェアが必要ないように、OS200と対象デバイス(110)側で実行されるOSとは、同一の或いはほぼ同様のものであってもよい。
テスタデバイス100はまた、テストを受けるソフトウェア202を実行することもできる。このソフトウェアは、最終的にはデバイス110における実行を目的としたソフトウェアであってもよいが、現在のところ、デバイス100において開発されテストされている。テストを受けるソフトウェアは、UI API201を使用してユーザと交信することができる。UI APIは、テストを受けるソフトウェアと、それを実行しているデバイスとの間の全ての通信を実現することができる。上述したように、テスタデバイスで実行されるUI API201は、対象デバイス110で実行される同様のAPIと同一のもの又は非常に類似したものであってもよい。従って、UI APIは、テストを受けるソフトウェアに、実際にデバイス110側で実行されているように見せることができる。すなわち換言すれば、UI APIにより、テストを受けるソフトウェアが対象デバイス110側で実行されたとしたら行ったであろう外部と通信するための方法と同じ方法を使用できるようになる。
通常(すなわち、対象デバイス110側で実行される場合)、UI API201は、デバイス110のより低水準のソフトウェア及び/又はハードウェアと通信することができ、これらは様々なユーザインタフェース機能を実行することができる。従って、UI APIは、情報又はグラフィクスが表示されるようにするために、及び/又はこれらがユーザ入力を示すタッチイベントを受け取るようにするために、デバイス110のディスプレイ/マルチタッチパネル111(又はディスプレイ/マルチタッチパネルを制御するより低水準のソフトウェア)と通信することができる。しかしながら、UI APIがデバイス100側で実行されている場合、デバイス100はこのような要素を含むことができないため、UI APIはディスプレイ/マルチタッチパネル111と通信することができない。テスタデバイス100はディスプレイ101を含むことができるが、このディスプレイ101は、対象デバイス110のディスプレイとは異なる種類のものであってもよい。さらに、デバイス100は、いずれのマルチタッチセンサパネルも含む必要はない。
従って、デバイスシミュレータ203を使用して、デバイス110のディスプレイ及び/又はマルチタッチセンサパネルをデバイス100側でシミュレートすることができる。デバイスシミュレータは、ディスプレイ/マルチタッチパネル111に接続するために、これらのUI APIが対象デバイス110において通信を行う同じ種類の(単複の)インタフェースをUI API201に提供することができる。デバイスシミュレータ203は、デバイス100のディスプレイ101にウィンドウ104(図1を参照)が表示されるようにすることができる。デバイスシミュレータは、デバイス110が、テストを受けるソフトウェア202及びUI API201を実行したとしたら出力したであろう同じ又は類似のグラフィクスをウィンドウ101に出力することができる。従って、ウィンドウ104は、デバイス110のディスプレイのシミュレーションであると考えることもできる。
同様に、デバイスシミュレータ203は、デバイス100のユーザからのユーザ入力を受け入れ、この入力をデバイス110のユーザから受信したであろう種類に変換することができる。従って、デバイスシミュレータは、(キーボード102及びマウス103などの)デバイス100のインタフェースデバイスを介して行われた入力を受け入れ、この入力を、マルチタッチセンサパネルが生成したであろう入力に変換することができる。デバイスシミュレータがこの変換をどのように行うかについてのさらなる詳細を以下に示す。
いくつかの実施形態では、デバイスシミュレータは、サウンド、マイク、電源又はその他のボタン、光センサ、加速度センサなどのデバイス110の他の入力/出力機能をシミュレートすることもできる。
いくつかの実施形態では、テスタデバイス100及び対象デバイス110は、異なる命令セットを含む異なる種類のプロセッサを使用することができる。このような場合、テストを受けるソフトウェア202及びUI APIは、一方がデバイス100側での実行を意図され、他方がデバイス110側での実行を意図された2つの異なるバージョンを各々含むことができる。この2つのバージョンは、同じ又は類似の高水準コードを、デバイス100及び110に関連する2つの異なる命令セットにコンパイルした結果であってもよい(この実施例のために、高水準コードは、アセンブリコード及びマシンコードよりも高水準の任意のコードを含むことができる)。従って、デバイス100を使用して、テストを受けるソフトウェア202の高水準コードをテストすることができる。デバイス100及び110のためのコンパイラがエラー又は不一致を全く持ち込まなければ、これで十分と言える。
ソフトウェア開発キット(SDK)204をデバイス100側で実行することもできる。SDKを使用して、テストを受けるソフトウェア202を開発することができる。さらに、UI API(201)及びデバイスシミュレータ(203)は、SDKを使用して開発したソフトウェアのテストに使用するSDKの一部であると考えることができる。代替の実施形態では、SDKをデバイス100で実行する必要はない。これらの実施形態では、デバイス100をテスト目的で使用することができ、必ずしもソフトウェア開発のために使用する必要はない。
いくつかの実施形態では、デバイス100をテスト又はソフトウェア開発に使用する必要は全くない。代わりに、デバイス100を使用して、デバイス110向けのソフトウェアを単純に実行し、デバイス110のシミュレーションを行うことができる。例えば、本発明の実施形態を使用してマルチタッチ対応デバイスの動作のデモンストレーションを行うことにより。ユーザがそのデバイスを購入するかどうかを決定できるようになる。
前述したように、シミュレーションソフトウェアは、シングルポインティング入力又は(マウスで入力されたジェスチャなどの)ユーザから出されたシングルポインティングジェスチャを受け入れ、これをマルチタッチジェスチャ入力に変換することができる。シミュレーションソフトウェアは、結果として得られたマルチタッチジェスチャ入力に対して、ユーザがキーボードのキーを使用して追加の制御を行えるようにすることもできる。所定のルールに従って、ユーザ入力からマルチタッチジェスチャ入力への変換を行うことができる。
通常、指、手のひら、人体の様々な他の部分、又は(スタイラス又はペンなどの)オブジェクトをマルチタッチセンサパネル上に、或いはその近くに置くことによりマルチタッチジェスチャを行うことができる。本発明のいくつかの実施形態は、ユーザが上記の種類のシミュレートしたジェスチャの全てを入力できるようにすることができる。1つの容易に行われるグループのジェスチャは、タッチセンサパネルの表面上に、或いはその近くに2又はそれ以上の指先を置くこと及び動かすことを伴う。
ユーザがシミュレートしたマルチタッチジェスチャ入力を入力している間、デバイスシミュレータ203は、マーカーを表示し、シミュレートした対象デバイスの画面(すなわち、ウィンドウ104)全体に渡って動かして、ユーザがマウス及びキーボード(又はデバイス100の他のインタフェース)を使用して入力しているジェスチャの種類をユーザに示すことができる。これらのマーカーは、例えば、マルチタッチパネルを押す指先を表す小さな円であってもよい。マーカーについて以下にさらに詳細に説明する。
いくつかの実施形態では、ユーザは、開始位置を入力することによりマルチタッチジェスチャシミュレーションを開始することができる。図3A及び図3Bは、このような位置を入力する2つの実施例を示す図である。図3A及び図3Bは、指先などの2つのタッチポイントを動かすことによって行われるジェスチャに関連するものである。従って、2つの指先の初期位置を定める開始位置の入力を必要とすることができる。
図3A及び図3Bは、対象デバイス110の画面及び/又はマルチタッチパネルをシミュレートするように意図されたシミュレーションウィンドウ300及び301を示している。いくつかの実施形態では、画面とマルチタッチパネルとを重ね合わせることにより、これらを同じウィンドウ内に表示することができる。従って、ウィンドウ300及び301は、図1のウィンドウ104に類似したものであってもよい。
ウィンドウ300及び301は、ジェスチャ入力の初期配置段階を示す。キーボードのキーを押したり、マウスボタン(図示せず)をクリックしたり、或いはシミュレーションウィンドウ(300又は301)上で単純にマウスカーソルを動かしたりなどの様々な方法で初期配置段階を開始することができる。円302〜305はタッチ入力の位置を表す。換言すれば、これらの円は、シミュレートした画面/マルチタッチパネルに触れているバーチャルな指先の位置を表す。
(図3Aに示す)第1の代替例では、第1のタッチ(302)はマウスポインタ(308)に従うことができる。第1のタッチから一定の所定の変位した位置に第2のタッチを置くことができる。例えば、第1のタッチ302から所定のベクトル306だけ離れたところに第2のタッチ303を変位させることができる。ベクトル306は、例えば、何らかのデフォルト値であってもよいし、或いはユーザが予め定めたものであってもよい。最初に、ユーザは、ウィンドウ300のあちこちにカーソル308を動かすことができ、その後タッチ302及び303の動きを引き起こすことができる。この結果、ユーザは、これらのタッチのための望ましい位置を探し出し、ユーザの望むタッチの初期位置を示すことができるようになる(これは、例えばマウスボタンをクリックすることにより行われる)。このようにして、ユーザは、(マウスなどの)シングルポインティング入力デバイスのみを使用しながら、2つのタッチを含む所望の開始位置を指定することができる。
第2の代替例では、所定のベクトル306の代わりに、所定の中心点307を使用することができる。この場合も、ユーザは、マウスポインタ(309)を使用して第1のタッチ(304)を位置決めすることができる。この代替例では、中心点307に関して第1のタッチの位置から鏡の位置、すなわち対称位置に第2のタッチ(305)を位置決めすることができる。換言すれば、中心点から第1のタッチまでの変位がベクトル310を定める場合、第2のタッチ305の位置は、第2のタッチと中心点との間の変位が同じベクトル(310)を定めるような位置となる。この場合も、ユーザは、カーソルをあちこちに動かして望ましい位置を決定し、(マウスボタンをクリックすることなどにより)望ましい開始位置を示すことができる。この場合も、ユーザが中心点307を入力してもよいし、或いは(ウィンドウの中心などの)デフォルト値を使用してもよい。
様々な実施形態が、開始位置を入力するための上述の代替例のいずれかを利用することができる。いくつかの実施形態は両方の代替例を実施することができ、(ボタンを押したり、或いはクリックしたりすることなどにより)ユーザがこれらの代替例の間で選択を行えるようにすることができる。
いくつかの実施形態では、ユーザは、タッチを操作しながら2つの代替例の間で切り換えを行うことができる。例えば、ユーザは、図3Aの代替例から開始し、タッチ302及び303を所望の第1の位置の組に変位させることができる。その後、ユーザは、(キーボードのキーを押すことなどにより)第2の代替例に切り換えることができる。第2の代替例を起動したら、第1の位置の組を使用して中心点を定めることができる。例えば、中心点を、第1の位置の組のタッチ302の位置と303の位置との間の点として定めることができる。このようにして、ユーザは、所望の中心点を容易に定め、図3Bの代替例を使用して開始位置を選択する段階に進むことができる。
また、ユーザは、タッチ304及び305の第1の位置の組を定めるために図3Bの代替例から開始することができる。ユーザは、その後、図3Aの代替例に切り換えることができる。第1の位置の組を使用して、図3Aの代替例のベクトル306を定めることができる。ユーザは、その後、図3Aの代替例を使用して実際の初期位置を定めることができる。
両方の代替例では、デバイスシミュレータは、例えばタッチの位置を示す小さな半透明の円を表示することにより、シミュレーションウィンドウ内のタッチ302〜304の位置決めを示すことができる。シミュレーションウィンドウ内に中心点の位置を示すこともできる。図3Aに示した位置決め方法を並行位置決めと呼び、図3Bの方法をミラー位置決めと呼ぶことができる。
当業者であれば、図3A及び図3Bに関して上述した教示を、3以上のタッチの位置を定めるために応用できることを認識するであろう。例えば、異なる所定のベクトルに従って、複数のタッチをタッチ302から変位しているものとして定めることができる。これに加えて、或いはこれとは別に、タッチ304と中心点(307)との間の距離に等しい半径を有する円の周囲に複数のタッチを配置することができる。その後、円を拡大したり、縮小したり、或いは回転させたりすることにより、タッチ304を動かすことによってこれらのタッチを動かすことができる。
図3A及び図3B及び上記の説明は、2又はそれ以上のタッチの初期位置を定める段階について説明したものである。しかしながら、ジェスチャの初期位置によってのみジェスチャを定める必要はない。同様にジェスチャは、初期位置からの何らかの動きを要求することもできる。従って、マルチタッチジェスチャは、タッチの動きを要求することができる。図4A及び図4Bは、その初期位置が定められた後のタッチの動きを定めるためのスキームを示す図である。
上述したように、マウスボタンをクリックすることにより、ユーザが所望の初期位置を示すことができる。いくつかの実施形態では、マウスボタンをクリック(又はダウン)したままでマウスを動かすことにより、動きを定めることができる。
初期位置を定める態様と類似した態様で動きを定めることができる。従って図4Aは、図3Aに示した初期位置を定めるためのスキームに類似した、動きを定めるためのスキームを示している。このため、図4Aのスキームを並行移動定義と呼ぶことができる。位置402及び403は、ユーザが定めた2つのタッチの初期位置を表すことができる。上述したように、図3A及び図3Bに関連して上述した方法のいずれか又は両方を使用してこれらの初期位置を入力することができる。或いは、初期位置を入力するための他の方法を使用することもできる。初期位置の設定後、ユーザは、マウスボタンを押したまま経路410に沿ってマウスを導くことができる。この結果、デバイスシミュレータは同様に、位置402から開始するタッチのグラフィカル表示を経路410に沿って位置402’に到達するまで導くことができる。デバイスシミュレータはまた、他のタッチ(位置403で始まるタッチ)を同様の経路411に沿って位置403’に到達するまで動かすこともできる。従って、図3Aの場合と同様に、1つのタッチがマウスカーソルによって動かされている間に、他のタッチがシミュレータによって動かされ、マウスカーソルによって動かされたタッチから所定の距離に留まるようになる。タッチの初期位置決めにより変位ベクトルを定めることができる(すなわち、このベクトルは、位置402と403との間のベクトルであると考えることができる)。
図3Aのスキームと図4Aのスキームとの間の1つの違いは、図4Aの動きの最中には、デバイスシミュレータが両方のタッチの動きを追跡し、この動きを適切なデータフォーマットに変換し、ジェスチャとしてUI API201へ送信できるという点である。一方、(マウスボタンが押される前などの)図3Aの処理中の動きは、初期位置を定めるためにのみ使用することができ、特定の動きの経路を定めるために使用することはできないため、この動きを追跡する必要はない。
図4Bは、図3Bに示す初期位置を定めるためのスキームに類似した動きを定めるためのスキームを示す図である。換言すれば、図4Bはミラー移動の定義を表すことができる。図4Bでは、2つのタッチが、位置404及び405でそれぞれ開始される。カーソル409を経路414に沿って位置404’まで動かすことにより、位置404のタッチ(第1のタッチ)を動かすことができる。いくつかの実施形態では、マウスボタンを押しながらカーソルが動かされる。
デバイスシミュレータは、位置405から開始するタッチ(第2のタッチ)を、この第2のタッチの位置が中心点407を挟んで第1のタッチの位置から忠実に表現されるような態様で、位置405から位置405’へ動かすことができる。従って、第2のタッチは経路415に沿って移動することができる。2つのタッチの初期位置に基づいて、中心点407を定めることができる。従って、この中心点407は、(図示のように)初期位置404と405との間の中心点であると考えることができる。この場合も、デバイスシミュレータは、両方のタッチの動きを追跡し、この動きを適切なデータフォーマットに変換し、UI API201へ送信することができる。
いくつかの実施形態は、動きを定めるための図4Aの方法及び図4Bの方法の両方を提供し、ユーザがキーボードのキーを押すことによって切り換えを行えるようにすることができる。いくつかの実施形態では、初期位置をどのようにして定めたかに関わらず、図4A及び図4Bの動きの定義スキームを使用することができる。従って、例えば、図3Aのスキームに従って2つのタッチの初期位置を定めることができる一方で、図4Bのスキームに従ってタッチの動きを定めることができる。
いくつかの実施形態では、ユーザは、ジェスチャを定めている途中で図4Aのスキームと図4Bのスキームとの間で切り換えを行うことができる。従って、図4Aのスキームに従ってジェスチャの一部を定め、図4Bのスキームに従ってその他の部分を定めることができる。図4A及び図4Bの方法を使用して、図3A及び図3Bに関連して上述した態様で、3以上のタッチを含むジェスチャを定めることができる。
上述した方法は、いくつかのマルチタッチ対応デバイスで使用されるいくつかの種類のジェスチャを容易に定めるために有用なものとなり得る。これらのジェスチャは、例えば、2本の指を並行にドラッグしたり、2本の指を狭めたり及び広げたり、(眼に見えないノブを回転させるように)2本の指を回転させたりなどを含むことができる。しかしながら、これらの方法は、2又はそれ以上の指を利用する全ての考えられるジェスチャを定めることはできない。全ての考えられるジェスチャを定めることが必要となる可能性はないため、このことを障害とする必要はない。シミュレートしたデバイス(すなわち、対象デバイス110)及び/又はテストを受けるソフトウェアが重要とみなすジェスチャの定義のみをシミュレートする必要がある。
とは言いながらも、図5は、より大きな柔軟性を見込むジェスチャをシミュレートするための別の方法を示す図である。ジェスチャ入力の排他的な方法として、或いは上述した方法の1又はそれ以上の代替例として、様々な実施形態により図5の方法を提供することができる。図5は、マルチタッチジェスチャを定める様々な段階を示すことができる画面501、502、及び503を含む。
図5のスキームによれば、複数のシングルタッチジェスチャの構成要素を別個に定めることにより、マルチタッチジェスチャを定めることができる。最初に、シングルタッチを動かすことにより、第1の構成要素を定めることができる。より具体的には、例えば、505の位置にマウスカーソル504を置きマウスボタンを押すことにより、シングルタッチの初期位置505を選択することができる。次に、マウスボタンを押しながらマウスを動かし、ジェスチャの最後にマウスボタンを放すことによりジェスチャを定めることができる。この結果、ジェスチャが、位置505でタッチを開始するステップと、経路506に沿ってタッチを動かすステップと、位置505’でタッチを終了するステップとを含むことができるようになる。
このようにして、マルチタッチジェスチャの1つの構成要素であるシングルタッチジェスチャを定めることができる。同様の態様で、1又はそれ以上の追加の構成要素を続けて定めることができる。例えば、画面502を参照すると、最初に位置506においてマウスをクリックし、次にこれを経路507に沿って位置506’まで動かすことにより、第1の構成要素の後に第2のジェスチャの構成要素を定めることができる。いくつかの実施形態では、第2の又はそれに続くジェスチャの構成要素を定めている間に、次の構成要素を定めながら、1又はそれ以上の以前に定めたジェスチャの構成要素を「再生」することができる。定められたジェスチャは、全ての構成要素が少なくとも部分的に同時に実行されると推測するため、上記の「再生」により、関連する構成要素を定める際にユーザを支援することができる。従って、ユーザが、位置506から位置506’へカーソルを動かすことにより第2の構成要素を定めている間に、デバイスシミュレータにより、位置505から位置505’へ動かされる別のタッチのアニメーション508を同時に表示することができる。
第2のジェスチャの構成要素の入力後、第3のジェスチャの構成要素を入力することができる。第3のジェスチャの構成要素は、位置509から経路510に沿って位置509’へカーソルを動かすステップを含むことができる。同様に、第3のジェスチャの構成要素を入力している間に、2つの以前に入力したジェスチャの構成要素のアニメーション511及び512を「再生」することができる。
本発明の実施形態は、任意の数のジェスチャの構成要素がこのようにして入力されることを可能にする。いくつかの実施形態では、対象デバイス110のユーザがジェスチャの入力に使用すると予想される指の本数に関連して、入力できるジェスチャの構成要素の数が制限される。様々な実施形態により、誤って入力した1又はそれ以上のジェスチャの構成要素を再入力又は削除できるようにもなる。
ユーザが所望の数のジェスチャの構成要素を入力し終えると、ユーザは、(指定されたボタンをクリックすることなどにより)そのように指示を与えることができる。この時点で、デバイスシミュレータは、全てのジェスチャの構成要素を重ね合わせる(すなわち、これらを同時に実行する)ことにより、単一のマルチタッチジェスチャを作成することができる。従って、図5に関連して説明した構成要素に基づいて、デバイスシミュレータは、2本の右の指を下方向にドラッグしながら左端の指を上方向にドラッグするステップを含むマルチタッチジェスチャを作成することができる。
いくつかの実施形態では、デバイスシミュレータは、様々なジェスチャの構成要素を標準化することができる。より詳細には、デバイスシミュレータは、様々な構成要素の速度を調整して、全てのジェスチャの構成要素が同時に開始し、同時に終了できるようにすることができる。代替の実施形態では、いくつかの構成要素が他の構成要素よりも先に終了できるように速度を調整しなくてもよい。さらに別の実施形態では、ユーザは、他のジェスチャの構成要素が開始した後に開始するジェスチャの構成要素を入力できるようになる。
図6は、本発明のいくつかの実施形態によるジェスチャを定めるための別の例示的な方法を示す図である。図5と同様に、要素601及び602は、ジェスチャを定める際のシミュレーションウィンドウ104の様々な段階を示す。最初に、ユーザは、マウスカーソル605を位置603に置いてボタンをクリックすることにより、静的タッチを定めることができる。ユーザは、例えば、位置604においてマウスカーソルをクリックし、マウスカーソルを経路606に沿って位置604’へ動かすことにより、動くタッチを続けて定めることができる。結果として得られるジェスチャは、位置603において1本の指を押したまま、この指を動かさずに位置604から経路605に沿って位置604’へ別の指を動かすステップを表すことができる。或いは、動的タッチ、又は2以上の静的及び/又は動的タッチを定めることができた後に、静的タッチを定めることができる。マルチタッチジェスチャを入力する異なるモードとして図6の方法を提供することができ、それぞれの制御キー又はマウスクリック可能なボタンにより、この方法を起動することができる。或いは、図5に関連して上述した方法の特定のケースとして図6の方法を実行することができる。
図7は、本発明のいくつかの実施形態によるシングルポインティングデバイスを使用して入力できるいくつかの例示的なシミュレートしたマルチタッチジェスチャを示す図である。実施例701は、ピンチを示す。実施例702は、逆ピンチを示す。実施例703は、回転を示す。実施例704は、シミュレートしたパネルの中心とは異なる位置に回転の中心705を選択した場合を示す。当業者であれば、上述した方法を使用して図7の全ての実施例を実施できることを認識するであろう。
当業者であれば、上記に加え、マルチタッチジェスチャを入力するための別の方法を使用できることを認識するであろう。例えば、タッチの輪郭の形状を、例えばマウスでこの輪郭をたどり、或いは所定の選択肢から選択することにより入力することができる。この形状は、単に指先で画面をタッチするよりも複雑なタッチイベントを示すことができる。この形状は、例えば、手のひらで画面をタッチすること、或いは画面上にオブジェクトを置くことを示すことができる。形状を入力し終えると、マルチタッチジェスチャを定めるために、マウスカーソルを動かすことによりこの形状をあちこちに動かすことができる。
上記の説明は、テスタデバイスが(マウスなどの)シングルポインティングデバイスのみを特徴として備える場合に焦点を当てたものであるが、いくつかの実施形態では、テスタデバイスは、同様にマルチタッチパネルを特徴として備えることができる。例えば、テスタデバイスは、マルチタッチ対応トラックパッドを特徴として備えたラップトップであってもよい。対象デバイスは、ディスプレイと一体になったマルチタッチパネルを含むことができる(従って、ユーザは、ディスプレイの表面とやりとりすることにより、マルチタッチ入力を入力することができる)。テスタデバイスは、テスタデバイスのモニタ101のシミュレーションウィンドウ104内で対象デバイスのディスプレイのシミュレーションを行うことにより対象デバイスをシミュレートすることができる一方で、テスタデバイスのユーザは、テスタデバイスのトラックパッドを使用してマルチタッチ入力を入力できるようになる。テスタデバイスは、ユーザがタッチパッドを通じてタッチを入力している間に、(シミュレーションウィンドウ内に小さな円を表示することなどにより)シミュレーションウィンドウ内にシミュレートしたタッチの位置を示すことができる。
上述した実施形態のいくつかは、シングルポイントジェスチャ入力をマルチタッチジェスチャ入力に変換することに関するものであるが、本発明をこのように限定する必要はない。より一般的には、本発明の実施形態は、シングルポイント入力をマルチポイント入力に変換することに関する。マルチポイント入力は、マルチタッチ入力を含むことができるが、例えば、米国特許出願第11/649,998号により解説されるマルチ近接入力などの他の種類の入力を含むこともできる。
添付の図面を参照しながら本発明の実施形態に関連して本発明について十分に説明してきたが、当業者には様々な変更及び修正が明らかになるであろう。これらの変更及び修正は、添付の特許請求の範囲により定められる本発明の範囲に含まれると理解すべきである。

Claims (27)

  1. マルチポイントセンサパネル上のマルチポイントジェスチャをシミュレートするためのシステムであって、
    前記マルチポイントセンサパネルの表現を表示するためのディスプレイと、
    シングルポインティングユーザ入力デバイスと、
    前記シングルポインティングユーザ入力デバイスから入力を受け取り、所定の変換ルールに従って該入力をマルチポイントジェスチャに変換するように構成されたデバイスシミュレータと、
    を備えることを特徴とするシステム。
  2. 前記シングルポインティングユーザ入力デバイスはマウスである、
    ことを特徴とする請求項1に記載のシステム。
  3. 前記システムは、前記センサパネルを含むマルチポイント対応デバイスにおいて実行するように意図されたソフトウェアを実行するように構成されたプロセッサをさらに含み、前記デバイスシミュレータは、前記変換されたマルチポイントジェスチャ入力を、該マルチポイントジェスチャ入力が前記マルチポイント対応デバイスにおいて実行されたとしたら前記ソフトウェアが受け取ったであろうフォーマットと同一のフォーマットで前記ソフトウェアへ送るようにさらに構成された、
    ことを特徴とする請求項1に記載のシステム。
  4. 前記シングルポインティングユーザ入力デバイスからの前記入力は、前記シングルポインティングユーザ入力デバイスが制御するカーソルがたどる経路により定められる、
    ことを特徴とする請求項1に記載のシステム。
  5. 前記変換されたマルチポイントジェスチャ入力は、少なくとも2つの別個のポイントジェスチャ入力により定められ、第1のポイントジェスチャ入力は、前記シングルポインティングデバイスが制御する前記カーソルがたどる前記経路により定められ、少なくとも1つの別のポイントジェスチャ入力は、前記シングルポインティングデバイスが制御する前記カーソルがたどる前記経路から導き出された経路により定められる、
    ことを特徴とする請求項4に記載のシステム。
  6. 前記少なくとも1つの別のポイントジェスチャ入力は、前記シングルポインティングデバイスが制御するカーソルから所定のベクトルだけ変位したポイントがたどる経路により定められる、
    ことを特徴とする請求項5に記載のシステム。
  7. 前記少なくとも1つの別のポイントジェスチャは、前記シングルポインティングデバイスが制御するカーソルの位置と所定のポイントに関して対称の位置にあるポイントがたどる経路により定められる、
    ことを特徴とする請求項5に記載のシステム。
  8. 前記デバイスシミュレータは、前記シングルポインティングデバイスを通じて連続して入力された複数のシングルポイントジェスチャ入力を入力として受け取り、
    前記複数の受け取ったシングルポイントジェスチャ入力を前記マルチポイントジェスチャ入力と合成して、前記マルチポイントジェスチャ入力が、前記複数のシングルポイントジェスチャ入力により定められる複数のシングルポイントジェスチャの少なくとも部分的に同時に行われる動作を表すようにすることにより、前記複数のシングルポイントジェスチャ入力を前記マルチポイントジェスチャ入力に変換するように構成された、
    ことを特徴とする請求項1に記載のシステム。
  9. CPU及びコンピュータ可読メモリをさらに含み、前記デバイスシミュレータは、前記コンピュータ可読メモリに記憶されるとともに前記CPUにより実行されるソフトウェアである、
    ことを特徴とする請求項1に記載のシステム。
  10. 前記マルチポイントセンサパネルを含むマルチポイント対応デバイスのためのソフトウェアを開発するように構成されたソフトウェア開発キットをさらに含み、該ソフトウェア開発キットは、前記コンピュータ可読メモリに記憶されるとともに前記CPUにより実行され、前記デバイスシミュレータは前記ソフトウェア開発キットの一部である、
    ことを特徴とする請求項9に記載のシステム。
  11. 前記マルチポイントジェスチャはマルチタッチジェスチャであり、前記マルチポイントセンサパネルはマルチタッチセンサパネルであり、前記マルチポイントジェスチャ入力はマルチタッチジェスチャ入力である、
    ことを特徴とする請求項1に記載のシステム。
  12. マルチポイントジェスチャをシミュレートする方法であって、
    シングルポインティングデバイスからシングルトラッキング入力を受け取るステップと、
    前記受け取ったシングルトラッキング入力に応答して、2又はそれ以上のシミュレートしたタッチポイントを含むとともに前記シングルトラッキング入力に少なくとも一部基づくシミュレートしたマルチポイントジェスチャの視覚的表現を表示するステップと、
    を含むことを特徴とする方法。
  13. 前記シングルポインティングデバイスから初期位置決めコマンドを受け取るステップと、
    前記シングルトラッキング入力を受け取る前に2又はそれ以上のシミュレートしたタッチポイントの初期位置を表示するステップと、
    をさらに含むことを特徴とする請求項12に記載の方法。
  14. 前記シミュレートしたマルチポイントジェスチャは、前記トラッキング入力に所定のルールを適用することにより決定される、
    ことを特徴とする請求項12に記載の方法。
  15. 前記シングルポインティングデバイスはマウスである、
    ことを特徴とする請求項12に記載の方法。
  16. 前記シングルポインティングデバイスはシングルタッチトラックパッドである、
    ことを特徴とする請求項12に記載の方法。
  17. 第1のデバイスにおいて実行するように構成されたソフトウェアを含むコンピュータ可読媒体であって、前記第1のデバイスはシングルポインティングユーザ入力デバイスを含み、前記ソフトウェアは、
    前記シングルポインティングユーザ入力デバイスを通じてシングルポインティングジェスチャを受け取るステップと、
    前記シングルポインティングジェスチャに基づいて、所定の変換ルールに従ってマルチポイントジェスチャを生成するステップと、
    前記マルチポイントジェスチャを表示するステップと、
    を行うことにより、マルチポイントセンサパネル上のマルチポイントジェスチャをシミュレートするように構成された、
    ことを特徴とするコンピュータ可読媒体。
  18. 前記マルチポイントジェスチャの生成ステップ及び前記マルチポイントジェスチャの表示ステップは、前記シングルポインティングジェスチャを受け取っている間にリアルタイムで行われる、
    ことを特徴とする請求項17に記載のコンピュータ可読媒体。
  19. 前記ソフトウェアは、
    制御信号を受け取り、
    前記制御信号に基づいて、前記マルチポイントジェスチャの生成時に従う変換ルールとして複数の所定の前記変換ルールのうちの1つを選択するようにさらに構成された、
    ことを特徴とする請求項17に記載のコンピュータ可読媒体。
  20. 前記シングルポインティングユーザ入力デバイスはマウスである、
    ことを特徴とする請求項17に記載のコンピュータ可読媒体。
  21. 前記第1デバイスにおいて第2のソフトウェアが実行され、該第2のソフトウェアは、前記マルチポイントセンサパネルを含むマルチポイント対応デバイスにおいて実行することを意図されたものであり、前記ソフトウェアは、
    前記生成したマルチポイントジェスチャを、該マルチポイントジェスチャが前記マルチポイント対応デバイスにおいて実行されたとしたら前記第2のソフトウェアが受け取ったであろうフォーマットと同一のフォーマットで前記第2のソフトウェアへ送るようにさらに構成された、
    ことを特徴とする請求項17に記載のコンピュータ可読媒体。
  22. 前記シングルポインティングジェスチャは、前記シングルポインティングデバイスが制御するカーソルがたどる経路により定められる、
    ことを特徴とする請求項17に記載のコンピュータ可読媒体。
  23. 前記生成したマルチポイントジェスチャは、少なくとも2つの別個のポイントジェスチャにより定められ、前記第1のポイントジェスチャは、前記シングルポインティングデバイスが制御するカーソルがたどる経路により定められ、少なくとも1つの別のポイントジェスチャは、前記シングルポインティングデバイスが制御するカーソルがたどる経路から導き出された経路により定められる、
    ことを特徴とする請求項20に記載のコンピュータ可読媒体。
  24. 前記少なくとも1つの別のポイントジェスチャは、前記シングルポインティングデバイスが制御するカーソルから所定のベクトルだけ変位した位置がたどる経路により定められる、
    ことを特徴とする請求項23に記載のコンピュータ可読媒体。
  25. 前記少なくとも1つの別のポイントジェスチャは、前記シングルポインティングデバイスが制御するカーソルの位置と所定のポイントに関して対称の位置にあるポイントがたどる経路により定められる、
    ことを特徴とする請求項23に記載のコンピュータ可読媒体。
  26. 前記ソフトウェアはソフトウェア開発キットの一部である、
    ことを特徴とする請求項17に記載のコンピュータ可読媒体。
  27. 前記マルチポイントジェスチャはマルチタッチジェスチャであり、前記マルチポイントセンサパネルはマルチタッチセンサパネルであり、前記マルチポイントジェスチャ入力はマルチタッチジェスチャ入力である、
    ことを特徴とする請求項17に記載のコンピュータ可読媒体。
JP2009070904A 2008-02-26 2009-02-26 シングルポインティングデバイスによるマルチポイントジェスチャのシミュレーション Pending JP2009205685A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US12/037,848 US20090213083A1 (en) 2008-02-26 2008-02-26 Simulation of multi-point gestures with a single pointing device

Publications (2)

Publication Number Publication Date
JP2009205685A true JP2009205685A (ja) 2009-09-10
JP2009205685A5 JP2009205685A5 (ja) 2010-10-07

Family

ID=40565391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009070904A Pending JP2009205685A (ja) 2008-02-26 2009-02-26 シングルポインティングデバイスによるマルチポイントジェスチャのシミュレーション

Country Status (10)

Country Link
US (1) US20090213083A1 (ja)
EP (1) EP2096524A3 (ja)
JP (1) JP2009205685A (ja)
CN (1) CN101520702B (ja)
AU (1) AU2009200298B2 (ja)
CA (1) CA2651409C (ja)
DE (1) DE102009010744A1 (ja)
GB (1) GB2457802B (ja)
IL (1) IL197215A0 (ja)
WO (1) WO2009108584A2 (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011034451A (ja) * 2009-08-04 2011-02-17 Fujitsu Component Ltd タッチパネル装置及び方法並びにプログラム及び記録媒体
JP2011053770A (ja) * 2009-08-31 2011-03-17 Nifty Corp 情報処理装置及び入力処理方法
JP2011086035A (ja) * 2009-10-14 2011-04-28 Nec Corp 携帯機器、その画像表示制御方法および装置
JP2011138475A (ja) * 2009-12-25 2011-07-14 Cywee Group Ltd マルチタッチ信号を生成する方法、マルチタッチ信号を生成するドングル、及び関連した制御システム
JP2011257992A (ja) * 2010-06-09 2011-12-22 Fujitsu Component Ltd 変換装置及びプログラム
JP2012008968A (ja) * 2010-06-28 2012-01-12 Honda Motor Co Ltd 携帯機器と連携し、該携帯機器に対して可能な入力操作を実現する車載機器
JP2014059817A (ja) * 2012-09-19 2014-04-03 Konica Minolta Inc 画像処理装置、操作標準化方法および操作標準化プログラム
KR101381878B1 (ko) * 2012-04-10 2014-04-07 주식회사 오비고 마우스를 이용하여 터치 입력을 구현하기 위한 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체
JP2014516185A (ja) * 2012-04-27 2014-07-07 深▲セン▼瑞高信息技術有限公司 タッチスクリーン用アプリケーションプログラムの仮想アイコン操作変換方法及びタッチスクリーン端末
JP2014519125A (ja) * 2011-06-05 2014-08-07 アップル インコーポレイテッド 物理的なタッチ機能のないタッチユーザインタフェースを制御するためのデバイス、方法及びグラフィカルユーザインタフェース
JP2014219867A (ja) * 2013-05-09 2014-11-20 コニカミノルタ株式会社 画像形成装置、画像形成装置が操作方法を案内する方法、プログラム、および、システム
JP2014534544A (ja) * 2011-12-02 2014-12-18 ジーティーテレコム タッチスクリーン上における画面操作方法
JP2015022695A (ja) * 2013-07-23 2015-02-02 三菱電機株式会社 ユーザインタフェース模擬装置
WO2015033967A1 (ja) * 2013-09-06 2015-03-12 株式会社ソニー・コンピュータエンタテインメント エミュレーション装置、エミュレーション方法、プログラム及び情報記憶媒体
JP2016024580A (ja) * 2014-07-18 2016-02-08 富士通株式会社 情報処理装置、入力制御方法、および入力制御プログラム
WO2020194569A1 (ja) * 2019-03-27 2020-10-01 三菱電機株式会社 変換システム、変換装置及び変換方法
US10986252B2 (en) 2015-06-07 2021-04-20 Apple Inc. Touch accommodation options
KR20210083495A (ko) * 2019-12-27 2021-07-07 주식회사 이누씨 가상 포지셔닝 방법 및 장치
US11947792B2 (en) 2011-12-29 2024-04-02 Apple Inc. Devices, methods, and graphical user interfaces for providing multitouch inputs and hardware-based features using a single touch input

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5448370B2 (ja) * 2008-05-20 2014-03-19 キヤノン株式会社 情報処理装置及びその制御方法、プログラム、記憶媒体
TW201007526A (en) * 2008-08-13 2010-02-16 Elan Microelectronics Corp Signal processing method of multi-fingers touch apparatus having invisible physical button structure
US20100095234A1 (en) * 2008-10-07 2010-04-15 Research In Motion Limited Multi-touch motion simulation using a non-touch screen computer input device
US8477103B2 (en) 2008-10-26 2013-07-02 Microsoft Corporation Multi-touch object inertia simulation
US8466879B2 (en) 2008-10-26 2013-06-18 Microsoft Corporation Multi-touch manipulation of application objects
US20110191787A1 (en) * 2010-02-02 2011-08-04 Sun Microsystems, Inc. System and method for providing sensor data from embedded device to software development environment
US8239840B1 (en) * 2010-03-10 2012-08-07 Google Inc. Sensor simulation for mobile device applications
US20110310126A1 (en) * 2010-06-22 2011-12-22 Emil Markov Georgiev Method and system for interacting with datasets for display
US8922499B2 (en) * 2010-07-26 2014-12-30 Apple Inc. Touch input transitions
JP2012033059A (ja) * 2010-07-30 2012-02-16 Sony Corp 情報処理装置、情報処理方法及び情報処理プログラム
CN102541336B (zh) * 2010-12-31 2014-05-07 联芯科技有限公司 一种模拟操作触摸屏的方法、装置及系统
US8830192B2 (en) * 2011-01-13 2014-09-09 Elan Microelectronics Corporation Computing device for performing functions of multi-touch finger gesture and method of the same
CN102193863A (zh) * 2011-04-26 2011-09-21 青岛海信移动通信技术股份有限公司 一种多点触控操作的实现方法及装置
US9535817B2 (en) * 2011-06-10 2017-01-03 Microsoft Technology Licensing, Llc Application development environment for portable electronic devices
US8176435B1 (en) * 2011-09-08 2012-05-08 Google Inc. Pinch to adjust
CN102999382A (zh) * 2011-09-09 2013-03-27 鸿富锦精密工业(深圳)有限公司 电子设备及其切换方法
WO2013104570A1 (en) * 2012-01-09 2013-07-18 Movea Command of a device by gesture emulation of touch gestures
US8436829B1 (en) * 2012-01-31 2013-05-07 Google Inc. Touchscreen keyboard simulation for performance evaluation
US20130194197A1 (en) * 2012-02-01 2013-08-01 Ideacom Technology Inc. Electronic Apparatus With Touch Panel and the Operating Method Therefor
JP2013186702A (ja) * 2012-03-08 2013-09-19 Sony Corp 入力処理装置、入力処理プログラム及び入力処理方法
CN102778966B (zh) * 2012-06-29 2016-03-02 广东威创视讯科技股份有限公司 利用鼠标模拟触摸输入的方法及装置
GB2510333A (en) * 2013-01-30 2014-08-06 Ibm Emulating pressure sensitivity on multi-touch devices
US9715282B2 (en) * 2013-03-29 2017-07-25 Microsoft Technology Licensing, Llc Closing, starting, and restarting applications
CN104423826B (zh) * 2013-09-03 2018-07-31 上海炬力集成电路设计有限公司 一种使用鼠标中键和滚轮实现缩放的方法及装置
US10162737B2 (en) 2014-02-20 2018-12-25 Entit Software Llc Emulating a user performing spatial gestures
US10025427B2 (en) * 2014-06-27 2018-07-17 Microsoft Technology Licensing, Llc Probabilistic touch sensing
US10255101B2 (en) * 2014-12-11 2019-04-09 Sap Se Device emulator
CN104484117B (zh) * 2014-12-18 2018-01-09 福州瑞芯微电子股份有限公司 人机交互方法及装置
CN104536597B (zh) * 2014-12-22 2018-11-27 合肥联宝信息技术有限公司 一种笔记本电脑实现多点触控的方法及装置
CN105739890A (zh) * 2016-01-27 2016-07-06 深圳市奥拓电子股份有限公司 一种触摸屏界面交互方法及装置
CN105975174A (zh) * 2016-04-26 2016-09-28 乐视控股(北京)有限公司 一种无触摸屏下模拟点击操作的系统及方法
US10572026B2 (en) * 2018-06-01 2020-02-25 Adobe Inc. Reference point generation on a vector path
US10921975B2 (en) * 2018-06-03 2021-02-16 Apple Inc. Devices, methods, and user interfaces for conveying proximity-based and contact-based input events

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0196043U (ja) * 1987-12-18 1989-06-26
JPH05342046A (ja) * 1992-06-09 1993-12-24 Fujikura Ltd エミュレータ
JPH05342045A (ja) * 1992-06-09 1993-12-24 Fujikura Ltd エミュレータ
JP2000040345A (ja) * 1998-07-23 2000-02-08 Victor Co Of Japan Ltd 音声データの編集装置及びその制御プログラムを記録したコンピュータ読みとり可能な記録媒体
JP2000347778A (ja) * 1999-06-04 2000-12-15 Nec Corp マルチメディアコンテンツ編集装置
JP2003316603A (ja) * 2002-04-24 2003-11-07 Matsushita Electric Ind Co Ltd プログラム検証システム
WO2006020305A2 (en) * 2004-07-30 2006-02-23 Apple Computer, Inc. Gestures for touch sensitive input devices
JP2007299384A (ja) * 2006-05-03 2007-11-15 Mitsubishi Electric Research Laboratories Inc コンピュータで実施するマルチタッチセンシティブ画面でマウスをエミュレートする方法及びマウスをエミュレートするシステム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5805132A (en) * 1991-09-17 1998-09-08 Minolta Co., Ltd. Image editing apparatus capable of setting image processing region on display screen
US5483261A (en) * 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5488204A (en) * 1992-06-08 1996-01-30 Synaptics, Incorporated Paintbrush stylus for capacitive touch sensor pad
US5880411A (en) * 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5555369A (en) * 1994-02-14 1996-09-10 Apple Computer, Inc. Method of creating packages for a pointer-based computer system
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US5835079A (en) * 1996-06-13 1998-11-10 International Business Machines Corporation Virtual pointing device for touchscreens
US6310610B1 (en) * 1997-12-04 2001-10-30 Nortel Networks Limited Intelligent touch display
KR100595912B1 (ko) * 1998-01-26 2006-07-07 웨인 웨스터만 수동 입력 통합 방법 및 장치
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7663607B2 (en) * 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US6052110A (en) * 1998-05-11 2000-04-18 Sony Corporation Dynamic control of zoom operation in computer graphics
US6188391B1 (en) * 1998-07-09 2001-02-13 Synaptics, Inc. Two-layer capacitive touchpad and method of making same
US6298481B1 (en) * 1998-10-30 2001-10-02 Segasoft, Inc. System for modifying the functionality of compiled computer code at run-time
JP2003173237A (ja) * 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
US6995752B2 (en) * 2001-11-08 2006-02-07 Koninklijke Philips Electronics N.V. Multi-point touch pad
US6690387B2 (en) * 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
US11275405B2 (en) * 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US7366995B2 (en) * 2004-02-03 2008-04-29 Roland Wescott Montague Combination tool that zooms in, zooms out, pans, rotates, draws, or manipulates during a drag
US20050219210A1 (en) * 2004-03-31 2005-10-06 The Neil Squire Society Pointer interface for handheld devices
FI20045149A (fi) * 2004-04-23 2005-10-24 Nokia Corp Käyttöliittymä
US20070061126A1 (en) * 2005-09-01 2007-03-15 Anthony Russo System for and method of emulating electronic input devices
US8970501B2 (en) * 2007-01-03 2015-03-03 Apple Inc. Proximity and multi-touch sensor detection and demodulation

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0196043U (ja) * 1987-12-18 1989-06-26
JPH05342046A (ja) * 1992-06-09 1993-12-24 Fujikura Ltd エミュレータ
JPH05342045A (ja) * 1992-06-09 1993-12-24 Fujikura Ltd エミュレータ
JP2000040345A (ja) * 1998-07-23 2000-02-08 Victor Co Of Japan Ltd 音声データの編集装置及びその制御プログラムを記録したコンピュータ読みとり可能な記録媒体
JP2000347778A (ja) * 1999-06-04 2000-12-15 Nec Corp マルチメディアコンテンツ編集装置
JP2003316603A (ja) * 2002-04-24 2003-11-07 Matsushita Electric Ind Co Ltd プログラム検証システム
WO2006020305A2 (en) * 2004-07-30 2006-02-23 Apple Computer, Inc. Gestures for touch sensitive input devices
JP2008508601A (ja) * 2004-07-30 2008-03-21 アップル インコーポレイテッド タッチ・センシティブ入力デバイスのためのジェスチャ
JP2007299384A (ja) * 2006-05-03 2007-11-15 Mitsubishi Electric Research Laboratories Inc コンピュータで実施するマルチタッチセンシティブ画面でマウスをエミュレートする方法及びマウスをエミュレートするシステム

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011034451A (ja) * 2009-08-04 2011-02-17 Fujitsu Component Ltd タッチパネル装置及び方法並びにプログラム及び記録媒体
JP2011053770A (ja) * 2009-08-31 2011-03-17 Nifty Corp 情報処理装置及び入力処理方法
JP2011086035A (ja) * 2009-10-14 2011-04-28 Nec Corp 携帯機器、その画像表示制御方法および装置
JP2011138475A (ja) * 2009-12-25 2011-07-14 Cywee Group Ltd マルチタッチ信号を生成する方法、マルチタッチ信号を生成するドングル、及び関連した制御システム
JP2011257992A (ja) * 2010-06-09 2011-12-22 Fujitsu Component Ltd 変換装置及びプログラム
JP2012008968A (ja) * 2010-06-28 2012-01-12 Honda Motor Co Ltd 携帯機器と連携し、該携帯機器に対して可能な入力操作を実現する車載機器
US10732829B2 (en) 2011-06-05 2020-08-04 Apple Inc. Devices, methods, and graphical user interfaces for providing control of a touch-based user interface absent physical touch capabilities
US9513799B2 (en) 2011-06-05 2016-12-06 Apple Inc. Devices, methods, and graphical user interfaces for providing control of a touch-based user interface absent physical touch capabilities
KR101886486B1 (ko) * 2011-06-05 2018-08-07 애플 인크. 물리적 터치 기능이 없는 경우 터치-기반 사용자 인터페이스의 제어를 제공하는 장치, 방법 및 그래픽 사용자 인터페이스
JP2014519125A (ja) * 2011-06-05 2014-08-07 アップル インコーポレイテッド 物理的なタッチ機能のないタッチユーザインタフェースを制御するためのデバイス、方法及びグラフィカルユーザインタフェース
KR101843903B1 (ko) 2011-06-05 2018-04-02 애플 인크. 물리적 터치 기능이 없는 경우 터치-기반 사용자 인터페이스의 제어를 제공하는 장치, 방법 및 그래픽 사용자 인터페이스
US11775169B2 (en) 2011-06-05 2023-10-03 Apple Inc. Devices, methods, and graphical user interfaces for providing control of a touch-based user interface absent physical touch capabilities
US11354032B2 (en) 2011-06-05 2022-06-07 Apple Inc. Devices, methods, and graphical user interfaces for providing control of a touch-based user interface absent physical touch capabilities
KR20150082645A (ko) * 2011-06-05 2015-07-15 애플 인크. 물리적 터치 기능이 없는 경우 터치-기반 사용자 인터페이스의 제어를 제공하는 장치, 방법 및 그래픽 사용자 인터페이스
US10120566B2 (en) 2011-06-05 2018-11-06 Apple Inc. Devices, methods, and graphical user interfaces for providing control of a touch-based user interface absent physical touch capabilities
JP2018018527A (ja) * 2011-06-05 2018-02-01 アップル インコーポレイテッド 物理的なタッチ機能のないタッチユーザインタフェースを制御するためのデバイス、方法及びグラフィカルユーザインタフェース
JP2016129034A (ja) * 2011-06-05 2016-07-14 アップル インコーポレイテッド 物理的なタッチ機能のないタッチユーザインタフェースを制御するためのデバイス、方法及びグラフィカルユーザインタフェース
JP2014534544A (ja) * 2011-12-02 2014-12-18 ジーティーテレコム タッチスクリーン上における画面操作方法
US11947792B2 (en) 2011-12-29 2024-04-02 Apple Inc. Devices, methods, and graphical user interfaces for providing multitouch inputs and hardware-based features using a single touch input
KR101381878B1 (ko) * 2012-04-10 2014-04-07 주식회사 오비고 마우스를 이용하여 터치 입력을 구현하기 위한 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체
JP2014516185A (ja) * 2012-04-27 2014-07-07 深▲セン▼瑞高信息技術有限公司 タッチスクリーン用アプリケーションプログラムの仮想アイコン操作変換方法及びタッチスクリーン端末
JP2014059817A (ja) * 2012-09-19 2014-04-03 Konica Minolta Inc 画像処理装置、操作標準化方法および操作標準化プログラム
US9386174B2 (en) 2013-05-09 2016-07-05 Konica Minolta, Inc. Image forming apparatus, method for guidance on operation method by image forming apparatus, and system
JP2014219867A (ja) * 2013-05-09 2014-11-20 コニカミノルタ株式会社 画像形成装置、画像形成装置が操作方法を案内する方法、プログラム、および、システム
JP2015022695A (ja) * 2013-07-23 2015-02-02 三菱電機株式会社 ユーザインタフェース模擬装置
WO2015033967A1 (ja) * 2013-09-06 2015-03-12 株式会社ソニー・コンピュータエンタテインメント エミュレーション装置、エミュレーション方法、プログラム及び情報記憶媒体
JP2016024580A (ja) * 2014-07-18 2016-02-08 富士通株式会社 情報処理装置、入力制御方法、および入力制御プログラム
US10986252B2 (en) 2015-06-07 2021-04-20 Apple Inc. Touch accommodation options
US11470225B2 (en) 2015-06-07 2022-10-11 Apple Inc. Touch accommodation options
WO2020194569A1 (ja) * 2019-03-27 2020-10-01 三菱電機株式会社 変換システム、変換装置及び変換方法
JPWO2020194569A1 (ja) * 2019-03-27 2021-10-14 三菱電機株式会社 変換システム、変換装置及び変換方法
KR20210083495A (ko) * 2019-12-27 2021-07-07 주식회사 이누씨 가상 포지셔닝 방법 및 장치
KR102322067B1 (ko) * 2019-12-27 2021-11-04 주식회사 이누씨 가상 포지셔닝 방법 및 장치

Also Published As

Publication number Publication date
GB2457802B (en) 2010-11-03
AU2009200298A1 (en) 2009-09-10
CA2651409C (en) 2016-09-20
CN101520702B (zh) 2012-05-30
CN101520702A (zh) 2009-09-02
GB2457802A (en) 2009-09-02
CA2651409A1 (en) 2009-08-26
IL197215A0 (en) 2009-12-24
WO2009108584A3 (en) 2010-03-18
GB0902821D0 (en) 2009-04-08
AU2009200298B2 (en) 2010-05-13
EP2096524A2 (en) 2009-09-02
US20090213083A1 (en) 2009-08-27
WO2009108584A2 (en) 2009-09-03
EP2096524A3 (en) 2010-02-03
DE102009010744A1 (de) 2009-09-24

Similar Documents

Publication Publication Date Title
AU2009200298B2 (en) Simulation of multi-point gestures with a single pointing device
CN102096548B (zh) 采用触控式显示器复制对象的方法和系统
TWI459281B (zh) 在使用者介面顯示上顯現教學動畫
EP2686758B1 (en) Input device user interface enhancements
US20100095234A1 (en) Multi-touch motion simulation using a non-touch screen computer input device
US20110069018A1 (en) Double Touch Inputs
US20120188164A1 (en) Gesture processing
US20100328236A1 (en) Method for Controlling a Computer System and Related Computer System
EP2175350A1 (en) Multi-touch motion simulation using a non-touch screen computer input device
US9218064B1 (en) Authoring multi-finger interactions through demonstration and composition
CN108595010B (zh) 虚拟现实中虚拟物体的交互方法及装置
Freitag et al. Enhanced feed-forward for a user aware multi-touch device
Yao et al. A multi-touch natural user interface framework
Chuan et al. Proposed usability heuristics for testing gestural interaction
Uddin Improving Multi-Touch Interactions Using Hands as Landmarks
Sayara et al. GestureCanvas: A Programming by Demonstration System for Prototyping Compound Freehand Interaction in VR
Lai et al. Virtual touchpad for cursor control of touchscreen thumb operation in the mobile context
Lee et al. iSphere: a free-hand 3D modeling interface
Thompson III Evaluation of a commodity VR interaction device for gestural object manipulation in a three dimensional work environment
Greene et al. Initial ACT-R extensions for user modeling in the mobile touchscreen domain
Geier et al. Toward a VR-Native Live Programming Environment
Spano A model-based approach for gesture interfaces
Luderschmidt et al. Tuio as3: A multi-touch and tangible user interface rapid prototyping toolkit for tabletop interaction
Lee et al. iSphere: A proximity-based 3D input interface
TW201109996A (en) Method for operating a touch screen, method for defining a touch gesture on the touch screen, and electronic device thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110829

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111129

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111202

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111214

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111219

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120130

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120730

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121029

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20121101

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121129

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20121204

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121227

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130107

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131031

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20131107

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20140124