JP2013514590A - 動作モードを変更する方法および装置 - Google Patents

動作モードを変更する方法および装置 Download PDF

Info

Publication number
JP2013514590A
JP2013514590A JP2012544573A JP2012544573A JP2013514590A JP 2013514590 A JP2013514590 A JP 2013514590A JP 2012544573 A JP2012544573 A JP 2012544573A JP 2012544573 A JP2012544573 A JP 2012544573A JP 2013514590 A JP2013514590 A JP 2013514590A
Authority
JP
Japan
Prior art keywords
input
mode
gesture
processing system
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012544573A
Other languages
English (en)
Other versions
JP5862898B2 (ja
JP2013514590A5 (ja
Inventor
ショーン, ピー. デイ,
ジュニア., レイモンド, エー. トレント,
ディビッド, ダブリュー. ガレスピー,
Original Assignee
シナプティクス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シナプティクス インコーポレイテッド filed Critical シナプティクス インコーポレイテッド
Publication of JP2013514590A publication Critical patent/JP2013514590A/ja
Publication of JP2013514590A5 publication Critical patent/JP2013514590A5/ja
Application granted granted Critical
Publication of JP5862898B2 publication Critical patent/JP5862898B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一つの検知素子(及びおそらくは他の検知素子)と該検知素子に接続された処理システムとを備える入力装置が開示される。処理システムは、第1のモードで動作し、検知領域内の特徴的オブジェクト運動を認識することに応じて第1のモードでの動作から第2のモードでの動作に変化し、第2のモードで動作するように構成されている。第1のモードはポインティングモードであってよく、第2のモードは拡張ジェスチャモードであってよい。処理システムは、ポインティングモードの間は、検知領域内の第1の種類のスライド入力をポインティング指令と認識し、拡張ジェスチャモードの間は、検知領域内の第1の種類のスライド入力を複数のジェスチャ指令(複数の異なるジェスチャ動作に関連付けられている)の一つと認識する。方法およびプログラム製品も開示される。
【選択図】図2

Description

[0001]この出願は2010年7月17日に出願された米国特許出願第12/836,397号の優先権を主張すると共に、2009年12月18日に出願された米国仮特許出願第61/288,109号、2010年3月5日に出願された米国仮特許出願第61/311,040、および2010年6月8日に出願された米国仮特許出願第61/352,712号の優先権を主張する。これらの出願は、すべて参照によって本書に組み込まれる。
[0002]この発明は、一般に電子装置に関する。
[0003]近接センサ装置(一般にタッチパッドまたはタッチセンサ装置とも呼ばれる)を含む入力装置は、様々な電子システムにおいて広く使用されている。近接センサ装置は通常、検知領域を含む。この検知領域は、一つの表面によって画定されることが多い。近接センサ装置は、この表面において、一つ以上の入力オブジェクトの存在、位置、および/または動きを測定する。近接センサ装置は、電子システムにインタフェースを提供するために使用されてもよい。例えば、近接センサ装置は、より大きなコンピューティングシステムのための入力装置(例えば、ノートパソコンやデスクトップコンピュータに組み込まれた、またはそれらの周辺機器である不透明タッチパッド)として、しばしば使用される。近接センサ装置は、より小さなコンピューティングシステムにおいても、しばしば使用される(例えば、携帯電話に組み込まれたタッチスクリーン)。
[0004]入力装置の改良が継続的に望まれている。
[0005]一つの検知素子(およびおそらくは他の検知素子)と、その検知素子に接続された処理システムとを備える入力装置が開示される。検知素子は、検知領域内のオブジェクト運動を検出するように構成されている。処理システムは、第1のモードで動作し、検知領域内の特徴的オブジェクト運動を認識することに応じて第1のモードでの動作から第2のモードでの動作に変化し、第2のモードで動作するように構成されている。第1のモードはポインティングモードであってもよく、第2のモードは拡張ジェスチャモードであってもよい。拡張ジェスチャモードの間、処理システムは、複数の異なるジェスチャ動作に関連付けられた複数のジェスチャ指令を認識する。このため、処理システムは、ポインティングモードの間は、検知領域内の第1の種類のスライド入力をポインティング指令と認識し、拡張ジェスチャモードの間は、検知領域内の第1の種類のスライド入力を複数のジェスチャ指令の一つと認識する。
[0006]近接センサ装置および表示画面を備える電子システムを動作させる方法が開示される。近接センサ装置は、検知領域内のオブジェクト運動を検出するように構成され、表示画面は、視覚表示を提供するように構成されている。この方法は、ポインティングモードでの動作を含んでいる。ここでは、電子システムが、ポインティングモードの間、検知領域内の複数の種類のスライド入力を、前記視覚表示と相互作用するためのポインティング指令と認識するように構成される。この方法は、検知領域内の特徴的オブジェクト運動をモード変更ジェスチャと認識することに応じて、ポインティングモードでの動作から拡張ジェスチャモードでの動作に変化することを更に含んでいる。拡張ジェスチャモードの間、電子システムは、前記複数の種類のスライド入力を、複数の異なるジェスチャ動作に関連付けられた複数のジェスチャ指令と認識するように構成される。この方法は、電子システムが拡張ジェスチャモードで動作していることを示す、ユーザが感知可能なフィードバックを提供することも含む。
[0007]少なくとも一つの検知素子、入力オブジェクトによって接触される入力面、および前記少なくとも一つの検知素子に接続された処理システムを備える入力装置が開示される。処理システムは、前記少なくとも一つの検知素子を操作して、入力面に到来する入力オブジェクトおよび入力面から上昇する入力オブジェクトを検出し、かつ、モード変更ジェスチャの識別に応じて第1の動作モードから第2の動作モードへ変化するように構成されている。モード変更ジェスチャは、一組の入力オブジェクトが入力面に到来し、その後、該一組の入力オブジェクトの第1の部分集合が入力面から上昇する一方で、該一組の入力オブジェクトの第2の部分集合が入力面に残ることを含む入力シーケンスを含んでいる。第1の部分集合および第2の部分集合は、双方とも、該一組の入力オブジェクトの非空の真部分集合である。
[0008]近接センサプログラムを保持する非一時的電子媒体を備えるプログラム製品が開示される。この電子媒体は、処理システムによって読取り可能である。この入力装置プログラムは、入力装置を操作して、入力面に到来する入力オブジェクトおよび入力面から上昇する入力オブジェクトを検出し、モード変更ジェスチャを識別し、モード変更ジェスチャの識別に応答して第1の動作モードから第2の動作モードに変化するために処理システムによって実行可能である。モード変更ジェスチャは、複数の入力オブジェクトが入力面に到来し、その後、その複数の入力オブジェクトの少なくとも一つが入力面から上昇する一方で、その複数の入力オブジェクトの少なくとも別の一つが入力面に残ることを含む入力シーケンスを含んでいる。
[0009]本発明の好ましい典型的な実施形態を、添付の図面とともに以下で説明する。これらの図面において、同様の符号は同様の要素を示す。
本発明の実施形態に係る典型的な入力装置のブロック図である。 本発明の実施形態に係る図1の典型的な入力装置の可能な動作を示す状態図である。 本発明の実施形態に係る図1の典型的な入力装置の可能な動作を示す状態図である。 本発明の実施形態に係る接触状態の変化例の平面図および側断面図である。 本発明の実施形態に係る接触状態の変化例の平面図および側断面図である。 本発明の実施形態に係る接触状態の変化例の平面図である。 本発明の実施形態に係る例示のモード切替ジェスチャの平面図である。 本発明の実施形態に係る例示のモード切替ジェスチャの平面図である。 本発明の実施形態に係る例示のモード切替ジェスチャの平面図である。 本発明の実施形態に係る例示のモード切替ジェスチャの平面図である。 本発明の実施形態に係る例示のモード切替ジェスチャの平面図である。 本発明の実施形態に係る例示の方法のフローチャートである。 本発明の実施形態に係る例示の方法のフローチャートである。 本発明の実施形態に係る例示の方法のフローチャートである。 拡張ジェスチャモードを示す画面の例である。 例示のジェスチャ指令および例示の動作を示す図表である。 例示のジェスチャ指令および例示の動作を示す図表である。 例示のジェスチャ指令および例示の動作を示す図表である。
[0017]以下の詳細な説明は、単なる例示に過ぎず、本発明または本出願を限定し、あるいは本発明の用途を限定する意図はない。更に、前述の技術分野、背景および概要または以下の詳細な説明において表現または示唆される理論に束縛される意図もない。
[0018]本発明の種々の実施形態は、改善されたユーザビリティを実現する入力装置および入力方法を提供する。
[0019]ここからは図面を参照する。本発明の実施形態に係る典型的な入力装置100のブロック図である。入力装置100は、ある電子システム(図示せず)への入力を提供するように構成されてよい。本書において使用されるように、「電子システム」(「電子装置」とも呼ばれる)は、情報を電子的に処理することの可能な任意のシステムを広く指す。電子システムの非限定的な例には、以下が含まれる。すなわち、例示の電子システムには、あらゆるサイズおよび形状のパーソナルコンピュータ、例えば、デスクトップコンピュータ、ラップトップコンピュータ、タブレット、ウェブブラウザ、ブックリーダー、およびパーソナルディジタルアシスタント(PDA)が含まれる。更なる例示の電子システムには、複合入力装置、例えば、入力装置100と独立したジョイスティックまたはキースイッチとを含む物理的キーボードが含まれる。更なる例示の電子システムには、周辺機器、例えば、データ入力装置(リモートコントロール装置およびマウスを含む)およびデータ出力装置(表示画面およびプリンタを含む)が含まれる。他の例には、リモート端末、キオスクおよびテレビゲームマシンが含まれる。他の例には、コミュニケーション装置(スマートフォンなどの携帯電話を含む)およびメディア装置(レコーダ、エディタおよびプレイヤ(例えば、テレビジョン、セットトップボックス、音楽プレイヤ、デジタルフォトフレームおよびデジタルカメラ)を含む)が含まれる。さらに、電子システムは、入力装置に対するホストまたはスレーブであることが可能である。
[0020]入力装置100は、電子システムの物理的な一部分として実装することができ、あるいは電子システムから物理的に分離することができる。入力装置100は、以下のうち任意の一つ以上を用いて、適宜、電子システムの各部と通信してよい。すなわち、バス、ネットワークおよび他の有線または無線相互接続である。その例には、IC、SPI、PS/2、ユニーバーサルシリアルバス(USB)、ブルートゥース、RFおよびIRDAが含まれる。
[0021]図1では、入力装置100が、検知領域120内の一つ以上の入力オブジェクト140によって提供される入力を検知するように構成された近接センサ装置(タッチパッドまたはタッチセンサ装置と呼ばれることも多い)として示されている。図1に示すように、例示の入力オブジェクトは、指およびスタイラスを含む。
[0022]検知領域120は、入力装置100の上方、周囲、内部、および/または付近の任意の空間であって、入力装置100がユーザ入力を検出することができる空間を包含する。特定の検知領域のサイズ、形状および位置は、実施形態によって大きく異なってよい。幾つかの実施形態では、検知領域120は、十分に正確なオブジェクト検出が信号対雑音比によって妨げられるようになるまで、入力装置100の表面から一つ以上の方向に沿って空間内へ広がっている。種々の実施形態において、検知領域120が特定の方向に広がる距離は、1ミリメートル未満、数ミリメートル未満、数センチメートル未満、またはそれ以上のオーダーであってもよく、また、使用される検知技術の種類および要求される精度に応じて大きく異なってよい。このため、幾つかの実施形態は、入力装置100の任意の表面との接触を含まない入力、入力装置100の入力面(例えばタッチ面)との接触を含む入力、ある量の印加力または印加圧力に結びついた、入力装置100の入力面との接触、および/またはそれらの組合せを含む入力を検知する。幾つかの実施形態では、検知領域120は、入力装置100の入力面に投影されると、方形の形状を有する。
[0023]入力装置100は、検知領域120内のユーザ入力を検出するために、センサ部品と検知技術の任意の組合せを利用してよい。入力装置100は、ユーザ入力を検出するための一つ以上の検知素子を含む。いくつかの限定的でない例として、入力装置100は、静電容量技術、エラスティブ(elastive)技術、抵抗技術、誘導技術、弾性表面波(surface acoustic wave)技術、および/または光学技術を使用してよい。
[0024]ある実装は、1次元、2次元、3次元、またはより高次元の空間に広がる像を提供するように構成される。ある実装は、特定の軸または平面に沿って入力の投影を提供するように構成される。
[0025]入力装置100のある抵抗型実装では、柔軟で導電性の第1の層が、導電性の第2の層から一つ以上のスペーサ要素によって分離される。動作中、一つ以上の電圧勾配がそれらの層にまたがって生成される。柔軟な第1の層を押すことで、その層を十分に歪ませて、これらの層間に電気的コンタクトを生成し、その結果、層間コンタクトの一つ以上の地点を反映する電圧出力を得てもよい。この電圧出力は、位置情報を測定するために使用してよい。
[0026]入力装置100のある誘導型実装では、一つ以上の検知素子が、一つの共振コイルまたは一対のコイルによって誘起されるループ電流を検出する。それらの電流の大きさ、位相および周波数のある組合せを用いて、位置情報を測定してもよい。
[0027]入力装置100のある静電容量型実装では、電界を生成するために電圧または電流が印加される。付近の入力オブジェクトは、その電界の変化を引き起こし、電圧、電流、その他の変化として検出することのできる静電容量結合の検出可能な変化を生成する。
[0028]ある静電容量型実装は、電界を生成するために、複数の静電容量型検知素子の配列または他のパターンを利用する。ある静電容量型実装では、個別の複数の検知素子をオーミックに短絡して、より大きなセンサ電極を形成してもよい。ある静電容量型実装は、抵抗シートを利用する。この抵抗シートは、一様な抵抗を有していてもよい。
[0029]ある静電容量型実装は、センサ電極および入力オブジェクト間の静電容量結合の変化に基づく「自己容量」(「絶対容量」とも呼ばれる)検知法を利用する。種々の実施形態では、センサ電極の付近の入力オブジェクトは、センサ電極付近の電界を変化させ、その結果、計測される静電容量結合を変える。ある実装では、絶対容量検知方法は、センサ電極を参照電圧(例えばシステムグランド)に対して変調すること、並びにセンサ電極および入力オブジェクト間の静電容量結合を検出することによって実行される。
[0030]ある静電容量型実装は、センサ電極間の静電容量結合の変化に基づく「相互容量」(「トランスキャパシタンス(transcapacitance)」とも呼ばれる)検知法を利用する。種々の実施形態では、センサ電極付近の入力オブジェクトがセンサ電極間の電界を変化させ、その結果、計測される静電容量結合を変える。ある実装では、一つ以上の送信電極と一つ以上の受信電極との間の静電容量結合を検出することによってトランスキャパシティブ検知法が実行される。送信センサ電極は、送信を容易にするために参照電圧(例えばシステムグランド)に対して実質的に変調されていてもよく、また、受信センサ電極は、受信を容易にするために参照電圧に対して実質的に一定に保たれてもよい。センサ電極は、送信専用または受信専用であってもよいし、あるいは送信と受信の双方を行ってもよい。
[0031]図1では、処理システム(または「プロセッサ」)110が、入力装置100の一部として示されている。処理システム110は、入力装置100のハードウェアを操作して検知領域120内の入力を検出するように構成されている。処理システム110は、一つ以上の集積回路(IC)の一部またはすべてを備えており、幾つかの実施形態では、処理システム110は、ファームウェアコード、ソフトウェアコード、および/または他の同様のものも備えている。幾つかの実施形態では、処理システム110を構成する複数の部品がひとまとめに配置され、例えば入力装置100の検知素子の付近に配置されている。他の実施形態では、処理システム110の部品が物理的に分離され、一つ以上の部品が入力装置100の検知素子に近接し、一つ以上の部品は別の場所に配置される。例えば、入力装置100は、デスクトップコンピュータの周辺機器であってもよく、処理システム110は、そのデスクトップコンピュータの中央処理装置上で実行されるように構成されたソフトウェアと、中央処理装置から分離された一つ以上のIC(おそらくは、関連ファームウェアを伴う)とを備えていてもよい。別の例として、入力装置100は、電話機に物理的に組み込まれてもよく、処理システム110は、その電話機のメインプロセッサの一部である回路およびファームウェアを含んでもよい。幾つかの実施形態では、処理システム110は、入力装置100を実装するために専ら用いられる。他の実施形態では、処理システム110も他の機能、例えば、表示画面の操作、触覚アクチュエータ(ハプティックアクチュエータ)の駆動など、を実行する。
[0032]処理システム110は、処理システム110の様々な機能を扱う一組のモジュール群として実装されてもよい。各モジュールは、処理システム110の一部、ファームウェア、ソフトウェアまたはこれらの組合せである回路を含んでもよい。種々の実施形態では、モジュールの様々な組合せが使用できる。モジュールの例は、センサ電極や表示画面などのハードウェアを操作するハードウェア操作モジュール、センサ信号や位置情報などのデータを処理するデータ処理モジュール、および情報を報告する報告モジュールを含む。モジュールの別の例は、検知素子を操作して入力を検出するように構成されたセンサ操作モジュール、モード変更ジェスチャなどのジェスチャを識別するように構成された識別モジュール、および動作モードを変更するモード変更モジュールを含む。
[0033]幾つかの実施形態では、動作を起こすことにより、処理システム110が検知領域120内のユーザ入力(またはユーザ入力の欠如)に直接的に応答する。動作の例としては、動作モードの変更に加えて、GUI動作、例えばカーソル移動、選択、メニューナビゲーション、および他の機能が挙げられる。幾つかの実施形態では、処理システム110は、入力(または入力の欠如)に関する情報を、電子システムのある部分(例えば、その電子システムに処理システム110とは別個の中央処理システムが存在する場合は、その別個の中央処理システム)に提供する。幾つかの実施形態では、例えばモード変更動作およびGUI動作を含むひととおりの動作を容易にするために、電子システムの一部が、処理システム110から受け取った情報を処理してユーザ入力に影響を与える。
[0034]例えば、幾つかの実施形態では、処理システム110は、入力装置100の検知素子を操作して、検知領域120内の入力(または入力の欠如)を示す電気信号を生成する。処理システム110は、電子システムに提供される情報を生成する際に、任意の適切な量の処理をその電気信号に施してもよい。例えば、処理システム110は、その電気信号を単にデジタル化してもよい。別の例として、処理システム110は、フィルタリングまたは他の信号調整を実行してもよい。更に別の例として、処理システム110は、情報が電気信号とベースラインとの差を反映するように、ベースラインを減ずるか、他の方法によってベースラインを考慮してよい。また、更に別の例として、処理システム110は、「位置情報」を測定したり、入力を指令(コマンド)として認識したり、手書きを認識したりするなどしてもよい。
[0035]本書で使用される「位置情報」は、絶対的な位置、相対的な位置、速度、加速度、および他の種類の空間情報を広く包含する。種々の形態の位置情報は、時間の経過に伴う動きを追跡する場合のように、時間履歴成分を含んでもよい。典型的な「ゼロ次元」位置情報は、近い/遠いという情報や、接触/非接触という情報を含む。典型的な「1次元」位置情報は、一つの軸に沿った位置を含む。典型的な「2次元」位置情報は、一つの平面に対する運動を含む。典型的な「3次元」位置情報は、空間内の速度を含む。他の例は、空間情報の他の次元および他の表現を含む。
[0036]幾つかの実施形態では、処理システム110によって操作され、あるいは、他の処理システムによって操作される追加の入力部品が入力装置100に実装される。この追加の入力部品は、検知領域120内での入力に冗長機能や他の機能を提供してよい。図1は、入力装置100を用いたアイテムの選択を容易にするために使用可能な、検知領域120付近のボタン130を示している。他の種類の追加入力部品には、スライダ、ボール、ホイール、スイッチなどが含まれる。逆に、幾つかの実施形態では、入力装置100に他の入力部品が実装されなくてもよい。
[0037]幾つかの実施形態では、入力装置100がタッチスクリーンインタフェースを含んでおり、検知領域120は、表示画面のアクティブ領域の少なくとも一部と重なっている。例えば、入力装置100は、表示画面に重なる実質的に透明なセンサ電極を含み、関連する電子システムにタッチスクリーンインタフェースを提供してもよい。表示画面は、視覚的インタフェースをユーザに対して表示することができる任意の種類の動的ディスプレイであってよく、また、任意の種類の発光ダイオード(LED)技術、有機LED(OLED)技術、陰極線管(CRT)技術、液晶ディスプレイ(LCD)技術、プラスマ技術、エレクトロルミネッセンス(EL)技術、または他のディスプレイ技術を含んでいてよい。入力装置100および表示画面は、物理的な要素を共有してもよい。たとえば、幾つかの実施形態は、同じ電気部品の一部を表示および検知のために利用してもよい。別の例として、表示画面は、処理システム110によって部分的または全体的に操作されてもよい。
[0038]本書では、本発明の多くの実施形態を、完全に機能する装置との関連で説明するが、本発明のメカニズムは、様々な形態のプログラム製品(例えばソフトウェア)として配布できることを理解されたい。例えば、本発明のメカニズムは、電子プロセッサによって読取り可能な情報保持媒体(例えば、処理システム110によって読取り可能な、非一時的コンピュータ読取り可能および/または記録/書込み可能情報保持媒体)上のソフトウェアプログラムとして実装され、配布されてもよい。さらに、本発明の実施形態は、配布を行うために使用される媒体の特定の種類にかかわらず等しく適用される。非一時的で電子的に読取り可能な媒体の例としては、種々のディスク、メモリスティック、メモリカード、メモリモジュールなどが挙げられる。電子的に読取り可能な媒体は、フラッシュ技術、光学技術、磁気技術、ホログラフィック技術、または他の任意のストレージ技術に基づくものであってよい。
[0039]以下の説明は、しばしば明確に処理システム110を参照する。しかし、そのような説明が処理システム110以外のシステムにも適用できることを理解されたい。すなわち、処理システム110以外のシステムは、個別に、相互に、または処理システム110との関連で説明される構成および方法、その他を実施してもよい。他のシステムの例としては、入力装置100や、他の処理システム(例えば、関連する電子システムの処理システムが存在し、その処理システムが、関連する処理システム110とは別個のものである場合は、その処理システム)が挙げられる。
[0040]例えば、以下で明確に概説される方法が処理システム110を参照する場合、処理システム110および処理システム110とは別個の中央処理システムを有する電子システムが、その中央処理システムを用いて、その方法の一部または全体を実行してもよい。その方法の任意の残りの部分が、処理システム110によって、あるいは電子システムの他の部分によって実行されてもよい。
[0041]図2は、図1の入力装置100の可能な動作を示す状態図である。図2は状態を円で示しており、状態の遷移は、円を結ぶ矢印で示されている。遷移を起こすイベントは、その関連する遷移によって名付けられる。処理システム110は、第1のモード210および第2のモード220で動作するように構成されている。処理システム110は、検知領域120内での特徴的なオブジェクトの運動をモード変更ジェスチャ215(例えば「起動ジェスチャ」)と認識することに応じて、第1のモード210での動作から第2のモード220での動作に変化する。
[0042]スライド入力は、ある量の横移動を伴うオブジェクト運動(一つ以上のオブジェクトの運動)を含む。スライド入力は、横移動をほとんどまたは全く伴わないオブジェクト運動を更に含んでいてもよい。例えば、検知領域120内のスライド入力を提供する入力オブジェクト140が接触可能な入力面を有する実施形態では、スライド入力は、入力面と平行な成分であって運動閾値より大きい成分を有する運動を含む。これらのスライド入力は、入力面に対して垂直な成分を有する運動を更に含んでもよい。
[0043]ポインティング指令として認識されるスライド入力は、一つ以上のポインティング動作を引き起こし、ナビゲーションおよび選択を容易にするために使用される。ポインティング動作は、デスクトップ画像、メニュー、および他のユーザインタフェース部品を横切りまたは通過するように、矢印、カーソル、ポインタ、アイコン、マーカなどを移動させる。
[0044]幾つかの実施形態では、第1モード210は「ポインティングモード」であり、第2モード220は「拡張ジェスチャモード」である。処理システム110は、ポインティングモードで動作するときは、検知領域120内における第1の種類のスライド入力を第1のポインティング指令と認識する。すなわち、処理システム110がポインティングモードで動作しているときに第1の種類のスライド入力が検知領域120内で与えられると、処理システム110は、その第1の種類のスライド入力をポインティング指令として扱う。対照的に、拡張ジェスチャモードで動作するときは、処理システム110は、第1の種類のスライド入力を、処理システム110が拡張ジェスチャモードにおいて認識する複数のジェスチャ指令のうちの第1のジェスチャ指令と認識する。ここで、これら複数のジェスチャ指令は、複数の異なるジェスチャ動作に関連付けられている。すなわち、処理システム110が拡張ジェスチャモードで動作しているときに第1の種類のスライド入力が検知領域120内で与えられると、処理システム110は、その第1の種類のスライド入力を、ポインティング指令の代わりにジェスチャ指令として扱う。このように、ポインティングモードで実行される第1の種類のスライド入力は、拡張ジェスチャモードで実行される第1の種類のスライド入力とは異なる結果を生じさせる。例えば、第1の種類のスライド入力は「C」形状を有してもよい。この第1の種類のスライド入力は、ポインティングモードでは、ディスプレイ上のC形状の経路に沿ってカーソルを移動させてもよく、また、拡張ジェスチャモードでは、アクティブなアプリケーションを終了させてもよい。
[0045]幾つかの実施形態では、処理システム110は、ポインティングモードで動作しているときに、検知領域120内における第2の種類のスライド入力を第2のポインティング指令と更に認識する。また、処理システム110は、検知領域120内における第2の種類のスライド入力を、処理システム110が拡張ジェスチャモードにおいて認識する複数のジェスチャ指令のうちの第2のジェスチャ指令と認識する。第2のジェスチャ指令は、第1のジェスチャ指令に関連付けられたジェスチャ動作と異なるジェスチャ動作に関連付けられている。例えば、第2の種類のスライド入力は、検知領域120の左下部から開始して右上部で終わる線状のストロークであってもよい。この第2の種類のスライド入力は、ポインティングモードでは、ディスプレイ上において右上にカーソルを移動させてもよく、また、拡張ジェスチャモードでは、ディスプレイウィンドウを最大化し、または元に戻してもよい。
[0046]種々の実施形態では、処理システム110は、検知領域内における3種類、4種類またはそれ以上の種類のスライド入力を、ポインティングモードでのポインティング指令および拡張ジェスチャモードでのジェスチャ指令と認識してよい。これらのジェスチャ指令は、同じまたは異なるジェスチャ動作に関連付けられてよい。
[0047]ジェスチャ指令とジェスチャ動作とは、一対一、多対一、または一対多の関係で関連付けられてもよい。複数の動作が同じジェスチャ指令に関連付けられている場合、それらの指令の結果は、コンテキスト(前後関係、文脈)や他の適切な判断基準によって調停されてもよい。
[0048]ジェスチャ指令の更なる例は、以下を含む。すなわち、画像の向きを変えるための2本指回転、アプリケーション切替えのため、またはメディア制御(例えば、再生/一時停止、停止、次、前)のための、左、右、上、または下への複数指(例えば2、3、4本指)ストローク、ズームレベル調整のための2本指ピンチ(つまむ)またはスプレッド(広げる)、スクロールのための1本指(または複数指)円運動、カット(切り取り)、コピーおよびペースト(貼り付け)のための3本指ピンチまたはスプレッド、およびウィンドウを元に戻すための3本指斜めストロークである。
[0049]複数のジェスチャ指令は、個々のジェスチャ指令の動作と異なる動作を生成するように、時間内につなぎ合わせることができる。例えば、幾つかの実施形態では、3本指ピンチはコピーを示し、3本指斜め上方ストロークはウィンドウのサイズを最大化させる。3本指ピンチの後に3本指斜め上方ストロークを続けるという組合せは、選択された一つ以上のアイテムのセキュリティアクセスを変更することや、そのアイテムをウェブサイトに投稿すること等によって、その選択されたアイテムを共有してもよい。
[0050]ここで図16〜図18を参照すると、種々のシステムおよび方法において実装することのできる複数のジェスチャ指令およびジェスチャ動作の例が示されている。例えば、あるシステムは、検知領域内で「大文字X」の動きを行うユーザが「ウィンドウを終了する」動作を生じさせるように実装されてもよい。第2の例として、検知領域内で「小文字b」の動きを行うユーザは、バンキングウェブサイトに移動するという動作を生じさせる。
[0051]図16〜図18のジェスチャ指令の例は特定の動作に関連付けられたものとして示されているが、このジェスチャ指令は、(図示の動作例に代えて、あるいはその動作例に加えて)他の動作に関連付けられてもよい。同様に、図示の動作例は、(図示のジェスチャ指令に代えて、あるいはそのジェスチャ指令に加えて)他のジェスチャ指令に関連付けられてもよい。さらに、種々の実施形態では、拡張ジェスチャモードがこれらの例の一部または全部を含んでいてもよいし、全く含んでいなくてもよい。ウェブサイトが動作例として表に挙げられている場合、その動作は、適宜、そのウェブサイトへ(例えば、現在のウィンドウまたはタブにおいて、あるいは新規のウィンドウまたはタブにおいて)ナビゲートすることであってもよいし、ウェブブラウザを起動してそのウェブサイトへナビゲートすることであってもよい。
[0052]ポインティングモードは、ポインティング動作を主な目的としており、ポインティング指令として認識される少なくとも1種類のジェスチャを有している。種々の実施形態では、ポインティングモードにおける大多数の入力がポインティング動作を生じさせる。幾つかの実施形態では、複数の異なる種類のオブジェクト運動(例えば、異なる長さ、経路方向、形状、タイミングなどを有する)が、同じ種類のポインティング指令(例えばカーソル移動)に関連付けられる。
[0053]拡張ジェスチャモードは、ジェスチャ指令を通じてより多くの動作をユーザが利用できるようにすることを主な目的としており、ジェスチャ指令と認識される少なくとも1種類のジェスチャを有している。種々の実施形態では、拡張ジェスチャモードにおける大多数の入力がジェスチャ動作を生じさせる。幾つかの実施形態では、複数の異なる種類のオブジェクト運動(例えば、異なる長さ、経路方向、形状、タイミングなどを有する)が、異なるジェスチャ指令(例えば、本書で説明される例)に関連付けられる。
[0054]ある電子装置または入力装置100は、ポインティング指令のため、およびジェスチャ指令のために、複数の入力オブジェクト140による入力(マルチタッチ)を受け付ける。そのような装置では、モードスイッチによって、ポインティング指令とジェスチャ指令とを容易に区別できるようにしてもよい。幾つかの実施形態では、モードスイッチによって、モードスイッチなしではサポートできないジェスチャ指令を処理システム110がサポートできるようにしてもよい。例えば、幾つかの実施形態では、第1の種類のスライド入力が、入力装置100の入力面上において指でクエスチョンマーク(「?」)をなぞることであってもよい。したがって、このスライド入力は、湾曲した経路と、それに続くタップを含む。ポインティングモードでは、指でクエスチョンマークを描くことで、最初は上向きから右に向かい、その後、真っ直ぐ下方に向かうように曲がるカーソル運動を生じさせてもよく、更にシミュレートされたボタンクリックを(タップの結果として)生じさせてもよい。拡張ジェスチャモードでは、指でクエスチョンマークを描くことで、ヘルプダイアログを起動したり、あるいは強調表示されたテキストの指向性検索(directed search)を(例えば、デスクトップ上で、あるいはウェブを介して)開始してもよい。このように、モードスイッチは、異なるモードの入力操作および所望の動作の区別を助けることができる。幾つかの実施形態では、拡張ジェスチャモードへのモードスイッチを用いることで、処理システム110は、カスタマイズされたジェスチャおよび/またはキャラクタ入力をポインティング操作からより良く区別できるようになっていてもよい。
[0055]幾つかの実施形態では、処理システム110は、幾つかの入力をポインティングモードでのジェスチャ指令として認識する。しかし、ポインティングモードで認識されるジェスチャ指令群は、拡張ジェスチャモードで認識されるジェスチャ指令群とは異なる。したがって、ポインティングモードで一つのジェスチャ指令として扱われる入力が、拡張ジェスチャモードでは異なるジェスチャ指令として認識されてよい。
[0056]幾つかの実施形態では、図2に示されるように、処理システム110は、モード変更イベント225に応答して、第2モード220での動作から第1モード210での動作へ変化する。
[0057]図3も、図1の入力装置100の可能な動作を示す状態図である。図3は、幾つかの実施形態のための、第2モード220から第1モード210までの他の経路を示している。図3では、処理システム110が、モード変更ジェスチャ215に応答して第1モード210から第2モード220に切り替わり、イベントA 325に応答して第2モード220から第3のモード330に切り替わり、イベントB 335に応答してその第3モードから第1モード210に切り替わる。
[0058]図2は二つの状態(第1モード210および第2モード220)および二つの経路(モード変更ジェスチャ215およびモード変更イベント225)を示しており、図3は状態同士の間に単方向経路をそれぞれ有する三つの状態を示しているが、本発明の種々の実施形態は、任意の数の状態や単方向経路または双方向経路を有することができる。
[0059]モード変更ジェスチャ215は、任意の適切な特徴的オブジェクト運動を含んでもよい。幾つかの実施形態は、1種類の特徴的オブジェクト運動のみをモード変更ジェスチャ215として認識するが、他の実施形態は、複数の異なる種類の特徴的オブジェクト運動をモード変更ジェスチャ215として認識する。
[0060]どの特徴的オブジェクト運動がモード変更ジェスチャ215として認識されるかは、システムがエンドユーザに届く前にあらかじめ設定されてもよいし、エンドユーザーによって設定されてもよいし、その両方であってもよい。どの特徴的オブジェクト運動がモード変更ジェスチャ215として認識されるかは、固定(ユーザによる変更不可)であってもよいし、ユーザによって変更可能であってもよい。例えば、一つ以上のモード変更ジェスチャ215がソフトウェアによって予め設定されてもよく、ユーザがそれを変更することが不可能であってもよい。別の例として、複数のモード変更ジェスチャ215が、システムがエンドユーザに届く前にソフトウェアによって、または何らかの存在(エンティティ)によって予め設定されてもよく、ユーザが、それら複数のモード変更ジェスチャ215の一つ以上を、ユーザが使用を好むジェスチャとして選択することが可能であってもよい。更なる例として、ユーザは、モード変更ジェスチャ215を微調整すること(例えば、3本指タップとして認識されるために入力に求められる接触時間、特定のストロークに関して受け入れられるサイズ範囲、またはジェスチャの他の特徴を変更することなど)が可能であってもよい。更に別の例として、ユーザは、これらのモード変更ジェスチャ215を実質的に変更するか、それらに影響を与えてもよいし、あるいはこれらのモード変更ジェスチャ215を完全に定義してもよい。
[0061]幾つかの実施形態では、モード変更ジェスチャ215は、一つ以上の入力オブジェクト140の接触状態の変化を伴う。接触状態の変化は、接触と非接触との間で変化することを含んでもよい。例えば、図4(a)は、入力装置100の幾つかの実施形態で見られる部品452の入力面450と接触している指440を示している。入力面450は、指440が検知領域120内で入力を提供しようとしているときに指440が接触可能なように構成されている。部品452は、複数のセンサ電極が配置されたセンサ基板を備えていてもよい。図4(a)は、円442を用いて、指440と入力面450との接触を示す。
[0062]図4(a)から図4(b)に移ると、指440は接触状態を変えている。具体的には、指440は入力面450から上昇し、もはや入力面450とは接触していない。図4(a)は、この非接触状態を破線の円444で示す(図4(b)も指440を検知領域120から出たものとして示しているが、これは実施形態によっては異なっていてもよい)。図4(a)および図4(b)は、指440の接触状態を接触から非接触(あるいは、その逆)に変えることを表している。
[0063]別の例として、図5(a)は、入力装置100の幾つかの実施形態で見られる部品552の入力面550と接触している指540を示している。部品552は、入力装置100の他の部分(例えば、ブラケット554およびベース556)に対して相対的に移動されてもよい。部品552を入力装置100の残りの部分と物理的に接続し、および/または部品552の移動を案内する機械部品は、図示されていない。図5(a)および図5(b)は、指540の接触状態の変化を表している。具体的には、指540は、図5(b)において図5(a)よりも大きな程度で入力面550を押圧しており、入力面550がベース556に向けて距離dだけ下降するようになっている。図5(b)は、この押圧状態(または更に押圧された状態)を、強調付きの円544で示している。
[0064]幾つかの実施形態では、処理システム110は、入力面550の下降または他の移動に関連付けられた作動距離よりも距離dが大きい場合に、指540の接触状態が変化したと考える。幾つかの実施形態では、この距離dは、スナップドーム(snap dome)やタクトスイッチ(tact switch)などの作動に結びついている。例えば、入力装置100の幾つかの実施形態は、入力面550の十分な移動によって作動するように構成されたスイッチを備えている。そのような実施形態には、種々の商用電話およびラップトップにおいて見られるクリッカブル(クリック可能な)タッチセンサが含まれる。そのような実施形態では、接触状態の変化が起こったことを判定するステップが、スイッチの作動を判定することを含んでいてもよい。
[0065]図5(a)〜図5(b)は、部品552が並進運動して入力面550の下降に対応する実施形態を示している。幾つかの実施形態では、入力面550は、部品552または入力装置100の他の部品の変形または他の再構成を通じて少なくとも部分的に移動する。図5(a)〜図5(b)に示すように、検知領域120も入力面550とともに移動する。しかし、幾つかの実施形態では、検知領域120は、入力面550の下降とともに移動しない(あるいは、わずかしか移動しない)。また、幾つかの実施形態では、検知領域120は、入力面550の移動とともに形状が変化する。
[0066]図5(a)〜図5(b)は、処理システム110が入力面550の移動を検出することにより押圧接触状態を判定する実施形態を示している。幾つかの実施形態では、処理システム110は、少なくとも部分的に他の特性を用いて、押圧接触状態を判定する。例えば、幾つかの実施形態では、処理システム110は、静電容量結合の変化の大きさ、接触面積、接触領域の形状、接触領域の変化、指540によって印加される押圧力(個別に、あるいは他の入力オブジェクトとの合計で)、これらの組合せなどを調べる。これらの特性は、検知領域120内の入力を検出するために使用される同じ検知素子によって(おそらくは、検知領域120内の入力を検出する間に受信される同じ信号までも用いて)検出されてもよいし、他のセンサ(スイッチを含む)によって検出されてもよいし、それらの組合せによって検出されてもよい。
[0067]図6(a)〜図6(i)は、入力面650上の2個の入力オブジェクトに関する接触状態の変化の例を示している。具体的には、図6(a)は、2個の入力オブジェクトが入力面650と接触している(かつ入力面650を押圧しておらず、より激しく押圧してもいない)第1の接触状態(円621および622によって示される)を示している。一方、図6(b)〜図6(i)は、入力オブジェクトの数が変化しないと想定して、それらの入力オブジェクトに関する後の接触状態の例を示している。図6(b)および図6(c)は、押圧(または、より押圧された)状態にある一方の入力オブジェクト(強調付きの円631および634で示される)と、入力面650と接触していないもう一方の入力オブジェクト(破線の円632および633で示される)を示す。図6(d)および図6(e)は、押圧(または、より押圧された)状態にある一方の入力オブジェクト(強調付きの円635および638で示される)と、入力面650と接触しているが押圧状態にはないもう一方の入力オブジェクト(円636および637で示される)を示す。図6(f)は、入力面650と接触していない2個の入力オブジェクト(破線の円641および642で示される)を示す。図6(g)は、押圧(または、より押圧された)状態にある2個の入力オブジェクト(強調付きの円643および644で示される)を示す。図6(h)および図6(i)は、入力面650と接触している(かつ入力面650を押圧しておらず、より激しく押圧してもいない)一方の入力オブジェクト(円645および648で示される)と、入力面650と接触していないもう一方の入力オブジェクト(破線の円646および647で示される)を示す。
[0068]図6(a)は、図6(b)〜図6(i)の一つ以上との組合せによって、接触状態の例示の変化を示しているに過ぎず、接触状態の他の種類の変化も可能である。例えば、開始時の接触状態が異なってもよい。別の例として、入力オブジェクトの数が両時点とも2個でなくてもよい。そのような例では、他の順列が可能である。
[0069]幾つかの実施形態では、特徴的オブジェクト運動をモード変更ジェスチャ215として認識するステップが、検知領域120内で検出されたオブジェクト運動が入力面上の複数の入力オブジェクトを含むことを判定するステップ、および入力面上の複数の入力オブジェクトの少なくとも一つがその接触状態を変えることを判定するステップを含んでいる。幾つかの実施形態では、モード変更ジェスチャ215は、複数の入力オブジェクトの少なくとも一つがその接触状態を複数回変えることを判定することを含んでいる。
[0070]幾つかの実施形態では、処理システム110は、複数の入力オブジェクトが入力面に1回(または2回以上)接触することを含む特徴的オブジェクト運動をモード変更ジェスチャ215と認識する。オブジェクト運動をモード変更ジェスチャ215として認識する際、処理システム110は、接触/非接触の持続時間、入力面からの距離、印加される力などの入力特性に種々の判断基準を適用してもよい。
[0071]幾つかの実施形態は、連続して検出される複数のタップをモード変更ジェスチャ215として認識する。例えば、幾つかの実施形態は、単一の入力オブジェクトによる2回、3回、4回またはより多数回のタップをモード変更ジェスチャ215と考えてもよい。別の例として、幾つかの実施形態では、特徴的オブジェクト運動をモード変更ジェスチャ215として認識するステップは、複数の入力オブジェクトが入力面を1回(または2回以上)実質的に同時にタップしていると判定することを含んでいる。特定の例として、幾つかの実施形態は、入力面を2回タップした2個の入力オブジェクトを探してもよいし、幾つかの実施形態は、入力面を2回タップした3個の入力オブジェクトを探してもよい。まだ別の特定の例として、幾つかの実施形態は、2個の入力オブジェクトが入力面をタップし、その後、3個の入力オブジェクトが入力面をタップすること、またはその逆を探してもよい。このように、種々の実施形態では、モード切替ジェスチャとして認識される特徴的オブジェクト運動が、入力オブジェクトの個数と繰返しを任意に組み合わせたタッピングを含んでよい。
[0072]幾つかの実施形態は、入力オブジェクトの到来、入力オブジェクトの離脱、またはその双方の同時発生に厳しい要件を定める。他の実施形態はそのような要件を定めない。例えば、幾つかの実施形態は、指定された時間内に到来(または離脱)する複数の入力オブジェクトを「同時」として受け入れる。この指定時間は、通常のユーザがそれらの入力オブジェクトの到来時点または離脱時点を区別して知覚しないように、人間の知覚能力に合わせたものであってよい。到来および離脱の双方について時間を指定する実施形態では、これらの時間は、同じ長さであってもよいし、異なる長さであってもよい。
[0073]幾つかの実施形態は、ジェスチャ指令として認識されてもよいオブジェクト運動を提供するために1個の入力オブジェクトが入力面へ戻るか否かを監視してもよい。幾つかの実施形態は、複数(例えば2個、3個、その他)の入力オブジェクトの戻りを監視してもよい。幾つかの実施形態は、戻ってくる入力オブジェクトの数にはとらわれず、検知領域120内で提供される次の入力を、可能なジェスチャ指令と考える。幾つかの実施形態では、ジェスチャ指令またはジェスチャ指令と認識されてもよいオブジェクト運動を提供するための入力オブジェクトが、ある期間(例えば、特徴的オブジェクト運動の終了後の期間や、第2モードの開始後の期間など)内に到来しなければならないように、タイムアウトが存在する。
[0074]図7は、幾つかの実施形態においてモード変更ジェスチャとして認識されてもよい特徴的オブジェクト運動の一例を提供する2個の入力オブジェクトを示す。図7(a)では、2個の入力オブジェクト140は、検知領域120内にあるかもしれないが、入力装置の幾つかの実施形態で見られる入力面750には接触していない(破線の円741および742によって示される)。次いで、図7(b)に示されるように、入力オブジェクトは、入力面750と接触する(円743および744によって示される)。その後、図7(c)に示されるように、入力オブジェクト140は、入力面750と接触しなくなる(破線の円745および746によって示される)。この入力シーケンスは、2個の入力オブジェクトによる単一のタップを構成するものと考えてよい。
[0075]図7は2個の入力オブジェクトによるタップを示しているが、幾つかの実施形態は、2個、3個、および4個の入力オブジェクトを含む他の個数の入力オブジェクトによるタップが行われたか否かを監視する。幾つかの実施形態は、特定の入力オブジェクト140(例えば、手全体と、おそらくはある本数の指との組合せ)によるタップが行われたか否かを監視する。
[0076]また、図7は入力面750の長辺に沿って並ぶような向きを有する2個の入力オブジェクトを示しているが、その向きは、特定の入力が特徴的オブジェクト運動(モード変更ジェスチャ215と認識されるもの)を含むか否かを判断する際に、実施形態によって考慮されてもよいし、考慮されなくてもよい。例えば、幾つかの実施形態は、複数の入力オブジェクトの配列を調べ、それらが入力面の長辺または短辺(または他の特徴)に沿って並ぶことを要求してもよく、その一方で、幾つかの実施形態は、入力オブジェクト間の距離、入力オブジェクトの種類、入力オブジェクトの向きなどを調べてもよい。別の例として、幾つかの実施形態は、そのような変形例と同様の応答を示し、あるいはそのような変形例と異なる応答を示さない。
[0077]別の例として、特徴的オブジェクト運動をモード変更ジェスチャ215と認識するステップは、一つ以上の入力オブジェクト(入力面に接触している複数の入力オブジェクトの一つ以上)が入力面を実質的に同時に押し下げる、または比較的激しく押圧することを判定するステップを含んでもよい。図8は、そのような特徴的オブジェクト運動を提供する2個の入力オブジェクトを示す。図8(a)では、入力装置100の幾つかの実施形態で見られる入力面850に2個の入力オブジェクトが接触しているが、十分に押圧してはいない(円841および842によって示される)。次いで、図8(b)に示されるように、入力オブジェクト140が入力面850を押圧する(強調付きの円843および844によって示される)。その後、図8(c)に示されるように、入力オブジェクトは入力面850に接触するが、押圧はしなくなる(円845および846によって示される)。
[0078]更なる例として、幾つかの実施形態では、接触状態の変化は、入力面上の複数の入力オブジェクトの少なくとも一つ(かつ、入力面上の複数の入力オブジェクトのすべてではない)が入力面から上昇することを含んでいる。そのような実施形態では、特徴的オブジェクト運動をモード変更ジェスチャ215と認識するステップは、以前に入力面上にあった複数の入力オブジェクトの第1の部分集合が入力面から上昇し、その複数の入力オブジェクトの第2の部分集合が入力面上に残ることを判定するステップを含んでもよい。第1および第2の部分集合は、各部分集合がその複数の入力オブジェクトの少なくとも一つ(そして全部ではない)を含むように、その複数の入力オブジェクトの非空の真部分集合である。言い換えると、そのような実施形態では、特徴的オブジェクト運動をモード変更ジェスチャ215と認識するステップは、以前に入力面上にあった複数の入力オブジェクトの少なくとも一つが入力面から上昇し、その複数の入力オブジェクトの少なくとも別の一つが入力面上に残ることを判定するステップを含んでもよい。図9は、そのような特徴的オブジェクト運動を提供する2個の入力オブジェクト140を示す。
[0079]図9(a)では、2個の入力オブジェクトが、入力装置100の入力面950から広がる検知領域内にあるかもしれないが、入力面950に接触してはいない(破線の円941および942によって示されている)。次いで、図9(b)に示されるように、それらの入力オブジェクトは入力面950に接触する(円943および944によって示される)。その後、図9(c)に示されるように、入力オブジェクトの一つは入力面950に接触し(円945によって示される)、入力オブジェクトの一つは入力面950に接触しない(円946によって示される)。
[0080]さらに別の例として、特徴的オブジェクト運動をモード変更ジェスチャ215と認識するステップは、複数の入力オブジェクトが入力面に実質的に同時に接触すること、入力面から実質的に同時に上昇すること、および入力面に実質的に同時に再接触することを判定するステップを含んでもよい。図10は、2個の入力オブジェクトによる、そのようなシーケンスの提供を示している。図10(a)では、2個の入力オブジェクトが、入力装置100の入力面1050から広がる検知領域120内にあるかもしれないが、入力面1050と接触してはいない(破線の円1041および1042によって示される)。次いで、図10(b)に示されるように、それらの入力オブジェクトは入力面1050に接触する(円1043および1044によって示される)。その後、図10(c)で示されるように、それらの入力オブジェクトは入力面1050と接触しなくなる(破線の円1045および1046によって示される)。それから、図10(d)で示すように、それらの入力オブジェクトは入力面1050と再び接触する(円1047および1048によって示される)。
[0081]幾つかの実施形態では、特徴的オブジェクト運動をモード変更ジェスチャ215と認識するステップは、特徴的オブジェクト運動が一つ以上の物理的機能スイッチ、例えばボタンやキーパッドキー、の作動と実質的に同時に起こることを検出するステップを含んでもよい。図11は、そのようなシーケンスの一例を提供する1個の入力オブジェクトを示している。図11では、キー1170が作動させられている間に、入力装置100の幾つかの実施形態で見られる入力面1150と接触する入力オブジェクトが「S」を描く(円1142および経路1160によって示される)。
[0082]幾つかの実施形態は、特徴的オブジェクト運動が、モード変更ジェスチャ215、第1モード210および/または第2モード220に専用的に関連付けられた一つ以上のキーの押下げを伴う場合に、特徴的オブジェクト運動をモード変更ジェスチャ215と認識してもよい。幾つかの実施形態は、モード変更専用ではない複数のキーの押下げが行われたか否かを監視してもよい。これらのキーは、入力装置100の一部であってもよいし、入力装置100から分離されていてもよい。
[0083]例えば、入力装置100は、標準キーボードと共に使用されてもよく、特徴的オブジェクト運動は、<shift>キーおよび<ctrl>キーが特徴的オブジェクト運動の提供と同時に作動させられる場合に、モード変更ジェスチャ215として認識されてもよい。別の例として、幾つかの実施形態は、入力装置100によって検出される特徴的オブジェクト運動と共に機能キーが押されるか否か(例えば、入力装置100の入力面のタップまたは入力面上で「S」を描くことに伴う<control>−<alt>)を監視してもよい。
[0084]ここで図2および図3に戻る。処理システム110を第2モード220から別のモード(例えば、第1モード210または第3モード230)に変化させるイベント(例えば、モード変更イベント225またはイベントA 325)には、様々なイベントのいずれが含まれてもよい。例えば、幾つかの実施形態では、処理システム110が、終了イベントに応じて、例えば後続のオブジェクト運動を終了指令と認識することに応じて、第2モード220での動作から変化するように構成される。本書で使用されるように、「後続のオブジェクト運動」は、モード変更ジェスチャ215として認識される特徴的オブジェクト運動の後に、検知領域120内で少なくとも部分的に生じる。終了イベントは、任意の適切なユーザ入力(またはユーザ入力の欠如)を含んでよく、そのユーザ入力には、モード変更ジェスチャ215、検知領域120の外側でのユーザ入力、およびタイムアウトに関して説明した変形例のいずれもが含まれる。入力後のタイムアウトを含む終了イベントを有する幾つかの実施形態では、終了イベントが完全に生じるまで、追加の入力が第2モード220での継続動作を生じさせる。例えば、幾つかの実施形態では、終了イベントは、検知領域120から入力オブジェクトが除去された後にタイムアウトを有しており、そのタイムアウト期間中に検知領域120内に入力オブジェクトが新たに現れると、タイムアウトがリセットされる。これにより、処理システム110の第2モード220からの切り替えが、入力オブジェクトがもう一度除去された後のタイムアウトまで中止される。
[0085]種々の実施形態では、終了指令は、それらの実施形態のためのモード変更ジェスチャ215と認識される特徴的オブジェクト運動と同じであってもよいし、異なっていてもよい。例えば、幾つかの実施形態では、終了指令は、それらの実施形態のためのモード変更ジェスチャ215と認識される特徴的オブジェクト運動に合致するオブジェクト運動を含んでいる(例えば、終了指令および特徴的オブジェクト運動の双方が、3個の入力オブジェクトによる短期間の三つの接触である)。別の例として、終了指令は、モード変更ジェスチャ215と認識される特徴的オブジェクト運動と似ているが異なるオブジェクト運動を含んでもよい(例えば、両方とも2個の入力オブジェクトによる二つの接触を伴うが、モード変更ジェスチャ215では、より短い時間の接触の後に、より長い時間の接触が続き、終了指令では、より長い時間の接触の後に、より短い時間の接触が続く)。更に別の例として、終了指令は、モード変更ジェスチャ215と認識される特徴的オブジェクト運動とは明らかに異なるオブジェクト運動(例えば、検知領域120内の入力オブジェクトの異なる数、シーケンス、運動などを伴うもの)を含んでいてもよい。
[0086]別の例として、幾つかの実施形態では、処理システム110が、後続のオブジェクト運動の終端を検出することに応じて、第2モード220での動作から変化するように構成されている。オブジェクト運動の終端を判定するために任意の適切な手法を適用することができ、ここでは一部の例に着目する。幾つかの実施形態では、オブジェクト運動の終端は、検知領域120を出ようとするオブジェクト運動または検知領域120の外側でのオブジェクト運動を提供する1個以上の入力オブジェクトを含む。幾つかの実施形態では、オブジェクト運動の終端は、入力面もしくは検知領域120から上昇し、または入力面もしくは検知領域120の外へスライドし、またはその他の方法によって入力面もしくは検知領域120から離れようとする(そして必ずしも検知領域120を出るわけではない)オブジェクト運動を提供する1個以上の入力オブジェクトを含む。幾つかの実施形態では、オブジェクト運動の終端は、位置、速度および/または加速度の鋭い変化を生じさせるオブジェクト運動を提供する入力オブジェクトを含む。幾つかの実施形態では、オブジェクト運動の終端は、ある基準時間量より長い時間にわたって相対的に静止するオブジェクト運動を提供する1個以上の入力オブジェクトを含む。この1個以上の入力オブジェクトは、その位置の変化がある基準量よりも少ない場合、その入力オブジェクトが以前の位置からある基準距離を超えて動かない場合、その入力オブジェクトがある基準速度より低い速度を示す場合などに、相対的に静止していると考えてよい。
[0087]別の例として、幾つかの実施形態では、処理システム110は、後続のスライド入力を複数のジェスチャ指令の一つと認識することに応じて、第2モード220での動作から変化するように構成されている。幾つかの実施形態では、後続のスライド入力を第2モード220で認識されるジェスチャ指令のいずれかと認識することで、処理システム110を第2モード220での動作から切り替える。幾つかの実施形態では、後続のスライド入力を、第2モード220で認識されるジェスチャ指令の特定の部分集合のなかの一つと認識することで、処理システム110を第2モード220での動作から切り替える。
[0088]更に別の例として、幾つかの実施形態では、処理システム110が、所定量の時間の経過に応じて第2モード220での動作から切り替わるように構成されている。この所定量の時間は、例えば処理システム110がモード変更ジェスチャ215と認識される特徴的オブジェクト運動を検出するときや、処理システム110が特徴的オブジェクト運動をモード変更ジェスチャ215と認識するときや、処理システム110が第2モード220での動作を開始するときに、第2モード220において生じる最初のスライド入力の開始、中間または終了時に、任意の適切な基準から参照されてもよい。種々の実施形態では、この所定量の時間は、その所定量の時間の経過が開始する前の任意の適切な時点で決定されてよい。例としては、製造時、スタートアップ時および低電力状態からの復帰時、ログイン時および他のセキュリティ認証時、ならびに第2モード220への変更時が挙げられる。この所定量の時間は、環境条件、動作状態、ユーザの好み、入力履歴等に応じて、可変であってもよい。
[0089]図12〜図14は、本発明の実施形態に係る、複数のモード(例えば、図2および図3のモード)で動作するように構成された図1の入力装置100の典型的な動作方法を示すフローチャートである。図12〜図14は特定のステップ(工程)を示しているが、幾つかの実施形態は図示のステップの部分集合、他の追加ステップ、またはその双方を有していてもよい。また、図12〜図14は、それらのステップの特定の順序を示すが、幾つかの実施形態は、同一または異なるステップを異なる順序で有する。さらに、上述のように、下記の説明はしばしば処理システムを明示的に参照するが、その説明は任意の適切なシステムに当てはまる。
[0090]図12を参照すると、本発明に係る例示の方法1200は、以下を含む。第1のステップ1210では、処理システムがポインティングモードで動作する。ここで、処理システムは、ポインティングモードの間、検知領域内の第1の種類のスライド入力をポインティング指令と認識する。第2のステップ1220では、処理システムは、検知領域内の特徴的オブジェクト運動をモード変更ジェスチャ215と認識することに応じて、ポインティングモードでの動作から拡張ジェスチャモードでの動作に変化する。第3のステップ1230では、処理システムは拡張ジェスチャモードで動作する。処理システムは、拡張ジェスチャモードで動作するときは、検知領域内の第1の種類のスライド入力を、拡張ジェスチャモードにおいて処理システムが認識する複数のジェスチャ指令の一つと認識する。それら複数のジェスチャ指令は、複数の異なるジェスチャ動作に関連付けられている。
[0091]図13は、本発明に係る、表示画面を有する実施形態を動作させる例示の方法1300を示している。表示画面は、表示画面のアクティブ領域内で視覚表示を提供するように構成されている。方法1300は、以下を含む。第1のステップ1310では、電子システム(あるいは、処理システム)がポインティングモードで動作する。ポインティングモードの間、電子システム(あるいは、処理システム)は、検知領域内の複数の種類のスライド入力をポインティング指令と認識する。そのポインティング指令は、ポインティングモード中に視覚表示との相互作用を行うためのものであってよく、例えば、種々の方向に表示要素の動きを生じさせるためのものであってよい。第2のステップ1320では、電子システム(あるいは、処理システム)が、検知領域内の特徴的オブジェクト運動をモード変更ジェスチャと認識する。第3のステップ1330では、電子システム(あるいは、処理システム)は、検知領域内の特徴的オブジェクト運動をモード変更ジェスチャと認識することに応じて、ポインティングモードでの動作から拡張ジェスチャモードでの動作に変化する。拡張ジェスチャモードの間は、電子システム(あるいは、処理システム)は、複数の種類のスライド入力を、複数の異なるジェスチャ動作に関連付けられた複数のジェスチャ指令と認識する。第4のステップ1340では、電子システム(あるいは、処理システム)は、拡張ジェスチャモードでの動作を示す、ユーザが感知可能なフィードバックを提供する。
[0092]図14は、本発明の実施形態に係る、入力オブジェクトによって接触される入力面を備える実施形態を使用する例示の方法1400を示している。この方法のステップを、特に入力装置との関連で説明するが、それらのステップはまた、他の装置、例えば入力装置と一体化され、または通信する電子システムに適用されてもよい。また、入力装置は、入力装置の処理システムを介してこれらのステップを遂行してもよい。ステップ1410では、入力装置は、その検知素子を操作して、入力オブジェクトの入力面への到来および入力面からの上昇を検出する。ステップ1420では、入力装置は、特徴的オブジェクト運動をモード変更ジェスチャと識別する。特徴的オブジェクト運動は、一組の入力オブジェクトが入力面に到来し、その後、その一組の入力オブジェクトの第1の部分集合が入力面から上昇することを含んでおり、その一組の入力オブジェクトの第2の部分集合が入力面に残るようになっている。第1および第2の部分集合は、双方とも、入力面に到来した一組の入力オブジェクトの非空の真部分集合である。ステップ1430では、特徴的オブジェクト運動をモード変更ジェスチャと識別することに応じて、入力装置が第1の動作モード(例えば、第1モード210)から第2の動作モード(例えば、第2モード220)に変化する。
[0093]このように、幾つかの実施形態は、複数の入力オブジェクト(例えば指)が入力装置の入力面上に置かれた後、それらの入力オブジェクトの一つ以上が入力面から上昇することを特徴的オブジェクト運動が含む場合に、その特徴的オブジェクト運動をモード変更ジェスチャ215と認識する。
[0094]方法1400の幾つかの実施形態では、入力装置は、1個(または2個以上)の入力オブジェクトがある時間にわたって移動を停止したり、入力面から離れるように移動したりすること等を検出することによって、オブジェクト運動の終端を検出する。幾つかの実施形態ではタイムアウトを使用してもよく、オブジェクト運動の終端によって引き起こされる動作またはモード変更が、オブジェクトの除去後のある時点に確認され、発生するようになっていてもよい。
[0095]方法1400の幾つかの実施形態では、入力装置が第2の動作モード中に複数のジェスチャ指令を受け入れ、第2の動作モード中に以下の処理を実行してもよい(第1の動作モード中は実行しない)。入力装置は、入力オブジェクトの第2の部分集合の1個(または2個以上)による後続のオブジェクト運動を、第2の動作モードで受け入れられる複数のジェスチャ指令の一つと識別してもよい。
[0096]幾つかの実施形態では、すべての入力オブジェクトが入力面から上昇した後(例えば、残っていた入力オブジェクトがある時間の間に入力面から除去された後)に、入力装置が第2の動作モードからモードを変更する。タイムアウトを有する実施形態では、タイムアウトの前に1個以上の入力オブジェクトが戻ることで第2の動作モードを継続してもよい。幾つかの実施形態では、入力装置は、第2の動作モードから変化したことを示す出力を提供する。
[0097]方法1400の幾つかの実施形態では、特徴的オブジェクト運動(モード変更ジェスチャ215と認識されるもの)が、特定の数の入力オブジェクトが入力面に到来すること、および入力面から上昇することを含む。例えば、入力装置は、M個の入力オブジェクトが入力面に到来するとともにN個の入力オブジェクトが入力面から上昇することを受け入れてもよい。ここでM−Nは、1(入力面から上昇するオブジェクトの数が入力面に到来する入力オブジェクトよりも1だけ少ない)、2(入力面から上昇するオブジェクトの数が入力面に到来する入力オブジェクトよりも2だけ少ない)等である。具体的な数の一例として、M−Nが1となるように、Mが3、Nが2であってもよい。具体的な数の別の例として、幾つかの実施形態は、ユーザが2個の入力オブジェクトを入力面に同時に置き、その後、1個を持ち上げたことを認識する。
[0098]別の例として、入力装置は、N個の入力オブジェクトが入力面に到来した後、1個の入力オブジェクトが上昇することを受け入れてもよい(結果として、Nより1だけ少ない数の入力オブジェクトが入力面上に残る)。
[0099]方法1200、1300、または1400は、任意の数の追加ステップを更に含んでもよい。例えば、幾つかの方法は、動作モードの変更(例えば、第1の動作モードから第2の動作モード、第2の動作モードから別のモード等)を示す一つ以上の出力を提供するステップを更に含んでいる。その出力は、モードの変更を他のシステムに示し、または動作モード(例えば、第1モード210、第2モード220等)に関するフィードバックをユーザに提供し、またはその双方を行ってもよい。フィードバックは、視覚的なフィードバック、聴覚的なフィードバック、触覚的なフィードバック、またはそれらの組合せを含んでもよい。更に別の例として、幾つかの方法は、検知領域内の第1の種類のスライド入力をポインティング指令と認識することに応じて、視覚表示上のグラフィック要素を移動させることを更に含む。
[00100]動作モードの変更は、ユーザに対して視覚的に表示されなくてもよく、多様な手法のいずれによって表示されてもよい。例えば、ポインタアイコン、背景色、ディスプレイ輝度、または他の視覚的な要素もしくは特徴がモード切り替えに応じて変化してもよい。その表示は、切り替え前のモードや切り替え後のモードに応じて異なってもよい。別の例として、特定のポインタまたは背景色が特定のモードで提示されるように、視覚的要素または特徴がアクティブな動作モードに関連付けられてもよい。非視覚的なフィードバック、例えば聴覚的または触覚的フィードバックは、視覚的フィードバックを補完してもよい。
[00101]幾つかの実施形態は、複数のモードの一つに専用のアプリケーションまたは表示ウィンドウを起動してもよい。図15は、拡張ジェスチャモードを示す例示の画面を表している。
[00102]ここに記載した実施形態および実施例は、本発明とその特定の用途を最も良く説明し、それによって当業者が発明を生産および使用できるようにするために提示されたものである。しかし、前述の説明および実施例が例図の目的のために提示されたものに過ぎないことは、当業者には理解できるだろう。上述の説明は、網羅的であることを意図したものではなく、また、開示した形態そのものに本発明を限定する意図もない。

Claims (25)

  1. 検知領域内のオブジェクト運動を検出するように構成された検知素子と、
    前記検知素子に接続された処理システムと
    を備える入力装置であって、
    前記処理システムは、
    ポインティングモードで動作し、該ポインティングモードの間、前記検知領域内の第1の種類のスライド入力を第1のポインティング指令と認識し、
    拡張ジェスチャモードで動作し、該拡張ジェスチャモードの間、複数の異なるジェスチャ動作に関連付けられた複数のジェスチャ指令を認識し、該拡張ジェスチャモードの間、前記検知領域内の前記第1の種類のスライド入力を前記複数のジェスチャ指令の第1のジェスチャ指令と認識し、
    前記検知領域内の特徴的オブジェクト運動を認識することに応じて、前記ポインティングモードでの動作から前記拡張ジェスチャモードでの動作に変化する
    ように構成されている、入力装置。
  2. 前記処理システムは、前記ポインティングモードの間は、前記検知領域内の第2の種類のスライド入力を第2のポインティング指令と認識し、前記処理システムは、前記拡張ジェスチャモードの間は、前記検知領域内の前記第2の種類のスライド入力を、前記複数のジェスチャ指令のうち第2のジェスチャ指令と認識し、前記第1のジェスチャ指令および前記第2のジェスチャ指令が異なるジェスチャ動作に関連付けられている、請求項1に記載の入力装置。
  3. 前記処理システムは、
    前記特徴的オブジェクト運動の後に前記検知領域内で生じる後続オブジェクト運動の終端を検出することに応じて、前記拡張ジェスチャモードから前記ポインティングモードに変化する
    ように更に構成されている、請求項1に記載の入力装置。
  4. 前記処理システムは、
    前記特徴的オブジェクト運動の後に前記検知領域内で生じる後続スライド入力を、前記複数のジェスチャ指令のうち一つのジェスチャ指令と認識することに応じて、前記拡張ジェスチャモードでの動作から前記ポインティングモードでの動作に変化する
    ように更に構成されている、請求項1に記載の入力装置。
  5. 前記処理システムは、
    前記特徴的オブジェクト運動の後に前記検知領域内で生じる後続オブジェクト運動を終了指令と認識することに応じて、前記拡張ジェスチャモードでの動作から前記ポインティングモードでの動作に変化する
    ように更に構成されている、請求項1に記載の入力装置。
  6. 前記処理システムは、
    所定量の時間の経過に応じて、前記拡張ジェスチャモードでの動作から前記ポインティングモードでの動作に変化する
    ように更に構成されている、請求項1に記載の入力装置。
  7. 前記検知領域内の入力オブジェクトが接触可能な入力面を更に備え、
    前記特徴的オブジェクト運動を認識することが、
    前記特徴的オブジェクト運動が前記入力面上の複数の入力オブジェクトを含むと判定するステップと、
    前記複数の入力オブジェクトの少なくとも一つが前記入力面に対する接触状態に変化することを前記特徴的オブジェクト運動が含むと判定するステップと
    を含んでいる、請求項1に記載の入力装置。
  8. 前記入力面に対する接触状態に変化する前記複数の入力オブジェクトの前記少なくとも一つによって作動させられるように構成されたスイッチを更に備え、
    前記複数の入力オブジェクトの前記少なくとも一つが接触状態に変化することを前記特徴的オブジェクト運動が含むと判定する前記ステップが、
    前記スイッチの作動を判定するステップ
    を含んでいる、請求項7に記載の入力装置。
  9. 前記複数の入力オブジェクトの前記少なくとも一つが接触状態に変化することを前記特徴的オブジェクト運動が含むと判定する前記ステップが、
    前記複数の入力オブジェクトの前記少なくとも一つが前記入力面から上昇した一方で、前記複数の入力オブジェクトの少なくとも別の一つが前記入力面上に残っていると判定するステップ
    を含んでいる、請求項7に記載の入力装置。
  10. 前記検知領域内の入力オブジェクトが接触可能な入力面を更に備え、
    前記特徴的オブジェクト運動を認識することが、
    複数の入力オブジェクトが前記入力面を実質的に同時にタップすることを前記特徴的オブジェクト運動が含むと認識するステップ
    を含んでいる、請求項1に記載の入力装置。
  11. 前記検知領域内の入力オブジェクトが接触可能な入力面を更に備え、
    前記特徴的オブジェクト運動を認識することが、
    複数の入力オブジェクトが前記入力面に実質的に同時に接触し、複数の入力オブジェクトが前記入力面から実質的に同時に上昇し、複数の入力オブジェクトが前記入力面に実質的に同時に再接触することを前記特徴的オブジェクト運動が含むと認識するステップ
    を含んでいる、請求項1に記載の入力装置。
  12. 作動可能なキーを更に備え、前記特徴的オブジェクト運動を認識することが、
    前記特徴的オブジェクト運動が前記作動可能なキーの作動と実質的に同時に生じることを認識するステップ
    を含む、請求項1に記載の入力装置。
  13. 検知領域内のオブジェクト運動を検出するように構成された近接センサ装置と、視覚表示を提供するように構成された表示画面とを備える電子システムの動作方法であって、
    ポインティングモードで動作するステップであって、前記電子システムが、該ポインティングモードの間、前記検知領域内の複数の種類のスライド入力を、前記視覚表示と相互作用するためのポインティング指令と認識するように構成されるステップと、
    前記検知領域内の特徴的オブジェクト運動をモード変更ジェスチャと認識するステップと、
    前記検知領域内の前記特徴的オブジェクト運動をモード変更ジェスチャと認識することに応じて、前記ポインティングモードでの動作から拡張ジェスチャモードでの動作に変化するステップであって、前記電子システムが、前記拡張ジェスチャモードの間、前記複数の種類のスライド入力を、複数の異なるジェスチャ動作に関連付けられた複数のジェスチャ指令と認識するように構成されるステップと、
    前記電子システムが前記拡張ジェスチャモードで動作していることを示す、ユーザが感知可能なフィードバックを提供するステップと
    を含む方法。
  14. 前記ポインティングモードで動作する間、前記検知領域内の前記複数の種類のスライド入力のうち第1の種類のスライド入力を、第1のポインティング指令と認識するステップと、
    前記検知領域内の前記第1の種類のスライド入力を前記第1のポインティング指令と認識することに応じて、前記視覚表示のグラフィック要素を移動させるステップと
    を更に含む請求項13に記載の方法。
  15. 前記ユーザが感知可能なフィードバックを提供する前記ステップが、視覚的フィードバック、聴覚的フィードバック、および触覚的フィードバックの少なくとも一つを提供する、請求項13に記載の方法。
  16. 前記電子システムが、前記検知領域内の入力オブジェクトが接触可能な入力面を更に備えており、
    前記検知領域内の前記特徴的オブジェクト運動をモード変更ジェスチャと認識することが、
    複数の入力オブジェクトが前記入力面を実質的に同時にタップすることを前記特徴的オブジェクト運動が含むと認識するステップ
    を含んでいる、請求項13に記載の方法。
  17. 前記電子システムが、前記検知領域内の入力オブジェクトによって接触される入力面と、前記入力面がある作動距離だけ移動することに応じて作動するように構成されたスイッチとを更に備えており、
    前記検知領域内の前記特徴的オブジェクト運動をモード変更ジェスチャと認識することが、
    複数の入力オブジェクトが前記スイッチの作動と実質的に同時に前記入力面上に位置することを前記特徴的オブジェクト運動が含むと認識するステップ
    を含んでいる、請求項13に記載の方法。
  18. 少なくとも一つの検知素子と、
    入力オブジェクトによって接触される入力面と、
    前記少なくとも一つの検知素子に接続された処理システムと
    を備える入力装置であって、
    前記処理システムが、
    前記少なくとも一つの検知素子を操作して、前記入力面に到来する入力オブジェクトおよび前記入力面から上昇する入力オブジェクトを検出し、
    前記入力面に一組の入力オブジェクトが到来し、その後、該一組の入力オブジェクトの第1の部分集合が前記入力面から上昇する一方で、該一組の入力オブジェクトの第2の部分集合が前記入力面に残ることを含む入力シーケンスをモード変更ジェスチャと識別し、
    前記モード変更ジェスチャの識別に応じて、第1の動作モードから第2の動作モードに変化する
    ように構成されており、前記第1の部分集合および前記第2の部分集合が双方とも、前記一組の入力オブジェクトの非空の真部分集合である、入力装置。
  19. 前記処理システムが、前記第2の動作モードで動作していることを示す視覚的フィードバックを提供するように更に構成されている、請求項18に記載の入力装置。
  20. 前記処理システムが、
    前記第2の動作モードにあって前記第1の動作モードにはない間、前記第2の部分集合の入力オブジェクトの少なくとも一つの運動を、前記第2の動作モードで認識される複数のジェスチャ指令のうちの一つのジェスチャ指令と識別し、
    該ジェスチャ指令を示す出力を提供する
    ように更に構成されている、請求項18に記載の入力装置。
  21. 前記処理システムが、前記第2の部分集合のすべての入力オブジェクトが前記入力面から上昇することに応じて、前記第2の動作モードから変化することを示す第2の出力を提供するように更に構成されている、請求項18に記載の入力装置。
  22. 前記第1の部分集合が、前記一組の入力オブジェクトよりも1だけ少ない数の入力オブジェクトから構成されている、請求項18に記載の入力装置。
  23. 前記第1の動作モードから前記第2の動作モードへの変化が、前記第2の動作モードに専用のアプリケーションの起動に関連付けられている、請求項18に記載の入力装置。
  24. 入力装置プログラムと、
    前記入力装置プログラムを保持する、電子的に読取り可能な媒体と
    を備えるプログラム製品であって、
    前記入力装置プログラムは、
    入力装置を操作して、入力面に到来する入力オブジェクトおよび入力面から上昇する入力オブジェクトを検出し、
    前記入力面に複数の入力オブジェクトが到来し、その後、該複数の入力オブジェクトの少なくとも一つが前記入力面から上昇する一方で、該複数の入力オブジェクトの少なくとも別の一つが前記入力面に残ることを含む入力シーケンスをモード変更ジェスチャと識別する
    ために処理システムによって実行可能であり、
    前記電子的に読取り可能な媒体は、前記処理システムによって読み取り可能である、プログラム製品。
  25. 前記複数の入力オブジェクトが、少なくとも3個の入力オブジェクトを有している、請求項24に記載のプログラム製品。
JP2012544573A 2009-12-18 2010-11-30 動作モードを変更する方法および装置 Active JP5862898B2 (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US28810909P 2009-12-18 2009-12-18
US61/288,109 2009-12-18
US31104010P 2010-03-05 2010-03-05
US61/311,040 2010-03-05
US35271210P 2010-06-08 2010-06-08
US61/352,712 2010-06-08
US12/836,397 US20110148786A1 (en) 2009-12-18 2010-07-14 Method and apparatus for changing operating modes
US12/836,397 2010-07-14
PCT/US2010/058377 WO2011075307A2 (en) 2009-12-18 2010-11-30 Method and apparatus for changing operating modes

Publications (3)

Publication Number Publication Date
JP2013514590A true JP2013514590A (ja) 2013-04-25
JP2013514590A5 JP2013514590A5 (ja) 2014-01-16
JP5862898B2 JP5862898B2 (ja) 2016-02-16

Family

ID=44150328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012544573A Active JP5862898B2 (ja) 2009-12-18 2010-11-30 動作モードを変更する方法および装置

Country Status (6)

Country Link
US (1) US20110148786A1 (ja)
EP (1) EP2513760B1 (ja)
JP (1) JP5862898B2 (ja)
KR (1) KR101766187B1 (ja)
CN (1) CN102754052B (ja)
WO (1) WO2011075307A2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013143139A (ja) * 2012-01-06 2013-07-22 Samsung Electronics Co Ltd 入力装置、ディスプレイ装置、その制御方法及びディスプレイシステム
JP2015041271A (ja) * 2013-08-22 2015-03-02 ソニー株式会社 情報処理装置、記憶媒体、および制御方法
JPWO2015029222A1 (ja) * 2013-08-30 2017-03-02 富士通株式会社 情報処理装置,表示制御プログラム及び表示制御方法

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US7936341B2 (en) 2007-05-30 2011-05-03 Microsoft Corporation Recognizing selection regions from multiple simultaneous inputs
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
US20110252349A1 (en) 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Folders
US8610681B2 (en) * 2010-06-03 2013-12-17 Sony Corporation Information processing apparatus and information processing method
US8799815B2 (en) 2010-07-30 2014-08-05 Apple Inc. Device, method, and graphical user interface for activating an item in a folder
US8826164B2 (en) 2010-08-03 2014-09-02 Apple Inc. Device, method, and graphical user interface for creating a new folder
EP2622443B1 (en) * 2010-10-01 2022-06-01 Z124 Drag move gesture in user interface
US9104306B2 (en) * 2010-10-29 2015-08-11 Avago Technologies General Ip (Singapore) Pte. Ltd. Translation of directional input to gesture
WO2012064309A1 (en) * 2010-11-11 2012-05-18 Echostar Ukraine L.L.C. Hearing and/or speech impaired electronic device control
US20140002358A1 (en) * 2010-12-23 2014-01-02 Frederick Johannes Bruwer Compact capacitive track pad
CN102692995A (zh) * 2011-03-21 2012-09-26 国基电子(上海)有限公司 具有接近感应功能的电子装置及接近感应控制方法
GB2490108B (en) * 2011-04-13 2018-01-17 Nokia Technologies Oy A method, apparatus and computer program for user control of a state of an apparatus
CN102855077A (zh) * 2011-07-01 2013-01-02 宫润玉 多功能触控板模式切换方法
JP5767525B2 (ja) * 2011-08-08 2015-08-19 東芝アルパイン・オートモティブテクノロジー株式会社 入力装置
US9377867B2 (en) * 2011-08-11 2016-06-28 Eyesight Mobile Technologies Ltd. Gesture based interface system and method
US8723824B2 (en) 2011-09-27 2014-05-13 Apple Inc. Electronic devices with sidewall displays
US20130088434A1 (en) * 2011-10-06 2013-04-11 Sony Ericsson Mobile Communications Ab Accessory to improve user experience with an electronic display
TW201327273A (zh) * 2011-12-23 2013-07-01 Wistron Corp 觸控按鍵模組及其模式切換方法
US20130179844A1 (en) * 2012-01-06 2013-07-11 Mirko Mandic Input Pointer Delay
KR20130081596A (ko) * 2012-01-09 2013-07-17 삼성전자주식회사 디스플레이 장치, 사용자 입력 장치 및 그 제어 방법
EP2867755A4 (en) * 2012-06-27 2015-07-29 Nokia Corp USE OF A SYMBOL RECOGNITION ENGINE
US8874969B2 (en) 2012-07-09 2014-10-28 Microsoft Corporation Independent hit testing
KR20140011208A (ko) * 2012-07-18 2014-01-28 박철 터치패널을 갖는 개인휴대단말기의 작동방법
US9298295B2 (en) * 2012-07-25 2016-03-29 Facebook, Inc. Gestures for auto-correct
CN102984354A (zh) * 2012-11-05 2013-03-20 惠州Tcl移动通信有限公司 移动终端及其网址访问方法
KR20140068595A (ko) * 2012-11-28 2014-06-09 삼성디스플레이 주식회사 단말기 및 그의 조작 방법
US9030430B2 (en) * 2012-12-14 2015-05-12 Barnesandnoble.Com Llc Multi-touch navigation mode
US8963865B2 (en) * 2012-12-14 2015-02-24 Barnesandnoble.Com Llc Touch sensitive device with concentration mode
US9001064B2 (en) * 2012-12-14 2015-04-07 Barnesandnoble.Com Llc Touch sensitive device with pinch-based archive and restore functionality
JP5835240B2 (ja) * 2013-01-28 2015-12-24 カシオ計算機株式会社 情報処理装置、情報処理方法及びプログラム
KR20140100761A (ko) * 2013-02-07 2014-08-18 한국전자통신연구원 터치식 입력장치에서의 제스처 입력 구분 방법 및 제스처 입력 구분 장치
US20140372903A1 (en) * 2013-06-14 2014-12-18 Microsoft Corporation Independent Hit Testing for Touchpad Manipulations and Double-Tap Zooming
KR20150032101A (ko) * 2013-09-17 2015-03-25 삼성전자주식회사 영상표시장치 및 영상표시방법
WO2015065402A1 (en) 2013-10-30 2015-05-07 Bodhi Technology Ventures Llc Displaying relevant use interface objects
KR102206053B1 (ko) * 2013-11-18 2021-01-21 삼성전자주식회사 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법
WO2015095218A1 (en) * 2013-12-16 2015-06-25 Cirque Corporation Configuring touchpad behavior through gestures
US9875019B2 (en) * 2013-12-26 2018-01-23 Visteon Global Technologies, Inc. Indicating a transition from gesture based inputs to touch surfaces
US10845888B2 (en) * 2014-02-13 2020-11-24 Autodesk, Inc. Techniques for integrating different forms of input with different forms of output when interacting with an application
TWI603226B (zh) * 2014-03-21 2017-10-21 立普思股份有限公司 體感偵測器之手勢辨識方法
GB201408258D0 (en) 2014-05-09 2014-06-25 British Sky Broadcasting Ltd Television display and remote control
JP6019074B2 (ja) * 2014-09-16 2016-11-02 京セラドキュメントソリューションズ株式会社 電子機器、及び、タッチパネルの操作方法
KR20160033951A (ko) * 2014-09-19 2016-03-29 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
US20160091308A1 (en) * 2014-09-30 2016-03-31 Invensense, Inc. Microelectromechanical systems (mems) acoustic sensor-based gesture recognition
CN105760095A (zh) * 2015-01-05 2016-07-13 凌通科技股份有限公司 多点触控电子印刷品以及多点触控电子印刷品的互动方法
GB2534152B (en) * 2015-01-14 2017-12-20 Jaguar Land Rover Ltd Apparatus and method for controlling operation of a component
JP6230587B2 (ja) * 2015-12-17 2017-11-15 京セラ株式会社 携帯端末
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
US11816325B2 (en) 2016-06-12 2023-11-14 Apple Inc. Application shortcuts for carplay
JP6696327B2 (ja) * 2016-07-01 2020-05-20 富士ゼロックス株式会社 情報処理装置、画像形成装置およびプログラム
DE102016215746A1 (de) * 2016-08-23 2018-03-01 Robert Bosch Gmbh Projektor mit berührungsfreier Steuerung
WO2019014888A1 (zh) * 2017-07-20 2019-01-24 深圳市汇顶科技股份有限公司 检测触摸点的方法和触摸控制器
US20190324621A1 (en) * 2018-04-23 2019-10-24 Qualcomm Incorporated System and Methods for Utilizing Multi-Finger Touch Capability to Efficiently Perform Content Editing on a Computing Device
US11675476B2 (en) 2019-05-05 2023-06-13 Apple Inc. User interfaces for widgets

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0713676A (ja) * 1993-06-28 1995-01-17 Sony Corp 手書き情報入力装置
JP2000137555A (ja) * 1998-11-02 2000-05-16 Sony Corp 情報処理装置及び方法並びに記録媒体
JP2000137571A (ja) * 1998-10-29 2000-05-16 Casio Comput Co Ltd 手書き入力装置及び手書き入力処理プログラムを記録した記録媒体
JP2001134382A (ja) * 1999-11-04 2001-05-18 Sony Corp 図形処理装置
JP2006099468A (ja) * 2004-09-29 2006-04-13 Toshiba Corp ジェスチャ入力装置、ジェスチャ入力方法及びジェスチャ入力プログラム
JP2008508601A (ja) * 2004-07-30 2008-03-21 アップル インコーポレイテッド タッチ・センシティブ入力デバイスのためのジェスチャ
WO2008094791A2 (en) * 2007-01-30 2008-08-07 Apple Inc. Gesturing with a multipoint sensing device

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3151652B2 (ja) * 1995-07-24 2001-04-03 日本アビオニクス株式会社 長い対象物の測定方法とその装置
US5907234A (en) * 1995-08-04 1999-05-25 Siemens Aktiengesellschaft Thyristor-switched capacitor bank
US6057845A (en) * 1997-11-14 2000-05-02 Sensiva, Inc. System, method, and apparatus for generation and recognizing universal commands
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6323846B1 (en) * 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US6249606B1 (en) * 1998-02-19 2001-06-19 Mindmaker, Inc. Method and system for gesture category recognition and training using a feature vector
US6639584B1 (en) * 1999-07-06 2003-10-28 Chuang Li Methods and apparatus for controlling a portable electronic device using a touchpad
GB0017793D0 (en) * 2000-07-21 2000-09-06 Secr Defence Human computer interface
US20020015064A1 (en) * 2000-08-07 2002-02-07 Robotham John S. Gesture-based user interface to multi-level and multi-modal sets of bit-maps
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US7730401B2 (en) * 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
JP4057253B2 (ja) * 2001-05-29 2008-03-05 アルプス電気株式会社 入力装置及び電子機器
US20040215479A1 (en) * 2003-01-31 2004-10-28 Exacttarget, Llc Dynamic content electronic mail marketing system and method
US7382360B2 (en) * 2003-04-15 2008-06-03 Synaptics Incorporated Methods and systems for changing the appearance of a position sensor with a light effect
TWI227445B (en) * 2003-05-28 2005-02-01 Compal Electronics Inc A method capable of promptly switching operation mode of touch device and device thereof
US20050052427A1 (en) * 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
US7372993B2 (en) * 2004-07-21 2008-05-13 Hewlett-Packard Development Company, L.P. Gesture recognition
US7477233B2 (en) * 2005-03-16 2009-01-13 Microsoft Corporation Method and system for providing modifier key behavior through pen gestures
TWI283364B (en) * 2005-04-19 2007-07-01 Elan Microelectronics Corp Touch-sensing device capable of supporting one-dimensional and two-dimensional modes and control method thereof
GB2433402B (en) * 2005-12-14 2007-11-28 Siemens Plc An input device
US9395905B2 (en) * 2006-04-05 2016-07-19 Synaptics Incorporated Graphical scroll wheel
US8587526B2 (en) * 2006-04-12 2013-11-19 N-Trig Ltd. Gesture recognition feedback for a dual mode digitizer
JP4762070B2 (ja) * 2006-07-19 2011-08-31 富士通株式会社 手書き入力装置、手書き入力方法、及びコンピュータプログラム
US8511565B2 (en) * 2006-10-17 2013-08-20 Silverbrook Research Pty Ltd Method of providing information via context searching of a printed graphic image
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
US8896529B2 (en) * 2007-08-01 2014-11-25 Nokia Corporation Apparatus, methods, and computer program products providing context-dependent gesture recognition
US20090058820A1 (en) * 2007-09-04 2009-03-05 Microsoft Corporation Flick-based in situ search from ink, text, or an empty selection region
DE602007011948D1 (de) * 2007-11-16 2011-02-24 Research In Motion Ltd Touchscreen für ein elektronisches Gerät
US9058077B2 (en) * 2007-11-16 2015-06-16 Blackberry Limited Tactile touch screen for electronic device
US20100177053A2 (en) * 2008-05-09 2010-07-15 Taizo Yasutake Method and apparatus for control of multiple degrees of freedom of a display
US20100064261A1 (en) * 2008-09-09 2010-03-11 Microsoft Corporation Portable electronic device with relative gesture recognition mode
US8307412B2 (en) * 2008-10-20 2012-11-06 Microsoft Corporation User authentication management
JP4853507B2 (ja) * 2008-10-30 2012-01-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
TWM361674U (en) 2009-02-19 2009-07-21 Sentelic Corp Touch control module
US8769442B2 (en) * 2009-07-07 2014-07-01 Microsoft Corporation System and method for allocating digital graffiti objects and canvasses
US20110029862A1 (en) * 2009-07-30 2011-02-03 Research In Motion Limited System and method for context based predictive text entry assistance
US9465532B2 (en) * 2009-12-18 2016-10-11 Synaptics Incorporated Method and apparatus for operating in pointing and enhanced gesturing modes

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0713676A (ja) * 1993-06-28 1995-01-17 Sony Corp 手書き情報入力装置
JP2000137571A (ja) * 1998-10-29 2000-05-16 Casio Comput Co Ltd 手書き入力装置及び手書き入力処理プログラムを記録した記録媒体
JP2000137555A (ja) * 1998-11-02 2000-05-16 Sony Corp 情報処理装置及び方法並びに記録媒体
JP2001134382A (ja) * 1999-11-04 2001-05-18 Sony Corp 図形処理装置
JP2008508601A (ja) * 2004-07-30 2008-03-21 アップル インコーポレイテッド タッチ・センシティブ入力デバイスのためのジェスチャ
JP2006099468A (ja) * 2004-09-29 2006-04-13 Toshiba Corp ジェスチャ入力装置、ジェスチャ入力方法及びジェスチャ入力プログラム
WO2008094791A2 (en) * 2007-01-30 2008-08-07 Apple Inc. Gesturing with a multipoint sensing device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013143139A (ja) * 2012-01-06 2013-07-22 Samsung Electronics Co Ltd 入力装置、ディスプレイ装置、その制御方法及びディスプレイシステム
JP2015041271A (ja) * 2013-08-22 2015-03-02 ソニー株式会社 情報処理装置、記憶媒体、および制御方法
JPWO2015029222A1 (ja) * 2013-08-30 2017-03-02 富士通株式会社 情報処理装置,表示制御プログラム及び表示制御方法

Also Published As

Publication number Publication date
KR101766187B1 (ko) 2017-08-08
EP2513760B1 (en) 2018-06-06
EP2513760A2 (en) 2012-10-24
JP5862898B2 (ja) 2016-02-16
CN102754052A (zh) 2012-10-24
WO2011075307A3 (en) 2011-10-27
US20110148786A1 (en) 2011-06-23
WO2011075307A2 (en) 2011-06-23
KR20120094955A (ko) 2012-08-27
CN102754052B (zh) 2016-10-12
EP2513760A4 (en) 2016-01-06

Similar Documents

Publication Publication Date Title
JP5862898B2 (ja) 動作モードを変更する方法および装置
JP6907005B2 (ja) タッチ表面の端部領域におけるタッチ接触の選択的拒否
US10452174B2 (en) Selective input signal rejection and modification
JP6723226B2 (ja) 中間遮蔽電極層を採用した力及び近接感知のためのデバイス及び方法
US9335844B2 (en) Combined touchpad and keypad using force input
US20130154933A1 (en) Force touch mouse
JP6659670B2 (ja) 局部的な力感知のためのデバイス及び方法
KR101154137B1 (ko) 터치 패드 상에서 한손 제스처를 이용한 사용자 인터페이스
CN107037874B (zh) 重压和移动手势
WO2016018530A1 (en) Improved stackup for touch and force sensing
US9134843B2 (en) System and method for distinguishing input objects
CN107066105B (zh) 具有视觉反馈的输入设备、处理系统和电子系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150910

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151215

R150 Certificate of patent or registration of utility model

Ref document number: 5862898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250