JP2014513854A - マルチタッチポインティングデバイスにおける意図的及び偶発的接触の曖昧性除去 - Google Patents

マルチタッチポインティングデバイスにおける意図的及び偶発的接触の曖昧性除去 Download PDF

Info

Publication number
JP2014513854A
JP2014513854A JP2014511529A JP2014511529A JP2014513854A JP 2014513854 A JP2014513854 A JP 2014513854A JP 2014511529 A JP2014511529 A JP 2014511529A JP 2014511529 A JP2014511529 A JP 2014511529A JP 2014513854 A JP2014513854 A JP 2014513854A
Authority
JP
Japan
Prior art keywords
movement
position sensor
contact
touch
touch sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014511529A
Other languages
English (en)
Other versions
JP6038893B2 (ja
JP2014513854A5 (ja
Inventor
スタウンボス,クリストファー
ミラー,ジョン
ヤング,ロバート
ベンコ,フルヴォイェ
ペレク,デイヴィッド
アンセル,ピーター
ヘーレ,オイヴィンド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2014513854A publication Critical patent/JP2014513854A/ja
Publication of JP2014513854A5 publication Critical patent/JP2014513854A5/ja
Application granted granted Critical
Publication of JP6038893B2 publication Critical patent/JP6038893B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

入力デバイスはタッチセンサとポジションセンサを両方有する。入力デバイスからのデータを用いるコンピュータは、タッチセンサへのコンタクトの、ポジションディテクタからの動きに対する相対的動きを用いて、意図的な動きを偶発的な動きから曖昧性除去する。入力デバイスはコンピュータに、同期されたポジションセンサ及びタッチセンサデータを提供して、相対的動きを処理し、ポジションセンサとタッチセンサの両方のデータの他の比較の実行をさせる。入力デバイスはポジションセンサの動きの大きさと方向を符号化して、それを同じ時間フレームのタッチセンサデータと結合して、同期されたデータをコンピュータに出力できる。

Description

マルチタッチポインティングデバイスと呼ばれるコンピュータ入力デバイスのクラスは、ポジションセンサとタッチセンサの両方を有するデバイスを含む。典型的なマウスのように、ユーザはデバイスを持って動かし、ポジション入力をする。また、ユーザはデバイスのタッチセンサにタッチしてタッチ入力をする。タッチ入力はジェスチャとして解釈できる。ポジション入力と、タッチ入力と、場合によってジェスチャとに関する情報はアプリケーションに入力として提供される。
本欄では、発明の詳細な説明で詳しく説明するコンセプトの一部を選んで、簡単に説明する。本欄は、特許を請求する主題の重要な特徴や本質的な特徴を特定するものではなく、特許を請求する主題の範囲を限定するものでもない。
ユーザは、マルチタッチポインティングデバイスにタッチして、それを動かし、タッチセンサにタッチ入力を提供するので、意図的なコンタクトを偶発的なコンタクトからの動きとタッチセンサ上での動きを曖昧性除去(disambiguate)することは困難な場合がある。
例えば、ユーザがジェスチャの一部として指でストロークをした場合、タッチセンサへのそのコンタクトと動きは意図的なものである。しかし、ユーザがマウスを動かした時にユーザの指先がタッチセンサ上で回転した場合、タッチセンサへのコンタクトと動きは偶発的なものであるが、タッチセンサにはコンタクトと動きとして見える。
マルチタッチポインティングデバイスにおける意図的な指のコンタクトと動きと、偶発的なものとの間の曖昧性をはっきりさせなければ、多くの意図しないジェスチャが間違って通知され、かかるジェスチャに依存するアプリケーションのユーザ体験は悪くなる。マルチタッチポインティングデバイスがタッチセンサを有するマウスである場合に、この問題は悪化する。多くのユーザが手首を表面に付けたままマウスを操作し、指先でマウスをプッシュするからである。この種のマウスの操作により指先の回転運動が生じ、タッチセンサにはコンタクトの動きとして見える。
意図的な指の接触と動きと、偶発的なものとの曖昧性除去(disambiguating)を支援するため、コンピュータは、ポジションディテクタからの動きに対する、タッチセンサへの接触の相対的な動きを用いる。例えば、タッチセンサにおいて検出された接触の動きが、ポジションセンサの動きと同じ方向であれば、タッチセンサにおけるコンタクトと動きは意図的なものである可能性が高い。しかし、タッチセンサにおいて検出された接触の動きが、ポジションセンサの動きとが反対方向であれば、タッチセンサにおけるコンタクトと動きは偶発的なものである可能性が高い。
相対的動きの処理と、ポジションセンサデータとタッチセンサデータの両方に対して他の計算を行わせるため、マルチタッチポジションセンサは、同期されたポジションセンサ及びタッチセンサデータをコンピュータに提供する。一実施形態では、入力デバイスはポジションセンサの動きの大きさと方向を符号化して、それを同じ時間フレームのタッチセンサデータと結合して、同期されたデータを例えばコンピュータに出力する。
一態様では、コンピューティングマシンは、タッチセンサとポジションセンサを有する入力デバイスを有する。メモリは、入力デバイスから、タッチセンサへのコンタクトの動きを記述する情報と、ポジションセンサの動きを記述する情報とを記憶する。処理デバイスは、前記タッチセンサへのコンタクトの動きを記述する情報を受け取る第1の入力と、前記ポジションセンサの動きを記述する情報を受け取る第2の入力と、比較結果を提供する出力とを有する比較器を含む。比較結果は、コンタクトの動きが偶発的か意図的か決定するために、アプリケーションにより使われる。
他の一態様では、製品はコンピュータ記憶媒体と、そのコンピュータ記憶媒体に記憶されたコンピュータプログラム命令とを含む。かかる命令は、処理デバイスにより処理されると、処理デバイスに方法を実行するように命じる。この方法は、タッチセンサからタッチセンサデータを、ポジションセンサからポジションデータを受け取り、メモリに入れるステップを含む。処理デバイスは、処理デバイスが、前記タッチセンサへのコンタクトの動きを、前記ポジションセンサの動きと比較して、比較結果を提供する。
他の一態様では、コンピュータで実施される方法は、タッチセンサからタッチセンサデータを、ポジションセンサからポジションデータを受け取り、メモリに入れるステップを含む。処理デバイスは、処理デバイスが、前記タッチセンサへのコンタクトの動きを、前記ポジションセンサの動きと比較して、比較結果を提供する。
ある実施形態では、コンタクトの動きが前記ポジションセンサの動きと同じ方向であるとき、前記コンタクトの動きを意図的であるの表示をすることができる。コンタクトの動きが前記ポジションセンサの動きと反対方向であるとき、前記コンタクトの動きを偶発的であるの表示をすることができる。受け取られるタッチセンサデータとポジションデータは同じ時間フレームのものであることが好ましい。受け取られるポジションセンサデータは、ポジションセンサの動きの方向と大きさを記述するデータであってもよい。
他の一態様では、マルチタッチポインティングデバイスは、出力を有するタッチセンサと、出力を有するポジションセンサと、処理デバイスとを含む。処理デバイスは、同じ時間フレームの、ポジションセンサの出力とタッチセンサの出力とに関する情報を同期させて、マルチタッチポインティングデバイスの出力を提供する。一実施形態では、処理デバイスは動き計算器と同期モジュールとを含む。動き計算器は、第1のサンプル時間の前記ポジションセンサデータを受け取る第1の入力と、第2のサンプル時間の前記ポジションセンサデータを受け取る第2の入力と、前記ポジションセンサの動きの方向の符号化を提供する出力とを有する。同期モジュールは、前記タッチセンサの出力を受け取る第1の入力と、前記動き計算器の出力を受け取る第2の入力と、マルチタッチポインティングデバイスの出力を提供する出力とを有する。一実施形態では、タッチセンサデータとポジションセンサデータとは出力として提供される。他の一実施形態では、ポジションセンサの動きとタッチセンサデータとが出力として提供される。
以下の説明では、本開示の一部を構成する、具体的な実施例を例示として示す添付図面を参照する。言うまでもなく、本開示の範囲から逸脱することなく、他の実施形態を考えることができる。
マルチタッチポインティングデバイスを利用し得る動作環境例を示すブロック図である。 意図的及び偶発的な接触と動きの曖昧性除去の実施例を示すデータフロー図である。 図2の動きデータがどう求められるかの実施例を示すデータフロー図である。 ポジションセンサデータの符号化の例を示す図である。 入力デバイスの一例の動作を示すフローチャートである。 入力デバイスを用いるコンピュータの動作例を示すフローチャートである。 かかるシステムを実施できるコンピューティングマシンを示すブロック図である。
以下のセクションでは、かかるマルチタッチポインティングデバイスを利用できる動作環境を説明する。
図1を参照するが、コンピュータ120上で実行されているアプリケーション100が、マルチタッチポインティングデバイス102からのユ―ザ入力に応答する。デバイス102は、コンピュータ120に、ポジションセンサデータ及びタッチセンサデータ104を提供する。コンピュータ120は、曖昧性除去モジュール106を含む。この曖昧性除去モジュール106は、一般的には、コンピュータ120上でユーザレベルプロセスとして実行されているデバイス102のダイナミックリンクライブラリ(dynamically-linked library)内にインプリメントされている。デバイス102がヒューマンインタフェースデバイス(HID)クラスのユニバーサルシリアルバス(USB)デバイスである一実施形態では、このライブラリは、そのクラスのデバイスのためのドライバにより提供されるデータを受け取る。曖昧性除去モジュール106は、デバイス102からデータ104を受け取り、コンタクト情報108を提供する。コンタクト情報108は、タッチセンサにおける意図的な接触と動きであるとコンピュータが考えるものを示す。コンタクト情報108は、少なくとも部分的には、ポジションセンサの動きの方向と大きさ(magnitude)を用いて、タッチセンサ上の接触と動きの意図的なものと偶発的なものとの曖昧性除去に基づく。
意図的な指の接触と動きと、偶発的なものとの曖昧性除去(disambiguating)を支援するため、曖昧性除去モジュールは、ポジションディテクタからの動きに対する、タッチセンサへの接触の相対的な動きを用いる。例えば、タッチセンサにおいて検出された接触の動きが、ポジションセンサの動きと同じ方向であれば、タッチセンサにおける接触運動(contact motion)は意図的なものである可能性が高い。しかし、タッチセンサにおいて検出された接触の動きが、ポジションセンサの動きとが反対方向であれば、タッチセンサにおける接触運動(contact motion)は偶発的なものである可能性が高い。
このコンテキストにおいて、図2、図3および図4を参照して、曖昧性除去モジュール106の実施例をより詳細に説明する。この実施形態では、曖昧性除去モジュールは、コンピュータ上でユーザレベルプロセスとして実行されるコンピュータプログラムとして実施される。このモジュールは、ポジションセンサからの動きデータとタッチセンサデータとを処理する。他のインプリメンテーションも可能である。例えば、曖昧性除去モジュールは入力デバイス自体にあってもよい。かかる一インプリメンテーションでは、入力デバイスは、曖昧性除去モジュールをインプリメントするファームウェアを処理デバイス中に含む。このモジュールは、タッチセンサ情報と、タッチセンサとポジションセンサにおける接触間の相対的な動きを示すその他のデータとを提供する。
図2において、比較器200は、タッチセンサへの接触の動きを記述する情報202を受け取る第1の入力を有する。この情報は、例えば、タッチセンサへの接触を特定する接触検出アルゴリズムの出力である。接触は、識別子により、及びx、y座標またはその他の記述(例えば、囲みボックス、画素重み、画素数、またはその他の接触の特徴)により、特徴付けできる。第2の入力は、ポジションセンサの動きを記述する情報204を受け取る。ポジションセンサの動きを記述する情報は、例えば、動きの方向と大きさである。あるいは、この情報は、ポジションセンサの動きを計算できるどんなデータであってもよく、例えば現在の及び以前のポジションデータであってもよい。比較器は複数の方法で比較を実施できる。接触の動き(contact motion)とポジションセンサの動きに適用して接触とポジションセンサが同じ方向に動いているか、反対の方向に動いているか判断できる数学的関数を用いることができる。例えば、方向の違いが閾値内にある場合、方向は同じであると見なせる。他の一例として、x軸とy軸の動きの方向の符号を比較できる。他の一インプリメンテーションでは、接触の動きをポジションセンサの動きで調整してもよい。すなわち、ポジションセンサの動きを接触の動きから減算してもよい。比較器200の出力は比較結果206である。
ポジションセンサの動きと、タッチセンサへの接触の動きとを表す入力は、複数の方法で求めることができる。一実施例を図3に示した。
図3は、入力デバイスにおけるポジションセンサとタッチセンサからのデータを処理するデータフロー図である。この実施例では、コンタクト処理モジュール320はコンピュータにあり、他のモジュールは入力デバイスにある。
入力デバイスにおいて、300、302で示したように、時刻XとX-1にポジションセンサからの生ポジションが記憶される。異なる2つの時点のポジションデータを用いて、動き計算器304により動きを計算できる。動き計算器は、様々な方法で実施でき、306で示したように、ポジションセンサにより検出された、動きの大きさと方向などの動きを記述する情報を提供できる。同期モジュール310は、動きデータを、同じ時間フレームのタッチセンサデータ308と同期して、同期されたタッチセンサ・ポジションセンサデータ312を提供する。
同期モジュール310の目的のひとつは、コンピュータが同じ時間フレームのポジションセンサデータとタッチセンサデータを受け取るようにすることである。時間フレームは、ポジションセンサの動きを計算する時間(period of time)である。この時間フレーム中に取得されたタッチセンサデータは、同じ時間フレーム内にある。同じ時間フレームの動き情報とタッチセンサ情報とを同期することにより、それらの相対的な方向と大きさを比較できる。コンピュータにおいて、コンタクト処理モジュール320は、同期されたタッチセンサ・ポジションセンサデータ312を受け取る入力と、曖昧性除去されたコンタクトモーション322を提供する出力とを有する。一例として、このコンタクト処理モジュール320は、図2のデータフロー図による比較器を含むように実施することもできる。各コンタクトに対して、比較器情報を用いて、コンタクトの動きが偶発的なものか意図的なものか示すことができる。
かかるコンタクト曖昧性除去(contact disambiguation)の動作例を概説したので、ここで具体例を説明する。
ポジションセンサの動き情報を、同じ時間フレームのタッチセンサデータと同期するように、提供する様々な方法がある。以下に説明する一例では、時間Xにおける動きの大きさと方向は値として符号化され、タッチセンサデータと結合されて、その後入力デバイスからコンピュータに送信される。
具体的な実施形態では、5×5ピクセルで1ピクセルあたり4ビットデータのタッチセンサにより、100ビットのタッチセンサデータが提供される。タッチセンサデータを記憶する13バイト中、さらに4ビットデータを利用できる。ポジションセンサデータはこれらの4ビットで符号化できる。ポジションセンサデータとタッチセンサデータとを表すのに用いるビット数は、タッチセンサの分解能(すなわち、ピクセル数とピクセル深度)と、ポジションセンサ情報の望ましいフォーマット及び分解能と、入力デバイスからホストに送信できるビット数とに依存する。
例えば、図4に示したように、ポジションセンサの動きは、2つのバイナリ値により符号化できる方向と、2ビットで符号化できる速度を表す大きさとにより表され、値0は動きが無いことを表す。方向は、方向が原点から負の向きか正の向きかを表す値と、方向が主としてx軸上かy軸上にあるか表す他の値とにより符号化される。例えば、主として正のY軸方向(クアドラント0)の動きの場合、2つのバイナリ値は、例えば負方向=0、X軸=0であり、これは大きさ値と結合され、例えば、16進数フォーマットで0x0、0x1、0x2、または0x3という値になる。ポジションセンサの動きが主として正のX軸方向(クアドラント1)である場合、2つのバイナリ値は、例えば負方向=0、X軸=1であり、これは大きさ値と結合され、例えば、0x4、0x5、0x6、または0x7という値になる。ポジションセンサの動きが主として負のY軸方向(クアドラント2)である場合、2つのバイナリ値は、例えば負方向=1、X軸=0であり、これは大きさ値と結合され、例えば、0x8、0x9、0xA、または0xBという値になる。ポジションセンサの動きが主として負のX軸方向(クアドラント3)である場合、2つのバイナリ値は、例えば負方向=1、X軸=1であり、これは大きさ値と結合され、例えば、0xC、0xD、0xE、または0xFという値になる。
表1は、タッチセンサデータのバイトの最後の4ビット中の位置データの符号化を表す。
Figure 2014513854
ここで図5を参照し、入力デバイス例の同左例を説明する。ポジションセンサデータとタッチセンサデータをサンプリングする(500)。例えば、これには規則的な時間間隔でポジションセンサとタッチセンサとのそれぞれにより提供される出力を定期的にサンプリングすることが含まれる。位置データに関する情報は、ポジションセンサデータ自体、または符号化された方向と大きさなどのポジションセンサデータから得られた情報を含んでも良く、同じ時間フレームのタッチセンサデータと結合される(502)。結合されたデータはコンピュータに送信される(504)。例えば、これはシリアルバス、無線接続、または入力デバイスとコンピュータとの間のその他のインタフェースにより送信できる。
ここで図6を参照し、コンピュータが、入力デバイスとコンピュータとの間のインタフェースにより、結合されたポジション及びタッチセンサデータを受信する(600)。コンピュータがデータを抽出し、そのデータを処理する(ドライバなどの)アプリケーションにアクセス可能なメモリに記憶する。タッチセンサデータを処理して(602)、タッチセンサへの接触を特定し、そうでなければタッチセンサへの接触を特徴付ける。具体的には、タッチsenseへの各接触の明らかな動きを求めることができる。上記のように、ポジションセンサとタッチセンサへの接触との相対的な動きを比較して(604)、意図的な動きと偶発的な動きとを曖昧性除去する。タッチセンサへの接触の動きに関連する値を記憶して、この結論を示す。
実施例を説明したので、かかるシステムが動作するように設計されたコンピューティング環境を説明する。以下の説明は、このシステムを実施できる好適なコンピューティング環境の簡単な一般的説明するものである。本システムは、多数の汎用または特定用途のコンピューティングハードウェア構成で実施することができる。好適な周知のコンピューティングデバイスの例には、限定ではなく、パーソナルコンピュータ、サーバコンピュータ、ハンドヘルドまたはラップトップデバイス(例えば、メディアプレーヤ、ノートブックコンピュータ、セルラー電話、パーソナルデジタルアシスタント、ボイスレコーダ)、マルチプロセッサシステム、マイクロプロセッサベースシステム、セットトップボックス、ゲームコンソール、プログラマブルコンシューマエレクトロニクス、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、上記のシステムまたはデバイスのいずれかを含む分散コンピューティング環境などが含まれる。
図7は、好適なコンピューティング環境の一例を示す。上記のコンピューティングシステム環境は、好適なコンピューティング環境の単なる一例であって、かかるコンピューティング環境の利用や機能の範囲に関する限定を示唆するものではない。どのコンピューティング環境も、上記の動作環境に示したコンポーネントのどれかまたはその組合せに依存するまたは必要とすると解してはならない。
図7を参照し、コンピューティング環境例はコンピューティングマシン700などのコンピューティングマシンを含む。最も基本的な構成では、コンピューティングマシン700は少なくとも1つの処理ユニット702とメモリ704を含む。コンピューティングデバイスは、複数の処理ユニット及び/または追加的なグラフィックス処理ユニット720などのコ・プロセッシングユニット(co-processing units)を含む。コンピューティングデバイスの構成とタイプに応じて、メモリ704は、(RAMなどの)揮発性であっても、(ROMやフラッシュメモリなどの)不揮発性であっても、これらの組合せであってもよい。この最も基本的な構成を図7において破線706で示した。また、コンピューティングマシン700は、追加的特徴や機能を有していてもよい。例えば、コンピューティングマシン700は、磁気または光学のディスクまたはテープなどを含むがこれらに限定されない(リムーバブル及び/または非リムーバブルの)追加的な記憶も含み得る。かかる追加的記憶は、図7において、リムーバブル記憶708及び非リムーバブル記憶710により示されている。コンピュータ記憶媒体には、コンピュータプログラム命令、データ構造、プログラムモジュールその他のデータなどの情報を記憶するための任意の方法や技術で実施された、揮発性および不揮発性、リムーバブルまたは非リムーバブルの媒体を含む。メモリ704、リムーバブル記憶708、及び非リムーバブル記憶710は、すべてコンピュータ記憶媒体の例である。コンピュータ記憶媒体は、RAM、ROM、EEPROM、フラッシュメモリその他のメモリ技術、CD−ROM、デジタルバーサタイルディスク(DVD)その他の光ディスク記憶媒体、磁気カセット、磁気テープ、磁気ディスク記憶その他の磁気記憶デバイス、またはその他の、所望の情報の記憶に使え、コンピューティングマシン700によりアクセスできる任意の媒体を含むが、これらに限定されない。かかるコンピュータ記憶媒体はコンピューティングマシン700の一部であり得る。
コンピューティングマシン700は、デバイスが他のデバイスと通信できるようにする通信接続712も含み得る。通信接続712は通信媒体の一例である。通信媒体は、一般的に、キャリア波などの変調データ信号やその他の伝送メカニズム中のコンピュータプログラム命令、データ構造、プログラムモジュールその他のデータを担い、任意の情報配信媒体を含む。「変調データ信号」との用語は、情報を信号にエンコードするように設定または変更された特徴を有し、信号を受信するデバイスの構成や状態を変化させる信号を意味する。限定でなく例示として、通信媒体は、優先ネットワークや直接優先接続などの有線媒体と、音響、RF、赤外線、その他の無線媒体などの無線媒体とを含む。
コンピューティングマシン700は、ディスプレイ、キーボード、マウス、ペン、カメラ、タッチ入力デバイスなどの様々な入力デバイス714を有する。スピーカ、プリンタなどの出力デバイス716を含んでいてもよい。これらのデバイスはすべて本技術分野で周知であり、これ以上説明する必要はない。
システムは、コンピューティングマシンにより処理される、プログラムモジュールなどのコンピュータ実行可能命令及び/またはコンピュータインタープリタ命令を含むソフトウェアの一般的なコンテキストで実施することもできる。一般的に、プログラムモジュールには、処理ユニットにより処理されたときに、あるタスクを実行したり、ある抽象的データタイプをインプリメントするように処理ユニットに命令する、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造などが含まれる。このシステムは、通信ネットワークによりリンクされたリモート処理装置によりタスクが実行される分散計算環境で実施することもできる。分散コンピューティング環境では、プログラムモジュールは、メモリ記憶デバイスを含むローカル及びリモートのコンピュータ記憶媒体の両方に配置できる。
添付した請求項のプリアンブルの「製品」、「方法」、「マシン」、及び「物質組成」との用語は、請求項を、米国特許法第101条におけるこれらの用語の使用により画定される保護対象の主題の範囲内になるように限定するものである。
ここに説明した実施形態を必要に応じて組み合わせて、追加的なハイブリッドの実施形態を構成することもできる。言うまでもなく、添付した請求項で画定した主題は、上記の具体的な実施形態に必ずしも限定されない。上記の具体的な実施形態は単に例として開示したものである。

Claims (10)

  1. タッチセンサからタッチセンサデータを、ポジションセンサからポジションデータを受け取り、メモリに入れるステップと、
    処理デバイスが、前記タッチセンサへのコンタクトの動きを、前記ポジションセンサの動きと比較して、比較結果を提供するステップと、
    前記比較結果に基づき前記タッチセンサへのコンタクトに関する情報を提供するステップとを有する、
    方法。
  2. コンタクトの動きが前記ポジションセンサの動きと同じ方向であるとき、前記コンタクトの動きを意図的であるの表示をする、
    請求項1に記載の方法。
  3. コンタクトの動きが前記ポジションセンサの動きと反対方向であるとき、前記コンタクトの動きを偶発的であるの表示をする、
    請求項1に記載の方法。
  4. 前記受け取られるポジションセンサデータは動きの方向と大きさを記述するデータを含む、
    請求項1に記載の方法。
  5. マルチタッチポインティングデバイスであって、
    出力を有するタッチセンサと、
    出力を有するポジションセンサと、
    前記タッチセンサと前記ポジションセンサの出力を受け取るように接続された入力を有し、同じ時間フレームの前記ポジションセンサの出力と前記タッチセンサの出力とに関する情報を同期して、前記マルチタッチポインティングデバイスの出力を提供する処理デバイスとを有する、デバイス。
  6. 前記処理デバイスは、
    第1のサンプル時間の前記ポジションセンサデータを受け取る第1の入力と、第2のサンプル時間の前記ポジションセンサデータを受け取る第2の入力と、前記ポジションセンサの動きの方向の符号化を提供する出力とを有する動き計算器と、
    前記タッチセンサの出力を受け取る第1の入力と、同じ時間フレームの前記動き計算器の出力を受け取る第2の入力と、前記同期された入力を前記マルチタッチポインティングデバイスの出力として提供する出力とを有する同期モジュールとを有する、
    請求項5に記載のマルチタッチポインティングデバイス。
  7. 前記動き計算器の出力は前記ポジションセンサの動きの方向と大きさを符号化する、
    請求項6に記載のマルチタッチポインティングデバイス。
  8. 入力デバイスから、タッチセンサへのコンタクトの動きを記述する情報と、ポジションセンサの動きを記述する情報とを記憶するメモリと、
    前記タッチセンサへのコンタクトの動きを記述する情報を受け取る第1の入力と、前記ポジションセンサの動きを記述する情報を受け取る第2の入力と、比較結果を提供する出力とを有する比較器を含む処理デバイスとを有する、
    コンピューティングマシン。
  9. コンタクトの動きが前記ポジションセンサの動きと同じ方向であるとき、前記コンタクトの動きを意図的であるの表示をする、
    請求項8に記載のコンピューティングマシン。
  10. コンタクトの動きが前記ポジションセンサの動きと反対方向であるとき、前記コンタクトの動きを偶発的であるの表示をする、
    請求項8に記載のコンピューティングマシン。
JP2014511529A 2011-05-18 2012-05-17 マルチタッチポインティングデバイスにおける意図的及び偶発的接触の曖昧性除去 Active JP6038893B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/110,013 2011-05-18
US13/110,013 US8786561B2 (en) 2011-05-18 2011-05-18 Disambiguating intentional and incidental contact and motion in multi-touch pointing devices
PCT/US2012/038317 WO2012158895A2 (en) 2011-05-18 2012-05-17 Disambiguating intentional and incidental contact and motion in multi-touch pointing devices

Publications (3)

Publication Number Publication Date
JP2014513854A true JP2014513854A (ja) 2014-06-05
JP2014513854A5 JP2014513854A5 (ja) 2015-06-18
JP6038893B2 JP6038893B2 (ja) 2016-12-07

Family

ID=47174568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014511529A Active JP6038893B2 (ja) 2011-05-18 2012-05-17 マルチタッチポインティングデバイスにおける意図的及び偶発的接触の曖昧性除去

Country Status (7)

Country Link
US (2) US8786561B2 (ja)
EP (1) EP2710450A4 (ja)
JP (1) JP6038893B2 (ja)
KR (1) KR101979965B1 (ja)
CN (1) CN103534667B (ja)
TW (1) TWI536205B (ja)
WO (1) WO2012158895A2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2721607A1 (en) * 2011-06-15 2014-04-23 Bone Tone Communications (Israel) Ltd. System, device and method for detecting speech
CN102799310B (zh) * 2012-07-02 2015-07-08 华为终端有限公司 触摸屏的解锁方法及装置
US9257647B2 (en) * 2013-03-14 2016-02-09 Northrop Grumman Systems Corporation Phase change material switch and method of making the same
US10670402B2 (en) * 2013-11-01 2020-06-02 Invensense, Inc. Systems and methods for optical sensor navigation
AR102615A1 (es) * 2014-11-14 2017-03-15 Bayer Healthcare Llc Analizador de analitos
CN107454949B (zh) * 2016-05-24 2020-06-02 深圳市柔宇科技有限公司 一种运动传感装置、方法及穿戴模块
US10700270B2 (en) 2016-06-21 2020-06-30 Northrop Grumman Systems Corporation PCM switch and method of making the same
US10019109B2 (en) 2016-06-28 2018-07-10 Google Llc Enhancing touch-sensitive device precision
US10663298B2 (en) * 2017-06-25 2020-05-26 Invensense, Inc. Method and apparatus for characterizing platform motion
US10901529B2 (en) * 2018-07-19 2021-01-26 Stmicroelectronics S.R.L. Double-tap event detection device, system and method
US11546010B2 (en) 2021-02-16 2023-01-03 Northrop Grumman Systems Corporation Hybrid high-speed and high-performance switch system
WO2023049045A1 (en) * 2021-09-21 2023-03-30 Apple Inc. Input location correction based on device motion
US11755150B2 (en) 2021-09-21 2023-09-12 Apple Inc. Input location correction based on device motion

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002073269A (ja) * 2000-06-14 2002-03-12 Nagano Fujitsu Component Kk 座標入力装置
JP2002333952A (ja) * 2001-05-09 2002-11-22 Fuji Xerox Co Ltd アクチュエータ
JP3158844U (ja) * 2010-01-12 2010-04-22 長群鋼模有限公司 タッチ式マウスの待機状態からの復帰装置
WO2011093033A1 (ja) * 2010-01-26 2011-08-04 パナソニック株式会社 表示制御装置、表示制御方法、プログラムおよび集積回路

Family Cites Families (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3158844B2 (ja) 1994-03-07 2001-04-23 富士電機株式会社 半導体素子の製造方法
US5856822A (en) 1995-10-27 1999-01-05 02 Micro, Inc. Touch-pad digital computer pointing-device
JPH09146708A (ja) 1995-11-09 1997-06-06 Internatl Business Mach Corp <Ibm> タッチパネルの駆動方法及びタッチ入力方法
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
EP2256605B1 (en) 1998-01-26 2017-12-06 Apple Inc. Method and apparatus for integrating manual input
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US20040207606A1 (en) 1999-11-08 2004-10-21 Atwood Stephen P. Sensing the size of a touch point in a touch-sensitive panel employing resistive membranes
US6671406B1 (en) 1999-12-29 2003-12-30 Honeywell International Inc. System, method and apparatus for pattern recognition with application to symbol recognition and regeneration for a caligraphic display
US6489948B1 (en) * 2000-04-20 2002-12-03 Benny Chi Wah Lau Computer mouse having multiple cursor positioning inputs and method of operation
US7254775B2 (en) 2001-10-03 2007-08-07 3M Innovative Properties Company Touch panel system and method for distinguishing multiple touch inputs
US7023427B2 (en) 2002-06-28 2006-04-04 Microsoft Corporation Method and system for detecting multiple touches on a touch-sensitive screen
US6856259B1 (en) 2004-02-06 2005-02-15 Elo Touchsystems, Inc. Touch sensor system to detect multiple touch events
US7561146B1 (en) 2004-08-25 2009-07-14 Apple Inc. Method and apparatus to reject accidental contact on a touchpad
US8106888B2 (en) 2004-10-01 2012-01-31 3M Innovative Properties Company Vibration sensing touch input device
US9019209B2 (en) 2005-06-08 2015-04-28 3M Innovative Properties Company Touch location determination involving multiple touch location processes
JP4457051B2 (ja) 2005-07-19 2010-04-28 任天堂株式会社 オブジェクト移動制御プログラムおよび情報処理装置
US7633076B2 (en) * 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
US8077153B2 (en) 2006-04-19 2011-12-13 Microsoft Corporation Precise selection techniques for multi-touch screens
US9063647B2 (en) 2006-05-12 2015-06-23 Microsoft Technology Licensing, Llc Multi-touch uses, gestures, and implementation
KR100866484B1 (ko) 2006-05-17 2008-11-03 삼성전자주식회사 다접점 터치 센서를 이용한 손가락의 이동 감지 장치 및방법
DE112007002544A1 (de) 2006-06-09 2010-07-22 Apple Inc., Cupertino Flüssigkristallanzeige mit Berührungsbildschirm
KR100782431B1 (ko) 2006-09-29 2007-12-05 주식회사 넥시오 적외선 터치스크린의 다점 좌표인식방법 및 접점면적인식방법
US8902172B2 (en) 2006-12-07 2014-12-02 Cypress Semiconductor Corporation Preventing unintentional activation of a touch-sensor button caused by a presence of conductive liquid on the touch-sensor button
US8130203B2 (en) 2007-01-03 2012-03-06 Apple Inc. Multi-touch input discrimination
KR100881186B1 (ko) 2007-01-04 2009-02-05 삼성전자주식회사 터치 스크린 디스플레이 장치
US7916126B2 (en) 2007-06-13 2011-03-29 Apple Inc. Bottom-up watershed dataflow method and region-specific segmentation based on historic data to identify patches on a touch sensor panel
US8378974B2 (en) 2007-07-02 2013-02-19 Elo Touch Solutions, Inc. Method and system for detecting touch events based on magnitude ratios
US20100073318A1 (en) 2008-09-24 2010-03-25 Matsushita Electric Industrial Co., Ltd. Multi-touch surface providing detection and tracking of multiple touch points
KR20090042425A (ko) 2007-10-26 2009-04-30 엘지전자 주식회사 입력 장치 및 입력 방법
KR20090065040A (ko) 2007-12-17 2009-06-22 삼성전자주식회사 동작과 터치를 이용한 이중 포인팅 장치 및 방법
US20090174679A1 (en) * 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
US20090179865A1 (en) 2008-01-15 2009-07-16 Avi Kumar Interface system and method for mobile devices
JP2010014651A (ja) 2008-07-07 2010-01-21 Mitsubishi Electric Corp 電圧測定装置及び記憶装置及び電圧測定方法
US8390577B2 (en) 2008-07-25 2013-03-05 Intuilab Continuous recognition of multi-touch gestures
KR101496844B1 (ko) 2008-07-28 2015-02-27 삼성디스플레이 주식회사 터치 스크린 표시 장치 및 그 구동 방법
US8300020B2 (en) * 2008-08-15 2012-10-30 Apple Inc. Hybrid inertial and touch sensing input device
US9058066B2 (en) * 2008-11-12 2015-06-16 Apple Inc. Suppressing errant motion using integrated mouse and touch information
US8217909B2 (en) 2008-12-19 2012-07-10 Cypress Semiconductor Corporation Multi-finger sub-gesture reporting for a user interface device
TW201027399A (en) 2009-01-09 2010-07-16 E Lead Electronic Co Ltd Method for aiding control of cursor movement through a track pad
US9317140B2 (en) 2009-03-30 2016-04-19 Microsoft Technology Licensing, Llc Method of making a multi-touch input device for detecting touch on a curved surface
US20100315372A1 (en) 2009-06-12 2010-12-16 Stmicroelectronics Asia Pacific Pte Ltd. Touch coordinate calculation for a touch-sensitive interface
US20120092253A1 (en) 2009-06-22 2012-04-19 Pourang Irani Computer Input and Output Peripheral Device
JP5218293B2 (ja) 2009-06-22 2013-06-26 ソニー株式会社 情報処理装置、表示制御方法、およびプログラム
US9632622B2 (en) * 2009-07-16 2017-04-25 Apple Inc. Ground detection for touch sensitive device
KR101630179B1 (ko) 2009-07-28 2016-06-14 삼성전자주식회사 투영정전용량 터치스크린에서의 멀티터치 감지 장치 및 방법
KR20110018569A (ko) 2009-08-18 2011-02-24 임종걸 멀티터치패드 겸용 마우스 및 그 제어방법
US9101766B2 (en) 2009-10-16 2015-08-11 The Board Of Trustees Of The Leland Stanford Junior University Eliciting analgesia by transcranial electrical stimulation
US8194051B2 (en) 2009-12-15 2012-06-05 Silicon Integrated Systems Corp. Multiple fingers touch sensing method using matching algorithm
US8514188B2 (en) 2009-12-30 2013-08-20 Microsoft Corporation Hand posture mode constraints on touch input
US8384683B2 (en) * 2010-04-23 2013-02-26 Tong Luo Method for user input from the back panel of a handheld computerized device
US20110304577A1 (en) 2010-06-11 2011-12-15 Sp Controls, Inc. Capacitive touch screen stylus
US8884980B2 (en) 2010-09-24 2014-11-11 Taaz, Inc. System and method for changing hair color in digital images
US20120105334A1 (en) 2010-11-03 2012-05-03 Microsoft Corporation Computing device with flat touch surface
US9122341B2 (en) 2010-11-08 2015-09-01 Microsoft Technology Licensing, Llc Resolving merged touch contacts
US20120254809A1 (en) * 2011-03-31 2012-10-04 Nokia Corporation Method and apparatus for motion gesture recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002073269A (ja) * 2000-06-14 2002-03-12 Nagano Fujitsu Component Kk 座標入力装置
JP2002333952A (ja) * 2001-05-09 2002-11-22 Fuji Xerox Co Ltd アクチュエータ
JP3158844U (ja) * 2010-01-12 2010-04-22 長群鋼模有限公司 タッチ式マウスの待機状態からの復帰装置
WO2011093033A1 (ja) * 2010-01-26 2011-08-04 パナソニック株式会社 表示制御装置、表示制御方法、プログラムおよび集積回路

Also Published As

Publication number Publication date
WO2012158895A3 (en) 2013-02-28
EP2710450A2 (en) 2014-03-26
TW201248455A (en) 2012-12-01
KR20140027277A (ko) 2014-03-06
JP6038893B2 (ja) 2016-12-07
US20140327641A1 (en) 2014-11-06
KR101979965B1 (ko) 2019-08-28
US9569094B2 (en) 2017-02-14
WO2012158895A2 (en) 2012-11-22
CN103534667B (zh) 2017-12-01
TWI536205B (zh) 2016-06-01
CN103534667A (zh) 2014-01-22
EP2710450A4 (en) 2015-06-03
US20120293420A1 (en) 2012-11-22
US8786561B2 (en) 2014-07-22

Similar Documents

Publication Publication Date Title
JP6038893B2 (ja) マルチタッチポインティングデバイスにおける意図的及び偶発的接触の曖昧性除去
EP3120232B1 (en) Determining user handedness and orientation using a touchscreen device
US8581901B2 (en) Methods and apparatus for interactive rotation of 3D objects using multitouch gestures
US9001059B2 (en) Method and apparatus for choosing an intended target element from an imprecise touch on a touch screen display
US20110205175A1 (en) Method and device for determining rotation gesture
JP2004280834A (ja) 仮想筆記平面を用いたモーション認識システム及びその認識方法
US9378427B2 (en) Displaying handwritten strokes on a device according to a determined stroke direction matching the present direction of inclination of the device
US20140306910A1 (en) Id tracking of gesture touch geometry
KR20150011885A (ko) 디바이스의 사용자 인터페이스 제공 방법 및 그 디바이스
US20150370443A1 (en) System and method for combining touch and gesture in a three dimensional user interface
US8948514B2 (en) Electronic device and method for processing handwritten document
KR101596600B1 (ko) 사용자 패턴 기반의 동작 인식 보정 장치 및 그 방법
CN109189285A (zh) 操作界面控制方法及装置、存储介质、电子设备
JP2010086367A (ja) 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置
EP2987062B1 (en) Electronic device and method for preventing touch input error
US20120032984A1 (en) Data browsing systems and methods with at least one sensor, and computer program products thereof
TWI498793B (zh) 光學觸控系統及光學觸控控制方法
WO2012162200A2 (en) Identifying contacts and contact attributes in touch sensor data using spatial and temporal features
CN109254671B (zh) 在ar/vr应用中操控物体姿态的交互方法、装置及设备
US10558270B2 (en) Method for determining non-contact gesture and device for the same
CN110162251A (zh) 图像缩放方法及装置、存储介质、电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150420

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150420

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161102

R150 Certificate of patent or registration of utility model

Ref document number: 6038893

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250