JP6766077B2 - 適応指紋ベースのナビゲーション - Google Patents
適応指紋ベースのナビゲーション Download PDFInfo
- Publication number
- JP6766077B2 JP6766077B2 JP2017561673A JP2017561673A JP6766077B2 JP 6766077 B2 JP6766077 B2 JP 6766077B2 JP 2017561673 A JP2017561673 A JP 2017561673A JP 2017561673 A JP2017561673 A JP 2017561673A JP 6766077 B2 JP6766077 B2 JP 6766077B2
- Authority
- JP
- Japan
- Prior art keywords
- fingerprint
- navigation
- fingerprint image
- circuit
- finger
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
- G06F3/0443—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a single layer of sensing electrodes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0317—Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
- G06F3/0446—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/13—Sensors therefor
- G06V40/1306—Sensors therefor non-optical, e.g. ultrasonic or capacitive sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/033—Indexing scheme relating to G06F3/033
- G06F2203/0338—Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Image Input (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
- Position Input By Displaying (AREA)
Description
Claims (16)
- 指紋感知回路とナビゲーション制御回路とを備える指ナビゲーションシステムを使用する指紋ベースのナビゲーション方法であって、前記方法は、
前記指紋感知回路によって、指紋画像の一連のナビゲーションシーケンスを取得するステップであって、前記一連のナビゲーションシーケンスにおける各ナビゲーションシーケンスは、最初の指紋画像と最後の指紋画像を有する連続して取得した指紋画像を複数備える、ステップと、
前記ナビゲーション制御回路によって、前記一連のナビゲーションシーケンスにおける各ナビゲーションシーケンスに対して、前記指紋画像のナビゲーションシーケンスに基づいて推定された瞬時の指移動を決定するステップと、
前記ナビゲーション制御回路によって、前記一連のナビゲーションシーケンスにおける各ナビゲーションシーケンスに対して、前記指紋画像のナビゲーションシーケンスにおける少なくとも一つの指紋画像に基づいて、指紋画像の状態を示す少なくとも一つの指紋画像パラメータ値を決定するステップと、
前記ナビゲーション制御回路によって、前記一連のナビゲーションシーケンスにおける各ナビゲーションシーケンスに対して、前記指紋画像の状態を評価するステップと、
前記ナビゲーション制御回路によって、前記評価に基づいて指紋感知回路設定を決定するステップと、
前記ナビゲーション制御回路によって、一つのナビゲーションシーケンスの最後の指紋画像の取得と、別の、直後のナビゲーションシーケンスの最初の指紋画像の取得との間の時間にのみ、前記指紋感知回路設定を前記指紋感知回路に提供するステップと、
を有する、方法。 - 請求項1に記載の方法であって、
前記ナビゲーション制御回路は、移動推定回路とプロセス制御回路とを備え、
前記移動推定回路は、前記推定された瞬時の指移動を決定するステップを実行し、
前記移動推定回路は、前記指紋画像の状態を示す少なくとも一つの前記指紋画像パラメータ値を決定するステップを実行し、
前記プロセス制御回路は、前記指紋画像の状態を評価するステップを実行し、
前記プロセス制御回路は、前記指紋感知回路設定を決定するステップを実行し、
前記移動推定回路は、前記指紋感知回路設定を前記指紋感知回路に提供するステップを実行し、及び、前記方法は、
前記移動推定回路によって、前記一連のナビゲーションシーケンスにおける各ナビゲーションシーケンスに対して、前記推定された瞬時の指移動及び前記少なくとも一つの指紋画像パラメータ値を前記プロセス制御回路に提供するステップ、及び、
前記プロセス制御回路によって、前記指紋感知回路設定を前記移動推定回路に提供するステップ、をさらに含む、方法。 - 請求項1又は2に記載の方法であって、前記ナビゲーション制御回路によって、前記指紋感知回路設定を前記指紋感知回路に提供する前に、前記指紋感知回路設定を保存するステップをさらに含む、方法。
- 請求項1〜3のいずれか一項に記載の方法であって、前記指紋画像の状態を評価するステップは、
前記少なくとも一つの指紋画像パラメータ値から生じる画質インジケータを所定の画質インジケータ閾値と比較するステップを含む、方法。 - 請求項1〜4のいずれか一項に記載の方法であって、前記指紋画像の状態を評価するステップは、
前記推定された瞬時の指移動を評価するステップを含み、
前記指紋感知回路設定は、前記推定された瞬時の指移動の前記評価にさらに基づいている、方法。 - 請求項2に記載の方法であって、前記指ナビゲーションシステムは、
前記指紋感知回路及び前記移動推定回路を含む指紋感知構成要素と、
前記プロセス制御回路を含む制御ユニットと、
を含む、方法。 - 請求項1〜6のいずれか一項に記載の方法であって、
指紋画像の各ナビゲーションシーケンスは、基準指紋画像取得時間に取得された基準指紋画像と、候補指紋画像取得時間の時間シーケンスにおける各々の候補指紋画像取得時間に取得された少なくとも一つの候補指紋画像とを含み、及び、
前記推定された瞬時の指移動を決定する前記ステップは、
前記候補指紋画像取得時間の各々について、複数の候補指移動方向の各々に対する一致パラメータ値を決定するステップであって、前記一致パラメータ値は、前記指紋感知回路の基準領域に対応する基準指紋画像部分と前記指紋感知回路の候補領域に対応する候補指紋部分との間の相関を示すものであり、前記候補領域は、前記基準領域に関して前記候補指移動方向に変位されている、ステップ、及び、
決定された前記一致パラメータ値の評価に基づいて前記指移動を推定するステップ、
含む、方法。 - 請求項7に記載の方法であって、
各候補領域は、前記基準領域に関してそれぞれの既知の変位距離だけ変位されており、及び、
前記候補指紋画像は、前記指が前記変位距離を移動するために必要な時間の間に少なくとも3個の候補指紋画像を取得する取得頻度で取得される、方法。 - 請求項8に記載の方法であって、前記取得頻度は、少なくとも毎秒3000個の候補指紋画像である、方法。
- 請求項7〜9のいずれか一項に記載の方法であって、
各候補領域は、前記基準領域に関してそれぞれの既知の変位距離だけ変位されており、及び、
前記推定された前記瞬時の指移動を決定する前記ステップは、前記決定された前記一致パラメータ値の前記評価及び前記既知の変位距離に基づいて、前記指の速度を推定することを含む、方法。 - 請求項7〜10のいずれか一項に記載の方法であって、
複数の前記候補指移動方向の各々に対する前記一致パラメータ値は、ブロックマッチングアルゴリズムを使用して決定される、方法。 - 指の指移動を推定するための指ナビゲーションシステムであって、前記指ナビゲーションシステムは、
指紋画像の一連のナビゲーションシーケンスを取得するための指紋感知回路と、
ナビゲーション制御回路であって、
前記一連のナビゲーションシーケンスにおける各ナビゲーションシーケンスに対して、前記指紋画像のナビゲーションシーケンスに基づいて、推定された瞬時の指移動を決定し、前記一連のナビゲーションシーケンスにおける各ナビゲーションシーケンスは、最初の指紋画像と最後の指紋画像を有する連続して取得した指紋画像を複数備え、
前記一連のナビゲーションシーケンスにおける各ナビゲーションシーケンスに対して、前記指紋画像のナビゲーションシーケンスにおける少なくとも一つの指紋画像に基づいて、指紋画像の状態を示す少なくとも一つの指紋画像パラメータ値を決定し、
前記一連のナビゲーションシーケンスにおける各ナビゲーションシーケンスに対して、前記指紋画像の状態を評価し、
前記評価に基づいて指紋感知回路設定を決定し、及び、
一つのナビゲーションシーケンスの最後の指紋画像の取得と、別の、直後のナビゲーションシーケンスの最初の指紋画像の取得との間の時間にのみ、前記指紋感知回路設定を前記指紋感知回路に提供する、ナビゲーション制御回路と、
を備える、システム。 - 請求項12に記載の指ナビゲーションシステムであって、
前記ナビゲーション制御回路は、移動推定回路とプロセス制御回路とを備え、
前記移動推定回路は、
前記推定された瞬時の指移動を決定し、
前記指紋画像のナビゲーションシーケンスにおける少なくとも一つの指紋画像に基づいて、指紋画像の状態を示す少なくとも一つの前記指紋画像パラメータ値を決定し、
前記一連のナビゲーションシーケンスにおける各ナビゲーションシーケンスに対して、前記推定された瞬時の指移動及び前記少なくとも一つの指紋画像パラメータ値を前記プロセス制御回路に提供し、
前記プロセス制御回路から前記指紋感知回路設定を受け取り、及び、
前記指紋感知回路設定を前記移動推定回路に提供する、ように構成される、
システム。 - 請求項13に記載の指ナビゲーションシステムであって、
前記指紋感知回路及び前記移動推定回路を含む指紋感知構成要素と、
前記プロセス制御回路を含む制御ユニットと、を備え、
前記制御ユニットは、前記指紋感知構成要素に動作可能に接続されている、
システム。 - 請求項12〜14のいずれか一項に記載の指ナビゲーションシステムであって、
前記指紋感知回路は、少なくとも毎秒3000個の候補指紋画像を取得するように構成される、システム。 - 請求項12〜15のいずれか一項に記載の指ナビゲーションシステムであって、
前記指紋感知回路は、複数の感知素子を備え、
各感知素子は、
前記指で触れられる保護誘電最上層と、
前記最上層の下に配置される導電性感知構造と、
前記感知構造に接続され、前記指と前記感知構造の間の電位差の変化に起因し前記感知構造によって運ばれる電荷の変化を示す感知信号を提供するための電荷測定回路と、を含む、
システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SE1550727 | 2015-06-04 | ||
SE1550727-0 | 2015-06-04 | ||
PCT/SE2016/050516 WO2016195581A1 (en) | 2015-06-04 | 2016-06-01 | Adaptive fingerprint-based navigation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018524675A JP2018524675A (ja) | 2018-08-30 |
JP6766077B2 true JP6766077B2 (ja) | 2020-10-07 |
Family
ID=57136313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017561673A Active JP6766077B2 (ja) | 2015-06-04 | 2016-06-01 | 適応指紋ベースのナビゲーション |
Country Status (7)
Country | Link |
---|---|
US (1) | US9477868B1 (ja) |
EP (1) | EP3304257B1 (ja) |
JP (1) | JP6766077B2 (ja) |
KR (1) | KR101875053B1 (ja) |
CN (1) | CN106537297B (ja) |
TW (1) | TWI575464B (ja) |
WO (1) | WO2016195581A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE1550281A1 (en) * | 2015-03-06 | 2016-09-07 | Fingerprint Cards Ab | Method and system for estimating finger movement |
EP3542307B1 (en) * | 2016-11-15 | 2024-08-07 | Fingerprint Cards Anacatum IP AB | Method and electronic device for fingerprint enrollment |
US10489920B2 (en) | 2017-01-11 | 2019-11-26 | Egis Technology Inc. | Method and electronic device for determining moving direction of a finger |
US11580775B2 (en) * | 2017-10-18 | 2023-02-14 | Fingerprint Cards Anacatum Ip Ab | Differentiating between live and spoof fingers in fingerprint analysis by machine learning |
KR102538102B1 (ko) * | 2021-01-29 | 2023-05-26 | 조선대학교산학협력단 | 광학 기반의 비 접촉식 센서 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6408087B1 (en) * | 1998-01-13 | 2002-06-18 | Stmicroelectronics, Inc. | Capacitive semiconductor user input device |
US6392636B1 (en) * | 1998-01-22 | 2002-05-21 | Stmicroelectronics, Inc. | Touchpad providing screen cursor/pointer movement control |
JP4522043B2 (ja) * | 2002-09-06 | 2010-08-11 | セイコーエプソン株式会社 | 情報装置及び表示制御方法 |
WO2005079413A2 (en) * | 2004-02-12 | 2005-09-01 | Atrua Technologies, Inc. | System and method of emulating mouse operations using finger image sensors |
US8447077B2 (en) * | 2006-09-11 | 2013-05-21 | Validity Sensors, Inc. | Method and apparatus for fingerprint motion tracking using an in-line array |
US8131026B2 (en) * | 2004-04-16 | 2012-03-06 | Validity Sensors, Inc. | Method and apparatus for fingerprint image reconstruction |
US8165355B2 (en) | 2006-09-11 | 2012-04-24 | Validity Sensors, Inc. | Method and apparatus for fingerprint motion tracking using an in-line array for use in navigation applications |
WO2006041780A1 (en) * | 2004-10-04 | 2006-04-20 | Validity Sensors, Inc. | Fingerprint sensing assemblies comprising a substrate |
CN101263511B (zh) * | 2005-02-17 | 2012-01-04 | 奥森泰克公司 | 使用图像重采样的手指传感器设备和相关方法 |
US7496216B2 (en) * | 2005-06-21 | 2009-02-24 | Hewlett-Packard Development Company, L.P. | Fingerprint capture |
US8509494B2 (en) * | 2005-12-21 | 2013-08-13 | Koninklijke Philips N.V. | Biometric information detection using sweep-type imager |
KR100856203B1 (ko) * | 2006-06-27 | 2008-09-03 | 삼성전자주식회사 | 지문 인식 센서를 이용한 사용자 입력 장치 및 방법 |
WO2008033265A2 (en) * | 2006-09-11 | 2008-03-20 | Validity Sensors, Inc. | Method and apparatus for fingerprint motion tracking using an in-line array |
JP2008223387A (ja) * | 2007-03-14 | 2008-09-25 | Toyota Motor Corp | 個人認証装置、個人認証装置の認証方法 |
US9336428B2 (en) * | 2009-10-30 | 2016-05-10 | Synaptics Incorporated | Integrated fingerprint sensor and display |
CN111176516B (zh) * | 2012-05-18 | 2023-10-20 | 苹果公司 | 用于操纵用户界面的设备、方法和图形用户界面 |
US9195878B2 (en) * | 2014-02-21 | 2015-11-24 | Fingerprint Cards Ab | Method of controlling an electronic device |
CN103778420B (zh) * | 2014-02-28 | 2018-11-09 | 成都费恩格尔微电子技术有限公司 | 具有自动增益控制的指纹检测系统及其自动增益控制方法 |
CN103810479B (zh) * | 2014-02-28 | 2019-04-05 | 成都费恩格尔微电子技术有限公司 | 指纹采集系统及指纹信息采集方法 |
TWM498326U (zh) * | 2014-10-03 | 2015-04-01 | Superc Touch Corp | 兼具指紋辨識與觸控偵測的顯示裝置 |
TWM493115U (zh) * | 2014-10-07 | 2015-01-01 | Metrics Technology Co Ltd J | 滑動式指紋影像處理裝置 |
-
2016
- 2016-01-21 TW TW105101845A patent/TWI575464B/zh active
- 2016-01-26 US US15/006,503 patent/US9477868B1/en active Active
- 2016-06-01 WO PCT/SE2016/050516 patent/WO2016195581A1/en unknown
- 2016-06-01 EP EP16803857.8A patent/EP3304257B1/en active Active
- 2016-06-01 KR KR1020177032522A patent/KR101875053B1/ko active IP Right Grant
- 2016-06-01 CN CN201680002069.5A patent/CN106537297B/zh active Active
- 2016-06-01 JP JP2017561673A patent/JP6766077B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
KR101875053B1 (ko) | 2018-07-05 |
CN106537297B (zh) | 2019-04-09 |
EP3304257B1 (en) | 2021-12-22 |
CN106537297A (zh) | 2017-03-22 |
KR20180006910A (ko) | 2018-01-19 |
TWI575464B (zh) | 2017-03-21 |
EP3304257A4 (en) | 2019-01-09 |
US9477868B1 (en) | 2016-10-25 |
JP2018524675A (ja) | 2018-08-30 |
EP3304257A1 (en) | 2018-04-11 |
TW201643776A (zh) | 2016-12-16 |
WO2016195581A1 (en) | 2016-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6766077B2 (ja) | 適応指紋ベースのナビゲーション | |
US9904841B2 (en) | Method and system for estimating finger movement | |
EP1312037B1 (en) | Navigation tool | |
EP1328919B8 (en) | Pointer tool | |
KR20130064086A (ko) | 음향 임피디오그래피를 사용한 포인팅 장치에 대한 방법 및 시스템 | |
US20170242539A1 (en) | Use based force auto-calibration | |
US9971434B2 (en) | Method and system for estimating finger movement with selection of navigation subareas | |
US20120319988A1 (en) | System and method for sensor device signaling using a polarity reset interval | |
US11531429B2 (en) | Touch sensing device with a circular display and method of detecting touch coordinates thereof | |
US20070126699A1 (en) | Optical navigation device and method of operating the same | |
KR102039002B1 (ko) | 촉감검출장치 및 방법 | |
US9152270B2 (en) | Methods and systems for improving touch sensitivity of touch-based devices | |
JP2012047458A (ja) | 移動方向検知装置 | |
US20120038574A1 (en) | Detection method and detection circuit for detecting touch event on touch panel by selecting non-adjacent sensing axis as reference axis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190313 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200526 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200825 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200908 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200916 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6766077 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |