JP2013519132A - 表面音響信号を用いたユーザインタフェース提供装置及び方法、ユーザインタフェースを備えるデバイス - Google Patents
表面音響信号を用いたユーザインタフェース提供装置及び方法、ユーザインタフェースを備えるデバイス Download PDFInfo
- Publication number
- JP2013519132A JP2013519132A JP2012551100A JP2012551100A JP2013519132A JP 2013519132 A JP2013519132 A JP 2013519132A JP 2012551100 A JP2012551100 A JP 2012551100A JP 2012551100 A JP2012551100 A JP 2012551100A JP 2013519132 A JP2013519132 A JP 2013519132A
- Authority
- JP
- Japan
- Prior art keywords
- acoustic signal
- surface acoustic
- user interface
- signal
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 41
- 238000000605 extraction Methods 0.000 claims description 29
- 238000003909 pattern recognition Methods 0.000 claims description 21
- 238000012360 testing method Methods 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 17
- 238000004364 calculation method Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 6
- 238000001228 spectrum Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000003570 air Substances 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 239000000123 paper Substances 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/043—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
- G06F3/0436—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves in which generating transducers and detecting transducers are attached to a single acoustic waves transmission substrate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- General Health & Medical Sciences (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明によると、デバイスを直接タッチしない場合にもユーザの意図を識別するため、デバイス及びデバイスの付属品の寿命を増加させる。
表面音響信号の特徴抽出は、表面音響信号のパターンを分析するために必要な特徴を表面音響信号から抽出する。一側面において、表面音響信号の特徴抽出は、DSP(Digital Signal Processor)のようなハードウェア装置、ソフトウェア、またはハードウェア装置に適するようにプログラミングされた手段によって行われてもよい。ただし、説明の便宜上、表面音響信号の特徴抽出は特徴抽出部221によって行われると仮定する。
1.取得された表面音響信号を最小の意味単位の信号Sを分離する。
2.最小の意味単位の信号SをN個のフレームに分割する。
3.N個のフレームそれぞれの特徴値CNを抽出し、CNを格納する。
4.取得された表面音響信号全体の特徴値CTを抽出し、CTを格納する。
5.DBに最小の意味単位のパターンモデルを格納する場合、CN及びCTを用いた機械的な学習モデルMを生成し、MをDBに格納する。
媒質の種類推定は、表面音響信号から抽出された特徴をパターンモデルと比較する過程である。ユーザが表面音響信号を生成するとき使用する入力媒質は単一媒質(例えば、ガラス)と複合媒質(例えば、机)に区分してもよい。表面音響信号の形態変化は、センサの種類だけではなく媒質面の凹凸の程度に応じて極めて大きい場合もある。媒質の種類推定は、DSP(Digital Signal Processor)のようなハードウェア装置、ソフトウェア、またはハードウェア装置に適するようにプログラミングされた手段によって行われてもよい。ただし、説明の便宜上、表面音響信号の特徴抽出はパターン認識部220によって行われると仮定する。
1.テスト信号を発生させる。
2.デバイスに接触した媒質を介して伝播する表面音響信号を取得する。
3.上記の2で取得された表面音響信号の特徴とマッチングされる媒質をDBから探す。
表面音響信号を発生させたツールの推定はユーザの入力ツールを推定することにある。ここで、入力ツールは、指、ペン、スタイラス、その他のツールのいずれか1つであってもよい。すなわち、ユーザは指やスタイラスなどの様々な入力ツールによってデバイスを操作してもよい。入力ツールの推定はDSP(Digital Signal Processor)のようなハードウェア装置、ソフトウェア、または、ハードウェア装置に適するようにプログラミングされた手段によって行われてもよい。ただし、説明の便宜上、入力ツールの推定はパターン認識部220によって行われるものと仮定する。
ユーザの入力信号識別は、ユーザの意図またはユーザのジェスチャーを区分するためのものである。ユーザの入力信号は単純なドラッギング、文字入力、タップ(tap、媒質を軽く打つこと)、特定のタッチイベントなどがある。ユーザの入力信号を識別することによってデバイスは様々な機能を行うことができる。
を順に入力した場合、ユーザ入力識別部230はユーザの入力信号が「M」であることを識別する。
Claims (25)
- デバイスのユーザインタフェース提供装置において、
前記デバイス外部の媒質で発生した表面音響信号を取得する表面音響信号取得部と、
前記表面音響信号の特徴を分析して前記媒質に対応する前記表面音響信号のパターンを認識するパターン認識部と、
前記表面音響信号のパターンに基づいてユーザの入力信号を識別するユーザ入力識別部と、
を備えることを特徴とするユーザインタフェース提供装置。 - 前記デバイス外部の媒質は、前記デバイスと接触する物体によって前記ユーザに提供されることを特徴とする請求項1に記載のユーザインタフェース提供装置。
- 前記表面音響信号取得部は、
前記物体に接触して前記表面音響信号を受信する媒質接触部と、
前記表面音響信号をデジタル信号に変換する音響センサと、
を備えることを特徴とする請求項2に記載のユーザインタフェース提供装置。 - 前記デバイス外部の媒質は、前記デバイスの外装ケースを介して前記ユーザに提供されることを特徴とする請求項1に記載のユーザインタフェース提供装置。
- 前記パターン認識部は、
前記表面音響信号の時間−ドメイン上の特徴、または周波数−ドメイン上の特徴のうち少なくとも1つの特徴を抽出する特徴抽出部と、
前記時間−ドメイン上の特徴、または周波数−ドメイン上の特徴のうち少なくとも1つの特徴に基づいて前記表面音響信号のパターンを分析するパターン分析部と、
を備えることを特徴とする請求項1に記載のユーザインタフェース提供装置。 - 前記時間−ドメイン上の特徴は、前記表面音響信号の振幅、ゼロクロッシングの分布、エネルギーの大きさ、長さ、形態のうち少なくともいずれか1つを含むことを特徴とする請求項5に記載のユーザインタフェース提供装置。
- 前記パターン認識部は、テスト信号を用いて前記媒質の種類を判断し、前記媒質の種類を考慮して前記表面音響信号のパターンを認識することを特徴とする請求項1に記載のユーザインタフェース提供装置。
- 前記パターン認識部は、前記表面音響信号の周波数−ドメイン特性に基づいて前記表面音響信号を発生させたツールを推定し、前記表面音響信号の発生ツールを考慮して前記表面音響信号のパターンを認識することを特徴とする請求項1に記載のユーザインタフェース提供装置。
- 前記ユーザ入力識別部は、前記表面音響信号のパターンにマッチングされる最小の意味単位を区分し、前記最小の意味単位に基づいて前記ユーザの入力信号を識別することを特徴とする請求項1に記載のユーザインタフェース提供装置。
- 前記パターン認識部から複数のパターンを順に受信し、前記複数のパターンそれぞれに対応する最小の意味単位を組み合わせて前記ユーザの入力信号を識別することを特徴とする請求項1に記載のユーザインタフェース提供装置。
- 前記パターンは前記表面音響信号の進行方向に関する情報を含み、前記ユーザ入力識別部は、前記表面音響信号の進行方向に関する情報に基づいて前記ユーザの入力信号を識別することを特徴とする請求項1に記載のユーザインタフェース提供装置。
- 媒質の種類及び入力ツールの種類に応じて区分された前記表面音響信号のパターンモデルを格納するパターンモデル格納部をさらに備えることを特徴とする請求項1に記載のユーザインタフェース提供装置。
- 前記ユーザの入力信号は、前記媒質の表面上から入力される文字、図形、ドラッギング、タッチイベントのうち少なくとも1つを含むことを特徴とする請求項1に記載のユーザインタフェース提供装置。
- デバイスのユーザインタフェース提供方法において、
表面音響信号を取得するステップと、
前記表面音響信号の時間−ドメイン上の特徴、または周波数−ドメイン上の特徴のうち少なくとも1つの特徴を抽出するステップと、
前記時間−ドメイン上の特徴、または周波数−ドメイン上の特徴のうち少なくとも1つの特徴に基づいて前記表面音響信号のパターンを分析するステップと、
前記表面音響信号のパターンに基づいてユーザの入力信号を識別するステップと、
を含むことを特徴とするユーザインタフェース提供方法。 - 前記表面音響信号のパターンを分析するステップは、
テスト信号を用いて前記媒質の種類を判断するステップと、
前記表面音響信号の周波数−ドメイン特性に基づいて前記表面音響信号を発生させたツールを推定するステップと、
前記媒質の種類及び前記表面音響信号を発生させたツールを考慮して前記表面音響信号のパターンを認識するステップと、
を含むことを特徴とする請求項14に記載のユーザインタフェース提供方法。 - 前記識別するステップは、
複数のパターンを順に受信するステップと、
前記複数のパターンそれぞれに対応する最小の意味単位を組み合わせて前記ユーザの入力信号を識別するステップと、
を含むことを特徴とする請求項14に記載のユーザインタフェース提供方法。 - デバイスのユーザインタフェース提供方法において、
前記デバイスの外部媒質からユーザの入力信号を受信する外部入力モードを実行させるステップと、
前記デバイスの外部媒質から表面音響信号が受信されれば、前記表面音響信号の特徴を分析して前記媒質に対応する前記表面音響信号のパターンを認識するステップと、
前記表面音響信号のパターンに基づいてユーザの入力信号を識別するステップと、
を含むことを特徴とするユーザインタフェース提供方法。 - デバイスのユーザインタフェース提供方法において、
前記デバイスの外部媒質からユーザの入力信号を受信する外部入力モードを実行させるステップと、
前記デバイスの外部媒質から表面音響信号が受信されれば、前記表面音響信号の進行方向を判断するステップと、
前記表面音響信号の進行方向に対応する前記デバイスの機能を実行させるステップと、
を含むことを特徴とするユーザインタフェース提供方法。 - 前記表面音響信号の進行方向は、「前記表面音響信号の波形の形」、「第1音響センサで受信される第1表面音響信号及び第2音響センサで受信される第2表面音響信号の受信時間の差」、「前記第1表面音響信号及び前記第2表面音響信号の大きさ変化」のうち少なくともいずれか1つによって判断されることを特徴とする請求項18に記載のユーザインタフェース提供方法。
- ユーザインタフェースを備えたデバイスにおいて、
前記デバイスの外部で発生した表面音響信号を取得するセンサと、
前記表面音響信号の特徴を分析して前記表面音響信号のパターンを区分し、前記表面音響信号のパターンに基づいて前記表面音響信号に対応するユーザの入力信号を識別するように構成された少なくとも1つのプロセッサと、
を含むことを特徴とするユーザインタフェースを備えたデバイス。 - デバイスのユーザインタフェース提供方法において、
デバイスの外部でユーザによって発生した音響信号を取得するステップと、
前記音響信号を分析するステップと、
前記分析された音響信号に基づいてユーザの入力信号を識別するステップと、
を含むことを特徴とするデバイスのユーザインタフェース提供方法。 - 前記音響信号は、媒質と前記ユーザの手の接触によって発生することを特徴とする請求項21に記載のデバイスのユーザインタフェース提供方法。
- 前記音響信号は、媒質と前記ユーザによって用いられたツールの接触によって発生することを特徴とする請求項21に記載のデバイスのユーザインタフェース提供方法。
- 前記音響信号は、前記デバイスがユーザによって接触された媒質に接触した状態で取得されることを特徴とする請求項21に記載のデバイスのユーザインタフェース提供方法。
- 前記音響信号は表面音響信号であることを特徴とする請求項21に記載のデバイスのユーザインタフェース提供方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2010-0009545 | 2010-02-02 | ||
KR20100009545 | 2010-02-02 | ||
KR10-2010-0083609 | 2010-08-27 | ||
KR1020100083609A KR101678549B1 (ko) | 2010-02-02 | 2010-08-27 | 표면 음향 신호를 이용한 유저 인터페이스 제공 장치 및 방법, 유저 인터페이스를 구비한 디바이스 |
PCT/KR2011/000680 WO2011096694A2 (en) | 2010-02-02 | 2011-02-01 | Method and apparatus for providing user interface using acoustic signal, and device including user interface |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013519132A true JP2013519132A (ja) | 2013-05-23 |
JP5789270B2 JP5789270B2 (ja) | 2015-10-07 |
Family
ID=44342706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012551100A Active JP5789270B2 (ja) | 2010-02-02 | 2011-02-01 | 表面音響信号を用いたユーザインタフェース提供装置及び方法、ユーザインタフェースを備えるデバイス |
Country Status (6)
Country | Link |
---|---|
US (1) | US9857920B2 (ja) |
EP (2) | EP2544077B1 (ja) |
JP (1) | JP5789270B2 (ja) |
KR (1) | KR101678549B1 (ja) |
CN (1) | CN102741919B (ja) |
WO (1) | WO2011096694A2 (ja) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016505988A (ja) * | 2013-01-08 | 2016-02-25 | ソニー株式会社 | デバイスのユーザインターフェイス制御 |
WO2016148120A1 (ja) * | 2015-03-17 | 2016-09-22 | 株式会社メガチップス | 情報受付システム、記録媒体および情報入力方法 |
JP2016173688A (ja) * | 2015-03-17 | 2016-09-29 | 株式会社メガチップス | 情報受付システム、プログラムおよび情報入力方法 |
JP2016173687A (ja) * | 2015-03-17 | 2016-09-29 | 株式会社メガチップス | 情報受付システム、プログラムおよび情報入力方法 |
US9851841B2 (en) | 2011-10-18 | 2017-12-26 | Carnegie Mellon University | Method and apparatus for classifying touch events on a touch sensitive surface |
CN109416607A (zh) * | 2016-04-27 | 2019-03-01 | 莫吉斯有限公司 | 用于识别手势的方法及相应设备 |
US10282024B2 (en) | 2014-09-25 | 2019-05-07 | Qeexo, Co. | Classifying contacts or associations with a touch sensitive device |
US10599251B2 (en) | 2014-09-11 | 2020-03-24 | Qeexo, Co. | Method and apparatus for differentiating touch screen users based on touch event analysis |
US10642404B2 (en) | 2015-08-24 | 2020-05-05 | Qeexo, Co. | Touch sensitive device with multi-sensor stream synchronized data |
US10942603B2 (en) | 2019-05-06 | 2021-03-09 | Qeexo, Co. | Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device |
US10949029B2 (en) | 2013-03-25 | 2021-03-16 | Qeexo, Co. | Method and apparatus for classifying a touch event on a touchscreen as related to one of multiple function generating interaction layers |
US11009989B2 (en) | 2018-08-21 | 2021-05-18 | Qeexo, Co. | Recognizing and rejecting unintentional touch events associated with a touch sensitive device |
US11029785B2 (en) | 2014-09-24 | 2021-06-08 | Qeexo, Co. | Method for improving accuracy of touch screen event analysis by use of spatiotemporal touch patterns |
US11175698B2 (en) | 2013-03-19 | 2021-11-16 | Qeexo, Co. | Methods and systems for processing touch inputs based on touch type and touch intensity |
US11231815B2 (en) | 2019-06-28 | 2022-01-25 | Qeexo, Co. | Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing |
US11262864B2 (en) | 2013-03-25 | 2022-03-01 | Qeexo, Co. | Method and apparatus for classifying finger touch events |
US11592423B2 (en) | 2020-01-29 | 2023-02-28 | Qeexo, Co. | Adaptive ultrasonic sensing techniques and systems to mitigate interference |
US11619983B2 (en) | 2014-09-15 | 2023-04-04 | Qeexo, Co. | Method and apparatus for resolving touch screen ambiguities |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9477350B2 (en) | 2011-04-26 | 2016-10-25 | Sentons Inc. | Method and apparatus for active ultrasonic touch devices |
US9639213B2 (en) | 2011-04-26 | 2017-05-02 | Sentons Inc. | Using multiple signals to detect touch input |
US11327599B2 (en) | 2011-04-26 | 2022-05-10 | Sentons Inc. | Identifying a contact type |
US10198097B2 (en) | 2011-04-26 | 2019-02-05 | Sentons Inc. | Detecting touch input force |
US9189109B2 (en) | 2012-07-18 | 2015-11-17 | Sentons Inc. | Detection of type of object used to provide a touch contact input |
CN104169847B (zh) | 2011-11-18 | 2019-03-12 | 森顿斯公司 | 局部触觉反馈 |
US10235004B1 (en) | 2011-11-18 | 2019-03-19 | Sentons Inc. | Touch input detector with an integrated antenna |
KR101803261B1 (ko) | 2011-11-18 | 2017-11-30 | 센톤스 아이엔씨. | 터치 입력 힘 검출 |
US9886091B2 (en) | 2012-03-15 | 2018-02-06 | Nokia Technologies Oy | Tactile apparatus link |
US9078066B2 (en) | 2012-07-18 | 2015-07-07 | Sentons Inc. | Touch input surface speaker |
US9348468B2 (en) | 2013-06-07 | 2016-05-24 | Sentons Inc. | Detecting multi-touch inputs |
US9281727B1 (en) * | 2012-11-01 | 2016-03-08 | Amazon Technologies, Inc. | User device-based control of system functionality |
KR101371749B1 (ko) | 2012-11-09 | 2014-03-07 | 현대자동차(주) | 차량 제어 장치 |
KR102011495B1 (ko) * | 2012-11-09 | 2019-08-16 | 삼성전자 주식회사 | 사용자의 심리 상태 판단 장치 및 방법 |
US9430098B2 (en) * | 2012-12-17 | 2016-08-30 | Apple Inc. | Frequency sensing and magnification of portable device output |
KR20140113119A (ko) * | 2013-03-15 | 2014-09-24 | 엘지전자 주식회사 | 전자 기기 및 그 제어방법 |
KR101500130B1 (ko) * | 2013-09-02 | 2015-03-06 | 현대자동차주식회사 | 스티어링 휠에 설치된 차량용 제어장치 |
US10114486B2 (en) * | 2013-09-19 | 2018-10-30 | Change Healthcare Holdings, Llc | Method and apparatus for providing touch input via a touch sensitive surface utilizing a support object |
US9459715B1 (en) | 2013-09-20 | 2016-10-04 | Sentons Inc. | Using spectral control in detecting touch input |
KR101509947B1 (ko) | 2013-10-23 | 2015-04-07 | 현대자동차주식회사 | 리어 램프 점검 장치, 방법 및 시스템 |
US20150242036A1 (en) * | 2014-02-21 | 2015-08-27 | Amin Heidari | System and method for detecting taps on a surface or on a device |
JP6281745B2 (ja) * | 2014-03-06 | 2018-02-21 | カシオ計算機株式会社 | 摺動操作検出装置、電子機器及びプログラム |
US9864453B2 (en) * | 2014-09-22 | 2018-01-09 | Qeexo, Co. | Method and apparatus for improving accuracy of touch screen event analysis by use of edge classification |
KR20160045545A (ko) * | 2014-10-17 | 2016-04-27 | 엘지전자 주식회사 | 냉장고 |
KR102306537B1 (ko) * | 2014-12-04 | 2021-09-29 | 삼성전자주식회사 | 소리 신호를 처리하는 방법 및 디바이스. |
CN105828265A (zh) * | 2015-01-10 | 2016-08-03 | 深圳富泰宏精密工业有限公司 | 配件侦测系统及方法 |
US10592817B2 (en) * | 2015-07-13 | 2020-03-17 | International Business Machines Corporation | Parameter-dependent model-blending with multi-expert based machine learning and proxy sites |
KR101892794B1 (ko) * | 2015-08-25 | 2018-08-28 | 엘지전자 주식회사 | 냉장고 |
US10048811B2 (en) | 2015-09-18 | 2018-08-14 | Sentons Inc. | Detecting touch input provided by signal transmitting stylus |
KR101862564B1 (ko) | 2016-01-05 | 2018-05-30 | 엘지전자 주식회사 | 냉장고 |
US10908741B2 (en) | 2016-11-10 | 2021-02-02 | Sentons Inc. | Touch input detection along device sidewall |
US10296144B2 (en) | 2016-12-12 | 2019-05-21 | Sentons Inc. | Touch input detection with shared receivers |
US10126877B1 (en) | 2017-02-01 | 2018-11-13 | Sentons Inc. | Update of reference data for touch input detection |
US20180239435A1 (en) * | 2017-02-22 | 2018-08-23 | International Business Machines Corporation | Smart devices having recognition features |
US10585522B2 (en) | 2017-02-27 | 2020-03-10 | Sentons Inc. | Detection of non-touch inputs using a signature |
FR3066841B1 (fr) | 2017-05-29 | 2020-07-10 | Hap2U | Procede de commande d'un dispositif nomade |
US11580829B2 (en) | 2017-08-14 | 2023-02-14 | Sentons Inc. | Dynamic feedback for haptics |
US11009411B2 (en) | 2017-08-14 | 2021-05-18 | Sentons Inc. | Increasing sensitivity of a sensor using an encoded signal |
CN113220167B (zh) * | 2021-05-19 | 2024-03-12 | 京东方科技集团股份有限公司 | 显示模组及超声波触控检测方法 |
US20240143164A1 (en) * | 2022-11-01 | 2024-05-02 | The Regents Of The University Of Michigan | Leveraging Surface Acoustic Wave For Detecting Gestures |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005018611A (ja) * | 2003-06-27 | 2005-01-20 | Yamatake Corp | コマンド入力装置及びコマンド入力方法 |
WO2008047294A2 (en) * | 2006-10-18 | 2008-04-24 | Koninklijke Philips Electronics N.V. | Electronic system control using surface interaction |
Family Cites Families (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4718102A (en) * | 1983-01-19 | 1988-01-05 | Communication Intelligence Corporation | Process and apparatus involving pattern recognition |
US4772764A (en) * | 1983-12-01 | 1988-09-20 | Xecutek Corporation | Soundwave position digitizer |
US4654648A (en) * | 1984-12-17 | 1987-03-31 | Herrington Richard A | Wireless cursor control system |
DE68928987T2 (de) * | 1989-10-02 | 1999-11-11 | Koninkl Philips Electronics Nv | Datenverarbeitungssystem mit einer Berührungsanzeige und einem Digitalisiertablett, beide integriert in einer Eingabevorrichtung |
JP2535626B2 (ja) * | 1989-10-27 | 1996-09-18 | キヤノン株式会社 | 座標入力装置 |
JP2592972B2 (ja) * | 1989-12-25 | 1997-03-19 | キヤノン株式会社 | 座標入力装置 |
US6366697B1 (en) * | 1993-10-06 | 2002-04-02 | Xerox Corporation | Rotationally desensitized unistroke handwriting recognition |
JP3230552B2 (ja) * | 1993-12-03 | 2001-11-19 | キヤノン株式会社 | 圧電センサ及びそれを使用した座標入力装置 |
JP3385094B2 (ja) | 1994-05-23 | 2003-03-10 | 松下電器産業株式会社 | 携帯型情報端末 |
JP3007933B2 (ja) * | 1994-12-15 | 2000-02-14 | 富士通株式会社 | 超音波座標入力装置 |
US5591945A (en) * | 1995-04-19 | 1997-01-07 | Elo Touchsystems, Inc. | Acoustic touch position sensor using higher order horizontally polarized shear wave propagation |
EP0827105A3 (de) * | 1996-08-29 | 2000-10-25 | Siemens Aktiengesellschaft | Mit akustischen Oberflächenwellen arbeitende Identifizierungs- oder Sensoranordnung - OFW-Anordnung |
US6429846B2 (en) * | 1998-06-23 | 2002-08-06 | Immersion Corporation | Haptic feedback for touchpads and other touch controls |
US6313825B1 (en) * | 1998-12-28 | 2001-11-06 | Gateway, Inc. | Virtual input device |
US20030132921A1 (en) * | 1999-11-04 | 2003-07-17 | Torunoglu Ilhami Hasan | Portable sensory input device |
US7050177B2 (en) * | 2002-05-22 | 2006-05-23 | Canesta, Inc. | Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices |
WO2001042871A1 (en) * | 1999-12-08 | 2001-06-14 | Telefonaktiebolaget Lm Ericsson (Publ) | A portable communication device and method |
US7157649B2 (en) * | 1999-12-23 | 2007-01-02 | New Transducers Limited | Contact sensitive device |
ATE443359T1 (de) * | 2000-01-12 | 2009-10-15 | Xtera Communications Inc | Zweiseitig gepumpter ramanverstärker |
US6703570B1 (en) * | 2000-05-10 | 2004-03-09 | International Business Machines Corporation | Digital pen using ultrasonic tracking |
KR100865598B1 (ko) * | 2000-05-29 | 2008-10-27 | 브이케이비 인코포레이티드 | 수문자 조합 및 다른 데이터의 입력을 위한 가상 데이터입력 장치 및 방법 |
FR2811107B1 (fr) * | 2000-06-29 | 2002-10-18 | Jean Pierre Nikolovski | Plaque acoustique interactive de precision |
US20040047505A1 (en) * | 2001-12-26 | 2004-03-11 | Firooz Ghassabian | Stylus computer |
DE60335424D1 (de) * | 2002-02-06 | 2011-01-27 | Soundtouch Ltd | Verfahren für ein Touch pad |
US7643015B2 (en) * | 2002-05-24 | 2010-01-05 | Massachusetts Institute Of Technology | Systems and methods for tracking impacts |
FR2841022B1 (fr) * | 2002-06-12 | 2004-08-27 | Centre Nat Rech Scient | Procede pour localiser un impact sur une surface et dispositif pour la mise en oeuvre de ce procede |
US7256773B2 (en) * | 2003-06-09 | 2007-08-14 | Microsoft Corporation | Detection of a dwell gesture by examining parameters associated with pen motion |
US7176902B2 (en) * | 2003-10-10 | 2007-02-13 | 3M Innovative Properties Company | Wake-on-touch for vibration sensing touch input devices |
AU2005243022B2 (en) * | 2004-05-17 | 2009-06-11 | Qualcomm Incorporated | Acoustic robust synchronization signaling for acoustic positioning system |
US20060192763A1 (en) * | 2005-02-25 | 2006-08-31 | Ziemkowski Theodore B | Sound-based virtual keyboard, device and method |
US7551779B2 (en) * | 2005-03-17 | 2009-06-23 | Microsoft Corporation | Word or character boundary-based scratch-out gesture recognition |
WO2006131022A1 (en) * | 2005-06-07 | 2006-12-14 | Intel Corporation | Ultrasonic tracking |
US7353709B2 (en) * | 2005-07-06 | 2008-04-08 | National Research Council Of Canada | Method and system for determining material properties using ultrasonic attenuation |
US7961903B2 (en) * | 2006-01-25 | 2011-06-14 | Microsoft Corporation | Handwriting style data input via keys |
JP2007336513A (ja) | 2006-05-15 | 2007-12-27 | Seiko Epson Corp | 叩きコマンド処理システム、及び、携帯機器の操作システム、並びに、携帯機器 |
JP4680129B2 (ja) | 2006-05-22 | 2011-05-11 | 富士通株式会社 | 携帯端末装置及びその操作方法 |
US8086971B2 (en) * | 2006-06-28 | 2011-12-27 | Nokia Corporation | Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications |
US8077163B2 (en) | 2006-08-24 | 2011-12-13 | Qualcomm Incorporated | Mobile device with acoustically-driven text input and method thereof |
CN101308434B (zh) * | 2007-05-15 | 2011-06-22 | 宏达国际电子股份有限公司 | 使用者界面的操作方法 |
JP2010531015A (ja) * | 2007-06-15 | 2010-09-16 | ルイディア インコーポレイテッド | 大型フラットパネルディスプレイのインタラクティビティ |
EP2073106B1 (en) * | 2007-12-21 | 2012-02-08 | Tyco Electronics Services GmbH | Method for determining the locations of at least two impacts |
CN102027440A (zh) * | 2008-03-18 | 2011-04-20 | 艾利普提克实验室股份有限公司 | 对象与运动检测 |
US8619055B2 (en) * | 2008-04-14 | 2013-12-31 | Microsoft Corporation | Active matrix touch sensing |
TWI374391B (en) * | 2008-05-27 | 2012-10-11 | Ind Tech Res Inst | Method for recognizing writing motion and trajectory and apparatus for writing and recognizing system |
US8441790B2 (en) * | 2009-08-17 | 2013-05-14 | Apple Inc. | Electronic device housing as acoustic input device |
KR101654008B1 (ko) * | 2009-10-09 | 2016-09-09 | 삼성전자주식회사 | 음향신호 처리를 이용한 모바일 기기 및 상기 모바일 기기에서 수행되는 음향 신호 처리 방법 |
EP2503432A4 (en) * | 2009-10-09 | 2014-07-23 | Egalax Empia Technology Inc | METHOD AND DEVICE FOR DOUBLE DIFFERENTIATED DETECTION |
US8624878B2 (en) * | 2010-01-20 | 2014-01-07 | Apple Inc. | Piezo-based acoustic and capacitive detection |
US8749531B2 (en) * | 2010-03-31 | 2014-06-10 | Blackberry Limited | Method for receiving input on an electronic device and outputting characters based on sound stroke patterns |
US9465985B2 (en) * | 2013-06-09 | 2016-10-11 | Apple Inc. | Managing real-time handwriting recognition |
-
2010
- 2010-08-27 KR KR1020100083609A patent/KR101678549B1/ko active IP Right Grant
-
2011
- 2011-02-01 EP EP12182555.8A patent/EP2544077B1/en active Active
- 2011-02-01 CN CN201180008099.4A patent/CN102741919B/zh active Active
- 2011-02-01 JP JP2012551100A patent/JP5789270B2/ja active Active
- 2011-02-01 EP EP11739990.7A patent/EP2532000B1/en active Active
- 2011-02-01 WO PCT/KR2011/000680 patent/WO2011096694A2/en active Application Filing
- 2011-02-02 US US13/019,566 patent/US9857920B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005018611A (ja) * | 2003-06-27 | 2005-01-20 | Yamatake Corp | コマンド入力装置及びコマンド入力方法 |
WO2008047294A2 (en) * | 2006-10-18 | 2008-04-24 | Koninklijke Philips Electronics N.V. | Electronic system control using surface interaction |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10642407B2 (en) | 2011-10-18 | 2020-05-05 | Carnegie Mellon University | Method and apparatus for classifying touch events on a touch sensitive surface |
US9851841B2 (en) | 2011-10-18 | 2017-12-26 | Carnegie Mellon University | Method and apparatus for classifying touch events on a touch sensitive surface |
JP2016505988A (ja) * | 2013-01-08 | 2016-02-25 | ソニー株式会社 | デバイスのユーザインターフェイス制御 |
US11175698B2 (en) | 2013-03-19 | 2021-11-16 | Qeexo, Co. | Methods and systems for processing touch inputs based on touch type and touch intensity |
US10949029B2 (en) | 2013-03-25 | 2021-03-16 | Qeexo, Co. | Method and apparatus for classifying a touch event on a touchscreen as related to one of multiple function generating interaction layers |
US11262864B2 (en) | 2013-03-25 | 2022-03-01 | Qeexo, Co. | Method and apparatus for classifying finger touch events |
US10599251B2 (en) | 2014-09-11 | 2020-03-24 | Qeexo, Co. | Method and apparatus for differentiating touch screen users based on touch event analysis |
US11619983B2 (en) | 2014-09-15 | 2023-04-04 | Qeexo, Co. | Method and apparatus for resolving touch screen ambiguities |
US11029785B2 (en) | 2014-09-24 | 2021-06-08 | Qeexo, Co. | Method for improving accuracy of touch screen event analysis by use of spatiotemporal touch patterns |
US10282024B2 (en) | 2014-09-25 | 2019-05-07 | Qeexo, Co. | Classifying contacts or associations with a touch sensitive device |
US10474292B2 (en) | 2015-03-17 | 2019-11-12 | Megachips Corporation | Information reception system, recording medium, and information input method |
JP2016173687A (ja) * | 2015-03-17 | 2016-09-29 | 株式会社メガチップス | 情報受付システム、プログラムおよび情報入力方法 |
JP2016173688A (ja) * | 2015-03-17 | 2016-09-29 | 株式会社メガチップス | 情報受付システム、プログラムおよび情報入力方法 |
WO2016148120A1 (ja) * | 2015-03-17 | 2016-09-22 | 株式会社メガチップス | 情報受付システム、記録媒体および情報入力方法 |
US10642404B2 (en) | 2015-08-24 | 2020-05-05 | Qeexo, Co. | Touch sensitive device with multi-sensor stream synchronized data |
CN109416607A (zh) * | 2016-04-27 | 2019-03-01 | 莫吉斯有限公司 | 用于识别手势的方法及相应设备 |
US11009989B2 (en) | 2018-08-21 | 2021-05-18 | Qeexo, Co. | Recognizing and rejecting unintentional touch events associated with a touch sensitive device |
US10942603B2 (en) | 2019-05-06 | 2021-03-09 | Qeexo, Co. | Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device |
US11231815B2 (en) | 2019-06-28 | 2022-01-25 | Qeexo, Co. | Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing |
US11543922B2 (en) | 2019-06-28 | 2023-01-03 | Qeexo, Co. | Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing |
US11592423B2 (en) | 2020-01-29 | 2023-02-28 | Qeexo, Co. | Adaptive ultrasonic sensing techniques and systems to mitigate interference |
Also Published As
Publication number | Publication date |
---|---|
KR20110090739A (ko) | 2011-08-10 |
EP2544077B1 (en) | 2018-05-16 |
US20110191680A1 (en) | 2011-08-04 |
WO2011096694A3 (en) | 2011-11-10 |
EP2532000A4 (en) | 2013-10-16 |
EP2532000A2 (en) | 2012-12-12 |
JP5789270B2 (ja) | 2015-10-07 |
KR101678549B1 (ko) | 2016-11-23 |
EP2532000B1 (en) | 2017-04-26 |
WO2011096694A2 (en) | 2011-08-11 |
CN102741919B (zh) | 2014-12-10 |
EP2544077A1 (en) | 2013-01-09 |
CN102741919A (zh) | 2012-10-17 |
US9857920B2 (en) | 2018-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5789270B2 (ja) | 表面音響信号を用いたユーザインタフェース提供装置及び方法、ユーザインタフェースを備えるデバイス | |
CN102890557B (zh) | 用于响应于麦克风输出的触摸手势检测的方法和系统 | |
US11175698B2 (en) | Methods and systems for processing touch inputs based on touch type and touch intensity | |
JP6546948B2 (ja) | タッチセンサ表面に対するタッチ事象を分類するための方法及び装置 | |
CN106708254B (zh) | 检测器 | |
CN106716317B (zh) | 解决触摸不连续性的方法和装置 | |
US10037108B2 (en) | Input tools having vibro-acoustically distinct regions and computing device for use with the same | |
US8913039B2 (en) | Method and device for locating at least one touch on a touch-sensitive surface of an object | |
CN109256146B (zh) | 音频检测方法、装置及存储介质 | |
KR101654008B1 (ko) | 음향신호 처리를 이용한 모바일 기기 및 상기 모바일 기기에서 수행되는 음향 신호 처리 방법 | |
CN107077242A (zh) | 通过使用时空触摸图案来提高触摸屏事件分析的准确性的方法 | |
JP2011028555A (ja) | 情報処理装置および情報処理方法 | |
KR20090127544A (ko) | 터치 센서와 가속도 센서를 이용한 사용자의 터치패턴 인식시스템 | |
WO2006070044A1 (en) | A method and a device for localizing a sound source and performing a related action | |
JP2010501945A (ja) | 音響駆動式テキスト入力を有する移動装置および音響駆動式テキスト入力方法 | |
CN107340864A (zh) | 一种基于声波的虚拟输入方法 | |
Kato et al. | Surfboard: keyboard with microphone as a low-cost interactive surface | |
US20160048372A1 (en) | User Interaction With an Apparatus Using a Location Sensor and Microphone Signal(s) | |
JP2014099073A (ja) | 電子機器、その制御方法及びプログラム | |
TWI472992B (zh) | 運用於電子產品的聲學式觸控裝置及其觸控方法 | |
CN106775414A (zh) | 终端控制方法及系统 | |
WO2022061500A1 (zh) | 一种基于电容触摸屏的人机交互系统和交互方法 | |
TR201905862A2 (tr) | Bir dokunma tespit usulü. | |
Ghaziasgar et al. | A surface acoustic wave touchscreen-type device using two transducers | |
KR20140144560A (ko) | 제스처 인식 기기의 동작 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150403 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150707 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150731 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5789270 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |