JP2013519132A - 表面音響信号を用いたユーザインタフェース提供装置及び方法、ユーザインタフェースを備えるデバイス - Google Patents

表面音響信号を用いたユーザインタフェース提供装置及び方法、ユーザインタフェースを備えるデバイス Download PDF

Info

Publication number
JP2013519132A
JP2013519132A JP2012551100A JP2012551100A JP2013519132A JP 2013519132 A JP2013519132 A JP 2013519132A JP 2012551100 A JP2012551100 A JP 2012551100A JP 2012551100 A JP2012551100 A JP 2012551100A JP 2013519132 A JP2013519132 A JP 2013519132A
Authority
JP
Japan
Prior art keywords
acoustic signal
surface acoustic
user interface
signal
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012551100A
Other languages
English (en)
Other versions
JP5789270B2 (ja
Inventor
チョル チェ,スン
ジェ リ,ソン
ア チャン,キョン
ソプ リ,ホ
ジン チェー,ヒョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013519132A publication Critical patent/JP2013519132A/ja
Application granted granted Critical
Publication of JP5789270B2 publication Critical patent/JP5789270B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/043Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
    • G06F3/0436Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves in which generating transducers and detecting transducers are attached to a single acoustic waves transmission substrate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • General Health & Medical Sciences (AREA)
  • Position Input By Displaying (AREA)

Abstract

表面音響信号を用いたユーザインタフェースの提供に関する。一側面において、ユーザインタフェースを備えたデバイスは、前記デバイスの外部で発生した表面音響信号を取得するセンサ及び前記表面音響信号の特徴を分析して前記表面音響信号のパターンを区分し、前記表面音響信号のパターンに基づいて前記表面音響信号に対応するユーザの入力信号を識別するように構成された少なくとも1つのプロセッサを含む。

Description

本発明は表面音響信号を用いたユーザインタフェースの提供に関する。
電子機器の機能を操作するためのユーザインタフェース提供装置は、主に操作キー、ボタン、マウスまたはタッチスクリーンなどを中心に開発されてきた。従来のユーザインタフェース提供装置はボタンやスクリーンのような電子回路で構成されるため、電子回路が装着されていない部分はインタフェースで使用できないという入力範囲の限界が存在する。そして、平面ではない屈曲な箇所や家具、あるいは壁のような一般のオブジェクトにインタフェース装置を内蔵するためには、外部の衝撃や汚染に強い特性を有するべきであるが、このようなユーザインタフェース装置を実現することは難しい。
一方、従来におけるユーザインタフェース提供装置は、電子機器の特定領域に固定されて動作する。したがって、電子機器のインタフェース、すなわち、入力領域が服やカバンの内部などの手に届かない所にあれば操作が不便であり、モバイル装置などのように電子機器の自体空間が限定的な場合には十分な入力空間を確保し難い。
本発明の目的は、インタフェースの入力空間の制約を克服して従来のインタフェースで使用可能な装置よりも費用が安価であるインターフェーシング技術を提供する。
一側面において、デバイスのユーザインタフェース提供装置は、前記デバイス外部の媒質で発生した表面音響信号を取得する表面音響信号取得部と、前記表面音響信号の特徴を分析して前記媒質に対応する前記表面音響信号のパターンを認識するパターン認識部と、前記表面音響信号のパターンに基づいてユーザの入力信号を識別するユーザ入力識別部とを備える。
他の一側面において、デバイスのユーザインタフェース提供方法は、表面音響信号を取得するステップと、前記表面音響信号の時間−ドメイン上の特徴、または周波数−ドメイン上の特徴のうち少なくとも1つの特徴を抽出するステップと、前記時間−ドメイン上の特徴、または周波数−ドメイン上の特徴のうち少なくとも1つの特徴に基づいて前記表面音響信号のパターンを分析するステップと、前記表面音響信号のパターンに基づいてユーザの入力信号を識別するステップとを含む。
他の一側面において、デバイスのユーザインタフェース提供方法は、前記デバイスの外部媒質からユーザの入力信号を受信する外部入力モードを実行させるステップと、前記デバイスの外部媒質から表面音響信号が受信されれば、前記表面音響信号の特徴を分析して前記媒質に対応する前記表面音響信号のパターンを認識するステップと、前記表面音響信号のパターンに基づいてユーザの入力信号を識別するステップとを含む。
他の一側面において、デバイスのユーザインタフェース提供方法は、前記デバイスの外部媒質からユーザの入力信号を受信する外部入力モードを実行させるステップと、前記デバイスの外部媒質から表面音響信号が受信されれば、前記表面音響信号の進行方向を判断するステップと、前記表面音響信号の進行方向に対応する前記デバイスの機能を実行させるステップとを含む。
他の一側面において、電子装置は、前記デバイスの外部で発生した表面音響信号を取得するセンサと、前記表面音響信号の特徴を分析して前記表面音響信号のパターンを区分し、前記表面音響信号のパターンに基づいて前記表面音響信号に対応するユーザの入力信号を識別するように構成された少なくとも1つのプロセッサとを含む。
本発明のインタフェース提供装置及び方法によると、デバイスのインタフェースの拡張が可能である。すなわち、文字、図形、ドラッギング、タッチイベントなどのユーザ入力のための空間はタッチスクリーン、キーパネルなどの特定の入力空間に制限されない。したがって、ユーザはデバイス周辺の任意の空間でデバイスを操作できる。
また、本発明によると、表面音響信号を発生させる媒質が変更される場合にも正確にユーザの入力信号を識別できるインタフェースを提供することができる。
また、本発明によると、表面音響信号を発生させたツールを正確に区別することで、ユーザに便宜性を提供することができる
本発明によると、デバイスを直接タッチしない場合にもユーザの意図を識別するため、デバイス及びデバイスの付属品の寿命を増加させる。
本発明によると、表面音響信号で発生するスペクトル情報を分析することによって入力ツールまたは入力媒質を判別し、判別された入力ツールまたは入力媒質ごとに異なる機能を付与して用いることができる。これは、入力ツールと入力媒質に応じて発生する周波数スペクトルが異なる特徴を持っているためである。
また、本発明によると、2つ以上のセンサから取得される表面音響信号の時間情報を用いてユーザの入力信号をより正確に識別することができる。
表面音響信号を用いたインタフェースの拡張例を説明するための図である。 一実施形態に係るユーザインタフェース提供装置を示す図である。 図1及び図2で表面音響信号取得部の構成例を示す図である。 他の実施形態に係るユーザインタフェース提供装置の構成を示す。 図4のフィルタ及び単純化部から出力される信号の例を示す図である。 図4のフィルタ及び単純化部から出力される信号の例を示す図である。 「最小の意味単位」に対する例を示す。 入力ツールによる表面音響信号の周波数特性を例示する図である。 入力ツールによる表面音響信号の周波数特性を例示する図である。 入力ツールによる表面音響信号の周波数特性を例示する図である。 入力ツールによる表面音響信号の周波数特性を例示する図である。 ユーザの入力信号が文字である場合、ユーザの入力信号を識別する例を説明するための図である。 それぞれの直線に対応する表面音響信号の波形の例を示す。 それぞれの直線に対応する表面音響信号の波形の例を示す。 ユーザインタフェース提供装置に2つ以上の音響センサが備えられた場合、取得される表面音響信号の一例を示す図である。 デバイスのケースを例示する図である。 一実施形態に係るデバイスのユーザインタフェース提供方法を示す。 表面音響信号のパターンを分析する過程の例を示す。 他の実施形態に係るユーザインタフェース提供方法を示す。 他の実施形態に係るユーザインタフェース提供方法を示す。
本明細書において、「デバイス」はポータブル装置(Potable Device)、電子機器(Electronic Device)などを包括する概念として用いられる。また、ユーザインタフェース提供装置はデバイスに含まれて構成してもよい。すなわち、ユーザインタフェース提供装置はデバイスのユーザインタフェースを提供する。ここで、デバイスは移動端末、タブレットPC、ポータブルメディアプレーヤー、家電製品など、ユーザの操作が可能な全てのデバイスを含む。
図1は、表面音響信号を用いたインタフェースの拡張例を説明するための図である。図1を参照すると、デバイス120は特定媒質を有する物体110上にある。物体110は、例えば、テーブルや机であってもよい。物体110の表面でユーザのジェスチャー(gesture)に応じて表面音響信号が発生する。ユーザのジェスチャーはドラッギング(dragging)、文字入力などの様々なタッチイベントを含む。表面音響信号は媒質の形態とは関係なく伝播され、空気、ガラス、金属、木などの全ての媒質を介して伝えられる特性がある。
図1の例として、ユーザのジェスチャーに応じて発生した表面音響信号はデバイス120を操作するための「ユーザの入力信号」に該当し、デバイス120はユーザの入力信号に対応する機能を行う。したがって、デバイス120は、拡張されたインタフェースを介して「ユーザの入力信号」を取得する機能及びユーザの入力信号を識別する機能を有する。ユーザの入力信号を識別することによって、デバイス120はユーザの意図を正確に把握することができる。
図1の例として、デバイス120は、表面音響信号を取得するためのセンサ及びユーザの入力信号を識別するように構成された少なくとも1つのプロセッサを含んでもよい。ここで、少なくとも1つのプロセッサは、表面音響信号の特徴を分析して前記表面音響信号のパターンを区分し、前記表面音響信号のパターンに基づいて前記表面音響信号に対応するユーザの入力信号を識別するように構成される。すなわち、ユーザのジェスチャーに応じて発生した表面音響信号は、デバイス120を操作するための命令語、文字の入力、その他の機能を実行させるための入力信号として用いられてもよい。
図2は、一実施形態に係るユーザインタフェース提供装置を示す図である。図2に示されたデバイスのユーザインタフェース提供装置200は、図1に示すデバイス120に内蔵された形態で構成されてもよい。
図2を参照すると、ユーザインタフェース提供装置200は、表面音響信号取得部210、パターン認識部220及びユーザ入力識別部230を備える。また、ユーザインタフェース提供装置200はパターンモデル格納部240をさらに備えてもよい。
表面音響信号取得部210は、デバイス外部の媒質(medium)で発生した表面音響信号を取得する。ここで、デバイス外部の媒質は、デバイスと接触する物体によってユーザに提供される拡張されたインタフェースに該当する。また、デバイス外部の媒質は、デバイスの外装ケースを介してユーザに提供される。表面音響信号取得部210は少なくとも1つの音響センサを含んで構成してもよい。
パターン認識部220は、表面音響信号の特徴を分析して媒質に対応する表面音響信号のパターンを認識する。パターン認識部220は、表面音響信号の時間−ドメイン上の特徴または周波数−ドメイン上の特徴のうち少なくとも1つの特徴を抽出する特徴抽出部221、及び表面音響信号の時間−ドメイン上の特徴または周波数−ドメイン上の特徴のうち少なくとも1つの特徴に基づいて表面音響信号のパターンを分析するパターン分析部223を備えてもよい。また、パターン認識部220は、雑音除去、信号増幅及び信号を単純化するための表面音響信号処理部(図示せず)をさらに備えてもよい。前記時間−ドメイン上の特徴は、表面音響信号の振幅、ゼロクロッシングの分布、エネルギーの大きさ、長さ、形態のうち少なくともいずれか1つを含む。
パターン認識部220は、「表面音響信号の特徴抽出」、「表面音響信号を発生させたツールの推定」及び「表面音響信号が伝えられる媒質の種類推定」を行う。したがって、パターン認識部220は入力ツールまたは入力媒質が変更される場合にも、表面音響信号のパターンを正確に認識することができる。
ユーザ入力識別部230は、表面音響信号のパターンに基づいてユーザの入力信号を識別する。ユーザ入力識別部230は、表面音響信号のパターンにマッチングされる「最小の意味単位」を区分し、前記「最小の意味単位」に基づいてユーザの入力信号を識別する。また、ユーザ入力識別部230はパターン認識部220から複数のパターンを順に受信し、前記複数のパターンそれぞれに対応する最小の意味単位を組み合わせて前記ユーザの入力信号を識別する。識別されたユーザの入力信号は、デバイスに備えられた表示部及び制御部に提供される。ユーザの入力信号が文字である場合、ユーザが入力した文字が表示される。ユーザの入力信号が特定機能の実行に該当する場合、制御部は該当機能を実行させる。
パターンモデル格納部240は、媒質の種類及び入力ツールの種類に応じて区分された表面音響信号のパターンモデルを格納する。すなわち、パターンモデル格納部240には様々な媒質それぞれの表面音響信号のパターンモデル及び様々な入力ツールそれぞれの特徴情報が格納されている。
以下、ユーザインタフェース提供装置200によって行われる「表面音響信号の特徴抽出」、「表面音響信号を発生させたツールの推定」及び「表面音響信号が伝えられる媒質の種類推定」を詳細に説明する。次に、ユーザインタフェース提供装置200によって行われる「ユーザの入力信号識別」を詳細に説明する。
<1.表面音響信号の特徴抽出>
表面音響信号の特徴抽出は、表面音響信号のパターンを分析するために必要な特徴を表面音響信号から抽出する。一側面において、表面音響信号の特徴抽出は、DSP(Digital Signal Processor)のようなハードウェア装置、ソフトウェア、またはハードウェア装置に適するようにプログラミングされた手段によって行われてもよい。ただし、説明の便宜上、表面音響信号の特徴抽出は特徴抽出部221によって行われると仮定する。
表面音響信号の特徴は、特定の意味を有する「最小の意味単位」に区分され得る。ここで、「最小の意味単位」は、ユーザの入力信号を識別するために必要な最も基本的な形態に対する定義である。「最小の意味単位」は図6に示すように、点、円、直線、アルファベットなどのように最小の意味を有する表面音響信号の単位であってもよい。
表面音響信号は、ユーザが手やペンなどの物を用いて媒質の表面に人為的に音を発生させる過程を介して取得され得る。表面音響信号の特徴を抽出するために、文字のような複雑な形の音を分析し、表面音響信号に対する特徴を抽出して表面音響信号を最小の意味単位に分類する過程が求められる。様々な最小の意味単位それぞれは信号の形態が一定のパターンを有する。したがって、特徴抽出部221は表面音響信号から特徴を抽出し、抽出された特徴を用いて最小の意味単位を分類する。
一側面において、最小の意味単位は次の5個の過程によって抽出され得る。
1.取得された表面音響信号を最小の意味単位の信号Sを分離する。
2.最小の意味単位の信号SをN個のフレームに分割する。
3.N個のフレームそれぞれの特徴値Cを抽出し、Cを格納する。
4.取得された表面音響信号全体の特徴値Cを抽出し、Cを格納する。
5.DBに最小の意味単位のパターンモデルを格納する場合、C及びCを用いた機械的な学習モデルMを生成し、MをDBに格納する。
上記の5個の過程は最小の意味単位のパターンモデルをDBに格納するために用いられてもよい。すなわち、最小の意味単位のパターンモデルは、媒質の種類及び表面音響信号の入力ツールごとに区分されてDBに格納される。現在の入力される表面音響信号から抽出された特徴をDBに格納された「最小の意味単位のパターンモデル」と比較することによって、現在の入力される表面音響信号のパターンが認識される。
上記の5個の過程において、「特徴値」とは、該当信号の時間−ドメイン上の特徴(features)を時間的に正規化する値である。また、「特徴値」は該当信号の周波数ドメイン上の特徴であってもよい。時間ドメイン上の特徴を周波数ドメイン上の特徴と適切に結合し、様々な機械的な学習方式によって「最小の意味単位のパターンモデル」を生成する。ここで、時間ドメイン上の特徴は、振幅間の標準偏差及び傾き(wave slope)、振幅のDR(Dynamic Range)、振幅の分布、ゼロクロッシングの分布及び変化量、エネルギー総量及びエネルギー量変化、信号の長さなどがある。
音響信号は、信号レベルの強弱が存在することから振幅の変化が存在する。サンプリング比率に応じて表面音響信号から離散的な振幅値が取得できる。離散的な振幅値を繋ぐ線分の傾きを求めると、信号レベルの変化を測定することができる。信号の振幅の変化は、媒質上に入力される直線、曲線、折れ線などの識別のための1つの要素として用いられてもよい。
特徴抽出部221は、該当信号の振幅の分布によって類似の信号を区分してもよい。例えば、円に対応する信号の振幅の分布は一定の値が続けて維持される形態であってもよい。
ゼロクロッシングの分布は、信号の符号が変わる地点を何個持っているかを意味する。すなわち、1つのフレーム内で信号のレベルが基準点である0と接する地点をゼロクロッシングと定義する。ゼロクロッシングの分布は、該当信号の高周波及び低周波の比率を示す。例えば、時間の長さがNである場合、ゼロクロッシング分布は数式(1)のように定義される。
Figure 2013519132
特徴抽出部221は、ゼロクロッシングの分布、ゼロクロッシングの分布の変化量の推移などを用いて該当信号の固有な特徴を抽出する。特徴抽出部221は、該当信号が有するエネルギーの総量を該当信号の特徴として用いてもよい。時間の長さがNである場合、時間Nの間に現れた離散信号X(i)のエネルギーの総量は数式(2)の通りである。
Figure 2013519132
また、特徴抽出部221は、数個のフレームそれぞれのエネルギーの量を該当信号の特徴として用いてもよい。
特徴抽出部221は、該当信号の長さを用いて信号を区別してもよい。信号の長さの単位は時間を用いる。例えば、点と円は信号の長さが明確に異なる。すなわち、特徴抽出部221は、表面音響信号の取得が開始する時間と表面音響信号の取得が終了する時間を表面音響信号の長さとして決定してもよい。
信号の時間−ドメイン上の特徴は基準時間の単位で正規化され、正規化された値はDBに格納される。信号の時間−ドメイン上の特徴を正規化してDBに格納すると、格納されるデータの大きさを減らし得る。例えば、長い直線と短い直線は先に直線に該当する特徴を認識した後、次に長さ情報を用いて相対的な長さを測定する。
該当信号の周波数ドメイン上の特徴は、フーリエ変換、スペクトル分析などを介して把握できる。
<2.表面音響信号が伝えられる媒質の種類推定>
媒質の種類推定は、表面音響信号から抽出された特徴をパターンモデルと比較する過程である。ユーザが表面音響信号を生成するとき使用する入力媒質は単一媒質(例えば、ガラス)と複合媒質(例えば、机)に区分してもよい。表面音響信号の形態変化は、センサの種類だけではなく媒質面の凹凸の程度に応じて極めて大きい場合もある。媒質の種類推定は、DSP(Digital Signal Processor)のようなハードウェア装置、ソフトウェア、またはハードウェア装置に適するようにプログラミングされた手段によって行われてもよい。ただし、説明の便宜上、表面音響信号の特徴抽出はパターン認識部220によって行われると仮定する。
パターン認識部220はテスト信号を用いて前記媒質の種類を判断し、前記媒質の種類を考慮して前記表面音響信号のパターンを認識する。例えば、媒質の種類は次の3つの過程によって推定されてもよい。
1.テスト信号を発生させる。
2.デバイスに接触した媒質を介して伝播する表面音響信号を取得する。
3.上記の2で取得された表面音響信号の特徴とマッチングされる媒質をDBから探す。
テスト信号はデバイスに内蔵されたスピーカまたは振動発生装置を介して発生することがある。ここで、テスト信号は、短い周期を有する一定の信号レベルの音響信号または振動であってもよい。テスト信号に対応する表面音響信号は、デバイスに内蔵されたマイク及び圧電センサを用いて取得され得る。
パターン認識部220は上記の2で取得された表面音響信号の周波数の分布範囲、振幅、伝達速度などを算出し、算出された情報をDBに格納されたモデルと比較することによってデバイスに接触した媒質の種類を推定する。一方、パターン認識部220は、上記の2で取得された表面音響信号の特徴とマッチングされるモデルがない場合、最も近接したモデルをデバイスに接触した媒質として判断する。
媒質の種類推定を周期的に行う場合、実質的にリアルタイムに近い媒質の変化推定が可能である。
<3.表面音響信号を発生させたツールの推定>
表面音響信号を発生させたツールの推定はユーザの入力ツールを推定することにある。ここで、入力ツールは、指、ペン、スタイラス、その他のツールのいずれか1つであってもよい。すなわち、ユーザは指やスタイラスなどの様々な入力ツールによってデバイスを操作してもよい。入力ツールの推定はDSP(Digital Signal Processor)のようなハードウェア装置、ソフトウェア、または、ハードウェア装置に適するようにプログラミングされた手段によって行われてもよい。ただし、説明の便宜上、入力ツールの推定はパターン認識部220によって行われるものと仮定する。
パターン認識部220は、表面音響信号の周波数−ドメイン特性に基づいて前記表面音響信号を発生させたツールを推定し、前記表面音響信号の発生ツールを考慮して表面音響信号のパターンを認識する。
信号の周波数特性は様々な方式によって抽出される。例えば、周波数特性は、該当信号を離散フーリエ変換(DFT)することによって抽出してもよい。また、信号の周波数特性は、該当信号の「Total Power Spectrum」、「サブバンドパワー」、「中心周波数」、「帯域幅」、「スペクトルフラックス」などを用いて抽出される。入力ツールごとの周波数特性は機械的な学習によってDBに格納されてもよい。
入力ツール別の周波数−ドメイン特性の様々な例は図7A乃至図7Dを参照して詳細に説明する。
<4.ユーザの入力信号識別>
ユーザの入力信号識別は、ユーザの意図またはユーザのジェスチャーを区分するためのものである。ユーザの入力信号は単純なドラッギング、文字入力、タップ(tap、媒質を軽く打つこと)、特定のタッチイベントなどがある。ユーザの入力信号を識別することによってデバイスは様々な機能を行うことができる。
例えば、ユーザがデバイスに接触している外部媒質の表面を左側から右側にドラッギングすれば、デバイスの特定機能が実行されるように設定されてもよい。ここで、ドラッギングの方向は、表面音響信号の進行方向を推定することによって識別され得る。表面音響信号の進行方向推定は、1つの音響センサまたは複数の音響センサによって識別される。すなわち、表面音響信号のパターンは表面音響信号の進行方向に関する情報を含む。ユーザ入力識別部230は、表面音響信号の進行方向に関する情報に基づいて前記ユーザの入力信号を識別することができる。
例えば、ユーザがデバイスに接触している外部媒質の表面で文字を入力する場合、文字は「最小の意味単位」によって識別され得る。
図3は、図1及び図2で表面音響信号取得部210の構成例を示す図である。図3を参照すると、表面音響信号取得部210は、図3に示すように媒質接触部311及び音響センサ313を含んで構成される。
媒質接触部311は、物体110に接触して表面音響信号を受信する。媒質接触部311は、物体110に密着できる様々な材質から構成されてもよい。
音響センサ313は表面音響信号をデジタル信号に変換する。音響センサ313の種類として、コンデンサ型マイクロホン、エレクトロニック型マイクロホン、圧電型センサ及び超音波センサがある。コンデンサ型マイクロホンとエレクトロニック型マイクロホンは騒音センサとして、空気のような媒質を介して伝えられる音響の圧力による程度を電気的な信号に変換するセンサである。圧電型(piezo−electronic)センサは振動センサとして、人や物体などによって発生する振動から取得された圧力を電気的な信号に変換するセンサである。超音波センサは、人の耳では聴くことのできない超音波をセンシングして音響信号の距離や位置を判別するセンサである。
図4は、他の実施形態に係るユーザインタフェース提供装置の構成を示す。図4を参照すると、ユーザインタフェース提供装置400は、表面音響信号取得部410、音響信号処理部420、特徴抽出部430、データベース(DB:DataBase)440、パターン判断部450、時間信号算出部460及びユーザ入力識別部470を備える。
表面音響信号取得部410は図2に示す表面音響信号取得部210と同一の機能を行う。
音響信号処理部420は表面音響信号の雑音を除去した後、雑音の除去された表面音響信号の波形を単純化する。音響信号処理部420は増幅器421、フィルタ423及び単純化部425を備えてもよい。増幅器421は取得された表面音響信号を増幅する。フィルタ423は、増幅された表面音響信号を特定の周波数帯域ごとに選別的にフィルタリングし、増幅された表面音響信号に追加された雑音を除去する。例えば、フィルタ423は、表面音響信号の最大周波数の大きさ(例えば、3KHz)以上の信号は雑音と見なして雑音を除去する。単純化部425は、雑音の除去された表面音響信号をリアルタイムでより多く処理するために単純化する。図5Aで示された信号はフィルタ423から出力される表面音響信号であり、図5Bに示された信号は単純化された表面音響信号の一例を示す。図5Aおよび図5Bにおける「振幅」は信号の強弱または高低を示し、「t」は時間である。単純化部435は信号の高低を判断して信号を単純化する。
音響信号処理部420は、単純化された表面音響信号を特徴抽出部430で出力し、表面音響信号取得部410の角度センサで取得される表面音響信号を時間信号算出部460に出力してもよい。
特徴抽出部430は、「1.表面音響信号の特徴抽出」を行う。すなわち、特徴抽出部430は図2に示された特徴抽出部221と同一の機能を行ってもよい。
データベース(DB:Database)440は、表面音響信号のパターン認識及びユーザの入力信号識別に必要な全てのパターンモデルを格納している。例えば、「1.表面音響信号の特徴抽出」で記述された、「最小の意味単位のパターンモデル」及び「機械的な学習モデルM」はDB440に格納されてもよい。ここで、DB440に格納されるパターンモデルは入力ツールごとに区分されて格納される。また、DB440に格納されるパターンモデルは、媒質の種類ごとに区分されて格納される。したがって、特徴抽出部430は、入力ツール推定−入力媒質推定−特徴抽出の順で動作する。同様に特徴抽出部430は、入力媒質推定−入力ツール推定−特徴抽出の順で動作してもよい。
表1はデータベース(DB:Database)440に格納されたパターンモデルのルックアップテーブルの例を示す。
Figure 2013519132
表2は識別されたユーザの入力信号に対応するデバイスの該当機能に対するルックアップテーブルの例を示す。
Figure 2013519132
パターン判断部450は、図2のパターン分析部223に類似の機能を行ってもよい。また、パターン判断部450は「2.表面音響信号が伝えられる媒質の種類推定」及び「3.表面音響信号を発生させたツールの推定」を行う。
時間信号算出部460は、表面音響信号取得部410が少なくとも2つ以上のセンサを含む場合、表面音響信号がそれぞれのセンサに到達する時間差を算出する。時間信号算出部460で算出される時間差は表面音響信号の進行方向を探索するために用いられる。
ユーザ入力識別部470は、図2に示すユーザ入力識別部230と同一の機能を行ってもよい。
図5A及び図5Bは、図4に示すフィルタ423及び単純化部425から出力される信号の例を示す図である。
図5Aに示された信号はフィルタ423から出力される表面音響信号であり、図5Bに示された信号は単純化された表面音響信号の一例を示す。図5Aおよび図5Bにおける「振幅」は信号の強弱または高低を示し、「t」は時間である。単純化部435は信号の高低を判断して信号を単純化する。
図6は、「最小の意味単位」に対する例を示す。図6に示された最小の意味単位は表面音響信号のパターンを認識したり、ユーザの入力信号を識別するために用いられてもよい。例えば、図2のパターン認識部220は表面音響信号から最小の意味単位を区分し、ユーザ入力識別部230は最小の意味単位を組み合わせてユーザの入力信号を識別する。ユーザが媒質表面に
Figure 2013519132
を順に入力した場合、ユーザ入力識別部230はユーザの入力信号が「M」であることを識別する。
図7A乃至図7Dは、入力ツールに係る表面音響信号の周波数特性を例示する図である。
入力ツールは種類の特性に応じて信号波形の大きさ、エネルギー、周波数分布などが変わる。
図7Aはユーザがペン(pen)を用いて媒質の表面に円を描いた場合の周波数特性を示す。図7Bはユーザが指を用いて媒質の表面に円を描いた場合の周波数特性を示す。図7Cは指を用いて直線を描いた場合の周波数特性である。図7Dはペンを用いて直線を描いた場合の周波数特性である。図7A乃至図7Dの例として媒質は固定されていると仮定する。
図8は、ユーザの入力信号が文字である場合、ユーザの入力信号を識別する例を説明するための図である。図8を参照すると、「A」は2つの長い直線801、803が入力された後、長い直線に比べて相対的に短い1つの直線805が入力される順に表現され、「H」は長い直線807、短い直線809、長い直線811の順に入力される。このような最小の意味単位(直線)が入力される順を示すパターンが文字を識別するために用いられる。ユーザが「F」を入力した場合、ユーザ入力識別部230、470は、直線813、815、817の長さ及び順序を組み合わせてユーザの入力信号を識別する。
図9及び図10は、それぞれの直線に対応する表面音響信号の波形の例を示す。
図9は、直線が音響センサの近い部分から始まって遠い部分で終了した場合である。すなわち、図9は、表面音響信号の進行方向が音響センサを基準にして遠くなる場合である。本明細書において、「表面音響信号の進行方向」は直線の進行方向と同一な意味で使用することにする。
図10は、直線が音響センサの遠い部分から始まって近い部分で終了した場合である。すなわち、図10は、表面音響信号の進行方向が音響センサを基準にして近づく場合である。
図9及び図10を参照すると、直線の進行方向に応じて表面音響信号の波形は互いに対称的な形態を有する。したがって、ユーザインタフェース提供装置に1つの音響センサが備えられた場合、波形の相対的な形態によって表面音響信号の進行方向を識別する。ユーザインタフェース提供装置に2つ以上の音響センサが備えられた場合、より正確に表面音響信号の進行方向を推定することができる。
図11は、ユーザインタフェース提供装置に2つ以上の音響センサが備えられた場合、取得される表面音響信号の一例を示す図である。図11を参照すると、aの位置で指で音を出した場合、角度センサ1110、1120、1130、1140に受信される表面音響信号の到達時点が異なる。角度センサ1110〜1140は表面音響信号取得部410に備えられるマイクロホンであってもよい。時間信号算出部460は、複数のセンサ1110〜1140を用いて表面音響信号の位置を推定する。時間信号算出部460は、複数のセンサ1110〜1140間の到着遅延時間を算出して候補位置区間を把握した後、候補位置についてのみ位置探索できる。候補位置区間は表面音響信号が発生した位置である。
または、算出量を最小化するために時間信号算出部460は、下方右側センサ1120が最も最初に表面音響信号をセンシングしたことをユーザ入力信号識別部470に通知する。図11において、下方右側のセンサ1120によって検出された表面音響信号のピーク(peak)が最も最初に検出されたため、時間信号算出部460はセンサ1120が表面音響信号を最も最初に取得したと判断する。
ユーザ入力信号識別部470は、順次判断されるパターンまたは最小の意味単位を組み合わせてユーザ入力信号を識別する。また、ユーザ入力信号識別部470は、時間信号算出部460で算出された時間差を用いて表面音響信号の進行方向を判断する。
一方、センサが2つ備えられて2チャネルが形成された場合、ユーザ入力信号識別部470は、表面音響信号が右側または左側で発生したかを判断する。例えば、センサが右側と左側に備えられた場合、右側センサで取得された表面音響信号の振幅(すなわち、音の大きさ)は次第に小さくなり、左側センサで取得された表面音響信号の振幅は次第に大きくなれば、ユーザ入力信号識別部470はユーザが右側から左側方向にドラッギングしたものと判断する。
一方、センサが4個備えられて4チャネルが形成された場合、ユーザ入力信号識別部470は、時間信号算出部460で算出された時間信号を用いてパターン(または、最小の意味単位)の方向を判断する。ユーザ入力信号識別部470は、時間信号算出部460から入力される時間差情報を用いて表面音響信号の進行方向と2次元座標を判断する。例えば、ユーザ入力信号識別部470は、図11に示すセンサ1110の位置を基準座標(0、0)に決定し、表面音響信号の発生位置に対する2次元座標と方向を判別する。
または、4チャネルの場合、ユーザ入力信号識別部470は、最も最初に表面音響信号をセンシングしたセンサの位置を用いて表面音響信号の進行方向を判断する。例えば、ユーザ入力信号識別部470は、図11に示すセンサ1120の位置を東西南北に表示し、表面音響信号の進行方向を判断する。
図12は、デバイスのケースを例示した図である。ケースはプラスチック、金属、紙などの材質で製造されてもよい。センサ(s)とユーザインタフェース提供装置200、400はケースの内部に付着され、ユーザはケースの外部表面にタッチイベントを発生させることによって、表面音響信号を発生させ得る。
図13は一実施形態に係るデバイスのユーザインタフェース提供方法を示す。図13を参照すると、ステップS1310において、ユーザインタフェース提供装置は表面音響信号を取得する。
ステップS1320において、ユーザインタフェース提供装置は、表面音響信号の時間−ドメイン上の特徴、または周波数−ドメイン上の特徴のうち少なくとも1つの特徴を抽出する。すなわち、ユーザインタフェース提供装置は「1.表面音響信号の特徴抽出」を行う。ここで、前記時間−ドメイン上の特徴は、前記表面音響信号の振幅、ゼロクロッシングの分布、エネルギーの大きさ、長さ、形態のうち少なくともいずれか1つを含む。
ステップS1330において、ユーザインタフェース提供装置は、前記時間−ドメイン上の特徴、または周波数−ドメイン上の特徴のうち少なくとも1つの特徴に基づいて表面音響信号のパターンを分析する。ステップS1330は図14の具体的なステップを含む。すなわち、ユーザインタフェース提供装置は、まずテスト信号を用いて前記媒質の種類を判断し(S1431)、表面音響信号の周波数−ドメイン特性に基づいて表面音響信号を発生させたツールを推定し(S1433)、媒質の種類及び表面音響信号を発生させたツールを考慮して前記表面音響信号のパターンを認識する(S1435)。
ステップS1340において、ユーザインタフェース提供装置は、前記表面音響信号のパターンに基づいてユーザの入力信号を識別する。すなわち、ユーザインタフェース提供装置は「4.ユーザの入力信号識別」を行う。一側面において、ステップS1340は表面音響信号のパターンにマッチングされる最小の意味単位を区分し、最小の意味単位に基づいて前記ユーザの入力信号を識別する過程を含んでもよい。また、他の側面において、ステップS1340は複数のパターンを順に受信し、前記複数のパターンそれぞれに対応する最小の意味単位を組み合わせて前記ユーザの入力信号を識別する過程を含んでもよい。
図15は他の実施形態に係るユーザインタフェース提供方法を示す。図15を参照すると、ステップS1510において、ユーザインタフェース提供装置は、デバイスの外部媒質からユーザの入力信号を受信する外部入力モードを実行させる。ここで、「外部入力モード」は、例えば、図1の外部物体120によってデバイス120を操作できるモードを意味する。デバイスは、外部入力モードが実行されれば、非活性状態にある音響センサを活性化する。外部入力モードの実行は、デバイスが前記デバイスの外部媒質と接触したり、モードの切り替えに対する制御信号によってトリガーリングされてもよい。
ステップS1520において、ユーザインタフェース提供装置は、デバイスの外部媒質から表面音響信号が受信されるかを判断する。
前記デバイスの外部媒質から表面音響信号が受信されれば、ステップS1530において、ユーザインタフェース提供装置は、表面音響信号の特徴を分析して媒質に対応する前記表面音響信号のパターンを認識する。
ステップS1540において、ユーザインタフェース提供装置は、表面音響信号のパターンに基づいてユーザの入力信号を識別する。
図16は他の実施形態に係るユーザインタフェース提供方法を示す。図16を参照すると、ステップS1610において、ユーザインタフェース提供装置は、前記デバイスの外部媒質からユーザの入力信号を受信する外部入力モードを実行させる。一方、ステップS1610において、ユーザインタフェース提供装置はテスト信号を発生させ、前記デバイスの外部媒質上におけるテスト信号の特徴を分析し、前記テスト信号の特徴を予め格納されたパターンモデルと比較して媒質の種類を判断する。
ステップS1620において、ユーザインタフェース提供装置は、デバイスの外部媒質から表面音響信号が受信されるかを判断する。
前記デバイスの外部媒質から表面音響信号が受信されれば、ステップS1630において、ユーザインタフェース提供装置は表面音響信号の進行方向を判断する。例えば、ユーザインタフェース提供装置はユーザのドラッギング方向を判断する。ここで、表面音響信号の進行方向は、「前記表面音響信号の波形の形」、「第1音響センサで受信される第1表面音響信号及び第2音響センサで受信される第2表面音響信号の受信時間の差」、「前記第1表面音響信号及び前記第2表面音響信号の大きさ変化」の少なくともいずれか1つによって判断され得る。
ステップS1640において、ユーザインタフェース提供装置は、表面音響信号の進行方向に対応するデバイスの機能を実行させる。例えば、デバイスの設定に応じて音楽または動画を再生するアプリケーションが実行された後、特定方向のドラッギングが入力されれば、音楽または動画が再生することも可能である。
本発明の実施形態に係る方法は、多様なコンピュータ手段を介して様々な処理を実行することができるプログラム命令の形態で実現され、コンピュータ読取可能な記録媒体に記録されてもよい。コンピュータ読取可能な媒体は、プログラム命令、データファイル、データ構造などの単独または組み合わせたものを含んでもよい。媒体に記録されるプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、光ディスクのような光磁気媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を格納して実行するように特別に構成されたハードウェア装置が含まれてもよい。プログラム命令の例としては、コンパイラによって生成されるような機械語コード(machine code)だけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コード(higher level code)を含む。上述したハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアのレイヤで動作するように構成されてもよい。
上述したように本発明を限定された実施形態と図面によって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような実施形態から多様な修正及び変形が可能である。
したがって、本発明の範囲は、開示された実施形態に限定して定められるものではなく、特許請求の範囲だけではなく特許請求の範囲と均等なものなどによって定められるものである。

Claims (25)

  1. デバイスのユーザインタフェース提供装置において、
    前記デバイス外部の媒質で発生した表面音響信号を取得する表面音響信号取得部と、
    前記表面音響信号の特徴を分析して前記媒質に対応する前記表面音響信号のパターンを認識するパターン認識部と、
    前記表面音響信号のパターンに基づいてユーザの入力信号を識別するユーザ入力識別部と、
    を備えることを特徴とするユーザインタフェース提供装置。
  2. 前記デバイス外部の媒質は、前記デバイスと接触する物体によって前記ユーザに提供されることを特徴とする請求項1に記載のユーザインタフェース提供装置。
  3. 前記表面音響信号取得部は、
    前記物体に接触して前記表面音響信号を受信する媒質接触部と、
    前記表面音響信号をデジタル信号に変換する音響センサと、
    を備えることを特徴とする請求項2に記載のユーザインタフェース提供装置。
  4. 前記デバイス外部の媒質は、前記デバイスの外装ケースを介して前記ユーザに提供されることを特徴とする請求項1に記載のユーザインタフェース提供装置。
  5. 前記パターン認識部は、
    前記表面音響信号の時間−ドメイン上の特徴、または周波数−ドメイン上の特徴のうち少なくとも1つの特徴を抽出する特徴抽出部と、
    前記時間−ドメイン上の特徴、または周波数−ドメイン上の特徴のうち少なくとも1つの特徴に基づいて前記表面音響信号のパターンを分析するパターン分析部と、
    を備えることを特徴とする請求項1に記載のユーザインタフェース提供装置。
  6. 前記時間−ドメイン上の特徴は、前記表面音響信号の振幅、ゼロクロッシングの分布、エネルギーの大きさ、長さ、形態のうち少なくともいずれか1つを含むことを特徴とする請求項5に記載のユーザインタフェース提供装置。
  7. 前記パターン認識部は、テスト信号を用いて前記媒質の種類を判断し、前記媒質の種類を考慮して前記表面音響信号のパターンを認識することを特徴とする請求項1に記載のユーザインタフェース提供装置。
  8. 前記パターン認識部は、前記表面音響信号の周波数−ドメイン特性に基づいて前記表面音響信号を発生させたツールを推定し、前記表面音響信号の発生ツールを考慮して前記表面音響信号のパターンを認識することを特徴とする請求項1に記載のユーザインタフェース提供装置。
  9. 前記ユーザ入力識別部は、前記表面音響信号のパターンにマッチングされる最小の意味単位を区分し、前記最小の意味単位に基づいて前記ユーザの入力信号を識別することを特徴とする請求項1に記載のユーザインタフェース提供装置。
  10. 前記パターン認識部から複数のパターンを順に受信し、前記複数のパターンそれぞれに対応する最小の意味単位を組み合わせて前記ユーザの入力信号を識別することを特徴とする請求項1に記載のユーザインタフェース提供装置。
  11. 前記パターンは前記表面音響信号の進行方向に関する情報を含み、前記ユーザ入力識別部は、前記表面音響信号の進行方向に関する情報に基づいて前記ユーザの入力信号を識別することを特徴とする請求項1に記載のユーザインタフェース提供装置。
  12. 媒質の種類及び入力ツールの種類に応じて区分された前記表面音響信号のパターンモデルを格納するパターンモデル格納部をさらに備えることを特徴とする請求項1に記載のユーザインタフェース提供装置。
  13. 前記ユーザの入力信号は、前記媒質の表面上から入力される文字、図形、ドラッギング、タッチイベントのうち少なくとも1つを含むことを特徴とする請求項1に記載のユーザインタフェース提供装置。
  14. デバイスのユーザインタフェース提供方法において、
    表面音響信号を取得するステップと、
    前記表面音響信号の時間−ドメイン上の特徴、または周波数−ドメイン上の特徴のうち少なくとも1つの特徴を抽出するステップと、
    前記時間−ドメイン上の特徴、または周波数−ドメイン上の特徴のうち少なくとも1つの特徴に基づいて前記表面音響信号のパターンを分析するステップと、
    前記表面音響信号のパターンに基づいてユーザの入力信号を識別するステップと、
    を含むことを特徴とするユーザインタフェース提供方法。
  15. 前記表面音響信号のパターンを分析するステップは、
    テスト信号を用いて前記媒質の種類を判断するステップと、
    前記表面音響信号の周波数−ドメイン特性に基づいて前記表面音響信号を発生させたツールを推定するステップと、
    前記媒質の種類及び前記表面音響信号を発生させたツールを考慮して前記表面音響信号のパターンを認識するステップと、
    を含むことを特徴とする請求項14に記載のユーザインタフェース提供方法。
  16. 前記識別するステップは、
    複数のパターンを順に受信するステップと、
    前記複数のパターンそれぞれに対応する最小の意味単位を組み合わせて前記ユーザの入力信号を識別するステップと、
    を含むことを特徴とする請求項14に記載のユーザインタフェース提供方法。
  17. デバイスのユーザインタフェース提供方法において、
    前記デバイスの外部媒質からユーザの入力信号を受信する外部入力モードを実行させるステップと、
    前記デバイスの外部媒質から表面音響信号が受信されれば、前記表面音響信号の特徴を分析して前記媒質に対応する前記表面音響信号のパターンを認識するステップと、
    前記表面音響信号のパターンに基づいてユーザの入力信号を識別するステップと、
    を含むことを特徴とするユーザインタフェース提供方法。
  18. デバイスのユーザインタフェース提供方法において、
    前記デバイスの外部媒質からユーザの入力信号を受信する外部入力モードを実行させるステップと、
    前記デバイスの外部媒質から表面音響信号が受信されれば、前記表面音響信号の進行方向を判断するステップと、
    前記表面音響信号の進行方向に対応する前記デバイスの機能を実行させるステップと、
    を含むことを特徴とするユーザインタフェース提供方法。
  19. 前記表面音響信号の進行方向は、「前記表面音響信号の波形の形」、「第1音響センサで受信される第1表面音響信号及び第2音響センサで受信される第2表面音響信号の受信時間の差」、「前記第1表面音響信号及び前記第2表面音響信号の大きさ変化」のうち少なくともいずれか1つによって判断されることを特徴とする請求項18に記載のユーザインタフェース提供方法。
  20. ユーザインタフェースを備えたデバイスにおいて、
    前記デバイスの外部で発生した表面音響信号を取得するセンサと、
    前記表面音響信号の特徴を分析して前記表面音響信号のパターンを区分し、前記表面音響信号のパターンに基づいて前記表面音響信号に対応するユーザの入力信号を識別するように構成された少なくとも1つのプロセッサと、
    を含むことを特徴とするユーザインタフェースを備えたデバイス。
  21. デバイスのユーザインタフェース提供方法において、
    デバイスの外部でユーザによって発生した音響信号を取得するステップと、
    前記音響信号を分析するステップと、
    前記分析された音響信号に基づいてユーザの入力信号を識別するステップと、
    を含むことを特徴とするデバイスのユーザインタフェース提供方法。
  22. 前記音響信号は、媒質と前記ユーザの手の接触によって発生することを特徴とする請求項21に記載のデバイスのユーザインタフェース提供方法。
  23. 前記音響信号は、媒質と前記ユーザによって用いられたツールの接触によって発生することを特徴とする請求項21に記載のデバイスのユーザインタフェース提供方法。
  24. 前記音響信号は、前記デバイスがユーザによって接触された媒質に接触した状態で取得されることを特徴とする請求項21に記載のデバイスのユーザインタフェース提供方法。
  25. 前記音響信号は表面音響信号であることを特徴とする請求項21に記載のデバイスのユーザインタフェース提供方法。
JP2012551100A 2010-02-02 2011-02-01 表面音響信号を用いたユーザインタフェース提供装置及び方法、ユーザインタフェースを備えるデバイス Active JP5789270B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2010-0009545 2010-02-02
KR20100009545 2010-02-02
KR10-2010-0083609 2010-08-27
KR1020100083609A KR101678549B1 (ko) 2010-02-02 2010-08-27 표면 음향 신호를 이용한 유저 인터페이스 제공 장치 및 방법, 유저 인터페이스를 구비한 디바이스
PCT/KR2011/000680 WO2011096694A2 (en) 2010-02-02 2011-02-01 Method and apparatus for providing user interface using acoustic signal, and device including user interface

Publications (2)

Publication Number Publication Date
JP2013519132A true JP2013519132A (ja) 2013-05-23
JP5789270B2 JP5789270B2 (ja) 2015-10-07

Family

ID=44342706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012551100A Active JP5789270B2 (ja) 2010-02-02 2011-02-01 表面音響信号を用いたユーザインタフェース提供装置及び方法、ユーザインタフェースを備えるデバイス

Country Status (6)

Country Link
US (1) US9857920B2 (ja)
EP (2) EP2544077B1 (ja)
JP (1) JP5789270B2 (ja)
KR (1) KR101678549B1 (ja)
CN (1) CN102741919B (ja)
WO (1) WO2011096694A2 (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016505988A (ja) * 2013-01-08 2016-02-25 ソニー株式会社 デバイスのユーザインターフェイス制御
WO2016148120A1 (ja) * 2015-03-17 2016-09-22 株式会社メガチップス 情報受付システム、記録媒体および情報入力方法
JP2016173688A (ja) * 2015-03-17 2016-09-29 株式会社メガチップス 情報受付システム、プログラムおよび情報入力方法
JP2016173687A (ja) * 2015-03-17 2016-09-29 株式会社メガチップス 情報受付システム、プログラムおよび情報入力方法
US9851841B2 (en) 2011-10-18 2017-12-26 Carnegie Mellon University Method and apparatus for classifying touch events on a touch sensitive surface
CN109416607A (zh) * 2016-04-27 2019-03-01 莫吉斯有限公司 用于识别手势的方法及相应设备
US10282024B2 (en) 2014-09-25 2019-05-07 Qeexo, Co. Classifying contacts or associations with a touch sensitive device
US10599251B2 (en) 2014-09-11 2020-03-24 Qeexo, Co. Method and apparatus for differentiating touch screen users based on touch event analysis
US10642404B2 (en) 2015-08-24 2020-05-05 Qeexo, Co. Touch sensitive device with multi-sensor stream synchronized data
US10942603B2 (en) 2019-05-06 2021-03-09 Qeexo, Co. Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device
US10949029B2 (en) 2013-03-25 2021-03-16 Qeexo, Co. Method and apparatus for classifying a touch event on a touchscreen as related to one of multiple function generating interaction layers
US11009989B2 (en) 2018-08-21 2021-05-18 Qeexo, Co. Recognizing and rejecting unintentional touch events associated with a touch sensitive device
US11029785B2 (en) 2014-09-24 2021-06-08 Qeexo, Co. Method for improving accuracy of touch screen event analysis by use of spatiotemporal touch patterns
US11175698B2 (en) 2013-03-19 2021-11-16 Qeexo, Co. Methods and systems for processing touch inputs based on touch type and touch intensity
US11231815B2 (en) 2019-06-28 2022-01-25 Qeexo, Co. Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing
US11262864B2 (en) 2013-03-25 2022-03-01 Qeexo, Co. Method and apparatus for classifying finger touch events
US11592423B2 (en) 2020-01-29 2023-02-28 Qeexo, Co. Adaptive ultrasonic sensing techniques and systems to mitigate interference
US11619983B2 (en) 2014-09-15 2023-04-04 Qeexo, Co. Method and apparatus for resolving touch screen ambiguities

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9477350B2 (en) 2011-04-26 2016-10-25 Sentons Inc. Method and apparatus for active ultrasonic touch devices
US9639213B2 (en) 2011-04-26 2017-05-02 Sentons Inc. Using multiple signals to detect touch input
US11327599B2 (en) 2011-04-26 2022-05-10 Sentons Inc. Identifying a contact type
US10198097B2 (en) 2011-04-26 2019-02-05 Sentons Inc. Detecting touch input force
US9189109B2 (en) 2012-07-18 2015-11-17 Sentons Inc. Detection of type of object used to provide a touch contact input
CN104169847B (zh) 2011-11-18 2019-03-12 森顿斯公司 局部触觉反馈
US10235004B1 (en) 2011-11-18 2019-03-19 Sentons Inc. Touch input detector with an integrated antenna
KR101803261B1 (ko) 2011-11-18 2017-11-30 센톤스 아이엔씨. 터치 입력 힘 검출
US9886091B2 (en) 2012-03-15 2018-02-06 Nokia Technologies Oy Tactile apparatus link
US9078066B2 (en) 2012-07-18 2015-07-07 Sentons Inc. Touch input surface speaker
US9348468B2 (en) 2013-06-07 2016-05-24 Sentons Inc. Detecting multi-touch inputs
US9281727B1 (en) * 2012-11-01 2016-03-08 Amazon Technologies, Inc. User device-based control of system functionality
KR101371749B1 (ko) 2012-11-09 2014-03-07 현대자동차(주) 차량 제어 장치
KR102011495B1 (ko) * 2012-11-09 2019-08-16 삼성전자 주식회사 사용자의 심리 상태 판단 장치 및 방법
US9430098B2 (en) * 2012-12-17 2016-08-30 Apple Inc. Frequency sensing and magnification of portable device output
KR20140113119A (ko) * 2013-03-15 2014-09-24 엘지전자 주식회사 전자 기기 및 그 제어방법
KR101500130B1 (ko) * 2013-09-02 2015-03-06 현대자동차주식회사 스티어링 휠에 설치된 차량용 제어장치
US10114486B2 (en) * 2013-09-19 2018-10-30 Change Healthcare Holdings, Llc Method and apparatus for providing touch input via a touch sensitive surface utilizing a support object
US9459715B1 (en) 2013-09-20 2016-10-04 Sentons Inc. Using spectral control in detecting touch input
KR101509947B1 (ko) 2013-10-23 2015-04-07 현대자동차주식회사 리어 램프 점검 장치, 방법 및 시스템
US20150242036A1 (en) * 2014-02-21 2015-08-27 Amin Heidari System and method for detecting taps on a surface or on a device
JP6281745B2 (ja) * 2014-03-06 2018-02-21 カシオ計算機株式会社 摺動操作検出装置、電子機器及びプログラム
US9864453B2 (en) * 2014-09-22 2018-01-09 Qeexo, Co. Method and apparatus for improving accuracy of touch screen event analysis by use of edge classification
KR20160045545A (ko) * 2014-10-17 2016-04-27 엘지전자 주식회사 냉장고
KR102306537B1 (ko) * 2014-12-04 2021-09-29 삼성전자주식회사 소리 신호를 처리하는 방법 및 디바이스.
CN105828265A (zh) * 2015-01-10 2016-08-03 深圳富泰宏精密工业有限公司 配件侦测系统及方法
US10592817B2 (en) * 2015-07-13 2020-03-17 International Business Machines Corporation Parameter-dependent model-blending with multi-expert based machine learning and proxy sites
KR101892794B1 (ko) * 2015-08-25 2018-08-28 엘지전자 주식회사 냉장고
US10048811B2 (en) 2015-09-18 2018-08-14 Sentons Inc. Detecting touch input provided by signal transmitting stylus
KR101862564B1 (ko) 2016-01-05 2018-05-30 엘지전자 주식회사 냉장고
US10908741B2 (en) 2016-11-10 2021-02-02 Sentons Inc. Touch input detection along device sidewall
US10296144B2 (en) 2016-12-12 2019-05-21 Sentons Inc. Touch input detection with shared receivers
US10126877B1 (en) 2017-02-01 2018-11-13 Sentons Inc. Update of reference data for touch input detection
US20180239435A1 (en) * 2017-02-22 2018-08-23 International Business Machines Corporation Smart devices having recognition features
US10585522B2 (en) 2017-02-27 2020-03-10 Sentons Inc. Detection of non-touch inputs using a signature
FR3066841B1 (fr) 2017-05-29 2020-07-10 Hap2U Procede de commande d'un dispositif nomade
US11580829B2 (en) 2017-08-14 2023-02-14 Sentons Inc. Dynamic feedback for haptics
US11009411B2 (en) 2017-08-14 2021-05-18 Sentons Inc. Increasing sensitivity of a sensor using an encoded signal
CN113220167B (zh) * 2021-05-19 2024-03-12 京东方科技集团股份有限公司 显示模组及超声波触控检测方法
US20240143164A1 (en) * 2022-11-01 2024-05-02 The Regents Of The University Of Michigan Leveraging Surface Acoustic Wave For Detecting Gestures

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005018611A (ja) * 2003-06-27 2005-01-20 Yamatake Corp コマンド入力装置及びコマンド入力方法
WO2008047294A2 (en) * 2006-10-18 2008-04-24 Koninklijke Philips Electronics N.V. Electronic system control using surface interaction

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4718102A (en) * 1983-01-19 1988-01-05 Communication Intelligence Corporation Process and apparatus involving pattern recognition
US4772764A (en) * 1983-12-01 1988-09-20 Xecutek Corporation Soundwave position digitizer
US4654648A (en) * 1984-12-17 1987-03-31 Herrington Richard A Wireless cursor control system
DE68928987T2 (de) * 1989-10-02 1999-11-11 Koninkl Philips Electronics Nv Datenverarbeitungssystem mit einer Berührungsanzeige und einem Digitalisiertablett, beide integriert in einer Eingabevorrichtung
JP2535626B2 (ja) * 1989-10-27 1996-09-18 キヤノン株式会社 座標入力装置
JP2592972B2 (ja) * 1989-12-25 1997-03-19 キヤノン株式会社 座標入力装置
US6366697B1 (en) * 1993-10-06 2002-04-02 Xerox Corporation Rotationally desensitized unistroke handwriting recognition
JP3230552B2 (ja) * 1993-12-03 2001-11-19 キヤノン株式会社 圧電センサ及びそれを使用した座標入力装置
JP3385094B2 (ja) 1994-05-23 2003-03-10 松下電器産業株式会社 携帯型情報端末
JP3007933B2 (ja) * 1994-12-15 2000-02-14 富士通株式会社 超音波座標入力装置
US5591945A (en) * 1995-04-19 1997-01-07 Elo Touchsystems, Inc. Acoustic touch position sensor using higher order horizontally polarized shear wave propagation
EP0827105A3 (de) * 1996-08-29 2000-10-25 Siemens Aktiengesellschaft Mit akustischen Oberflächenwellen arbeitende Identifizierungs- oder Sensoranordnung - OFW-Anordnung
US6429846B2 (en) * 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
US6313825B1 (en) * 1998-12-28 2001-11-06 Gateway, Inc. Virtual input device
US20030132921A1 (en) * 1999-11-04 2003-07-17 Torunoglu Ilhami Hasan Portable sensory input device
US7050177B2 (en) * 2002-05-22 2006-05-23 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
WO2001042871A1 (en) * 1999-12-08 2001-06-14 Telefonaktiebolaget Lm Ericsson (Publ) A portable communication device and method
US7157649B2 (en) * 1999-12-23 2007-01-02 New Transducers Limited Contact sensitive device
ATE443359T1 (de) * 2000-01-12 2009-10-15 Xtera Communications Inc Zweiseitig gepumpter ramanverstärker
US6703570B1 (en) * 2000-05-10 2004-03-09 International Business Machines Corporation Digital pen using ultrasonic tracking
KR100865598B1 (ko) * 2000-05-29 2008-10-27 브이케이비 인코포레이티드 수문자 조합 및 다른 데이터의 입력을 위한 가상 데이터입력 장치 및 방법
FR2811107B1 (fr) * 2000-06-29 2002-10-18 Jean Pierre Nikolovski Plaque acoustique interactive de precision
US20040047505A1 (en) * 2001-12-26 2004-03-11 Firooz Ghassabian Stylus computer
DE60335424D1 (de) * 2002-02-06 2011-01-27 Soundtouch Ltd Verfahren für ein Touch pad
US7643015B2 (en) * 2002-05-24 2010-01-05 Massachusetts Institute Of Technology Systems and methods for tracking impacts
FR2841022B1 (fr) * 2002-06-12 2004-08-27 Centre Nat Rech Scient Procede pour localiser un impact sur une surface et dispositif pour la mise en oeuvre de ce procede
US7256773B2 (en) * 2003-06-09 2007-08-14 Microsoft Corporation Detection of a dwell gesture by examining parameters associated with pen motion
US7176902B2 (en) * 2003-10-10 2007-02-13 3M Innovative Properties Company Wake-on-touch for vibration sensing touch input devices
AU2005243022B2 (en) * 2004-05-17 2009-06-11 Qualcomm Incorporated Acoustic robust synchronization signaling for acoustic positioning system
US20060192763A1 (en) * 2005-02-25 2006-08-31 Ziemkowski Theodore B Sound-based virtual keyboard, device and method
US7551779B2 (en) * 2005-03-17 2009-06-23 Microsoft Corporation Word or character boundary-based scratch-out gesture recognition
WO2006131022A1 (en) * 2005-06-07 2006-12-14 Intel Corporation Ultrasonic tracking
US7353709B2 (en) * 2005-07-06 2008-04-08 National Research Council Of Canada Method and system for determining material properties using ultrasonic attenuation
US7961903B2 (en) * 2006-01-25 2011-06-14 Microsoft Corporation Handwriting style data input via keys
JP2007336513A (ja) 2006-05-15 2007-12-27 Seiko Epson Corp 叩きコマンド処理システム、及び、携帯機器の操作システム、並びに、携帯機器
JP4680129B2 (ja) 2006-05-22 2011-05-11 富士通株式会社 携帯端末装置及びその操作方法
US8086971B2 (en) * 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US8077163B2 (en) 2006-08-24 2011-12-13 Qualcomm Incorporated Mobile device with acoustically-driven text input and method thereof
CN101308434B (zh) * 2007-05-15 2011-06-22 宏达国际电子股份有限公司 使用者界面的操作方法
JP2010531015A (ja) * 2007-06-15 2010-09-16 ルイディア インコーポレイテッド 大型フラットパネルディスプレイのインタラクティビティ
EP2073106B1 (en) * 2007-12-21 2012-02-08 Tyco Electronics Services GmbH Method for determining the locations of at least two impacts
CN102027440A (zh) * 2008-03-18 2011-04-20 艾利普提克实验室股份有限公司 对象与运动检测
US8619055B2 (en) * 2008-04-14 2013-12-31 Microsoft Corporation Active matrix touch sensing
TWI374391B (en) * 2008-05-27 2012-10-11 Ind Tech Res Inst Method for recognizing writing motion and trajectory and apparatus for writing and recognizing system
US8441790B2 (en) * 2009-08-17 2013-05-14 Apple Inc. Electronic device housing as acoustic input device
KR101654008B1 (ko) * 2009-10-09 2016-09-09 삼성전자주식회사 음향신호 처리를 이용한 모바일 기기 및 상기 모바일 기기에서 수행되는 음향 신호 처리 방법
EP2503432A4 (en) * 2009-10-09 2014-07-23 Egalax Empia Technology Inc METHOD AND DEVICE FOR DOUBLE DIFFERENTIATED DETECTION
US8624878B2 (en) * 2010-01-20 2014-01-07 Apple Inc. Piezo-based acoustic and capacitive detection
US8749531B2 (en) * 2010-03-31 2014-06-10 Blackberry Limited Method for receiving input on an electronic device and outputting characters based on sound stroke patterns
US9465985B2 (en) * 2013-06-09 2016-10-11 Apple Inc. Managing real-time handwriting recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005018611A (ja) * 2003-06-27 2005-01-20 Yamatake Corp コマンド入力装置及びコマンド入力方法
WO2008047294A2 (en) * 2006-10-18 2008-04-24 Koninklijke Philips Electronics N.V. Electronic system control using surface interaction

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10642407B2 (en) 2011-10-18 2020-05-05 Carnegie Mellon University Method and apparatus for classifying touch events on a touch sensitive surface
US9851841B2 (en) 2011-10-18 2017-12-26 Carnegie Mellon University Method and apparatus for classifying touch events on a touch sensitive surface
JP2016505988A (ja) * 2013-01-08 2016-02-25 ソニー株式会社 デバイスのユーザインターフェイス制御
US11175698B2 (en) 2013-03-19 2021-11-16 Qeexo, Co. Methods and systems for processing touch inputs based on touch type and touch intensity
US10949029B2 (en) 2013-03-25 2021-03-16 Qeexo, Co. Method and apparatus for classifying a touch event on a touchscreen as related to one of multiple function generating interaction layers
US11262864B2 (en) 2013-03-25 2022-03-01 Qeexo, Co. Method and apparatus for classifying finger touch events
US10599251B2 (en) 2014-09-11 2020-03-24 Qeexo, Co. Method and apparatus for differentiating touch screen users based on touch event analysis
US11619983B2 (en) 2014-09-15 2023-04-04 Qeexo, Co. Method and apparatus for resolving touch screen ambiguities
US11029785B2 (en) 2014-09-24 2021-06-08 Qeexo, Co. Method for improving accuracy of touch screen event analysis by use of spatiotemporal touch patterns
US10282024B2 (en) 2014-09-25 2019-05-07 Qeexo, Co. Classifying contacts or associations with a touch sensitive device
US10474292B2 (en) 2015-03-17 2019-11-12 Megachips Corporation Information reception system, recording medium, and information input method
JP2016173687A (ja) * 2015-03-17 2016-09-29 株式会社メガチップス 情報受付システム、プログラムおよび情報入力方法
JP2016173688A (ja) * 2015-03-17 2016-09-29 株式会社メガチップス 情報受付システム、プログラムおよび情報入力方法
WO2016148120A1 (ja) * 2015-03-17 2016-09-22 株式会社メガチップス 情報受付システム、記録媒体および情報入力方法
US10642404B2 (en) 2015-08-24 2020-05-05 Qeexo, Co. Touch sensitive device with multi-sensor stream synchronized data
CN109416607A (zh) * 2016-04-27 2019-03-01 莫吉斯有限公司 用于识别手势的方法及相应设备
US11009989B2 (en) 2018-08-21 2021-05-18 Qeexo, Co. Recognizing and rejecting unintentional touch events associated with a touch sensitive device
US10942603B2 (en) 2019-05-06 2021-03-09 Qeexo, Co. Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device
US11231815B2 (en) 2019-06-28 2022-01-25 Qeexo, Co. Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing
US11543922B2 (en) 2019-06-28 2023-01-03 Qeexo, Co. Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing
US11592423B2 (en) 2020-01-29 2023-02-28 Qeexo, Co. Adaptive ultrasonic sensing techniques and systems to mitigate interference

Also Published As

Publication number Publication date
KR20110090739A (ko) 2011-08-10
EP2544077B1 (en) 2018-05-16
US20110191680A1 (en) 2011-08-04
WO2011096694A3 (en) 2011-11-10
EP2532000A4 (en) 2013-10-16
EP2532000A2 (en) 2012-12-12
JP5789270B2 (ja) 2015-10-07
KR101678549B1 (ko) 2016-11-23
EP2532000B1 (en) 2017-04-26
WO2011096694A2 (en) 2011-08-11
CN102741919B (zh) 2014-12-10
EP2544077A1 (en) 2013-01-09
CN102741919A (zh) 2012-10-17
US9857920B2 (en) 2018-01-02

Similar Documents

Publication Publication Date Title
JP5789270B2 (ja) 表面音響信号を用いたユーザインタフェース提供装置及び方法、ユーザインタフェースを備えるデバイス
CN102890557B (zh) 用于响应于麦克风输出的触摸手势检测的方法和系统
US11175698B2 (en) Methods and systems for processing touch inputs based on touch type and touch intensity
JP6546948B2 (ja) タッチセンサ表面に対するタッチ事象を分類するための方法及び装置
CN106708254B (zh) 检测器
CN106716317B (zh) 解决触摸不连续性的方法和装置
US10037108B2 (en) Input tools having vibro-acoustically distinct regions and computing device for use with the same
US8913039B2 (en) Method and device for locating at least one touch on a touch-sensitive surface of an object
CN109256146B (zh) 音频检测方法、装置及存储介质
KR101654008B1 (ko) 음향신호 처리를 이용한 모바일 기기 및 상기 모바일 기기에서 수행되는 음향 신호 처리 방법
CN107077242A (zh) 通过使用时空触摸图案来提高触摸屏事件分析的准确性的方法
JP2011028555A (ja) 情報処理装置および情報処理方法
KR20090127544A (ko) 터치 센서와 가속도 센서를 이용한 사용자의 터치패턴 인식시스템
WO2006070044A1 (en) A method and a device for localizing a sound source and performing a related action
JP2010501945A (ja) 音響駆動式テキスト入力を有する移動装置および音響駆動式テキスト入力方法
CN107340864A (zh) 一种基于声波的虚拟输入方法
Kato et al. Surfboard: keyboard with microphone as a low-cost interactive surface
US20160048372A1 (en) User Interaction With an Apparatus Using a Location Sensor and Microphone Signal(s)
JP2014099073A (ja) 電子機器、その制御方法及びプログラム
TWI472992B (zh) 運用於電子產品的聲學式觸控裝置及其觸控方法
CN106775414A (zh) 终端控制方法及系统
WO2022061500A1 (zh) 一种基于电容触摸屏的人机交互系统和交互方法
TR201905862A2 (tr) Bir dokunma tespit usulü.
Ghaziasgar et al. A surface acoustic wave touchscreen-type device using two transducers
KR20140144560A (ko) 제스처 인식 기기의 동작 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150731

R150 Certificate of patent or registration of utility model

Ref document number: 5789270

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250