JP2015508205A - 音識別に基づくモバイルデバイスの制御 - Google Patents
音識別に基づくモバイルデバイスの制御 Download PDFInfo
- Publication number
- JP2015508205A JP2015508205A JP2014556569A JP2014556569A JP2015508205A JP 2015508205 A JP2015508205 A JP 2015508205A JP 2014556569 A JP2014556569 A JP 2014556569A JP 2014556569 A JP2014556569 A JP 2014556569A JP 2015508205 A JP2015508205 A JP 2015508205A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- mobile device
- function
- media
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C23/00—Non-electrical signal transmission systems, e.g. optical systems
- G08C23/02—Non-electrical signal transmission systems, e.g. optical systems using infrasonic, sonic or ultrasonic waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/34—User authentication involving the use of external additional devices, e.g. dongles or smart cards
- G06F21/35—User authentication involving the use of external additional devices, e.g. dongles or smart cards communicating wirelessly
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/55—Detecting local intrusion or implementing counter-measures
- G06F21/554—Detecting local intrusion or implementing counter-measures involving event detection and direct action
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/70—Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
- G06F21/82—Protecting input, output or interconnection devices
- G06F21/83—Protecting input, output or interconnection devices input devices, e.g. keyboards, mice or controllers thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/26—Devices for calling a subscriber
- H04M1/27—Devices whereby a plurality of signals may be stored simultaneously
- H04M1/271—Devices whereby a plurality of signals may be stored simultaneously controlled by voice recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2221/00—Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/21—Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/2101—Auditing as a secondary aspect
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/74—Details of telephonic subscriber devices with voice recognition means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/487—Arrangements for providing information services, e.g. recorded voice services or time announcements
- H04M3/493—Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Telephone Function (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
xi k は、i番目の無ひずみ基準音のk番目のひずみ音の中間音特徴を示すベクトルである。上式では、誤差Eは、基礎フィルタMのための係数を調整または最適化することによって減少され得る。いくつかの実施形態では、基礎フィルタMは、限定はしないが、PCA(主成分分析(Principal Components Analysis))、OPCA(指向性主成分分析(Oriented Principal Components Analysis))、ICA(独立成分分析(Independent Component Analysis))、スパースコーディング、および他の同様のアルゴリズムを含む、任意の好適な技法を採用することによって生成され得る。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1] モバイルデバイスにおいて機能を実行するための方法であって、
前記モバイルデバイスの外部の音出力デバイスからのメディア音をキャプチャすることと、
前記キャプチャされたメディア音から音特徴を抽出することと、
前記抽出された音特徴に基づいて、基準音特徴のセット中の少なくとも1つの基準音特徴を識別することによって、前記モバイルデバイスにおいて実行されるべき前記機能を決定することと、基準音特徴の前記セット中の各基準音特徴は、複数のメディア音のうちの少なくとも1つと、複数の機能のうちの少なくとも1つとに関連し、
前記モバイルデバイスにおいて前記決定された機能を実行することと、
を備える、方法。
[2] 前記少なくとも1つの基準音特徴は広告に関連し、前記決定された機能を実行することは、前記モバイルデバイス上に前記広告を表示することを含む、[1]に記載の方法。
[3] 前記少なくとも1つの基準音特徴は、検索エンジンによって検索されるべきキーワードに関連し、前記決定された機能を実行することは、
前記キーワードを前記検索エンジンに送信することと、
前記検索エンジンから検索結果を受信することと、
前記モバイルデバイス上に前記検索結果を出力することと、
を含む、[1]に記載の方法。
[4] 前記決定された機能を実行することは、前記モバイルデバイスの構成を調整することを含む、[1]に記載の方法。
[5] 前記決定された機能を実行することは、
実行されるべき前記機能の通知を出力することと、
前記機能を実行するための入力を受信することと、
前記受信された入力に応答して前記機能を実行することと、
を含む、[1]に記載の方法。
[6] 前記キャプチャされたメディア音の音レベルが所定の音レベルよりも大きい場合、前記キャプチャされたメディア音から前記音特徴を抽出することと、前記モバイルデバイスによって実行されるべき前記機能を決定することとが実行される、[1]に記載の方法。
[7] 前記キャプチャされたメディア音から前記音特徴を抽出することは、
前記キャプチャされたメディア音から中間音特徴を抽出することと、
前記音特徴を生成するために、前記中間音特徴に少なくとも1つの基礎フィルタを適用することと、
を含む、[1]に記載の方法。
[8] 前記少なくとも1つの基礎フィルタは、複数の基礎フィルタから、前記複数の基礎フィルタの各々によって1ペアのサンプル音から抽出された音特徴間の類似度の程度に基づいて、選択される、[7]に記載の方法。
[9] 前記少なくとも1つの基準音特徴は、前記モバイルデバイス上で実行されるべき前記機能とコンテキスト情報とを含むメタデータに関連する、[1]に記載の方法。
[10] モバイルデバイスにおいて機能を実行するための方法であって、
複数の音センサーによって、少なくとも1つのメディア音を含む合成音をキャプチャすることと、
前記合成音から前記少なくとも1つのメディア音を分離することと、
前記少なくとも1つの分離されたメディア音から少なくとも1つの音特徴を抽出することと、
前記少なくとも1つの抽出された音特徴に基づいて、基準音特徴のセット中の少なくとも1つの基準音特徴を識別することによって、前記モバイルデバイスにおいて実行されるべき前記機能を決定することと、基準音特徴の前記セット中の各基準音特徴は、複数のメディア音のうちの少なくとも1つと、複数の機能のうちの少なくとも1つとに関連し、
前記モバイルデバイスにおいて前記決定された機能を実行することと、
を備える、方法。
[11] 前記少なくとも1つの基準音特徴は広告に関連し、前記決定された機能を実行することは、前記モバイルデバイス上に前記広告を表示することを含む、[10]に記載の方法。
[12] 前記少なくとも1つの基準音特徴は、検索エンジンによって検索されるべきキーワードに関連し、前記決定された機能を実行することは、
前記キーワードを前記検索エンジンに送信することと、
前記検索エンジンから検索結果を受信することと、
前記モバイルデバイス上に前記検索結果を出力することと、
を含む、[10]に記載の方法。
[13] 前記決定された機能を実行することは、前記モバイルデバイスの構成を調整することを含む、[10]に記載の方法。
[14] 前記決定された機能を実行することは、
実行されるべき前記機能の通知を出力することと、
前記機能を実行するための入力を受信することと、
前記受信された入力に応答して前記機能を実行することと、
を含む、[10]に記載の方法。
[15] 前記少なくとも1つの分離されたメディア音から前記少なくとも1つの音特徴を抽出することは、
前記少なくとも1つの分離されたメディア音から1つのメディア音を選択することと、
前記選択されたメディア音から音特徴を抽出することと、
を含む、[10]に記載の方法。
[16] 前記少なくとも1つの分離されたメディア音から前記少なくとも1つの音特徴を抽出することは、すべての分離されたメディア音から音特徴を抽出することを含む、[10]に記載の方法。
[17] モバイルデバイスによって実行されるべき機能を決定するためのサーバであって、
音特徴を受信するように構成された受信機と、前記音特徴は、前記モバイルデバイスによってキャプチャされたメディア音から抽出され、
前記音特徴に基づいて、基準音特徴のセット中の少なくとも1つの基準音特徴を識別するように構成された識別ユニットと、基準音特徴の前記セット中の各基準音特徴は、複数のメディア音のうちの少なくとも1つと、複数の機能のうちの少なくとも1つとに関連し、
前記少なくとも1つの識別された基準音特徴に基づいて前記モバイルデバイスによって実行されるべき前記機能を決定するように構成された機能決定ユニットと、
を備える、サーバ。
[18] 前記少なくとも1つの基準音特徴は広告に関連し、前記機能決定ユニットは、前記モバイルデバイス上に前記広告を表示するような前記機能を決定するように構成された、[17]に記載のサーバ。
[19] 前記少なくとも1つの基準音特徴は、検索エンジンによって検索されるべきキーワードに関連し、前記機能決定ユニットは、
前記キーワードを前記検索エンジンに送信し、
前記検索エンジンから検索結果を受信し、
前記モバイルデバイス上に前記検索結果を出力するような
前記機能を決定するように構成された、[17]に記載のサーバ。
[20] 前記機能決定ユニットは、前記モバイルデバイスの構成を調整するような前記機能を決定するように構成された、[17]に記載のサーバ。
[21] 前記機能決定ユニットは、
実行されるべき前記機能の通知を出力し、
前記機能を実行するための入力を受信し、
前記受信された入力に応答して前記機能を実行するような
前記機能を決定するように構成された、[17]に記載のサーバ。
[22] 前記音特徴は、前記キャプチャされたメディア音の音レベルが所定の音レベルよりも大きい場合、前記キャプチャされたメディア音から抽出される、[17]に記載のサーバ。
[23] 前記音特徴は、前記キャプチャされたメディア音から中間音特徴を抽出することと、前記音特徴を生成するために前記中間音特徴に少なくとも1つの基礎フィルタを適用することとによって、前記キャプチャされたメディア音から抽出される、[17]に記載のサーバ。
[24] 複数の基礎フィルタから、前記複数の基礎フィルタの各々によって1ペアのサンプル音から抽出された音特徴間の類似度の程度に基づいて、前記少なくとも1つの基礎フィルタを選択するように構成された基礎フィルタ生成器をさらに備える、[23]に記載のサーバ。
[25] 前記少なくとも1つの基準音特徴は、前記モバイルデバイスによって実行されるべき前記機能とコンテキスト情報とを含むメタデータに関連する、[17]に記載のサーバ。
[26] モバイルデバイスであって、
前記モバイルデバイスの外部の音出力デバイスからのメディア音をキャプチャするように構成された音センサーと、
前記キャプチャされたメディア音から音特徴を抽出するように構成された音特徴抽出器と、
前記音特徴に基づいて基準音特徴のセット中の少なくとも1つの基準音特徴を識別するように構成された識別ユニットと、基準音特徴の前記セット中の各基準音特徴は、複数のメディア音のうちの少なくとも1つと、複数の機能のうちの少なくとも1つとに関連し、
前記少なくとも1つの識別された基準音特徴に基づいて前記モバイルデバイスによって実行されるべき機能を決定するように構成された機能決定ユニットと、
前記モバイルデバイスにおいて前記決定された機能を実行するように構成された制御ユニットと、
を備える、モバイルデバイス。
[27] 前記少なくとも1つの基準音特徴は広告に関連し、前記制御ユニットは、前記モバイルデバイス上に前記広告を表示するように構成された、[26]に記載のモバイルデバイス。
[28] 前記少なくとも1つの基準音特徴は、検索エンジンによって検索されるべきキーワードに関連し、前記制御ユニットは、
前記キーワードを前記検索エンジンに送信することと、
前記検索エンジンから検索結果を受信することと、
前記モバイルデバイス上に前記検索結果を出力することと、
を行うように構成された、[26]に記載のモバイルデバイス。
[29] 前記制御ユニットは、前記モバイルデバイスの構成を調整するように構成された、[26]に記載のモバイルデバイス。
[30] 前記制御ユニットは、
実行されるべき前記機能の通知を出力することと、
前記機能を実行するための入力を受信することと、
前記受信された入力に応答して前記機能を実行することと、
を行うように構成された、[26]に記載のモバイルデバイス。
[31] 前記音センサーは、所定の時間間隔で環境音を受信することと、前記受信された環境音が前記メディア音であるかどうかを決定することとによって、前記メディア音をキャプチャするようにさらに構成された、[26]に記載のモバイルデバイス。
[32] モバイルデバイスにおいて機能を実行するための命令を記憶する非一時的コンピュータ可読記憶媒体であって、前記命令は、
前記モバイルデバイスの外部の音出力デバイスからのメディア音をキャプチャすることと、
前記キャプチャされたメディア音から音特徴を抽出することと、
前記抽出された音特徴に基づいて基準音特徴のセット中の少なくとも1つの基準音特徴を識別することによって、前記モバイルデバイスにおいて実行されるべき前記機能を決定することと、基準音特徴の前記セット中の各基準音特徴は、複数のメディア音のうちの少なくとも1つと、複数の機能のうちの少なくとも1つとに関連し、
前記モバイルデバイスにおいて前記決定された機能を実行することと、
の動作をプロセッサに実行させる、非一時的コンピュータ可読記憶媒体。
[33] 前記少なくとも1つの基準音特徴は広告に関連し、前記決定された機能を実行することは、前記モバイルデバイス上に前記広告を表示することを含む、[32]に記載の媒体。
[34] 前記少なくとも1つの基準音特徴は、検索エンジンによって検索されるべきキーワードに関連し、前記決定された機能を実行することは、
前記キーワードを前記検索エンジンに送信することと、
前記検索エンジンから検索結果を受信することと、
前記モバイルデバイス上に前記検索結果を出力することと、
を含む、[32]に記載の媒体。
[35] 前記決定された機能を実行することは、前記モバイルデバイスの構成を調整することを含む、[32]に記載の媒体。
[36] 前記決定された機能を実行することは、
実行されるべき前記機能の通知を出力することと、
前記機能を実行するための入力を受信することと、
前記受信された入力に応答して前記機能を実行することと、
を含む、[32]に記載の媒体。
[37] 前記キャプチャされたメディア音の音レベルが所定の音レベルよりも大きい場合、前記キャプチャされたメディア音から前記音特徴を抽出することと、前記モバイルデバイスによって実行されるべき前記機能を決定することとが実行される、[32]に記載の媒体。
[38] 前記キャプチャされたメディア音から前記音特徴を抽出することは、
前記キャプチャされたメディア音から中間音特徴を抽出することと、
前記音特徴を生成するために前記中間音特徴に少なくとも1つの基礎フィルタを適用することと、
を含む、[32]に記載の媒体。
[39] 前記少なくとも1つの基礎フィルタは、複数の基礎フィルタから、前記複数の基礎フィルタの各々によって1ペアのサンプル音から抽出された音特徴間の類似度の程度に基づいて、選択される、[38]に記載の媒体。
[40] 前記少なくとも1つの基準音特徴は、前記モバイルデバイスにおいて実行されるべき前記機能とコンテキスト情報とを含むメタデータに関連する、[32]に記載の媒体。
[41] モバイルデバイスによって実行されるべき機能を決定するためのサーバであって、
音特徴を受信する手段と、前記音特徴は、前記モバイルデバイスによってキャプチャされたメディア音から抽出され、
前記音特徴に基づいて、基準音特徴のセット中の少なくとも1つの基準音特徴を識別する手段と、基準音特徴の前記セット中の各基準音特徴は、複数のメディア音のうちの少なくとも1つと、複数の機能のうちの少なくとも1つとに関連し、
前記少なくとも1つの識別された基準音特徴に基づいて前記モバイルデバイスによって実行されるべき前記機能を決定する手段と、
を備える、サーバ。
[42] 前記少なくとも1つの基準音特徴は広告に関連し、前記決定する手段は、前記モバイルデバイス上に前記広告を表示するような前記機能を決定するように構成された、[41]に記載のサーバ。
[43] 前記少なくとも1つの基準音特徴は、検索エンジンによって検索されるべきキーワードに関連し、前記決定する手段は、
前記キーワードを前記検索エンジンに送信し、
前記検索エンジンから検索結果を受信し、
前記モバイルデバイス上に前記検索結果を出力するような
前記機能を決定するように構成された、[41]に記載のサーバ。
[44] 前記決定する手段は、前記モバイルデバイスの構成を調整するような前記機能を決定するように構成された、[41]に記載のサーバ。
[45] 前記決定する手段は、
実行されるべき前記機能の通知を出力し、
前記機能を実行するための入力を受信し、
前記受信された入力に応答して前記機能を実行するような
前記機能を決定するように構成された、[41]に記載のサーバ。
[46] 前記音特徴は、前記キャプチャされたメディア音の音レベルが所定の音レベルよりも大きい場合、前記キャプチャされたメディア音から抽出される、[41]に記載のサーバ。
[47] 前記音特徴は、前記キャプチャされたメディア音から中間音特徴を抽出することと、前記音特徴を生成するために前記中間音特徴に少なくとも1つの基礎フィルタを適用することとによって、前記キャプチャされたメディア音から抽出される、[41]に記載のサーバ。
[48] 複数の基礎フィルタから、前記複数の基礎フィルタの各々によって1ペアのサンプル音から抽出された音特徴間の類似度の程度に基づいて、前記少なくとも1つの基礎フィルタを選択する手段をさらに備える、[47]に記載のサーバ。
[49] 前記少なくとも1つの基準音特徴は、前記モバイルデバイスによって実行されるべき前記機能とコンテキスト情報とを含むメタデータに関連する、[41]に記載のサーバ。
[50] モバイルデバイスであって、
前記モバイルデバイスの外部の音出力デバイスからのメディア音をキャプチャする手段と、
前記キャプチャされたメディア音から音特徴を抽出する手段と、
前記音特徴に基づいて、基準音特徴のセット中の少なくとも1つの基準音特徴を識別する手段と、基準音特徴の前記セット中の各基準音特徴は、複数のメディア音のうちの少なくとも1つと、複数の機能のうちの少なくとも1つとに関連し、
前記少なくとも1つの識別された基準音特徴に基づいて前記モバイルデバイスによって実行されるべき機能を決定する手段と、
前記モバイルデバイスにおいて前記決定された機能を実行する手段と、
を備える、モバイルデバイス。
[51] 前記少なくとも1つの基準音特徴は広告に関連し、前記実行する手段は、前記モバイルデバイス上に前記広告を表示するように構成された、[50]に記載のモバイルデバイス。
[52] 前記少なくとも1つの基準音特徴は、検索エンジンによって検索されるべきキーワードに関連し、前記実行する手段は、
前記キーワードを前記検索エンジンに送信することと、
前記検索エンジンから検索結果を受信することと、
前記モバイルデバイス上に前記検索結果を出力することと
を行うように構成された、[50]に記載のモバイルデバイス。
[53] 前記実行する手段は、前記モバイルデバイスの構成を調整するように構成された、[50]に記載のモバイルデバイス。
[54] 前記実行する手段は、
実行されるべき前記機能の通知を出力することと、
前記機能を実行するための入力を受信することと、
前記受信された入力に応答して前記機能を実行することと、
を行うように構成された、[50]に記載のモバイルデバイス。
Claims (54)
- モバイルデバイスにおいて機能を実行するための方法であって、
前記モバイルデバイスの外部の音出力デバイスからのメディア音をキャプチャすることと、
前記キャプチャされたメディア音から音特徴を抽出することと、
前記抽出された音特徴に基づいて、基準音特徴のセット中の少なくとも1つの基準音特徴を識別することによって、前記モバイルデバイスにおいて実行されるべき前記機能を決定することと、基準音特徴の前記セット中の各基準音特徴は、複数のメディア音のうちの少なくとも1つと、複数の機能のうちの少なくとも1つとに関連し、
前記モバイルデバイスにおいて前記決定された機能を実行することと、
を備える、方法。 - 前記少なくとも1つの基準音特徴は広告に関連し、前記決定された機能を実行することは、前記モバイルデバイス上に前記広告を表示することを含む、請求項1に記載の方法。
- 前記少なくとも1つの基準音特徴は、検索エンジンによって検索されるべきキーワードに関連し、前記決定された機能を実行することは、
前記キーワードを前記検索エンジンに送信することと、
前記検索エンジンから検索結果を受信することと、
前記モバイルデバイス上に前記検索結果を出力することと、
を含む、請求項1に記載の方法。 - 前記決定された機能を実行することは、前記モバイルデバイスの構成を調整することを含む、請求項1に記載の方法。
- 前記決定された機能を実行することは、
実行されるべき前記機能の通知を出力することと、
前記機能を実行するための入力を受信することと、
前記受信された入力に応答して前記機能を実行することと、
を含む、請求項1に記載の方法。 - 前記キャプチャされたメディア音の音レベルが所定の音レベルよりも大きい場合、前記キャプチャされたメディア音から前記音特徴を抽出することと、前記モバイルデバイスによって実行されるべき前記機能を決定することとが実行される、請求項1に記載の方法。
- 前記キャプチャされたメディア音から前記音特徴を抽出することは、
前記キャプチャされたメディア音から中間音特徴を抽出することと、
前記音特徴を生成するために、前記中間音特徴に少なくとも1つの基礎フィルタを適用することと、
を含む、請求項1に記載の方法。 - 前記少なくとも1つの基礎フィルタは、複数の基礎フィルタから、前記複数の基礎フィルタの各々によって1ペアのサンプル音から抽出された音特徴間の類似度の程度に基づいて、選択される、請求項7に記載の方法。
- 前記少なくとも1つの基準音特徴は、前記モバイルデバイス上で実行されるべき前記機能とコンテキスト情報とを含むメタデータに関連する、請求項1に記載の方法。
- モバイルデバイスにおいて機能を実行するための方法であって、
複数の音センサーによって、少なくとも1つのメディア音を含む合成音をキャプチャすることと、
前記合成音から前記少なくとも1つのメディア音を分離することと、
前記少なくとも1つの分離されたメディア音から少なくとも1つの音特徴を抽出することと、
前記少なくとも1つの抽出された音特徴に基づいて、基準音特徴のセット中の少なくとも1つの基準音特徴を識別することによって、前記モバイルデバイスにおいて実行されるべき前記機能を決定することと、基準音特徴の前記セット中の各基準音特徴は、複数のメディア音のうちの少なくとも1つと、複数の機能のうちの少なくとも1つとに関連し、
前記モバイルデバイスにおいて前記決定された機能を実行することと、
を備える、方法。 - 前記少なくとも1つの基準音特徴は広告に関連し、前記決定された機能を実行することは、前記モバイルデバイス上に前記広告を表示することを含む、請求項10に記載の方法。
- 前記少なくとも1つの基準音特徴は、検索エンジンによって検索されるべきキーワードに関連し、前記決定された機能を実行することは、
前記キーワードを前記検索エンジンに送信することと、
前記検索エンジンから検索結果を受信することと、
前記モバイルデバイス上に前記検索結果を出力することと、
を含む、請求項10に記載の方法。 - 前記決定された機能を実行することは、前記モバイルデバイスの構成を調整することを含む、請求項10に記載の方法。
- 前記決定された機能を実行することは、
実行されるべき前記機能の通知を出力することと、
前記機能を実行するための入力を受信することと、
前記受信された入力に応答して前記機能を実行することと、
を含む、請求項10に記載の方法。 - 前記少なくとも1つの分離されたメディア音から前記少なくとも1つの音特徴を抽出することは、
前記少なくとも1つの分離されたメディア音から1つのメディア音を選択することと、
前記選択されたメディア音から音特徴を抽出することと、
を含む、請求項10に記載の方法。 - 前記少なくとも1つの分離されたメディア音から前記少なくとも1つの音特徴を抽出することは、すべての分離されたメディア音から音特徴を抽出することを含む、請求項10に記載の方法。
- モバイルデバイスによって実行されるべき機能を決定するためのサーバであって、
音特徴を受信するように構成された受信機と、前記音特徴は、前記モバイルデバイスによってキャプチャされたメディア音から抽出され、
前記音特徴に基づいて、基準音特徴のセット中の少なくとも1つの基準音特徴を識別するように構成された識別ユニットと、基準音特徴の前記セット中の各基準音特徴は、複数のメディア音のうちの少なくとも1つと、複数の機能のうちの少なくとも1つとに関連し、
前記少なくとも1つの識別された基準音特徴に基づいて前記モバイルデバイスによって実行されるべき前記機能を決定するように構成された機能決定ユニットと、
を備える、サーバ。 - 前記少なくとも1つの基準音特徴は広告に関連し、前記機能決定ユニットは、前記モバイルデバイス上に前記広告を表示するような前記機能を決定するように構成された、請求項17に記載のサーバ。
- 前記少なくとも1つの基準音特徴は、検索エンジンによって検索されるべきキーワードに関連し、前記機能決定ユニットは、
前記キーワードを前記検索エンジンに送信し、
前記検索エンジンから検索結果を受信し、
前記モバイルデバイス上に前記検索結果を出力するような
前記機能を決定するように構成された、請求項17に記載のサーバ。 - 前記機能決定ユニットは、前記モバイルデバイスの構成を調整するような前記機能を決定するように構成された、請求項17に記載のサーバ。
- 前記機能決定ユニットは、
実行されるべき前記機能の通知を出力し、
前記機能を実行するための入力を受信し、
前記受信された入力に応答して前記機能を実行するような
前記機能を決定するように構成された、請求項17に記載のサーバ。 - 前記音特徴は、前記キャプチャされたメディア音の音レベルが所定の音レベルよりも大きい場合、前記キャプチャされたメディア音から抽出される、請求項17に記載のサーバ。
- 前記音特徴は、前記キャプチャされたメディア音から中間音特徴を抽出することと、前記音特徴を生成するために前記中間音特徴に少なくとも1つの基礎フィルタを適用することとによって、前記キャプチャされたメディア音から抽出される、請求項17に記載のサーバ。
- 複数の基礎フィルタから、前記複数の基礎フィルタの各々によって1ペアのサンプル音から抽出された音特徴間の類似度の程度に基づいて、前記少なくとも1つの基礎フィルタを選択するように構成された基礎フィルタ生成器をさらに備える、請求項23に記載のサーバ。
- 前記少なくとも1つの基準音特徴は、前記モバイルデバイスによって実行されるべき前記機能とコンテキスト情報とを含むメタデータに関連する、請求項17に記載のサーバ。
- モバイルデバイスであって、
前記モバイルデバイスの外部の音出力デバイスからのメディア音をキャプチャするように構成された音センサーと、
前記キャプチャされたメディア音から音特徴を抽出するように構成された音特徴抽出器と、
前記音特徴に基づいて基準音特徴のセット中の少なくとも1つの基準音特徴を識別するように構成された識別ユニットと、基準音特徴の前記セット中の各基準音特徴は、複数のメディア音のうちの少なくとも1つと、複数の機能のうちの少なくとも1つとに関連し、
前記少なくとも1つの識別された基準音特徴に基づいて前記モバイルデバイスによって実行されるべき機能を決定するように構成された機能決定ユニットと、
前記モバイルデバイスにおいて前記決定された機能を実行するように構成された制御ユニットと、
を備える、モバイルデバイス。 - 前記少なくとも1つの基準音特徴は広告に関連し、前記制御ユニットは、前記モバイルデバイス上に前記広告を表示するように構成された、請求項26に記載のモバイルデバイス。
- 前記少なくとも1つの基準音特徴は、検索エンジンによって検索されるべきキーワードに関連し、前記制御ユニットは、
前記キーワードを前記検索エンジンに送信することと、
前記検索エンジンから検索結果を受信することと、
前記モバイルデバイス上に前記検索結果を出力することと、
を行うように構成された、請求項26に記載のモバイルデバイス。 - 前記制御ユニットは、前記モバイルデバイスの構成を調整するように構成された、請求項26に記載のモバイルデバイス。
- 前記制御ユニットは、
実行されるべき前記機能の通知を出力することと、
前記機能を実行するための入力を受信することと、
前記受信された入力に応答して前記機能を実行することと、
を行うように構成された、請求項26に記載のモバイルデバイス。 - 前記音センサーは、所定の時間間隔で環境音を受信することと、前記受信された環境音が前記メディア音であるかどうかを決定することとによって、前記メディア音をキャプチャするようにさらに構成された、請求項26に記載のモバイルデバイス。
- モバイルデバイスにおいて機能を実行するための命令を記憶する非一時的コンピュータ可読記憶媒体であって、前記命令は、
前記モバイルデバイスの外部の音出力デバイスからのメディア音をキャプチャすることと、
前記キャプチャされたメディア音から音特徴を抽出することと、
前記抽出された音特徴に基づいて基準音特徴のセット中の少なくとも1つの基準音特徴を識別することによって、前記モバイルデバイスにおいて実行されるべき前記機能を決定することと、基準音特徴の前記セット中の各基準音特徴は、複数のメディア音のうちの少なくとも1つと、複数の機能のうちの少なくとも1つとに関連し、
前記モバイルデバイスにおいて前記決定された機能を実行することと、
の動作をプロセッサに実行させる、非一時的コンピュータ可読記憶媒体。 - 前記少なくとも1つの基準音特徴は広告に関連し、前記決定された機能を実行することは、前記モバイルデバイス上に前記広告を表示することを含む、請求項32に記載の媒体。
- 前記少なくとも1つの基準音特徴は、検索エンジンによって検索されるべきキーワードに関連し、前記決定された機能を実行することは、
前記キーワードを前記検索エンジンに送信することと、
前記検索エンジンから検索結果を受信することと、
前記モバイルデバイス上に前記検索結果を出力することと、
を含む、請求項32に記載の媒体。 - 前記決定された機能を実行することは、前記モバイルデバイスの構成を調整することを含む、請求項32に記載の媒体。
- 前記決定された機能を実行することは、
実行されるべき前記機能の通知を出力することと、
前記機能を実行するための入力を受信することと、
前記受信された入力に応答して前記機能を実行することと、
を含む、請求項32に記載の媒体。 - 前記キャプチャされたメディア音の音レベルが所定の音レベルよりも大きい場合、前記キャプチャされたメディア音から前記音特徴を抽出することと、前記モバイルデバイスによって実行されるべき前記機能を決定することとが実行される、請求項32に記載の媒体。
- 前記キャプチャされたメディア音から前記音特徴を抽出することは、
前記キャプチャされたメディア音から中間音特徴を抽出することと、
前記音特徴を生成するために前記中間音特徴に少なくとも1つの基礎フィルタを適用することと、
を含む、請求項32に記載の媒体。 - 前記少なくとも1つの基礎フィルタは、複数の基礎フィルタから、前記複数の基礎フィルタの各々によって1ペアのサンプル音から抽出された音特徴間の類似度の程度に基づいて、選択される、請求項38に記載の媒体。
- 前記少なくとも1つの基準音特徴は、前記モバイルデバイスにおいて実行されるべき前記機能とコンテキスト情報とを含むメタデータに関連する、請求項32に記載の媒体。
- モバイルデバイスによって実行されるべき機能を決定するためのサーバであって、
音特徴を受信する手段と、前記音特徴は、前記モバイルデバイスによってキャプチャされたメディア音から抽出され、
前記音特徴に基づいて、基準音特徴のセット中の少なくとも1つの基準音特徴を識別する手段と、基準音特徴の前記セット中の各基準音特徴は、複数のメディア音のうちの少なくとも1つと、複数の機能のうちの少なくとも1つとに関連し、
前記少なくとも1つの識別された基準音特徴に基づいて前記モバイルデバイスによって実行されるべき前記機能を決定する手段と、
を備える、サーバ。 - 前記少なくとも1つの基準音特徴は広告に関連し、前記決定する手段は、前記モバイルデバイス上に前記広告を表示するような前記機能を決定するように構成された、請求項41に記載のサーバ。
- 前記少なくとも1つの基準音特徴は、検索エンジンによって検索されるべきキーワードに関連し、前記決定する手段は、
前記キーワードを前記検索エンジンに送信し、
前記検索エンジンから検索結果を受信し、
前記モバイルデバイス上に前記検索結果を出力するような
前記機能を決定するように構成された、請求項41に記載のサーバ。 - 前記決定する手段は、前記モバイルデバイスの構成を調整するような前記機能を決定するように構成された、請求項41に記載のサーバ。
- 前記決定する手段は、
実行されるべき前記機能の通知を出力し、
前記機能を実行するための入力を受信し、
前記受信された入力に応答して前記機能を実行するような
前記機能を決定するように構成された、請求項41に記載のサーバ。 - 前記音特徴は、前記キャプチャされたメディア音の音レベルが所定の音レベルよりも大きい場合、前記キャプチャされたメディア音から抽出される、請求項41に記載のサーバ。
- 前記音特徴は、前記キャプチャされたメディア音から中間音特徴を抽出することと、前記音特徴を生成するために前記中間音特徴に少なくとも1つの基礎フィルタを適用することとによって、前記キャプチャされたメディア音から抽出される、請求項41に記載のサーバ。
- 複数の基礎フィルタから、前記複数の基礎フィルタの各々によって1ペアのサンプル音から抽出された音特徴間の類似度の程度に基づいて、前記少なくとも1つの基礎フィルタを選択する手段をさらに備える、請求項47に記載のサーバ。
- 前記少なくとも1つの基準音特徴は、前記モバイルデバイスによって実行されるべき前記機能とコンテキスト情報とを含むメタデータに関連する、請求項41に記載のサーバ。
- モバイルデバイスであって、
前記モバイルデバイスの外部の音出力デバイスからのメディア音をキャプチャする手段と、
前記キャプチャされたメディア音から音特徴を抽出する手段と、
前記音特徴に基づいて、基準音特徴のセット中の少なくとも1つの基準音特徴を識別する手段と、基準音特徴の前記セット中の各基準音特徴は、複数のメディア音のうちの少なくとも1つと、複数の機能のうちの少なくとも1つとに関連し、
前記少なくとも1つの識別された基準音特徴に基づいて前記モバイルデバイスによって実行されるべき機能を決定する手段と、
前記モバイルデバイスにおいて前記決定された機能を実行する手段と、
を備える、モバイルデバイス。 - 前記少なくとも1つの基準音特徴は広告に関連し、前記実行する手段は、前記モバイルデバイス上に前記広告を表示するように構成された、請求項50に記載のモバイルデバイス。
- 前記少なくとも1つの基準音特徴は、検索エンジンによって検索されるべきキーワードに関連し、前記実行する手段は、
前記キーワードを前記検索エンジンに送信することと、
前記検索エンジンから検索結果を受信することと、
前記モバイルデバイス上に前記検索結果を出力することと
を行うように構成された、請求項50に記載のモバイルデバイス。 - 前記実行する手段は、前記モバイルデバイスの構成を調整するように構成された、請求項50に記載のモバイルデバイス。
- 前記実行する手段は、
実行されるべき前記機能の通知を出力することと、
前記機能を実行するための入力を受信することと、
前記受信された入力に応答して前記機能を実行することと、
を行うように構成された、請求項50に記載のモバイルデバイス。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261596576P | 2012-02-08 | 2012-02-08 | |
US61/596,576 | 2012-02-08 | ||
US13/752,080 | 2013-01-28 | ||
US13/752,080 US9524638B2 (en) | 2012-02-08 | 2013-01-28 | Controlling mobile device based on sound identification |
PCT/US2013/023607 WO2013119418A1 (en) | 2012-02-08 | 2013-01-29 | Controlling mobile device based on sound identification |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015508205A true JP2015508205A (ja) | 2015-03-16 |
JP2015508205A5 JP2015508205A5 (ja) | 2016-03-03 |
Family
ID=48902784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014556569A Pending JP2015508205A (ja) | 2012-02-08 | 2013-01-29 | 音識別に基づくモバイルデバイスの制御 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9524638B2 (ja) |
EP (1) | EP2813061A1 (ja) |
JP (1) | JP2015508205A (ja) |
KR (1) | KR20140133501A (ja) |
CN (1) | CN104094580A (ja) |
WO (1) | WO2013119418A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140372210A1 (en) * | 2013-06-18 | 2014-12-18 | Yahoo! Inc. | Method and system for serving advertisements related to segments of a media program |
CN103414830A (zh) * | 2013-08-28 | 2013-11-27 | 上海斐讯数据通信技术有限公司 | 基于语音实现快速关机的方法及系统 |
EP3201730A1 (en) * | 2014-10-03 | 2017-08-09 | Seiko Epson Corporation | Head mounted display device adapted to the environment |
MX2018012484A (es) | 2016-04-15 | 2019-03-01 | Walmart Apollo Llc | Sistemas y metodos para facilitar la adquisicion en una instalacion minorista fisica. |
CA3021014A1 (en) * | 2016-04-15 | 2017-10-19 | Walmart Apollo, Llc | Systems and methods for providing content-based product recommendations |
US9928025B2 (en) * | 2016-06-01 | 2018-03-27 | Ford Global Technologies, Llc | Dynamically equalizing receiver |
US10225730B2 (en) | 2016-06-24 | 2019-03-05 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio sensor selection in an audience measurement device |
US11172293B2 (en) * | 2018-07-11 | 2021-11-09 | Ambiq Micro, Inc. | Power efficient context-based audio processing |
WO2020012145A1 (en) * | 2018-07-12 | 2020-01-16 | Source to Site Accessories Limited | System for identifying electrical devices |
CN111061156A (zh) * | 2018-10-17 | 2020-04-24 | 上海摩软通讯技术有限公司 | 智能家居系统的提醒控制方法及智能家居系统 |
KR102532424B1 (ko) | 2018-12-03 | 2023-05-12 | 한국전기연구원 | 탄소나노소재-나노금속 복합체 및 이의 제조방법 |
US11934915B2 (en) | 2019-11-20 | 2024-03-19 | Farzad Salimi Jazi | Synthetic standardized wave identifiers for representing and classifying entities |
WO2021102342A1 (en) | 2019-11-20 | 2021-05-27 | Salimi Jazi Farzad | Synthetic standardized wave identifiers for representing and classifying entities |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11120468A (ja) * | 1997-10-16 | 1999-04-30 | Nec Shizuoka Ltd | 聴覚障害者用生活支援装置 |
JP2007028391A (ja) * | 2005-07-20 | 2007-02-01 | Sanyo Electric Co Ltd | マイクロホンアレー装置 |
JP2007215198A (ja) * | 2007-02-22 | 2007-08-23 | Sony Corp | 情報処理装置、検索サーバ、記録媒体 |
US20080167867A1 (en) * | 2007-01-05 | 2008-07-10 | Fein Gene S | System and Method for Altering Settings on Electronic Devices Based upon Sensing Stimuli |
JP2011243204A (ja) * | 2010-05-19 | 2011-12-01 | Google Inc | 番組コンテキストに基づくモバイルコンテンツの提示 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FI942753A (fi) * | 1994-06-10 | 1995-12-11 | Nokia Mobile Phones Ltd | Menetelmä jänniteregulaattorin sisältävän elektronisen laitteen tehonkulutuksen pienentämiseksi |
US6070140A (en) * | 1995-06-05 | 2000-05-30 | Tran; Bao Q. | Speech recognizer |
DE19816933A1 (de) * | 1998-04-16 | 1999-10-21 | Nokia Mobile Phones Ltd | Verfahren zum Steuern einer elektronischen Einrichtung, insbesondere einer Mobilstation eines Mobilfunknetzes |
US6766295B1 (en) * | 1999-05-10 | 2004-07-20 | Nuance Communications | Adaptation of a speech recognition system across multiple remote sessions with a speaker |
JP2002041276A (ja) | 2000-07-24 | 2002-02-08 | Sony Corp | 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体 |
WO2003096562A1 (en) * | 2002-05-08 | 2003-11-20 | Neomtel Co., Ltd. | Method for playing interactive contents for standby mode in a mobile communication terminal, and a mobile communication terminal of the same |
US7106103B2 (en) | 2003-12-10 | 2006-09-12 | Hewlett-Packard Development Company, L.P. | Selectable integrated circuit interface |
EP1581026B1 (en) | 2004-03-17 | 2015-11-11 | Nuance Communications, Inc. | Method for detecting and reducing noise from a microphone array |
US7308516B2 (en) | 2004-04-26 | 2007-12-11 | Atmel Corporation | Bi-directional serial interface for communication control |
US20060031618A1 (en) | 2004-05-20 | 2006-02-09 | Hansquine David W | Single wire and three wire bus interoperability |
JP2006154926A (ja) | 2004-11-25 | 2006-06-15 | Denso Corp | キャラクタ表示を利用した電子機器操作システム及び電子機器 |
KR100703703B1 (ko) * | 2005-08-12 | 2007-04-06 | 삼성전자주식회사 | 음향 입출력 확장 방법 및 장치 |
US8185680B2 (en) | 2006-02-06 | 2012-05-22 | Standard Microsystems Corporation | Method for changing ownership of a bus between master/slave devices |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8121299B2 (en) * | 2007-08-30 | 2012-02-21 | Texas Instruments Incorporated | Method and system for music detection |
DE102008039330A1 (de) * | 2008-01-31 | 2009-08-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Berechnen von Filterkoeffizienten zur Echounterdrückung |
US8077022B2 (en) * | 2008-06-11 | 2011-12-13 | Flextronics Automotive Inc. | System and method for activating vehicular electromechanical systems using RF communications and voice commands received from a user positioned locally external to a vehicle |
US20110069937A1 (en) * | 2009-09-18 | 2011-03-24 | Laura Toerner | Apparatus, system and method for identifying advertisements from a broadcast source and providing functionality relating to the same |
CN201601759U (zh) | 2010-03-18 | 2010-10-06 | 青岛海信电器股份有限公司 | 电视机语音控制系统及采用该语音系统的电视机 |
KR20120034378A (ko) * | 2010-10-01 | 2012-04-12 | 엔에이치엔(주) | 사운드 인식을 통한 광고 정보 제공 시스템 및 방법 |
CN102065260A (zh) | 2010-11-15 | 2011-05-18 | 冠捷显示科技(厦门)有限公司 | 基于背景环境变化自动调节音量的电视 |
US9224388B2 (en) * | 2011-03-04 | 2015-12-29 | Qualcomm Incorporated | Sound recognition method and system |
US8595015B2 (en) * | 2011-08-08 | 2013-11-26 | Verizon New Jersey Inc. | Audio communication assessment |
-
2013
- 2013-01-28 US US13/752,080 patent/US9524638B2/en active Active
- 2013-01-29 WO PCT/US2013/023607 patent/WO2013119418A1/en active Application Filing
- 2013-01-29 JP JP2014556569A patent/JP2015508205A/ja active Pending
- 2013-01-29 EP EP13703690.1A patent/EP2813061A1/en not_active Withdrawn
- 2013-01-29 KR KR1020147020389A patent/KR20140133501A/ko not_active Application Discontinuation
- 2013-01-29 CN CN201380006228.5A patent/CN104094580A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11120468A (ja) * | 1997-10-16 | 1999-04-30 | Nec Shizuoka Ltd | 聴覚障害者用生活支援装置 |
JP2007028391A (ja) * | 2005-07-20 | 2007-02-01 | Sanyo Electric Co Ltd | マイクロホンアレー装置 |
US20080167867A1 (en) * | 2007-01-05 | 2008-07-10 | Fein Gene S | System and Method for Altering Settings on Electronic Devices Based upon Sensing Stimuli |
JP2007215198A (ja) * | 2007-02-22 | 2007-08-23 | Sony Corp | 情報処理装置、検索サーバ、記録媒体 |
JP2011243204A (ja) * | 2010-05-19 | 2011-12-01 | Google Inc | 番組コンテキストに基づくモバイルコンテンツの提示 |
Non-Patent Citations (1)
Title |
---|
KE, YAN ET AL.: "Computer Vision for Music Identification", IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION [ONLINE], JPN6016036370, 25 July 2005 (2005-07-25), ISSN: 0003402534 * |
Also Published As
Publication number | Publication date |
---|---|
US20130201800A1 (en) | 2013-08-08 |
CN104094580A (zh) | 2014-10-08 |
EP2813061A1 (en) | 2014-12-17 |
WO2013119418A1 (en) | 2013-08-15 |
KR20140133501A (ko) | 2014-11-19 |
US9524638B2 (en) | 2016-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9524638B2 (en) | Controlling mobile device based on sound identification | |
EP2681895B1 (en) | Method and apparatus for grouping client devices based on context similarity | |
US10083687B2 (en) | Method and apparatus for identifying acoustic background environments based on time and speed to enhance automatic speech recognition | |
CN104954555B (zh) | 一种音量调节方法及系统 | |
US9685156B2 (en) | Low-power voice command detector | |
JP5819435B2 (ja) | モバイルデバイスのロケーションを決定するための方法および装置 | |
US9143571B2 (en) | Method and apparatus for identifying mobile devices in similar sound environment | |
US9167520B2 (en) | Controlling applications in a mobile device based on environmental context | |
JP2013013092A (ja) | 双方向ストリーミングコンテンツ処理方法、装置、及びシステム | |
JP2016522910A (ja) | キーワード検出のための適応的オーディオフレーム処理 | |
US20150066925A1 (en) | Method and Apparatus for Classifying Data Items Based on Sound Tags | |
US9794620B2 (en) | System and method for providing related content at low power, and computer readable recording medium having program recorded therein | |
JP2017509009A (ja) | オーディオストリームの中の音楽の追跡 | |
US20170371615A1 (en) | Alerting a user to a change in an audio stream | |
US9514129B2 (en) | Technologies for providing textual information and systems and methods using the same | |
US20150370892A1 (en) | System and method for audio identification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161209 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170124 |