JP2014511165A - 類似のサウンド環境においてモバイルデバイスを識別するための方法および装置 - Google Patents

類似のサウンド環境においてモバイルデバイスを識別するための方法および装置 Download PDF

Info

Publication number
JP2014511165A
JP2014511165A JP2013556648A JP2013556648A JP2014511165A JP 2014511165 A JP2014511165 A JP 2014511165A JP 2013556648 A JP2013556648 A JP 2013556648A JP 2013556648 A JP2013556648 A JP 2013556648A JP 2014511165 A JP2014511165 A JP 2014511165A
Authority
JP
Japan
Prior art keywords
sound
mobile devices
mobile device
pair
confidence value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013556648A
Other languages
English (en)
Other versions
JP5905494B2 (ja
Inventor
キム、テス
リ、テ−ウォン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2014511165A publication Critical patent/JP2014511165A/ja
Application granted granted Critical
Publication of JP5905494B2 publication Critical patent/JP5905494B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/06Selective distribution of broadcast services, e.g. multimedia broadcast multicast service [MBMS]; Services to user groups; One-way selective calling services
    • H04W4/08User group management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/20Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
    • H04W4/21Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel for social networking applications

Abstract

類似のサウンド環境においてモバイルデバイスを識別するための方法が開示される。少なくとも2つのモバイルデバイスの各々が入力サウンドを捕捉し、入力サウンドからサウンドシグネチャを抽出する。さらに、モバイルデバイスは入力サウンドからサウンド特徴を抽出し、サウンド特徴に基づいて信頼値を決定する。信頼値は、サウンド特徴が与えられる通常のサウンドクラスの可能性を指しうる。サーバは、モバイルデバイスからのサウンドシグネチャおよび信頼値を含むパケットを受信する。モバイルデバイスのペアからのサウンドシグネチャ間の類似値がモバイルデバイスのペアからの対応する信頼値に基づいて決定される。特に、サウンドシグネチャは対応する信頼値によって重み付けされる。サーバは類似値に基づいて類似のサウンド環境においてモバイルデバイスを識別する。

Description

本開示は、概して類似のサウンド環境においてモバイルデバイスを識別することに関する。より具体的には、本開示は、モバイルデバイスの入力サウンドに基づいて、類似のサウンド環境においてモバイルデバイスを識別することに関する。
現代のモバイル通信システムは、モバイルデバイスのユーザに様々なサービスを提供する。そのようなシステムは、多くの場合、モバイルデバイスのユーザのロケーション情報に基づいて、広告およびソーシャルネットワークのサービスを提供する。ユーザのモバイルデバイスのロケーション情報は、サービスプロバイダがユーザの環境を推測し、より対象を絞った広告およびソーシャルネットワークのサービスをユーザに届けることを可能にすることができる。加えて、近くのロケーション、または類似のタイプのロケーションにあるモバイルデバイスのロケーション情報は、サービスプロバイダが類似の環境に位置するユーザに関する情報を提供することを可能にすることができる。
従来の方法の1つは、GPS(全世界測位システム)を使用することによってモバイルデバイスのロケーションを決定する。残念な事に、GPSは多くの場合、モバイルデバイスが使用される多くのロケーションで利用不可能である。例えば、モバイルデバイスが建物の(building)または屋内の状況に位置するとき、GPSを通じたロケーション情報は利用可能でないことがある。加えてGPSは、あるフロア上のユーザと別のフロア上の別のユーザのような、異なる垂直のロケーションにいるユーザ間を正確に区別しないことがある。
別の従来の方法は、モバイルデバイスの周りのサウンドを感知することによって、モバイルデバイスのロケーションを決定する。残念な事に、そのような方法は、アーチファクト(artifact)のために、モバイルデバイスのロケーションのタイプ、またはロケーションを決定する際に正確でないことがある。例えば、ユーザが、彼、または彼女のモバイルをタッチ、タップ、またはさらに優しく擦るとき、モバイルデバイスは、通常そのようなアクティビティと関連付けられたアーチファクトのサウンド信号を捕捉する。加えて、モバイルデバイスがユーザのポケットまたはバックの中にあるとき、モバイルデバイスのマイクロフォンは、アーチファクトの雑音を捕捉しうる。
そのようなアーチファクトは、概して個人のモバイルデバイスに特有であり、他のモバイルデバイスによって検出されない。結果として、アーチファクトは、類似のサウンド環境におけるモバイルデバイスの正確な識別を妨げ、モバイルデバイスのロケーション情報を決定する際の正確性を低下させうる。
本開示は、類似のサウンド環境において(in a similar sound environment)モバイルデバイスを識別するための方法および装置を提供する。モバイルデバイスは、モバイルデバイスの入力サウンド(input sounds)から抽出されたサウンドシグネチャ(sound signatures)、および、それぞれの入力サウンドがアーチファクトではなく通常のサウンドであることを確証する信頼性の度合い(degrees of reliability)に基づいて識別される。
本開示の1つの態様にしたがって、類似のサウンド環境においてモバイルデバイスを識別するための方法が開示されている。その方法は、モバイルデバイスにおいて、入力サウンドを受信することを含む。モバイルデバイスは、入力サウンドからサウンドシグネチャを抽出し、少なくとも1つの所定のサウンドモデルに基づいて入力サウンドの信頼値(a reliability value)を決定する。サウンドシグネチャおよび信頼値はモバイルデバイスからサーバに送信される。モバイルデバイスは、そのモバイルデバイスに類似するサウンド環境における少なくとも1つのモバイルデバイスに関する情報を、サーバから受信する。本開示はまた、この方法に関する装置、手段の組み合わせ、およびコンピュータ可読媒体を記述する。
本開示の別の態様にしたがって、サウンドセンサ、サウンドシグネチャ抽出ユニット、および信頼性決定ユニットを含むモバイルデバイスが提供される。サウンドセンサは、入力サウンドを受信するように構成され、サウンドシグネチャ抽出ユニットは、入力サウンドからサウンドシグネチャを抽出するように適合される。入力サウンドの信頼値は、少なくとも1つの所定のサウンドモデルに基づいて信頼性決定ユニットによって決定される。サウンドシグネチャおよび信頼値は、モバイルデバイスの送信ユニットによってサーバに送信される。モバイルデバイスの受信ユニットは、そのモバイルデバイスに類似するサウンド環境における少なくとも1つのモバイルデバイスに関する情報を、サーバから受信する。
本開示のまた別の態様にしたがって、類似のサウンド環境における複数のモバイルデバイスを識別するための方法が開示される。その方法は、入力サウンドのサウンドシグネチャおよび信頼値を、少なくとも2つのモバイルデバイスの各々から受信することを含む。少なくとも2つのモバイルデバイスのペアに関する類似値(a similarity value)は、その少なくとも2つのモバイルデバイスのペアからのサウンドシグネチャおよび信頼値に基づいて決定される。その方法は、少なくとも2つのモバイルデバイスの間から、類似値に基づいて類似のサウンド環境における複数のモバイルデバイスを識別する。本開示はまた、この方法に関する装置、手段の組み合わせ、およびコンピュータ可読媒体を記述する。
本開示のまた別の態様にしたがって、類似のサウンド環境における複数のモバイルデバイスを識別するためのサーバが提供される。そのサーバは、入力サウンドのサウンドシグネチャおよび信頼値を、少なくとも2つのモバイルデバイスの各々から受信するように構成された受信ユニットを含む。そのサーバの類似性決定ユニットは、2つのモバイルデバイスのペアからのサウンドシグネチャおよび信頼値に基づいて少なくとも2つのモバイルデバイスのペアに関する類似値を、その少なくとも2つのモバイルデバイスの間から、類似のサウンド環境における複数のモバイルデバイスがその類似値に基づいて識別されるように、決定するように適合される。
本開示の1つの実施形態にしたがって類似のサウンド環境においてモバイルデバイスを識別するための複数のモバイルデバイスおよびサーバ。 本開示の1つの実施形態にしたがったモバイルデバイスの例示的な構成。 本開示の1つの実施形態にしたがったサーバの例示的な構成。 モバイルデバイスによって実行される、本開示の1つの実施形態にしたがって類似サウンド環境においてモバイルデバイスを識別するための方法のフローチャート。 本開示の1つの実施形態にしたがった類似のサウンド環境におけるモバイルデバイスのユーザのスクリーンショット。 本開示の1つの実施形態にしたがってモバイルデバイスからサーバに送られるサウンドシグネチャおよび信頼値を含むパケットの構成を例示する表。 本開示の1つの実施形態にしたがってモバイルデバイスからサーバから送られるサウンドシグネチャおよび信頼値を含むパケットの別の構成を例示する表。 サーバによって実行される、本開示の1つの実施形態にしたがって類似のサウンド環境においてモバイルデバイスを識別するための方法のフローチャート。 本開示の1つの実施形態にしたがってサーバからモバイルデバイスに送られる類似のサウンド環境におけるモバイルデバイスに関する情報を含むパケットの構成を例示する表。 本開示の1つの実施形態にしたがったワイヤレス通信システムにおける例示的なモバイルデバイスのブロック図。
詳細な説明
様々な実施形態が次に、図面を参照して記述され、ここにおいて同じ参照番号が全体を通して同じ要素を称するように使用される。以下の記述において、説明を目的として、1つまたは複数の実施形態の全体的な理解を提供するために多数の特定な詳細が述べられている。しかしながら、そのような(1つまたは複数の)実施形態がこれらの特定の詳細ななしに実施されうることは明白でありうる。他の事例において、1つまたは複数の実施形態を記述することを容易にするために、周知の構造およびデバイスがブロック図の形態で提示される。
図1は、本開示の1つの実施形態にしたがって、類似のサウンド環境においてモバイルデバイスを識別するように構成される複数のモバイルデバイス160、170、180、および190、ならびにサーバ150を例示する。モバイルデバイス160、170、180、および190、ならびにサーバ150は、ワイヤレスネットワーク140を通じて互いに通信する。モバイルデバイス160および170は、サウンド環境を示す地理的ロケーション110に位置する。ロケーション110は、店、映画館、会議室、ストリートなどであり、ここにおいてモバイデバイス160および170は、周りからサウンドを補足することができる。モバイルデバイス180は、別のサウンド環境を示す別の地理的ロケーション120に位置し、ここにおいてロケーション120におけるサウンドはモバイルデバイス180によってのみ検出される。モバイルデバイス190は、さらに別のサウンド環境を示すさらに別の地理的ロケーション130に位置する。
例示されている実施形態では、モバイルデバイス160、170、180、および190の各々は、その周りから入力サウンドを補足する。モバイルデバイス160、170、180、および190によって補足される入力サウンドが互いに類似している場合、モバイルデバイスは、類似のサウンド環境にあるとして記述されうる。各モバイルデバイスは、入力サウンドからサウンドシグネチャを抽出し、1つまたは複数の所定のサウンドモデルに基づいて入力サウンドの信頼値を決定する。各モバイルデバイスはその後、入力サウンドのサウンドシグネチャおよび信頼値をサーバ150に送信する。サーバ150は、そのサウンドシグネチャおよび信頼値に基づいて類似のサウンド環境においてモバイルデバイスを識別し、モバイルデバイス160、170、180、および190に識別情報を送信する。
モバイルデバイス160、170、180、および190は、例としてのみ表示されており、したがって、各ロケーションに位置する(1つまたは複数の)モバイルデバイスの数、あるいは(1つまたは複数の)ロケーションの数は、異なる構成の場合には変化することができる。加えて、モバイルデバイス160、170、180、および190は、例えば、マイクロフォンのようなサウンド補足能力、およびデータおよび/または通信ネットワークを通じた通信能力を備えたセルラ電話、スマートフォン、ラップトップ、コンピュータ、またはタブレットパーソナルコンピュータのような任意の適切なデバイスであることができる。
図2は、本開示の1つの実施形態にしたがって、モバイルデバイス160の例示的な構成を提示する。モバイルデバイス160は、サウンドセンサ210、サウンドシグネチャ抽出ユニット220、信頼性決定ユニット230、送信ユニット240、受信ユニット250、パケット処理ユニット260、記憶ユニット270、およびディスプレイユニット280を含む。図2において提示されているモバイルデバイス160は上記の構成を用いて例示されているけれども、それは、本開示の範囲を逸脱することなく、追加のまたは代わりの構成を用いることができる。加えて、モバイルデバイス170、180、および190もまた、類似の構成を用いることができる。さらに、モバイルデバイス160における上述されたユニットおよび/または構造は、ハードウェア、1つまたは複数のプロセッサにおいて実行されるソフトウェア、および/またはそれらの組み合わせによってインプリメントされうる。
サウンドセンサ210(例えば、マイクロフォン)は、モバイルデバイス160へのサウンド入力を感知して補足し、感知されたサウンドに対応するアナログまたはデジタルのフォーマットで信号を生成するように構成される。サウンドシグネチャ抽出ユニット220は、生成された信号から、本開示では「サウンドシグネチャ(sound signature)」と称されうる、入力サウンドのサウンド特性を抽出する。サウンドシグネチャは、モバイルデバイス160が他のモバイルデバイスと類似のサウンド環境にあるかどうかを決定するために使用されるサウンド特性のいずれのタイプも含むことができる。そのようなサウンドシグネチャは、以下でより詳細に記述されることになる、MFCC(メル周波数ケプストラム係数(mel-frequency cepstral coefficients))、LPC(線形予測符号化(linear predictive coding))、および/またはLSP(線スペクトル対(line spectral pair))技法に限定はされないがこれらを含む任意の適切なサウンド分析技法を使用して抽出されうる。信頼性決定ユニット230は、所定の音響モデルを参照して(with reference to)感知されたサウンドの信頼値(例えば、信頼性の度合い)を決定する。パケット処理ユニット260は、サウンドシグネチャおよび信頼値を含むパケットを構築する。送信ユニット240は、類似のサウンド環境において1つまたは複数のモバイルデバイスを識別するためにサーバ150にそのパケットを送信する。
サーバ150は、パケットの形態で、類似のサウンド環境における1つまたは複数のモバイルデバイスに関する情報を送るように構成される。受信ユニット250は、そのパケットをサーバ150から受信し、1つまたは複数のモバイルデバイスに関する情報を得るためにその受信されたパケットを処理するパケット処理ユニット260にそれを転送する。ディスプレイユニット280は、モバイルデバイス160のユーザにサービスを提供するためにその情報をディスプレイする。記憶ユニット270は、モバイルデバイス160の動作の間に処理、送信、および/または受信された情報を記憶するように構成される。
サウンドセンサ210は、例えば、1つまたは複数のマイクロフォン、または、通常のサウンドまたはアーチファクトの任意の態様を補足、測定、ならびに/あるいは記録するために使用されるサウンドセンサのいずれの他のタイプも含むことができる。例えば、サウンドセンサ210は、サウンドセンサ210によってサウンドとして通常受信された、モバイルデバイス160をクリックすること、タップすること、または擦ること、モバイルデバイス160のバイブレーション、ユーザの呼吸などのようなアーチファクトに応答してサウンド信号を生成する。そのような「アーチファクトのサウンド(artifact sounds)」は、概してモバイルデバイス160にローカルであり、他のモバイルデバイスによって検出されない。一方で、「通常のサウンド」は、モバイルデバイス160にローカルでないサウンドを示し、近くに位置する場合に他のモバイルデバイスによって検出可能でありうる。そのような通常のサウンドは、ユーザの声はもちろん、テレビのサウンド、音楽のサウンド、公共アナウンスのサウンド、交通のサウンドなどのような、環境の、または周囲のサウンドを含みうる。
本開示のいくつかの実施形態は、電話の呼び出しまたはビデオの録画のために使用されるマイクロフォンのようなモバイルデバイス160に組み込まれているサウンドセンサを利用することができる。この場合、サウンドセンサ210は、モバイルデバイス160のいずれの変更も要求することなくインプリメントされうる。また、サウンドセンサ210は、モバイルデバイス160におけるその機能を実行するために、追加のソフトウェアおよび/またはハードウェアを用いることができる。
サウンド処理に関して、サウンドシグネチャ抽出ユニット220は、入力サウンドのサウンドシグネチャを抽出するために、音声圧縮、強化、認識、および同期方法を含む、いずれの適切な信号処理スキームも使用することができる。例えば、そのような信号処理スキームは、音声認識または音声コーデック(speech codec)のための周知の方法である、MFCC、LPC、および/またはLSP技法を用いることができる。
1つの実施形態では、サウンドシグネチャは、n次元の値を持つベクトルとして表される複数のコンポーネントを含むことができる。MFCC方法の下で、例えば、サウンドシグネチャは、各次元が16ビットの値として表される13次元を含むことができる。この場合、サウンドシグネチャは、26バイトの長さである。別の実施形態では、サウンドシグネチャは、各次元が1ビットの2進値として表されるように2値化されうる。そのような場合、2値化されたサウンドシグネチャは13ビットの長さでありうる。
サウンドシグネチャは、以下のように、MFCC方法の下で入力サウンドから抽出されうる。例えばハミング窓(hamming window)のような窓関数(windowing function)は、時間ドメインにおける入力サウンドのフレーム(例えば、生のサウンド信号)に適用される。その後、サウンド信号は周波数ドメインにフーリエ変換され、電力(power)は、周波数ドメイン内の変換された信号のスペクトルにおける各帯域に対して計算される。対数動作および離散コサイン変換(DCT)動作は、DCT係数を得るために各計算された電力に対して実行される。所定の時間期間の間の平均値は、各DCT係数から減算される。その後、2値化動作は、減算されたDCT係数が正であった場合に2値の値「1」が出力され、そうでない場合は2値の値「0」が出力されるように各減算されたDCT係数上で実行される。
図3は、本開示の1つの実施形態にしたがって、サーバ150の例示的な構成を提示する。図3において提示されているように、サーバ150は、類似性決定ユニット310、送信ユニット320、受信ユニット330、パケット処理ユニット340、および情報データベース350を含む。サーバ150は、ネットワーク140を通じた通信能力を用いて本開示の方法を実行する従来のコンピュータシステムによってインプリメントされうる。サーバ150は、モバイルデバイス160、170、180、および190、ならびに他のクライアントデバイスにクラウドコンピューティングサービスを提供するためのシステムにおいて使用されうる。さらに、モバイルデバイス160、170、180、および190のうちの1つは、そのモバイルデバイスが、例えば、WiFiダイレクト、ブルートゥース(Bluetooth(登録商標))、またはFlashLinq技術を使用して、つまり追加の外部サーバを使用することなく、互いに直接通信するとき、サーバ150として機能するように構成されうる。サーバ150における上述されたユニットは、ハードウェア、1つまたは複数のプロセッサにおいて実行されるソフトウェア、および/またはそれらの組み合わせによってインプリメントされうる。
受信ユニット330は、モバイルデバイス160、170、180、および190の各々から、入力サウンドのサウンドシグネチャおよび入力サウンドの信頼値を有するパケットを受信するように構成される。パケット処理ユニット340は、そのパケットを受信し、サウンドシグネチャおよび信頼値を抽出する。モバイルデバイス160、170、180、および190からの信頼値に基づいて、類似性決定ユニット310は、サウンドシグネチャ間の類似値を決定し、その類似値に基づいて類似のサウンド環境においてモバイルデバイスを識別する。パケット処理ユニット340は、類似のサウンド環境におけるモバイルデバイスに関する情報を有するパケットを構築する。送信ユニット320は、モバイルデバイス160、170、180、および190にその構築されたパケットを送信する。サーバ150は、上記の動作の間に処理、送信、および/または受信された情報を記憶するために、情報データベース350を使用する。
図4は、モバイルデバイス160によって実行される、本開示の1つの実施形態にしたがって、類似のサウンド環境においてモバイルデバイスを識別するための方法のフローチャートを例示する。410で、モバイルデバイス160は、サウンドセンサ210を通じて入力サウンドを補足し、補足された入力サウンドに対応する信号を出力する。入力サウンドは通常のサウンドを含み、ならびに例えばモバイルデバイス160にローカルである、タップまたは摩擦雑音(friction noise)などのアーチファクトも含むことができる。420で、サウンドシグネチャ抽出ユニット220は、図2を参照して上述された方法で、入力サウンドからサウンドシグネチャを抽出し、出力する。
430で、信頼性決定ユニット230は、通常のサウンドモデル、および、1つまたは複数の、センサのアーチファクトのモデルに基づいて入力サウンドの信頼値を決定する。センサのアーチファクトのモデルは、モバイルデバイスにローカルなアーチファクトを示す音響モデルを称する。信頼値は、入力サウンドが通常のサウンドクラスに属すると分類する際のその入力サウンドの信用のレベルを示す。信頼値を決定するプロセスの一部として、信頼性決定ユニット230は、入力サウンドから、本開示では「サウンド特徴(sound feature)」と称されうるサウンド特性(sound characteristic)を抽出する。サウンドシグネチャと比較されると、サウンド特徴は、通常のサウンドクラス、および、1つまたは複数の、アーチファクトのクラスのような所定のサウンドクラスに入力サウンドを分析して分類するために使用される、サウンド特性または情報のいずれのタイプも有する。所定のサウンドクラスの音響モデル、つまり通常のサウンドモデル、および、1つまたは複数の、センサのアーチファクトのモデルはまた、予め生成され、記憶される。420におけるサウンドシグネチャを抽出する動作は、430における信頼値を決定する動作に先立って、後続で、または並行して実行されうる。
1つの実施形態では、サウンド特徴は、サウンドシグネチャの抽出と同様に、MFCC、LPC、および/またはLSP技法に限定されないがこれらを含む任意の適切なサウンド分析技法によっても抽出されることができる。代わりの実施形態では、サウンド特徴は、特定の時間期間の間に補足される、入力サウンドにおけるクリップされたサンプルのカウント(count of clipped samples)に関する情報を含むことができる。モバイルデバイス160がクリック、タップ、または擦られる間に補足されるセンサのアーチファクトのような入力サウンドにおけるサウンドサンプルが、通常のサウンドのサウンドサンプルよりもより頻繁にクリップされる(clipped)。したがって、入力サウンドは、その中のクリップされたサンプルのカウントが所定のしきい値を超える場合、センサのアーチファクトのクラスに属すると分類され、そうでなければ通常のサウンドクラスに属すると分類されうる。別の実施形態では、入力サウンド内の周波数コンポーネントの分布(distribution)は、センサのアーチファクトのクラスまたは通常のサウンドクラスに属するとして入力サウンドを分類するために使用されうる。例えば、50Hz以下の周波数コンポーネントの振幅またはカウントが、通常のサウンドよりも、センサのアーチファクトのサウンドに対して大きいことがあり得る。したがって、サウンド特徴は、特定の周波数範囲内に入る入力サウンドの周波数コンポーネントの振幅またはカウントに関する情報を含むことができる。
本開示の1つの実施形態では、音響モデルを生成するために、GMM(混合ガウスモデル(Gaussian Mixture Model))方法またはHMM(隠れマルコフモデル(Hidden Markov Model))方法のようなモデリング方法を通じて様々な通常のサウンドおよびアーチファクトの条件がトレーニングされる(trained)。抽出されたサウンド特徴が与えられると、信頼値は以下の式1によって得られる通常のサウンドの可能性(probability)Pに基づいて決定されうる。
Figure 2014511165
ここにおいて、Xはサウンド特徴を意味し、
Figure 2014511165
は通常のサウンドクラスであり、
Figure 2014511165
は通常のサウンドクラスとセンサのアーチファクトのクラスを含む所定のサウンドクラスのj番目のサウンドクラスである。インデックスjは1からnまでの範囲にわたり、ここにおいてnは所定のサウンドクラスの数を示す。
本開示の1つの実施形態では、2つ以上の通常のサウンドクラスは予め決定され、対応する通常のサウンドモデルが生成される。抽出されたサウンド特徴が与えられると、入力サウンドが通常のサウンドクラスに属する可能性Pは、以下の式2にしたがって、通常のサウンドクラスの可能性を合計することによって、決定されうる。
Figure 2014511165
ここにおいて、
Figure 2014511165
は通常のサウンドクラスのi番目のサウンドクラスである。インデックスiは1からmまでの範囲にわたり、ここにおいてmは通常のサウンドクラスの数を示す。
一度可能性Pが決定されると、信頼値は、可能性Pの値(0≦P≦1)として表されうる。信頼性は、信頼値を示すようにログスケールされうる(log-scaled)可能性Pの値に比例する値でありうる。1つの実施形態では、可能性Pが所定の可能性のしきい値よりも大きいとき、信頼性は2値の値「1」を持つように2値化されうる。そうでなければ、信頼性は2値の値「0」を持つように2値化されうる。
440で、パケット処理ユニット260は、サウンドシグネチャおよび信頼値を含むパケットを構築する。複数の入力サウンドが時間期間にわたって捕捉される場合、そのパケットは、対応する数の、サウンドシグネチャおよび信頼値のペアを含むように構築される。450で、送信ユニット240は、ネットワーク140を通じてサーバ150にそのパケットを送信する。モバイルデバイス160と同様に、他のモバイルデバイス170、180、および190の各々における送信ユニットもまた、サウンドシグネチャおよび信頼値の1つまたは複数のペアを包含するパケットを送信することができる。
サーバ150が類似のサウンド環境におけるモバイルデバイスに関する情報を含むパケットを送るとき、モバイルデバイス160は460でそのパケットを受信し、470でモバイルデバイス160のユーザにサービスを提供するためにその情報をディスプレイする。例えば、そのサービスは、ユーザ識別情報のような、類似のサウンド環境における他のモバイルデバイスに関連する情報を提供すること、そのようなモバイルデバイス間での通信を可能にすること、および広告情報のような、モバイルデバイス160に対象を絞った情報(targeted information)を提供することを含むことができる。図5は、本開示の1つの実施形態にしたがって、類似のサウンド環境におけるにモバイルデバイスのユーザのスクリーンショット(screenshot)を例示する。提示されているように、ディスプレイユニット280は、モバイルデバイス160に類似したサウンド環境におけるモバイルデバイスのユーザのIDをディスプレイする。
図6は、本開示の1つの実施形態にしたがって、モバイルデバイス160からサーバ150に送られるサウンドシグネチャおよび信頼値を含むパケットの構成を例示する表600を提示する。表600において提示されているように、そのパケットは、右側欄のカラムに列挙されているパケットフィールドを含む。左側欄のカラムのフィールド名は、説明の目的のために使用され、パケットに含まれる必要はない。パケットのフォーマットでは、「パケットタイプ」フィールドは、長さが4ビットであり、パケットがサウンドシグネチャおよび信頼値を含むことを示す情報を包含する。「識別」フィールドは長さが64ビットであり、(例えば、モデルナンバー、製品シリアルナンバーのような)モバイルデバイス160に関する、および/または(例えば、ユーザ名、ユーザIDのような)そのユーザに関する識別情報を包含する。そのような識別情報は、記憶ユニット270に予め記憶されうる。「タイムスタンプ」フィールドは長さが64ビットであり、モバイルデバイス160のクロックユニット(図示せず)によってモニタリングされうる、入力サウンドが捕捉される時間、または現在の時間を示す。
パケットは、時間期間にわたって捕捉されたN個の入力サウンドに対応する、N個のサウンドシグネチャおよびN個の信頼値を含む。数Nを反映して、そのパケットは、サウンドシグネチャおよび信頼値の各ペアに関する「サウンドシグネチャ[i]」フィールドおよび「信頼性[i]」フィールドを含む。具体的に言うと、「サウンドシグネチャ[i]」は長さが8ビットであり、信頼値およびサウンドシグネチャのi番目のペアのサウンドシグネチャを有する。「信頼性[i]」フィールドは長さが4ビットであり、i番目のペアの信頼値を包含する。上記の各データフィールドに割り当てられたビット数は、本開示の種々のアプリケーションにしたがって変化することができる。さらに、ネットワーク140を通じた通信を容易にするために、パケットは、ヘッダ、CRC情報などのような適切なサイズの任意のフィールドを含むことができる。
1つの実施形態では、パケット600はさらに、類似のサウンド環境においてモバイルデバイス160から他のモバイルデバイスにメッセージを搬送するためのメッセージフィールド(図示せず)を含むことができる。サーバ150が他のモバイルデバイスを識別し、他のモバイルデバイスにメッセージを送信するとき、他のモバイルデバイスはユーザにそのメッセージを提示することができる。例えば、そのメッセージは、モバイルデバイス160のユーザの、チャットメッセージ(chat message)、対象を絞った広告、紹介プロフィールなどであることができる。
図7は、本開示の1つの実施形態にしたがって、モバイルデバイス160からサーバ150に送られるサウンドシグネチャおよび信頼値を含むパケットの別の構成を例示する表700を提示する。表700によって表されるパケットは、図6において記述された、「パケットタイプ」フィールド、「識別」フィールド、「タイムスタンプ」フィールド、および「信頼性」フィールドのような同じフィールドを含む。表700では、図7において提示されるように、「サウンドシグネチャ」フィールドが異なるビット数を割り当てられることができるように、各「サウンドシグネチャ」フィールドのサイズは、対応する「信頼性」フィールドの信頼値に基づいて決定される。
例えば、「サウンドシグネチャ」フィールドに割り当てられたビット数は、関連する信頼値に比例するように構成され、その逆も同様である。ビット数は、例えば以下のように、(包括的に)0から1までの範囲にわたる一般化された信頼値に基づいて段階的な方法で決定されうる。
0≦信頼値<0.1のとき、2ビットが割り当てられる。
0.1≦信頼値<0.3のとき、4ビットが割り当てられる。
0.3≦信頼値<0.6のとき、8ビットが割り当てられる。
0.6≦信頼値≦1.0のとき、16ビットが割り当てられる。
サウンドシグネチャのフィールドサイズを割り当てることは、関連する信頼値に基づいたパケットリソースのより効率的な使用を可能にする。したがって、パケットの送信効率は改善されることができる。
図8は、本開示の1つの実施形態にしたがって、サーバ150によって実行される、類似のサウンド環境においてモバイルデバイスを識別するための方法のフローチャートを描写している。810で、サーバ150は、受信ユニット330で、モバイルデバイス160、170、180、および190の各々からの入力サウンドに関する信頼値およびその入力サウンドから抽出されたサウンドシグネチャを含むパケットを受信する。820で、サーバ150は、類似性決定ユニット310において、モバイルデバイス160、170、180、および190のペアからの信頼値に基づいて、モバイルデバイス160、170、180、および190の各ペアからのサウンドシグネチャ間の類似値を決定する。
830で、類似性決定ユニット310は、決定された類似値に基づいて、各モバイルデバイスに関して、そのモバイルデバイスに類似するサウンド環境におけるモバイルデバイスを識別する。図1を参照して、モバイルデバイス160および170は、同じロケーション110に位置し、類似の入力サウンドを捕捉する。しかしながら、モバイルデバイス180及び190は、他のモバイルデバイスから離れて位置し、モバイルデバイス160および170に類似する入力サウンドを捕捉しない。結果として、モバイルデバイス160および170は、類似のサウンド環境にあると識別されるが、一方、どのモバイルデバイスもモバイルデバイス180または190に類似するサウンド環境にあると識別されない。1つの実施形態では、類似性のしきい値は、類似のサウンド環境においてモバイルデバイスを識別するために、830で使用されうる。類似性のしきい値は、類似のサウンド環境におけるモバイルデバイスの決定に関する所望の信用レベルを確証するための最小の類似値を示す類似性の所定の度合いである。図1を参照して、例えば、類似性のしきい値は、類似のサウンド環境にあるモバイルデバイス160と170からのサウンドシグネチャ間の類似値より小さい所望の値であるように構成されうる。
840で、パケット処理ユニット340は、各モバイルデバイスに関する適正なヘッダを伴うパケットを構築する。このパケットは、宛先のモバイルデバイスに類似するサウンド環境におけるモバイルデバイスに関する情報を含む。この情報は、モバイルデバイスおよび/またはそのユーザの識別を含む。850で、そのパケットは、類似のサウンド環境において1つまたは複数のモバイルデバイスを持つように決定された各宛先のモバイルデバイスに、送信ユニット320によって送信される。図1において、例えば、サーバ150は、パケットをモバイルデバイス160および170に送ることになるけれども、モバイルデバイス180および190には送らない。
820で、モバイルデバイスのペアからのサウンドシグネチャ間の類似値を決定するとき、サウンドシグネチャは対応する信頼値で重み付けされうる。通常、アーチファクトから抽出されたサウンドシグネチャは低い信頼値を持つことになる。この重み付けスキームにおいて、信頼値が減るにつれ、関連するサウンドシグネチャの類似値への寄与(contribution)は低減する。アーチファクトに関する信頼値を占める(account for)寄与に重み付けすることによって、サウンドシグネチャ間の類似値はより正確に、ならびに確実に決定されることができる。
重み付けスキームのいくつかの実施形態において、モバイルデバイスのペアに関する類似値は、モバイルデバイスからのサウンドシグネチャをそれぞれが示すベクトルのペア間の重み付けされたユークリッド距離の合計(a sum of weighted Euclidean distances)に基づいて決定されうる。1つの実施形態では、重み付けされたユークリッド距離の合計は、以下の式3にしたがって、対応する信頼値の小さい方で重み付けされるサウンドシグネチャのペアを使用することによって計算されうる。
重み付けされたユークリッド距離の合計=
Figure 2014511165
ここにおいて、
Figure 2014511165
は第1のモバイルデバイスからのi番目の信頼値を示し、
Figure 2014511165
は第2のモバイルデバイスからのi番目の信頼値を示し、
Figure 2014511165
は第1のモバイルデバイスからのi番目のサウンドシグネチャのj番目の次元の値を示し、
Figure 2014511165
は第2のモバイルデバイスからのi番目のサウンドシグネチャのj番目の次元の値を示す。式3の分子において、
Figure 2014511165
および
Figure 2014511165
のうちの小さい方は、モバイルデバイスのペアからのi番目のサウンドシグネチャに対する重み付け係数(weighting factor)としての役割をする。つまり、
Figure 2014511165
および
Figure 2014511165
の間の小さい方の信頼値は、i番目のサウンドシグネチャをそれぞれが示すベクトルの間のユークリッド距離に対する重み付け係数として使用される。
一度重み付けされたユークリッド距離の合計が計算されると、モバイルデバイスのペアに関する類似値が合計に反比例するように決定されることができる。この場合、重み付けされたユークリッド距離の合計が小さくなるとき、類似値は大きくなるように決定される。例えば、類似値は、重み付けされたユークリッド距離の合計の逆数、または単調減少関数(monotonic decreasing function)などによって合計を変更することを通じて得られた値であると決定されうる。
本開示の別の実施形態では、重み付けされたユークリッド距離の合計は、以下の式4にしたがって、対応する信頼値の両方で重み付けされるサウンドシグネチャを使用することによって計算されうる。
重み付けされたユークリッド距離の合計=
Figure 2014511165
式4における項は、上記の式3におけるものと同じである。式4の分子において、
Figure 2014511165
および
Figure 2014511165
の両方は、モバイルデバイスのペアからのi番目のサウンドシグネチャに対する重み付け係数としての役割をする。
また別の実施形態では、モバイルデバイスのペアに関する類似値は、第1のモバイルデバイスからの信頼値で重み付けされたサウンドシグネチャを使用することによって計算される重み付けされたユークリッド距離の第1の合計、および、第2のモバイルデバイスからの信頼値で重み付けされるサウンドシグネチャを使用することによって計算される重み付けされたユークリッド距離の第2の合計である、重み付けされたユークリッド距離の2つの合計の小さい方に基づいて決定される。重み付けされたユークリッド距離の第1のおよび第2の合計は、以下の式5および6のそれぞれにしたがって計算される。
重み付けされたユークリッド距離の第1の合計=
Figure 2014511165
重み付けされたユークリッド距離の第2の合計=
Figure 2014511165
式5および6における項は、上記の式3におけるものと同じである。式5の分子において、第1のモバイルデバイスからの信頼値
Figure 2014511165
は、モバイルデバイスのペアからのi番目のサウンドシグネチャに対する重み付け係数としての役割をする。同様に、式6の分子において、第2のモバイルデバイスからの信頼値
Figure 2014511165
は、モバイルデバイスのペアからのi番目のサウンドシグネチャに対する重み付け係数として使用される。
図9は、本開示の1つの実施形態にしたがって、サーバ150からモバイルデバイス160へ送られる類似のサウンド環境におけるモバイルデバイスに関する情報を含むパケットの構成を例示する表900を提示する。表900によって表されるパケットは、「パケットタイプ」フィールドおよび「モバイルデバイスナンバー」フィールドを有する。「パケットタイプ」フィールドは、長さが4ビットであり、そのパケットが宛先モバイルデバイスに類似するサウンド環境における1つまたは複数のモバイルデバイスに関する情報を包含することを示す情報を有する。N個のモバイルデバイスが類似のサウンド環境にあると識別される場合、長さが8ビットの「モバイルデバイスナンバー」は数Nを示す。
数Nを反映して、パケットはさらに、N個のモバイルデバイスに関する「ユーザID[i]」フィールド、「類似性[i]」フィールド、および「メッセージ[i]」フィールドを含む。特に、「ユーザID[i]」フィールドは長さが64ビットであり、N個のモバイルデバイス間のi番目のモバイルデバイスのユーザ識別情報(例えば、ユーザ名、ユーザID)を含む。「類似性[i]」フィールドは、長さが32ビットであり、i番目のモバイルデバイスおよび宛先モバイルデバイスからのサウンドシグネチャ間の類似値を示す。「メッセージ[i]」フィールドは長さが128ビットであり、i番目のモバイルデバイスから受信されたメッセージを包含する。上記のデータフィールドの各タイプに割り当てられたビット数は、本開示の様々なアプリケーションにしたがって変化することができる。さらに、ネットワーク140を通じた通信を容易にするために、パケットは、ヘッダ、CRC情報などのような適切なサイズのいずれのフィールドも含むことができる。表900によって表される上記のパケットにおいて、「類似性」フィールドおよび/または「メッセージ」フィールドはオプションでありうる。
図10は、本開示の1つの実施形態にしたがったワイヤレス通信システムにおける例示的なモバイルデバイス1000のブロック図である。モバイルデバイス1000の構成は、モバイルデバイス160、170、180、または190においてインプリメントされうる。モバイルデバイス1000は、セルラ式電話、端末、ハンドセット、携帯情報端末(PDA)、ワイヤレスモデム、コードレス電話などでありうる。ワイヤレス通信システムは、符号分割多元接続(CDMA)システム、移動体通信のためのグローバルシステム(GSM(登録商標))システム、広帯域CDMA(W−CDMA)システム、ロングタームエボリューション(LTE)システム、LTEアドバンスドシステムなどでありうる。さらに、モバイルデバイス1000が、例えばWi−Fiダイレクト、ブルートゥース(Bluetooth)、またはFlashLinq技術を使用する別のモバイルデバイスと直接通信することができる。モバイルデバイス1000は、受信パスおよび送信パスを介した双方向通信を提供することができる。受信パス上で、基地局によって送信される信号は、アンテナ1012によって受信され、受信機(RCVR)1014に提供される。受信機1014は、受信された信号を調整及びデジタル化し、調整及びデジタル化された信号を、更なる処理のために、デジタルセクション1020に提供する。送信パス上で、送信機(TMTR)1016は、デジタルセクション1020から送信されるべきデータを受信し、そのデータを処理および調整し、変調された信号を生成し、それはアンテナ1012を介して基地局に送信される。受信機1014および送信機1016は、CDMA、GSM、W−CDMA、LTE、LTEアドバンスドなどをサポートしうるトランシーバの一部でありうる。
デジタルセクション1020は、モデムプロセッサ1022、縮小命令セット・コンピュータ(reduced instruction set computer)/デジタル信号プロセッサ(RISC/DSP)1024、コントローラ/プロセッサ1026、内部メモリ1028、汎用オーディオ符号器1332、汎用オーディオ復号器1034、グラフィック/ディスプレイプロセッサ1036、および外部バスインタフェース(EBI)1038のような様々な処理、インタフェース、及びメモリユニットを含む。モデムプロセッサ1022は、データ送信および受信を処理し得る、例えば符号化、変調、復調、および復号の処理をし得る。RISC/DSP1024は、モバイルデバイス1000に対する一般的な、および専用の処理を行いうる。コントローラ/プロセッサ1026は、デジタルセクション1020内の様々な処理およびインタフェースユニットの動作を制御しうる。内部メモリ1028は、デジタルセクション1020内の様々なユニットに対するデータおよび/または命令を記憶しうる。
汎用オーディオ符号器1032は、オーディオソース1042、マクロ1043などからの入力信号に対する符号化を実行しうる。汎用オーディオ復号器1034は、符号化されたオーディオデータを復号し、出力信号をスピーカ/ハンドセット1044に提供しうる。汎用オーディオ符号器1032および汎用オーディオ復号器1034が、オーディオソースを備えるインタフェース、マイクロフォン1043、およびスピーカ/ヘッドセット1044に必ずしも必要とされているのではなく、したがってモバイルデバイス1000において省略されうることは留意されたい。グラフィック/ディスプレイプロセッサ1036は、ディスプレイユニット1046に表示されうる、グラフィック、ビデオ、イメージ、およびテキストを処理しうる。EBI1038は、デジタルセクション1020とメインメモリ1048との間のデータの転送を容易にし得る。デジタルセクション1020は、1つまたは複数のプロセッサ、DSP、マイクロプロセッサ、RISCなどでインプリメントされうる。デジタルセクション1020はまた、1つまたは複数の特定用途向け集積回路(ASIC)および/またはいくつかの他のタイプの集積回路(IC)上で組み立てられうる。
一般的に、ここで記述されたいずれのデバイスも、ワイヤレス電話、セルラ電話、ラップトップコンピュータ、ワイヤレスマルチメディアデバイス、ワイヤレス通信パーソナルコンピュータ(PC)カード、PDA、外部または内部モデム、ワイヤレスチャネルを通じて通信するデバイスなどのような、様々なタイプのデバイスを表しうる。デバイスは、アクセス端末(AT)、アクセスユニット、加入者ユニット、モバイル局、モバイルデバイス、モバイルユニット、モバイル電話、モバイル、遠隔局、遠隔端末、遠隔ユニット、ユーザデバイス、ユーザ機器、ハンドヘルドデバイス等のような様々な名前を持ちうる。ここで記述されたいずれのデバイスも、ハードウェア、ソフトウェア、ファームウェア、またはそれらの組み合わせはもちろん、命令およびデータを記憶するためのメモリを持ちうる。
ここで記述された技術は様々な手段によってインプリメントされうる。例えば、これらの技法は、ハードウェア、ファームウェア、ソフトウェア、または、それらの組み合わせにインプリメントされうる。当業者はさらに、本明細書の開示と関係して記述されている様々な実例となる論理ブロック、モジュール、回路、アルゴリズムステップが電子機器、コンピュータソフトウェアまたは両方の組み合わせとしてインプリメントされることを認識するであろう。このハードウェアとソフトウェアの互換性を明確に例示するために、様々な実例となるコンポーネント、ブロック、モジュール、回路、ステップが、それらの機能性という観点から一般的に上述されている。ハードウェア、もしくは、ソフトウェアとしてそのような機能性がインプリメントされるかどうかは、特定のアプリケーションと、システム全体に課された設計制約とに依存する。当業者は各特定のアプリケーションに対して様々な方法で記述された機能性をインプリメントしうるが、そのようなインプリメンテーションの決定は本開示の範囲からの逸脱を引き起こすとして解釈されるべきではない。
ハードウェアでのインプリメンテーションの場合、技法を実行するために使用される処理ユニットは、1または複数のASIC、DSP、デジタル信号処理デバイス(DSPD)、プログラマブル論理デバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子デバイス、ここで記述された機能を実行するよう設計された別の電子ユニット、コンピュータ、または、それらの組み合わせ内でインプリメントされうる。
したがって、本明細書の開示と関係して記述される様々な実例となる論理ブロック、モジュール、回路は、汎用プロセッサ、DSP、ASIC、FPGAまたは他のプログラマブル論理デバイス、ディスクリートゲートまたはトランジスタ論理、ディスクリートハードウェアコンポーネント、もしくは、ここで記述された機能を実行するよう設計されたこれらの任意の組み合わせと一緒にインプリメントまたは実行されうる。汎用プロセッサはマイクロプロセッサでありうるが、しかしながら代わりとして、プロセッサは任意の従来のプロセッサ、コントローラ、マイクロコントローラ、またはステートマシンでありうる。プロセッサはまた、例えば、DSPとマクロプロセッサの組み合わせ、複数のマイクロプロセッサ、DSPコアに連結した1つまたは複数のマイクロプロセッサ、その他のそのような構成といったコンピュータデバイスの組み合わせとしてもインプリメントされうる。
ファームウェアおよび/またはソフトウェアインプリメンテーションの場合、技法は、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、不揮発性ランダムアクセスメモリ(NVRAM)、プログラマブル読み出し専用メモリ(PROM)、電気的消去可能PROM(EEPROM)、FLASHメモリ、コンパクトディスク(CD)、磁気または光学データ記憶デバイスなどのようなコンピュータ可読媒体に記憶される命令として実現されうる。命令は、1つまたは複数のプロセッサによって実行可能であり、(1つまたは複数の)プロセッサにここで記述された機能性のある特定の態様を実行させうる。
ソフトウェアでインプリメントされる場合、これらの機能は、コンピュータ可読媒体上で、1つまたは複数の命令またはコードとして送信または記憶されうる。コンピュータ可読媒体は、1つの場所から別の場所へのコンピュータプログラムの転送を容易にする何らかの媒体を含む通信媒体、および、コンピュータ記憶媒体の双方を含む。記憶媒体は、コンピュータによってアクセスされうる任意の利用可能な媒体でありうる。限定ではなく例として、そのようなコンピュータ可読媒体は、RAM、ROM、EEPROM、CD−ROMもしくは他の光学ディスク記憶装置、磁気ディスク記憶装置もしくは他の磁気記憶デバイス、もしくは命令あるいはデータ構造の形態で望ましいプログラムコードを搬送もしくは格納するために使用され、コンピュータによってアクセスされうる任意の他の媒体を備えうる。さらに、任意の接続手段は適切にコンピュータ読取可能媒体と呼ばれる。例えば、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのようなワイヤレス技術を使用してウェブサイト、サーバ、もしくは他の遠隔ソースからソフトウェアが送信される場合、そのときこの同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのようなワイヤレス技術は媒体の定義に含まれる。ディスク(disk)とディスク(disc)は、本明細書で使用される場合、CD、レーザディスク、光ディスク、デジタル多用途ディスク(DVD)、フロッピー(登録商標)ディスク、ブルーレイ(登録商標)ディスクを含む。ディスク(disk)は通常磁気作用によってデータを再生し、ディスク(disc)はレーザーで光学的にデータを再生する。上記の組み合わせもまたコンピュータ可読媒体の範囲内に含まれるべきである。
ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、リムーバブルディスク、CD−ROM、または、当技術分野において周知の記憶媒体のあらゆる他の形態に存在しうる。プロセッサが記憶媒体から情報を読み取ったり、記憶媒体に情報を書き込んだりできるように、例示的な記憶媒体はプロセッサに結合されている。代替において、記憶媒体はプロセッサに一体化されうる。プロセッサおよび記憶媒体はASICに存在しうる。ASICは、ユーザ端末内に存在しうる。代替において、プロセッサおよび記憶媒体は、個別コンポーネントとして、ユーザ端末に存在しうる。
本開示の先の説明は、当業者が本開示を行なうまたは使用することを可能にするために提供される。本開示に対する様々な変更は、当業者にとって容易に明らかであろう、また、ここで定義される一般的な原理は、本開示の範囲または精神から逸脱することなく他の変更に適用されうる。したがって、本開示は、本明細書に記述された例に制限されることを企図せず、本明細書に開示された原理および新規な特徴と合致する最も広い範囲が与えられるべきである。
例示的なインプリメンテーションが、1つまたは複数の独立したコンピュータシステムのコンテクストの中でここで開示された主題の態様を利用することを称しうるけれども、主題はそのように限定されないが、むしろ、ネットワークまたは分散コンピューティング環境のような任意のコンピューティング環境と関係してインプリメントされうる。またさらに、ここで開示される主題の態様は、複数の処理チップまたはデバイスの中で、またはそれらに渡ってインプリメントされ、記憶装置(storage)は同様に複数のデバイスに渡って達成されうる。そのようなデバイスは、PC、ネットワークサーバ、およびハンドヘルドデバイスを含みうる。
主題は構造的特徴及び/または方法論的動作に特有の用語で記述されているけれども、添付の特許請求の範囲で定義されている主題が上述された特有の特徴または動作に必ずしも限定されないことは理解されるべきである。むしろ、上述された特定の特徴および動作は特許請求の範囲をインプリメントする例示的な形態として開示される。

Claims (48)

  1. 類似のサウンド環境においてモバイルデバイスを識別するための方法であって、前記方法は、
    モバイルデバイスにおいて入力サウンドを受信することと、
    前記モバイルデバイスにおいて、前記入力サウンドからサウンドシグネチャを抽出することと、
    前記モバイルデバイスにおいて、少なくとも1つの所定のサウンドモデルに基づいて前記入力サウンドの信頼値を決定することと、
    前記モバイルデバイスからサーバに、前記サウンドシグネチャおよび前記信頼値を送信することと、
    前記サーバから、前記モバイルデバイスに類似したサウンド環境における少なくとも1つのモバイルデバイスに関する情報を受信することと、
    を備える方法。
  2. 前記少なくとも1つの所定のサウンドモデルは、少なくとも1つの通常のサウンドモデル、および、少なくとも1つの、センサのアーチファクトのモデルを含む、請求項1に記載の方法。
  3. 前記信頼値を決定することは、前記入力サウンドに関する前記少なくとも1つの所定のサウンドモデルの可能性を計算することを含む、請求項1に記載の方法。
  4. 前記信頼値を決定することはさらに、前記入力サウンドからサウンド特徴を抽出することを含み、
    前記可能性は、前記サウンド特徴に基づいて計算される、請求項3に記載の方法。
  5. 前記サウンドシグネチャおよび前記信頼値を含むパケットを構築すること、をさらに備え、
    前記サウンドシグネチャおよび前記信頼値を送信することは前記サーバに前記パケットを送信することを含む、請求項1に記載の方法。
  6. 前記パケットは、前記サウンドシグネチャを示すサウンドシグネチャフィールドおよび前記信頼値を示す信頼性フィールドを含み、前記パケットを構築することは、前記信頼値に基づいて前記サウンドシグネチャフィールドのビット数を決定することを含む、請求項5に記載の方法。
  7. 前記情報は、前記少なくとも1つのモバイルデバイスのユーザの識別情報を含む、請求項1に記載の方法。
  8. 入力サウンドを受信するように構成されたサウンドセンサと、
    前記入力サウンドからサウンドシグネチャを抽出するように構成されたサウンドシグネチャ抽出ユニットと、
    少なくとも1つの所定のサウンドモデルに基づいて前記入力サウンドの信頼値を決定するように構成された信頼性決定ユニットと、
    サーバに前記サウンドシグネチャおよび前記信頼値を送信するように構成された送信ユニットと、
    前記サーバから、前記モバイルデバイスに類似したサウンド環境における少なくとも1つのモバイルデバイスに関する情報を受信するように構成された受信ユニットと、
    を備えるモバイルデバイス。
  9. 前記少なくとも1つの所定のサウンドモデルは、少なくとも1つの通常のサウンドモデル、および、少なくとも1つの、センサのアーチファクトのモデルを含む、請求項8に記載のモバイルデバイス。
  10. 前記信頼性決定ユニットは、前記入力サウンドに関する前記少なくとも1つの所定のサウンドモデルの可能性を計算するように構成される、請求項8に記載のモバイルデバイス。
  11. 前記信頼性決定ユニットは、前記入力サウンドからサウンド特徴を抽出し、前記サウンド特徴に基づいて前記可能性を計算するように構成される、請求項10に記載のモバイルデバイス。
  12. 前記サウンドシグネチャおよび前記信頼値を含むパケットを構築するように構成されたパケット処理ユニット、をさらに備え、
    前記送信ユニットは、前記サーバに前記パケットを送信するように構成される、請求項8に記載のモバイルデバイス。
  13. 前記パケットは、前記サウンドシグネチャを示すサウンドシグネチャフィールドおよび前記信頼値を示す信頼性フィールドを含み、前記パケット処理ユニットは、前記信頼値に基づいて前記サウンドシグネチャフィールドのビット数を決定するように構成される、請求項12に記載のモバイルデバイス。
  14. 前記情報は、前記少なくとも1つのモバイルデバイスのユーザの識別情報を含む、請求項8に記載のモバイルデバイス。
  15. 入力サウンドを受信するための手段と、
    前記入力サウンドからサウンドシグネチャを抽出するための手段と、
    少なくとも1つの所定のサウンドモデルに基づいて前記入力サウンドの信頼値を決定するための手段と、
    サーバに前記サウンドシグネチャおよび前記信頼値を送信するための手段と、
    前記サーバから、前記モバイルデバイスに類似したサウンド環境における少なくとも1つのモバイルデバイスに関する情報を受信するための手段と、
    を備えるモバイルデバイス。
  16. 前記少なくとも1つの所定のサウンドモデルは、少なくとも1つの通常のサウンドモデル、および、少なくとも1つの、センサのアーチファクトのモデルを含む、請求項15に記載のモバイルデバイス。
  17. 前記サウンドシグネチャおよび前記信頼値を含むパケットを構築するための手段、をさらに備え、
    前記送信するための手段は、前記サーバに前記パケットを送信するように構成される、請求項15に記載のモバイルデバイス。
  18. 前記パケットは、前記サウンドシグネチャを示すサウンドシグネチャフィールドおよび前記信頼値を示す信頼性フィールドを含み、前記構築するための手段は、前記信頼値に基づいて前記サウンドシグネチャフィールドのビット数を決定するように構成される、請求項17に記載のモバイルデバイス。
  19. 類似のサウンド環境においてモバイルデバイスを識別するための命令を備える非トランジトリなコンピュータ可読記憶媒体であって、前記命令はプロセッサに、
    モバイルデバイスにおいて、入力サウンドを受信する動作と、
    前記モバイルデバイスにおいて、前記入力サウンドからサウンドシグネチャを抽出する動作と、
    前記モバイルデバイスにおいて、少なくとも1つの所定のサウンドモデルに基づいて前記入力サウンドの信頼値を決定する動作と、
    前記モバイルデバイスからサーバに、前記サウンドシグネチャおよび前記信頼値を送信する動作と、
    前記サーバから、前記モバイルデバイスに類似したサウンド環境における少なくとも1つのモバイルデバイスに関する情報を受信する動作と、
    を実行させる、非トランジトリなコンピュータ可読記憶媒体。
  20. 前記少なくとも1つの所定のサウンドモデルは、少なくとも1つの通常のサウンドモデル、および、少なくとも1つの、センサのアーチファクトのモデルを含む、請求項19に記載の媒体。
  21. 前記動作は、前記サウンドシグネチャおよび前記信頼値を含むパケットを構築することをさらに含み、
    前記サウンドシグネチャおよび前記信頼値を送信することは前記サーバに前記パケットを送信することを含む、請求項19に記載の媒体。
  22. 前記パケットは、前記サウンドシグネチャを示すサウンドシグネチャフィールドおよび前記信頼値を示す信頼フィールドを含み、前記パケットを構築することは、前記信頼値に基づいて前記サウンドシグネチャフィールドのビット数を決定することを含む、請求項21に記載の媒体。
  23. 類似のサウンド環境において複数のモバイルデバイスを識別するための方法であって、前記方法は、
    少なくとも2つのモバイルデバイスの各々から入力サウンドのサウンドシグネチャおよび信頼値を受信することと、
    前記少なくとも2つのモバイルデバイスのペアからの前記サウンドシグネチャおよび前記信頼値に基づいて前記少なくとも2つのモバイルデバイスの前記ペアに関する類似値を決定することと、
    前記少なくとも2つのモバイルデバイスの間から、前記類似値に基づいて前記類似のサウンド環境において前記複数のモバイルデバイスを識別することと、
    を備える方法。
  24. 前記信頼値は、少なくとも1つの所定のサウンドモデルに基づいて決定される、請求項23に記載の方法。
  25. 前記少なくとも1つの所定のサウンドモデルは、少なくとも1つの通常のサウンドモデル、および、少なくとも1つの、センサのアーチファクトのモデルを含む、請求項24に記載の方法。
  26. 前記類似値を決定することは、前記少なくとも2つのモバイルデバイスの前記ペアからの前記サウンドシグネチャを前記少なくとも2つのモバイルデバイスの前記ペアからの前記信頼値のうちの少なくとも1つで重み付けすることを含む、請求項23に記載の方法。
  27. 前記少なくとも2つのモバイルデバイスの前記ペアからの前記サウンドシグネチャは、前記少なくとも2つのモバイルデバイスのペアからの前記信頼値の間のより小さい方の値で重み付けされる、請求項26に記載の方法。
  28. 前記少なくとも2つのモバイルデバイスの前記ペアからの前記サウンドシグネチャは、前記少なくとも2つのモバイルデバイスの前記ペアからの前記信頼値の両方で重み付けされる、請求項26に記載の方法。
  29. 前記類似値を決定することは、
    前記少なくとも2つのモバイルデバイスの前記ペアのなかの1つのモバイルデバイスからの前記信頼値によって重み付けされる前記少なくとも2つのモバイルデバイスの前記ペアからの前記サウンドシグネチャで第1の類似値を計算することと、
    前記少なくとも2つのモバイルデバイスの前記ペアのなかの他のモバイルデバイスからの前記信頼値によって重み付けされる前記少なくとも2つのモバイルデバイスの前記ペアからの前記サウンドシグネチャで第2の類似値を計算することと、
    前記第1のおよび第2の類似値のうちの小さい方に基づいて前記類似値を決定することと、
    を含む、請求項23に記載の方法。
  30. 前記複数のモバイルデバイスのうちの少なくとも1つに、前記複数のモバイルデバイスに関する情報を送信すること、をさらに備える、請求項23に記載の方法。
  31. 類似のサウンド環境において複数のモバイルデバイスを識別するためのサーバであって、前記サーバは、
    少なくとも2つのモバイルデバイスの各々から入力サウンドのサウンドシグネチャおよび信頼値を受信するように構成された受信ユニットと、
    前記少なくとも2つのモバイルデバイスの前記ペアからの前記サウンドシグネチャおよび前記信頼値に基づいて前記少なくとも2つのモバイルデバイスのペアに関する類似値を決定し、前記少なくとも2つのモバイルデバイス間で、前記類似値に基づいて前記類似サウンド環境において前記複数のモバイルデバイスを識別するように構成された類似性決定ユニットと、
    を備えるサーバ。
  32. 前記信頼値は、少なくとも1つの所定のサウンドモデルに基づいて決定される、請求項31に記載のサーバ。
  33. 前記少なくとも1つの所定のサウンドモデルが、少なくとも1つの通常のサウンドモデル、および、少なくとも1つの、センサのアーチファクトのモデルを含む、請求項32に記載のサーバ。
  34. 前記類似決定ユニットは、前記少なくとも2つのモバイルデバイスの前記ペアからの前記サウンドシグネチャを前記少なくとも2つのモバイルデバイスの前記ペアからの前記信頼値のうちの少なくとも1つで重み付けするように構成される、請求項31に記載のサーバ。
  35. 前記少なくとも2つのモバイルデバイスの前記ペアからの前記サウンドシグネチャは、前記少なくとも2つのモバイルデバイスのペアからの前記信頼値の間のより小さい値で重み付けされる、請求項34に記載のサーバ。
  36. 前記少なくとも2つのモバイルデバイスの前記ペアからの前記サウンドシグネチャは、前記少なくとも2つのモバイルデバイスのペアからの前記信頼値の両方で重み付けされる、請求項34に記載のサーバ。
  37. 前記類似性決定ユニットが、
    前記少なくとも2つのモバイルデバイスの前記ペアのなかの1つのモバイルデバイスからの前記信頼値によって重み付けされる前記少なくとも2つのモバイルデバイスの前記ペアからの前記サウンドシグネチャで第1の類似値を計算することと、
    前記少なくとも2つのモバイルデバイスの前記ペアのなかの他のモバイルデバイスからの前記信頼値によって重み付けされる前記少なくとも2つのモバイルデバイスの前記ペアからの前記サウンドシグネチャで第2の類似値を計算することと、
    前記第1のおよび第2の類似値のうちの小さい方に基づいて前記類似値を決定することと、
    を実行するように構成される、請求項31に記載のサーバ。
  38. 前記複数のモバイルデバイスのうちの少なくとも1つに、前記複数のモバイルデバイスに関する情報を送信するように構成された送信ユニット、をさらに備える請求項31に記載のサーバ。
  39. 類似のサウンド環境において複数のモバイルデバイスを識別するためのサーバであって、前記サーバは、
    少なくとも2つのモバイルデバイスの各々から入力サウンドのサウンドシグネチャおよび信頼値を受信するための手段と、
    前記少なくとも2つのモバイルデバイスの前記ペアからの前記サウンドシグネチャおよび前記信頼値に基づいて前記少なくとも2つのモバイルデバイスのペアに関する類似値を決定し、前記少なくとも2つのモバイルデバイス間で、前記類似値に基づいて前記類似サウンド環境において前記複数のモバイルデバイスを識別するため手段と、
    を備えるサーバ。
  40. 前記決定するための手段は、前記少なくとも2つのモバイルデバイスの前記ペアからの前記信頼値のうちの少なくとも1つで前記サウンドシグネチャを重み付けするように構成される、請求項39に記載のサーバ。
  41. 前記少なくとも2つのモバイルデバイスの前記ペアからの前記サウンドシグネチャは、前記少なくとも2つのモバイルデバイスのペアからの前記信頼値の間のより小さい値で重み付けされる、請求項40に記載のサーバ。
  42. 前記少なくとも2つのモバイルデバイスの前記ペアからの前記サウンドシグネチャは、前記少なくとも2つのモバイルデバイスのペアからの前記信頼値の両方で重み付けされる、請求項40に記載のサーバ。
  43. 前記決定するための手段が、
    前記少なくとも2つのモバイルデバイスの前記ペアのうちの1つのモバイルデバイスから前記信頼値によって重み付けされる前記少なくとも2つのモバイルデバイスの前記ペアからの前記サウンドシグネチャで第1の類似値を計算することと、
    前記少なくとも2つのモバイルデバイスの前記ペアのうちの他のモバイルデバイスからの前記信頼値によって重み付けされる前記少なくとも2つのモバイルデバイスの前記ペアからの前記サウンドシグネチャで第2の類似値を計算することと、
    前記第1のおよび第2の類似値のうちの小さい方に基づいて前記類似値を決定することと、
    を実行するように構成される、請求項39に記載のサーバ。
  44. 類似のサウンド環境において複数のモバイルデバイスを識別するための命令を備える非トランジトリなンピュータ可読媒体であって、前記命令はプロセッサに、
    少なくとも2つのモバイルデバイスの各々から入力サウンドのサウンドシグネチャおよび信頼値を受信する動作と、
    前記少なくとも2つのモバイルデバイスの前記ペアからの前記サウンドシグネチャおよび前記信頼値に基づいて前記少なくとも2つのモバイルデバイスのペアに関する類似値を決定する動作と、
    前記少なくとも2つのモバイルデバイス間で、前記類似値に基づいて前記類似サウンド環境において前記複数のモバイルデバイスを識別する動作と、
    を実行させる、非トランジトリなコンピュータ可読媒体。
  45. 前記類似値を決定することは、前記少なくとも2つのモバイルデバイスの前記ペアからの前記サウンドシグネチャを前記少なくとも2つのモバイルデバイスの前記ペアからの前記信頼値のうちの少なくとも1つで重み付けすることを含む、請求項44に記載の媒体。
  46. 前記少なくとも2つのモバイルデバイスの前記ペアからの前記サウンドシグネチャは、前記少なくとも2つのモバイルデバイスのペアからの前記信頼値の間のより小さい値で重み付けされる、請求項45に記載の媒体。
  47. 前記少なくとも2つのモバイルデバイスの前記ペアからの前記サウンドシグネチャは、前記少なくとも2つのモバイルデバイスのペアからの前記信頼値の両方で重み付けされる、請求項45に記載の媒体。
  48. 前記類似値を決定することは、
    前記少なくとも2つのモバイルデバイスの前記ペアのうちの1つのモバイルデバイスからの前記信頼値によって重み付けされる前記少なくとも2つのモバイルデバイスの前記ペアからの前記サウンドシグネチャで第1の類似値を計算することと、
    前記少なくとも2つのモバイルデバイスの前記ペアのうちの他のモバイルデバイスからの前記信頼値によって重み付けされる前記少なくとも2つのモバイルデバイスの前記ペアからの前記サウンドシグネチャで第2の類似値を計算することと、
    前記第1のおよび第2の類似値のうちの小さい方に基づいて前記類似値を決定することと、
    を含む、請求項44に記載の媒体。
JP2013556648A 2011-03-04 2012-02-16 類似のサウンド環境においてモバイルデバイスを識別するための方法および装置 Expired - Fee Related JP5905494B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201161449451P 2011-03-04 2011-03-04
US61/449,451 2011-03-04
US13/370,668 US9143571B2 (en) 2011-03-04 2012-02-10 Method and apparatus for identifying mobile devices in similar sound environment
US13/370,668 2012-02-10
PCT/US2012/025464 WO2012121855A1 (en) 2011-03-04 2012-02-16 Method and apparatus for identifying mobile devices in similar sound environment

Publications (2)

Publication Number Publication Date
JP2014511165A true JP2014511165A (ja) 2014-05-12
JP5905494B2 JP5905494B2 (ja) 2016-04-20

Family

ID=46753309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013556648A Expired - Fee Related JP5905494B2 (ja) 2011-03-04 2012-02-16 類似のサウンド環境においてモバイルデバイスを識別するための方法および装置

Country Status (6)

Country Link
US (1) US9143571B2 (ja)
EP (1) EP2681896B1 (ja)
JP (1) JP5905494B2 (ja)
KR (1) KR101615421B1 (ja)
CN (1) CN103348659B (ja)
WO (1) WO2012121855A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102934160A (zh) * 2010-03-30 2013-02-13 Nvoq股份有限公司 用于提高音频质量的听写客户端反馈
US8606293B2 (en) 2010-10-05 2013-12-10 Qualcomm Incorporated Mobile device location estimation using environmental information
US8483725B2 (en) 2010-12-03 2013-07-09 Qualcomm Incorporated Method and apparatus for determining location of mobile device
CN103178878B (zh) * 2011-12-21 2015-07-22 国际商业机器公司 一种用于连接无线设备的方法和系统
US9305458B2 (en) * 2012-02-25 2016-04-05 ZipSocket, Inc. Proximity-detection systems and methods
US9307564B2 (en) 2012-05-18 2016-04-05 Qualcomm Incorporated Automatic device-to-device connection control by environmental information
US9922646B1 (en) 2012-09-21 2018-03-20 Amazon Technologies, Inc. Identifying a location of a voice-input device
KR101277523B1 (ko) * 2013-03-08 2013-06-21 (주) 에이노드 사운드 신호 기반의 로컬 인터랙티브 플랫폼 시스템, 이를 이용한 로컬 인터랙티브 서비스 제공 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체
CN104080024B (zh) 2013-03-26 2019-02-19 杜比实验室特许公司 音量校平器控制器和控制方法以及音频分类器
US20140324591A1 (en) * 2013-04-29 2014-10-30 Qualcomm Incorporated Selectively authenticating a group of devices as being in a shared environment based on locally captured ambient sound
US20150310853A1 (en) * 2014-04-25 2015-10-29 GM Global Technology Operations LLC Systems and methods for speech artifact compensation in speech recognition systems
CN105139852A (zh) * 2015-07-30 2015-12-09 浙江图维电力科技有限公司 一种基于改进的mfcc声音特征的工程机械识别方法及识别装置
JP6802170B2 (ja) * 2015-08-28 2020-12-16 日本電気株式会社 影響度測定装置、影響度測定方法およびコンピュータプログラム
US9769607B2 (en) 2015-09-24 2017-09-19 Cisco Technology, Inc. Determining proximity of computing devices using ultrasonic audio signatures
EP3358857B1 (en) * 2016-11-04 2020-04-15 Dolby Laboratories Licensing Corporation Intrinsically safe audio system management for conference rooms
EP3883265A1 (en) 2016-12-27 2021-09-22 GN Hearing A/S Sound signal modelling based on recorded object sound
US10832672B2 (en) 2018-07-13 2020-11-10 International Business Machines Corporation Smart speaker system with cognitive sound analysis and response
US10832673B2 (en) 2018-07-13 2020-11-10 International Business Machines Corporation Smart speaker device with cognitive sound analysis and response
DE102018128214A1 (de) * 2018-11-12 2020-05-14 Sennheiser Electronic Gmbh & Co. Kg Verfahren und Vorrichtung zur Auswahl eines Audiodatenstroms
US11589174B2 (en) * 2019-12-06 2023-02-21 Arizona Board Of Regents On Behalf Of Arizona State University Cochlear implant systems and methods

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005173569A (ja) * 2003-11-12 2005-06-30 Sony Internatl Europ Gmbh オーディオ信号の分類装置及び方法
JP2009239431A (ja) * 2008-03-26 2009-10-15 Nec Corp 仲介システム、仲介方法および仲介用プログラム
JP2010154261A (ja) * 2008-12-25 2010-07-08 Kddi Corp グループ識別子生成システム、携帯端末、識別サーバ、グループ識別子生成方法、アプリケーションサービスシステム及びコンピュータプログラム

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5959580A (en) 1994-11-03 1999-09-28 Ksi Inc. Communications localization system
JPH10126755A (ja) 1996-05-28 1998-05-15 Hitachi Ltd テレビ電話/テレビ会議端末およびそれを用いたリング多地点テレビ電話/テレビ会議システムおよび通信制御方法
US5918223A (en) 1996-07-22 1999-06-29 Muscle Fish Method and article of manufacture for content-based analysis, storage, retrieval, and segmentation of audio information
GB2337386B (en) 1996-09-09 2001-04-04 Dennis J Dupray Location of a mobile station
JP3852870B2 (ja) 1997-03-07 2006-12-06 有限会社 福祉システム研究所 生活行動遠隔確認装置および生活行動遠隔確認システム
US6381569B1 (en) * 1998-02-04 2002-04-30 Qualcomm Incorporated Noise-compensated speech recognition templates
JP2001016214A (ja) 1999-06-29 2001-01-19 Toshiba Corp 情報収集制御システム
JP3799219B2 (ja) 2000-07-05 2006-07-19 シャープ株式会社 情報端末装置、通信基地システム、情報サービス、情報処理装置およびコンピュータ読み取り可能な記録媒体
WO2002048837A2 (en) 2000-12-15 2002-06-20 Polycom, Inc. System and method for device co-location discrimination
JP2003067316A (ja) 2001-08-28 2003-03-07 Nippon Telegr & Teleph Corp <Ntt> 会議システムと、通信端末と、会議センタ装置と、プログラムと、記憶装置と、会議方式
JP3874097B2 (ja) 2002-03-05 2007-01-31 セイコーエプソン株式会社 情報提供システム、プログラムおよび情報記憶媒体
US6912178B2 (en) 2002-04-15 2005-06-28 Polycom, Inc. System and method for computing a location of an acoustic source
EP1585947B1 (en) * 2002-05-03 2020-01-01 Harman International Industries, Incorporated Sound detection and localization system
US7617287B2 (en) 2002-11-27 2009-11-10 Rga Intl, Inc. Cellular messaging alert method and system
JP2004286681A (ja) 2003-03-24 2004-10-14 Hitachi Software Eng Co Ltd 情報検索システム
US20040259536A1 (en) 2003-06-20 2004-12-23 Keskar Dhananjay V. Method, apparatus and system for enabling context aware notification in mobile devices
JP2005070921A (ja) 2003-08-21 2005-03-17 Nec Corp プレゼンス情報処理システムおよびプレゼンス情報処理方法
US7916848B2 (en) 2003-10-01 2011-03-29 Microsoft Corporation Methods and systems for participant sourcing indication in multi-party conferencing and for audio source discrimination
US7421305B2 (en) * 2003-10-24 2008-09-02 Microsoft Corporation Audio duplicate detector
US7305078B2 (en) 2003-12-18 2007-12-04 Electronic Data Systems Corporation Speaker identification during telephone conferencing
US8977250B2 (en) 2004-08-27 2015-03-10 The Invention Science Fund I, Llc Context-aware filter for participants in persistent communication
US7031728B2 (en) 2004-09-21 2006-04-18 Beyer Jr Malcolm K Cellular phone/PDA communication system
JP2006208482A (ja) 2005-01-25 2006-08-10 Sony Corp 会議の活性化を支援する装置,方法,プログラム及び記録媒体
JP4507905B2 (ja) 2005-02-15 2010-07-21 ソニー株式会社 音声会議用の通信制御装置,通信制御方法,プログラム及び記録媒体
KR100653091B1 (ko) 2005-07-26 2006-12-01 삼성전자주식회사 입체 음향을 이용한 위치 인지 시스템, 시스템에 구비되는송신부, 수신부 및 위치 인지 방법
JP4779501B2 (ja) 2005-08-24 2011-09-28 ヤマハ株式会社 遠隔会議システム
JP2009524273A (ja) 2005-11-29 2009-06-25 グーグル・インコーポレーテッド 放送メディア内の反復コンテンツの検出
US7668304B2 (en) 2006-01-25 2010-02-23 Avaya Inc. Display hierarchy of participants during phone call
US20070206759A1 (en) 2006-03-01 2007-09-06 Boyanovsky Robert M Systems, methods, and apparatus to record conference call activity
US20080059177A1 (en) 2006-05-19 2008-03-06 Jamey Poirier Enhancement of simultaneous multi-user real-time speech recognition system
US7675414B2 (en) 2006-08-10 2010-03-09 Qualcomm Incorporated Methods and apparatus for an environmental and behavioral adaptive wireless communication device
US20080147461A1 (en) 2006-12-14 2008-06-19 Morris Lee Methods and apparatus to monitor consumer activity
GB0625642D0 (en) 2006-12-21 2007-01-31 Symbian Software Ltd Mobile sensor feedback
US8503651B2 (en) 2006-12-27 2013-08-06 Nokia Corporation Teleconferencing configuration based on proximity information
US7973857B2 (en) 2006-12-27 2011-07-05 Nokia Corporation Teleconference group formation using context information
US20080187143A1 (en) 2007-02-01 2008-08-07 Research In Motion Limited System and method for providing simulated spatial sound in group voice communication sessions on a wireless communication device
US7983406B2 (en) 2007-03-19 2011-07-19 Avaya Inc. Adaptive, multi-channel teleconferencing system
US7746226B2 (en) 2007-03-30 2010-06-29 International Business Machines Corporation System and method for providing dynamic presence information as collected by a mobile device
US20080253547A1 (en) 2007-04-14 2008-10-16 Philipp Christian Berndt Audio control for teleconferencing
JP5090523B2 (ja) 2007-06-06 2012-12-05 ドルビー ラボラトリーズ ライセンシング コーポレイション 複数の検索の組み合わせを使用して、オーディオ/ビデオの指紋検索精度を改善する方法及び装置
KR100824069B1 (ko) 2007-06-29 2008-04-22 정유균 이동단말기를 이용한 모바일 광고 방법 및 이를 실행할 수있는 모바일 광고용 이동단말기 및 모바일 광고 시스템
EP2073515A1 (en) 2007-12-21 2009-06-24 Koninklijke KPN N.V. Identification of proximate mobile devices
US8243902B2 (en) 2007-09-27 2012-08-14 Siemens Enterprise Communications, Inc. Method and apparatus for mapping of conference call participants using positional presence
US20090112589A1 (en) 2007-10-30 2009-04-30 Per Olof Hiselius Electronic apparatus and system with multi-party communication enhancer and method
US8700539B2 (en) 2007-12-17 2014-04-15 Nokia Corporation Creating a travel community
US20100040217A1 (en) 2008-08-18 2010-02-18 Sony Ericsson Mobile Communications Ab System and method for identifying an active participant in a multiple user communication session
ES2428736T3 (es) 2008-10-31 2013-11-11 Orange Método de detección y reconocimiento de sonido ambiental
US8254964B2 (en) 2009-02-23 2012-08-28 Sony Ericsson Mobile Communications Ab Method and arrangement relating to location based services for a communication device
WO2010125488A2 (en) 2009-04-29 2010-11-04 Koninklijke Philips Electronics N.V. Prompting communication between remote users
EP2317729A1 (en) 2009-10-28 2011-05-04 Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO Servers for device identification services
EP2433414B1 (en) 2009-05-22 2019-07-03 Nederlandse Organisatie voor toegepast- natuurwetenschappelijk onderzoek TNO Servers for device identification services
US8351589B2 (en) 2009-06-16 2013-01-08 Microsoft Corporation Spatial audio for audio conferencing
US8745250B2 (en) 2009-06-30 2014-06-03 Intel Corporation Multimodal proximity detection
US8494566B2 (en) 2010-06-01 2013-07-23 Microsoft Corporation Hybrid mobile phone geopositioning
US8606293B2 (en) 2010-10-05 2013-12-10 Qualcomm Incorporated Mobile device location estimation using environmental information
US20120142324A1 (en) 2010-12-03 2012-06-07 Qualcomm Incorporated System and method for providing conference information
US8483725B2 (en) 2010-12-03 2013-07-09 Qualcomm Incorporated Method and apparatus for determining location of mobile device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005173569A (ja) * 2003-11-12 2005-06-30 Sony Internatl Europ Gmbh オーディオ信号の分類装置及び方法
JP2009239431A (ja) * 2008-03-26 2009-10-15 Nec Corp 仲介システム、仲介方法および仲介用プログラム
JP2010154261A (ja) * 2008-12-25 2010-07-08 Kddi Corp グループ識別子生成システム、携帯端末、識別サーバ、グループ識別子生成方法、アプリケーションサービスシステム及びコンピュータプログラム

Also Published As

Publication number Publication date
KR20130124531A (ko) 2013-11-14
US9143571B2 (en) 2015-09-22
CN103348659B (zh) 2016-08-17
JP5905494B2 (ja) 2016-04-20
EP2681896A1 (en) 2014-01-08
WO2012121855A1 (en) 2012-09-13
US20120224707A1 (en) 2012-09-06
EP2681896B1 (en) 2018-08-08
CN103348659A (zh) 2013-10-09
KR101615421B1 (ko) 2016-04-25

Similar Documents

Publication Publication Date Title
JP5905494B2 (ja) 類似のサウンド環境においてモバイルデバイスを識別するための方法および装置
JP5819435B2 (ja) モバイルデバイスのロケーションを決定するための方法および装置
JP6062379B2 (ja) コンテキスト類似度に基づいてクライアントデバイスをグループ化するための方法および装置
JP5795378B2 (ja) 環境情報を用いたモバイルデバイスのロケーション推定
CN103370739B (zh) 用于辨识环境声音的系统和方法
JP5739009B2 (ja) 会議情報を提供するためのシステムおよび方法
WO2015031022A1 (en) Method and apparatus for classifying data items based on sound tags
US9224388B2 (en) Sound recognition method and system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160316

R150 Certificate of patent or registration of utility model

Ref document number: 5905494

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees