JP7173974B2 - ディープニューラルネットワークを使用する端末間話者認識 - Google Patents
ディープニューラルネットワークを使用する端末間話者認識 Download PDFInfo
- Publication number
- JP7173974B2 JP7173974B2 JP2019535198A JP2019535198A JP7173974B2 JP 7173974 B2 JP7173974 B2 JP 7173974B2 JP 2019535198 A JP2019535198 A JP 2019535198A JP 2019535198 A JP2019535198 A JP 2019535198A JP 7173974 B2 JP7173974 B2 JP 7173974B2
- Authority
- JP
- Japan
- Prior art keywords
- speech samples
- speaker
- neural network
- network
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 147
- 238000000034 method Methods 0.000 claims description 58
- 238000012549 training Methods 0.000 claims description 47
- 230000008569 process Effects 0.000 claims description 29
- 230000004044 response Effects 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 20
- 238000012795 verification Methods 0.000 claims description 14
- 238000011176 pooling Methods 0.000 claims description 11
- 210000002569 neuron Anatomy 0.000 claims description 10
- 230000009977 dual effect Effects 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 8
- 230000001537 neural effect Effects 0.000 claims description 4
- 238000000638 solvent extraction Methods 0.000 claims description 4
- 238000010923 batch production Methods 0.000 claims description 3
- 238000011524 similarity measure Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 42
- 239000013598 vector Substances 0.000 description 20
- 238000012360 testing method Methods 0.000 description 11
- 239000000203 mixture Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000000556 factor analysis Methods 0.000 description 1
- 230000008570 general process Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000002203 pretreatment Methods 0.000 description 1
- 230000007115 recruitment Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
- G10L17/08—Use of distortion metrics or a particular distance between probe pattern and reference templates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Image Analysis (AREA)
- Telephonic Communication Services (AREA)
- Image Processing (AREA)
Description
本発明は、話者検証および/または話者の識別を含む音声認識を対象とする。さらに、本発明は、テキスト独立型話者認識を行うために使用され得る。
および話者によるP個の会話サンプルの第2のセット
を含み、Pが、2以上の整数である。ディープニューラルネットワークは、プロセッサ基盤デバイスによって訓練され、それにより、複数の話者の各々に関して、ディープニューラルネットワークは、バッチ処理を実施し、その間に、対応する会話サンプルの第1のセットが第1のフィードフォワードニューラルネットワークを通して供給され、対応する会話サンプルの第2のセットが第2のフィードフォワードニューラルネットワークを通して供給され、会話サンプルのコホートセットが第3のフィードフォワードニューラルネットワークを通して供給される。バッチ処理が完了すると、対応する会話サンプルの第1のセット、対応する会話サンプルの第2のセット、および会話サンプルのコホートセットにそれぞれ基づいて取得された、第1のネットワーク出力、第2のネットワーク出力、および第3のネットワーク出力に基づいて、損失関数が算出される。算出された損失関数は、バックプロパゲーション法によって第1、第2および第3のフィードフォワードニューラルネットワークの各々の接続重みを修正するために使用される。
に応じた第1のネットワーク出力と、対応する会話サンプルの第2のセットのうちの1つ
に応じた第2のネットワーク出力との間の類似度S+に対応する正の距離d+と、会話サンプルの第1のセットのうちの1つ
に応じた第1のネットワーク出力と、コホートセットのそれぞれの会話サンプルに応じた第3のネットワーク出力のうちの最も類似の1つとの間の類似度S-に対応する負の距離d-と、に基づき得る。さらに、正の距離d+および負の距離d-が、対応する類似度S+、S-に異なるそれぞれのマージンM+、M-を適用することによって決定され得る。特に、損失関数は、
として定義され得、式中、
であり、d+=2(1-min((S++M+),1)であり、d-=2(1-max((S++M--1),0)であり、
であり、
であり、
は、N回の反復中に供給されたN個の負の会話サンプルのうちのn番目のものであり、
は、会話サンプルの第1のセットのうちの1つに応じた第1のネットワーク出力であり、
は、会話サンプルの第2のセットのうちの1つに応じた第2のネットワーク出力であり、
は、負の会話サンプル
に応じた第3のネットワーク出力であり、Kは、定数である。
として定義され得、式中、μ+および
は、ガウス分布に基づく正の認識スコアの平均および標準偏差であり、
および
は、ガウス分布に基づく負の認識スコアの平均および標準偏差である。
と示される、P個の会話サンプルの1つのセット、および各々
と示される、対応するP個の正の会話サンプルの1つのセットと共に供給される。これらの会話サンプルの2つのセットは、同一話者によって話されている(およびしたがって同一話者に起因する)。さらに、第3のフィードフォワードニューラルネットワーク232は、バッチ処理中に入力230を介して、負の会話サンプルの共通コホートセット
を供給する。コホートセット内の負の会話サンプルは、上記のP個のサンプルのセットとして同一話者によって話されておらず(または同一話者によって話されていることが少なくとも既知ではない)、したがって同一話者に起因しない。第1のフィードフォワードニューラルネットワーク212の出力214は、サンプル
に応じて第1のP個の埋め込みベクトルセットを生成し、第2のフィードフォワードニューラルネットワーク222の出力224は、サンプル
に応じて第2のP個の埋め込みベクトルセットを生成する。また、第3のフィードフォワードニューラルネットワーク232の出力234は、コホートセット内の負の会話サンプルに応じて第3のN個の埋め込みベクトルセットを生成する。所与のバッチが処理された後、これらの埋め込みベクトルは、損失を算出するために使用され(これは、以下により詳細に説明されることになる)、損失は、バックプロパゲーション法に従って3つのフィードフォワードニューラルネットワーク212、222、232の接続重みを修正するために使用される。
、正の会話サンプル
、および負の会話サンプル
)は、対応する発声の「画像」を生成するために前処理され得る。かかる前処理は、信号の非会話部を破棄するために、音声区間検出を適用することを含み得る。前処理はまた、基礎をなす会話信号を一定数(W)のオーバーラッピングウィンドウにパーティション分割することと、一定数(F)の特徴(例えば、メルフィルタバンク特徴)をW個のオーバーラッピングウィンドウの各々から抽出することを含み得る。請求項を限定するように解釈されない、かかる前処理の具体例が、説明されることになる。この非限定的例において、画像が、基礎をなす会話信号を、10ミリ秒のオーバーラップ(またはウィンドウシフト)を含む、20ミリ秒期間のウィンドウにパーティション分割することによって各会話サンプルに対して生成され得る。さらに、各サンプルに対する画像は、500個の上記のオーバーラッピングウィンドウを含み得(W=500)、40個のメルフィルタバンク特徴(F=40)が各ウィンドウから抽出されている(それによって、入力210、220、230の各々におけるサイズ40×500の画像を結果としてもたらす)。これは、5秒間の会話サンプルに対応することになる(40次元の特徴ベクトルが10ミリ秒毎に抽出されている)。しかしながら、これは、単に一例であり、異なる発声期間、異なる数のウィンドウ、ならびに異なる数およびタイプの特徴が使用されてもよいことが留意されるべきである。言い換えると、異なるタイプの会話「画像」がDNNに適用され得る。
の画像が第1のフィードフォワードニューラルネットワーク212を通して供給されたとき、第1のネットワーク出力214は、
に対して埋め込まれたベクトルを表す、
として記号化され得る結果を生成する。同様に、正の会話サンプル
の画像が第2のフィードフォワードニューラルネットワーク222を通して供給されたとき、第2のネットワーク出力224は、
に対して埋め込まれたベクトルを表す、
として記号化され得る結果を生成する。同様に、負の会話サンプル
の画像が第3のフィードフォワードニューラルネットワーク232を通して供給されたとき(nが1~Nの任意の整数である)、第3のネットワーク出力234は、
に対して埋め込まれたベクトルを表す、
として記号化され得る結果を生成する。
サンプルと同一話者によって全て話された、対応するP個の会話サンプルの1つのセット
は、続いて、第2のフィードフォワードニューラルネットワーク222に適用される。第3のフィードフォワードニューラルネットワーク232に関して、負の会話サンプルのコホートセット
(
および
会話サンプルを話した人物とは異なる人物によって話されたもの)は、引き続いて、各バッチ中に第3のフィードフォワードニューラルネットワーク232に入力される。非限定的例によると、コホートセット内の負の会話サンプルの数N(および各バッチに対して実行する反復の数)は、1000に等しくてもよい。しかしながら、コホートセットは、異なる数の負の会話サンプルを含んでもよい。負の会話サンプルの同一コホートセットが、DNNの訓練中に、複数のバッチまたは可能であれば全てのバッチのために使用され得ることが可能である。また、各負の会話サンプルが、
および
の話者とは異なる人物によって話されることになると考えられる場合、コホートセット内の負の会話サンプルのうちの1つとして未知の会話元(すなわち、話者の識別情報が未知である)の会話サンプルを利用することが可能である。
が、メモリデバイス24から抽出される。同様に、S5120において、同一話者からのP個の会話サンプルの1つのセットもまた、メモリデバイス24から抽出される。正の会話サンプルの数Pは、少なくとも2つであるべきであり、Pが、2つよりも多くなることが考えられる。さらに、オペレーションS5130によると、N個の負の会話サンプルのコホートセットが、メモリデバイス24から取得される。
および対応するP個の正の会話サンプルの1つのセット
が、全て同一話者由来であり、それぞれ、第1のフィードフォワードニューラルネットワーク212および第2のフィードフォワードニューラルネットワーク222を通して供給されるように、バッチ内で訓練を実施することになる。P個の会話サンプルのセット
は、引き続いて、オペレーションS5140において第1のニューラルネットワーク212を通して供給され、一方でP個の正の会話サンプルのセット
は、オペレーション5150において第2のフィードフォワードニューラルネットワーク222を通して供給される。オペレーションS5160において、コホートセット内のN個の負の会話サンプルが、引き続いて、第3のフィードフォワードニューラルネットワーク232を通して供給される。
、正の会話サンプル
、負の会話サンプル
のコホートセット
を供給する結果として生成された埋め込みベクトルセットに基づいて損失を計算する。さらに、S5170によると、計算された損失は、第1、第2および第3のフィードフォワードニューラルネットワーク212、222、232の各々の接続重みを修正するために使用される。特に、確率的勾配降下法オプティマイザを利用するバックプロパゲーション法が、一度、損失関数が計算されると、重みを修正するために使用され得る。損失を計算するための関数が、以下により詳細に説明されることになる。
の各セットおよび対応するP個の正の会話サンプル
のセット)の損失を計算するために使用される損失関数は、以下のパラメータに基づく:
・各会話サンプル
に応じた第1のネットワーク出力214(すなわち、埋め込みベクトル
)と、対応する正の会話サンプル
に応じた第2のネットワーク出力224(すなわち、埋め込みベクトル
)との間の類似度S+
・各会話サンプル
に応じた第1のネットワーク出力214(すなわち、
)と、コホートセットに応じた第3のネットワーク出力234のうちの最も類似のもの(すなわち、特徴表現
のうちの最も類似のもの)との間の類似度S-
・類似度S+およびS-にそれぞれ適用される、正のマージンM+および負のマージンM-
・類似度S+および対応するマージンM+に基づいて計算される正の距離d+
・類似度S-および対応するマージンM-に基づいて計算される負の距離d+
正のマージンM+および負のマージンM-の使用は、会話サンプル
および
が互いに合理的に近く、かつ会話サンプル
が負の会話サンプルの最も近くから合理的に遠い状況下で損失関数の追加のコストを回避することを助ける。
式中、
方程式(2)において、Kは、定数(例えば、1000)を表す。さらに、方程式(2)の正および負の距離d+およびd-は、次の方程式によって計算され得る:
d+=2(1-min((S++M+),1) 方程式(3)
および
d-=2(1-max((S-+M--1),0) 方程式(4)。
および
方程式(5)において、最大演算子は、コホートセットに基づいて第3のフィードフォワードニューラルネットワーク232によって生成された特徴表現
のうちの1つを抽出し、これは、特徴表現
に最も類似する。
および
方程式(5)~(8)によると、それぞれの距離(d+およびd-)を決定するために使用される、類似度(S+およびS-)およびマージン(M+およびM-)は、余弦類似度の観点で算出される。正および負のマージンの使用と共に、余弦類似度に基づく距離の使用は、声紋の堅牢な表現を提供する。
および異なる話者に対応する正の
)によって訓練されることになるか否かの決定がなされる。処理されることになるより多くのバッチが存在する場合、処理は、オペレーションS5110に戻って、必要なサンプルを抽出し、新しいバッチの処理を開始する。そうでない場合、図6において、DNNの訓練が完了されるようにみなされる。
上記の実施形態において、トリプレットネットワークアーキテクチャを有するDNNは、検証(実際の話者がその名乗る人物であるかどうかを検出する)および識別(話者の識別情報を閉集合内の誰かに合致させる)の両方の話者認識タスクを実施するように訓練される。かかる実施形態において、トリプレットネットワークアーキテクチャのDNNモデルは、図3Aおよび図3Bに例示される構造を含み得、図6に示される処理によってさらに訓練され得る。この場合において、トリプレットネットワークアーキテクチャのDNNモデルのパラメータは、訓練前に、ランダムに初期化され得る。
図6に例示された訓練処理の説明において、具体的な損失関数が、方程式(1)~(8)に関して上に説明されたことが留意される。しかしながら、DNNが、図6に関して上に説明された特定の損失関数によって訓練されることは、要件ではない。代替的な代表的な実施形態において、例えば、等価エラー率(EER)メトリックに直接関連する異なる損失関数がDNNを訓練するために使用され得る。
方程式(9)において、erf(z)の項は、誤差関数を表し、一方でμ+および
は、正の認識スコアの平均および標準偏差であり、
および
は、負の認識スコアの平均および標準偏差である。この場合において、正および負の認識スコアは、方程式(1)~(8)の損失関数に関して上述された類似度S+およびS-に類似する。したがって、正の認識スコアの平均および標準偏差(μ+および
)、および負の認識スコアの平均および標準偏差(
および
)は、次式のようにバッチ処理から引き出され得る:
式中、記号P、N、EVxi、EVxi +、およびEVxi -は、方程式(1)~(8)に関して上に定義されたものと同一の意味を有する。
の最大化をもたらす。この論理を使用すると、訓練中に最小にされる損失関数は、次式のように定義され得る:
それゆえに、方程式(1)~(8)に関して説明された損失関数に対する代替として、トリプレットネットワークアーキテクチャを有するDNNが、方程式(14)によって定義された損失関数によって訓練され得る。しかしながら、他の損失関数もまた、DNNを使用するために使用されてもよく、本発明は、特定の損失関数に限定されるものではない。
Claims (22)
- 話者認識デバイスであって、
会話サンプルを記憶するメモリデバイスであって、前記会話サンプルが、
同一話者による会話サンプルのデュアルセット、
前記デュアルセットと同一話者によらない会話サンプルのコホートセット、および
話者モデルセット、を含む、メモリデバイスと、
トリプレットネットワークアーキテクチャを有するディープニューラルネットワークをモデル化するように構成されたプロセッサ基盤デバイスと、を備え、
前記プロセッサ基盤デバイスが、前記会話サンプルのデュアルセットが前記会話サンプルのコホートセットとの組み合わせで前記ディープニューラルネットワークを通して供給される、バッチ処理に従って前記ディープニューラルネットワークを訓練し、
前記プロセッサ基盤デバイスが、前記訓練されたディープニューラルネットワークを通して認識会話サンプルを供給し、前記認識会話サンプルおよび前記話者モデルの少なくとも1つに応じて、前記訓練されたディープニューラルネットワークの出力に基づいてユーザを検証または識別し、
前記ディープニューラルネットワークが、
第1の入力を受信および処理して、第1のネットワーク出力を生成する第1のフィードフォワードニューラルネットワークと、
第2の入力を受信および処理して、第2のネットワーク出力を生成する第2のフィードフォワードニューラルネットワークと、
第3の入力を受信および処理して、第3のネットワーク出力を生成する第3のフィードフォワードニューラルネットワークと、を含み、
複数の話者の各々に関して、前記メモリデバイスが、前記話者によるP個の会話サンプルの第1のセット
および前記話者によるP個の会話サンプルの第2のセット
を含み、Pが、2以上の整数であり、
前記ディープニューラルネットワークが、前記プロセッサ基盤デバイスによって訓練され、それにより、前記複数の話者の各々に関して、
前記ディープニューラルネットワークが、バッチ処理を実施し、その間に、前記対応する会話サンプルの第1のセットが前記第1のフィードフォワードニューラルネットワークを通して供給され、前記対応する会話サンプルの第2のセットが前記第2のフィードフォワードニューラルネットワークを通して供給され、前記会話サンプルのコホートセットが前記第3のフィードフォワードニューラルネットワークを通して供給され、
前記バッチ処理が完了すると、前記対応する会話サンプルの第1のセット、前記対応する会話サンプルの第2のセット、および前記会話サンプルのコホートセットにそれぞれ基づいて取得された、前記第1のネットワーク出力、前記第2のネットワーク出力、および前記第3のネットワーク出力に基づいて、損失関数が算出され、
前記算出された損失関数が、バックプロパゲーション法によって前記第1、第2および第3のフィードフォワードニューラルネットワークの各々の接続重みを修正するために使用され、
前記損失関数が、
前記会話サンプルの第1のセットのうちの1つ
に応じた前記第1のネットワーク出力と、前記対応する会話サンプルの第2のセットのうちの1つ
に応じた前記第2のネットワーク出力との間の類似度S+に対応する正の距離d+と、
前記会話サンプルの第1のセットのうちの前記1つ
に応じた前記第1のネットワーク出力と、前記コホートセットのそれぞれの会話サンプルに応じた前記第3のネットワーク出力のうちの最も類似の1つとの間の類似度S-に対応する負の距離d-と、に基づく、話者認識デバイス。 - 前記正の距離d+および前記負の距離d-が、前記対応する類似度S+、S-に異なるそれぞれのマージンM+、M-を適用することによって決定される、請求項1に記載の話者認識デバイス。
- 前記ディープニューラルネットワークの第1、第2および第3のフィードフォワードニューラルネットワークの各々が、少なくとも1つの重畳層および完全に接続された層を含む、請求項1に記載の話者認識デバイス。
- 前記第1、第2および第3のフィードフォワードニューラルネットワークの各々が、少なくとも1つの最大プーリング層および後続の完全に接続された層をさらに含む、請求項4に記載の話者認識デバイス。
- 前記第1、第2および第3のフィードフォワードニューラルネットワークのそれぞれ1つに入力される、各会話サンプルが、
基礎会話信号を複数のオーバーラッピングウィンドウにパーティション分割することと、
複数の特徴を前記オーバーラッピングウィンドウの各々から抽出することと、によって、前処理される、請求項4に記載の話者認識デバイス。 - 前記第1、第2および第3のフィードフォワードニューラルネットワークが、前記前処理された会話サンプルを受信する第1の重畳層を含み、
前記第1の重畳層が、数NCの重畳フィルタを含み、
前記NC個の重畳フィルタの各々が、F×wf個のニューロンを有し、Fが、前記第1の重畳層の高さに対応し、wfが、前記重畳層の幅に対応し、
Fが、前記オーバーラッピングウィンドウの各々から抽出された前記特徴の数に等しく、wfが、5以下である、請求項6に記載の話者認識デバイス。 - 前記デバイスが、前記ユーザが自己識別を入力する話者検証タスクを実施するように構成され、前記認識会話サンプルが、前記ユーザの識別情報が前記自己識別と同一であることを確認するために使用される、請求項1に記載の話者認識デバイス。
- 前記デバイスが、それぞれの会話サンプルを伴って前記メモリデバイス内に記憶された複数の潜在的識別情報から前記ユーザを識別するために前記認識会話サンプルが使用される、話者識別タスクを実施するように構成されている、請求項1に記載の話者認識デバイス。
- 会話サンプルを前記ユーザから前記認識会話サンプルとして受信する入力デバイスをさらに備える、請求項1に記載の話者認識デバイス。
- 方法であって、
メモリデバイス内に記憶された複数の会話サンプルに基づいて、トリプレットネットワークアーキテクチャを有するディープニューラルネットワークのコンピュータ実装モデルを訓練することであって、前記複数の会話サンプルが、
同一話者による会話サンプルのデュアルセットと、
前記デュアルセットと同一話者によらない会話サンプルのコホートセットと、
話者モデルセットと、を含む、訓練することと、
前記訓練されたディープニューラルネットワークを通して認識会話サンプルを供給し、前記認識会話サンプルおよび前記話者モデルの少なくとも1つに応じて、前記訓練されたディープニューラルネットワークの出力に基づいてユーザを検証または識別することと、を含み、
前記ディープニューラルネットワークの前記訓練が、前記会話サンプルのデュアルセットが前記会話サンプルのコホートセットとの組み合わせで前記ディープニューラルネットワークを通して供給される、バッチ処理に従って実施され、
前記ディープニューラルネットワークが、
第1のフィードフォワードニューラルネットワークであって、この各反復が、第1のネットワーク出力を生成するために第1の入力を受信および処理する、第1のフィードフォワードニューラルネットワークと、
第2のフィードフォワードニューラルネットワークであって、この各反復が、第2のネットワーク出力を生成するために第2の入力を受信および処理する、第2のフィードフォワードニューラルネットワークと、
第3のフィードフォワードニューラルネットワークであって、この各反復が、第3のネットワーク出力を生成するために第3の入力を受信および処理する、第3のフィードフォワードニューラルネットワークと、
複数の話者の各々に関して、前記メモリデバイスが、前記話者によるP個の会話サンプルの第1のセット
および前記話者によるP個の会話サンプルの第2のセット
を含み、Pが、2以上の整数であり、
前記ディープニューラルネットワークが訓練され、それにより、前記複数の話者の各々に関して、
前記ディープニューラルネットワークが、バッチ処理を実施し、その間に、前記対応する会話サンプルの第1のセットが前記第1のフィードフォワードニューラルネットワークを通して供給され、前記対応する会話サンプルの第2のセットが前記第2のフィードフォワードニューラルネットワークを通して供給され、前記会話サンプルのコホートセットが前記第3のフィードフォワードニューラルネットワークを通して供給され、
前記バッチ処理が完了すると、前記対応する会話サンプルの第1のセット、前記対応する会話サンプルの第2のセット、および前記会話サンプルのコホートセットにそれぞれ基づいて取得された、前記第1のネットワーク出力、前記第2のネットワーク出力、および前記第3のネットワーク出力に基づいて、損失関数が算出され、
前記算出された損失関数が、バックプロパゲーション法によって前記第1、第2および第3のフィードフォワードニューラルネットワークの各々の接続重みを修正するために使用され、
に関して算出された前記損失関数が、
前記会話サンプルの第1のセットのうちの1つ
に応じた前記第1のネットワーク出力と、前記対応する会話サンプルの第2のセットのうちの1つ
に応じた前記第2のネットワーク出力との間の類似度S+に対応する正の距離d+と、
前記会話サンプルの第1のセットのうちの前記1つ
に応じた前記第1のネットワーク出力と、前記コホートセットのそれぞれの会話サンプルに応じた前記第3のネットワーク出力のうちの最も類似の1つとの間の類似度S-に対応する負の距離d-と、に基づく、方法。 - 前記正の距離d+および前記負の距離d-が、前記対応する類似度S+、S-に異なるそれぞれのマージンM+、M-を適用することによって決定される、請求項11に記載の方法。
- 前記ディープニューラルネットワークの第1、第2および第3のフィードフォワードニューラルネットワークの各々が、少なくとも1つの重畳層および完全に接続された層を含む、請求項11に記載の方法。
- 前記第1、第2および第3のフィードフォワードニューラルネットワークの各々が、少なくとも1つの最大プーリング層および後続の完全に接続された層をさらに含む、請求項15に記載の方法。
- 前記第1、第2および第3のフィードフォワードニューラルネットワークの各々が、ソフトマックス層および出力層をさらに含み、
前記ディープニューラルネットワークのパラメータが、話者識別タスクを話者の閉集合に対して実施するために、事前訓練されたニューラルネットワークのパラメータによって初期化され、前記出力層が、前記話者の各々のための別個のニューラルユニットを含む、請求項16に記載の方法。 - 前記第1、第2、第3のフィードフォワードニューラルネットワークのそれぞれ1つに入力される、各会話サンプルを前処理することであって、
基礎会話信号を複数のオーバーラッピングウィンドウにパーティション分割することと、
複数の特徴を前記オーバーラッピングウィンドウの各々から抽出することと、による、前処理することをさらに含む、請求項15に記載の方法。 - 前記第1、第2および第3のフィードフォワードニューラルネットワークが、前記前処理された会話サンプルを受信する第1の重畳層を含み、
前記第1の重畳層が、数NCの重畳フィルタを含み、
前記NC個の重畳フィルタの各々が、F×wf個のニューロンを有し、Fが、前記第1の重畳層の高さに対応し、wfが、前記重畳層の幅に対応し、
Fが、前記オーバーラッピングウィンドウの各々から抽出された前記特徴の数に等しく、wfが、5以下である、請求項18に記載の方法。 - 話者検証タスクが実施され、前記ユーザが自己識別を入力し、前記認識会話サンプルが、前記ユーザの識別情報が前記自己識別と同一であることを確認するために使用される、請求項11に記載の方法。
- 話者識別タスクが実施され、前記認識会話サンプルが、それぞれの会話サンプルを伴って前記メモリデバイス内に記憶された複数の潜在的識別情報から前記ユーザを識別するために使用される、請求項11に記載の方法。
- 会話サンプルをユーザから、入力デバイスを介して、前記認識会話サンプルとして受信することをさらに含む、請求項11に記載の方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022104204A JP2022153376A (ja) | 2016-09-12 | 2022-06-29 | ディープニューラルネットワークを使用する端末間話者認識 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/262,748 | 2016-09-12 | ||
US15/262,748 US9824692B1 (en) | 2016-09-12 | 2016-09-12 | End-to-end speaker recognition using deep neural network |
PCT/US2017/050927 WO2018049313A1 (en) | 2016-09-12 | 2017-09-11 | End-to-end speaker recognition using deep neural network |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022104204A Division JP2022153376A (ja) | 2016-09-12 | 2022-06-29 | ディープニューラルネットワークを使用する端末間話者認識 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019532354A JP2019532354A (ja) | 2019-11-07 |
JP7173974B2 true JP7173974B2 (ja) | 2022-11-16 |
Family
ID=59955660
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019535198A Active JP7173974B2 (ja) | 2016-09-12 | 2017-09-11 | ディープニューラルネットワークを使用する端末間話者認識 |
JP2022104204A Pending JP2022153376A (ja) | 2016-09-12 | 2022-06-29 | ディープニューラルネットワークを使用する端末間話者認識 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022104204A Pending JP2022153376A (ja) | 2016-09-12 | 2022-06-29 | ディープニューラルネットワークを使用する端末間話者認識 |
Country Status (8)
Country | Link |
---|---|
US (4) | US9824692B1 (ja) |
EP (1) | EP3501025B1 (ja) |
JP (2) | JP7173974B2 (ja) |
KR (3) | KR102072782B1 (ja) |
AU (3) | AU2017322591B2 (ja) |
CA (3) | CA3096378A1 (ja) |
ES (1) | ES2883326T3 (ja) |
WO (1) | WO2018049313A1 (ja) |
Families Citing this family (118)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
KR20150104615A (ko) | 2013-02-07 | 2015-09-15 | 애플 인크. | 디지털 어시스턴트를 위한 음성 트리거 |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10650046B2 (en) | 2016-02-05 | 2020-05-12 | Sas Institute Inc. | Many task computing with distributed file system |
US10642896B2 (en) | 2016-02-05 | 2020-05-05 | Sas Institute Inc. | Handling of data sets during execution of task routines of multiple languages |
US10650045B2 (en) * | 2016-02-05 | 2020-05-12 | Sas Institute Inc. | Staged training of neural networks for improved time series prediction performance |
US10795935B2 (en) | 2016-02-05 | 2020-10-06 | Sas Institute Inc. | Automated generation of job flow definitions |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
WO2018033137A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 在视频图像中展示业务对象的方法、装置和电子设备 |
US9824692B1 (en) | 2016-09-12 | 2017-11-21 | Pindrop Security, Inc. | End-to-end speaker recognition using deep neural network |
CA3117645C (en) | 2016-09-19 | 2023-01-03 | Pindrop Security, Inc. | Channel-compensated low-level features for speaker recognition |
US10325601B2 (en) | 2016-09-19 | 2019-06-18 | Pindrop Security, Inc. | Speaker recognition in the call center |
USD898059S1 (en) | 2017-02-06 | 2020-10-06 | Sas Institute Inc. | Display screen or portion thereof with graphical user interface |
WO2018148298A1 (en) | 2017-02-07 | 2018-08-16 | Pindrop Security, Inc. | Age compensation in biometric systems using time-interval, gender, and age |
WO2018160943A1 (en) * | 2017-03-03 | 2018-09-07 | Pindrop Security, Inc. | Method and apparatus for detecting spoofing conditions |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
DK201770429A1 (en) | 2017-05-12 | 2018-12-14 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | MULTI-MODAL INTERFACES |
CN107221320A (zh) * | 2017-05-19 | 2017-09-29 | 百度在线网络技术(北京)有限公司 | 训练声学特征提取模型的方法、装置、设备和计算机存储介质 |
CN107180628A (zh) * | 2017-05-19 | 2017-09-19 | 百度在线网络技术(北京)有限公司 | 建立声学特征提取模型的方法、提取声学特征的方法、装置 |
USD898060S1 (en) | 2017-06-05 | 2020-10-06 | Sas Institute Inc. | Display screen or portion thereof with graphical user interface |
US10354656B2 (en) * | 2017-06-23 | 2019-07-16 | Microsoft Technology Licensing, Llc | Speaker recognition |
US10091349B1 (en) | 2017-07-11 | 2018-10-02 | Vail Systems, Inc. | Fraud detection system and method |
US10623581B2 (en) | 2017-07-25 | 2020-04-14 | Vail Systems, Inc. | Adaptive, multi-modal fraud detection system |
CN111316281B (zh) * | 2017-07-26 | 2024-01-23 | 舒辅医疗 | 基于机器学习的自然语言情境中数值数据的语义分类方法以及系统 |
US10325602B2 (en) * | 2017-08-02 | 2019-06-18 | Google Llc | Neural networks for speaker verification |
US10755142B2 (en) * | 2017-09-05 | 2020-08-25 | Cognizant Technology Solutions U.S. Corporation | Automated and unsupervised generation of real-world training data |
CN107919130B (zh) * | 2017-11-06 | 2021-12-17 | 百度在线网络技术(北京)有限公司 | 基于云端的语音处理方法和装置 |
US10592732B1 (en) | 2017-12-14 | 2020-03-17 | Perceive Corporation | Probabilistic loss function for training network with triplets |
CN108417217B (zh) * | 2018-01-11 | 2021-07-13 | 思必驰科技股份有限公司 | 说话人识别网络模型训练方法、说话人识别方法及系统 |
CN108447490B (zh) * | 2018-02-12 | 2020-08-18 | 阿里巴巴集团控股有限公司 | 基于记忆性瓶颈特征的声纹识别的方法及装置 |
CN108428455A (zh) * | 2018-02-13 | 2018-08-21 | 上海爱优威软件开发有限公司 | 声纹特征的采集方法及系统 |
CN108399395A (zh) * | 2018-03-13 | 2018-08-14 | 成都数智凌云科技有限公司 | 基于端到端深度神经网络的语音和人脸复合身份认证方法 |
US11995537B1 (en) * | 2018-03-14 | 2024-05-28 | Perceive Corporation | Training network with batches of input instances |
US11586902B1 (en) | 2018-03-14 | 2023-02-21 | Perceive Corporation | Training network to minimize worst case surprise |
CN108875904A (zh) * | 2018-04-04 | 2018-11-23 | 北京迈格威科技有限公司 | 图像处理方法、图像处理装置和计算机可读存储介质 |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
GB2573809B (en) | 2018-05-18 | 2020-11-04 | Emotech Ltd | Speaker Recognition |
CN108766440B (zh) * | 2018-05-28 | 2020-01-14 | 平安科技(深圳)有限公司 | 说话人分离模型训练方法、两说话人分离方法及相关设备 |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
WO2019246219A1 (en) | 2018-06-19 | 2019-12-26 | Securelogix Corporation | Active audio calling device identification system |
JP6980603B2 (ja) * | 2018-06-21 | 2021-12-15 | 株式会社東芝 | 話者モデル作成システム、認識システム、プログラムおよび制御装置 |
US10210860B1 (en) * | 2018-07-27 | 2019-02-19 | Deepgram, Inc. | Augmented generalized deep learning with special vocabulary |
US10721190B2 (en) * | 2018-07-31 | 2020-07-21 | Microsoft Technology Licensing, Llc | Sequence to sequence to classification model for generating recommended messages |
US10872601B1 (en) * | 2018-09-27 | 2020-12-22 | Amazon Technologies, Inc. | Natural language processing |
US20200104678A1 (en) * | 2018-09-27 | 2020-04-02 | Google Llc | Training optimizer neural networks |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
CN111091020A (zh) * | 2018-10-22 | 2020-05-01 | 百度在线网络技术(北京)有限公司 | 自动驾驶状态判别方法和装置 |
US11475898B2 (en) * | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
WO2020104045A1 (en) * | 2018-11-23 | 2020-05-28 | Nokia Technologies Oy | End-to-end learning in communication systems |
KR102644945B1 (ko) | 2018-12-14 | 2024-03-08 | 삼성전자주식회사 | 클럭 주파수 공급 장치 및 방법 |
US20200201970A1 (en) * | 2018-12-20 | 2020-06-25 | Cirrus Logic International Semiconductor Ltd. | Biometric user recognition |
KR102570070B1 (ko) | 2018-12-27 | 2023-08-23 | 삼성전자주식회사 | 일반화된 사용자 모델을 이용한 사용자 인증 방법 및 장치 |
US11114103B2 (en) | 2018-12-28 | 2021-09-07 | Alibaba Group Holding Limited | Systems, methods, and computer-readable storage media for audio signal processing |
CN109840588B (zh) * | 2019-01-04 | 2023-09-08 | 平安科技(深圳)有限公司 | 神经网络模型训练方法、装置、计算机设备及存储介质 |
CN109769099B (zh) * | 2019-01-15 | 2021-01-22 | 三星电子(中国)研发中心 | 通话人物异常的检测方法和装置 |
WO2020163624A1 (en) | 2019-02-06 | 2020-08-13 | Pindrop Security, Inc. | Systems and methods of gateway detection in a telephone network |
US11017783B2 (en) * | 2019-03-08 | 2021-05-25 | Qualcomm Incorporated | Speaker template update with embedding vectors based on distance metric |
US10956474B2 (en) | 2019-03-14 | 2021-03-23 | Microsoft Technology Licensing, Llc | Determination of best set of suggested responses |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US10659588B1 (en) * | 2019-03-21 | 2020-05-19 | Capital One Services, Llc | Methods and systems for automatic discovery of fraudulent calls using speaker recognition |
US12015637B2 (en) * | 2019-04-08 | 2024-06-18 | Pindrop Security, Inc. | Systems and methods for end-to-end architectures for voice spoofing detection |
KR20200126675A (ko) * | 2019-04-30 | 2020-11-09 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
CN110347807B (zh) * | 2019-05-20 | 2023-08-08 | 平安科技(深圳)有限公司 | 问题信息处理方法及装置 |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11227599B2 (en) | 2019-06-01 | 2022-01-18 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11257493B2 (en) | 2019-07-11 | 2022-02-22 | Soundhound, Inc. | Vision-assisted speech processing |
JP2021026050A (ja) * | 2019-07-31 | 2021-02-22 | 株式会社リコー | 音声認識システム、情報処理装置、音声認識方法、プログラム |
KR102286775B1 (ko) * | 2019-08-02 | 2021-08-09 | 서울시립대학교 산학협력단 | 미등록 화자를 추가할 수 있는 심층 신경망 기반의 화자 식별 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 |
US11900246B2 (en) * | 2019-09-02 | 2024-02-13 | Samsung Electronics Co., Ltd. | Method and apparatus for recognizing user based on on-device training |
AU2020363882B9 (en) * | 2019-10-11 | 2024-03-28 | Pindrop Security, Inc. | Z-vectors: speaker embeddings from raw audio using sincnet, extended cnn architecture, and in-network augmentation techniques |
SG11202010803VA (en) * | 2019-10-31 | 2020-11-27 | Alipay Hangzhou Inf Tech Co Ltd | System and method for determining voice characteristics |
US11282495B2 (en) * | 2019-12-12 | 2022-03-22 | Amazon Technologies, Inc. | Speech processing using embedding data |
US11899765B2 (en) | 2019-12-23 | 2024-02-13 | Dts Inc. | Dual-factor identification system and method with adaptive enrollment |
CN111145761B (zh) * | 2019-12-27 | 2022-05-24 | 携程计算机技术(上海)有限公司 | 模型训练的方法、声纹确认的方法、系统、设备及介质 |
CN111310836B (zh) * | 2020-02-20 | 2023-08-18 | 浙江工业大学 | 一种基于声谱图的声纹识别集成模型的防御方法及防御装置 |
KR20220150344A (ko) * | 2020-03-05 | 2022-11-10 | 핀드롭 시큐리티 인코포레이티드 | 오디오로부터의 식별 및 검증을 위한 화자 독립 임베딩의 시스템들 및 방법들 |
CN111354345B (zh) * | 2020-03-11 | 2021-08-31 | 北京字节跳动网络技术有限公司 | 生成语音模型和语音识别的方法、装置、设备以及介质 |
CN111524521B (zh) * | 2020-04-22 | 2023-08-08 | 北京小米松果电子有限公司 | 声纹提取模型训练方法和声纹识别方法、及其装置和介质 |
CN111524525B (zh) * | 2020-04-28 | 2023-06-16 | 平安科技(深圳)有限公司 | 原始语音的声纹识别方法、装置、设备及存储介质 |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
CN111341324B (zh) * | 2020-05-18 | 2020-08-25 | 浙江百应科技有限公司 | 一种基于fasttext模型的识别纠错及训练方法 |
JP2023529912A (ja) * | 2020-06-08 | 2023-07-12 | レズメド センサー テクノロジーズ リミテッド | ユーザインタフェースを分類及び/又は特徴付けるためのシステム及び方法 |
US11574622B2 (en) * | 2020-07-02 | 2023-02-07 | Ford Global Technologies, Llc | Joint automatic speech recognition and text to speech conversion using adversarial neural networks |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
CN112017670B (zh) * | 2020-08-13 | 2021-11-02 | 北京达佳互联信息技术有限公司 | 一种目标账户音频的识别方法、装置、设备及介质 |
US20220165275A1 (en) | 2020-10-01 | 2022-05-26 | Pindrop Security, Inc. | Enrollment and authentication over a phone call in call centers |
US11837238B2 (en) | 2020-10-21 | 2023-12-05 | Google Llc | Assessing speaker recognition performance |
WO2022086045A1 (ko) * | 2020-10-22 | 2022-04-28 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
CN112071322B (zh) * | 2020-10-30 | 2022-01-25 | 北京快鱼电子股份公司 | 一种端到端的声纹识别方法、装置、存储介质及设备 |
CN112382298B (zh) * | 2020-11-17 | 2024-03-08 | 北京清微智能科技有限公司 | 唤醒词声纹识别方法、唤醒词声纹识别模型及其训练方法 |
CN112447188B (zh) * | 2020-11-18 | 2023-10-20 | 中国人民解放军陆军工程大学 | 一种基于改进softmax函数的声学场景分类方法 |
KR102487936B1 (ko) * | 2020-12-07 | 2023-01-11 | 서울시립대학교 산학협력단 | 세그먼트 집계를 통해 짧은 발성을 보상하는 심층 신경망 기반 화자 인증 시스템 및 방법 |
KR102661876B1 (ko) * | 2020-12-21 | 2024-04-29 | 한국전자통신연구원 | 합성곱 신경망 기반 오디오 핑거프린트 추출 방법 및 장치 |
CN112466311B (zh) * | 2020-12-22 | 2022-08-19 | 深圳壹账通智能科技有限公司 | 声纹识别方法、装置、存储介质及计算机设备 |
CN113555032B (zh) * | 2020-12-22 | 2024-03-12 | 腾讯科技(深圳)有限公司 | 多说话人场景识别及网络训练方法、装置 |
CN112820313B (zh) * | 2020-12-31 | 2022-11-01 | 北京声智科技有限公司 | 模型训练方法、语音分离方法、装置及电子设备 |
CN112784749B (zh) * | 2021-01-22 | 2023-11-10 | 北京百度网讯科技有限公司 | 目标模型的训练方法、目标对象的识别方法、装置及介质 |
US20220366916A1 (en) * | 2021-05-13 | 2022-11-17 | Itaú Unibanco S/A | Access control system |
EP4390919A2 (en) * | 2021-06-18 | 2024-06-26 | My Voice AI Limited | Methods for improving the performance of neural networks used for biometric authentication |
CN113327598B (zh) * | 2021-06-30 | 2023-11-14 | 北京有竹居网络技术有限公司 | 模型的训练方法、语音识别方法、装置、介质及设备 |
WO2023278727A1 (en) * | 2021-07-02 | 2023-01-05 | Pindrop Security, Inc. | Speaker embedding conversion for backward and cross-channel compatibility |
US11558506B1 (en) * | 2021-09-27 | 2023-01-17 | Nice Ltd. | Analysis and matching of voice signals |
US20230186896A1 (en) * | 2021-12-15 | 2023-06-15 | My Voice Ai Limited | Speaker verification method using neural network |
FR3131039A1 (fr) * | 2021-12-19 | 2023-06-23 | Oso-Ai | Procédé d’analyse d’une donnée numérique |
CN114299953B (zh) * | 2021-12-29 | 2022-08-23 | 湖北微模式科技发展有限公司 | 一种结合嘴部运动分析的话者角色区分方法与系统 |
CN114613369A (zh) * | 2022-03-07 | 2022-06-10 | 哈尔滨理工大学 | 一种基于特征差异最大化的说话人识别方法 |
WO2023177616A1 (en) * | 2022-03-18 | 2023-09-21 | Sri International | Rapid calibration of multiple loudspeaker arrays |
KR102612986B1 (ko) * | 2022-10-19 | 2023-12-12 | 한국과학기술원 | 온라인 추천 시스템, 메타 학습 기반 추천기 업데이트 방법 및 장치 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150127336A1 (en) | 2013-11-04 | 2015-05-07 | Google Inc. | Speaker verification using neural networks |
US20160019458A1 (en) | 2014-07-16 | 2016-01-21 | Deep Learning Analytics, LLC | Systems and methods for recognizing objects in radar imagery |
US20160217367A1 (en) | 2015-01-27 | 2016-07-28 | Google Inc. | Sub-matrix input for neural network layers |
Family Cites Families (102)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62231993A (ja) | 1986-03-25 | 1987-10-12 | インタ−ナシヨナル ビジネス マシ−ンズ コ−ポレ−シヨン | 音声認識方法 |
CA1311059C (en) | 1986-03-25 | 1992-12-01 | Bruce Allen Dautrich | Speaker-trained speech recognizer having the capability of detecting confusingly similar vocabulary words |
US4817156A (en) | 1987-08-10 | 1989-03-28 | International Business Machines Corporation | Rapidly training a speech recognizer to a subsequent speaker given training data of a reference speaker |
US5072452A (en) | 1987-10-30 | 1991-12-10 | International Business Machines Corporation | Automatic determination of labels and Markov word models in a speech recognition system |
US5461697A (en) * | 1988-11-17 | 1995-10-24 | Sekisui Kagaku Kogyo Kabushiki Kaisha | Speaker recognition system using neural network |
JP2524472B2 (ja) | 1992-09-21 | 1996-08-14 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 電話回線利用の音声認識システムを訓練する方法 |
US6975708B1 (en) | 1996-04-17 | 2005-12-13 | Convergys Cmg Utah, Inc. | Call processing system with call screening |
US5867562A (en) | 1996-04-17 | 1999-02-02 | Scherer; Gordon F. | Call processing system with call screening |
US5835890A (en) | 1996-08-02 | 1998-11-10 | Nippon Telegraph And Telephone Corporation | Method for speaker adaptation of speech models recognition scheme using the method and recording medium having the speech recognition method recorded thereon |
WO1998014934A1 (en) | 1996-10-02 | 1998-04-09 | Sri International | Method and system for automatic text-independent grading of pronunciation for language instruction |
WO1998022936A1 (en) | 1996-11-22 | 1998-05-28 | T-Netix, Inc. | Subword-based speaker verification using multiple classifier fusion, with channel, fusion, model, and threshold adaptation |
JP2991144B2 (ja) | 1997-01-29 | 1999-12-20 | 日本電気株式会社 | 話者認識装置 |
US5995927A (en) | 1997-03-14 | 1999-11-30 | Lucent Technologies Inc. | Method for performing stochastic matching for use in speaker verification |
EP1027700A4 (en) | 1997-11-03 | 2001-01-31 | T Netix Inc | MODEL ADAPTATION SYSTEM AND SPEAKER CHECKING METHOD |
US6009392A (en) | 1998-01-15 | 1999-12-28 | International Business Machines Corporation | Training speech recognition by matching audio segment frequency of occurrence with frequency of words and letter combinations in a corpus |
EP1084490B1 (de) | 1998-05-11 | 2003-03-26 | Siemens Aktiengesellschaft | Anordnung und verfahren zur erkennung eines vorgegebenen wortschatzes in gesprochener sprache durch einen rechner |
US6141644A (en) | 1998-09-04 | 2000-10-31 | Matsushita Electric Industrial Co., Ltd. | Speaker verification and speaker identification based on eigenvoices |
US6411930B1 (en) | 1998-11-18 | 2002-06-25 | Lucent Technologies Inc. | Discriminative gaussian mixture models for speaker verification |
KR20010102549A (ko) | 1999-03-11 | 2001-11-15 | 내쉬 로저 윌리엄 | 화자 인식 방법 및 장치 |
US6463413B1 (en) | 1999-04-20 | 2002-10-08 | Matsushita Electrical Industrial Co., Ltd. | Speech recognition training for small hardware devices |
KR100307623B1 (ko) | 1999-10-21 | 2001-11-02 | 윤종용 | 엠.에이.피 화자 적응 조건에서 파라미터의 분별적 추정 방법 및 장치 및 이를 각각 포함한 음성 인식 방법 및 장치 |
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US7318032B1 (en) | 2000-06-13 | 2008-01-08 | International Business Machines Corporation | Speaker recognition method based on structured speaker modeling and a “Pickmax” scoring technique |
DE10047723A1 (de) | 2000-09-27 | 2002-04-11 | Philips Corp Intellectual Pty | Verfahren zur Ermittlung eines Eigenraums zur Darstellung einer Mehrzahl von Trainingssprechern |
DE10047724A1 (de) | 2000-09-27 | 2002-04-11 | Philips Corp Intellectual Pty | Verfahren zur Ermittlung eines Eigenraumes zur Darstellung einer Mehrzahl von Trainingssprechern |
EP1197949B1 (en) | 2000-10-10 | 2004-01-07 | Sony International (Europe) GmbH | Avoiding online speaker over-adaptation in speech recognition |
GB0114866D0 (en) * | 2001-06-19 | 2001-08-08 | Securivox Ltd | Speaker recognition systems |
US7209881B2 (en) | 2001-12-20 | 2007-04-24 | Matsushita Electric Industrial Co., Ltd. | Preparing acoustic models by sufficient statistics and noise-superimposed speech data |
US7457745B2 (en) | 2002-12-03 | 2008-11-25 | Hrl Laboratories, Llc | Method and apparatus for fast on-line automatic speaker/environment adaptation for speech/speaker recognition in the presence of changing environments |
US7184539B2 (en) | 2003-04-29 | 2007-02-27 | International Business Machines Corporation | Automated call center transcription services |
US20050039056A1 (en) | 2003-07-24 | 2005-02-17 | Amit Bagga | Method and apparatus for authenticating a user using three party question protocol |
US7328154B2 (en) | 2003-08-13 | 2008-02-05 | Matsushita Electrical Industrial Co., Ltd. | Bubble splitting for compact acoustic modeling |
US7447633B2 (en) | 2004-11-22 | 2008-11-04 | International Business Machines Corporation | Method and apparatus for training a text independent speaker recognition system using speech data with text labels |
US20120253805A1 (en) | 2005-04-21 | 2012-10-04 | Anthony Rajakumar | Systems, methods, and media for determining fraud risk from audio signals |
CA2609247C (en) | 2005-05-24 | 2015-10-13 | Loquendo S.P.A. | Automatic text-independent, language-independent speaker voice-print creation and speaker recognition |
US7539616B2 (en) | 2006-02-20 | 2009-05-26 | Microsoft Corporation | Speaker authentication using adapted background models |
US8099288B2 (en) | 2007-02-12 | 2012-01-17 | Microsoft Corp. | Text-dependent speaker verification |
KR101756834B1 (ko) | 2008-07-14 | 2017-07-12 | 삼성전자주식회사 | 오디오/스피치 신호의 부호화 및 복호화 방법 및 장치 |
US8886663B2 (en) | 2008-09-20 | 2014-11-11 | Securus Technologies, Inc. | Multi-party conversation analyzer and logger |
EP2182512A1 (en) | 2008-10-29 | 2010-05-05 | BRITISH TELECOMMUNICATIONS public limited company | Speaker verification |
US8442824B2 (en) | 2008-11-26 | 2013-05-14 | Nuance Communications, Inc. | Device, system, and method of liveness detection utilizing voice biometrics |
EP2221805B1 (en) * | 2009-02-20 | 2014-06-25 | Nuance Communications, Inc. | Method for automated training of a plurality of artificial neural networks |
US8463606B2 (en) | 2009-07-13 | 2013-06-11 | Genesys Telecommunications Laboratories, Inc. | System for analyzing interactions and reporting analytic results to human-operated and system interfaces in real time |
US8160877B1 (en) | 2009-08-06 | 2012-04-17 | Narus, Inc. | Hierarchical real-time speaker recognition for biometric VoIP verification and targeting |
US8554562B2 (en) | 2009-11-15 | 2013-10-08 | Nuance Communications, Inc. | Method and system for speaker diarization |
US9558755B1 (en) | 2010-05-20 | 2017-01-31 | Knowles Electronics, Llc | Noise suppression assisted automatic speech recognition |
TWI403304B (zh) | 2010-08-27 | 2013-08-01 | Ind Tech Res Inst | 隨身語能偵知方法及其裝置 |
US8484023B2 (en) | 2010-09-24 | 2013-07-09 | Nuance Communications, Inc. | Sparse representation features for speech recognition |
US8484024B2 (en) | 2011-02-24 | 2013-07-09 | Nuance Communications, Inc. | Phonetic features for speech recognition |
US20130080165A1 (en) | 2011-09-24 | 2013-03-28 | Microsoft Corporation | Model Based Online Normalization of Feature Distribution for Noise Robust Speech Recognition |
US9042867B2 (en) | 2012-02-24 | 2015-05-26 | Agnitio S.L. | System and method for speaker recognition on mobile devices |
US8781093B1 (en) | 2012-04-18 | 2014-07-15 | Google Inc. | Reputation based message analysis |
US20130300939A1 (en) | 2012-05-11 | 2013-11-14 | Cisco Technology, Inc. | System and method for joint speaker and scene recognition in a video/audio processing environment |
US9262640B2 (en) | 2012-08-17 | 2016-02-16 | Charles Fadel | Controlling access to resources based on affinity planes and sectors |
US9368116B2 (en) | 2012-09-07 | 2016-06-14 | Verint Systems Ltd. | Speaker separation in diarization |
DK2713367T3 (en) | 2012-09-28 | 2017-02-20 | Agnitio S L | Speech Recognition |
US9633652B2 (en) | 2012-11-30 | 2017-04-25 | Stmicroelectronics Asia Pacific Pte Ltd. | Methods, systems, and circuits for speaker dependent voice recognition with a single lexicon |
US9230550B2 (en) * | 2013-01-10 | 2016-01-05 | Sensory, Incorporated | Speaker verification and identification using artificial neural network-based sub-phonetic unit discrimination |
US9502038B2 (en) * | 2013-01-28 | 2016-11-22 | Tencent Technology (Shenzhen) Company Limited | Method and device for voiceprint recognition |
US9406298B2 (en) | 2013-02-07 | 2016-08-02 | Nuance Communications, Inc. | Method and apparatus for efficient i-vector extraction |
US9454958B2 (en) | 2013-03-07 | 2016-09-27 | Microsoft Technology Licensing, Llc | Exploiting heterogeneous data in deep neural network-based speech recognition systems |
US20140337017A1 (en) | 2013-05-09 | 2014-11-13 | Mitsubishi Electric Research Laboratories, Inc. | Method for Converting Speech Using Sparsity Constraints |
US9460722B2 (en) | 2013-07-17 | 2016-10-04 | Verint Systems Ltd. | Blind diarization of recorded calls with arbitrary number of speakers |
US9984706B2 (en) | 2013-08-01 | 2018-05-29 | Verint Systems Ltd. | Voice activity detection using a soft decision mechanism |
US20160293167A1 (en) * | 2013-10-10 | 2016-10-06 | Google Inc. | Speaker recognition using neural networks |
US9336781B2 (en) | 2013-10-17 | 2016-05-10 | Sri International | Content-aware speaker recognition |
US9232063B2 (en) | 2013-10-31 | 2016-01-05 | Verint Systems Inc. | Call flow and discourse analysis |
US9620145B2 (en) | 2013-11-01 | 2017-04-11 | Google Inc. | Context-dependent state tying using a neural network |
US9514753B2 (en) | 2013-11-04 | 2016-12-06 | Google Inc. | Speaker identification using hash-based indexing |
JP5777178B2 (ja) | 2013-11-27 | 2015-09-09 | 国立研究開発法人情報通信研究機構 | 統計的音響モデルの適応方法、統計的音響モデルの適応に適した音響モデルの学習方法、ディープ・ニューラル・ネットワークを構築するためのパラメータを記憶した記憶媒体、及び統計的音響モデルの適応を行なうためのコンピュータプログラム |
US9665823B2 (en) | 2013-12-06 | 2017-05-30 | International Business Machines Corporation | Method and system for joint training of hybrid neural networks for acoustic modeling in automatic speech recognition |
EP3373176B1 (en) | 2014-01-17 | 2020-01-01 | Cirrus Logic International Semiconductor Limited | Tamper-resistant element for use in speaker recognition |
US9401143B2 (en) | 2014-03-24 | 2016-07-26 | Google Inc. | Cluster specific speech model |
WO2015168606A1 (en) | 2014-05-02 | 2015-11-05 | The Regents Of The University Of Michigan | Mood monitoring of bipolar disorder using speech analysis |
US9792899B2 (en) | 2014-07-15 | 2017-10-17 | International Business Machines Corporation | Dataset shift compensation in machine learning |
US9373330B2 (en) | 2014-08-07 | 2016-06-21 | Nuance Communications, Inc. | Fast speaker recognition scoring using I-vector posteriors and probabilistic linear discriminant analysis |
KR101844932B1 (ko) | 2014-09-16 | 2018-04-03 | 한국전자통신연구원 | 신호처리 알고리즘이 통합된 심층 신경망 기반의 음성인식 장치 및 이의 학습방법 |
US9324320B1 (en) | 2014-10-02 | 2016-04-26 | Microsoft Technology Licensing, Llc | Neural network-based speech processing |
US9318107B1 (en) * | 2014-10-09 | 2016-04-19 | Google Inc. | Hotword detection on multiple devices |
US9418656B2 (en) * | 2014-10-29 | 2016-08-16 | Google Inc. | Multi-stage hotword detection |
US20160180214A1 (en) * | 2014-12-19 | 2016-06-23 | Google Inc. | Sharp discrepancy learning |
US9875743B2 (en) | 2015-01-26 | 2018-01-23 | Verint Systems Ltd. | Acoustic signature building for a speaker from multiple sessions |
KR101988222B1 (ko) | 2015-02-12 | 2019-06-13 | 한국전자통신연구원 | 대어휘 연속 음성 인식 장치 및 방법 |
US9666183B2 (en) | 2015-03-27 | 2017-05-30 | Qualcomm Incorporated | Deep neural net based filter prediction for audio event classification and extraction |
US9978374B2 (en) * | 2015-09-04 | 2018-05-22 | Google Llc | Neural networks for speaker verification |
US10056076B2 (en) | 2015-09-06 | 2018-08-21 | International Business Machines Corporation | Covariance matrix estimation with structural-based priors for speech processing |
KR102423302B1 (ko) | 2015-10-06 | 2022-07-19 | 삼성전자주식회사 | 음성 인식에서의 음향 점수 계산 장치 및 방법과, 음향 모델 학습 장치 및 방법 |
US9883040B2 (en) | 2015-10-14 | 2018-01-30 | Pindrop Security, Inc. | Fraud detection in interactive voice response systems |
US9818431B2 (en) * | 2015-12-21 | 2017-11-14 | Microsoft Technoloogy Licensing, LLC | Multi-speaker speech separation |
US9584946B1 (en) | 2016-06-10 | 2017-02-28 | Philip Scott Lyren | Audio diarization system that segments audio input |
US9824692B1 (en) | 2016-09-12 | 2017-11-21 | Pindrop Security, Inc. | End-to-end speaker recognition using deep neural network |
US10325601B2 (en) | 2016-09-19 | 2019-06-18 | Pindrop Security, Inc. | Speaker recognition in the call center |
CA3117645C (en) | 2016-09-19 | 2023-01-03 | Pindrop Security, Inc. | Channel-compensated low-level features for speaker recognition |
US10553218B2 (en) | 2016-09-19 | 2020-02-04 | Pindrop Security, Inc. | Dimensionality reduction of baum-welch statistics for speaker recognition |
CA2984304C (en) | 2016-11-01 | 2023-06-13 | Transaction Network Services, Inc. | Systems and methods for automatically conducting risk assessments for telephony communications |
US10205825B2 (en) | 2017-02-28 | 2019-02-12 | At&T Intellectual Property I, L.P. | System and method for processing an automated call based on preferences and conditions |
US10623581B2 (en) | 2017-07-25 | 2020-04-14 | Vail Systems, Inc. | Adaptive, multi-modal fraud detection system |
US10506088B1 (en) | 2017-09-25 | 2019-12-10 | Amazon Technologies, Inc. | Phone number verification |
US10887452B2 (en) | 2018-10-25 | 2021-01-05 | Verint Americas Inc. | System architecture for fraud detection |
US10554821B1 (en) | 2018-11-09 | 2020-02-04 | Noble Systems Corporation | Identifying and processing neighbor spoofed telephone calls in a VoIP-based telecommunications network |
US10477013B1 (en) | 2018-11-19 | 2019-11-12 | Successful Cultures, Inc | Systems and methods for providing caller identification over a public switched telephone network |
US10375238B1 (en) | 2019-04-15 | 2019-08-06 | Republic Wireless, Inc. | Anti-spoofing techniques for outbound telephone calls |
-
2016
- 2016-09-12 US US15/262,748 patent/US9824692B1/en active Active
-
2017
- 2017-09-11 KR KR1020197010208A patent/KR102072782B1/ko active IP Right Grant
- 2017-09-11 CA CA3096378A patent/CA3096378A1/en active Pending
- 2017-09-11 EP EP17772184.2A patent/EP3501025B1/en active Active
- 2017-09-11 CA CA3075049A patent/CA3075049C/en active Active
- 2017-09-11 CA CA3036533A patent/CA3036533C/en active Active
- 2017-09-11 ES ES17772184T patent/ES2883326T3/es active Active
- 2017-09-11 KR KR1020207002634A patent/KR102198835B1/ko active IP Right Grant
- 2017-09-11 AU AU2017322591A patent/AU2017322591B2/en active Active
- 2017-09-11 KR KR1020207037861A patent/KR102239129B1/ko active IP Right Grant
- 2017-09-11 JP JP2019535198A patent/JP7173974B2/ja active Active
- 2017-09-11 WO PCT/US2017/050927 patent/WO2018049313A1/en unknown
- 2017-11-20 US US15/818,231 patent/US10381009B2/en active Active
-
2019
- 2019-08-08 US US16/536,293 patent/US11468901B2/en active Active
-
2021
- 2021-12-17 AU AU2021286422A patent/AU2021286422B2/en active Active
-
2022
- 2022-06-29 JP JP2022104204A patent/JP2022153376A/ja active Pending
- 2022-10-10 US US17/963,091 patent/US20230037232A1/en active Pending
-
2023
- 2023-11-06 AU AU2023263421A patent/AU2023263421A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150127336A1 (en) | 2013-11-04 | 2015-05-07 | Google Inc. | Speaker verification using neural networks |
US20160019458A1 (en) | 2014-07-16 | 2016-01-21 | Deep Learning Analytics, LLC | Systems and methods for recognizing objects in radar imagery |
US20160217367A1 (en) | 2015-01-27 | 2016-07-28 | Google Inc. | Sub-matrix input for neural network layers |
Non-Patent Citations (4)
Title |
---|
Hoffer et al.,DEEP METRIC LEARNING USING TRIPLET NETWORK,arXiv:1412.6622v3,2015年03月23日 |
Uzan et al.,I Know That Voice: Identifying the Voice Actor Behind the Voice,2015 International Conference on Biometrics (ICB),2015年05月22日 |
Wang et al.,Learning Fine-grained Image Similarity with Deep Ranking,arXiv:1404.4661v1,2014年04月17日 |
Zeghidour et al.,Joint Learning of Speaker and Phonetic Similarities with Siamese Networks,Interspeech 2016,2016年09月08日 |
Also Published As
Publication number | Publication date |
---|---|
US20230037232A1 (en) | 2023-02-02 |
US20190392842A1 (en) | 2019-12-26 |
CA3036533C (en) | 2020-04-21 |
KR20210003307A (ko) | 2021-01-11 |
EP3501025A1 (en) | 2019-06-26 |
AU2017322591A1 (en) | 2019-05-02 |
KR20190075914A (ko) | 2019-07-01 |
CA3096378A1 (en) | 2018-03-15 |
CA3075049C (en) | 2020-12-01 |
AU2021286422A1 (en) | 2022-01-20 |
KR102198835B1 (ko) | 2021-01-05 |
KR102072782B1 (ko) | 2020-02-03 |
AU2023263421A1 (en) | 2023-11-23 |
ES2883326T3 (es) | 2021-12-07 |
AU2017322591B2 (en) | 2021-10-21 |
US9824692B1 (en) | 2017-11-21 |
CA3036533A1 (en) | 2018-03-15 |
US20180075849A1 (en) | 2018-03-15 |
CA3075049A1 (en) | 2018-03-15 |
US11468901B2 (en) | 2022-10-11 |
JP2019532354A (ja) | 2019-11-07 |
AU2021286422B2 (en) | 2023-08-10 |
US10381009B2 (en) | 2019-08-13 |
EP3501025B1 (en) | 2021-08-11 |
JP2022153376A (ja) | 2022-10-12 |
KR20200013089A (ko) | 2020-02-05 |
KR102239129B1 (ko) | 2021-04-09 |
WO2018049313A1 (en) | 2018-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7173974B2 (ja) | ディープニューラルネットワークを使用する端末間話者認識 | |
US10553218B2 (en) | Dimensionality reduction of baum-welch statistics for speaker recognition | |
US9401148B2 (en) | Speaker verification using neural networks | |
US10909991B2 (en) | System for text-dependent speaker recognition and method thereof | |
Fu et al. | Tandem deep features for text-dependent speaker verification. | |
US10630680B2 (en) | System and method for optimizing matched voice biometric passphrases | |
TW202213326A (zh) | 用於說話者驗證的廣義化負對數似然損失 | |
Georgescu et al. | GMM-UBM modeling for speaker recognition on a Romanian large speech corpora | |
Saleema et al. | Voice biometrics: the promising future of authentication in the internet of things | |
Gupta et al. | Text dependent voice based biometric authentication system using spectrum analysis and image acquisition | |
Mohamed et al. | An Overview of the Development of Speaker Recognition Techniques for Various Applications. | |
Ren et al. | A hybrid GMM speaker verification system for mobile devices in variable environments | |
Kumar et al. | Comparison of Isolated and Continuous Text Models for Voice Based Attendance System | |
Wadehra et al. | Comparative Analysis Of Different Speaker Recognition Algorithms | |
CN114023334A (zh) | 说话人识别方法、装置、计算机设备和存储介质 | |
Krishna et al. | A Novel Method for Identifying the Keyless Authentication Entry System using Mobile for Auto Mobiles (CAR) | |
Saini et al. | SPEAKER RECOGNITION-A FACT BASED APPROACH USING NEURAL NETWORK AND HMM/GMM | |
Blomberg | Speaker Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200908 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210910 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20211210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220210 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220629 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220629 |
|
C11 | Written invitation by the commissioner to file amendments |
Free format text: JAPANESE INTERMEDIATE CODE: C11 Effective date: 20220712 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220810 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220812 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7173974 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |