JP6682523B2 - 声紋認証処理方法及び装置 - Google Patents

声紋認証処理方法及び装置 Download PDF

Info

Publication number
JP6682523B2
JP6682523B2 JP2017519504A JP2017519504A JP6682523B2 JP 6682523 B2 JP6682523 B2 JP 6682523B2 JP 2017519504 A JP2017519504 A JP 2017519504A JP 2017519504 A JP2017519504 A JP 2017519504A JP 6682523 B2 JP6682523 B2 JP 6682523B2
Authority
JP
Japan
Prior art keywords
model
voiceprint
feature vector
gender
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017519504A
Other languages
English (en)
Other versions
JP2018508799A (ja
Inventor
チャオ リ
チャオ リ
ベング ウ
ベング ウ
リン ヂュ
リン ヂュ
Original Assignee
バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド
バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド, バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド filed Critical バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド
Publication of JP2018508799A publication Critical patent/JP2018508799A/ja
Application granted granted Critical
Publication of JP6682523B2 publication Critical patent/JP6682523B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/18Artificial neural networks; Connectionist approaches
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • G10L19/038Vector quantisation, e.g. TwinVQ audio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Game Theory and Decision Science (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、声紋認証技術分野に関し、特に声紋認証処理方法及び装置に関する。
技術の不断の進歩に伴い、声紋認識(Voiceprint Recognition、VPR)技術の応用分野が広がってきている。
声紋認識は、ある音声断片が特定の人により発話されたか否かを確認することができ、例えば、勤務をレコーダする時、又は銀行で取引する時、ユーザの声を確認する必要がある。声紋認識前に、先ず話者の声紋に対してモデリングを行う必要があり、これはいわゆる「訓練」又は「学習」過程である。
現在の声紋認識の訓練過程は、共通のモデルで声紋の訓練及び認識を行い、精度が高くない。
本発明の目的は、関連技術における一つの問題を少なくともある程度解決することにある。
そのため、本発明の第一の目的は、声紋認証処理方法を提出することにあり、当該方法は、性別を区分する声紋認証処理モデルを構築することにより、声紋認証の効率及び精度を向上させる。
本発明の第二の目的は、声紋認証処理装置を提供することにある。
本発明の第三の目的は、記憶媒体を提供することにある。
本発明の第四の目的は、声紋認証処理設備を提供することにある。
上述の目的を達成するため、本発明の第一側面の実施例は、声紋認証処理方法を提出し、前記方法は、性別を混合した深層ニューラルネットワークDNN声紋ベースラインシステムを利用し、訓練集合における各音声断片の第1特徴ベクトルを抽出するステップと、前記各音声断片の第1特徴ベクトル及び予め標識された性別タグに基づいて、性別分類器を訓練するステップと、前記訓練集合における性別が異なる音声データに基づき、性別が異なるDNNモデルをそれぞれ訓練するステップと、性別が異なるDNNモデル及び前記訓練集合における性別が異なる音声データに基づき、性別が異なる統一背景モデルと、特徴ベクトル抽出モデルと、確率線形判別分析モデルとをそれぞれ訓練するステップとを含む。
本発明の実施例の声紋認証処理方法は、性別を混合する深層ニューラルネットワークDNN声紋ベースラインシステムを利用することにより、訓練集合における各音声断片の第1特徴ベクトルを抽出し、前記各音声断片の第1特徴ベクトル及び予め標識された性別タグに基づいて、性別分類器を訓練し、前記訓練集合における性別が異なる音声データに基づき、性別が異なるDNNモデルをそれぞれ訓練し、性別が異なるDNNモデル及び前記訓練集合における性別が異なる音声データに基づき、性別が異なる統一背景モデルと、特徴ベクトル抽出モデルと、確率線形判別分析モデルとをそれぞれ訓練する。これにより、性別を区分する声紋認証処理モデルを構築し、声紋認証の効率及び精度を向上させる。
上述の目的を達成するため、本発明の第二側面の実施例は、声紋認証処理装置を提出し、前記声紋認証処理装置は、性別を混合する深層ニューラルネットワークDNN声紋ベースラインシステムを利用することにより、訓練集合における各音声断片の第1特徴ベクトルを抽出するための、抽出モジュール、前記各音声断片の第1特徴ベクトル及び予め標識された性別タグに基づいて、性別分類器を訓練するための、生成モジュールと、前記訓練集合における性別が異なる音声データに基づき、性別が異なるDNNモデルをそれぞれ訓練するための、第1訓練モジュールと、性別が異なるDNNモデル及び前記訓練集合における性別が異なる音声データに基づき、性別が異なる統一背景モデルと、特徴ベクトル抽出モデルと、確率線形判別分析モデルとをそれぞれ訓練するための、第2訓練モジュールと、を含む。
本発明の実施例の声紋認証処理装置は、性別を混合した深層ニューラルネットワークDNN声紋ベースラインシステムを利用することにより、訓練集合における各音声断片の第1特徴ベクトルを抽出し、前記各音声断片の第1特徴ベクトル及び予め標識された性別タグに基づいて、性別分類器を訓練し、前記訓練集合における性別が異なる音声データに基づき、性別が異なるDNNモデルをそれぞれ訓練し、性別が異なるDNNモデル及び前記訓練集合における性別が異なる音声データに基づき、性別が異なる統一背景モデルと、特徴ベクトル抽出モデルと、確率線形判別分析モデルとをそれぞれ訓練する。これにより、性別を区分する声紋認証処理モデルを構築し、声紋認証の効率及び精度を向上させる。
上述の目的を実現するため、本発明の第三側面の実施例の記憶媒体は、アプリケーションを記憶するためのものであり、前記アプリケーションは、本発明の第一側面の実施例に記載の声紋認証処理方法を実行するためのものである。
上述の目的を実現するため、本発明の第四側面の実施例の声紋認証処理設備は、一つ又は複数のプロセッサと、メモリと、一つ又は複数のモジュールとを備え、前記一つ又は複数のモジュールは、前記メモリに記憶され、前記一つ又は複数のプロセッサによって実行された時、以下の操作を行う。性別を混合した深層ニューラルネットワークDNN声紋ベースラインシステムを利用し、訓練集合における各音声断片の第1特徴ベクトルを抽出し、前記各音声断片の第1特徴ベクトル及び予め標識された性別タグに基づいて、性別分類器を訓練し、前記訓練集合における性別が異なる音声データに基づき、性別が異なるDNNモデルをそれぞれ訓練し、性別が異なるDNNモデル及び前記訓練集合における性別が異なる音声データに基づき、性別が異なる統一背景モデルと、特徴ベクトル抽出モデルと、確率線形判別分析モデルとをそれぞれ訓練する。
本発明の上述および/または付加的な特徴と利点は、下記の添付図面を参照した実施形態に対する説明により、明らかになり、理解されることが容易になる。その中、
本発明の一つの実施例の声紋認証処理方法のフローチャートである。 性別分類器の生成概略図である。 男性声紋認証処理モデルの生成概略図である。 女性声紋認証処理モデルの生成概略図である。 本発明のもう一つの実施例の声紋認証処理方法のフローチャートである。 本発明のもう一つの実施例の声紋認証処理方法のフローチャートである。 本発明の一つの実施例の声紋認証処理装置の構造概略図である。 本発明のもう一つの実施例の声紋認証処理装置の構造概略図である。 本発明のもう一つの実施例の声紋認証処理装置の構造概略図である。
次に、図面に示された実施例について詳しく説明する。下記の記述で図面を引用するとき、別に表示がない限り、異なる図面の同じ数字は同じ要素、または類似的要素を示す。図面を参照しながら説明する下記の実施例は、本発明の解釈の例示であり、本発明を制限するものではない。
次に、図面を参照して本発明の実施例の声紋認証処理方法及び装置を説明する。
図1は、本発明の一つの実施例の声紋認証処理方法のフローチャートである。
図1に示すように、当該声紋認証処理方法は、ステップ101とステップ102を含む。
ステップ101は、性別を混合した深層ニューラルネットワーク(DNN:Deep Neural Network)声紋ベースラインシステムを利用し、訓練集合における各音声断片の第1特徴ベクトルを抽出する。
ステップ102は、前記各音声断片の第1特徴ベクトル及び予め標識された性別タグに基づいて、性別分類器を訓練する。
具体的に、性別を区分する声紋認証処理モデルを構築することを訓練するため、まず、性別を混合した深層ニューラルネットワークDNN声紋ベースラインシステムを利用し、性別を生成し、性別分類器を訓練することにより、性別分類器を訓練することで認識された、入力された声の性別を利用し、入力された声に対して性別タグを分配する。
図2は、性別分類器の生成概略図であり、図2を参照して如何に性別を混合したDNN声紋ベースラインシステムを利用して性別分類器を生成することを説明し、具体的には、以下のよう作動する。
複数の音声断片を含む訓練集合を予め設置し、訓練集合における各音声データのいずれにも、対応する性別情報が予め標識され、例えば、第1音声データが対応する性別は、男性データであり、第2音声データが対応する性別は、女性データである。
訓練集合における各音声データを、性別を混合したDNN声紋ベースラインシステムに入力し、DNN声紋ベースラインシステムを利用して各音声データに対してデータ処理を行い、各音声に対応する第1特徴ベクトルを抽出する。
さらに、各音声断片の第1特徴ベクトル及び予め標識された各音声の性別によって、性別分類器を訓練することにより、性別分類器を訓練することで認識された、入力された声の性別を利用し、入力された声に対して性別タグを分配する。
ステップ103は、前記訓練集合における性別が異なる音声データに基づき、性別が異なるDNNモデルをそれぞれ訓練する。
具体的に、訓練集合における性別が異なる音声データ及び予め設置された深層ニューラルネットワークアルゴリズムによって、性別が異なるDNNモデルをそれぞれ訓練し、即ち、男性DNNモデル及び女性DNNモデルをそれぞれ訓練する。
その中、男性DNNモデルは、男性の音声データを受信し、当該男性音声データに対応する事後確率を出力するためのものであり、女性DNNモデルは、女性の音声データを受信し、当該女性音声データに対応する事後確率を出力するためのものである。
ステップ104は、性別が異なるDNNモデル及び前記訓練集合における性別が異なる音声データに基づき、性別が異なる統一背景モデルと、特徴ベクトル抽出モデルと、確率線形判別分析モデルとをそれぞれ訓練する。
具体的に、性別が異なるDNNモデル及び訓練集合における性別が異なる音声データに基づき、性別が異なる統一背景モデルと、特徴ベクトル抽出モデルと、確率線形判別分析モデルとをそれぞれ訓練する。
その中、各モデルの機能に対する説明は、以下のようである。
統一背景モデルは、DNNモデルに出力された事後確率に対して正規化処理を行うためのものである。
特徴ベクトル抽出モデルは、DNNモデルに出力された事後確率及びユーザに入力された音声データを受信し、且つ予め設置されたアルゴリズムによって音声データの第2特徴ベクトルを抽出するためのものである。
確率線形判別分析モデルは、ユーザに入力された音声データの第2特徴ベクトルと予め記憶された声紋登録テンプレートとの類似度を比較するためのものである。
図3は、男性声紋認証処理モデルの生成概略図であり、図3を参照し、具体的には、男性のDNNモデルを利用し、訓練集合における男性の音声データに対して処理を行い、事後確率を出力し、且つ出力された事後確率に対して正規化処理を行い、男性声紋認証処理モデルにおける統一背景モデルを訓練する。
DNNモデルに出力された事後確率及び男性音声データを取得し、予め設置されたアルゴリズムによって、男性音声データの第2特徴ベクトルを抽出し、男性声紋認証処理モデルにおける特徴ベクトル抽出モデルを訓練する。
男性音声データの第2特徴ベクトルと予め記憶された男性声紋登録テンプレートとの類似度を比較し、男性声紋認証処理モデルにおける確率線形判別分析モデルを訓練する。
図4は、女性声紋認証処理モデルの生成概略図であり、図4を参照し、具体的には、女性のDNNモデルを利用し、訓練集合における女性の音声データに対して処理を行い、事後確率を出力し、かつ出力された事後確率に対して正規化処理を行い、女性声紋認証処理モデルにおける統一背景モデルを訓練する。
DNNモデルに出力された事後確率及び女性音声データを取得し、予め設置されたアルゴリズムによって、女性音声データの第2特徴ベクトルを抽出し、女性声紋認証処理モデルにおける特徴ベクトル抽出モデルを訓練する。
女性音声データの第2特徴ベクトルと予め記憶された女性声紋登録テンプレートとの類似度を比較し、女性声紋認証処理モデルにおける確率線形判別分析モデルを訓練する。
本実施例の声紋認証処理方法は、性別を混合した深層ニューラルネットワークDNN声紋ベースラインシステムを利用し、訓練集合における各音声断片の第1特徴ベクトルを抽出し、前記各音声断片の第1特徴ベクトル及び予め標識された性別によって性別分類器を訓練し、前記訓練集合における性別が異なる音声データに基づき、性別が異なるDNNモデルをそれぞれ訓練し、性別が異なるDNNモデル及び前記訓練集合における性別が異なる音声データに基づき、性別が異なる統一背景モデルと、特徴ベクトル抽出モデルと、確率線形判別分析モデルとをそれぞれ訓練する。これにより、性別を区分する声紋認証処理モデルを構築し、声紋認証の効率及び精度を向上させる。
図5は、本発明のもう一つの実施例の声紋認証処理方法のフローチャートである。
図5を参照し、ステップ104の後、当該声紋認証処理方法は、声紋登録ステップ201〜ステップ206をさらに含む。
ステップ201は、ユーザにより送信されたユーザ識別子を有する声紋登録要求を受信する。
ステップ202は、ユーザにより送信された声紋登録用の複数の音声断片を取得し、第1音声断片の第1特徴ベクトルを抽出し、前記性別分類器を利用して前記第1特徴ベクトルの性別タグを取得する。
具体的に、声紋認証を要求するユーザは、声紋認証処理モデルに声紋を予め登録する必要がある。まず、ユーザは声紋認証処理モデルに、ユーザ識別子を有する声紋登録要求を送信する必要がある。
声紋認証処理モデルは、ユーザにより送信されたユーザ識別子を有する声紋登録要求を受信した後、ユーザに、音声の入力を提示する。ユーザは、声紋認証処理モデルに、声紋登録用の複数の音声断片を送信する。
声紋認証処理モデルは、第1音声断片の第1特徴ベクトルを抽出し、かつ第1特徴ベクトルを予め生成された性別分類器に送信する。性別分類器は、第1特徴ベクトルに対して分析を行い、前記第1特徴ベクトルの性別タグ、即ち第1音声の性別タグを取得する。
ステップ203は、前記性別タグに対応するDNNモデルに基づいて各音声断片の事後確率を取得する。
ステップ204は、前記性別タグに対応する統一背景モデル及び特徴ベクトル抽出モデルに基づいて、各音声断片の第2特徴ベクトルをそれぞれ抽出する。
ステップ205は、前記複数の音声断片に対応する複数の第2特徴ベクトルに基づいて、前記ユーザの声紋登録モデルを取得する。
ステップ206は、前記ユーザ識別子と、前記性別タグと、前記声紋登録モデルとの対応関係を声紋登録データベースに記憶する。
具体的に、性別分類器により返信された、第1音声に対応する性別タグに基づいて、ユーザに入力された複数の音声断片を、対応する性別のDNNモデルに送信する。即ち、第1音声が対応するのは男性音声である場合に、複数の音声断片を男性DNNモデルに送信する。第1音声が対応するのは女性音声である場合に、複数の音声断片を女性DNNモデルに送信する。
性別タグに対応するDNNモデルに基づいて、各音声が対応する複数の事後確率を取得する。
性別タグに対応する統一背景モデルによって、各事後確率に対して正規化処理を行い、予め訓練された特徴ベクトル抽出モデルを利用し、各音声、及び対応する正規化された事後確率によって、各音声断片の第2特徴ベクトルをそれぞれ抽出する。
前記複数の音声断片に対応する複数の第2特徴ベクトルに基づいて、前記ユーザの声紋登録モデルを取得し、取得方法が多くあり、異なる応用要求に応じて選択することができ、例えば、複数の第2特徴ベクトルの平均特徴ベクトルを前記ユーザの声紋登録モデルとして取得する。
さらに、ユーザが登録を要求するユーザ識別子、当該ユーザの性別タグ、及び声紋登録モデルの対応関係を、声紋登録データベースに記録することにより、以後に当該声紋登録モデルによって声紋認識を行うようになる。
本実施例の声紋認証処理方法は、まず、性別分類器を利用してユーザに入力された第1音声の性別タグを取得し、性別タグに対応するDNNモデルに基づいて、各音声断片の事後確率を取得し、前記性別タグに対応する統一背景モデル及び特徴ベクトル抽出モデルに基づいて、各音声断片の第2特徴ベクトルをそれぞれ抽出し、複数の第2特徴ベクトルに基づいて、前記ユーザの声紋登録モデルを取得し、前記ユーザ識別子と、前記性別タグと、及び前記声紋登録モデルとの対応関係を声紋登録データベースに登録する。これにより、性別を区分する声紋登録過程を実現し、これにより、性別を区分する声紋認証処理モデルを利用し、声紋認証の効率及び精度を向上させる。
図6は、本発明のもう一つの実施例の声紋認証処理方法のフローチャートである。
図6を参照し、当該声紋認証処理方法は、ステップ301〜ステップ306を含む。
ステップ301は、ユーザにより送信されたユーザ識別子を有する声紋認識要求を受信する。
ステップ302は、前記声紋登録データベースを照会し、前記ユーザ識別子に対応する性別タグ及び声紋登録モデルを取得する。
具体的に、声紋認識を要求するユーザは、声紋認証処理モデルにユーザ識別子を入力し、かつユーザ識別子を有する声紋認識要求を送信する必要がある。
ユーザにより送信された声紋認識要求に対して解析を行い、ユーザ識別子を取得し、前記声紋登録データベースを照会し、前記ユーザ識別子に対応する性別タグ及び声紋登録モデルを取得し、これにより、当該ユーザの性別タグ及び声紋登録モデルを取得する。
ステップ303は、ユーザにより送信された声紋認識用の音声を取得し、前記性別タグに対応するDNNモデルに基づいて、前記音声の事後確率を取得する。
具体的に、ユーザにより送信された声紋認識用の音声を取得し、当該音声をユーザの性別タグに対応するDNNモデルに送信し、DNNモデルは、当該音声に処理を行い、当該音声の事後確率を取得する。
ステップ304は、前記性別タグに対応する統一背景モデル及び特徴ベクトル抽出モデルを利用し、前記音声の第2特徴ベクトルを抽出する。
具体的に、当該音声の事後確率を、前記性別タグに対応する統一背景モデルに送信する。統一背景モデルは、各事後確率に対して正規化処理を行い、予め訓練された特徴ベクトル抽出モデルを利用し、当該音声、及び対応する正規化された事後確率によって、当該音声の第2特徴ベクトルを抽出する。
ステップ305は、前記性別タグに対応する確率線形判別分析モデルを利用し、前記音声の第2特徴ベクトルと前記声紋登録モデルとの類似度を比較する。
ステップ306は、前記類似度及び予め設置された閾値に基づいて、前記ユーザに声紋認識結果を返信する。
具体的に、当該音声の第2特徴ベクトルを、性別タグに対応する確率線形判別分析モデルに送信し、確率線形判別分析モデルは、当該音声の第2特徴ベクトルと予め記憶された当該ユーザの声紋登録モデルとの類似度を比較する。
前記類似度と予め設置された閾値の大きさとを比較する。
前記類似度が予め設置された閾値以上であると確認された場合、声紋認識が成功されたと返信する。
前記類似度が予め設置された閾値よりも小さいと確認された場合、声紋認識が失敗されたと返信する。
本実施例の声紋認証処理方法は、まず、声紋登録データベースを照会し、ユーザ識別子に対応する性別タグ及び声紋登録モデルを取得し、性別タグに対応する統一背景モデル及び特徴ベクトル抽出モデルを利用し、音声の第2特徴ベクトルを抽出し、確率線形判別分析モデルを応用し、音声の第2特徴ベクトルと声紋登録モデルとの類似度を比較し、前記類似度及び予め設置された閾値に基づいて、前記ユーザに声紋認識結果を返信する。これにより、性別を区分する声紋認証過程を実現し、声紋認証の効率及び精度を向上させる。
上述の実施例を実現するため、本発明は、さらに声紋認証処理装置を提出する。
図7は、本発明の一つの実施例の声紋認証処理装置の構造概略図である。
図7に示すように、当該声紋認証処理装置は、抽出モジュール11と、生成モジュール12と、第1訓練モジュール13と、第2訓練モジュール14と、を含む。
抽出モジュール11は、性別を混合した深層ニューラルネットワークDNN声紋ベースラインシステムを利用し、セットにおける各音声断片の第1特徴ベクトルを抽出するためのものである。
生成モジュール12は、前記各音声断片の第1特徴ベクトル及び予め標識された性別タグに基づいて、性別分類器を訓練するためのものである。
第1訓練モジュール13は、前記訓練集合における性別が異なる音声データに基づき、性別が異なるDNNモデルをそれぞれ訓練するためのものである。
第2訓練モジュール14は、性別が異なるDNNモデル及び前記訓練集合における性別が異なる音声データに基づき、性別が異なる統一背景モデルと、特徴ベクトル抽出モデルと、確率線形判別分析モデルとをそれぞれ訓練するためのものである。
なお、前述声紋認証処理方法実施例に対する説明は、当該実施例の声紋認証処理装置にも利用するので、ここで説明を省略する。
本発明実施例の声紋認証処理装置は、性別を混合した深層ニューラルネットワークDNN声紋ベースラインシステムを利用し、訓練集合における各音声断片の第1特徴ベクトルを抽出し、前記各音声断片の第1特徴ベクトル及び予め標識された性別タグに基づいて、性別分類器を訓練し、前記訓練集合における性別が異なる音声データに基づき、性別が異なるDNNモデルをそれぞれ訓練し、性別が異なるDNNモデル及び前記訓練集合における性別が異なる音声データに基づき、性別が異なる統一背景モデルと、特徴ベクトル抽出モデルと、確率線形判別分析モデルとをそれぞれ訓練する。これにより、性別を区分する声紋認証処理モデルを構築し、声紋認証の効率及び精度を向上させる。
図8は、本発明のもう一つの実施例の声紋認証処理装置の構造概略図であり、図8に示すように、図7に示す実施例に基づき、第1受信モジュール15と、性別標識モジュール16と、第1処理モジュール17と、取得モジュール18と、登録モジュール19と、をさらに含む。
第1受信モジュール15は、ユーザにより送信されたユーザ識別子を有する声紋登録要求を受信するためのものである。
性別標識モジュール16は、ユーザにより送信された声紋登録用の複数の音声断片を取得し、第1音声断片の第1特徴ベクトルを抽出し、前記性別分類器を利用して前記第1特徴ベクトルの性別タグを取得するためのものである。
第1処理モジュール17は、前記性別タグに対応するDNNモデルに基づいて、各音声断片の事後確率を取得し、前記性別タグに対応する統一背景モデル及び特徴ベクトル抽出モデルに基づいて、各音声断片の第2特徴ベクトルをそれぞれ抽出するためのものである。
取得モジュール18は、前記複数の音声断片に対応する複数の第2特徴ベクトルに基づいて、前記ユーザの声紋登録モデルを取得するためのものである。
登録モジュール19は、前記ユーザ識別子と、前記性別タグと、前記声紋登録モデルとの対応関係を声紋登録データベースに登録するためのものである。
一つの実施例において、前記取得モジュール18は、
前記複数の第2特徴ベクトルの平均特徴ベクトルを前記ユーザの声紋登録モデルとして取得するためのものである。
なお、前述声紋認証処理方法実施例に対する説明は、当該実施例の声紋認証処理装置にも利用するので、ここで説明を省略する。
本発明の実施例の声紋認証処理装置は、まず、性別分類器を利用してユーザに入力された第1音声の性別タグを取得し、性別タグに対応するDNNモデルに基づいて、各音声断片の事後確率を取得し、前記性別タグに対応する統一背景モデル及び特徴ベクトル抽出モデルに基づいて、各音声断片の第2特徴ベクトルをそれぞれ抽出し、複数の第2特徴ベクトルに基づいて、前記ユーザの声紋登録モデルを取得し、前記ユーザ識別子と、前記性別タグと、及び前記声紋登録モデルとの対応関係を声紋登録データベースに記録する。これにより、性別を区分する声紋登録過程を実現し、性別を区分する声紋認証処理モデルを利用し、声紋認証の効率及び精度を向上させる。
図9は、本発明のもう一つの実施例の声紋認証処理装置の構造概略図であり、図9に示すように、図8に示す実施例に基づき、第2受信モジュール20と、照会モジュール21と、第2処理モジュール22と、比較モジュール23と、認識モジュール(識別モジュール)24と、をさらに含む。
第2受信モジュール20は、ユーザにより送信されたユーザ識別子を有する声紋認識要求を受信するためのものである。
照会モジュール21は、前記声紋登録データベースを照会し、前記ユーザ識別子に対応する性別タグ及び声紋登録モデルを取得するためのものである。
第2処理モジュール22は、ユーザにより送信された声紋認識用の音声を取得し、前記性別タグに対応するDNNモデルに基づいて、前記音声の事後確率を取得し、前記性別タグに対応する統一背景モデル及び特徴ベクトル抽出モデルを利用し、前記音声の第2特徴ベクトルを抽出するためのものである。
比較モジュール23は、前記性別タグに対応する確率線形判別分析モデルを利用し、前記音声の第2特徴ベクトルと前記声紋登録モデルとの類似度を比較するためのものである。
認識モジュール24は、前記類似度及び予め設置された閾値に基づいて、前記ユーザに声紋認識結果を返信するためのものである。
その中、前記認識モジュール24は、
前記類似度と予め設置された閾値の大きさとを比較し、
前記類似度が予め設置された閾値以上であると確認された場合、声紋認識が成功されたと返信し、
前記類似度が予め設置された閾値よりも小さいと確認された場合、声紋認識が失敗されたと返信する。
なお、前述声紋認証処理方法実施例に対する説明は、当該実施例の声紋認証処理装置にも利用するので、ここで説明を省略する。
本発明の実施例の声紋認証処理装置は、まず、声紋登録データベースを照会し、ユーザ識別子に対応する性別タグ及び声紋登録モデルを取得し、性別タグに対応する統一背景モデル及び特徴ベクトル抽出モデルを利用し、音声の第2特徴ベクトルを抽出し、確率線形判別分析モデルを利用し、音声の第2特徴ベクトルと声紋登録モデルとの類似度を比較し、前記類似度及び予め設置された閾値に基づいて、前記ユーザに声紋認識結果を返信する。これにより、性別を区分する声紋認証過程を実現し、声紋認証の効率及び精度を向上させる。
上述の実施例を実現するため、本発明の第三側面の実施例の記憶媒体は、アプリケーション(アプリケーションプログラム)を記憶するためのものであり、前記アプリケーションは、本発明の第一側面の実施例に記載の声紋認証処理方法を実行するためのものである。
上述の実施例を実現するため、本発明の第四側面の実施例の声紋認証処理設備は、一つ又は複数のプロセッサと、メモリと、一つ又は複数のモジュールとを備え、前記一つ又は複数のモジュールは、前記メモリに記憶(格納)され、前記一つ又は複数のプロセッサにより実行される時、操作S101’と、S102’と、S103’と、S104’とを実行する。
S101’は、性別を混合した深層ニューラルネットワークDNN声紋ベースラインシステムを利用し、訓練集合における各音声断片の第1特徴ベクトルを抽出する。
S102’は、各音声断片の第1特徴ベクトル及び予め標識された性別タグに基づいて、性別分類器を訓練する。
S103’は、訓練集合における性別が異なる音声データに基づき、性別が異なるDNNモデルをそれぞれ訓練する。
S104’は、性別が異なるDNNモデル及び訓練集合における性別が異なる音声データに基づき、性別が異なる統一背景モデルと、特徴ベクトル抽出モデルと、確率線形判別分析モデルとをそれぞれ訓練する。
本発明の説明において、「一つの実施形態」、「一部の実施形態」、「例示的な実施形態」、「示例」、「具体的な示例」、或いは「一部の示例」などの用語を参考した説明とは、該実施形態或いは示例に結合して説明された具体的な特徴、構成、材料或いは特徴が、本発明の少なくとも一つの実施形態或いは示例に含まれることである。本明細書において、上記用語に対する例示的な描写は、必ずしも同じ実施形態或いは示例を示すことではない。又、説明された具体的な特徴、構成、材料或いは特徴は、いずれか一つ或いは複数の実施形態又は示例において適切に結合することができる。
なお、「第1」、「第2」の用語は目的を説明するためだけに用いられるものであり、比較的な重要性を指示又は暗示するか、或いは示された技術的特徴の数を黙示的に指示すると理解してはいけない。そこで、「第1」、「第2」が限定されている特徴は一つ又はより多くの前記特徴を含むことを明示又は暗示するものである。本発明の説明において、明確且つ具体的な限定がない限り、「複数」とは、二つ又は二つ以上のことを意味する。
フローチャートまたは他の方式で説明した過程や方法は、一つまたは複数の、判定ロジック性能または過程のステップの実行できるコマンドのコードのモジュール、セクターあるいは部分を含む。本発明の望ましい実施方式の範囲は、他の実現を含み、表示または説明の順序に従わなくてもよい。述べられた機能に基づいて基本的に同様な方式または逆の順序で、その機能を実行することができる。これは、本発明実施例の所属技術領域の技術者に理解される。
フローチャートの中で示し又は本明細書に他の方法で記載したロジック及び/又はステップは、例えば論理機能を実施するのに使用される実行可能命令のシーケンスリストと見なすことができ、とりわけ使用する命令実行システム、装置、又はデバイス(コンピュータベースのシステム、プロセッサを含むシステム、命令実行システム、装置、又はデバイスから命令を抽出し、その命令を実行することができる他のシステム等)用の任意のコンピュータ可読媒体の中に実装することができ、又はこれらの命令実行システム、装置、若しくはデバイスと組み合わせて使用される。この説明では、「コンピュータ可読媒体」は、使用する命令実行システム、装置、又はデバイス用のプログラムを含む、記憶する、伝える、伝搬する、又は伝送することができる任意の装置、又はこれらの命令実行システム、装置、若しくはデバイスと組み合わせて使用される任意の装置であり得る。コンピュータ可読媒体のより具体的な例(非網羅的一覧)には、1つ又は複数の配線を有する電気接続部(電子装置)、携帯型コンピュータディスクボックス(磁気装置)、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去及びプログラム可能読み取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバ装置、及び携帯型CD読み取り専用メモリ(CDROM)が含まれる。
また、本発明の各部分は、ハードウェア、ソフトウェア、部品またはそれらの組み合わせで実現できる。前記実施例には、複数のステップまたは方法がメモリに保存され、適当なコマンド実行システムのソフトウェアまたは部品で実現される。たとえば、ハードウェアで実現する場合、他の実施方式と同じように、本技術分野で周知の下記の任意の一つまたはそれらの組み合わせで実現できる。すなわち、デジタル信号に対してロジック機能を実現するロジックゲート回路を有する個別のロジック回路、ロジックゲート回路を組み合わせた適当な専用IC、プログラマブルゲートアレイ(Programmable Gate Array、以下、PGAと略す)、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array、以下、FPGAと略す)などである。
前記実施例の方法にある全部または一部のステップがプログラムにより関連のハードウェアを実行することで完成されることは、当業者に理解される。前記プログラムは一つの計算機の読み出し書き込み可能な記憶メディアに記憶される。当プログラムを実行するとき、実施例に記載した方法のステップの一つまたはそれらの組み合わせを含む。
なお、本発明の各実施例の各機能モジュールを一つの処理モジュールに集中し、または、単独に存在し、あるいは、二つまたは二つ以上のモジュールを一つの処理モジュールに集中することができる。前記集成したモジュールは、ハードウェアの形式、または、ソフトウェアの形式で実現される。前記集成したモジュールは、ソフトウェアの形式で実現し、また、独立の製品として販売や使用するとき、計算機の読み出し書き込み可能な記憶メディアに記憶されることができる。
以上本発明の実施形態を示して説明したが、上記の実施形態は例示的なものであり、本発明を制限するように解釈すべきではないことは当業者にとって理解できることである。本発明の原理と要旨から逸脱しない範囲で、これらの実施形態に対し様々な変更、修正、置換および変形をすることができる。

Claims (12)

  1. 性別を混合した深層ニューラルネットワークDNN声紋のベースラインシステムを利用して、訓練集合における各音声断片を前記ベースラインシステムに入力して取得された第1特徴ベクトルを抽出するステップと、
    前記各音声断片の第1特徴ベクトル及び予め標識された性別タグに基づいて、性別分類器を訓練するステップと、
    前記訓練集合における性別が異なる音声データに基づいて、男性DNNモデルと女性DNNモデルをそれぞれ訓練するステップと、
    男性DNNモデルと女性DNNモデル、及び前記訓練集合における性別が異なる音声データに基づいて、性別が異なる統一背景モデルと、特徴ベクトル抽出モデルと、確率線形判別分析モデルとをそれぞれ訓練するステップと、を含む、
    ことを特徴とする声紋認証処理方法。
  2. ユーザにより送信されたユーザ識別子を有する声紋登録要求を受信するステップと、
    ユーザにより送信された声紋登録用の複数の音声断片を取得し、第1音声断片の第1特徴ベクトルを抽出し、前記性別分類器を利用して前記第1特徴ベクトルの性別タグを取得するステップと、
    前記性別タグに対応する男性DNNモデルと女性DNNモデルとにおけるDNNモデルに基づいて、各音声断片の事後確率を取得するステップと、
    前記性別タグに対応する統一背景モデル及び特徴ベクトル抽出モデルに基づいて、各音声第2特徴ベクトルをそれぞれ抽出するステップと、
    前記複数の音声に対応する複数の第2特徴ベクトルに基づいて、前記ユーザの声紋登録モデルを取得するステップと、
    前記ユーザ識別子と、前記性別タグと、前記声紋登録モデルとの対応関係を声紋登録データベースに記憶するステップと、をさらに含む、
    ことを特徴とする請求項1に記載の方法。
  3. 前記複数の音声に対応する複数の第2特徴ベクトルに基づいて、前記ユーザの声紋登録モデルを取得するステップは、
    前記複数の第2特徴ベクトルの平均特徴ベクトルを、前記ユーザの声紋登録モデルとして取得するステップを含む、
    ことを特徴とする請求項2に記載の方法。
  4. ユーザにより送信されたユーザ識別子を有する声紋認識要求を受信するステップと、
    前記声紋登録データベースを照会し、前記ユーザ識別子に対応する性別タグ及び声紋登録モデルを取得するステップと、
    ユーザにより送信された声紋認識用の音声を取得し、前記性別タグに対応する男性DNNモデルと女性DNNモデルとにおけるDNNモデルに基づいて、前記音声の事後確率を取得するステップと、
    前記性別タグに対応する統一背景モデル及び特徴ベクトル抽出モデルを利用し、前記音声の第2特徴ベクトルを抽出するステップと、
    前記性別タグに対応する確率線形判別分析モデルを利用して、前記音声の第2特徴ベクトルと前記声紋登録モデルとの類似度を比較するステップと、
    前記類似度及び予め設置された閾値に基づいて、前記ユーザに声紋認識結果を返信するステップと、をさらに含む、
    ことを特徴とする請求項2または3に記載の方法。
  5. 前記類似度及び予め設置された閾値に基づいて、前記ユーザに声紋認識結果を返信するステップは、
    前記類似度と予め設置された閾値の大きさとを比較するステップと、
    前記類似度が予め設置された閾値以上であると確認された場合、声紋認識が成功されたと返信するステップと、
    前記類似度が予め設置された閾値よりも小さいと確認された場合、声紋認識が失敗されたと返信するステップとを、含む、
    ことを特徴とする請求項4に記載の方法。
  6. 性別を混合した深層ニューラルネットワークDNN声紋のベースラインシステムを利用することにより、訓練集合における各音声断片を前記ベースラインシステムに入力して取得された第1特徴ベクトルを抽出する抽出モジュールと、
    前記各音声断片の第1特徴ベクトル及び予め標識された性別タグに基づいて、性別分類器を訓練する生成モジュールと、
    前記訓練集合における性別が異なる音声データに基づいて、男性DNNモデルと女性DNNモデルをそれぞれ訓練する第1訓練モジュールと、
    男性DNNモデルと女性DNNモデル、及び前記訓練集合における性別が異なる音声データに基づいて、性別が異なる統一背景モデルと、特徴ベクトル抽出モデルと、確率線形判別分析モデルとをそれぞれ訓練する第2訓練モジュールと、を含む、
    ことを特徴とする声紋認証処理装置。
  7. ユーザにより送信されたユーザ識別子を有する声紋登録要求を受信する第1受信モジュールと、
    ユーザにより送信された声紋登録用の複数の音声断片を取得し、第1音声断片の第1特徴ベクトルを抽出し、前記性別分類器を利用して前記第1特徴ベクトルの性別タグを取得する性別標識モジュールと、
    前記性別タグに対応する男性DNNモデルと女性DNNモデルとにおけるDNNモデルに基づいて、各音声断片の事後確率を取得し、前記性別タグに対応する統一背景モデル及び特徴ベクトル抽出モデルに基づいて、各音声の第2特徴ベクトルをそれぞれ抽出する第1処理モジュールと、
    前記複数の音声に対応する複数の第2特徴ベクトルに基づいて、前記ユーザの声紋登録モデルを取得する取得モジュールと、
    前記ユーザ識別子と、前記性別タグと、前記声紋登録モデルとの対応関係を声紋登録データベースに登録する登録モジュールと、
    を更に含む、
    ことを特徴とする請求項6に記載の装置。
  8. 前記取得モジュールは、
    前記複数の第2特徴ベクトルの平均特徴ベクトルを前記ユーザの声紋登録モデルとして取得する、
    ことを特徴とする請求項7に記載の装置。
  9. ユーザにより送信されたユーザ識別子を有する声紋認識要求を受信する第2受信モジュールと、
    前記声紋登録データベースを照会し、前記ユーザ識別子に対応する性別タグ及び声紋登録モデルを取得する照会モジュールと、
    ユーザにより送信された声紋認識用の音声を取得し、前記性別タグに対応する男性DNNモデルと女性DNNモデルとにおけるDNNモデルに基づいて、前記音声の事後確率を取得し、前記性別タグに対応する統一背景モデル及び特徴ベクトル抽出モデルを利用して、前記音声の第2特徴ベクトルを抽出する第2処理モジュールと、
    前記性別タグに対応する確率線形判別分析モデルを利用して、前記音声の第2特徴ベクトルと前記声紋登録モデルとの類似度を比較する比較モジュールと、
    前記類似度及び予め設置された閾値に基づいて、前記ユーザに声紋認識結果を返信する認識モジュールと、
    をさらに含む、
    ことを特徴とする請求項7または8に記載の装置。
  10. 前記認識モジュールは、
    前記類似度と予め設置された閾値の大きさとを比較し、
    前記類似度が予め設置された閾値以上であると確認できた場合、声紋認識が成功されたと返信し、
    前記類似度が予め設置された閾値よりも小さいと確認できた場合、声紋認識が失敗されたと返信する、
    ことを特徴とする請求項9に記載の装置。
  11. アプリケーションプログラムを記憶するための記憶媒体であって、
    前記アプリケーションプログラムは、請求項1ないし5のいずれかに記載の声紋認証処理方法を実行するためのものである、
    ことを特徴とする記憶媒体。
  12. 一つ又は複数のプロセッサと、
    メモリと、
    前記メモリに格納される一つ又は複数のモジュールと、を含み、
    前記一つ又は複数のモジュールが前記一つ又は複数のプロセッサにより実行される場合、
    性別を混合した深層ニューラルネットワークDNN声紋ベースラインシステムを利用して、訓練集合における各音声断片を前記ベースラインシステムに入力して取得された第1特徴ベクトルを抽出するステップと、
    前記各音声断片の第1特徴ベクトル及び予め標識された性別タグに基づいて、性別分類器を訓練するステップと、
    前記訓練集合における性別が異なる音声データに基づいて、男性DNNモデルと女性DNNモデルをそれぞれ訓練するステップと、
    男性DNNモデルと女性DNNモデル、及び前記訓練集合における性別が異なる音声データに基づいて、性別が異なる統一背景モデルと、特徴ベクトル抽出モデルと、確率線形判別分析モデルとをそれぞれ訓練するステップと、
    を実行する、
    ことを特徴とする声紋認証処理設備。
JP2017519504A 2015-12-30 2016-07-04 声紋認証処理方法及び装置 Active JP6682523B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201511024873.7A CN105513597B (zh) 2015-12-30 2015-12-30 声纹认证处理方法及装置
CN201511024873.7 2015-12-30
PCT/CN2016/088435 WO2017113680A1 (zh) 2015-12-30 2016-07-04 声纹认证处理方法及装置

Publications (2)

Publication Number Publication Date
JP2018508799A JP2018508799A (ja) 2018-03-29
JP6682523B2 true JP6682523B2 (ja) 2020-04-15

Family

ID=55721524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017519504A Active JP6682523B2 (ja) 2015-12-30 2016-07-04 声紋認証処理方法及び装置

Country Status (6)

Country Link
US (1) US10685658B2 (ja)
EP (1) EP3296991B1 (ja)
JP (1) JP6682523B2 (ja)
KR (1) KR101870093B1 (ja)
CN (1) CN105513597B (ja)
WO (1) WO2017113680A1 (ja)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9875743B2 (en) * 2015-01-26 2018-01-23 Verint Systems Ltd. Acoustic signature building for a speaker from multiple sessions
CN105513597B (zh) * 2015-12-30 2018-07-10 百度在线网络技术(北京)有限公司 声纹认证处理方法及装置
CN107346568B (zh) * 2016-05-05 2020-04-17 阿里巴巴集团控股有限公司 一种门禁系统的认证方法和装置
JP6828741B2 (ja) * 2016-05-16 2021-02-10 ソニー株式会社 情報処理装置
CN106297807B (zh) 2016-08-05 2019-03-01 腾讯科技(深圳)有限公司 训练声纹识别系统的方法和装置
CN106710599A (zh) * 2016-12-02 2017-05-24 深圳撒哈拉数据科技有限公司 一种基于深度神经网络的特定声源检测方法与系统
CN106710604A (zh) * 2016-12-07 2017-05-24 天津大学 提高语音可懂度的共振峰增强装置和方法
CN107610707B (zh) * 2016-12-15 2018-08-31 平安科技(深圳)有限公司 一种声纹识别方法及装置
CN108288470B (zh) 2017-01-10 2021-12-21 富士通株式会社 基于声纹的身份验证方法和装置
CN108573698B (zh) * 2017-03-09 2021-06-08 中国科学院声学研究所 一种基于性别融合信息的语音降噪方法
GB2580856A (en) * 2017-06-13 2020-08-05 Beijing Didi Infinity Technology & Dev Co Ltd International Patent Application For Method, apparatus and system for speaker verification
CN107610709B (zh) * 2017-08-01 2021-03-19 百度在线网络技术(北京)有限公司 一种训练声纹识别模型的方法及系统
CN107623614B (zh) * 2017-09-19 2020-12-08 百度在线网络技术(北京)有限公司 用于推送信息的方法和装置
CN109545227B (zh) * 2018-04-28 2023-05-09 华中师范大学 基于深度自编码网络的说话人性别自动识别方法及系统
CN108806696B (zh) * 2018-05-08 2020-06-05 平安科技(深圳)有限公司 建立声纹模型的方法、装置、计算机设备和存储介质
CN108694954A (zh) * 2018-06-13 2018-10-23 广州势必可赢网络科技有限公司 一种性别年龄识别方法、装置、设备及可读存储介质
CN109036436A (zh) * 2018-09-18 2018-12-18 广州势必可赢网络科技有限公司 一种声纹数据库建立方法、声纹识别方法、装置及系统
JP7326033B2 (ja) * 2018-10-05 2023-08-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 話者認識装置、話者認識方法、及び、プログラム
CN109473105A (zh) * 2018-10-26 2019-03-15 平安科技(深圳)有限公司 与文本无关的声纹验证方法、装置和计算机设备
CN109378007B (zh) * 2018-12-28 2022-09-13 浙江百应科技有限公司 一种基于智能语音对话实现性别识别的方法
CN109378006B (zh) * 2018-12-28 2022-09-16 三星电子(中国)研发中心 一种跨设备声纹识别方法及系统
US11031017B2 (en) * 2019-01-08 2021-06-08 Google Llc Fully supervised speaker diarization
CN111462760B (zh) * 2019-01-21 2023-09-26 阿里巴巴集团控股有限公司 声纹识别系统、方法、装置及电子设备
CN109637547B (zh) * 2019-01-29 2020-11-03 北京猎户星空科技有限公司 音频数据标注方法、装置、电子设备及存储介质
US11289098B2 (en) 2019-03-08 2022-03-29 Samsung Electronics Co., Ltd. Method and apparatus with speaker recognition registration
CN109994116B (zh) * 2019-03-11 2021-01-19 南京邮电大学 一种基于会议场景小样本条件下的声纹准确识别方法
CN109920435B (zh) * 2019-04-09 2021-04-06 厦门快商通信息咨询有限公司 一种声纹识别方法及声纹识别装置
WO2020240682A1 (ja) * 2019-05-28 2020-12-03 日本電気株式会社 信号抽出システム、信号抽出学習方法および信号抽出学習プログラム
CN110136726A (zh) * 2019-06-20 2019-08-16 厦门市美亚柏科信息股份有限公司 一种语音性别的估计方法、装置、系统及存储介质
CN110660484B (zh) * 2019-08-01 2022-08-23 平安科技(深圳)有限公司 骨龄预测方法、装置、介质及电子设备
CN110517698B (zh) * 2019-09-05 2022-02-01 科大讯飞股份有限公司 一种声纹模型的确定方法、装置、设备及存储介质
CN110956966B (zh) * 2019-11-01 2023-09-19 平安科技(深圳)有限公司 声纹认证方法、装置、介质及电子设备
CN110660399A (zh) * 2019-11-11 2020-01-07 广州国音智能科技有限公司 声纹识别的训练方法、装置、终端及计算机存储介质
CN111009262A (zh) * 2019-12-24 2020-04-14 携程计算机技术(上海)有限公司 语音性别识别的方法及系统
CN111147484B (zh) * 2019-12-25 2022-06-14 秒针信息技术有限公司 账号登录方法和装置
CN110797032B (zh) * 2020-01-06 2020-05-12 深圳中创华安科技有限公司 一种声纹数据库建立方法及声纹识别方法
CN111179942B (zh) * 2020-01-06 2022-11-08 泰康保险集团股份有限公司 声纹识别方法、装置、设备及计算机可读存储介质
CN111241512B (zh) * 2020-01-09 2022-06-17 珠海格力电器股份有限公司 留言信息播报方法、装置、电子设备及存储介质
CN111243607A (zh) * 2020-03-26 2020-06-05 北京字节跳动网络技术有限公司 用于生成说话人信息的方法、装置、电子设备和介质
JP7473910B2 (ja) 2020-03-27 2024-04-24 株式会社フュートレック 話者認識装置、話者認識方法およびプログラム
WO2021192719A1 (ja) * 2020-03-27 2021-09-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 話者識別方法、話者識別装置、話者識別プログラム、性別識別モデル生成方法及び話者識別モデル生成方法
CN111489756B (zh) * 2020-03-31 2024-03-01 中国工商银行股份有限公司 一种声纹识别方法及装置
CN111583935A (zh) * 2020-04-02 2020-08-25 深圳壹账通智能科技有限公司 贷款智能进件方法、装置及存储介质
CN111933147B (zh) * 2020-06-22 2023-02-14 厦门快商通科技股份有限公司 声纹识别方法、系统、移动终端及存储介质
US11522994B2 (en) 2020-11-23 2022-12-06 Bank Of America Corporation Voice analysis platform for voiceprint tracking and anomaly detection
CN112637428A (zh) * 2020-12-29 2021-04-09 平安科技(深圳)有限公司 无效通话判断方法、装置、计算机设备及存储介质
US20220215834A1 (en) * 2021-01-01 2022-07-07 Jio Platforms Limited System and method for speech to text conversion
US11996087B2 (en) 2021-04-30 2024-05-28 Comcast Cable Communications, Llc Method and apparatus for intelligent voice recognition
CN114141255A (zh) * 2021-11-24 2022-03-04 中国电信股份有限公司 声纹识别模型的训练方法及装置、声纹识别方法及装置
KR102478076B1 (ko) * 2022-06-13 2022-12-15 주식회사 액션파워 음성 인식 오류 검출을 위해 학습 데이터를 생성하기 위한 방법
JP7335651B1 (ja) * 2022-08-05 2023-08-30 株式会社Interior Haraguchi 顔認証決済システムおよび顔認証決済方法
CN117351484A (zh) * 2023-10-12 2024-01-05 深圳市前海高新国际医疗管理有限公司 基于ai的肿瘤干细胞特征提取及分类系统
CN117470976B (zh) * 2023-12-28 2024-03-26 烟台宇控软件有限公司 一种基于声纹特征的输电线路缺陷检测方法及系统

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7006605B1 (en) * 1996-06-28 2006-02-28 Ochopee Big Cypress Llc Authenticating a caller before providing the caller with access to one or more secured resources
US5897616A (en) * 1997-06-11 1999-04-27 International Business Machines Corporation Apparatus and methods for speaker verification/identification/classification employing non-acoustic and/or acoustic models and databases
US6665644B1 (en) * 1999-08-10 2003-12-16 International Business Machines Corporation Conversational data mining
US20030110038A1 (en) * 2001-10-16 2003-06-12 Rajeev Sharma Multi-modal gender classification using support vector machines (SVMs)
US7266497B2 (en) * 2002-03-29 2007-09-04 At&T Corp. Automatic segmentation in speech synthesis
US7620547B2 (en) * 2002-07-25 2009-11-17 Sony Deutschland Gmbh Spoken man-machine interface with speaker identification
US7404087B2 (en) * 2003-12-15 2008-07-22 Rsa Security Inc. System and method for providing improved claimant authentication
US7231019B2 (en) * 2004-02-12 2007-06-12 Microsoft Corporation Automatic identification of telephone callers based on voice characteristics
US20070299671A1 (en) * 2004-03-31 2007-12-27 Ruchika Kapur Method and apparatus for analysing sound- converting sound into information
CN101136199B (zh) * 2006-08-30 2011-09-07 纽昂斯通讯公司 语音数据处理方法和设备
KR100864828B1 (ko) * 2006-12-06 2008-10-23 한국전자통신연구원 화자의 음성 특징 정보를 이용한 화자 정보 획득 시스템 및그 방법
US7949526B2 (en) * 2007-06-04 2011-05-24 Microsoft Corporation Voice aware demographic personalization
JP2009109712A (ja) * 2007-10-30 2009-05-21 National Institute Of Information & Communication Technology オンライン話者逐次区別システム及びそのコンピュータプログラム
US8433669B2 (en) * 2007-11-14 2013-04-30 International Business Machines Corporation Configuring individual classifiers with multiple operating points for cascaded classifier topologies under resource constraints
US10366336B2 (en) * 2009-09-02 2019-07-30 Sri International Method and apparatus for exploiting human feedback in an intelligent automated assistant
JP5214679B2 (ja) * 2010-08-30 2013-06-19 株式会社東芝 学習装置、方法及びプログラム
US8559682B2 (en) * 2010-11-09 2013-10-15 Microsoft Corporation Building a person profile database
US8515750B1 (en) * 2012-06-05 2013-08-20 Google Inc. Realtime acoustic adaptation using stability measures
US9502038B2 (en) * 2013-01-28 2016-11-22 Tencent Technology (Shenzhen) Company Limited Method and device for voiceprint recognition
CN103971690A (zh) * 2013-01-28 2014-08-06 腾讯科技(深圳)有限公司 一种声纹识别方法和装置
US9336781B2 (en) * 2013-10-17 2016-05-10 Sri International Content-aware speaker recognition
US9514753B2 (en) * 2013-11-04 2016-12-06 Google Inc. Speaker identification using hash-based indexing
US9858919B2 (en) * 2013-11-27 2018-01-02 International Business Machines Corporation Speaker adaptation of neural network acoustic models using I-vectors
US20150154002A1 (en) * 2013-12-04 2015-06-04 Google Inc. User interface customization based on speaker characteristics
US9542948B2 (en) * 2014-04-09 2017-01-10 Google Inc. Text-dependent speaker identification
US9564123B1 (en) * 2014-05-12 2017-02-07 Soundhound, Inc. Method and system for building an integrated user profile
US9792899B2 (en) * 2014-07-15 2017-10-17 International Business Machines Corporation Dataset shift compensation in machine learning
US9373330B2 (en) * 2014-08-07 2016-06-21 Nuance Communications, Inc. Fast speaker recognition scoring using I-vector posteriors and probabilistic linear discriminant analysis
US10476872B2 (en) * 2015-02-20 2019-11-12 Sri International Joint speaker authentication and key phrase identification
US11823658B2 (en) * 2015-02-20 2023-11-21 Sri International Trial-based calibration for audio-based identification, recognition, and detection system
US10146923B2 (en) * 2015-03-20 2018-12-04 Aplcomp Oy Audiovisual associative authentication method, related system and device
US9666183B2 (en) * 2015-03-27 2017-05-30 Qualcomm Incorporated Deep neural net based filter prediction for audio event classification and extraction
US9721559B2 (en) * 2015-04-17 2017-08-01 International Business Machines Corporation Data augmentation method based on stochastic feature mapping for automatic speech recognition
CN105513597B (zh) * 2015-12-30 2018-07-10 百度在线网络技术(北京)有限公司 声纹认证处理方法及装置

Also Published As

Publication number Publication date
EP3296991B1 (en) 2019-11-13
EP3296991A4 (en) 2018-07-25
CN105513597A (zh) 2016-04-20
US10685658B2 (en) 2020-06-16
EP3296991A1 (en) 2018-03-21
KR101870093B1 (ko) 2018-06-21
JP2018508799A (ja) 2018-03-29
US20180293990A1 (en) 2018-10-11
CN105513597B (zh) 2018-07-10
WO2017113680A1 (zh) 2017-07-06

Similar Documents

Publication Publication Date Title
JP6682523B2 (ja) 声紋認証処理方法及び装置
US11403345B2 (en) Method and system for processing unclear intent query in conversation system
JP6567040B2 (ja) 人工知能に基づく声紋ログイン方法と装置
US11100934B2 (en) Method and apparatus for voiceprint creation and registration
US10699716B2 (en) Artificial intelligence-based method and device for voiceprint authentication
JP6637848B2 (ja) 音声認識装置及び方法と電子装置
JP6771805B2 (ja) 音声認識方法、電子機器、及びコンピュータ記憶媒体
WO2021232594A1 (zh) 语音情绪识别方法、装置、电子设备及存储介质
Dobrišek et al. Towards efficient multi-modal emotion recognition
CN107452384B (zh) 针对用于说话人验证的非介入性训练的装置、媒体及方法
Dileep et al. GMM-based intermediate matching kernel for classification of varying length patterns of long duration speech using support vector machines
US10510342B2 (en) Voice recognition server and control method thereof
CN108417205A (zh) 语义理解训练方法和系统
WO2020186712A1 (zh) 一种语音识别方法、装置及终端
CN105378830A (zh) 音频数据的处理
WO2021174760A1 (zh) 声纹数据生成方法、装置、计算机装置及存储介质
JP7343566B2 (ja) 言語モデルを利用したデータ生成方法、コンピュータ装置、およびコンピュータプログラム
US11664015B2 (en) Method for searching for contents having same voice as voice of target speaker, and apparatus for executing same
CN113408278A (zh) 意图识别方法、装置、设备及存储介质
JP2021081713A (ja) 音声信号を処理するための方法、装置、機器、および媒体
CN113627186B (zh) 基于人工智能的实体关系检测方法及相关设备
KR20200082240A (ko) 호칭 결정 장치, 이를 포함하는 대화 서비스 제공 시스템, 호칭 결정을 위한 단말 장치 및 호칭 결정 방법
Xu et al. Affective audio annotation of public speeches with convolutional clustering neural network
JP6220733B2 (ja) 音声分類装置、音声分類方法、プログラム
John et al. Audio-Visual Sensor Fusion Framework using Person Attributes Robust to Missing Visual Modality for Person Recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190507

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191226

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200325

R150 Certificate of patent or registration of utility model

Ref document number: 6682523

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250