JP2001060098A - 同時的な音声認識、スピーカ・セグメンテーション及びスピーカ分類のための方法及び装置 - Google Patents

同時的な音声認識、スピーカ・セグメンテーション及びスピーカ分類のための方法及び装置

Info

Publication number
JP2001060098A
JP2001060098A JP2000188625A JP2000188625A JP2001060098A JP 2001060098 A JP2001060098 A JP 2001060098A JP 2000188625 A JP2000188625 A JP 2000188625A JP 2000188625 A JP2000188625 A JP 2000188625A JP 2001060098 A JP2001060098 A JP 2001060098A
Authority
JP
Japan
Prior art keywords
speaker
audio
segment
assigning
audio information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000188625A
Other languages
English (en)
Other versions
JP4132590B2 (ja
Inventor
Sadaru Mohammad Beigi Hameion
ハメイオン・サダル・モハマド・ベイギ
Alain Charles Louis Tritschler
アラン・シャルル・ルイ・トレザー
Mahesh Viswanathan
マハシュ・ヴィズワナザン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US09/345,237 external-priority patent/US6421645B1/en
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2001060098A publication Critical patent/JP2001060098A/ja
Application granted granted Critical
Publication of JP4132590B2 publication Critical patent/JP4132590B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 (修正有) 【課題】オーディオ/ビデオ・ソースからオーディオ情
報を自動的に転写し、同時にスピーカを識別する方法及
び装置。 【解決手段】オーディオ転写及びスピーカ分類システム
は音声認識システム、スピーカ・セグメンテーション・
システム及びスピーカ識別システムを含む。音声認識シ
ステムは、各ワードに対してタイム・アライメントを伴
う転写物を作成する。スピーカ・セグメンテーション・
システムはスピーカを個別化し、非同種の音声部分相互
間にセグメント境界が存在する可能性のあるすべてのフ
レームを識別する。スピーカ識別システムは、各識別さ
れたセグメントにスピーカを割当てるため、登録済みの
スピーカ・データベースを使用する。オーディオ/ビデ
オ・ソースからのオーディオ情報は、セグメント境界を
識別するため同時に転写及びセグメント化された後、ス
ピーカ識別システムは識別されたテキストの各部分にス
ピーカ・ラベルを割当てる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、概して云えば、オ
ーディオ情報分類システムに関し、詳しく云えば、オー
ディオ情報を転写(transcribe)し、オーデ
ィオ・ファイルにおけるスピーカ(発声者)を識別する
ための方法及び装置に関するものである。
【0002】
【従来の技術】放送ニュース機構及び情報検索サービス
のような多くの機構は、記憶及び検索のために大量のオ
ーディオ情報を処理しなければならない。オーディオ情
報は、主題又はスピーカの名前、或いはそれらの両方に
よって分類されなければならないことが多い。主題によ
ってオーディオ情報を分類するためには、先ず、音声認
識システムが、自動分類又はインデキシングのために、
オーディオ情報をテキストの形に転写する。しかる後、
照会/ドキュメント・マッチングを行って関連ドキュメ
ントをユーザに戻すためにインデックスが使用可能であ
る。
【0003】従って、主題によってオーディオ情報を分
類するというプロセスは本質的には完全に自動化された
ものになっている。しかし、スピーカによってオーディ
オ情報を分類するというプロセスは、特に、放送ニュー
スのようなリアルタイムの応用に対しては、大きな労力
を要する仕事を残すことが多い。スピーカ登録情報を使
用してオーディオ・ソースからスピーカを自動的に識別
するための数多くの計算主体のオフライン・テクニック
が提案されているけれども、スピーカ分類プロセスはヒ
ューマン・オペレータによって最も頻繁に行われ、ヒュ
ーマン・オペレータは各スピーカの変更を識別し、対応
するスピーカの識別を行う。
【0004】本発明の親出願(1999年4月9日出願
の米国特許出願番号09/288,724号)は、オーデ
ィオ・コンテント(主題)及びスピーカのアイデンティ
ティに基づいてオーディオ情報を検索するための方法及
び装置を開示している。タイム・スタンプされたコンテ
ント・インデックス・ファイル及びスピーカ・インデッ
クス・ファイルを作成するために、インデキシング・シ
ステムがオーディオ情報を転写し、そしてインデックス
する。しかる後、その生成されたコンテント及びスピー
カ・インデックスは、オーディオ・コンテント及びスピ
ーカ・アイデンティティに基づいて照会/ドキュメント
・マッチングを行うために利用可能である。オーディオ
・ソースからオーディオ情報を自動的に転写し、同時に
スピーカをリアルタイムで識別する方法及び装置に対す
る要求が存在する。ベイズ情報基準(Baysian Informat
ion Criterion−BIC)に基づいてスピーカ・セグメ
ンテーション及びクラスタリングの改良を提供する方法
及び装置に対する更なる要求も存在する。
【0005】
【発明が解決しようとする課題】従って、本発明の目的
は、オーディオ/ビデオ・ソースからのオーディオ情報
を自動的に転写し、同時にスピーカを識別するための方
法及び装置を開示することにある。
【0006】
【課題を解決するための手段】開示されたオーディオ転
写及びスピーカ分類システムは、音声認識システム、ス
ピーカ・セグメンテーション・システム、及びスピーカ
識別システムを含む。本発明の1つの局面によれば、オ
ーディオ情報は、マルチスレッド環境における並列ブラ
ンチに沿って音声認識システム、スピーカ・セグメンテ
ーション・システム、及びスピーカ識別システムによっ
て処理される。
【0007】音声認識システムは、転写物を、その転写
物内の各ワードに対するタイム・アライメントを伴って
作成する。スピーカ・セグメンテーション・システムは
スピーカを個別化し、非同種の音声部分相互間にセグメ
ント境界が存在するすべての可能なフレームを識別す
る。しかる後、スピーカ識別システムは、登録されたス
ピーカ・データベースを使用して、各識別されたセグメ
ントにスピーカを割り当てる。
【0008】本発明は、マルチスレッド環境における並
列ブランチに沿って音声認識システム、スピーカ・セグ
メンテーション・システム、及びスピーカ識別システム
によって処理されるフィーチャ・ベクトルを計算するた
めに共通のフロント・エンド処理を利用する。一般に、
フィーチャ・ベクトルは、例えば、計算されたフィーチ
ャ・ベクトルを各チャネル(各処理スレッドに対応す
る)に分配するするためにサーバのような態様で作用す
る共用メモリ・アーキテクチャを使用して、3つの多重
処理スレッドに分配可能である。
【0009】本発明のもう1つの局面によれば、オーデ
ィオ/ビデオ・ソースからのオーディオ情報が同時に転
写され及びセグメント境界を識別するためにセグメント
化される。一旦音声セグメントがセグメンテーション・
システムによって識別されると、スピーカ識別システム
がその転写されたテキストの各部分にスピーカ・ラベル
を割り当てる。
【0010】本願で開示されるセグメンテーション・プ
ロセスは、オーディオ・データを通るパス上に、しか
も、転写エンジンと同じパス上にあるセグメント境界で
あってスピーカ変更に対応するセグメント境界が存在す
るすべての可能なフレームを識別する。フレームは所定
の期間にわたって音声特性を表す。セグメンテーション
・プロセスは、2つのモデルを比較するモデル選択基準
を使用して、所定のフレームにセグメント境界が存在す
るかどうかを決定する。第1モデルは、単一の全共分散
ガウス分布(full−covariance Gau
ssian)を使用するサンプル(x1,....,xn)のウ
インドウ内にセグメント境界が存在しないものと仮定す
る。第2モデルは、第1ガウス分布から得られた
(x1,....,xi)及び第2ガウス分布から得られた(x
i+1,....,xn)を持った2つの全共分散ガウス分布を使
用するサンプル(x1,....,xn)のウインドウ内にセグ
メント境界が存在するものと仮定する。
【0011】本願で開示されるスピーカ識別システム
は、登録されたスピーカ・データベースを使用して各識
別されたセグメントにスピーカ・ラベルを割り当てる。
スピーカ識別プロセスはセグメンテーション・プロセス
によって識別されたターンを、共用のフロント・エンド
によって生成されたフィーチャ・ベクトルと共に受け取
る。一般に、スピーカ識別システムは登録されたスピー
カ・データベースにセグメント発声音(utteran
ce)を比較し、「最も近似した」スピーカを見つけ
る。そのスピーカ識別システムのためのモデル・ベース
方式及びフレーム・ベース方式が開示される。
【0012】本発明の結果は、例えば、転写されたテキ
ストを、割り当てられたスピーカ・ラベルと共に各セグ
メントに供給するユーザに直接に出力可能である。更
に、本発明の結果は1つ又は複数のデータベースに記録
可能であり、オーディオ・コンテント及びスピーカのア
イデンティティに基づいてオーディ情報に(及び間接的
にはビデオに)参照を行うためにコンテント及びスピー
カ・サーチ方法の結果を結合するという前記親出願にお
いて開示されたオーディオ検索システムのようなオーデ
ィオ検索システムによって利用可能である。
【0013】以下の詳細な説明及び図面を参照すること
によって、本発明の更に完全な理解及び本発明の更なる
特徴及び利点の理解が得られるであろう。
【0014】
【発明の実施の形態】図1は、オーディオ/ビデオ・ソ
ースからのオーディオ情報を自動的に転写し、同時にス
ピーカを識別するという本発明によるオーディオ転写及
びスピーカ分類システム100を示す。オーディオ/ビ
デオ・ソース・ファイルは、例えば、オーディオ・レコ
ーディングであってもよく、或いは、例えば、放送のニ
ュース・プログラムからの生番組であってもよい。オー
ディオ/ビデオ・ソースは、先ず、転写され、同時に、
スピーカの変更を表すセグメント境界が存在するすべて
の可能なフレームを識別するように処理される。
【0015】オーディオ転写及びスピーカ分類システム
100は、音声認識システム、スピーカ・セグメンテー
ション・システム及びスピーカ識別システムを含む。音
声認識システムは、転写物を、その転写物における各ワ
ードに対するタイム・アライメントを伴って作成する。
スピーカ・セグメンテーション・システムはスピーカを
個別化し、セグメント境界が存在するすべての可能なフ
レームを識別する。セグメントは、所定のスピーカと関
連したオーディオ・ソースの連続部分である。しかる
後、スピーカ識別システムが各セグメントにスピーカ・
ラベルを割り当てる。
【0016】図1は、本発明による例示的なオーディオ
転写及びスピーカ分類システム100のアーキテクチャ
を示すブロック図である。オーディオ転写及びスピーカ
分類システム100は、図1に示された汎用コンピュー
タ・システムのような汎用コンピュータ・システムとし
て具体化可能である。そのオーディオ転写及びスピーカ
分類システム100はプロセッサ110及びデータ記憶
装置120のような関連メモリを含む。なお、データ記
憶装置120は分散型又はローカル型のものでよい。プ
ロセッサ110は単一のプロセッサとして、又は並行し
て動作する複数のローカル・プロセッサ又は分散プロセ
ッサとして実施可能である。データ記憶装置120及び
/又は読取り専用メモリ(ROM)は1つ又は複数の命
令を記憶するように動作可能であり、プロセッサ110
はそれらの命令を検索、解釈、及び実行するように動作
可能である。
【0017】望ましくは、データ記憶装置120は、本
発明に従ってリアルタイムで処理可能な1つ又は複数の
事前記録された又は生のオーディオ・ファイル又はビデ
オ・ファイル(或いは、それらの両方)を記憶するため
のオーディオ・コーパス(corpus)データベース
150を含む。又、データ記憶装置120は、図2に関
連して後述するタイム・スタンプ・ワード・データベー
ス200も含む。そのデータベース200は音声認識シ
ステムによって生成されたものであり、一組のタイム・
スタンプされたワードを含む。図3に関連して後述する
スピーカ・ターン・データベース300はスピーカ・セ
グメンテーション・システムと関連してスピーカ識別シ
ステムによって作成され、各セグメントの開始時間を、
1つ又は複数の対応する提案されたスピーカ・ラベルと
共に表示する。図4と関連して後述するスピーカ・デー
タベース420はスピーカ登録プロセス410によって
作成され、各登録されたスピーカに対するエントリを含
む。図1の例示的な実施例に示されたそれらの生成され
たデータベース200及び300は、本発明の結果がリ
アルタイムでユーザに表示されるオンライン・インプリ
メンテーションに対しては必要とされず、その後のアク
セスのためにも必要とされないことに注意してほしい。
【0018】更に、図5及び図6に関連して後述するよ
うに、データ記憶装置120は、同時転写、セグメンテ
ーション及びスピーカ識別プロセス500、転写エンジ
ン515,セグメンテーション・プロセス600,及び
スピーカ識別プロセス700を含む。同時転写、セグメ
ンテーション及びスピーカ識別プロセス500は転写エ
ンジン515,セグメンテーション・プロセス600、
及びスピーカ識別プロセス700の実行を調整する。同
時転写、セグメンテーション及びスピーカ識別プロセス
500はオーディオ・コーパス・データベース150に
おける1つ又は複数のオーディオ・ファイルを分析し、
各セグメントと関連するスピーカを表すオーディオ情報
の転写をリアルタイムで作成する。セグメンテーション
・プロセス600はスピーカを個別化し、セグメント境
界が存在するすべての可能なフレームを識別する。スピ
ーカ識別プロセス700は、登録されたスピーカ・デー
タベースを使用する各セグメントにスピーカ・ラベルを
割り当てる。
【0019】図2は、音声認識システムによって生成さ
れ、一組のタイム・スタンプされたワードを含む例示的
なタイム・スタンプ・ワード・データベース200を示
す。そのタイム・スタンプ・ワード・データベース20
0は、各々がその実施例における異なるワードと関連す
るレコード211乃至214のような複数のレコードを
維持する。ワード・ストリング・フィールド220にお
いて識別された各ワードに対して、タイム・スタンプ・
ワード・データベース200は開始時間フィールド23
0においてそのワードの開始時間を表示する。
【0020】図3は例示的なスピーカ・ターン・データ
ベース300を示す。そのデータベース300は、スピ
ーカ・セグメンテーション・システムと関連してスピー
カ識別システムによって作成され、1つ又は複数の対応
する提案されたスピーカ・ラベルと共に各セグメントの
開始時間を表す。スピーカ・ターン・データベース30
0は、各々が実施例における種々のセグメントによって
識別されるレコード305乃至308のような複数のレ
コードを維持する。フィールド320におけるセグメン
ト番号によって識別された各セグメントに対して、スピ
ーカ・ターン・データベース300は、オーディオ・ソ
ース・ファイルの開始時間に関するそのセグメントの開
始時間をフィールド330において表示する。更に、ス
ピーカ・ターン・データベース300は、フィールド3
40において各セグメントと関連するスピーカを、フィ
ールド350における対応するスピーカ・スコアと共に
識別する。1つのインプリメンテーションでは、スピー
カ・ターン・データベース300はフィールド360に
おいて各セグメントと関連する1つ又は複数の代替えス
ピーカ(次の最適な予測)を、フィールド370におけ
る対応する代替えスピーカ・スコアと共に識別する。
【0021】A.スピーカ登録プロセス 図4はスピーカを登録又はエンロールするために使用さ
れる既知のプロセスを示す。図4に示されるように、各
登録されたスピーカに対して、スピーカの名前が、パル
ス・コード変調(PCM)ファイルのようなスピーカ・
トレーニング・ファイルと共にスピーカ登録プロセス4
10に供給される。スピーカ登録プロセス410はスピ
ーカ・トレーニング・ファイルを分析し、スピーカ・デ
ータベース420において各スピーカに対するエントリ
を作成する。スピーカの音声サンプルをスピーカ・デー
タベース420に加えるプロセスは登録と呼ばれる。そ
の登録プロセスはオフラインであり、スピーカ識別シス
テムは、関連するすべてのスピーカに対してそのような
データベースが存在するものと仮定する。わずかな価値
のオーディオに関して、一般には、各スピーカが複数の
チャネル及びマイクロフォンから複数の音響的条件を包
含することを要求される。登録されたスピーカのトレー
ニング・データ又はデータベースは、それらのモデルへ
のアクセスが効率的な認識及び検索のために最適化され
るように階層構造を使用して記憶される。
【0022】B.プロセス 前述のように、図5に示された同時転写、セグメンテー
ション及びスピーカ識別プロセス500は、転写エンジ
ン515,セグメンテーション・プロセス600(図
6)及びスピーカ識別プロセス700(図7)の実行を
調整する。同時転写、セグメンテーション及びスピーカ
識別プロセス500は、オーディオ・コーパス・データ
ベース150における1つ又は複数のオーディオ・ファ
イルを分析し、各セグメントと関連するスピーカを表す
オーディオ情報の転写をリアルタイムで作成する。図5
に示されるように、同時転写、セグメンテーション及び
スピーカ識別プロセス500は、先ず、ステップ510
においてオーディオ・ファイルからセプストラル(ce
pstral)フィーチャを既知の方法で抽出する。一
般に、ステップ510はオーディオ信号のドメインを時
間的ドメインから周波数ドメインに変更し、種々の周波
数帯における信号エネルギを分析し、その信号のドメイ
ンをセプストラル・ドメインに変更するためにもう1つ
の変換を使用する。
【0023】図5に示されるように、ステップ510
は、転写エンジン515,セグメンテーション・プロセ
ス600(図6)及びスピーカ識別プロセス700(図
7)に共通のフロント・エンド処理を提供する。一般
に、ステップ510において計算されたフィーチャ・ベ
クトルは、転写エンジン515,セグメンテーション・
プロセス(図6)及びスピーカ識別プロセス700(図
7)に対応する3つの多重処理スレッドに分配可能であ
る。それらのフィーチャ・ベクトルは、例えば、計算さ
れたフィーチャ・ベクトルを各チャネル(各処理スレッ
ドに対応する)に分配するためにサーバのような態様で
作用する共用メモリ・アーキテクチャを使用して3つの
多重処理スレッドに分配可能である。
【0024】ステップ510において生成されたフィー
チャ・ベクトルは、多重スレッド環境において並列ブラ
ンチに沿って処理される。図5に示され且つ後述される
ように、生成されたフィーチャ・ベクトルは多重スレッ
ドを使用して (i)ステップ515において転写エンジン、(ii)ス
テップ530において、図6に関連して後述されるスピ
ーカ・セグメンテーション・プロセス600、及び(ii
i)ステップ560において、図7に関連して後述され
るスピーカ識別プロセス700に適用される。
【0025】ステップ515において、それらの生成さ
れたフィーチャ・ベクトルは、タイム・スタンプされた
ワードの転写ファイルを生成するために、IBM社から
商業的に入手可能なViaVoice(商標)音声認識
システムのような転写エンジンに供給される。しかる
後、それらのタイム・スタンプされたワードは、ステッ
プ520においてタイム・スタンプ・ワード・データベ
ース200の中に任意選択的に収集可能である。更に、
それらのタイム・スタンプされたワードは後述のステッ
プ540においてインタリーバに供給される。
【0026】生成されたフィーチャ・ベクトルは、ステ
ップ530において、図6に関連して後述されるセグメ
ンテーション・プロセス600に適用される。一般に、
セグメンテーション・プロセス600はスピーカを個別
化し、非同種の音声部分相互間にセグメント境界が存在
するすべての可能なフレームを識別する。セグメント境
界が存在する各フレームはターンと呼ばれ、同種の各セ
グメントは単一のスピーカの音声に対応しなければなら
ない。一旦セグメンテーション・プロセス600によっ
て描出されると、各セグメントは(そのセグメントがス
ピーカ認識システムに対して要求される最小セグメント
長の要件に合致すると仮定して)特定のスピーカによっ
て発声されたものとして分類可能である。
【0027】セグメンテーション・プロセス600によ
って識別されたターンは、登録されたスピーカ・データ
ベース420を使用して各セグメントにスピーカ・ラベ
ルを割り当てるために、ステップ510において生成さ
れたフィーチャ・ベクトルと共に、ステップ560にお
いて、図7と関連して後述されるスピーカ識別プロセス
700に適用される。一般に、スピーカ識別システムは
セグメント発声音をスピーカ・データベース420に比
較し(図4)、「最も近似した」スピーカを見つける。
スピーカ識別プロセス700によって作成されたその割
り当てられたスピーカ・ラベルは後述のステップ550
に供給される。
【0028】ステップ515において転写エンジンによ
って作成されたタイム・スタンプ済みワードは、ステッ
プ530においてセグメンテーション・プロセス600
によって識別されたスピーカ・ターンと共に、ステップ
540においてインタリーバに適用され、それらのター
ンをタイム・スタンプ済みワードとインタリーブさせ、
切り離された音声セグメントを作成させる。しかる後、
切り離された音声セグメント及びステップ560におい
てスピーカ識別システムにより生成されたスピーカ識別
子がステップ550においてユーザに表示される。
【0029】1つのインプリメンテーションでは、切り
離された音声セグメントは、それらがステップ540に
おいてインタリーバによって作成された時にリアルタイ
ムで表示される。更に、例示的な実施例では、そのスピ
ーカ認識システムに対して要求される最小セグメント長
は8秒である。従って、一般には、分離された音声セグ
メントの始まりが最初に与えられた後約8秒で、スピー
カ識別ラベルがその転写されたテキストに付加される。
切り離された音声セグメントがそのスピーカ認識システ
ムに対して要求される最小セグメント長よりも短い場
合、「未定(inconclusive)」のようなス
ピーカ・ラベルがそのセグメントに割り当て可能である
ことに注意すべきである。
【0030】C.ベイズ情報基準(BIC)の背景 前述のように、図6に示されたセグメンテーション・プ
ロセス600はスピーカを個別化し、非同種の音声部分
相互間にセグメント境界が存在するすべての可能なフレ
ームを識別する。セグメント境界が存在する各フレーム
はターンと呼ばれ、同種の各セグメントは単一のスピー
カの音声に対応しなければならない。一旦セグメンテー
ション・プロセス600によって描出されると、各セグ
メントは(そのセグメントがスピーカ認識システムに対
して要求された最小セグメント長の要件に合致している
と仮定して)特定のスピーカによって発声されたものと
して分類可能である。セグメンテーション・プロセス6
00はベイズ情報基準(BIC)のモデル選択基準に基
づくものである。BICは、p個のパラメータ・モデル
のうちのどれがn個のデータ・サンプル x1,....,xn,
i∈Rdを最もよく表すかを決定するするために使用さ
れる漸近的に最適なベイズのモデル選択基準である。各
モデルMiは複数のパラメータkjを有する。サンプルx
iは独立したものである仮定する。
【0031】BICの原理に関する詳細な検討のために
は、例えば、The Annals of Statistics 誌の第6巻4
61−464ページ(1978)における G.Schwarz
氏による「モデルの寸法の見積り(Estimating the Dim
ension of a Model)」と題した論文を参照してほし
い。そのBICの原理によれば、十分に大きいnに対し
て、データの最良のモデルは次式を最大化するものであ
る。 BICj=logLj(x1,...,xn)−(λkjlog
n)/2 但し、λ=1であり、LjはモデルMiにおけるデータの
最大見込み値(換言すれば、Miのkjパラメータに対す
る最大の見込み値をもったデータの見込み値)である。
2つのモデルしか存在しない時、モデル選択のために簡
単なテストが使用される。特に、ΔBIC=BIC1−B
IC2が正である場合、モデルMiがモデルM2に優先し
て選択される。同様に、ΔBIC=BIC1−BIC2
負である場合、モデルM2がモデルM1に優先して選択さ
れる。
【0032】D.スピーカ・セグメンテーション 図6に示されたセグメンテーション・プロセス600
は、セグメント境界が存在するすべての可能なフレーム
を識別する。汎用性を損なうことなく、精々1つのセグ
メント境界しか存在しない連続したデータ・サンプル
(x1,....,xn)のウインドウを考察する。
【0033】フレームiにおいてセグメント境界が存在
するかどうかに関する基本的な疑問が次のような2つの
モデル、即ち、モデルM1及びモデルM2の間のモデル選
択問題として生じ得る。なお、モデルM1は(x1,...,
n)が単一の全共分散ガウス分布から得られる場合で
あり、モデルM2は(x1,....xi)が第1ガウス分布か
ら得られ、(xi+1,....xn)が第2ガウス分布から得
られることによって(x1,...,xn)が2つの全共分散
ガウス分布から得られる。
【0034】xi∈Rdであるので、モデルM1はk1=d
+d(d+1)/2のパラメータを有し、一方、モデル
2は2倍のパラメータ(k2=2k1)を有する。次式
が負である場合、i番目のフレームがセグメント境界に
対する良好な候補であることがわかる。
【数1】
【0035】但し、|Σw|はウインドウ全体(即ち、n
個のフレームすべて)の共分散の行列式である。|Σf|
はそのウインドウの第1サブディビジョンの共分散の行
列式であり、|Σs|はそのウインドウの第2サブディビ
ジョンの共分散の行列式である。
【0036】従って、ステップ610において、2つの
サブサンプル(x1,...,xi)及び(xi+1,...,xn)が
連続的なデータ・サンプル(x1,...,xn)のウインド
ウから設定される。セグメンテーション・プロセス60
0はステップ615乃至628において数多くのテスト
を行い、境界の検出があまりありそうもないロケーショ
ンにそのウインドウにおけるいくつかのBICテストが
対応する時、それらのテストを排除する。特に、ステッ
プ615において、可変数αの値が(n/r)−1の値
に初期設定される。但し、rは(フレームにおける)検
出解像度である。しかる後、ステップ620において、
その値αが最大値αmaxを越えるかどうかを決定するた
めのテストが行われる。ステップ620において値αが
最大値α maxを越えることが決定される場合、ステップ
624において、カウンタiが(α−αmax+1)rの値
に設定される。しかし、ステップ620において、値α
が最大値αmaxを越えないことが決定される場合、ステ
ップ628において、カウンタiがrの値に設定され
る。しかる後、ステップ630において、上記の式を使
用してBIC値における差が計算される。
【0037】ステップ640において、カウンタiの値
がn−rに等しいかどうか、換言すれば、ウインドウに
おけるすべての可能なサンプルが評価されてしまったか
どうかを決定するためのテストが行われる。ステップ6
40においてカウンタiの値がn−rに等しくないこと
が決定される場合、ステップ650においてそのiの値
がrだけインクレメントされ、ステップ630において
ウインドウにおける次のサンプルに対する処理を継続す
る。しかし、ステップ640においてカウンタiの値が
n−rに等しいことが決定される場合、ステップ660
において、BIC値における最小の差(ΔBICi0)が
負であるかどうかを決定するための更なるテストが行わ
れる。ステップ660において、BIC値における最小
の差(ΔBICi0)が負でないことが決定される場合、
新しいウインドウを上記方法で考察するためにステップ
610へ戻る前に、ステップ665においてウインドウ
・サイズが増加させられる。従って、1つのウインドウ
におけるすべてのカウンタiに対するΔBIC 値が計
算され、それらのうちのいずれも負のΔBIC 値をも
たらすものでない時、ウインドウ・サイズnが増加させ
られるだけである。
【0038】しかし、ステップ660において、BIC
値における最小の差が負であることが決定される場合、
ステップ670において、i0がセグメント境界として
選択される。しかる後、ステップ675において、新し
いウインドウの始まりがi0+1に移り、ウインドウ・
サイズがN0に設定され、その後、新しいウインドウを
上記の方法で考察するためにプログラム制御はステップ
610に戻る。
【0039】従って、i のすべての可能な値に対してB
IC差のテストが行われ、最大の負のΔBICiによっ
てi0が選択される。そのウインドウではフレームiに
おいてセグメント境界が検出可能である。ΔBICi0
0である場合、xi0がセグメント境界に対応する。その
テスト結果が否定的である場合、後述のように、ステッ
プ660において更なるデータ・サンプルが(パラメー
タnを増加させることによって)現ウインドウに加えら
れ、フィーチャ・ベクトルがすべてセグメント化されて
しまうまで、プロセスはデータ・サンプルのこの新しい
ウインドウに関して反復される。一般に、ウインドウ・
サイズは、自身が1つのウインドウ拡張から別のウイン
ドウ拡張に増加する複数のフィーチャ・ベクトルによっ
て拡張される。しかし、ウインドウは、或る最大値より
も大きい多数のフィーチャ・ベクトルによっては拡張さ
れることはない。ステップ670においてセグメント境
界が検出された時、ウインドウ拡張値はそれの最小値
(N0)を検索する。
【0040】E.可変ウインドウ方式 本発明のもう1つの特徴によれば、特に小さいセグメン
トにおける全体の精度を改良する新しいウインドウ選択
方式が提供される。セグメンテーション・プロセス60
0が遂行されるウインドウ・サイズの選択は非常に重要
である。その選択されたウインドウがあまりにも多くの
ベクトルを含む場合、いくつかの境界が脱落することが
ある。一方、選択されたウインドウが小さ過ぎる場合、
情報の不足の結果、ガウス分布によるデータの表示が不
十分になるであろう。
【0041】セグメント境界が検出されなかった場合、
一定量のデータを現ウインドウに加えることが提案され
た。そのような方式は、精度を改良するために「前後関
係(contextual informatio
n)」を利用するものではない。セグメント境界が検出
されても又はされなくても、或いは境界が長い間検出さ
れなくても、同じ量のデータが加えられる。
【0042】本発明の改良されたセグメンテーション・
プロセスは、新しい境界が生じそうなエリアにおける比
較的少量のデータを考察し、新しい境界が生じそうもな
い時にはウインドウ・サイズをもっと大きく増加させ
る。先ず、小さいサイズのベクトルのウインドウ(一般
には、100フレームの音声)を考察する。現ウインド
ウにおいてセグメント境界が検出されない場合、ウイン
ドウのサイズはΔNiフレームだけ増加する。この新し
いウインドウにおいて境界が検出されない場合、フレー
ムの数はΔNi+1だけ増加する。なお、セグメント境界
が検出されるまで、又はウインドウ拡張が最大サイズに
達してしまうまで(境界が生じる場合に精度の問題を回
避するために)、ΔNi=ΔNi+1+δiである。但し、δ
=2δi+1である。これは、ウインドウが依然として小
さい時にはかなり遅いウインドウ・サイズの増加及びウ
インドウが大きくなる時には速いウインドウ・サイズの
増加を保証する。ウインドウ内でセグメント境界が検出
される時、最小のウインドウ・サイズを使用して次のウ
インドウがその検出された境界の後に始まる。
【0043】F.BICテストの効率の改良 本発明のもう1つの特徴によれば、BICテストが行わ
れるロケーションの良好な選択によって処理時間全体の
改良が得られる。ウインドウにおけるBICテストのう
ちの或るものは、境界の検出がありそうもないロケーシ
ョンにそれらが対応する時、任意に排除可能である。先
ず、BICテストは各ウインドウの境界においては行わ
れない。それは、それが非常にわずかなデータでもって
1つのガウス分布を必ず表示するためである(この明ら
かに小さいゲインがセグメント検出を通して繰り返さ
れ、実際には、それは無視し得るパフォーマンス・イン
パクトを持たない)。
【0044】更に、現ウインドウが大きい時にBICテ
ストがすべて行われる場合、何らかの新しい情報が加え
られる度に、そのウインドウの開始時においてBIC計
算が何回も行われたであろう。例えば、10秒のウイン
ドウ・サイズにおいて最初の5秒内にセグメント境界が
検出されなかった場合、10秒の現ウインドウの拡張に
よって、最初の5秒内に境界が認められるということは
全くありそうもない。従って、(ウインドウ拡張に続
く)現ウインドウの始まりにおけるBIC計算を無視す
ることによってBIC計算の数を減少させることができ
る。実際には、BIC計算の最大数は、今や、必要とさ
れる速度/精度レベルに従って調整された調節可能なパ
ラメータ(図3におけるαmax)である。
【0045】従って、セグメンテーション・プロセス6
00は、セグメンテーション情報に関する何らかのフィ
ードバックを持つ前にそれが必要とする最大時間を知る
ことを可能にする。それは、たとえセグメント境界が検
出されなくても、ウインドウが十分に大きい場合、第1
フレームにセグメントが存在しないということがわかる
ためである。この情報は速度信号のうちのこの部分に関
して別の処理を行うために使用可能である。
【0046】G.BICペナルティ・ウェート BICの式は、理論と基準に関する実用的な応用との間
の差を補うために、ペナルティ・ウェート・パラメータ
λを利用する。ミス率と誤警報率との間の良好なトレー
ド・オフを与えるλの最良値は1.3であることがわか
っている。放送ニュースの転写に対するセグメンテーシ
ョン精度に関するλの影響をより総合的に研究するため
には、M.S.Thesis, Institut Eurecom 誌(フランス、
1998)における A. Tritschler 氏による「BIC
を使用したセグメンテーション・イネーブルド音声認識
アプリケーション(A Segmentation-Enabled Speech Re
cognition Application)」と題した論文を参照してほ
しい。
【0047】原則として、係数λはタスク依存のもので
あり、新しいタスク毎に戻されなければならないけれど
も、実際には、そのアルゴリズムは種々のタイプのデー
タに適用されており、同じ値のλを使用することによる
パフォーマンスにおける認め得る程度の変化は存在しな
い。
【0048】H.スピーカ識別プロセス 前述のように、同時転写、セグメンテーション及びスピ
ーカ識別プロセス500は、ステップ560において、
図7に示されたスピーカ識別プロセス700を実行し、
登録されたスピーカ・データベース420を使用して各
セグメントにスピーカ・ラベルを割り当てる。図7に示
されるように、スピーカ識別プロセス700は、ステッ
プ510において共通のフロント・エンド・プロセッサ
によって生成されたフィーチャ・ベクトルと共に、セグ
メンテーション・プロセス600によって識別されたタ
ーンを受け取る。一般に、スピーカ識別システムはスピ
ーカ・データベース420(図4)にセグメント発声音
を比較し、「最も近似した」スピーカを検出する。
【0049】ターン及びフィーチャ・ベクトルは、ステ
ップ710において、単一のスピーカによる音声のチャ
ンクより成るセグメント発声音を形成するように処理さ
れる。ステップ720において、セグメント発声音がス
ピーカ識別システムに供給される。スピーカ識別システ
ムを検討するためには、例えば、Proc. of Speaker Rec
ognition and Its Commercial and Forensic Applicati
on, Avignon, France(1998)誌における H.S.M.Beigi
氏他による「IBMモデル・ベース及びフレーム毎のス
ピーカ認識(IBM Model-Based and Frame-By-Frame Spe
aker-Recognition)」と題した論文を参照してほしい。
一般に、スピーカ識別システムはセグメント発声をスピ
ーカ・データベース420(図4)に比較し、「最も近
似した」スピーカを検出する。
【0050】スピーカ識別システムは2つの異なるイン
プリメンテーション、即ち、モデル・ベース方式及びフ
レーム・ベース方式を有し、それらは付随した利点及び
欠点を有する。エンジンは、放送ニュースのような番組
の生のオーディオ・インデキシングを容易にするために
独立したテキスト及び言語の両方である。
【0051】I.スピーカ識別(モデル・ベース方式) スピーカの母集団に対して一組のトレーニング・モデル
を作成するために、下記のようなd次元のフィーチャ・
ベクトルを持ったM個の音声フレームのシーケンスに基
づいたi番目のスピーカに対するモデルMiが計算され
る。
【数2】
【0052】これらのモデルは、ガウス分布が選択され
る場合に対して、平均ベクトル、共分散マトリックス、
及びカウントより成る下記のようなそれらの統計的パラ
メータによって記憶される。なお、各スピーカiはni
個の分布よりなるモデルでもって終わり得るものであ
る。
【数3】
【0053】2つのそのようなモデルを比較するため
に、Proc. ICASSP98 誌(Seattle, WA, 1998)における
H.S.M. Beigi 氏他による「分布の集合体相互間の距離
測定法及びスピーカ認識に対するそれの応用(A Distan
ce Measure Between Collections of Distributions an
d Its Application to Speaker Recognition)」と題し
た論文において提案された距離測定法を使用して、スピ
ーカ識別(クレームを実証する)、スピーカ分類(スピ
ーカを割り当てる)、スピーカ検証(ラベルされたスピ
ーカの特性に匹敵する特性を持ったスピーカの「コーホ
ート(cohort)」セットとラベルを比較すること
によって分類を確認するための第2パス)、及びスピー
カ・クラスタリングを含む多くの種々な機能を持ったス
ピーカ認識システムを考案するために階層構造が作成さ
れる。
【0054】スピーカ認識のために考案されたその距離
測定法は、異なる数の分布niを持った受容可能な距離
の計算を可能にする。2つのスピーカをそれらのパラメ
ータ的な表示に基づいて比較するだけで、2つのスピー
カを比較するというそのタスクを計算主体でないものに
するという特徴を常に持つ必要がなくなる。しかし、認
識段階に対するこの距離測定法の欠点は、比較の計算が
始まる前に個々のテストのモデル(要求者:Claim
ant)を形成するために音声セグメント全体が使用さ
れなければならないということである。フレーム・ベー
ス方式はこの欠点を緩和する。
【0055】J.スピーカ識別(フレーム・ベース方
式) Miをi番目の登録されたスピーカに対応するモデルで
あると仮定する。Miは、スピーカiのガウス混合モデ
ル(GMM)のni個のコンポーネントの各々に対する
平均ベクトル、共分散マトリクス、及び混合ウェートよ
り成る次のようなパラメータ・セットによって全体的に
定義される。
【数4】
【0056】これらのモデルは、前のセクションにおい
て説明したように、下記のようなd次元のフィーチャ・
ベクトルを持ったM個の音声フレームのシーケンスより
成るトレーニング・データを使用して作成される。
【数5】
【0057】スピーカ母集団のサイズがNpである場
合、モデル・ユニバースのセットは次のようになる。
【数6】
【0058】基本的な目的は、次式のようなN個のフレ
ームのシーケンスとして表されたテスト・データをMi
が最もよく示しているというようなiを見つけること、
及びそれらのモデルのうちデータを十分に記述するもの
がないという決定を行うことである。
【数7】
【0059】次のようなフレーム・ベースのウェート付
けされた距離測定法di,nはその決定を行う場合に使用
される。
【数8】
【0060】但し、正規の表示を使用すると、次のよう
になる。
【数9】
【0061】テスト・データからのモデルMiの合計距
離Diはテスト・フレームの合計数を超えたすべての距
離の和であると見なされる。
【0062】分類のために、音声セグメントのモデルま
での最小距離を持ったモデルが選択される。その最小距
離を背景モデルの距離に比較することによって、オリジ
ナル・モードのうちのいずれも十分に合致しないことを
表示するための方法を提供することが可能である。別の
方法として、合計距離を計算するために投票集計技法が
使用可能である。
【0063】検証のために、ラベルされたスピーカのコ
ーホートを形成する所定セットのメンバが種々のバック
グラウンド・モデルでによって増大する。このセットを
モデル・ユニバースとして使用すると、テスト・データ
は、要求者(Claimantのモデルが最小距離を有
するかどうかをテストすることによって検証される。そ
うでない場合、それは拒絶される。
【0064】この距離測定法は、スピーカ相互間の距離
を計算するために音声のフレームが保持されなければな
らないので、トレーニングでは使用されない。従って、
トレーニングは、前述のモデル・ベースのテクニックの
ための方法を使用して行われる。
【0065】ステップ720において生成されたその割
り当てられたスピーカ・ラベルは、下記のように、ユー
ザへ出力するために任意選択的にブロック550(図
5)への暫定的提供が可能である。ステップ730にお
いて、その割り当てられたスピーカ・ラベルは、スピー
カ分類の結果に関して第2パスを行うことによって検証
される。ステップ730においてスピーカ識別が検証さ
れる場合、そのスピーカ・ラベルはユーザへの出力のた
めにブロック550(図5)に供給される。更に、ステ
ップ740において、オリジナルの登録されたスピーカ
・モデルからオーディオ・テスト・セグメントまでの距
離を表す割り当てられたスコアと共に、最善の選択を表
すエントリ、又は、望ましい場合には、代替えの選択を
表すエントリを、スピーカ・ターン・データベース30
0において任意選択的に作成することが可能である。
【0066】本願において開示され及び図示された実施
例並びにその変形は単に本発明の原理を説明するもので
あること、及び本発明の技術的範囲及び精神から逸脱す
ることなく種々の修正を当業者が実施することが可能で
あることは理解されるべきである。
【0067】まとめとして、本発明の構成に関して以下
の事項を開示する。
【0068】(1)1つ又は複数のオーディオ・ソース
からオーディオ情報を転写するための方法にして、前記
オーディオ情報のテキスト・バージョンを作成するため
に前記オーディオ・ソースを転写するステップと、前記
転写するステップと実質的に同時に前記オーディオ・ソ
ースにおける潜在的なセグメント境界を識別するステッ
プと、識別された各セグメントにスピーカ・ラベルを割
り当てるステップと、を含む方法。 (2)前記転写するステップは前記オーディオ・ソース
における各ワードに対してタイム・アライメントを持っ
た転写を作成することを特徴とする請求項1に記載の方
法。 (3)前記識別するステップは非同種の音声部分相互間
にセグメント境界が存在するすべての可能なフレームを
識別することを特徴とする請求項1に記載の方法。 (4)前記割り当てるステップは登録されたスピーカ・
データベースを利用してスピーカ・ラベルを各識別され
たセグメントに割り当てることを特徴とする請求項1に
記載の方法。 (5)前記割り当てるステップは前記割り当てられたス
ピーカ・ラベルの信頼性を表すスコアを割り当てるステ
ップを更に含むことを特徴とする請求項1に記載の方
法。 (6)前記割り当てるステップは前記割り当てられたス
ピーカ・ラベルに対して少なくとも1つの別の選択を割
り当てるステップを更に含むことを特徴とする請求項1
に記載の方法。 (7)前記転写するステップ、識別するステップ、及び
割り当てるステップはマルチ・スレッド環境では並列処
理ブランチにおいて行われることを特徴とする請求項1
に記載の方法。 (8)前記識別するステップはBICモデル選択基準を
使用してセグメント境界を識別することを特徴とする請
求項1に記載の方法。 (9)1つ又は複数のオーディオ・ソースからオーディ
オ情報を転写するための方法にして、前記オーディオ情
報からフィーチャ・ベクトルを計算するステップと、
(a)前記オーディオ・ソースを転写して前記オーディ
オ情報のテキスト・バージョンを作成するために、
(b)前記オーディオ・ソースにおける潜在的なセグメ
ント境界を識別するために、及び(c)各識別されたセ
グメントにスピーカ・ラベルを割り当てるために、前記
フィーチャ・ベクトルを3つの並列処理ブランチに適用
するステップと、を含む方法。 (10)前記フィーチャ・ベクトルは共用メモリ・アー
キテクチャを使用して前記並列処理ブランチに適用され
ることを特徴とする請求項9に記載の方法。 (11)前記共用メモリ・アーキテクチャは前記計算さ
れたフィーチャ・ベクトルを前記並列処理ブランチの各
々に対応するチャネルに分配することを特徴とする請求
項10に記載の方法。 (12)前記転写するステップは前記オーディオ・ソー
スにおける各ワードに対してタイム・アライメントを持
った転写物を作成することを特徴とする請求項9に記載
の方法。 (13)前記識別するステップは非同種の音声部分相互
間にセグメント境界が存在するすべての可能なフレーム
を識別することを特徴とする請求項9に記載の方法。 (14)前記割り当てるステップは登録されたスピーカ
・データベースを利用してスピーカ・ラベルを各識別さ
れたセグメントに割り当てることを特徴とする請求項9
に記載の方法。 (15)前記割り当てるステップは前記割り当てられた
スピーカ・ラベルの信頼性を表すスコアを割り当てるス
テップを更に含むことを特徴とする請求項9に記載の方
法。 (16)前記割り当てるステップは前記割り当てられた
スピーカ・ラベルに対して少なくとも1つの別の選択を
割り当てるステップを更に含むことを特徴とする請求項
9に記載の方法。 (17)前記識別するステップはBICモデル選択基準
を使用してセグメント境界を識別することを特徴とする
請求項9に記載の方法。 (18)1つ又は複数のオーディオ・ソースからオーデ
ィオ情報を転写するためのシステムにして、コンピュー
タ読み取り可能なコードを記憶するメモリと、前記メモ
リに動作関係に結合され、前記コンピュータ読み取り可
能なコードをインプリメントするように構成されたプロ
セッサと、を含み、前記コンピュータ読み取り可能なコ
ードは、前記オーディオ・ソースを転写して前記オーデ
ィオ情報のテキスト・バージョンを作成するように、前
記転写と実質的に同時に前記オーディオ・ソースにおけ
る潜在的なセグメント境界を識別するように、及び各識
別されたセグメントにスピーカ・ラベルを割り当てるよ
うに、構成されることを特徴とするシステム。 (19)コンピュータ読み取り可能なプログラム・コー
ド手段を組み込まれたコンピュータ読み取り可能な媒体
を含み、前記コンピュータ読み取り可能なプログラム・
コード手段は、オーディオ情報のテキスト・バージョン
を作成するためにオーディオ・ソースを転写するステッ
プと、前記転写するステップと実質的に同時に前記オー
ディオ・ソースにおける潜在的なセグメント境界を識別
するステップと、識別された各セグメントにスピーカ・
ラベルを割り当てるステップと、を含むことを特徴とす
る製造物。 (20)1つ又は複数のオーディオ・ソースからオーデ
ィオ情報を転写するためのシステムにして、コンピュー
タ読み取り可能なコードを記憶するメモリと、前記メモ
リに動作関係に結合され、前記コンピュータ読み取り可
能なコードをインプリメントするように構成されたプロ
セッサと、を含み、前記コンピュータ読み取り可能なコ
ードは、前記オーディオ情報からフィーチャ・ベクトル
を計算し、(i)前記オーディオ・ソースを転写して前
記オーディオ情報のテキスト・バージョンを作成するた
めに、(ii)前記オーディオ・ソースにおける潜在的な
セグメント境界を識別するために、及び(iii)各識別
されたセグメントにスピーカ・ラベルを割り当てるため
に、前記フィーチャ・ベクトルを3つの並列処理ブラン
チに適用するように構成されることを特徴とするシステ
ム。 (21)コンピュータ読み取り可能なプログラム・コー
ド手段を組み込まれたコンピュータ読み取り可能な媒体
を含み、前記コンピュータ読み取り可能なプログラム・
コード手段は、前記オーディオ情報からフィーチャ・ベ
クトルを計算するステップと、(i)前記オーディオ・
ソースを転写して前記オーディオ情報のテキスト・バー
ジョンを作成するために、(ii)前記オーディオ・ソー
スにおける潜在的なセグメント境界を識別するために、
及び(iii)各識別されたセグメントにスピーカ・ラベ
ルを割り当てるために、前記フィーチャ・ベクトルを3
つの並列処理ブランチに適用するステップと、を含むこ
とを特徴とする製造物。 (22)1つ又は複数のオーディオ・ソースからオーデ
ィオ情報を転写するための方法にして、前記オーディオ
情報のテキスト・バージョンを作成するために前記オー
ディオ・ソースを転写するステップと、前記オーディオ
・ソースにおける潜在的なセグメント境界を識別するス
テップと、識別された各セグメントにスピーカ・ラベル
を割り当てるステップと、前記転写するステップ、識別
するステップ、及び割り当てるステップと実質的に同時
に前記テキスト・バージョンを前記割り当てられたスピ
ーカ・ラベルと共に供給するステップと、を含む方法。 (23)1つ又は複数のオーディオ・ソースからオーデ
ィオ情報を転写するための方法にして、前記オーディオ
情報からフィーチャ・ベクトルを計算するステップと、
(i)前記オーディオ・ソースを転写して前記オーディ
オ情報のテキスト・バージョンを作成するために、(i
i)前記オーディオ・ソースにおける潜在的なセグメン
ト境界を識別するために、及び(iii)各識別されたセ
グメントにスピーカ・ラベルを割り当てるために、前記
フィーチャ・ベクトルを3つの並列処理ブランチに適用
するステップと、前記転写するステップ、識別するステ
ップ、及び割り当てるステップと実質的に同時に前記テ
キスト・バージョンを前記割り当てられたスピーカ・ラ
ベルと共に供給するステップと、を含む方法。
【図面の簡単な説明】
【図1】本発明によるオーディオ転写及びスピーカ分類
システムのブロック図である。
【図2】図1のタイム・スタンプされたワード・データ
ベースからのテーブルである。
【図3】図1のスピーカ・ターン・データベースからの
テーブルである。
【図4】本発明による代表的なスピーカ登録プロセスを
示す。
【図5】図1のオーディオ転写及びスピーカ分類システ
ムによって遂行される例示的な同時転写、セグメンテー
ション及びスピーカ識別プロセスを説明するフローチャ
ートである。
【図6】図1のオーディオ転写及びスピーカ分類システ
ムによって遂行される例示的なセグメンテーション・プ
ロセスを説明するフローチャートである。
【図7】図1のオーディオ転写及びスピーカ分類システ
ムによって遂行される例示的なスピーカ識別プロセスを
説明するフローチャートである。
フロントページの続き (72)発明者 アラン・シャルル・ルイ・トレザー アメリカ合衆国ニューヨーク州、ニューヨ ーク、ウエスト・シックスティサード・ス トリート、243 ナンバー・5・エイ (72)発明者 マハシュ・ヴィズワナザン アメリカ合衆国ニューヨーク州、ヨークタ ウン・ハイツ、ダグラス・ドライブ 3024

Claims (23)

    【特許請求の範囲】
  1. 【請求項1】1つ又は複数のオーディオ・ソースからオ
    ーディオ情報を転写するための方法にして、 前記オーディオ情報のテキスト・バージョンを作成する
    ために前記オーディオ・ソースを転写するステップと、 前記転写するステップと実質的に同時に前記オーディオ
    ・ソースにおける潜在的なセグメント境界を識別するス
    テップと、 識別された各セグメントにスピーカ・ラベルを割り当て
    るステップと、を含む方法。
  2. 【請求項2】前記転写するステップは前記オーディオ・
    ソースにおける各ワードに対してタイム・アライメント
    を持った転写を作成することを特徴とする請求項1に記
    載の方法。
  3. 【請求項3】前記識別するステップは非同種の音声部分
    相互間にセグメント境界が存在するすべての可能なフレ
    ームを識別することを特徴とする請求項1に記載の方
    法。
  4. 【請求項4】前記割り当てるステップは登録されたスピ
    ーカ・データベースを利用してスピーカ・ラベルを各識
    別されたセグメントに割り当てることを特徴とする請求
    項1に記載の方法。
  5. 【請求項5】前記割り当てるステップは前記割り当てら
    れたスピーカ・ラベルの信頼性を表すスコアを割り当て
    るステップを更に含むことを特徴とする請求項1に記載
    の方法。
  6. 【請求項6】前記割り当てるステップは前記割り当てら
    れたスピーカ・ラベルに対して少なくとも1つの別の選
    択を割り当てるステップを更に含むことを特徴とする請
    求項1に記載の方法。
  7. 【請求項7】前記転写するステップ、識別するステッ
    プ、及び割り当てるステップはマルチ・スレッド環境で
    は並列処理ブランチにおいて行われることを特徴とする
    請求項1に記載の方法。
  8. 【請求項8】前記識別するステップはBICモデル選択
    基準を使用してセグメント境界を識別することを特徴と
    する請求項1に記載の方法。
  9. 【請求項9】1つ又は複数のオーディオ・ソースからオ
    ーディオ情報を転写するための方法にして、 前記オーディオ情報からフィーチャ・ベクトルを計算す
    るステップと、 (a)前記オーディオ・ソースを転写して前記オーディ
    オ情報のテキスト・バージョンを作成するために、 (b)前記オーディオ・ソースにおける潜在的なセグメ
    ント境界を識別するために、及び (c)各識別されたセグメントにスピーカ・ラベルを割
    り当てるために、前記フィーチャ・ベクトルを3つの並
    列処理ブランチに適用するステップと、を含む方法。
  10. 【請求項10】前記フィーチャ・ベクトルは共用メモリ
    ・アーキテクチャを使用して前記並列処理ブランチに適
    用されることを特徴とする請求項9に記載の方法。
  11. 【請求項11】前記共用メモリ・アーキテクチャは前記
    計算されたフィーチャ・ベクトルを前記並列処理ブラン
    チの各々に対応するチャネルに分配することを特徴とす
    る請求項10に記載の方法。
  12. 【請求項12】前記転写するステップは前記オーディオ
    ・ソースにおける各ワードに対してタイム・アライメン
    トを持った転写物を作成することを特徴とする請求項9
    に記載の方法。
  13. 【請求項13】前記識別するステップは非同種の音声部
    分相互間にセグメント境界が存在するすべての可能なフ
    レームを識別することを特徴とする請求項9に記載の方
    法。
  14. 【請求項14】前記割り当てるステップは登録されたス
    ピーカ・データベースを利用してスピーカ・ラベルを各
    識別されたセグメントに割り当てることを特徴とする請
    求項9に記載の方法。
  15. 【請求項15】前記割り当てるステップは前記割り当て
    られたスピーカ・ラベルの信頼性を表すスコアを割り当
    てるステップを更に含むことを特徴とする請求項9に記
    載の方法。
  16. 【請求項16】前記割り当てるステップは前記割り当て
    られたスピーカ・ラベルに対して少なくとも1つの別の
    選択を割り当てるステップを更に含むことを特徴とする
    請求項9に記載の方法。
  17. 【請求項17】前記識別するステップはBICモデル選
    択基準を使用してセグメント境界を識別することを特徴
    とする請求項9に記載の方法。
  18. 【請求項18】1つ又は複数のオーディオ・ソースから
    オーディオ情報を転写するためのシステムにして、 コンピュータ読み取り可能なコードを記憶するメモリ
    と、 前記メモリに動作関係に結合され、前記コンピュータ読
    み取り可能なコードをインプリメントするように構成さ
    れたプロセッサと、 を含み、 前記コンピュータ読み取り可能なコードは、 前記オーディオ・ソースを転写して前記オーディオ情報
    のテキスト・バージョンを作成するように、 前記転写と実質的に同時に前記オーディオ・ソースにお
    ける潜在的なセグメント境界を識別するように、及び各
    識別されたセグメントにスピーカ・ラベルを割り当てる
    ように、 構成されることを特徴とするシステム。
  19. 【請求項19】コンピュータ読み取り可能なプログラム
    ・コード手段を組み込まれたコンピュータ読み取り可能
    な媒体を含み、 前記コンピュータ読み取り可能なプログラム・コード手
    段は、 オーディオ情報のテキスト・バージョンを作成するため
    にオーディオ・ソースを転写するステップと、 前記転写するステップと実質的に同時に前記オーディオ
    ・ソースにおける潜在的なセグメント境界を識別するス
    テップと、 識別された各セグメントにスピーカ・ラベルを割り当て
    るステップと、 を含むことを特徴とする製造物。
  20. 【請求項20】1つ又は複数のオーディオ・ソースから
    オーディオ情報を転写するためのシステムにして、 コンピュータ読み取り可能なコードを記憶するメモリ
    と、 前記メモリに動作関係に結合され、前記コンピュータ読
    み取り可能なコードをインプリメントするように構成さ
    れたプロセッサと、 を含み、 前記コンピュータ読み取り可能なコードは、 前記オーディオ情報からフィーチャ・ベクトルを計算
    し、 (i)前記オーディオ・ソースを転写して前記オーディ
    オ情報のテキスト・バージョンを作成するために、 (ii)前記オーディオ・ソースにおける潜在的なセグメ
    ント境界を識別するために、及び (iii)各識別されたセグメントにスピーカ・ラベルを
    割り当てるために、前記フィーチャ・ベクトルを3つの
    並列処理ブランチに適用するように構成されることを特
    徴とするシステム。
  21. 【請求項21】コンピュータ読み取り可能なプログラム
    ・コード手段を組み込まれたコンピュータ読み取り可能
    な媒体を含み、 前記コンピュータ読み取り可能なプログラム・コード手
    段は、 前記オーディオ情報からフィーチャ・ベクトルを計算す
    るステップと、 (i)前記オーディオ・ソースを転写して前記オーディ
    オ情報のテキスト・バージョンを作成するために、 (ii)前記オーディオ・ソースにおける潜在的なセグメ
    ント境界を識別するために、及び (iii)各識別されたセグメントにスピーカ・ラベルを
    割り当てるために、前記フィーチャ・ベクトルを3つの
    並列処理ブランチに適用するステップと、を含むことを
    特徴とする製造物。
  22. 【請求項22】1つ又は複数のオーディオ・ソースから
    オーディオ情報を転写するための方法にして、 前記オーディオ情報のテキスト・バージョンを作成する
    ために前記オーディオ・ソースを転写するステップと、 前記オーディオ・ソースにおける潜在的なセグメント境
    界を識別するステップと、 識別された各セグメントにスピーカ・ラベルを割り当て
    るステップと、 前記転写するステップ、識別するステップ、及び割り当
    てるステップと実質的に同時に前記テキスト・バージョ
    ンを前記割り当てられたスピーカ・ラベルと共に供給す
    るステップと、 を含む方法。
  23. 【請求項23】1つ又は複数のオーディオ・ソースから
    オーディオ情報を転写するための方法にして、 前記オーディオ情報からフィーチャ・ベクトルを計算す
    るステップと、 (i)前記オーディオ・ソースを転写して前記オーディ
    オ情報のテキスト・バージョンを作成するために、 (ii)前記オーディオ・ソースにおける潜在的なセグメ
    ント境界を識別するために、及び (iii)各識別されたセグメントにスピーカ・ラベルを
    割り当てるために、前記フィーチャ・ベクトルを3つの
    並列処理ブランチに適用するステップと、 前記転写するステップ、識別するステップ、及び割り当
    てるステップと実質的に同時に前記テキスト・バージョ
    ンを前記割り当てられたスピーカ・ラベルと共に供給す
    るステップと、 を含む方法。
JP2000188625A 1999-06-30 2000-06-23 同時的な音声認識、スピーカ・セグメンテーション及びスピーカ分類のための方法及び装置 Expired - Fee Related JP4132590B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/345,237 US6421645B1 (en) 1999-04-09 1999-06-30 Methods and apparatus for concurrent speech recognition, speaker segmentation and speaker classification
US09/345237 1999-06-30

Publications (2)

Publication Number Publication Date
JP2001060098A true JP2001060098A (ja) 2001-03-06
JP4132590B2 JP4132590B2 (ja) 2008-08-13

Family

ID=23354161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000188625A Expired - Fee Related JP4132590B2 (ja) 1999-06-30 2000-06-23 同時的な音声認識、スピーカ・セグメンテーション及びスピーカ分類のための方法及び装置

Country Status (2)

Country Link
JP (1) JP4132590B2 (ja)
CN (1) CN1174374C (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6954522B2 (en) 2003-12-15 2005-10-11 International Business Machines Corporation Caller identifying information encoded within embedded digital information
CN108074574A (zh) * 2017-11-29 2018-05-25 维沃移动通信有限公司 音频处理方法、装置及移动终端
DE102022115111A1 (de) 2022-04-07 2023-10-12 Grundig Business Systems Gmbh Verfahren und Vorrichtung zur Verarbeitung von Audio- und/oder Videoinformationen

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030154084A1 (en) * 2002-02-14 2003-08-14 Koninklijke Philips Electronics N.V. Method and system for person identification using video-speech matching
US6667700B1 (en) * 2002-10-30 2003-12-23 Nbt Technology, Inc. Content-based segmentation scheme for data compression in storage and transmission including hierarchical segment representation
CN101218647B (zh) * 2005-07-06 2011-02-02 皇家飞利浦电子股份有限公司 用于生成元素序列的方法和装置
CN102655002B (zh) * 2011-03-01 2013-11-27 株式会社理光 音频处理方法和音频处理设备
CN102522084B (zh) * 2011-12-22 2013-09-18 广东威创视讯科技股份有限公司 一种将语音数据转换为文本文件的方法和系统
CN105161094A (zh) * 2015-06-26 2015-12-16 徐信 一种语音音频切分手动调整切分点的系统及方法
CN111145752B (zh) * 2020-01-03 2022-08-02 百度在线网络技术(北京)有限公司 智能音频装置、方法、电子设备及计算机可读介质
CN111931482B (zh) * 2020-09-22 2021-09-24 思必驰科技股份有限公司 文本分段方法和装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6954522B2 (en) 2003-12-15 2005-10-11 International Business Machines Corporation Caller identifying information encoded within embedded digital information
CN108074574A (zh) * 2017-11-29 2018-05-25 维沃移动通信有限公司 音频处理方法、装置及移动终端
DE102022115111A1 (de) 2022-04-07 2023-10-12 Grundig Business Systems Gmbh Verfahren und Vorrichtung zur Verarbeitung von Audio- und/oder Videoinformationen

Also Published As

Publication number Publication date
CN1279462A (zh) 2001-01-10
JP4132590B2 (ja) 2008-08-13
CN1174374C (zh) 2004-11-03

Similar Documents

Publication Publication Date Title
US11900947B2 (en) Method and system for automatically diarising a sound recording
US6421645B1 (en) Methods and apparatus for concurrent speech recognition, speaker segmentation and speaker classification
US6424946B1 (en) Methods and apparatus for unknown speaker labeling using concurrent speech recognition, segmentation, classification and clustering
KR100388344B1 (ko) 컨텐츠 및 화자 정보를 이용한 오디오 정보 검색 방법 및장치
US6748356B1 (en) Methods and apparatus for identifying unknown speakers using a hierarchical tree structure
US6434520B1 (en) System and method for indexing and querying audio archives
Kotti et al. Speaker segmentation and clustering
Moattar et al. A review on speaker diarization systems and approaches
US7739114B1 (en) Methods and apparatus for tracking speakers in an audio stream
JP6323947B2 (ja) 音響イベント認識装置、及びプログラム
US11501546B2 (en) Media management system for video data processing and adaptation data generation
CN107480152A (zh) 一种音频分析及检索方法和系统
Castán et al. Audio segmentation-by-classification approach based on factor analysis in broadcast news domain
CN113192516A (zh) 语音角色分割方法、装置、计算机设备及存储介质
JP4132590B2 (ja) 同時的な音声認識、スピーカ・セグメンテーション及びスピーカ分類のための方法及び装置
Feki et al. Automatic environmental sound concepts discovery for video retrieval
Huang et al. Sports audio segmentation and classification
Harb et al. A general audio classifier based on human perception motivated model
Al-Maathidi Optimal feature selection and machine learning for high-level audio classification-a random forests approach
CHANTANGPHOL et al. Speaker diarization in broadcast news
BAKSHI et al. DURATION-NORMALIZED FEATURE SELECTION FOR INDIAN SPOKEN LANGUAGE IDENTIFICATION IN UTTERANCE LENGTH MISMATCH
Lu et al. Audio content discovery: an unsupervised approach
CN117157708A (zh) 支持插话式内容的说话人日志
Viswanathan et al. Multimedia information access using multiple speaker classifiers
Bai et al. Robust Target Speaker Tracking in Broadcast TV Streams

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041014

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20041019

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20041210

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20061207

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20061212

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20070308

RD12 Notification of acceptance of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7432

Effective date: 20080214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080422

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20080527

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080602

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 3

S202 Request for registration of non-exclusive licence

Free format text: JAPANESE INTERMEDIATE CODE: R315201

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120606

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120606

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130606

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees