JP2007241130A - 声紋認識を利用するシステムと装置 - Google Patents

声紋認識を利用するシステムと装置 Download PDF

Info

Publication number
JP2007241130A
JP2007241130A JP2006066610A JP2006066610A JP2007241130A JP 2007241130 A JP2007241130 A JP 2007241130A JP 2006066610 A JP2006066610 A JP 2006066610A JP 2006066610 A JP2006066610 A JP 2006066610A JP 2007241130 A JP2007241130 A JP 2007241130A
Authority
JP
Japan
Prior art keywords
voiceprint
data
voice
unit
voiceprint data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006066610A
Other languages
English (en)
Inventor
Miyoshi Torii
美佳 鳥居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006066610A priority Critical patent/JP2007241130A/ja
Publication of JP2007241130A publication Critical patent/JP2007241130A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】テレビの出演者を声紋で特定するシステムを提供する。
【解決手段】1または複数の検索対象の声紋データが格納された声紋データ記憶部15と、不特定な人物の音声データが入力するごとに前記音声データから声紋データを作成する声紋データ作成部13と、声紋データ作成部13が作成した声紋データを声紋データ記憶部15に格納された1または複数の検索対象の声紋データと順次照合して一致する声紋データを検出する声紋データ解析部14と、声紋データ解析部14が一致する声紋データを検出したことを契機として予め指定された動作を実行する制御部16〜18,20とを備えている。多数の人間の中から特定の人物を声紋によって探し出すことができ、また、探し出したことを契機に、所定の動作を実行することができる。
【選択図】図1

Description

本発明は、声紋を利用して人物を特定するシステムと、その装置に関し、特に、テレビの出演者やテレビ会議の参加者などを声紋で特定するようにしたものである。
音声のスペクトルを表す声紋は、同じ言葉を発音しても個人個人で異なるため、指紋などと同様に、生体認証手段の一つとして利用することが可能であり、近年、本人確認を声紋で行うシステムが種々開発されている。
例えば、下記特許文献1には、オンライン学習に際し、声紋で本人確認を行う受講者識別システムが開示されている。このシステムでは、オンライン学習提供側のサーバに事前に受講者の声紋が登録され、受講者は、受講の際、端末から受講者IDを入力し、次いで、サーバの指示に従ってキーワードまたはフリーキーワードを音声で入力する。サーバは、受講者IDに対応付けて登録されている声紋と、入力された音声の声紋とを照合し、本人確認を行う。
また、下記特許文献2には、顧客に電話を掛けて通信販売案内情報などを知らせるアウトバウンド(電話発信)システムにおいて、顧客の声紋データを予め格納し、電話に出た相手の音声の声紋と照合することにより、その相手が所望の顧客であるか否かを判定する方式が開示されている。
このように、現在の声紋認識技術では、あらかじめ登録された言葉を用いる場合だけでなく、全く自由に喋った言葉で個人を特定することも可能である。
これらのシステムでは、照合時点で、声紋照合の対象者が受講者IDや電話番号で特定されており、かつ、照合すべき音声データの入力タイミングも定まっている。そして、声紋照合は、受講者IDや電話番号で特定された人物を確認するための手段として用いられている。
こうした従来のシステムでは、多数の人間の中から特定の人物を探し出すために声紋を利用する、と言う考え方は無い。大勢の中から個々の人物を特定する場合には、従来、他の手段が採られている。
例えば、テレビを視聴するユーザは、多数のテレビ出演者の中から好みの出演者が出演するテレビ番組を見つけ出したい、と言う要求を有しているが、こうした場合に、従来のシステム(例えば下記特許文献3に記載された放送番組送受信システム)では、配信された番組表(出演者名が記載されている)を用いて自動検索が行われる。この放送番組送受信システムでは、さらに、検索された出演者の出る番組が、受信装置により自動録画される。
また、テレビ会議システムでは、会議参加者の中で誰が発言者であるかを特定できるようにしたいと、言う要求があるが、こうした場合に、従来のシステム(例えば下記特許文献4に記載された会議制御方式)では、各マイクから入力される会議参加者の音声レベルによって各参加者の発言の有無が識別され、会議参加者の各端末に、発言中の参加者を区別する表示が行われる。
また、テレビ会議用端末では、耳や言葉の不自由な利用者でも着信や発信者の識別が可能な装置が開発されている(下記特許文献5)。発信する利用者は、自己の端末に予め名前を入力して記憶させる。この端末から発呼が行われると、発信者の名前と電話番号とが相手側に送信され、受信側端末のランプが点灯して、画面に発信者の名前と電話番号とが文字で表示される。
特開2004−177663号公報 特開2001−136286号公報 特開2002−199303号公報 特開平6−62400号公報 特開2001−8183号公報
しかし、番組表の情報から好みの出演者を検索する場合には、番組表データに含まれていない出演者は検索することができない。また、番組表に出ている場合でも、その出演者が番組中の何時の時点で登場するのかは分からない。
また、テレビ会議の発言者を音声レベルで識別する方式は、参加者全員に対して個別にマイクを配置することが可能な環境でなければ実現できない。
また、発信者名を表示する特許文献5の方式では、発信者名の通知が着信時にのみ行われるため、会議中の発言者の識別には利用できない。
本発明は、こうした事情を考慮して創案したものであり、テレビの出演者やテレビ会議の参加者等を声紋で特定するシステムと、そのシステムを構成する装置とを提供することを目的としている。
本発明の声紋認識利用システムは、1または複数の検索対象の声紋データが格納された声紋データ記憶部と、不特定な人物の音声データが入力されるごとに前記音声データから声紋データを作成する声紋データ作成部と、声紋データ作成部が作成した声紋データを声紋データ記憶部に格納された1または複数の検索対象の声紋データと順次照合して一致する声紋データを検出する声紋データ解析部と、声紋データ解析部が一致する声紋データを検出したことを契機として予め指定された動作を実行する制御部とを備えている。
このシステムでは、入力音声から次々と声紋データが作成され、予め登録された声紋データと順次照合され、一致する声紋データが検出される。
また、本発明の声紋認識利用システムでは、声紋データ作成部が、テレビ放送の受信音声から番組出演者の声紋データを作成し、声紋データ解析部が、前記声紋データを声紋データ記憶部に格納された人物の声紋データと照合する。
このシステムでは、好みのタレントの声紋データを声紋データ記憶部に格納しておけば、そのタレントがテレビに出演したときに、テレビ放送の音声データから自動的に検出される。
また、本発明の声紋認識利用システムでは、声紋データ記憶部に、事前に放送されたテレビ放送の受信音声から声紋データ作成部が作成した特定の番組出演者の声紋データが格納され、あるいは、マイク等の入力装置やネットワークを通じて取得した特定の人物の声紋データが格納される。
また、本発明の声紋認識利用システムでは、声紋データ解析部による声紋データの一致の検出を契機として、制御部が、テレビ放送の番組を録画したり、音声表示の音量を変えたり、表示器の表示形態を変えたりする。
また、本発明の声紋認識利用システムでは、声紋データ作成部が、テレビ会議の受信音声から会議参加者の声紋データを作成し、声紋データ解析部が、前記声紋データを声紋データ記憶部に事前に格納された会議参加者の声紋データと照合する。
このシステムでは、発言中の参加者の声紋が作成され、事前に格納された会議参加者の声紋データと照合されて発言者が特定される。
また、本発明の声紋認識利用システムでは、さらに、発言内容を識別する音声認識部を備え、声紋データ記憶部に、テレビ会議参加者の自己紹介の音声から声紋データ作成部が作成したテレビ会議参加者の声紋データと、同音声から音声認識部が識別した当該テレビ会議参加者の特定情報とが格納される。また、声紋データ記憶部に、テレビ会議参加者の自己紹介の音声から声紋データ作成部が作成したテレビ会議参加者の声紋データと、音声から音声認識部が識別した当該テレビ会議参加者の特定情報に加え、キーボードやカメラ等の入力装置により入力された会議参加者の特定情報とが格納される。
また、本発明の声紋認識利用システムでは、声紋データ解析部による声紋データの一致の検出を契機として、制御部が、特定の参加者の発言を録音したり、発言者の特定情報を出力装置に表示したりする。
また、本発明の声紋認識利用システムでは、声紋データ解析部により特定された発言者と、音声認識部により識別された発言内容とからテレビ会議の議事録が作成される。
また、本発明の声紋認識利用システムでは、前記声紋データ記憶部、声紋データ作成部、声紋データ解析部、及び、制御部が端末装置に配置される。
または、声紋データ記憶部、声紋データ作成部、及び、声紋データ解析部がサーバに配置され、制御部が端末装置に配置され、端末装置は、入力した音声データをサーバに送信し、サーバから声紋データ解析部の検出結果を受信する。
あるいは、声紋データ作成部、及び、声紋データ解析部がサーバに配置され、声紋データ記憶部、及び、制御部が端末装置に配置され、端末装置は、声紋データ記憶部に格納された検索対象の声紋データ、及び、入力した音声データをサーバに送信し、サーバから声紋データ解析部の検出結果を受信する。
本発明の端末装置は、1または複数の検索対象の声紋データが格納された声紋データ記憶部と、不特定な人物の音声データが入力するごとに前記音声データから声紋データを作成する声紋データ作成部と、声紋データ作成部が作成した声紋データを声紋データ記憶部に格納された1または複数の検索対象の声紋データと順次照合して一致する声紋データを検出する声紋データ解析部と、声紋データ解析部が一致する声紋データを検出したことを契機として予め指定された動作を実行する制御部とを備えている。また、本発明の端末装置は、不特定な人物の音声データが入力するごとに前記音声データをサーバに送信し、サーバ上の予め指定した声紋との照合結果をサーバから受信し、予め指定された動作を実行する制御部とを備えている。また、本発明の端末装置は、声紋データ作成部が作成した声紋データを格納する声紋データ記憶部と、不特定な人物の音声データが入力するごとに前記音声データをサーバに送信し、前記記憶部より事前に送信した1または複数の声紋データとの照合結果をサーバから受信し、予め指定された動作を実行する制御部とを備えている。
この端末装置は、多数の人間の中から特定の人物を声紋によって探し出す処理を単独で行うことができる。
本発明のサーバは、1または複数の声紋データが格納された声紋データ記憶部を備えている。また、本発明のサーバは、1または複数の検索対象の声紋データが格納された声紋データ記憶部と、端末装置より送られた音声データから声紋データを作成する声紋データ作成部と、声紋データ作成部が作成した声紋データを声紋データ記憶部に格納された1または複数の検索対象の声紋データと順次照合し、一致する声紋データを検出すると一致情報を前記端末装置に伝える声紋データ解析部とを備えている。
または、本発明のサーバは、端末装置より送られた音声データから声紋データを作成する声紋データ作成部と、声紋データ作成部が作成した声紋データを、端末装置より事前に送られた1または複数の検索対象の声紋データと順次照合し、一致する声紋データを検出すると一致情報を端末装置に伝える声紋データ解析部とを備えている。
これらのサーバは、端末装置とともに分散型の声紋認識利用システムを構成する。
本発明の声紋認識利用システム及び装置は、多数の人間の中から特定の人物を声紋によって探し出すことができ、また、探し出したことを契機に、所定の動作を実行することができる。
(第1の実施形態)
図1は、本発明の第1の実施形態における端末装置の構成を示し、図2のフロー図は、その動作を示している。
図1の端末装置10は、テレビ放送の視聴が可能な携帯端末または固定端末であり、テレビ受信機11と、音声以外の音を除去する雑音除去フィルタ12と、声紋データ作成部13と、声紋データ解析部14と、声紋データベース(声紋データ記憶部)15と、音声出力制御部16と、録画/録音制御部17と、LED点灯制御部18と、ユーザが指示を入力する入力部19と、ユーザの指示に基づいて各部を制御する制御部20とを具備している。また、図示を省略しているが、音声や画像を表示する表示部や、外部サーバまたはデジタルテレビ網40と通信を行う通信部を備えている。
テレビ受信機11は、テレビ放送を受信し、その映像や音声が表示部に表示される。
雑音除去フィルタ12は、テレビ受信機11で受信された音声データから、音声以外の雑音を除去する。
声紋データ作成部13は、雑音除去フィルタ12から出力された音声データの周波数を分析し、周波数成分の時間的変化を求めて声紋データを作成する。
声紋データベース15には、声紋データ作成部13が作成した声紋データや、外部サーバまたはデジタルテレビ網40の声紋データベース41にアクセスして取得した声紋データが格納される。
声紋データ解析部14は、声紋データベース15から読み出した声紋データと、声紋データ作成部13が受信音声データから作成した声紋データとを比較して一致するか否かを識別し、一致を検出した場合に制御部20に通知する。
音声出力制御部16は、制御部20の指示に基づいて、表示する音声の音量を制御する。
録画/録音制御部17は、制御部20の指示に基づいて、テレビ受信機11が受信した映像及び音声を録画・録音する。
LED点灯制御部18は、制御部20の指示に基づいて、端末10に設けられた表示器としてのLED(不図示)の点灯を制御する(表示器の表示形態の制御)。LEDは、テレビ受信機11の図示せぬ表示部、または他の装置の画面等と同様、発言者の特定情報を表示する出力装置を構成する。
入力部19は、ボタンやキー、GUI画面等を具備し、ユーザがそれらを使って装置10の動作を指示する。
制御部20は、入力部19からの指示に基づいて音声出力制御部16、録画/録音制御部17、LED点灯制御部18等の動作を制御する。
次に、テレビ視聴を行う際の端末10の動作について説明する。
(声紋データの事前登録)
ユーザは、事前に、所望の俳優やタレントの声紋データ取得の操作を入力部19から行う。声紋データの取得は、外部サーバまたはデジタルテレビ網40の声紋データベース41から行われ、あるいは、端末10でのテレビ視聴中(または、録画したテレビ番組の再生中)に、該当する人物が登場した場面で、声紋データの作成指示を出すことにより行われる。
このとき、制御部20は、外部サーバまたはデジタルテレビ網40からの声紋データ取得指示が出された場合には、通信部(不図示)を介して声紋データベース41にアクセスし、指定された声紋データを取得して、該当する人物の識別情報と関連付けて声紋データベース15に格納する。また、番組の視聴中に声紋データ取得の指示が出された場合は、声紋データ作成部13に声紋データの作成を指示し、声紋データ作成部13が受信音(再生音)から作成した声紋データと入力部19から入力された識別情報とを関連付けて、声紋データベース15に格納する。
(声紋検出時の処理選択)
また、ユーザは、テレビ視聴中に所望のタレントの声紋が検出されたときの処理を予め入力部19から選択する。
例えば、
(1)端末10のLEDを点滅させる。
(2)表示部の音量を予め設定した大きさに上げる。
(3)受信映像及び音声を録画・録音する。
(3−1)当該タレントが話している時間のみ録画する。
(3−2)録画時間を予め5分、10分等と分刻みで設定し、声紋検出時から設定した時間だけ録画を継続する。
(3−3)予め受信した番組データを参照して、受信中の番組の終了時刻を求め、声紋検出時から同終了時刻まで録画を行う。
(3−4)蓄積型の受信装置(録画予約していない番組データも自動的にバックアップして蓄積する受信装置)では、声紋が検出された番組を先頭から終了時点まで録画する。
等である。
(検索対象声紋の選択)
また、ユーザは、声紋データベース15に格納された声紋データの中から、検出時に前記処理を行う検索対象の声紋データを識別情報により指定する。声紋データベース15に複数の声紋データが格納されている場合は、検索対象に、その内の幾つかを指定したり、全てを指定したりすることができる。また、声紋データごとに異なる処理を設定することも可能である。
なお、検索対象の声紋データを選択しない場合には、テレビ視聴時の声紋検出は行われない。
(テレビ視聴時の処理フロー)
ユーザは、事前登録や事前選択が終了した後、テレビ視聴を開始する。このときの端末10での処理を図2に基づいて説明する。
制御部20は、入力部19からテレビ視聴開始が指示されると、テレビ受信機11を起動する(ステップ1)。
また、制御部20は、声紋データ作成部13に対して声紋データの作成を指示し、声紋データ解析部14に対して、検索対象の声紋データの識別情報を通知して、声紋データの解析を指示する。声紋データ作成部13は、雑音除去フィルタ12から入力する音声データの有無を識別し(ステップ2)、音声データが入力すると、声紋データを作成する(ステップ3)。
声紋データ解析部14は、声紋データベース15から、指示された声紋データを読み出し、声紋データ作成部13が作成した声紋データと照合する(ステップ4)。照合の結果、それらが一致していなければ(ステップ5でNo)、ステップ2からの動作が繰り返される。
ステップ5において、照合の結果、それらが一致していた場合は、声紋データ解析部14から制御部20に声紋データの一致が通知される。これを受けて制御部20は、「声紋検出時の処理選択」で選択された動作を実行するように音声出力制御部16、録画/録音制御部17及びLED点灯制御部18を制御する(ステップ6)。
制御部20は、ステップ2〜ステップ6の動作をテレビ視聴の終了まで繰り返し、入力部19からテレビ視聴終了が指示されると、各部の動作を停止する(ステップ7)。
なお、外部サーバまたはデジタルテレビ網40の声紋データベース41で、タレントの声紋データと共にタレントのプロフィールや写真、最新の出演番組情報等を保持するようにすれば、これらの情報を声紋データベース41から取得した端末10が、テレビ視聴中に当該声紋データを検出したとき、前記処理と併せて、そのタレントのプロフィールや写真を声紋データベース15から読み出して画面に表示することが可能になる。
また、電力消費を節約するため、テレビ視聴時の声紋認証機能は、ユーザにより、そのモードが指定された場合にのみ実施される、とすることが好ましい。
(第2の実施形態)
本発明の第2の実施形態では、第1の実施形態における端末の一部機能をサーバに移した分散型システムについて説明する。
図3は、このシステムの構成を示すブロック図であり、図4及び図5は、端末とサーバとの動作を示すシーケンス図である。
このシステムは、端末装置100と、外部サーバ50と、声紋データベース41を有する他のサーバまたはデジタルテレビ網40とから成る。
端末装置100は、テレビ受信機11と、雑音除去フィルタ12と、音声出力制御部16と、録画/録音制御部17と、LED点灯制御部18と、入力部19と、制御部20と、外部サーバ50への通信手段である送受信部102とを具備している。
また、外部サーバ50は、声紋データ作成部51と、声紋データ解析部52と、個人用の声紋データベース53と、共通用の声紋データベース54とを備えている。
個人用声紋データベース53は、端末装置100ごとに設定された端末装置100専用の声紋データベースであり、端末装置100から登録要請された人物の声紋データ、あるいは、端末装置100から登録用に送られた声紋データが格納される。
共通用声紋データベース54には、多数の人物の声紋データが格納されており、端末装置100から人物を指定して声紋データの登録要請が有った場合に、該当する声紋データが格納されているときには、それが共通用声紋データベース54から個人用声紋データベース53に転送されて登録される。
このシステムにおいて、端末装置100のユーザは、インターネット等のネットワークを利用して外部サーバ50にアクセスし、外部サーバ50の声紋データ作成部51、声紋データ解析部52、及び、個人用声紋データベース53を利用することにより、第1の実施形態の端末装置10と同様のテレビ視聴を行うことができる。
「声紋データの事前登録」は、外部サーバ50にアクセスし、端末装置100の入力部19から所望のタレントの識別情報を入力して行うことができる。該当する声紋データが外部サーバ50の共通用声紋データベース54に格納されている場合は、その声紋データが共通用声紋データベース54から個人用声紋データベース53に転送されて登録される。また、該当する声紋データが共通用声紋データベース54に格納されていない場合は、外部サーバ50が、他のサーバまたはデジタルテレビ網40の声紋データベース41からそれを取得し、個人用声紋データベース53に格納する。
また、ユーザは、端末100のテレビ視聴時に聞いた音声を外部サーバ50に送り、その声紋データを登録することもできる。
図5は、このときの手順を示している。端末100でのテレビ視聴時の音声データが録音され(ステップ30)、その音声データが、ユーザ識別情報や登録データ識別情報等と共に外部サーバ50に送信される。
外部サーバ50の声紋データ作成部51は、送られた音声データの声紋データを作成する(ステップ31)。作成された声紋データは、該当するユーザの個人用声紋データベース53に登録・格納され(ステップ32)、登録結果が外部サーバ50から端末100に送信される。
「声紋検出時の処理選択」は、第1の実施形態と同じように行われる。
「検索対象声紋の選択」は、入力部19から声紋データの識別情報を入力して行われ、選択された声紋データの識別情報が外部サーバ50に送られる。
事前登録や事前選択の操作を終了した後、ユーザが端末100でのテレビ視聴を開始すると、図4に示す手順が実行される。
端末100の制御部101は、入力部19からの指示に従ってテレビ受信機11を起動し、テレビ視聴が開始される(ステップ10)。雑音除去フィルタ12から音声データが出力されると(ステップ11)、制御部101は、送受信部102を通じて、その音声データを外部サーバ50に送信する。
外部サーバ50の声紋データ作成部51は、入力した音声データの周波数を分析して声紋データを作成し、声紋データ解析部52に出力する(ステップ20)。声紋データ解析部52は、検索対象に指定された声紋データを個人用声紋データベース53から読み出し、声紋データ作成部51が作成した声紋データと照合する(ステップ21)。照合の結果、一致しているときは(ステップ22でYes)、合致したデータの情報を端末100に送信する。照合結果が不一致であるときは(ステップ22でNo)、次の検索対象の声紋データと照合を行い、全ての検索対象データとの照合が済むまで、それを繰り返す。全ての検索対象データと照合しても一致データが検出できないときは(ステップ23でYes)、一致データ無しを端末100に伝える。
端末100の制御部101は、一致データが有る場合に(ステップ12でYes)、「声紋検出時の処理選択」で選択された動作を実行する(ステップ13)。
この手順が音声入力の度に繰り返される。
このシステムでは、比較的大きな処理能力を必要とする声紋データ作成及び声紋データ解析の処理をサーバに任せているため、端末の処理負担が軽減される。
(第3の実施形態)
本発明の第3の実施形態では、声紋データベースを端末側で保持し、声紋データ作成及び声紋データ解析の処理だけをサーバに任せる分散型システムについて説明する。
図6は、このシステムの構成を示すブロック図であり、図7は、端末とサーバとの動作を示すシーケンス図である。
この端末装置110は、個人用声紋データベース113を有している点が第2の実施形態の端末装置100と異なり、外部サーバ150は、声紋データ作成部51及び声紋データ解析部52以外を有していない点が第2の実施形態の外部サーバ50と異なる。
このシステムの端末装置110では、「声紋データの事前登録」のために、外部サーバまたはデジタルテレビ網40の声紋データベース41にアクセスして声紋データの取得が行われ、個人用声紋データベース113に格納される。あるいは、端末110でのテレビ視聴時(または録画再生時)の音声データが外部サーバ150に送られ、声紋データ作成部51で作成された声紋データが端末110に返送されて、個人用声紋データベース113に格納される。
「声紋検出時の処理選択」は、第1の実施形態と同じように行われる。
「検索対象声紋の選択」は、ユーザが入力部19から声紋データの識別情報を入力することによって行われ、その識別情報に該当する声紋データが個人用声紋データベース113から読み出されて、外部サーバ150に送られる。
図7は、このシステムでのテレビ視聴時の端末110及び外部サーバ150間のシーケンスを示している。このシーケンスは、第2の実施形態(図4)と比較して、テレビ視聴開始(ステップ10)に先立ち、検索対象の声紋データが端末110から外部サーバ150に送信される点だけが相違しており、その他のステップは同じである。外部サーバ150の声紋データ解析部52は、端末110から送られた検索対象の声紋データを使用して、声紋データ作成部51が入力音声データから作成した声紋データとの照合を行う。
このシステムにおいても、声紋データ作成及び声紋データ解析の処理をサーバに任せているため、端末の処理負担が軽減される。
(第4の実施形態)
本発明の第4の実施形態では、テレビ会議用端末装置について説明する。
図8は、この端末装置の構成を示し、図9のフロー図は、その動作を示している。また、図10及び図11は、この端末装置の機能の一部をサーバに移した分散型システムの構成を示している。
図8の端末装置60は、ISDN回線、インターネット回線あるいは無線回線等を介してテレビ会議を行う携帯端末または固定端末であり、映像・音声受信部61と、マイク62と、カメラ63と、音声認識部65とを具備し、さらに、第1の実施形態の端末(図1)と同様に、雑音除去フィルタ12、声紋データ作成部13、声紋データ解析部14、声紋データベース15、音声出力制御部16、録画/録音制御部17、LED点灯制御部18、入力部19及び制御部64を具備している。
映像・音声受信部61は、他の端末から送られた映像及び音声を受信する。受信映像はモニタ(不図示)に表示され、受信音声はスピーカ(不図示)から放音され、同時に、雑音除去フィルタ12に出力される。
マイク62は、端末60のユーザ(一名または複数名)の音声を電気信号に変換する。変換された音声データは、他の端末に送信され、同時に、雑音除去フィルタ12に出力される。マイク62は、特定人物の声紋データを入力する入力装置として機能する。
カメラ63は、発言するユーザの顔等を撮影し、その映像は他の端末に送信される。カメラ63より撮影された顔写真や、別途用意されたキーボード、マウス等より入力される情報は、会議参加者の特定情報として利用され得る。
雑音除去フィルタ12は、映像・音声受信部61やマイク62から入力する音声データから、音声以外の雑音を除去する。
声紋データ作成部13は、雑音除去フィルタ12から入力する音声データを分析して声紋データを作成する。
声紋データベース15には、声紋データ作成部13が作成したテレビ会議参加者の声紋データや、外部サーバまたはデジタルテレビ網40の声紋データベース41にアクセスして取得したテレビ会議参加者の特定情報(名前、所属グループ、写真、プロフィール等)が格納される。
声紋データ解析部14は、声紋データベース15から読み出した声紋データと、声紋データ作成部13が受信音声データから作成した声紋データとを比較して一致するか否かを識別する。
音声出力制御部16は、制御部64の指示に基づいて、スピーカ(不図示)から放音する音声の音量を制御する。
録画/録音制御部17は、制御部64の指示に基づいて、映像・音声受信部61で受信された映像及び音声を録画・録音する。
LED点灯制御部18は、制御部64の指示に基づいて、端末60に設けられたLED(不図示)の点灯を制御する。
音声認識部65は、制御部64の指示に基づいて、映像・音声受信部61で受信された音声やマイク62から入力した音声の内容を認識する。
入力部19は、ボタンやキー、GUI画面等を具備し、ユーザがそれらを使って装置60の動作を指示する。
制御部64は、入力部19からの指示に基づいて音声出力制御部16、録画/録音制御部17、LED点灯制御部18、音声認識部65等の動作を制御する。
また、外部サーバまたはデジタルテレビ網40の声紋データベース41には、大勢の人物の名前、所属グループ、声紋データ、写真、プロフィール等が格納されている。
次に、テレビ会議の際の動作について説明する。
(参加者の声紋データの登録)
テレビ会議では、冒頭、参加者の自己紹介が行われ、その際に各参加者の音声データから声紋データが作成され、音声識別で得られた参加者の名前と共に声紋データベース15に登録される。
このとき、他の端末を使用する参加者の音声は、端末60の映像・音声受信部61で受信され、参加者の名前が音声認識部65で識別され、声紋データが声紋データ作成部13で作成される。また、端末60のユーザ(一名または複数名)の音声は、マイク62から入力し、ユーザの名前が音声認識部65で識別され、声紋データが声紋データ作成部13で作成される。
また、制御部64は、参加者の名前と声紋データとを声紋データベース15に登録する際に、外部サーバまたはデジタルテレビ網40の声紋データベース41にアクセスして、その名前に対応する人物の所属グループ、写真、プロフィール等のデータを取得し、端末60の声紋データベース15に併せて格納する。
(声紋検出時の動作指定)
また、ユーザは、テレビ会議参加者の声紋が検出されたときの処理を予め入力部19から指定する。
例えば、
(1)声紋データにより発言者が特定できた場合に、声紋データベース15に登録されている発言者の特定情報(名前、所属グループ、写真、プロフィール等)を表示する。
(2)声紋データにより発言者が特定できた場合に、その発言者に応じた点灯色、または、その発言者の登録グループ(会社名など)に応じた点灯色でLEDを表示する。
(3)特定の発言者の発言内容のみを録音する。
(4)発言者ごとに録音データを分けて保存する。
等である。
(議事録の作成)
また、テレビ会議終了後に、録音した音声から、発言者を声紋解析により特定し、発言内容を音声認識により識別し、その発言者と発言内容とをテキストに出力して議事録を作成する。
(テレビ会議の処理フロー)
このテレビ会議の処理フローを図9に基づいて説明する。
出席者の自己紹介が開始されると(ステップ30)、制御部64は、音声認識部65に音声認識を指示し、声紋データ作成部13に声紋データの作成を指示し (ステップ31)、声紋データ作成部13が作成した声紋データと音声認識部65が認識した参加者の個人名とを声紋データベース15に登録する(ステップ32)。この処理を自己紹介の終了(ステップ33)まで繰り返す。
会議が開始されると、制御部64は、録画/録音制御部17に対して録音の開始を指示する(ステップ34)。声紋データ作成部13は、雑音除去フィルタ12から入力する音声データの有無を識別し(ステップ35)、音声データが入力すると、声紋データを作成する(ステップ36)。
声紋データ解析部14は、声紋データベース15に登録された声紋データを順次読み出し、声紋データ作成部13が作成した声紋データと照合する(ステップ37)。
照合の結果、それらが一致していなければ(ステップ38でNo)、ステップ35に戻る。
ステップ38において、照合の結果、それらが一致した場合は、声紋データ解析部14から制御部64に声紋データの一致が通知される。これを受けて制御部64は、「声紋検出時の動作指定」で設定した動作、例えば、声紋データベース15から発言者の名前やプロフィールを読み出して表示する動作や、LED点灯制御部18の制御の下に発言者に応じた点灯色でLEDを表示する動作 、を実行する(ステップ39)。
ステップ35〜ステップ39の動作は会議終了まで繰り返され、会議が終了すると制御部64は、録画/録音制御部17に録音の終了を指示する (ステップ40)。
次いで、議事録作成を開始する(ステップ41)。
録音した音声の声紋を解析して発言者を特定し、録音した音声の音声認識を行い、発言内容を識別する(ステップ42)。その発言者と発言内容とをテキストに出力する(ステップ43)。この処理を繰り返して議事録を作成する(ステップ44)。
従来のテレビ会議システムでは、出席者が大人数の場合や、画面から外れている人が発言した場合に、発言者が不明確になるが、このシステムでは、発言者に応じてLEDの表示を変えたり、発言者の名前やプロフィールを表示したりすることができるため、発言者を容易に識別できる。
また、会議の議事録を自動的に作成することができる。
なお、電力消費を節約するため、テレビ会議中の声紋認証機能は、ユーザにより、そのモードが指定された場合にのみ実施される、とすることが好ましい。
また、ここでは、端末装置60に声紋データ作成部13、声紋データ解析部14、音声認識部65を置く場合について説明したが、図10及び図11に示すように、それらをサーバ50に配置して分散型のシステムとすることも可能である。このシステムでの端末装置60とサーバ50とのシーケンスは、第2の実施形態(図3、図4)及び第3の実施形態(図6、図7)とほぼ同様に行われる。
また、端末装置60が電話帳情報を有している場合は、声紋データを電話帳情報と関連付けて登録するようにしても良い。
また、各実施形態では、テレビ視聴やテレビ会議について説明したが、本発明は、ラジオ視聴や電話会議など、画像が無く音声のみの場合にも応用できる。
以上、本発明の各種実施形態を説明したが、本発明は前記実施形態において示された事項に限定されず、明細書の記載、並びに周知の技術に基づいて、当業者がその変更・応用することも本発明の予定するところであり、保護を求める範囲に含まれる。
本発明の声紋認識利用システム及び装置は、声だけで、多数の人の中から特定の人物を探し出すことが可能であり、例えばテレビ・ラジオの出演者やテレビ会議の発言者等を特定するシステムなどに広く利用することができる。
本発明の第1の実施形態における端末装置の構成を示すブロック図 本発明の第1の実施形態における端末装置の動作を示すフロー図 本発明の第2の実施形態における分散システムの構成を示すブロック図 本発明の第2の実施形態における分散システムの動作を示すフロー図 本発明の第2の実施形態における分散システムの声紋データ登録時の動作を示すフロー図 本発明の第3の実施形態における分散システムの構成を示すブロック図 本発明の第3の実施形態における分散システムの動作を示すフロー図 本発明の第4の実施形態における端末装置の構成を示すブロック図 本発明の第4の実施形態における端末装置の動作を示すフロー図 本発明の第4の実施形態における分散システムの構成を示すブロック図 本発明の第4の実施形態における分散システムの他の構成を示すブロック図
符号の説明
10 端末装置
11 テレビ受信機
12 雑音除去フィルタ
13 声紋データ作成部
14 声紋データ解析部
15 声紋データベース
16 音声出力制御部
17 録画/録音制御部
18 LED点灯制御部
19 入力部
20 制御部
40 外部サーバまたはデジタルテレビ網
41 声紋データベース
50 外部サーバ
51 声紋データ作成部
52 声紋データ解析部
53 個人用声紋データベース
54 共通用声紋データベース
55 音声認識部
60 端末装置
61 映像・音声受信部
62 マイク
63 カメラ
64 制御部
65 音声認識部
100 端末装置
110 端末装置
113 個人用声紋データベース

Claims (18)

  1. 1または複数の検索対象の声紋データが格納された声紋データ記憶部と、
    不特定な人物の音声データが入力されるごとに前記音声データから声紋データを作成する声紋データ作成部と、
    前記声紋データ作成部が作成した前記声紋データを前記声紋データ記憶部に格納された1または複数の検索対象の声紋データと順次照合して一致する声紋データを検出する声紋データ解析部と、
    前記声紋データ解析部が一致する声紋データを検出したことを契機として予め指定された動作を実行する制御部と、
    を備える声紋認識利用システム。
  2. 請求項1に記載の声紋認識利用システムであって、
    前記声紋データ作成部が、テレビ放送の受信音声から番組出演者の声紋データを作成し、前記声紋データ解析部が、前記声紋データを前記声紋データ記憶部に格納された人物の声紋データと照合する声紋認識利用システム。
  3. 請求項2に記載の声紋認識利用システムであって、
    前記声紋データ記憶部に、事前に放送されたテレビ放送の受信音声から前記声紋データ作成部が作成した特定の番組出演者の声紋データが格納される声紋認識利用システム。
  4. 請求項2に記載の声紋認識利用システムであって、
    前記声紋データ記憶部に、ネットワークまたは入力装置を通じて取得した特定の人物の声紋データが格納される声紋認識利用システム。
  5. 請求項2ないし4のいずれか1項に記載の声紋認識利用システムであって、
    前記声紋データ解析部による声紋データの一致の検出を契機として、前記制御部が、テレビ放送の番組を録画する声紋認識利用システム。
  6. 請求項2ないし4のいずれか1項に記載の声紋認識利用システムであって、
    前記声紋データ解析部による声紋データの一致の検出を契機として、前記制御部が、音声表示の音量を変える声紋認識利用システム。
  7. 請求項2ないし4のいずれか1項に記載の声紋認識利用システムであって、
    前記声紋データ解析部による声紋データの一致の検出を契機として、前記制御部が、表示器の表示形態を変える声紋認識利用システム。
  8. 請求項1に記載の声紋認識利用システムであって、
    前記声紋データ作成部が、テレビ会議の受信音声から会議参加者の声紋データを作成し、前記声紋データ解析部が、前記声紋データを前記声紋データ記憶部に事前に格納された前記会議参加者の声紋データと照合する声紋認識利用システム。
  9. 請求項8に記載の声紋認識利用システムであって、
    さらに、発言内容を識別する音声認識部を備え、前記声紋データ記憶部に、テレビ会議参加者の自己紹介の音声から前記声紋データ作成部が作成した前記テレビ会議参加者の声紋データと、同音声から前記音声認識部が識別した当該テレビ会議参加者の特定情報とが格納される声紋認識利用システム。
  10. 請求項8または9に記載の声紋認識利用システムであって、
    前記声紋データ解析部による声紋データの一致の検出を契機として、前記制御部が、特定のテレビ会議参加者の発言を録音する声紋認識利用システム。
  11. 請求項9に記載の声紋認識利用システムであって、
    前記声紋データ解析部による声紋データの一致の検出を契機として、前記制御部が、発言者の特定情報を出力装置にて表示する声紋認識利用システム。
  12. 請求項9または11に記載の声紋認識利用システムであって、
    前記声紋データ解析部により特定された発言者と、前記音声認識部により識別された発言内容とから、前記テレビ会議の議事録が作成される声紋認識利用システム。
  13. 請求項1に記載の声紋認識利用システムであって、
    前記声紋データ記憶部、声紋データ作成部、声紋データ解析部、及び、制御部が端末装置に配置されている声紋認識利用システム。
  14. 請求項1に記載の声紋認識利用システムであって、
    前記声紋データ記憶部、声紋データ作成部、及び、声紋データ解析部がサーバに配置され、前記制御部が端末装置に配置され、前記端末装置は、入力した音声データを前記サーバに送信し、前記サーバから前記声紋データ解析部の検出結果を受信する声紋認識利用システム。
  15. 請求項1に記載の声紋認識利用システムであって、
    前記声紋データ作成部、及び、声紋データ解析部がサーバに配置され、前記声紋データ記憶部、及び、前記制御部が端末装置に配置され、前記端末装置は、前記声紋データ記憶部に格納された検索対象の声紋データ、及び、入力した音声データを前記サーバに送信し、前記サーバから前記声紋データ解析部の検出結果を受信する声紋認識利用システム。
  16. 1または複数の検索対象の声紋データが格納された声紋データ記憶部と、
    不特定な人物の音声データが入力するごとに前記音声データから声紋データを作成する声紋データ作成部と、
    前記声紋データ作成部が作成した前記声紋データを前記声紋データ記憶部に格納された1または複数の検索対象の声紋データと順次照合して一致する声紋データを検出する声紋データ解析部と、
    前記声紋データ解析部が一致する声紋データを検出したことを契機として予め指定された動作を実行する制御部と、
    を備える端末装置。
  17. 1または複数の検索対象の声紋データが格納された声紋データ記憶部と、
    端末装置より送られた音声データから声紋データを作成する声紋データ作成部と、
    前記声紋データ作成部が作成した前記声紋データを前記声紋データ記憶部に格納された1または複数の検索対象の声紋データと順次照合し、一致する声紋データを検出すると一致情報を前記端末装置に伝える声紋データ解析部と、
    を備えるサーバ。
  18. 端末装置より送られた音声データから声紋データを作成する声紋データ作成部と、
    前記声紋データ作成部が作成した前記声紋データを、前記端末装置より事前に送られた1または複数の検索対象の声紋データと順次照合し、一致する声紋データを検出すると一致情報を前記端末装置に伝える声紋データ解析部と、
    を備えるサーバ。
JP2006066610A 2006-03-10 2006-03-10 声紋認識を利用するシステムと装置 Pending JP2007241130A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006066610A JP2007241130A (ja) 2006-03-10 2006-03-10 声紋認識を利用するシステムと装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006066610A JP2007241130A (ja) 2006-03-10 2006-03-10 声紋認識を利用するシステムと装置

Publications (1)

Publication Number Publication Date
JP2007241130A true JP2007241130A (ja) 2007-09-20

Family

ID=38586706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006066610A Pending JP2007241130A (ja) 2006-03-10 2006-03-10 声紋認識を利用するシステムと装置

Country Status (1)

Country Link
JP (1) JP2007241130A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102497242A (zh) * 2011-11-30 2012-06-13 上海博泰悦臻电子设备制造有限公司 收音设备节目单的获取方法和系统
US8630020B2 (en) 2008-12-08 2014-01-14 Canon Kabushiki Kaisha Information processing apparatus and control method therefor, and print apparatus and control method therefor
CN103680497A (zh) * 2012-08-31 2014-03-26 百度在线网络技术(北京)有限公司 基于视频的语音识别系统及方法
JP2016046636A (ja) * 2014-08-21 2016-04-04 日本電気株式会社 動作制御装置、動作制御方法、および動作制御プログラム
JP2020004416A (ja) * 2019-07-22 2020-01-09 株式会社ニコン 情報処理装置
CN111683183A (zh) * 2020-05-29 2020-09-18 太仓秦风广告传媒有限公司 一种多媒体会议非参会对话屏蔽处理方法及其系统
CN112637543A (zh) * 2020-12-09 2021-04-09 随锐科技集团股份有限公司 基于语音控制的音视频会议方法及装置
CN113140211A (zh) * 2021-04-20 2021-07-20 武汉微物云联科技有限公司 基于可信呼叫的实时音视频流的智能语音识别技术
CN114025208A (zh) * 2021-09-27 2022-02-08 北京智象信息技术有限公司 一种基于智能语音的个性化数据推荐方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000324230A (ja) * 1999-05-13 2000-11-24 Mitsubishi Electric Corp 通信装置および通信方法
JP2001134613A (ja) * 1999-08-26 2001-05-18 Sony Corp 音響検索処理方法、音響情報検索装置、音響情報蓄積方法、音響情報蓄積装置および音響映像検索処理方法、音響映像情報検索装置、音響映像情報蓄積方法、音響映像情報蓄積装置
JP2001274907A (ja) * 2000-03-24 2001-10-05 Nec Shizuoka Ltd 発信者認識システムおよび発信者認識方法
JP2001285787A (ja) * 2000-03-31 2001-10-12 Nec Corp 映像録画方法およびそのシステムとその記録媒体
JP2004039044A (ja) * 2002-07-01 2004-02-05 Sony Corp サーボパターン記録装置
WO2004039044A1 (ja) * 2002-10-23 2004-05-06 Fujitsu Limited 通信端末、声紋情報検索サーバ、個人情報表示システム、通信端末における個人情報表示方法、個人情報表示プログラム
JP2005277462A (ja) * 2004-03-22 2005-10-06 Fujitsu Ltd 会議支援システム、議事録生成方法、およびコンピュータプログラム
JP2005341015A (ja) * 2004-05-25 2005-12-08 Hitachi Hybrid Network Co Ltd 議事録作成支援機能を有するテレビ会議システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000324230A (ja) * 1999-05-13 2000-11-24 Mitsubishi Electric Corp 通信装置および通信方法
JP2001134613A (ja) * 1999-08-26 2001-05-18 Sony Corp 音響検索処理方法、音響情報検索装置、音響情報蓄積方法、音響情報蓄積装置および音響映像検索処理方法、音響映像情報検索装置、音響映像情報蓄積方法、音響映像情報蓄積装置
JP2001274907A (ja) * 2000-03-24 2001-10-05 Nec Shizuoka Ltd 発信者認識システムおよび発信者認識方法
JP2001285787A (ja) * 2000-03-31 2001-10-12 Nec Corp 映像録画方法およびそのシステムとその記録媒体
JP2004039044A (ja) * 2002-07-01 2004-02-05 Sony Corp サーボパターン記録装置
WO2004039044A1 (ja) * 2002-10-23 2004-05-06 Fujitsu Limited 通信端末、声紋情報検索サーバ、個人情報表示システム、通信端末における個人情報表示方法、個人情報表示プログラム
JP2005277462A (ja) * 2004-03-22 2005-10-06 Fujitsu Ltd 会議支援システム、議事録生成方法、およびコンピュータプログラム
JP2005341015A (ja) * 2004-05-25 2005-12-08 Hitachi Hybrid Network Co Ltd 議事録作成支援機能を有するテレビ会議システム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8630020B2 (en) 2008-12-08 2014-01-14 Canon Kabushiki Kaisha Information processing apparatus and control method therefor, and print apparatus and control method therefor
CN102497242A (zh) * 2011-11-30 2012-06-13 上海博泰悦臻电子设备制造有限公司 收音设备节目单的获取方法和系统
CN102497242B (zh) * 2011-11-30 2017-07-18 上海博泰悦臻电子设备制造有限公司 收音设备节目单的获取方法和系统
CN103680497A (zh) * 2012-08-31 2014-03-26 百度在线网络技术(北京)有限公司 基于视频的语音识别系统及方法
JP2016046636A (ja) * 2014-08-21 2016-04-04 日本電気株式会社 動作制御装置、動作制御方法、および動作制御プログラム
JP2020004416A (ja) * 2019-07-22 2020-01-09 株式会社ニコン 情報処理装置
CN111683183A (zh) * 2020-05-29 2020-09-18 太仓秦风广告传媒有限公司 一种多媒体会议非参会对话屏蔽处理方法及其系统
CN112637543A (zh) * 2020-12-09 2021-04-09 随锐科技集团股份有限公司 基于语音控制的音视频会议方法及装置
CN113140211A (zh) * 2021-04-20 2021-07-20 武汉微物云联科技有限公司 基于可信呼叫的实时音视频流的智能语音识别技术
CN114025208A (zh) * 2021-09-27 2022-02-08 北京智象信息技术有限公司 一种基于智能语音的个性化数据推荐方法及系统

Similar Documents

Publication Publication Date Title
CN108346034B (zh) 一种会议智能管理方法及系统
JP2007241130A (ja) 声紋認識を利用するシステムと装置
CN106657865B (zh) 会议纪要的生成方法、装置及视频会议系统
US20190190908A1 (en) Systems and methods for automatic meeting management using identity database
US20190213315A1 (en) Methods And Systems For A Voice Id Verification Database And Service In Social Networking And Commercial Business Transactions
US10904483B2 (en) System and methods for automatic call initiation based on biometric data
US9064160B2 (en) Meeting room participant recogniser
JP2022532313A (ja) 分散システムにおいてユーザの好みに最適化するためのカスタマイズされた出力
CN107333090B (zh) 视频会议数据处理方法和平台
EP2210214B1 (en) Automatic identifying
US7920158B1 (en) Individual participant identification in shared video resources
US7433327B2 (en) Method and system for coordinating communication devices to create an enhanced representation of an ongoing event
US20100085415A1 (en) Displaying dynamic caller identity during point-to-point and multipoint audio/videoconference
KR20090023674A (ko) 미디어 식별
WO2010010736A1 (ja) 会議画像生成方法、会議システム、サーバ装置及び会議装置等
US20120259924A1 (en) Method and apparatus for providing summary information in a live media session
KR102263154B1 (ko) 스마트 미러 기반 얼굴 감성 표현 시스템 및 그 운용방법
KR100608591B1 (ko) 멀티미디어 회의록 생성 방법 및 장치
JP2004129071A (ja) 双方向コミュニケーションシステム
JP2007067972A (ja) 会議システム及び会議システムの制御方法
JP2010109898A (ja) 撮影制御装置、撮影制御方法及びプログラム
JP2008242837A (ja) コミュニケーションの状況を管理する装置、方法およびプログラム
CN114240342A (zh) 一种会议控制的方法和装置
US20160260435A1 (en) Assigning voice characteristics to a contact information record of a person
JP2005234722A (ja) 情報処理システム及び情報処理方法、並びにコンピュータ・プログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071113

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120110