JP2015175915A - 話者認識装置、話者認識方法及び話者認識プログラム - Google Patents

話者認識装置、話者認識方法及び話者認識プログラム Download PDF

Info

Publication number
JP2015175915A
JP2015175915A JP2014050753A JP2014050753A JP2015175915A JP 2015175915 A JP2015175915 A JP 2015175915A JP 2014050753 A JP2014050753 A JP 2014050753A JP 2014050753 A JP2014050753 A JP 2014050753A JP 2015175915 A JP2015175915 A JP 2015175915A
Authority
JP
Japan
Prior art keywords
voice data
speaker
registered voice
registered
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014050753A
Other languages
English (en)
Other versions
JP6377921B2 (ja
Inventor
学 川▲崎▼
Manabu Kawasaki
学 川▲崎▼
拓明 夏見
Hiroaki Natsumi
拓明 夏見
康貴 田中
Yasutaka Tanaka
康貴 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sohgo Security Services Co Ltd
Original Assignee
Sohgo Security Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sohgo Security Services Co Ltd filed Critical Sohgo Security Services Co Ltd
Priority to JP2014050753A priority Critical patent/JP6377921B2/ja
Publication of JP2015175915A publication Critical patent/JP2015175915A/ja
Application granted granted Critical
Publication of JP6377921B2 publication Critical patent/JP6377921B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】照合対象者の登録音声データを適正な状態で保持し、話者認識の精度を向上すること。
【解決手段】話者認識部31の登録処理部45は、複数の登録音声データから所定データ数の登録音声データを選択して登録音声セットを構築し、登録音声セットを話者に対応付けて記憶部46に格納する。認識処理部48は、入力音声データと登録音声セット内の登録音声データとの類似度に基づいて前記話者を識別する。このため、登録音声データから不適切なデータを除去し、もって話者認識の精度を向上することができる。
【選択図】図2

Description

この発明は、入力された入力音声データに基づいて該入力音声データの話者を認識する話者認識装置、話者認識方法及び話者認識プログラムに関する。
従来、音声データに基づいて該音声データの話者を認識する技術が知られている。例えば、特許文献1は、照合対象者の音声データから予め登録モデルデータを生成して格納し、入力音声データを分析した音声分析データと登録モデルデータとを照合処理することで、入力音声データの話者が照合対象者であるか否かを判定する話者認識システムを開示している。
かかる話者認識では、登録モデルデータが認識精度に大きな影響を与える。単一の音声データから登録モデルデータを構築すると、当該音声データが不適切であった場合に認識精度が大きく低下するので、複数の音声データから登録モデルデータを構築するか、複数の音声データを登録モデルデータとして用いることが行われている。
特開2005−091758号公報
しかしながら、従来の技術では、必ずしも照合対象者の登録モデルデータが適正な状態になるとは限らず、認識精度が低下する場合があるという問題点があった。具体的には、登録時に得られた複数の音声データに不適切な音声データが混在している場合には、不適切な音声データが登録モデルデータに影響を与え、認識精度の低下を招く。また、登録時に適正な状態であったとしても、話者側の音声が経時変化等により変化すると、認識精度の低下が発生することになる。
これらのことから、照合対象者の音声データを適正な状態で保持して入力音声データと比較することにより、話者認識の精度を向上することが重要な課題となっている。
本発明は、上述した従来技術の課題を解決するためになされたものであって、照合対象者の音声データを適正な状態で保持し、もって話者認識の精度を向上した話者認識装置、話者認識方法及び話者認識プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するため、請求項1に記載の発明は、入力された入力音声データに基づいて該入力音声データの話者を認識する話者認識装置であって、識別すべき話者について、複数の登録音声データを受け付ける登録音声データ受付手段と、前記登録音声データ受付手段が受け付けた複数の登録音声データから所定データ数の登録音声データを選択する登録音声データ選択手段と、前記登録音声データ選択手段が選択した所定データ数の登録音声データを前記話者に対応付けて記憶する記憶手段と、前記入力音声データと前記記憶手段に格納された前記登録音声データとの類似度を算出する類似度算出手段と、前記類似度算出手段により算出された類似度に基づいて前記話者を識別する話者識別手段とを備えたことを特徴とする。
また、請求項2に記載の発明は、請求項1に記載の発明において、前記登録音声データ選択手段は、前記登録音声データ受付手段が受け付けた複数の登録音声データの各々について、前記登録音声データ受付手段が受け付けた他の登録音声データとの類似度を算出し、他の登録音声データとの類似度が低い登録音声データを選択対象から除外することにより、前記登録音声データ受付手段が受け付けた複数の登録音声データから所定データ数の登録音声データを選択することを特徴とする。
また、請求項3に記載の発明は、請求項1に記載の発明において、前記登録音声データ選択手段は、前記登録音声データ受付手段が受け付けた複数の登録音声データの各々について、当該登録音声データを選択対象から除外した場合の前記複数の登録音声データの距離の分散を算出し、分散が最小となるよう登録音声データを除外することにより、前記登録音声データ受付手段が受け付けた複数の登録音声データから所定データ数の登録音声データを選択することを特徴とする。
また、請求項4に記載の発明は、請求項1、2又は3に記載の発明において、前記記憶手段は、同一の話者の所定データ数の登録音声データを登録音声セットとし、同一の話者について複数の登録音声セットを対応付けて記憶することを特徴とする。
また、請求項5に記載の発明は、請求項4に記載の発明において、前記話者識別手段による識別が行われた場合に、当該識別に寄与した登録音声セットを示す実績データを蓄積するとともに、前記入力音声データを更新準備セットの登録音声データとして格納し、前記実績データにより識別への寄与が少ないことが示された登録音声セットを削除するとともに前記更新準備セットを新規の登録音声セットとして追加する更新処理手段をさらに備えたことを特徴とする。
また、請求項6に記載の発明は、請求項1〜5のいずれか一つに記載の発明において、前記話者識別手段は、前記類似度算出手段により算出された複数の類似度のうち、最も高い類似度に対応する話者を前記入力音声データの話者候補とし、前記類似度算出手段により算出された複数の類似度のうち、最も高い類似度が所定の照合閾値を超える場合に、前記話者候補と前記入力音声データの話者とが同一人物であると判定する話者照合手段をさらに備えたことを特徴とする。
また、請求項7に記載の発明は、請求項1〜6のいずれか一つに記載の発明において、前記類似度算出手段は、前記登録音声データと前記入力音声データとの距離の小ささを前記類似度の高さとして算出することを特徴とする。
また、請求項8に記載の発明は、請求項6又は7に記載の発明において、監視対象に対する監視動作を行なう監視手段と、前記入力音声データに含まれる単語を判定する単語判定手段と、前記話者照合手段により、前記入力音声データの話者が前記識別すべき話者であるとの照合結果が得られた場合に、前記単語判定手段により判定された単語に基づいて前記監視手段の監視動作を制御する制御手段とをさらに備えたことを特徴とする。
また、請求項9に記載の発明は、入力された入力音声データに基づいて該入力音声データの話者を認識する話者認識方法であって、識別すべき話者について、複数の登録音声データを受け付ける登録音声データ受付ステップと、前記登録音声データ受付ステップで受け付けた複数の登録音声データから所定データ数の登録音声データを選択する登録音声データ選択ステップと、前記登録音声データ選択ステップで選択した所定データ数の登録音声データを前記話者に対応付けて記憶部に格納する格納ステップと、前記入力音声データと前記記憶部に格納された前記登録音声データとの類似度を算出する類似度算出ステップと、前記類似度算出ステップにより算出された類似度に基づいて前記話者を識別する話者識別ステップとを含んだことを特徴とする。
また、請求項10に記載の発明は、入力された入力音声データに基づいて該入力音声データの話者を認識する話者認識プログラムであって、識別すべき話者について、複数の登録音声データを受け付ける登録音声データ受付手順と、前記登録音声データ受付手順で受け付けた複数の登録音声データから所定データ数の登録音声データを選択する登録音声データ選択手順と、前記登録音声データ選択手順で選択した所定データ数の登録音声データを前記話者に対応付けて記憶部に格納する格納手順と、前記入力音声データと前記記憶部に格納された前記登録音声データとの類似度を算出する類似度算出手順と、前記類似度算出手順により算出された類似度に基づいて前記話者を識別する話者識別手順とをコンピュータに実行させることを特徴とする。
本発明によれば、識別すべき話者について複数の登録音声データを受け付け、複数の登録音声データから所定データ数の登録音声データを選択し、選択した所定データ数の登録音声データを話者に対応付けて記憶し、入力音声データと登録音声データとの類似度に基づいて話者を識別するよう構成したので、照合対象者の音声データを適正な状態で保持し、もって話者認識の精度を向上することができる。
図1は、実施例に係るホームセキュリティシステムのシステム構成を示すシステム構成図である。 図2は、図1に示した話者認識部の内部構成を示す内部構成図である。 図3は、図2に示した話者登録データについて説明するための説明図である。 図4は、不適切な登録音声データの影響について説明する説明図である。 図5は、登録音声データの選択について説明するための説明図である。 図6は、更新候補セットの生成について説明するための説明図である。 図7は、登録音声セットの入替について説明するための説明図である。 図8は、登録モードにおける話者認識部の処理手順を示すフローチャートである。 図9は、図8に示した音声データ選択処理の処理手順を示すフローチャートである。 図10は、認識モードにおける話者認識部の処理手順を示すフローチャートである。 図11は、図10に示した距離算出処理の処理手順を示すフローチャートである。 図12は、図10のステップS308に示した更新処理の処理手順を示すフローチャートである。 図13は、不適切な登録音声データの具体例について説明する説明図である。 図14は、話者登録データの更新による効果についての説明図である。
以下に、添付図面を参照して、本発明に係る話者認識装置、話者認識方法及び話者認識プログラムの好適な実施例を詳細に説明する。以下に示す実施例では、本発明に係る話者認識装置、話者認識方法及び話者認識プログラムを住宅用のホームセキュリティシステムに適用した場合について説明する。
図1は、実施例に係るホームセキュリティシステムのシステム構成を示すシステム構成図である。図1に示すホームセキュリティシステムは、監視装置60にドア監視装置11、窓監視装置12、火災検知装置13及び話者認識装置30を接続し、話者認識装置30にマイクロホン20を接続した構成を有する。
ドア監視装置11は、住宅のドアに対する不正な侵入の試みを監視する装置である。ドア監視装置11は、ピッキングなどの侵入の試みを検知した場合には、監視装置60に対して報知を行なう。
窓監視装置12は、住宅の窓に対する不正な侵入の試みを監視する装置である。窓監視装置12は、窓に対する衝撃等を検知した場合には、監視装置60に対して報知を行なう。
火災検知装置13は、住宅の居室等に設けられ、火災の発生を検知する装置である。火災検知装置13は、火災の発生を検知した場合には、監視装置60に対して報知を行なう。
マイクロホン20は、玄関等の出入口に設置され、音響信号を取得して話者認識装置30に出力する装置である。マイクロホン20は、常に動作し、音響信号の取得及び出力を行なう。なお、人感センサ等を用いて音響信号の取得のオンオフ切替をおこなってもよい。話者認識装置30は、任意の場所に設置可能である。また、マイクロホン20を話者認識装置30の筐体内に設けてもよい。
話者認識装置30は、マイクロホン20が取得した音響信号を用いて話者認識を行ない、ホームセキュリティシステムの動作を管理する監視装置60に出力する。話者認識装置30は、話者認識部31及びテキスト判別部32を有し、監視装置60は、監視制御部33及び監視部34を有する。話者認識部31は、マイクロホン20が取得した音響信号から音声を切り出し、該音声が居住者の音声であるか否かを認識し、認識結果を監視装置60の監視制御部33に出力する。また、テキスト判別部32は、マイクロホン20が取得した音響信号から音声を切り出し、該音声内の単語をテキスト情報として監視装置60の監視制御部33に出力する。
監視制御部33は、話者認識部31により話者が居住者であると認識された場合に、テキスト判別部32から出力されたテキスト情報に基づいて、監視部34の動作を制御する処理部である。具体的には、「セキュリティオン」や「いってきます」等のテキスト情報を含む場合には、監視部34による監視動作を開始させ、「セキュリティオフ」や「ただいま」等のテキスト情報を含む場合には、監視部34による監視動作を終了させる。
監視部34は、ドア監視装置11、窓監視装置12及び火災検知装置13の出力を用いて、住居の監視を行なう処理部である。具体的には、監視部34は、監視制御部33から開始指示を受けた場合に監視動作を開始し、監視動作中にドア監視装置11、窓監視装置12又は火災検知装置13から異常発生の報知を受けた場合には、警報動作を行なうとともに、センタに対して異常発生を通知する。この監視動作は、監視制御部33から終了指示を受けた場合に終了する。
このように、本実施例に係るホームセキュリティシステムでは、居住者の音声を認識することで、監視動作のオンオフ制御を音声操作により行なうことが可能である。
次に、図1に示した話者認識部31の内部構成について説明する。図2は、図1に示した話者認識部31の内部構成を示す内部構成図である。図2に示すように、話者認識部31は、AD変換部41、音声区間抽出部42、特徴パラメータ算出部43、切替部44、登録処理部45、記憶部46、距離算出部47、認識処理部48及び更新処理部49を有する。
AD変換部41は、マイクロホン20が取得した音響信号をアナログ信号からデジタル信号に変換し、音声区間抽出部42に出力する処理を行なう処理部である。
音声区間抽出部42は、AD変換部41によりデジタル信号に変換された音響信号から音声区間を抽出する処理部である。音声区間の抽出は、音響信号の信号パワーやゼロクロス数等に基づいて行なうことができる。
特徴パラメータ算出部43は、音声区間抽出部42から出力された音声信号のスペクトル包絡の特徴を示す特徴パラメータを算出する処理部である。特徴パラメータの算出手法としては、LPC(Linear Predictive Coding)ケプストラム係数や、MFCC(Mel-Frequency Cepstrum Coefficient)等の任意の手法を用いることができる。
切替部44は、話者認識部31の動作モードを切り替える処理部である。話者認識部31の動作モードには、登録モードと認識モードとがある。切替部44により登録モードに設定されている場合には、特徴パラメータ算出部43が算出した特徴パラメータは、登録音声データとして登録処理部45に出力される。一方、切替部44により認識モードに設定されている場合には、特徴パラメータ算出部43が算出した特徴パラメータは、入力音声データとして距離算出部47に出力される。
登録処理部45は、登録対象となる居住者に対し、当該居住者の登録音声データを対応付けて話者登録データを生成し、記憶部46に格納する。このとき、登録処理部45は、同一話者の登録音声データを所定数含む登録音声セットを構築して居住者に対応付ける。
また、登録処理部45は、音声データ選択処理部45aを有する。音声データ選択処理部45aは、登録時に受け付けた複数の登録音声データから登録音声セットに格納する登録音声データを選択する処理部である。音声データ選択処理部45aの具体的な動作については後述する。
記憶部46は、ハードディスク装置や不揮発性メモリ等の記憶デバイスであり、話者登録データを記憶する。話者登録データには、識別すべき話者である居住者に関する情報と、当該居住者の登録音声データを所定数格納した登録音声セットと、登録音声セットを更新するための登録音声データを格納した更新準備セットとが含まれる。図2では、記憶部46は、話者登録データR1及び話者登録データR2を記憶している。
距離算出部47は、入力音声データと登録音声データとの距離の小ささを類似度の高さとして算出する処理部である。具体的には、距離算出部47は、同一の登録音声データから複数の部分登録音声データを切り出すとともに、入力音声データから複数の部分入力音声データを切り出し、部分登録音声データと部分入力音声データとの組合せについてそれぞれ距離を算出し、算出した複数の距離のうち、最小の距離を当該登録音声データと入力音声データとの距離とする。なお、算出した複数の距離の平均を登録音声データとの距離としてもよい。
距離算出部47は、入力音声データと登録音声データとの距離を認識処理部48に出力する。距離算出部47による距離の算出と出力は、記憶部46に格納された複数の登録音声データについてそれぞれ行なう。
認識処理部48は、話者識別部48aと、話者照合部48bとを有する。話者識別部48aは、距離算出部47により算出された距離が最小となる登録音声データを選択する。この登録音声データの話者が、入力音声データの話者候補となる。
話者照合部48bは、話者識別部48aにより選択された登録音声データと入力音声データとの距離と、照合閾値とを比較する。この距離が照合閾値よりも小さいならば、話者照合部48bは、当該登録音声データの話者と入力音声データの話者とが一致すると判定する。距離の小ささは、類似度の高さに対応するため、距離が照合閾値以下であることは、類似度が所定の類似度閾値以上であることを意味する。話者照合部48bは、判定結果を監視装置60及び更新処理部49に出力する。
更新処理部49は、認識モードにおける認識結果に基づいて、話者登録データを更新する処理部である。具体的には、更新処理部49は、認識処理部48の話者照合部48bにより入力音声データの話者が登録音声データの話者と一致すると判定された場合に、入力音声データを当該話者の登録音声セットを更新するための登録音声データとして更新準備セットに格納する。そして、更新準備セットに登録音声データが十分に蓄積されたならば、音声データ選択処理部49aにより所定数の登録音声データを選択し、更新候補セットとする。
更新候補セットを生成した更新処理部49は、話者登録データ内の登録音声セットが上限に達していなければ、更新候補セットを登録音声セットとして追加登録する。話者登録データ内の登録音声セットが上限に達しているならば、更新処理部49は、音声セット選択処理部49bによる音声セットの選択を行う。
音声セット選択処理部49bは、既存の登録音声セットに識別への寄与の実績がない登録音声セットが存在するか否かを判定する。識別への寄与の実績がない登録音声セットが存在する場合には、音声セット選択処理部49bは、当該登録音声セットを削除し、更新候補セットを登録音声セットとして追加登録する。既存の登録音声セットのいずれも識別への寄与の実績があるならば、音声セット選択処理部49bは、更新候補セットと識別への寄与の実績とをリセットする。
図3は、図2に示した話者登録データについて説明するための説明図である。図3に示すように、話者登録データR1は、話者データ、登録音声セット及び更新準備セットを対応付けたデータである。
話者データは、話者登録データR1の話者に関する情報であり、氏名、性別、年齢等を示す。登録音声セットは、当該話者の登録音声データを所定数含む登録音声データのセットである。図3では、登録音声セットG1〜Gmのm個の登録音声セットが話者登録データR1に含まれている。そして、登録音声セットG1〜Gmは、それぞれ登録音声データv1〜v(N−n)の(N−n)個の登録音声データを含む。
話者登録データR1を最初に登録した場合には、登録モードにて少なくとも1つの登録音声セットが生成される。その後、認識モードにおける認識結果に基づいて、登録音声セットの追加と入替が行われることになる。
更新準備セットG0は、登録音声セットの追加や入替を行うための登録音声データを格納した登録音声データのセットである。認識モードで入力音声データの話者が当該登録音声データの話者と一致すると判定された場合に、入力音声データは登録音声データとして更新準備セットG0に追加される。
このとき、話者識別部48aにより選択された登録音声データが属する登録音声セットを示す照合実績データを生成し、更新準備セットG0に追加した登録音声データに対応付ける。すなわち、照合実績データは、どの登録音声セットを用いた識別によって入力音声データが登録音声データとして登録されたかを示す。
図3では、更新準備セットG0は、登録音声データv1〜vNのN個の登録音声データを含む。そして、登録音声データv1〜vNにはそれぞれ照合実績データd1〜dNが対応付けられている。
更新準備セットG0にN個の登録音声データが蓄積されたならば、音声データ選択処理部49aにより所定数(N−n)の登録音声データが選択され、更新候補セットが生成される。
その後、登録音声セットが上限m個に達していなければ、更新候補セットは登録音声セットとして追加登録される。登録音声セットが上限m個に達しているならば、照合実績データd1〜d(N−n)に基づいて登録音声セットの入替、若しくは更新準備セットのリセットを行う。
次に、登録音声データの選択について説明する。図4は、不適切な登録音声データの影響について説明する説明図である。図4では、登録音声データと入力音声データとの距離と、その頻度の分布とを示している。なお、登録音声データの話者と入力音声データの話者とが同一である場合の距離の分布が「本人分布」であり、登録音声データの話者と入力音声データの話者とが異なる場合の距離の分布が「他人分布」である。
同一人物であるにも関わらず他人と認識する「本人拒否」を回避するためには、話者の照合を行うための照合閾値を大きくし、本人分布が照合閾値以下となるようにすることが有効である。一方、他人であるにも関わらず同一人物と認識する「他人受容」を回避するためには、照合閾値を小さくし、他人分布が照合閾値以上となるようにすることが有効である。
図4(a)に示すように、適切な登録音声データを使用し、不適切な登録音声データが含まれていなければ、本人分布の分散は小さくなり、他人分布と重ならない。そのため、本人分布と他人分布とを峻別する距離を照合閾値とすれば、本人拒否が発生する本人拒否率と他人受容が発生する他人受容率の双方を十分に低くすることができる。
ところが、図4(b)に示すように、不適切な登録音声データが含まれていると、本人分布の分散が広くなり、他人分布と重なりが生じるので、適切な照合閾値を設定することができなくなる。図4(b)に示すように、本人拒否率を十分に下げるよう照合閾値を設定すると、他人受容率が高まってしまうのである。同様に、他人受容率を下げようとすると、本人拒否率が高まってしまう。
ここで、不適切な登録音声データとは、例えば、本人の音声に雑音や他人の話し声などが重畳した場合に生じる。従って、登録時に雑音などが重畳し、不適切な登録音声データが話者登録データに混入すると、以降の認識の全てに影響を与えることとなる。
そこで、登録処理部45の音声データ選択処理部45aは、登録時に受け付けた複数の登録音声データから、不適切な登録音声データを除外し、登録音声セットに格納する登録音声データを選択する。
図5は、登録音声データの選択について説明するための説明図である。まず、音声データ選択処理部45aは、図5(a)に示すように、登録対象の話者がN回発話した音声からそれぞれの特徴量を算出して得られた登録音声データv1〜vNを蓄積する。
次に、音声データ選択処理部45aは、図5(b)に示すように、登録音声データv1〜vNの各組合せについて距離を算出する。この距離の算出は、距離算出部47による距離の算出と同様である。音声データ選択処理部45aは、各登録音声データについて、他の登録音声データとの距離の平均を算出する。例えば、登録音声データv1については登録音声データv1と登録音声データv2〜vNとの距離の平均を算出し、登録音声データv2については登録音声データv2と登録音声データv1,v3〜vNとの距離の平均を算出することになる。そして、距離の平均が最大となるものを選択対象から除外する。図5(b)では、登録音声データv5が選択対象から除外することになる。
音声データ選択処理部45aは、かかる処理を繰り返し、選択対象の数が所定数(N−n)となった場合に、残った登録音声データを登録音声セットに格納する登録音声データとして選択する。
なお、ここでは距離の平均を用いたが、距離の合計を用いてもよい。また、距離の平均や合計に対して閾値を設定し、該閾値を超える登録音声データを選択対象から除外してもよい。
また、登録音声データの選択に際し、距離の分散を利用してもよい。この場合には、まず、登録音声データv1〜vNを蓄積し、その一部を除外候補として、他の登録音声データの全ての組合せについて距離を求め、それらの分散を算出する。その他のデータについても同様に除外候補として分散を算出する。その結果、図5(c)に示すように、不適切な登録音声データが残っていれば距離の分散が大きくなり、不適切な登録音声データを除外候補とした場合に距離の分散が小さくなる。そこで、分散の値が最も小さくなるときの除外候補を除外し、残った登録音声データを登録音声セットに格納する登録音声データとして選択する。なお、登録のための繰り返し発話回数Nは3以上、除去候補のデータ数nは1以上、N−nは2以上とする。
次に、登録音声セットの更新について説明する。登録時に適切な登録音声データを得られたとしても、話者の音声が経時変化等により変化すると、認識精度の低下が発生することになる。そこで、更新処理部49は、認識モードにおける認識結果に基づいて、登録音声セットを更新する。
具体的には、更新処理部49は、認識モードで入力音声データの話者が当該登録音声データの話者と一致すると判定された場合に、入力音声データを当該話者の登録音声データとして更新準備セットG0に追加する。
また、話者識別部48aにより選択された登録音声データが属する登録音声セット、すなわち識別に寄与した登録音声セットを示す照合実績データを生成し、更新準備セットG0に追加した登録音声データに対応付ける。
図6に示すように、更新準備セットG0にN個の登録音声データが蓄積されたならば、音声データ選択処理部49aは、所定数(N−n)の登録音声データを選択し、更新候補セットを生成する。
その後、登録音声セットが上限m個に達していなければ、更新候補セットは登録音声セットとして追加登録される。登録音声セットが上限m個に達しているならば、音声セット選択処理部49bは音声セットの選択を行う。
音声セット選択処理部49bは、照合実績データd1〜d(N−n)を参照し、識別への寄与の実績がない登録音声セットが存在するか否かを判定する。識別への寄与の実績がない登録音声セットが存在する場合には、音声セット選択処理部49bは、当該登録音声セットを削除し、更新候補セットを登録音声セットとして追加登録する。既存の登録音声セットのいずれも識別への寄与の実績があるならば、音声セット選択処理部49bは、更新候補セットと識別への寄与の実績とをリセットする。
図7に示した例では、照合実績データd1〜d4は、登録音声セットG1,G2,G3のいずれかを示しており、登録音声セットG2には識別の実績がない。そこで、登録音声セットG2が削除され、登録候補セットが新たな登録音声セットG2として格納されることになる。
次に、話者認識部31の処理手順について説明する。図8は、登録モードにおける話者認識部31の処理手順を示すフローチャートである。なお、このフローチャートに示す処理手順は、切替部44により登録モードに設定された状態で実行される。
まず、マイクロホン20が音響信号を取得する(ステップS101)。音声区間抽出部42は、マイクロホン20が取得した音響信号から音声区間を抽出する(ステップS102)。
特徴パラメータ算出部43は、音声区間の音声信号から複数の部分音声信号を切り出し、該音声信号のスペクトル包絡の特徴を示す特徴パラメータを算出する(ステップS103)。登録処理部45は、算出された特徴パラメータを登録音声データとして蓄積し(ステップS104)、登録音声データの数がN個になったか否かを判定する(ステップS105)。登録音声データの数がN個に満たなければ(ステップS105;No)、ステップS101に移行し、次の発話の音響信号を取得する。
登録音声データの数がN個になったならば(ステップS105;Yes)、音声データ選択処理部45aは、N個の登録音声データから(N−n)個の登録音声データを選択する音声データ選択処理を行う(ステップS106)。その後、選択された(N−n)個の登録音声データを登録音声セットG1に格納し(ステップS107)、処理を終了する。
次に、図8に示した音声データ選択処理について説明する。図9は、図8に示した音声データ選択処理の処理手順を示すフローチャートである。音声データ選択処理部45aは、まず、登録音声データv1〜vNの各組合せについて距離を算出する(ステップS201)。そして、音声データ選択処理部45aは、各登録音声データについて、他の登録音声データとの距離の平均を算出し(ステップS202)、距離の平均が最大となる登録音声データを選択対象から除外する(ステップS203)。
ステップS203の後、音声データ選択処理部45aは、登録音声データの除去数がnとなったかを判定する(ステップS204)。登録音声データの除去数がnに達していなければ(ステップS204;No)、ステップS201に移行し、残った登録音声データの各組合せについて距離を算出する。登録音声データの除去数がnとなったならば(ステップS204;Yes)、残った(N−n)個の登録音声データを選択し(ステップS205)、音声データ選択処理を終了する。
図10は、認識モードにおける話者認識部31の処理手順を示すフローチャートである。なお、このフローチャートに示す処理手順は、切替部44により認識モードに設定された状態で実行される。
まず、マイクロホン20が音響信号を取得する(ステップS301)。音声区間抽出部42は、マイクロホン20が取得した音響信号から音声区間を抽出する(ステップS302)。
特徴パラメータ算出部43は、音声区間のスペクトル包絡の特徴を示す特徴パラメータを算出する(ステップS303)。
距離算出部47は、全ての話者登録データについて入力音声データとの距離をそれぞれ算出する(ステップS304)。話者識別部48aは、距離算出部47により算出された距離が最も小さい話者登録データを特定する(ステップS305)。
話者照合部48bは、話者識別部48aにより特定された話者登録データと入力音声データとの距離、すなわち距離の最小値と照合閾値とを比較する(ステップS306)。距離の最小値が照合閾値よりも小さいならば(ステップS306;Yes)、話者照合部48bは、当該話者登録データの話者と入力データの話者とが一致すると判定し、当該話者登録データの話者データを照合結果として監視装置60及び更新処理部49に出力する(ステップS307)。ステップS307の後、更新処理部49は、更新処理を行って(ステップS308)、処理を終了する。
一方、距離の最小値が照合閾値以上であるならば(ステップS306;No)、話者照合部48bは、入力音声データに該当が無い旨を照合結果として監視装置60に出力して処理を終了する(ステップS309)。
次に、図10のステップS304に示した距離算出処理について説明する。図11は、図10に示した距離算出処理の処理手順を示すフローチャートである。距離算出部47は、まず、話者登録データを選択する(ステップS401)。そして、選択した話者登録データから登録音声データを選択し(ステップS402)、選択した登録音声データと入力音声データとの距離を算出する(ステップS403)。
ステップS403の後、距離算出部47は、ステップS401で選択した話者登録データ内の全ての登録音声データを選択済であるか否かを判定する(ステップS404)。その結果、未選択の登録音声データが残っているならば(ステップS404;No)、ステップS402に移行し、登録音声データの選択を行う。
同一の話者登録データ内の全ての登録音声データを選択済であるならば(ステップS404;Yes)。距離算出部47は、同一の話者登録データ内の全ての登録音声データについて算出した距離のうち、最小の距離を当該話者登録データの距離とする(ステップS405)。
ステップS405の後、距離算出部47は、全ての話者登録データを選択済であるか否かを判定する(ステップS406)、その結果、未選択の話者登録データが残っているならば(ステップS406;No)、ステップS401に移行し、話者登録データの選択を行う。そして、全ての話者登録データを選択済であるならば(ステップS406;Yes)、距離算出処理を終了する。
次に、図10のステップS308に示した更新処理について説明する。図12は、図10に示した更新処理の処理手順を示すフローチャートである。更新処理部49は、認識モードで入力音声データの話者が当該登録音声データの話者と一致すると判定された場合に、入力音声データを当該話者の登録音声データとして更新準備セットG0に追加し、蓄積する(ステップS501)。
そして、話者識別部48aにより選択された登録音声データが属する登録音声セット、すなわち識別に寄与した登録音声セットを示す照合実績データを生成し、更新準備セットG0に追加した登録音声データに対応付ける(ステップS502)。
更新処理部49は、更新準備セットG0における登録音声データの蓄積数がNとなったか否かを判定する(ステップS503)。登録音声データの蓄積数がNに達していなければ(ステップS503;No)、そのまま更新処理を終了する。
登録音声データの蓄積数がNとなったならば(ステップS503;Yes)、音声データ選択処理部49aは、音声データ選択処理を行って所定数(N−n)の登録音声データを選択する(ステップS504)。この音声データ選択処理は、図9に示した音声データ選択処理と同様の処理である。
更新処理部49は、ステップS504で選択した(N−n)個の登録音声データを更新候補セットとし(ステップS505)、登録音声セット数がmであるか否かを判定する(ステップS506)。
登録音声セット数がmであるならば(ステップS506;Yes)、音声セット選択処理部49bは音声セットの選択を行う。具体的には、音声セット選択処理部49bは、照合実績データd1〜d(N−n)を参照し、識別への寄与の実績がない登録音声セットが存在するか否かを判定する(ステップS509)。識別への寄与の実績がない登録音声セットが存在する場合には(ステップS509;Yes)、音声セット選択処理部49bは、当該登録音声セットを削除する(ステップS510)。
ステップS510の後、若しくは登録音声セット数がmに達していない場合(ステップS506;No)、更新処理部49は、更新候補セットを登録音声セットとして追加する(ステップS507)。
ステップ507の後、若しくは識別への寄与の実績がない登録音声セットが存在しない場合(ステップS509;No)、更新準備セットG0をリセットして(ステップS508)、更新処理を終了する。更新準備セットG0のリセットでは、登録候補セットや照合実績データもリセットされることになる。
次に、不適切な登録音声データの具体例について説明する。図13は、不適切な登録音声データの具体例について説明する説明図である。図13は、発話回数を4回(N=4)とし、各登録音声データからそれ以外の登録音声データまでの距離の平均を示したものである。
図13に示すデータ例H0は、登録音声データv1〜v4の全てが適切な登録音声データであり、雑音が重畳した登録音声データが含まれない場合を示している。そして、データ例H1は登録音声データv1に雑音が重畳した場合を示し、データ例H2は登録音声データv2に雑音が重畳した場合を示し、データ例H3は登録音声データv3に雑音が重畳した場合を示し、データ例H4は登録音声データv4に雑音が重畳した場合を示している。
データ例H0〜H4に示したように、雑音を重畳した登録音声データは距離が他に比べて大きくなる。このため、距離の大きさから不適切な登録音声データを識別して予め除去することにより、識別時の精度を向上することができるのである。
次に、話者登録データの更新による効果について説明する。図14は、話者登録データの更新による効果についての説明図である。具体的には、成人男性一名が週に一日、52週(1年間)に亘り、朝昼夕の三回、同じ内容の言葉を7回ずつ発声した場合について示す。
まず、最初の7回分の内、5回分を登録音声データとした登録音声セットを生成する。この登録音声セットのみを使用すると、1年間の照合率は79.7%となった。つぎに、認識モードでの認識結果を用いて登録音声セットを4つまで追加し、その後の入替を行わなかったケースでは、1年間の照合率は97.6%となった。そして、4つの登録音声セットの生成後に照合実績による入替を行ったケースでは、1年間の照合率は99.1%まで向上した。
上述してきたように、本実施例では、話者認識部31は、複数の登録音声データから所定データ数の登録音声データを選択して登録音声セットを構築し、登録音声セットを話者に対応付けて記憶し、入力音声データと登録音声セット内の登録音声データとの類似度に基づいて前記話者を識別する。このため、登録音声データから不適切なデータを除去し、もって話者認識の精度を向上することができる。
また、認識モードにおける認識結果に基づいて、登録音声セットの追加や更新を行うことにより、経時変化等により音声の特徴に変化が生じた場合であっても認識精度の低下を抑制できる。
さらに、識別に寄与した登録音声セットを示す照合実績データを蓄積し、照合実績データにより識別への寄与が少ないことが示された登録音声セットを削除して新規の登録音声セットを追加することにより、認識精度を高く保つことが可能である。
なお、登録音声セットは、所定期間一度も照合に利用されなかった場合に削除するように構成してもよい。また、登録音声セット間で距離を算出し、距離の大きさに応じて削除するか否かを決定してもよい。
また、上記実施例では、ホームセキュリティの動作モードを音声操作により切り替える場合について説明したが、本発明に係る話者認識は、動作モードの切替に限定されるものではなく、テキスト判別により多様な操作に適用可能である。
また、上記実施例では、話者の照合が成功したことを条件にセキュリティの動作モードを切り替える構成を示したが、特定の話者の音声をブラックリストとして登録し、ブラックリストに登録した話者による操作を拒絶するよう構成してもよい。
また、本発明は、ホームセキュリティに限らず、携帯電話端末による話者認識等、任意の装置の話者認識に適用可能である。また、電話回線を介した話者認識による「振り込め詐欺対策」や、「インタホン越しの音声による本人確認」などへも適用可能である。
また、図示した各構成は機能概略的なものであり、必ずしも物理的に図示の構成をされていることを要しない。すなわち、各装置の分散・統合の形態は図示のものに限られず、その全部または一部を各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。また、話者認識部31の機能部をソフトウェアにより実現し、コンピュータに実行させれば、コンピュータを話者認識装置として動作させる話者認識プログラムを得ることができる。
以上のように、話者認識装置、話者認識方法及び話者認識プログラムは、照合対象者の音声データを適正な状態で保持し、話者認識の精度を向上することに適している。
11 ドア監視装置
12 窓監視装置
13 火災検知装置
20 マイクロホン
30 話者認識装置
31 話者認識部
32 テキスト判別部
33 監視制御部
34 監視部
41 AD変換部
42 音声区間抽出部
43 特徴パラメータ算出部
44 切替部
45 登録処理部
45a、49a 音声データ選択処理部
46 記憶部
47 距離算出部
48 認識処理部
48a 話者識別部
48b 話者照合部
49 更新処理部
49b 音声セット選択処理部
60 監視装置

Claims (10)

  1. 入力された入力音声データに基づいて該入力音声データの話者を認識する話者認識装置であって、
    識別すべき話者について、複数の登録音声データを受け付ける登録音声データ受付手段と、
    前記登録音声データ受付手段が受け付けた複数の登録音声データから所定データ数の登録音声データを選択する登録音声データ選択手段と、
    前記登録音声データ選択手段が選択した所定データ数の登録音声データを前記話者に対応付けて記憶する記憶手段と、
    前記入力音声データと前記記憶手段に格納された前記登録音声データとの類似度を算出する類似度算出手段と、
    前記類似度算出手段により算出された類似度に基づいて前記話者を識別する話者識別手段と
    を備えたことを特徴とする話者認識装置。
  2. 前記登録音声データ選択手段は、前記登録音声データ受付手段が受け付けた複数の登録音声データの各々について、前記登録音声データ受付手段が受け付けた他の登録音声データとの類似度を算出し、他の登録音声データとの類似度が低い登録音声データを選択対象から除外することにより、前記登録音声データ受付手段が受け付けた複数の登録音声データから所定データ数の登録音声データを選択することを特徴とする請求項1に記載の話者認識装置。
  3. 前記登録音声データ選択手段は、前記登録音声データ受付手段が受け付けた複数の登録音声データの各々について、当該登録音声データを選択対象から除外した場合の前記複数の登録音声データの距離の分散を算出し、分散が最小となるよう登録音声データを除外することにより、前記登録音声データ受付手段が受け付けた複数の登録音声データから所定データ数の登録音声データを選択することを特徴とする請求項1に記載の話者認識装置。
  4. 前記記憶手段は、同一の話者の所定データ数の登録音声データを登録音声セットとし、同一の話者について複数の登録音声セットを対応付けて記憶することを特徴とする請求項1、2又は3に記載の話者認識装置。
  5. 前記話者識別手段による識別が行われた場合に、当該識別に寄与した登録音声セットを示す実績データを蓄積するとともに、前記入力音声データを更新準備セットの登録音声データとして格納し、前記実績データにより識別への寄与が少ないことが示された登録音声セットを削除するとともに前記更新準備セットを新規の登録音声セットとして追加する更新処理手段をさらに備えたことを特徴とする請求項4に記載の話者認識装置。
  6. 前記話者識別手段は、前記類似度算出手段により算出された複数の類似度のうち、最も高い類似度に対応する話者を前記入力音声データの話者候補とし、
    前記類似度算出手段により算出された複数の類似度のうち、最も高い類似度が所定の照合閾値を超える場合に、前記話者候補と前記入力音声データの話者とが同一人物であると判定する話者照合手段をさらに備えたことを特徴とする請求項1〜5のいずれか一つに記載の話者認識装置。
  7. 前記類似度算出手段は、前記登録音声データと前記入力音声データとの距離の小ささを前記類似度の高さとして算出することを特徴とする請求項1〜6のいずれか一つに記載の話者認識装置。
  8. 監視対象に対する監視動作を行なう監視手段と、
    前記入力音声データに含まれる単語を判定する単語判定手段と、
    前記話者照合手段により、前記入力音声データの話者が前記識別すべき話者であるとの照合結果が得られた場合に、前記単語判定手段により判定された単語に基づいて前記監視手段の監視動作を制御する制御手段と
    をさらに備えたことを特徴とする請求項6又は7に記載の話者認識装置。
  9. 入力された入力音声データに基づいて該入力音声データの話者を認識する話者認識方法であって、
    識別すべき話者について、複数の登録音声データを受け付ける登録音声データ受付ステップと、
    前記登録音声データ受付ステップで受け付けた複数の登録音声データから所定データ数の登録音声データを選択する登録音声データ選択ステップと、
    前記登録音声データ選択ステップで選択した所定データ数の登録音声データを前記話者に対応付けて記憶部に格納する格納ステップと、
    前記入力音声データと前記記憶部に格納された前記登録音声データとの類似度を算出する類似度算出ステップと、
    前記類似度算出ステップにより算出された類似度に基づいて前記話者を識別する話者識別ステップと
    を含んだことを特徴とする話者認識方法。
  10. 入力された入力音声データに基づいて該入力音声データの話者を認識する話者認識プログラムであって、
    識別すべき話者について、複数の登録音声データを受け付ける登録音声データ受付手順と、
    前記登録音声データ受付手順で受け付けた複数の登録音声データから所定データ数の登録音声データを選択する登録音声データ選択手順と、
    前記登録音声データ選択手順で選択した所定データ数の登録音声データを前記話者に対応付けて記憶部に格納する格納手順と、
    前記入力音声データと前記記憶部に格納された前記登録音声データとの類似度を算出する類似度算出手順と、
    前記類似度算出手順により算出された類似度に基づいて前記話者を識別する話者識別手順と
    をコンピュータに実行させることを特徴とする話者認識プログラム。
JP2014050753A 2014-03-13 2014-03-13 話者認識装置、話者認識方法及び話者認識プログラム Active JP6377921B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014050753A JP6377921B2 (ja) 2014-03-13 2014-03-13 話者認識装置、話者認識方法及び話者認識プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014050753A JP6377921B2 (ja) 2014-03-13 2014-03-13 話者認識装置、話者認識方法及び話者認識プログラム

Publications (2)

Publication Number Publication Date
JP2015175915A true JP2015175915A (ja) 2015-10-05
JP6377921B2 JP6377921B2 (ja) 2018-08-22

Family

ID=54255187

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014050753A Active JP6377921B2 (ja) 2014-03-13 2014-03-13 話者認識装置、話者認識方法及び話者認識プログラム

Country Status (1)

Country Link
JP (1) JP6377921B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020523643A (ja) * 2017-06-16 2020-08-06 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 声識別特徴最適化および動的登録方法、クライアント、ならびにサーバ

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163092A (ja) * 1998-11-30 2000-06-16 Ntt Data Corp 話者照合方法及び装置
JP2001350494A (ja) * 2000-06-05 2001-12-21 Secom Co Ltd 照合装置及び照合方法
JP2004294755A (ja) * 2003-03-27 2004-10-21 Secom Co Ltd 話者認証装置及び話者認証プログラム
JP2004309779A (ja) * 2003-04-07 2004-11-04 Casio Comput Co Ltd 音声認証装置
JP2008064928A (ja) * 2006-09-06 2008-03-21 Yamaha Corp 生体認証装置、生体認証方法およびプログラム
WO2008111190A1 (ja) * 2007-03-14 2008-09-18 Pioneer Corporation 音響モデル登録装置、話者認識装置、音響モデル登録方法及び音響モデル登録処理プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163092A (ja) * 1998-11-30 2000-06-16 Ntt Data Corp 話者照合方法及び装置
JP2001350494A (ja) * 2000-06-05 2001-12-21 Secom Co Ltd 照合装置及び照合方法
JP2004294755A (ja) * 2003-03-27 2004-10-21 Secom Co Ltd 話者認証装置及び話者認証プログラム
JP2004309779A (ja) * 2003-04-07 2004-11-04 Casio Comput Co Ltd 音声認証装置
JP2008064928A (ja) * 2006-09-06 2008-03-21 Yamaha Corp 生体認証装置、生体認証方法およびプログラム
WO2008111190A1 (ja) * 2007-03-14 2008-09-18 Pioneer Corporation 音響モデル登録装置、話者認識装置、音響モデル登録方法及び音響モデル登録処理プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020523643A (ja) * 2017-06-16 2020-08-06 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 声識別特徴最適化および動的登録方法、クライアント、ならびにサーバ
US11011177B2 (en) 2017-06-16 2021-05-18 Alibaba Group Holding Limited Voice identification feature optimization and dynamic registration methods, client, and server

Also Published As

Publication number Publication date
JP6377921B2 (ja) 2018-08-22

Similar Documents

Publication Publication Date Title
JP6350148B2 (ja) 話者インデキシング装置、話者インデキシング方法及び話者インデキシング用コンピュータプログラム
KR102339594B1 (ko) 객체 인식 방법, 컴퓨터 디바이스 및 컴퓨터 판독 가능 저장 매체
KR101610151B1 (ko) 개인음향모델을 이용한 음성 인식장치 및 방법
JP5810946B2 (ja) 特定通話検出装置、特定通話検出方法及び特定通話検出用コンピュータプログラム
Janicki et al. An assessment of automatic speaker verification vulnerabilities to replay spoofing attacks
CN107958669B (zh) 一种声纹识别的方法及装置
JP5494468B2 (ja) 状態検出装置、状態検出方法および状態検出のためのプログラム
JP3699608B2 (ja) 話者照合装置及び方法
WO2017084327A1 (zh) 一种添加账号的方法、终端、服务器、计算机存储介质
JP6585112B2 (ja) 音声キーワード検出装置および音声キーワード検出方法
CN109410956B (zh) 一种音频数据的对象识别方法、装置、设备及存储介质
US9595261B2 (en) Pattern recognition device, pattern recognition method, and computer program product
KR101888058B1 (ko) 발화된 단어에 기초하여 화자를 식별하기 위한 방법 및 그 장치
JP2014081441A (ja) コマンド判定装置およびその制御方法、コマンド判定プログラム
JP6087542B2 (ja) 話者認識装置、話者認識方法及び話者認識プログラム
JP2004101901A (ja) 音声対話装置及び音声対話プログラム
CN116490920A (zh) 用于针对由自动语音识别系统处理的语音输入检测音频对抗性攻击的方法、对应的设备、计算机程序产品和计算机可读载体介质
JP6239826B2 (ja) 話者認識装置、話者認識方法及び話者認識プログラム
JP2015055835A (ja) 話者認識装置、話者認識方法及び話者認識プログラム
JP6616182B2 (ja) 話者認識装置、判別値生成方法及びプログラム
Beritelli et al. A pattern recognition system for environmental sound classification based on MFCCs and neural networks
CN113921026A (zh) 语音增强方法和装置
JP6377921B2 (ja) 話者認識装置、話者認識方法及び話者認識プログラム
JPWO2008126254A1 (ja) 話者認識装置、音響モデル更新方法及び音響モデル更新処理プログラム
JP6526602B2 (ja) 音声認識装置、その方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180726

R150 Certificate of patent or registration of utility model

Ref document number: 6377921

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250