JP2016163230A - 音声解析装置、音声解析システムおよびプログラム - Google Patents

音声解析装置、音声解析システムおよびプログラム Download PDF

Info

Publication number
JP2016163230A
JP2016163230A JP2015041710A JP2015041710A JP2016163230A JP 2016163230 A JP2016163230 A JP 2016163230A JP 2015041710 A JP2015041710 A JP 2015041710A JP 2015041710 A JP2015041710 A JP 2015041710A JP 2016163230 A JP2016163230 A JP 2016163230A
Authority
JP
Japan
Prior art keywords
speaker
voice
waveform
target
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015041710A
Other languages
English (en)
Other versions
JP6515591B2 (ja
Inventor
誓哉 稲木
Seiya Inagi
誓哉 稲木
原田 陽雄
Haruo Harada
陽雄 原田
米山 博人
Hiroto Yoneyama
博人 米山
啓 下谷
Hiroshi Shitaya
啓 下谷
藤居 徹
Toru Fujii
徹 藤居
靖 飯田
Yasushi Iida
靖 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2015041710A priority Critical patent/JP6515591B2/ja
Priority to US14/791,794 priority patent/US9704504B2/en
Publication of JP2016163230A publication Critical patent/JP2016163230A/ja
Application granted granted Critical
Publication of JP6515591B2 publication Critical patent/JP6515591B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Telephone Function (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Game Theory and Decision Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)

Abstract

【課題】同時発話を判定することができる音声解析装置等を提供する。
【解決手段】話者の発声部位から異なる距離にて配され話者の音声を取得する複数のマイクロフォンにより生成された音声信号を取得する音声情報取得手段と、予め定められた対象話者の音声信号を強調した目的音強調波形および対象話者以外の話者の音声信号を強調した目的外音強調波形のそれぞれの周波数スペクトルのピークの強度を基に、取得された音声の話者を識別する識別手段と、を備えることを特徴とする端末装置10。
【選択図】図2

Description

本発明は、音声解析装置、音声解析システム、プログラムに関する。
従来、マイクロフォンを利用し、マイクロフォンにより捉えられた音の発生方向を推定する技術が存在する。
特許文献1には、各受信装置の受音信号について、第1の方向に指向性を形成するフィルタ処理を行って第1の出力信号を求める第1ビームフォーマと、各受信装置の受音信号について、第1の方向とは異なる第2の方向に指向性を形成するフィルタ処理を行って第2の出力信号を求める第2ビームフォーマと、第1の出力信号の強度と第2の出力信号の強度との強度比を求めるパワー比算出部と、強度比に基づいて音源方向を推定する方向推定部とを有する音響処理装置が開示されている。
特開2009−288215号公報
例えば、話者の発声部位からの距離が異なる複数のマイクロフォンを配置する。そしてそれぞれのマイクロフォンで取得される音声の音圧を基に、音声が何れの話者のものであるかを識別することができる。
しかしながら複数の話者が同時発話等の場合、同時発話であることを判別できない。また、何れかの話者の発話であるとの誤判定により話者識別の精度が低下する可能性がある。
本発明は、同時発話の判定を可能とする音声解析装置等を提供することを目的とする。
請求項1に記載の発明は、話者の発声部位から異なる距離にて配され話者の音声を取得する複数の音声取得手段により生成された音声信号を取得する音声情報取得手段と、予め定められた対象話者の音声信号を強調した目的音強調波形および当該対象話者以外の話者の音声信号を強調した目的外音強調波形のそれぞれの周波数スペクトルのピークの強度を基に、取得された音声の話者を識別する識別手段と、を備えることを特徴とする音声解析装置である。
請求項2に記載の発明は、前記識別手段は、前記音声情報取得手段が取得した音声信号の波形、前記目的音強調波形および前記目的外音強調波形のそれぞれの周波数スペクトルの少なくとも2つについて共通する位置にあるピークを求め、共通する位置にあるピークの強度から取得された音声が何れの話者の発話音声であるかを識別することを特徴とする請求項1に記載の音声解析装置である。
請求項3に記載の発明は、前記識別手段は、共通する位置にあるピークの強度の大小関係により取得された音声が何れの話者の発話音声であるかを識別することを特徴とする請求項2に記載の音声解析装置である。
請求項4に記載の発明は、話者の発声部位から異なる距離にて配され話者の音声を取得する複数の音声取得手段と、予め定められた対象話者の音声信号を強調した目的音強調波形および当該対象話者以外の話者の音声信号を強調した目的外音強調波形のそれぞれの周波数スペクトルのピークの強度を基に、取得された音声の話者を識別する識別手段と、を備えることを特徴とする音声解析システムである。
請求項5に記載の発明は、コンピュータに、話者の発声部位から異なる距離にて配され話者の音声を取得する複数の音声取得手段により生成された音声信号を取得する音声情報取得機能と、予め定められた対象話者の音声信号を強調した目的音強調波形および当該対象話者以外の話者の音声信号を強調した目的外音強調波形のそれぞれの周波数スペクトルのピークの強度を基に、取得された音声の話者を識別する識別機能と、を実現させるプログラムである。
請求項1に記載の発明は、同時発話を判定することができる音声解析装置を提供できる。
請求項2に記載の発明は、話者を識別する際に周波数スペクトルの一部を用いることによって、簡易な方法で行うことができる。
請求項3に記載の発明は、話者を識別する際に周波数スペクトルの大小関係を用いることによって、簡単な方法で行うことができる。
請求項4に記載の発明は、同時発話を判定することができる音声解析システムを提供できる。
請求項5に記載の発明は、同時発話を判定することができる機能をコンピュータにより実現できる。
本実施形態による音解析システムの構成例を示す図である。 本実施形態における端末装置およびホスト装置の機能構成例を示した図である。 端末装置と話者の口(発声部位)との位置関係を説明した図である。 (a)は、目的音強調波形および目的外音強調波形を求めるために使用される音声信号の波形について示した図である。(b)は、図4(a)に示した音声信号を基に目的音強調波形を求めたものである。(c)は、図4(a)に示した音声信号を基に目的音強調波形を求めたものである。 目的音強調波形および目的外音強調波形の強度の比を示した図である。 (a)〜(c)は、図4(a)〜(c)に示した元波形、目的音強調波形および目的外音強調波形のそれぞれについてフーリエ変換を行い、周波数スペクトルとしたものである。 時間フレームを説明した図である。 本実施形態における端末装置の動作を示すフローチャートである。 図8のステップ107において行われる話者の判定についてさらに詳しく説明したフローチャートである。 他の話者が2人以上だったときに、図8のステップ107において行われる話者の判定についてさらに詳しく説明したフローチャートである。 会話状況における発話情報の例を示す図である。
<システム構成例>
図1は、本実施形態による音解析システムの構成例を示す図である。
図1に示すように、本実施形態の音声解析システム1は、音声解析装置の一例である端末装置10と、音解析装置の一例であるホスト装置20とを備えて構成される。端末装置10とホスト装置20とは、予め定められた通信回線を介して接続されている。この通信回線は、有線通信回線でも無線通信回線でも良い。無線通信回線を使用する場合、Wi−Fi(Wireless Fidelity)、Bluetooth(登録商標)、ZigBee、UWB(Ultra Wideband)等の既存の方式による回線を用いることができる。なお端末装置10は、図1では1台のみ図示しているが、複数台設置してもよい。
図2は、本実施形態における端末装置10およびホスト装置20の機能構成例を示した図である。
図示するように端末装置10は、話者の音声を取得する音声取得手段として複数のマイクロフォン11、12、13(第1マイクロフォン11、第2マイクロフォン12、第3マイクロフォン13)と、増幅器14とを備える。また、端末装置10は、取得した音声を解析する音声解析部15と、解析結果をホスト装置20に送信するためのデータ送信部16とを備え、さらに電源部17とを備える。
第1マイクロフォン11、第2マイクロフォン12、および第3マイクロフォン13は、詳しくは図3で説明するが、正三角形の頂点位置に配される。また第1マイクロフォン11、第2マイクロフォン12、および第3マイクロフォン13は、例えば、水平面に沿って配される。本実施形態の第1マイクロフォン11、第2マイクロフォン12、および第3マイクロフォン13として用いられるマイクロフォンの種類としては、ダイナミック型、コンデンサ型等、既存の種々のものを用いて良い。とくに無指向性のMEMS(Micro Electro Mechanical Systems)型マイクロフォンが好ましい。
増幅器14は、それぞれ第1マイクロフォン11、第2マイクロフォン12、および第3マイクロフォン13が取得した音に応じて出力する電気信号(音声信号)を増幅する。本実施形態の増幅器14として用いられる増幅器としては、既存のオペアンプ等を用いて良い。
音声解析部15は、増幅器14から出力された音声信号を解析する。そして、第1マイクロフォン11、第2マイクロフォン12、および第3マイクロフォン13で取得した音声が何れの話者の発話音声であるかを識別する。音声識別のための具体的な処理の内容については後述する。音声解析部15は、音声情報取得手段および識別手段の一例として機能する。
データ送信部16は、音声解析部15による解析結果を含む取得データを、上記の無線通信回線を介して、あるいは無線通信回線に加えてインターネット等の有線通信回線を経由してホスト装置20へ送信する。ホスト装置20へ送信する情報としては、ホスト装置20において行われる処理の内容に応じて、上記の解析結果の他、例えば、第1マイクロフォン11、第2マイクロフォン12、および第3マイクロフォン13による音声の取得時刻、取得音声の音圧等の情報を含めて良い。また端末装置10に音声解析部15による解析結果を蓄積するデータ蓄積部を設け、一定期間の保存データを一括送信しても良い。なお有線通信回線のみで送信しても良い。
電源部17は、上記の第1マイクロフォン11、第2マイクロフォン12、第3マイクロフォン13、増幅器14、音声解析部15およびデータ送信部16に電力を供給する。電源としては、例えば乾電池や充電池等の既存の電源が用いられる。また、電源部17は、必要に応じて、電圧変換回路および充電制御回路等の周知の回路を含む。
ホスト装置20は、端末装置10から送信されたデータを受信するデータ受信部21と、受信したデータを蓄積するデータ蓄積部22と、蓄積したデータを解析するデータ解析部23と、解析結果を出力する出力部24とを備える。このホスト装置20は、例えばパーソナルコンピュータ等の情報処理装置により実現される。また、本実施形態では複数台の端末装置10が使用された場合には、ホスト装置20は、その複数台の端末装置10の各々からデータを受信する。なお、端末装置10とホスト装置20の間にデータ転送を中継する中継装置を介しても良く、この中継装置が解析、演算、時刻や中継装置ID等のデータを加える機能を有してもよい。
データ受信部21は、各端末装置10、あるいは中継装置からデータを受信してデータ蓄積部22へ送る。
データ蓄積部22は、例えばパーソナルコンピュータの磁気ディスク装置等の記憶装置により実現され、データ受信部21から取得した受信データを蓄積する。
データ解析部23は、例えばパーソナルコンピュータのプログラム制御されたCPUにより実現され、データ蓄積部22に蓄積されたデータを解析する。具体的な解析内容および解析手法は、本実施形態のシステムの利用目的や利用態様に応じて種々の内容および手法を取り得る。例えば、話者どうしの対話頻度や話者の対話相手の傾向を分析したり、対話における個々の発話の長さや音圧の情報から対話者の関係を類推したりすることが行われる。詳しくは後述するが、本実施形態では、データ解析部23は、対象話者と他の話者との会話関係を判定する。
出力部24は、データ解析部23による解析結果を出力したり、解析結果に基づく出力を行ったりする。この解析結果等を出力する手段は、システムの利用目的や利用態様、解析結果の内容や形式等に応じて、WEB表示、ディスプレイ表示、プリンタによる印刷出力、音声出力等、種々の手段を取り得る。
<2つのマイクロフォンの組と音声信号の位相差についての説明>
図3は、端末装置10と話者の口(発声部位)との位置関係を説明した図である。
本実施形態では、1人の話者を選択し、これを対象話者とする。そして端末装置10は、マイクロフォン11、12、13が取得した話者の音声が、対象話者の発話音声であるか、対象話者以外の話者の発話音声であるかを識別する。
図3では、対象話者Xと対象話者以外の話者である話者Yとが端末装置10の周囲で会話している状況を示している。このとき例えば、第1マイクロフォン11、第2マイクロフォン12、対象話者Xの発声部位である音源a、および話者Yの発声部位である音源bのそれぞれの位置関係を考える。
図3に示す関係において、音源aと第1マイクロフォン11との間の距離をLa1、音源aと第2マイクロフォン12との間の距離をLa2とする。また、音源bと第1マイクロフォン11との間の距離をLb1、音源bと第2マイクロフォン12との間の距離をLb2とする。
この場合、音源aから発した対象話者Xの発話音声は、音速で空気中を伝播し、第1マイクロフォン11および第2マイクロフォン12にそれぞれ到達する。しかしながらLa1とLa2が異なると、この距離差に応じて第1マイクロフォン11および第2マイクロフォン12に到達する時間に時間差が生じることになる。同様のことは話者Yについても言うことができる。即ち、音源bから発した話者Yの音声は、Lb1とLb2との距離差に応じて第1マイクロフォン11および第2マイクロフォン12に到達する時間に時間差が生じる。
そして第1マイクロフォン11および第2マイクロフォン12から出力される音声信号は、対象話者Xおよび話者Yのそれぞれについて、波形はほぼ同一となるが、時間差に応じた位相差が生じる。
<発話音声の識別についての説明>
本実施形態では、この音声信号の位相差を利用して、マイクロフォン11、12、13が取得した話者の音声が、何れの話者の発話音声であるかを識別する。
具体的には、対象話者Xの音声信号を強調した目的音強調波形と対象話者X以外の話者Yの音声信号を強調した目的外音強調波形をまず求める。目的音の強調としては、ある方向(目的音が発せられる方向)からの信号を増幅したり、ある方向からの信号を増幅する一方でその他の方向からの信号を抑圧したり、ある方向からの信号には処理せずにその他の方向からの信号を抑圧したり、ある方向からの音声のみを抽出したり、といったことが考えられる。
目的音強調波形や目的外音強調波形は、既知の方法に求めることができる。具体的には、例えば、上記位相差を利用した空間フィルタを用いる方法により求めることができる。
図4(a)は、目的音強調波形および目的外音強調波形を求めるために使用される音声信号の波形について示した図である。ここで横軸は、時間を表し、縦軸は、音声信号の強度を表す。これは、第1マイクロフォン11または第2マイクロフォン12から出力される音声信号の波形であり、ここでは、元波形と言うことにする。なお実際の音声信号の波形は、鋸歯形状となるが、説明を簡単にするため、紡錘形状に簡略化して図示している。
図4(a)では、まず対象話者Xが発話し、次に話者Yが発話した後に、対象話者Xと話者Yが同時に発話した場合の音声信号を示す。つまり図4(a)では、まず対象話者Xの発話区間があり、次に話者Yの発話区間がある。そして最後に対象話者Xの発話区間でもあり、話者Yの発話期間でもある同時発話区間がある。
図4(b)は、図4(a)に示した音声信号を基に目的音強調波形を求めたものである。
図示するように図4(a)に比較して、対象話者Xの発話区間の音声信号の強度が大きくなるとともに、話者Yの発話区間の音声信号の強度は小さくなる。つまり対象話者Xの音声が強調された波形となる。
なお対象話者Xと話者Yの同時発話区間における音声信号は、対象話者Xの音声信号を大きくしたものと話者Yの音声信号を小さくしたものの合成波形となる。
また図4(c)は、図4(a)に示した音声信号を基に目的音強調波形を求めたものである。
図示するように図4(a)に比較して、対象話者Xの発話区間の音声信号の強度が小さくなるとともに、話者Yの発話区間の音声信号の強度は大きくなる。つまり対象話者Xの音声が強調された波形となる。
なお対象話者Xと話者Yの同時発話区間における音声信号は、対象話者Xの音声信号を小さくしたものと話者Yの音声信号を大きくしたものの合成波形となる。
ここで、例えば、目的音強調波形および目的外音強調波形の強度の比から、対象話者Xの発話音声であるか、話者Yの発話音声であるかを識別する方法がある。
図5は、目的音強調波形および目的外音強調波形の強度の比を示した図である。この場合、(図4(a)の目的音強調波形の強度)/(図4(b)の目的外音強調波形の強度)により強度の比を求めている。
上述したように対象話者Xの発話区間では、目的音強調波形では、音声信号の強度は大きくなり、目的外音強調波形では、音声信号の強度は小さくなる。そのため強度の比は、1より大きくなる。
対して話者Yの発話区間では、目的音強調波形では、音声信号の強度は小さくなり、目的外音強調波形では、音声信号の強度は大きくなる。そのため強度の比は、1より小さくなる。
よって例えば、閾値として予め定められた値を定め、強度の比がこの閾値より大きくなったときは、対象話者Xの発話音声であると判断でき、強度の比がこの閾値より小さくなったときは、話者Yの発話音声であると判断できる。なお図5では、この閾値として約1.2を設定している。
しかしながら対象話者Xと話者Yの同時発話区間では、強度の比は、対象話者Xの発話区間の場合と話者Yの発話区間の場合の間となる。そして同時発話の場合、この強度の比は、対象話者Xまたは話者Yが単独で発話した場合に比較して、その値は、不安定である。よって大きな幅でその値が振れやすく、そのため閾値を設定する方法で、同時発話を判断することは困難である。また対象話者Xまたは話者Yの何れかの発話区間であると判断され、誤判定が生ずる。
そこで本実施形態では、以下の方法により対象話者Xの発話音声であるか、話者Yの発話音声であるかを識別することで、この問題の抑制を図っている。
本実施形態では、目的音強調波形および目的外音強調波形のそれぞれについてフーリエ変換を行い、周波数スペクトルを求める。そしてそれぞれの周波数スペクトルのピークの強度を基に取得された音声の話者を識別する。
図6(a)〜(c)は、図4(a)〜(c)に示した元波形、目的音強調波形および目的外音強調波形のそれぞれについてフーリエ変換を行い、周波数スペクトルとしたものである。図6(a)〜(c)において、横軸は周波数を表し、縦軸は、強度を表す。なおこのフーリエ変換は、図7で示すように対象話者Xと話者Yの同時発話区間において、時間フレームFを設定し、この時間フレームFの間の元波形、目的音強調波形および目的外音強調波形について行っている。
そして図6(a)〜(c)の周波数スペクトルの波形からピークを検出する。ここでは、検出したピークをI〜VIIで示している。
次にそれぞれの波形で共通する位置にあるピークを見つける。ここでは、図6(a)と図6(b)についてピークI〜III、Vが共通する位置にある。また、図6(a)と図6(c)についてピークV〜VIIが共通する位置にある。なおピークIVは、他と共通する位置にないため、ここでは対象とならない。
そして共通する位置にあるそれぞれのピークについて強度の比を取る。
この場合、例えば、(元波形についてのピークの強度)/(目的音強調波形についてのピークの強度)を算出し、比を求める。
そして予め定められた閾値(第1の閾値)を超えるピークがある場合には、取得された音声が対象話者Xの発話音声であると判断する。この例では、ピークI〜III、Vの何れかが、第1の閾値を超えた場合、取得された音声が対象話者Xの発話音声であると判断する。この例では、ピークI〜IIIについて第1の閾値を超える。
また(元波形のピークの強度)/(目的外音強調波形のピークの強度)を算出し、比を求める。
そして予め定められた閾値(第2の閾値)を超えるピークがある場合には、取得された音声が話者Yの発話音声であると判断する。この例では、ピークV〜VIIの何れかが、第2の閾値を超えた場合、取得された音声が話者Yの発話音声であると判断する。この例では、ピークV〜VIIが全て第2の閾値を超える。
よってこの場合は、時間フレームFの箇所は、対象話者Xの発話区間でもあり、話者Yの発話区間でもあると判断される。即ち、対象話者Xと話者Yの同時発話区間と判断される。
なおこの例では、共通する位置にあるそれぞれのピークについて、強度の比により何れの話者の発話音声であるかの判断を行ったが、これに限られるものではなく、強度の差により判断してもよい。
このように本実施形態では、元波形、目的音強調波形および目的外音強調波形のそれぞれの周波数スペクトルの少なくとも2つについて共通する位置にあるピークを求める。そして共通する位置にあるピークの強度から取得された音声が何れの話者の発話音声であるかを識別する。さらに具体的には、共通する位置にあるピークの強度の大小関係により取得された音声が何れの話者の発話音声であるかを識別する。
周波数スペクトルは、話者毎に異なり、周波数スペクトルのピークの位置が話者毎に異なる。よって同時発話をしても周波数スペクトル上では、ピークが分離される。そのためこのピークの位置を基にして、何れの話者が発話しているのかが識別できる。
つまり対象話者Xの発話音声についての周波数スペクトル上のピークの位置は、元波形の周波数スペクトルでも目的音強調波形の周波数スペクトルでも変わらない。そして目的音強調波形の周波数スペクトルの強度は、元波形の周波数スペクトルに対して強調される。なお目的外音強調波形の周波数スペクトルでは、このピークは小さくなる。
よって目的音強調波形の波数スペクトルと元波形の周波数スペクトルのそれぞれのピークの強度を比較することで対象話者Xが発話しているか否かがわかる。
また同様に話者Yの発話音声についての周波数スペクトル上のピークの位置は、元波形の周波数スペクトルでも目的外音強調波形の周波数スペクトルでも変わらない。そして目的外音強調波形の周波数スペクトルの強度は、元波形の周波数スペクトルに対して強調される。なお目的音強調波形の周波数スペクトルでは、このピークは小さくなる。
よって目的外音強調波形の波数スペクトルと元波形の周波数スペクトルのそれぞれのピークの強度を比較することで話者Yが発話しているか否かがわかる。
この方法によれば、対象話者Xが発話しているか否か、また話者Yが発話しているか否かは、対象話者Xや話者Yが単独で発話している場合はもちろん、対象話者Xと話者Xとが同時発話していても判別可能である。
<端末装置の動作例>
図8は、本実施形態における端末装置10の動作を示すフローチャートである。
図8に示すように、端末装置10のマイクロフォン11、12、13が音声を取得する(ステップ101)と、各マイクロフォン11、12、13から取得音声に応じた電気信号(音声信号)が増幅器14へ送られる。増幅器14は、マイクロフォン11、12、13からの音声信号を取得すると、音声信号を増幅して音声解析部15へ送る(ステップ102)。
音声解析部15は、送られた音声信号(元波形)を基に、位相差を利用した空間フィルタを使用して目的音強調波形および目的外音強調波形を求める(ステップ103)。
次に音声解析部15は、一定の時間単位(例えば、数十分の一秒〜数百分の一秒)毎に時間フレームFを設定し、元波形、目的音強調波形および目的外音強調波形に対してフーリエ変換を行うことで、周波数スペクトルを求める(ステップ104)。
さらに音声解析部15は、それぞれの周波数スペクトルの波形からピークを検出する(ステップ105)。
次にそれぞれの波形で共通する位置にあるピークを見つける(ステップ106)。
そして共通する位置にあるピークの強度を基にして、時間フレームFの箇所が、何れの話者の発話区間であるかを判定する(ステップ107)。
この後、音声解析部15は、データ送信部16を介して、ステップ103〜ステップ107の処理で得られた情報(発話の有無、話者の情報)を解析結果としてホスト装置20へ送信する(ステップ108)。このとき、話者毎の発話時間の長さやその他の付加情報を解析結果と共にホスト装置20へ送信させても良い。
また図9は、図8のステップ107において行われる話者の判定についてさらに詳しく説明したフローチャートである。
ここでは、ステップ106において、共通する位置にあるピークがn個見つかったとし、このn個のピークの周波数λの値を、λ={λ、λ、λ、…、λ}で表す。また目的音強調波形、目的外音強調波形、元波形のそれぞれの周波数スペクトルについて、このn個のピークの周波数λの位置の強度を、それぞれA={a、a、a、…、a}、B={b、b、b、…、b}、C={c、c、c、…、c}で表す。
図示するように、音声解析部15は、まずカウンタiを1にセットする(ステップ201)。
次に音声解析部15は、a>c>bであるか否かを判定する(ステップ202)。つまりここでは、強度の差により何れの話者の発話音声であるかの判断を行う。
そしてa>c>bであったとき(ステップ202でYes)、発話フラグfを「対象話者」に設定する(ステップ203)。
対してa>c>bでなかったとき(ステップ202でNo)、音声解析部15は、b>c>aであるか否かを判定する(ステップ204)。
そしてb>c>aであったとき(ステップ204でYes)、発話フラグfを「他の話者」に設定する(ステップ205)。
対してb>c>aでなかったとき(ステップ204でNo)、このピークについては、判定の対象外として、ステップ206に進む。
次に音声解析部15は、カウンタiに1を加算する(ステップ206)。そして音声解析部15は、i>nであるかを判定する(ステップ207)。そしてi>nでなかったとき(ステップ207でNo)、ステップ202に戻る。
一方、i>nだったとき(ステップ207でYes)、つまり発話フラグfがn個のピークの周波数λに対して全て設定されたとき、音声解析部15は、発話フラグf={f、f、f、…、f}の何れかに「対象話者」であるものが含むか否かを判定する(ステップ208)。
そして何れかに「対象話者」を含む場合(ステップ208でYes)、音声解析部15は、発話フラグf={f、f、f、…、f}の何れかに「他の話者」であるものを含むか否かを判定する(ステップ209)。
その結果、何れかに「他の話者」を含む場合(ステップ209でYes)、音声解析部15は、時間フレームFの箇所が、対象話者Xと話者Yの同時発話区間であると判定する(ステップ210)。
一方、何れかに「他の話者」を含まない場合(ステップ209でNo)、音声解析部15は、時間フレームFの箇所が、対象話者X単独の発話区間であると判定する(ステップ211)。
また何れかに「対象話者」を含まなかった場合(ステップ208でNo)、音声解析部15は、発話フラグf={f、f、f、…、f}の何れかに「他の話者」であるものを含むか否かを判定する(ステップ212)。
その結果、何れかに「他の話者」を含む場合(ステップ212でYes)、音声解析部15は、時間フレームFの箇所が、話者Y単独の発話区間であると判定する(ステップ213)。
さらに何れかに「他の話者」を含まない場合(ステップ212でNo)、音声解析部15は、時間フレームFの箇所が、対象話者X、話者Yの何れも発話していない話者なしの区間であると判定する(ステップ214)。
なお上述した例では、話者は対象話者Xと他の話者である話者Yとの2人であったが、これに限られるものではなく、3人以上であってもよい。このとき他の話者は、2人以上となる。この場合、ステップ103において、目的音強調波形の他に目的外音強調波形を他の話者の人数分求める。そしてステップ104〜107で同様の処理を行うことで、時間フレームFの箇所が、何れの話者の発話区間であるかを判定する。
このときステップ107において行われる話者の判定は、次のようにして行う。
図10は、他の話者が2人以上だったときに、図8のステップ107において行われる話者の判定についてさらに詳しく説明したフローチャートである。
ここでは、対象話者Xと他の話者との合計はm人である。つまり他の話者は、m−1人であるとする。
ここでもステップ106において、共通する位置にあるピークがn個見つかったとし、このn個のピークの周波数λの値を、λ={λ、λ、λ、…、λ}で表す。また目的音強調波形の周波数スペクトルについて、このn個のピークの周波数λの位置の強度を、{a11、a12、a13、…、a1n}で表す。また目的外音強調波形の周波数スペクトルは、他の話者のそれぞれの音声信号を強調したものを他の話者の人数分求める。そしてこの目的外音強調波形の周波数スペクトルについて、このn個のピークの周波数λの位置の強度を、{a21、a22、a23、…、a2n}、{a31、a32、a33、…、a3n}、…、{am1、am2、am3、…、amn}で表す。そしてこれらを総括したものとして下記の強度Aを考える。なおこれは、m行n列の行列とみなすこともできる。
A={a11、a12、a13、…、a1n
21、a22、a23、…、a2n
31、a32、a33、…、a3n
・・・・・・・・・・・・・・・・・
m1、am2、am3、…、amn
また元波形のそれぞれの周波数スペクトルについて、このn個のピークの周波数λの位置の強度を、B={b、b、b、…、b}で表す。
そして図示するように、音声解析部15は、まずカウンタiを1にセットする(ステップ301)。
そしてA’={a1i、a2i、a3i、…、ani}を考え、この中に含まれる強度と、B={b、b、b、…、b}に含まれる強度を順に比較して大小関係を求める。つまりまずa1iとbとを比較し、次にa2iとbとを比較する。そしてさらにこの処理を続け、最後にaniとbとを比較する。そしてBよりA’の方が大きくなった場合のA’の要素の集合としてTを求める(ステップ302)。
例えば、BよりA’の方が大きくなった場合が、a1i>b1、3i>b3、ni>bの3個であり、他はA’よりBの方が大きくなった場合、T={a1i、3i、ni}となる。
次にTの要素の数が1以上であるか否かを判定する(ステップ303)。
そしてTの要素の数が1以上であったとき(ステップ303でYes)、発話フラグf={f、f、f、…、f}のi番目(f)を行番号とする(ステップ304)。上述した例では、fが、1、3、nとなる。
またTの要素の数が1未満(つまり0)であったとき(ステップ303でNo)、ステップ305に進む。
次に音声解析部15は、カウンタiに1を加算する(ステップ305)。そして音声解析部15は、i>nであるかを判定する(ステップ306)。そしてi>nでなかったとき(ステップ306でNo)、ステップ302に戻る。
一方、i>nだったとき(ステップ306でYes)、つまり発話フラグfがn個のピークの周波数λに対して全て設定されたとき、音声解析部15は、発話フラグf={f、f、f、…、f}の何れかに含まれる行番号を抽出する(ステップ307)。そして音声解析部15は、抽出された行番号に対応する話者が時間フレームFにおいて発話していると判定する。例えば、行番号として、1が抽出されたときは、対象話者Xが発話している。また行番号として、例えば、mが抽出されたときは、この番号に対応する話者が発話している。音声解析部15は、抽出された行番号により、時間フレームFの箇所が、何れの話者の発話区間であるかを判定する(ステップ308)。
以上詳述した端末装置10では、複数の話者が同時発話した場合でも、同時発話であることを判別でき、何れかの話者が発話したかを識別している。そのため話者識別の精度が低下しにくい。
<装着者の会話関係の判定についての説明>
音声に関する情報を受信した端末装置10では、データ解析部23において複数の端末装置10から送られた音声が解析され、装着者の会話関係が判定される。
以下に本実施形態における話者の会話関係を判定する具体的な方法について説明を行なう。ここではまず同一の部屋内等の同一のエリアにおいて対象話者Xと話者Yが会話を行なっている場合に、この二人の話者が会話をしていることを判定する場合について説明する。
図11は、会話状況における発話情報の例を示す図である。
このとき、発話情報は、図11に示すように、発話時間の長さや発話者が切り替わったタイミング等の発話状況を示す情報は近似し、同調性があることがわかる。そこで、本実施例のホスト装置20は、端末装置10から取得した情報を分析し、同調性を判定することにより、これらの情報が同じ発話状況を示していると判断し、対象話者Xと話者Yとが会話していることを認識する。ここで、発話状況を示す情報としては、少なくとも、上述した発話者ごとの個々の発話における発話時間の長さ、個々の発話の開始時刻と終了時刻、発話者が切り替わった時刻(タイミング)等のように、発話に関する時間情報が用いられる。なお、特定の会話に係る発話状況を判断するために、これらの発話に関する時間情報の一部のみを用いても良いし、他の情報を付加的に用いても良い。
このように装着者同士の会話関係を判断することで、話者のコミュニケーション関係が把握できるシステムを構築できる。
なお上述した例では、音声の話者の識別を行なうのを端末装置10の側で行なっていたが、これに限られるものではなく、ホスト装置20の側で行なってもよい。この形態における音声解析システム1としては、図1のものに対し、音声解析部15で行なっていた音声信号の話者識別を、例えば、ホスト装置20のデータ解析部23で行なう。この場合、データ解析部23が音声情報取得手段および識別手段として機能する。さらに図11で説明した会話状況の判定をデータ解析部23ではなく、端末装置10の音声解析部15で行ってもよい。
また上述した例では、第1マイクロフォン11、第2マイクロフォン12を使用して話者の識別を行っていたが、これに限られるものではなく、第3マイクロフォン13を使用してもよい。また第1マイクロフォン11、第2マイクロフォン12、第3マイクロフォン13の中から適切なものを2個選択するようにしてもよい。
<プログラムの説明>
なお本実施形態における端末装置10が行なう処理は、ソフトウェアとハードウェア資源とが協働することにより実現される。即ち、端末装置10に設けられた制御用コンピュータ内部の図示しないCPUが、端末装置10の各機能を実現するプログラムを実行し、これらの各機能を実現させる。
よって端末装置10が行なう処理は、コンピュータに、話者の発声部位から異なる距離にて配され話者の音声を取得する複数の音声取得手段により生成された音声信号を取得する音声情報取得機能と、予め定められた対象話者の音声信号を強調した目的音強調波形および対象話者以外の話者の音声信号を強調した目的外音強調波形のそれぞれの周波数スペクトルのピークの強度を基に、取得された音声の話者を識別する識別機能と、を実現させるプログラムとして捉えることもできる。
1…音声解析システム、10…端末装置、15…音声解析部、16…データ送信部、20…ホスト装置、21…データ受信部、23…データ解析部

Claims (5)

  1. 話者の発声部位から異なる距離にて配され話者の音声を取得する複数の音声取得手段により生成された音声信号を取得する音声情報取得手段と、
    予め定められた対象話者の音声信号を強調した目的音強調波形および当該対象話者以外の話者の音声信号を強調した目的外音強調波形のそれぞれの周波数スペクトルのピークの強度を基に、取得された音声の話者を識別する識別手段と、
    を備えることを特徴とする音声解析装置。
  2. 前記識別手段は、前記音声情報取得手段が取得した音声信号の波形、前記目的音強調波形および前記目的外音強調波形のそれぞれの周波数スペクトルの少なくとも2つについて共通する位置にあるピークを求め、共通する位置にあるピークの強度から取得された音声が何れの話者の発話音声であるかを識別することを特徴とする請求項1に記載の音声解析装置。
  3. 前記識別手段は、共通する位置にあるピークの強度の大小関係により取得された音声が何れの話者の発話音声であるかを識別することを特徴とする請求項2に記載の音声解析装置。
  4. 話者の発声部位から異なる距離にて配され話者の音声を取得する複数の音声取得手段と、
    予め定められた対象話者の音声信号を強調した目的音強調波形および当該対象話者以外の話者の音声信号を強調した目的外音強調波形のそれぞれの周波数スペクトルのピークの強度を基に、取得された音声の話者を識別する識別手段と、
    を備えることを特徴とする音声解析システム。
  5. コンピュータに、
    話者の発声部位から異なる距離にて配され話者の音声を取得する複数の音声取得手段により生成された音声信号を取得する音声情報取得機能と、
    予め定められた対象話者の音声信号を強調した目的音強調波形および当該対象話者以外の話者の音声信号を強調した目的外音強調波形のそれぞれの周波数スペクトルのピークの強度を基に、取得された音声の話者を識別する識別機能と、
    を実現させるプログラム。
JP2015041710A 2015-03-03 2015-03-03 音声解析装置、音声解析システムおよびプログラム Expired - Fee Related JP6515591B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015041710A JP6515591B2 (ja) 2015-03-03 2015-03-03 音声解析装置、音声解析システムおよびプログラム
US14/791,794 US9704504B2 (en) 2015-03-03 2015-07-06 Voice analysis device and voice analysis system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015041710A JP6515591B2 (ja) 2015-03-03 2015-03-03 音声解析装置、音声解析システムおよびプログラム

Publications (2)

Publication Number Publication Date
JP2016163230A true JP2016163230A (ja) 2016-09-05
JP6515591B2 JP6515591B2 (ja) 2019-05-22

Family

ID=56847318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015041710A Expired - Fee Related JP6515591B2 (ja) 2015-03-03 2015-03-03 音声解析装置、音声解析システムおよびプログラム

Country Status (2)

Country Link
US (1) US9704504B2 (ja)
JP (1) JP6515591B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10564925B2 (en) * 2017-02-07 2020-02-18 Avnera Corporation User voice activity detection methods, devices, assemblies, and components
US20190267009A1 (en) * 2018-02-27 2019-08-29 Cirrus Logic International Semiconductor Ltd. Detection of a malicious attack

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005173007A (ja) * 2003-12-09 2005-06-30 Canon Inc 音声解析処理およびそれを用いた音声処理装置および媒体
JP2013135325A (ja) * 2011-12-26 2013-07-08 Fuji Xerox Co Ltd 音声解析装置
JP2014066579A (ja) * 2012-09-25 2014-04-17 Fuji Xerox Co Ltd 音声解析装置、音声解析システムおよびプログラム
JP2014164164A (ja) * 2013-02-26 2014-09-08 Fuji Xerox Co Ltd 音声解析装置、信号解析装置、音声解析システムおよびプログラム
JP2014191069A (ja) * 2013-03-26 2014-10-06 Fuji Xerox Co Ltd 音声解析装置、音声解析システムおよびプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5305743B2 (ja) 2008-06-02 2013-10-02 株式会社東芝 音響処理装置及びその方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005173007A (ja) * 2003-12-09 2005-06-30 Canon Inc 音声解析処理およびそれを用いた音声処理装置および媒体
JP2013135325A (ja) * 2011-12-26 2013-07-08 Fuji Xerox Co Ltd 音声解析装置
JP2014066579A (ja) * 2012-09-25 2014-04-17 Fuji Xerox Co Ltd 音声解析装置、音声解析システムおよびプログラム
JP2014164164A (ja) * 2013-02-26 2014-09-08 Fuji Xerox Co Ltd 音声解析装置、信号解析装置、音声解析システムおよびプログラム
JP2014191069A (ja) * 2013-03-26 2014-10-06 Fuji Xerox Co Ltd 音声解析装置、音声解析システムおよびプログラム

Also Published As

Publication number Publication date
US20160260439A1 (en) 2016-09-08
JP6515591B2 (ja) 2019-05-22
US9704504B2 (en) 2017-07-11

Similar Documents

Publication Publication Date Title
EP3707716B1 (en) Multi-channel speech separation
JP5772448B2 (ja) 音声解析システムおよび音声解析装置
JP6031761B2 (ja) 音声解析装置および音声解析システム
US11158334B2 (en) Sound source direction estimation device, sound source direction estimation method, and program
JP6402748B2 (ja) 音声対話装置および発話制御方法
JP2018049143A (ja) 音声取得システムおよび音声取得方法
JP6003472B2 (ja) 音声解析装置、音声解析システムおよびプログラム
JP2016080750A (ja) 音声認識装置、音声認識方法、及び音声認識プログラム
JP6003510B2 (ja) 音声解析装置、音声解析システムおよびプログラム
JP5867066B2 (ja) 音声解析装置
JPWO2018037643A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2013142843A (ja) 動作解析装置、音声取得装置、および、動作解析システム
JP6515591B2 (ja) 音声解析装置、音声解析システムおよびプログラム
JP6007487B2 (ja) 情報処理装置、情報処理システムおよびプログラム
WO2016017229A1 (ja) 発話区間検出装置、音声処理システム、発話区間検出方法およびプログラム
JP6476938B2 (ja) 音声解析装置、音声解析システムおよびプログラム
JP2011257627A (ja) 音声認識装置と認識方法
KR101658001B1 (ko) 강인한 음성 인식을 위한 실시간 타겟 음성 분리 방법
JP6191747B2 (ja) 音声解析装置および音声解析システム
JP6031767B2 (ja) 音声解析装置、音声解析システムおよびプログラム
JP5929810B2 (ja) 音声解析システム、音声端末装置およびプログラム
JP6361360B2 (ja) 残響判定装置及びプログラム
JP2017040752A (ja) 音声判定装置、方法及びプログラム、並びに、音声信号処理装置
JP2013140534A (ja) 音声解析装置、音声解析システムおよびプログラム
JP5113096B2 (ja) 音源分離方法、装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190401

R150 Certificate of patent or registration of utility model

Ref document number: 6515591

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees