JP7000757B2 - 音声処理プログラム、音声処理方法および音声処理装置 - Google Patents

音声処理プログラム、音声処理方法および音声処理装置 Download PDF

Info

Publication number
JP7000757B2
JP7000757B2 JP2017175635A JP2017175635A JP7000757B2 JP 7000757 B2 JP7000757 B2 JP 7000757B2 JP 2017175635 A JP2017175635 A JP 2017175635A JP 2017175635 A JP2017175635 A JP 2017175635A JP 7000757 B2 JP7000757 B2 JP 7000757B2
Authority
JP
Japan
Prior art keywords
voice
acoustic feature
feature amount
frequency
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017175635A
Other languages
English (en)
Other versions
JP2019053121A (ja
Inventor
太郎 外川
紗友梨 中山
猛 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017175635A priority Critical patent/JP7000757B2/ja
Priority to US16/122,098 priority patent/US10832687B2/en
Publication of JP2019053121A publication Critical patent/JP2019053121A/ja
Application granted granted Critical
Publication of JP7000757B2 publication Critical patent/JP7000757B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/15Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Algebra (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Auxiliary Devices For Music (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)

Description

本発明は、音声処理プログラム等に関する。
近年、多くの企業が顧客満足度を重視する傾向にあり、対応者と顧客との会話における、応対者の印象や顧客の感情を把握したいというニーズが高まっている。応対者の印象や、顧客の感情は、音声に現れることが多い。
たとえば、従来技術には、通話中の音声のピッチ周波数を検出し、音声の印象や感情を判定するものがある。
特開2010-54568号公報
しかしながら、上述した従来技術では、発話に関する印象を正確に推定することができないという問題がある。
1つの側面では、本発明は、発話に関する印象を正確に推定することができる音声処理プログラム、音声処理方法および音声処理装置を提供することを目的とする。
第1の案では、コンピュータに以下の処理を実行させる。コンピュータは、入力音声を取得し、入力音声の第1および第2の音響特徴量を検出し、第1の音響特徴量の時間変化量を算出する。コンピュータは、時間変化量に基づいて第2の音響特徴量に対する係数を算出し、係数に基づいて第2の音響特徴量に関する統計量を算出する。
発話に関する印象を正確に推定することができる。
図1は、参考技術によるピッチ周波数のヒストグラムの一例を示す図である。 図2は、参考技術の問題点を説明するための図(1)である。 図3は、参考技術の問題点を説明するための図(2)である。 図4は、本実施例1に係る音声処理装置の処理を説明するための図(1)である。 図5は、本実施例1に係る音声処理装置の処理を説明するための図(2)である。 図6は、本実施例1に係るシステムの構成を示す図である。 図7は、本実施例1に係る音声処理装置の構成を示す機能ブロック図である。 図8は、区間の継続時間と重み係数との関係を示す図(1)である。 図9Aは、本実施例1に係る音声処理装置の処理手順を示すフローチャートである。 図9Bは、ピッチ周波数の変化量の小さい継続時間の分布の一例を示す図である。 図10は、本実施例2に係るシステムの構成を示す図である。 図11は、本実施例2に係る音声処理装置の構成を示す機能ブロック図である。 図12は、区間の継続時間と重み係数との関係を示す図(2)である。 図13は、本実施例2に係る統計量算出部が生成するヒストグラムの一例を示す図である。 図14は、本実施例2に係る音声処理装置の処理手順を示すフローチャートである。 図15は、本実施例3に係るシステムの構成を示す図である。 図16は、本実施例3に係る収録機器の構成を示す機能ブロック図である。 図17は、本実施例3に係る音声処理装置の構成を示す機能ブロック図である。 図18は、本実施例3に係る音声処理装置の処理手順を示すフローチャートである。 図19は、本実施例4に係るシステムの構成を示す図である。 図20は、本実施例4に係る音声処理装置の構成を示す機能ブロック図である。 図21は、本実施例4に係る表示部が表示する評価結果のグラフの一例を示す図である。 図22は、本実施例4に係る音声処理装置の処理手順を示すフローチャートである。 図23は、音声処理装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
以下に、本願の開示する音声処理プログラム、音声処理方法および音声処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
実施例1の説明を行う前に、参考技術について説明する。この参考技術は、従来技術ではない。参考技術では、音声信号から所定の区間毎にピッチ周波数を検出し、各ピッチ周波数に基づくヒストグラムを生成する。参考技術は、生成したヒストグラムの広がりを基にして、声の明るさを評価する。ピッチ周波数は、基本周波数に対応するものである。
図1は、参考技術によるピッチ周波数のヒストグラムの一例を示す図である。図1に示すヒストグラムにおいて、横軸はピッチ周波数に対応する軸であり、縦軸は頻度に対応する軸である。参考技術では、頻度が所定頻度よりも大きくなる範囲を分布の広がりとして検出し、分布の広がりの広い、狭いにより、声の明るさを評価する。
図1に示す例において、参考技術は、範囲Aを、分布の広がりとして検出する。たとえば、参考技術は、範囲Aが、所定範囲よりも広い場合には、声が明るいと評価する。一方、参考技術は、範囲Aが、所定範囲よりも狭い場合には、声が暗いと評価する。
続いて、上述した参考技術の問題点について説明する。図2および図3は、参考技術の問題点を説明するための図である。参考技術では、話者が言い淀んで発話する場合があり、分布の広がりの範囲を適切に特定できず、これにより、発話に関する印象を正確に推定できない。
図2に示すグラフにおいて、横軸は時間に対応する軸であり、縦軸はピッチ周波数に対応する軸である。たとえば、時間帯TおよびTにおいて言い淀みが発生しているものとする。話者が言い淀んで話す場合には、声の高さ(ピッチ周波数)が変わらない状態が継続するため、特定のピッチ周波数に関する頻度が多くなり、本来の分布の広がりを得られない場合がある。
図3に示すヒストグラムにおいて、横軸はピッチ周波数に対応する軸であり、縦軸は頻度に対応する軸である。分布5aは、言い淀みがない場合の音声信号に基づいた分布を示すものであり、分布5aの広がりは範囲Bとなる。分布5bは、言い淀みがある場合の音声信号に基づいた分布を示すものであり、分布5bの広がりは範囲Bとなる。範囲Bと範囲Bとを比較すると、範囲Bの方が広くなるため、話者が同じトーンで話したとしても、言い淀みを含んでいると、声が明るいと評価されやすくなる。これにより、参考技術では、暗い声を、明るい声と誤判定する場合がある。
次に、本実施例1に係る音声処理装置の処理について説明する。図4および図5は、本実施例1に係る音声処理装置の処理を説明するための図である。音声処理装置は、音声信号から音響特徴量を検出し、各音響特徴量のうち、時間変化量が小さくなる時間帯の音響特徴量に対する度数を小さくして、統計量を算出する。本実施例1では、一例として、音響特徴量をピッチ周波数として説明を行う。
図4に示すグラフ10aにおいて、横軸は時間に対応する軸であり、縦軸はピッチ周波数に対応する軸である。グラフ10bにおいて、横軸は時間に対応する軸であり、縦軸はピッチ変化量に対応する軸である。たとえば、ピッチ変化量は、前後のピッチ周波数の変化量を示すものである。図4に示す例では、区間Ta1、Ta2、Ta3、Ta4において、ピッチ変化量が閾値TH1未満となる。音声処理装置は、区間Ta1、Ta2、Ta3、Ta4のうち、区間の長さ(継続時間)が所定の長さ以上となる区間Ta1、Ta4に含まれる各ピッチ周波数を特定する。ここでは、各時刻のピッチ周波数のうち、区間Ta1、Ta4に含まれる各ピッチ周波数を「第1ピッチ周波数」と表記し、区間Ta1、Ta4に含まれない各ピッチ周波数を「第2ピッチ周波数」と表記する。
音声処理装置は、各第1ピッチ周波数および各第2ピッチ周波数を基にしたヒストグラムを生成する。ここで、音声処理装置は、各第1ピッチ周波数に対する度数を第1の重み係数とし、各第2ピッチ周波数に対する度数を第2の重み係数とする。ただし、第1の重み係数と第2の重み係数との関係を「第1の重み係数<第2の重み係数」とする。
図5に示すヒストグラムにおいて、横軸はピッチ周波数に対応する軸であり、縦軸は頻度に対応する軸である。図5において、分布6aは、実施例1に係る音声処理装置により生成される分布であり、分布6bは、参考技術により生成される分布である。図5に示すように、第1の重み係数を用いることにより、言い淀みによる分布の拡大を抑えることができ、たとえば、分布6aの広がりは、範囲Cとなる。従って、本実施例1に係る音声処理装置によれば、発話に関する印象を正確に推定することができる。
続いて、本実施例1に係る音声処理装置を含むシステムの構成の一例にいて説明する。図6は、本実施例1に係るシステムの構成を示す図である。図6に示すように、このシステムは、電話機50と、交換機30a,30bと、音声処理装置100とを有する。電話機50は、スピーカ20aおよびマイク25aに接続される。音声処理装置100は、スピーカ20bおよびマイク25bに接続される。
交換機30aと交換機30bとは、ネットワーク35を介して相互に接続される。交換機30aおよび交換機30bは、電話機50または音声処理装置100から送信される音声信号を中継する装置である。
電話機50は、話者1aの音声信号を、マイク25aを介して取得する。電話機50は、取得した話者1aの音声信号を、音声処理装置100に送信する。音声処理装置100に送信された音声信号は、スピーカ20bから出力される。
音声処理装置100は、上述した発話に関する評価を行う機能の他に、通話機能を有する。音声処理装置100は、話者1bの音声信号を、マイク25bを介して取得する。音声処理装置100は、取得した話者1bの音声信号を、電話機50に送信する。電話機50に送信された音声信号は、スピーカ20aから出力される。
続いて、本実施例1に係る音声処理装置100の構成の一例について説明する。図7は、本実施例1に係る音声処理装置の構成を示す機能ブロック図である。図7に示すように、この音声処理装置は、受信部110、記憶部120、取得部130、音響特徴量検出部140、時間変化算出部150、統計量算出部160、印象評価部170と、表示部180とを有する。なお、音声処理装置100は、図6で説明したような通話機能を有するが、この通話機能は、公知の通話機能と同様であるため、説明を省略する。
受信部110は、電話機50から、話者1aの音声信号を受信する処理部である。受信部110は、受信した音声信号を、記憶部120の音声バッファ120aに記録する。
記憶部120は、音声バッファ120aを有する。記憶部120は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
音声バッファ120aは、話者1aの音声信号を保持するバッファである。たとえば、音声信号は、所定区間毎の複数の音声フレームが時系列に並んだ情報であるものとする。音声フレームは、所定区間における時間と音声信号の大きさとを対応づけた情報である。
取得部130は、音声バッファ120aから音声信号を取得する処理部である。取得部130は、取得した音声信号を、音響特徴量検出部140に出力する。
音響特徴量検出部140は、音声信号に含まれる各音声フレームに対して、周波数解析を行うことで、ピッチ周波数を検出する処理部である。ピッチ周波数は、音響特徴量の一例である。音響特徴量検出部140は、ピッチ周波数の情報を、時間変化算出部150および統計量算出部160に出力する。たとえば、n番目の音声フレームから検出したピッチ周波数をp(n)と表記する。
たとえば、音響特徴量検出部140は、文献(D.Talkin,"A Robust Algorithm for Pitch Tracking (RAPT),"in Speech Coding & Synthesis, W.B.Kleijn and K.K.Pailwal (Eds.), Elsevier,pp.495-518,1995)に基づいて、ピッチ周波数を検出しても良い。
時間変化算出部150は、ピッチ周波数の時間変化を算出する処理部である。時間変化算出部150は、時間変化の算出結果を基にして、ピッチ周波数の変化量が閾値TH1未満となる区間を特定する。時間変化算出部150は、特定した区間の情報を、統計量算出部160に出力する。以下において、時間変化算出部150の処理の一例について説明する。
時間変化算出部150は、n-1番目の音声フレームのピッチ周波数p(n-1)と、n番目の音声フレームのピッチ周波数p(n)との差Δp(n)を式(1)に基づいて算出する。
Figure 0007000757000001
時間変化算出部150は、ピッチ周波数の差Δp(n)が条件1を満たす場合に、該当する音声フレームを、区間(ピッチ周波数の変化量が閾値TH1未満となる区間)の「開始フレームTs」として特定する。条件1に含まれる閾値TH1は、たとえば、20Hzである。
Figure 0007000757000002
時間変化算出部150は、区間の開始フレームTsを特定した後に、開始フレームTs以降に関して、音声フレームのピッチ周波数の差Δp(n)が条件2を満たすか否かを判定する。時間変化算出部150は、ピッチ周波数の差Δp(n)が条件2を満たす場合に、該当する音声フレームを、「終了フレームTe」として特定する。たとえば、時間変化算出部150は、条件2を満たす音声フレームがn番目の音声フレームである場合に、終了フレームTeを、n-1番目の音声フレームとする。
Figure 0007000757000003
時間変化算出部150は、終了フレームTeを特定した後に、再度、開始フレームTsおよび終了フレームTeを特定する処理を繰り返し実行し、ピッチ周波数の変化量が閾値TH1未満となる各区間を特定する。
統計量算出部160は、ピッチ周波数の変化量が閾値TH1未満となる区間の情報と、音響特徴量(ピッチ周波数)とを基にして、音響特徴量の統計量を算出する処理部である。以下において、統計量算出部160の処理の一例について説明する。
統計量算出部160は、区間の長さを基にして、各区間に対応するピッチ周波数の重み係数を特定する。たとえば、統計量算出部160は、図8に示す関係を用いて、重み係数を特定する。この重み係数は、ヒストグラムを生成する場合において、該当する区間のピッチ周波数に対する度数に対応する値となる。
図8は、区間の継続時間と重み係数との関係を示す図(1)である。図8の横軸は区間の継続時間に対応する軸であり、縦軸は重み係数w(n)に対応する軸である。たとえば、区間の継続時間が、長くなるほど、重み係数w(n)の値が小さくなる。たとえば、ある区間Zの継続時間tである場合には、重み係数w(n)の値は「0.5」となる。すなわち、統計量算出部160は、区間Zで検出された各ピッチ周波数の度数が「0.5」となる。
また、区間の継続時間が閾値TH2以上となる場合には、重み係数w(n)は「0」となる。たとえば、ある区間Zの継続時間が閾値TH2以上ある場合には、重み係数w(n)の値は「0」となる。たとえば、閾値TH2を「0.4秒」とする。すなわち、統計量算出部160は、区間Zで検出された各ピッチ周波数の度数が「0」とし、係る区間Zで検出された各ピッチ周波数を除外する。
統計量算出部160は、各区間の継続時間と、図8に示した関係とを比較して、各区間に対応するピッチ周波数の重み係数w(n)を特定する。
統計量算出部160は、所定時間内の複数の音声フレームから抽出された各ピッチ周波数を基にして、ヒストグラムを算出する。統計量算出部160が生成するヒストグラムは、図5で説明したヒストグラムであり、横軸をピッチ周波数、縦軸を頻度とするものである。統計量算出部160は、同一のピッチ周波数に対応づけられた各度数を積算することで、係るピッチ周波数の頻度を算出する。
たとえば、ピッチ周波数f[Hz]に関して、同一のピッチ周波数が10つ検出されているものとする(異なる10つの音声フレームから、ピッチ周波数f[Hz]が検出されたものとする)。このうち、度数「1」のピッチ周波数が3つ、度数「0.5」のピッチ周波数が3つ、度数「0」のピッチ周波数が4つ存在している場合には、図5のヒストグラムについて、横軸上のピッチ周波数f[Hz]に対応する頻度は「1×3+0.5×3+0×4=4.5」となる。なお、統計量算出部160は、ヒストグラムを生成する場合に、公知の技術に基づき、正規化を行ってもよい。
統計量算出部160は、ヒストグラムを生成した後に、ヒストグラムの広がりを算出する。たとえば、統計量算出部160は、ヒストグラムを参照し、頻度が所定の頻度以上となる部分を、ヒストグラムの広がりとして算出する。統計量算出部160は、ヒストグラムの広がりを、統計量の情報として、印象評価部170に出力する。
印象評価部170は、統計量の情報を基にして、音声信号(発話)の印象を評価する処理部である。印象評価部170は、評価結果を、表示部180に表示させる。
たとえば、印象評価部170は、平常時のヒストグラムの広がりを予め保持しておく。印象評価部170は、平常時のヒストグラムの広がりよりも、統計量の情報に含まれる広がりの方が広い場合に「印象がよい」と評価する。印象評価部170は、平常時のヒストグラムの広がりと、統計量の情報に含まれる広がりとが等しい場合に「普通」と評価する。印象評価部170は、平常時のヒストグラムの広がりよりも、統計量の情報に含まれる広がりの方が狭い場合に「印象悪い」と評価する。
表示部180は、印象評価部170の評価結果を表示する表示装置である。たとえば、表示部180は、液晶ディスプレイ、タッチパネル等に対応する。
次に、本実施例1に係る音声処理装置の処理手順の一例について説明する。図9Aは、本実施例1に係る音声処理装置の処理手順を示すフローチャートである。図9Aに示すように、この音声処理装置100の受信部110は、音声信号を音声バッファ120aに記録する(ステップS101)。
音声処理装置100の取得部130は、音声バッファ120aに記録された音声信号を取得する(ステップS102)。音声処理装置100の音響特徴量検出部140は、音声信号からピッチ周波数を検出する(ステップS103)。
音声処理装置100の時間変化算出部150は、各ピッチ周波数に基づいて、変化量が閾値TH1未満となる区間を特定する(ステップS104)。音声処理装置100の統計量算出部160は、区間の継続時間を基にして、重み係数を算出する(ステップS105)。
統計量算出部160は、ピッチ周波数に対応する重み係数に基づいて、ヒストグラムを算出する(ステップS106)。音声処理装置100の印象評価部170は、ヒストグラムの広がりに基づいて、発話の印象を評価する(ステップS107)。
印象評価部170は、印象の評価結果を表示部180に表示させる(ステップS108)。音声処理装置100は、音声信号が終了した場合には(ステップS109,Yes)、処理を終了する。一方、音声処理装置100は、音声信号が終了していない場合には(ステップS109,No)、分析開始位置を更新し(ステップS110)、ステップS102に移行する。
次に、本実施例1に係る音声処理装置100の効果について説明する。音声処理装置100は、ピッチ変化量が閾値TH1未満となる区間を特定し、この区間に検出されたピッチ周波数に対応する度数を、他の区間で検出されたピッチ周波数の度数よりも小さくして、ヒストグラム(頻度分布)を算出する。これにより、言い淀みによるヒストグラムの広がりを抑えることができ、発話に関する印象を正確に推定することができる。
なお、本実施例1に係る音声処理装置100は、統計量として、音響特徴量のヒストグラム(頻度分布)の広がりを用いて説明したが、これに限定されるものではない。たとえば、音声処理装置100は、ヒストグラムの広がり、平均値、最小値、最大値のうち、いずれか一つ以上を、統計値として用いてもよい。また、本実施例1に係る音声処理装置100は、時間変化算出部150および統計量算出部160の音響特徴量としてピッチ周波数を用いて説明したが、音響特徴量検出部140においてピッチ周波数以外の複数の音響特徴量を検出し、時間変化算出部150と統計量算出部160とで、別の音響特徴量を用いても良い。
言い淀みのある発話およびそれ以外の発話について、ピッチ周波数の変化量の小さい継続時間の分布の調査結果について説明する。図9Bは、ピッチ周波数の変化量の小さい継続時間の分布の一例を示す図である。図9Bの横軸はピッチ周波数の変化量の継続時間に対応する軸であり、縦軸は頻度に対応する軸である。線分15aは、言い淀みの有る発話に対応する線分である。線分15bは、それ以外の発話に対応する線分である。言い淀みが有る場合には、大部分が(82%)が概ね0.3秒以上に分布しており、言い淀みがない場合には、大部分が(95%)が概ね0.3秒未満に分布している。すなわち、ピッチ周波数の変化量が小さい継続時間に基づく、言い淀み区間の特定が有効であることが分かる。
図10は、本実施例2に係るシステムの構成を示す図である。図10に示すように、このシステムは、電話機50と、交換機30a,30bと、オペレータ端末60と、音声処理装置200とを有する。電話機50は、スピーカ20aおよびマイク25aに接続される。オペレータ端末60は、スピーカ20bおよびマイク25bに接続される。
交換機30aと交換機30bとは、ネットワーク35を介して相互に接続される。交換機30aおよび交換機30bは、電話機50または音声処理装置200から送信される音声信号を中継する装置である。たとえば、交換機30bは、電話機50から送信される音声信号を、音声処理装置200に送信する。
電話機50は、話者1aの音声信号を、マイク25aを介して取得する。電話機50は、取得した話者1aの音声信号を、音声処理装置200に送信する。音声処理装置200に送信された音声信号は、スピーカ20bから出力される。
オペレータ端末60は、話者1bの音声信号を、マイク25bを介して取得する。オペレータ端末60は、取得した話者1bの音声信号を、電話機50に送信する。電話機50に送信された音声信号は、スピーカ20aから出力される。
音声処理装置200は、交換機30bから音声信号を受信し、発話の印象を評価する装置である。図11は、本実施例2に係る音声処理装置の構成を示す機能ブロック図である。図11に示すように、この音声処理装置200は、受信部210、記憶部220、取得部230、音響特徴量検出部240、時間変化算出部250、統計量算出部260、印象評価部270と、送信部280とを有する。
受信部210は、電話機50から、話者1aの音声信号を受信する処理部である。受信部210は、受信した音声信号を、記憶部220の音声バッファ220aに記録する。
記憶部220は、音声バッファ220aを有する。記憶部220は、RAM、ROM、フラッシュメモリなどの半導体メモリ素子や、HDDなどの記憶装置に対応する。
音声バッファ220aは、話者1aの音声信号を保持するバッファである。たとえば、音声信号は、所定区間毎の複数の音声フレームが時系列に並んだ情報であるものとする。音声フレームは、所定区間における時間と音声信号の大きさとを対応づけた情報である。
取得部230は、音声バッファ220aから音声信号を取得する処理部である。取得部230は、取得した音声信号を、音響特徴量検出部240に出力する。
音響特徴量検出部240は、音声信号に含まれる各音声フレームから、パワーを検出する処理部である。パワーは、音響特徴量の一例である。音響特徴量検出部240は、パワーの情報を、時間変化算出部250および統計量算出部260に出力する。
たとえば、音響特徴量検出部240は、式(2)に基づいて、音声フレームからパワーS(n)を検出する。式(2)において、C(t)は、時刻tにおける音声信号の値を示す。nは、音声フレームのフレーム番号を示す。Mは、1つの音声フレームの時間長を示す。たとえば、1つの音声フレームの時間長を20msとする。
Figure 0007000757000004
時間変化算出部250は、音声フレームのパワーの分散を算出し、分散が閾値TH3未満となる区間を特定する処理部である。時間変化算出部250は、特定した区間の情報を、統計量算出部260に出力する。以下において、時間変化算出部250の処理の一例について説明する。
たとえば、時間変化算出部250は、所定期間に含まれる各音声フレームのパワーS(n)、S(n+1)、・・・S(n+m)を基にして、分散S_var(n)を算出する。
時間変化算出部250は、n-1番目の分散S_var(n-1)とn番目の分散S_var(n)とが条件3を満たす場合に、該当する音声フレーム(n番目の音声フレーム)を、区間(分散が閾値TH3未満となる区間)の「開始フレームTs」として特定する。
Figure 0007000757000005
時間変化算出部250は、区間の開始フレームTsを特定した後に、開始フレームTs以降に関して、n-1番目の分散)とn番目の分散S_var(n)とが条件4を満たす場合に、該当する音声フレーム(n-1番目の音声フレーム)を、「終了フレームTe」として特定する。
Figure 0007000757000006
時間変化算出部250は、終了フレームTeを特定した後に、再度、開始フレームTsおよび終了フレームTeを特定する処理を繰り返し実行し、分散が閾値TH3未満となる各区間を特定する。
統計量算出部260は、分散が閾値TH3未満となる区間の情報と、音響特徴量(パワー)とを基にして、音響特徴量の統計量を算出する処理部である。以下において、統計量算出部260の処理の一例について説明する。
統計量算出部260は、区間の長さを基にして、各区間に含まれる音声フレームのパワーの重み係数を特定する。たとえば、統計量算出部260は、図12に示す関係を用いて、重み係数を特定する。この重み係数は、ヒストグラムを生成する場合において、該当する区間のパワーに対する度数に対応する値となる。
図12は、区間の継続時間と重み係数との関係を示す図(2)である。図12の横軸は区間の継続時間に対応する軸であり、縦軸は重み係数w(n)に対応する軸である。たとえば、区間の継続時間が、閾値TH2未満の場合は、重み係数w(n)の値は「1」となる。区間の継続時間が、閾値TH2以上の場合は、重み係数w(n)の値は「0」となる。
統計量算出部260は、各区間の継続時間と、図12に示した関係とを比較して、各区間に対応するパワーの重み係数w(n)を特定する。なお、統計量算出部260は、図8に示した、区間の継続時間と、重み係数w(n)との関係を基にして、各区間に対応するパワーの重み係数w(n)を特定してもよい。
統計量算出部260は、所定時間内の複数の音声フレームから抽出された各パワーを基にして、ヒストグラムを算出する。図13は、本実施例2に係る統計量算出部が生成するヒストグラムの一例を示す図である。図13において、横軸をパワーに対応する軸であり、縦軸は頻度に対応する軸である。統計量算出部260は、同一のパワーに対応づけられた各度数を積算することで、係るピッチ周波数の頻度を算出する。
たとえば、あるパワーP[W]に関して、同一のパワーが10つ検出されており、このうち、度数「1」のパワーが3つ、度数「0.5」のパワーが3つ、度数「0」のパワーが4つ存在している場合には、図13のヒストグラムについて、横軸上のパワーP[W]に対応する頻度は「1×3+0.5×3+0×4=4.5」となる。なお、統計量算出部260は、ヒストグラムを生成する場合に、公知の技術に基づき、正規化を行ってもよい。
統計量算出部260は、ヒストグラムを生成した後に、ヒストグラムの広がりを算出する。たとえば、統計量算出部260は、ヒストグラムを参照し、頻度が所定の頻度以上となる部分を、ヒストグラムの広がりとして算出する。統計量算出部260は、ヒストグラムの広がりを、統計量の情報として、印象評価部270に出力する。
印象評価部270は、統計量の情報を基にして、音声信号(発話)の印象を評価する処理部である。印象評価部270は、評価結果を、送信部280に出力する。印象評価部270が、印象を評価する処理は、実施例1で説明した印象評価部170の処理と同様である。
送信部280は、印象評価部270から受け付けた評価結果の情報を、オペレータ端末60に送信する処理部である。
次に、本実施例2に係る音声処理装置の処理手順の一例について説明する。図14は、本実施例2に係る音声処理装置の処理手順を示すフローチャートである。図14に示すように、この音声処理装置200の受信部210は、音声信号を音声バッファ220aに記録する(ステップS201)。
音声処理装置200の取得部230は、音声バッファ220aに記録された音声信号を取得する(ステップS202)。音声処理装置200の音響特徴量検出部240は、音声信号からパワーを検出する(ステップS203)。
音声処理装置200の時間変化算出部250は、各パワーの分散に基づいて、分散が閾値TH3未満となる区間を特定する(ステップS204)。音声処理装置200の統計量算出部260は、区間の継続時間を基にして、重み係数を算出する(ステップS205)。
統計量算出部260は、パワーに対応する重み係数に基づいて、ヒストグラムを算出する(ステップS206)。音声処理装置200の印象評価部270は、ヒストグラムの広がりに基づいて、発話の印象を評価する(ステップS207)。
印象評価部270は、印象の評価結果をオペレータ端末60に送信する(ステップS208)。音声処理装置200は、音声信号が終了した場合には(ステップS209,Yes)、処理を終了する。一方、音声処理装置200は、音声信号が終了していない場合には(ステップS209,No)、分析開始位置を更新し(ステップS210)、ステップS202に移行する。
次に、本実施例2に係る音声処理装置200の効果について説明する。音声処理装置200は、分散が閾値TH3未満となる区間を特定し、この区間に検出された音声フレームのパワーに対応する度数を、他の区間で検出された音声フレームのパワーの度数よりも小さくして、ヒストグラム(頻度分布)を算出する。これにより、言い淀みによるヒストグラムの広がりを抑えることができ、発話に関する印象を正確に推定することができる。
図15は、本実施例3に係るシステムの構成を示す図である。図15に示すように、このシステムは、マイク40a、40b、40c、収録機器300、表示装置350、音声処理装置400を有する。収録機器300は、ネットワーク35を介して、音声処理装置400に接続される。図示を省略するが、音声処理装置400は、クラウド上の単数または複数のサーバによって構成されていてもよい。
話者1Aによる音声は、マイク40aにより集音され、集音された音声信号は、収録機器300に出力される。話者1Bによる音声は、マイク40bにより集音され、集音された音声信号は、収録機器300に出力される。話者1Cによる音声は、マイク40cにより集音され、集音された音声信号は、収録機器300に出力される。
以下の説明では、特に区別する場合に、話者1Aの音声信号を「第1音声信号」と表記する。話者1Bの音声信号を「第2音声信号」と表記する。話者1Cの音声信号を「第3音声信号」と表記する。
たとえば、第1音声信号には、話者1Aの話者情報が付与される。話者情報は、話者を一意に識別する情報である。第2音声信号には、話者1Bの話者情報が付与される。第3音声信号には、話者1Cの話者情報が付与される。
収録機器300は、第1音声信号、第2音声信号、第3音声信号を収録する装置である。また、収録機器300は、第1音声信号、第2音声信号、第3音声信号を、音声処理装置400に送信する。
図16は、本実施例3に係る収録機器の構成を示す機能ブロック図である。図16に示すように、この収録機器300は、受付部310と、記憶部320と、送信部330とを有する。
受付部310は、マイク40a、40b、40cから、第1~第3音声信号を受信する処理部である。受付部310は、第1音声信号を、第1音声バッファ320aに記録する。受付部310は、第2音声信号を、第2音声バッファ320bに記録する。受付部310は、第3音声信号を、第3音声バッファ320cに記録する。
記憶部320は、第1音声バッファ320a、第2音声バッファ320b、第3音声バッファ320cを有する。記憶部320は、RAM、ROM、フラッシュメモリなどの半導体メモリ素子や、HDDなどの記憶装置に対応する。
第1音声バッファ320aは、第1音声信号を保持する。第2音声バッファ320bは、第2音声信号を保持する。第3音声バッファ320cは、第3音声信号を保持する。
送信部330は、第1音声バッファ320aの第1音声信号と、第2音声バッファ320bの第2音声信号と、第3音声バッファ320cの第3音声信号を、音声処理装置400に送信する処理部である。送信部330は、第1~第3音声信号を、まとめて、音声処理装置400に送信してもよいし、別々に送信してもよい。
表示装置350は、ネットワーク35を介して、音声処理装置400に接続される。表示装置350は、液晶ディスプレイ等に対応する。表示装置350は、音声処理装置400から、各話者1A~1Cの発話の印象の評価結果を受信し、表示する。
音声処理装置400は、収録機器300から受信する第1~第3音声信号を基にして、各話者1A~1Cの発話の印象を評価する装置である。図17は、本実施例3に係る音声処理装置の構成を示す機能ブロック図である。図17に示すように、この音声処理装置400は、受信部410、分離部415、記憶部420、取得部430、音響特徴量検出部440、時間変化算出部450、統計量算出部460、印象評価部470、送信部480を有する。
受信部410は、収録機器300から第1音声信号、第2音声信号、第3音声信号の情報を受信する処理部である。受信部410は、第1音声信号、第2音声信号、第3音声信号の情報を、分離部415に出力する。
分離部415は、第1音声信号、第2音声信号、第3音声信号をそれぞれ分離し、分離した第1~第3音声信号を、記憶部420に記録する処理部である。分離部415は、第1音声信号を、第1音声バッファ420aに記録する。分離部415は、第2音声信号を、第2音声バッファ420bに記録する。分離部415は、第3音声信号を、第3音声バッファ420cに記録する。
記憶部420は、第1音声バッファ420a、第2音声バッファ420b、第3音声バッファ420cを有する。記憶部420は、RAM、ROM、フラッシュメモリなどの半導体メモリ素子や、HDDなどの記憶装置に対応する。
第1音声バッファ420aは、第1音声信号を保持する。第2音声バッファ420bは、第2音声信号を保持する。第3音声バッファ420cは、第3音声信号を保持する。
取得部430は、第1音声バッファ420aから、第1音声信号を取得し、取得した第1音声信号を、音響特徴量検出部440に出力する。取得部430は、第2音声バッファ420bから、第2音声信号を取得し、取得した第2音声信号を、音響特徴量検出部440に出力する。取得部430は、第3音声バッファ420cから、第3音声信号を取得し、取得した第3音声信号を、音響特徴量検出部440に出力する。
たとえば、取得部430は、第1音声バッファ420aに格納された第1音声信号の取得が完了した後に、第2音声信号の取得を開始する。取得部430は、第2音声バッファ420bに格納された第2音声信号の取得が完了した後に、第3音声信号の取得を開始する。以下の説明では、第1音声信号、第2音声信号、第3音声信号をまとめて、単に「音声信号」と表記する。
音響特徴量検出部440は、音声信号に含まれる各音声フレームから、フォルマント周波数を検出する処理部である。フォルマント周波数は、音響特徴量の一例である。音響特徴量検出部440は、フォルマント周波数の情報を、時間変化算出部450および統計量算出部460に出力する。
音響特徴量検出部440は、たとえば、音声フレームに含まれる音声信号C(t)に対して、線形予測(Liner Prediction Coding)分析を行うことで、複数のピークを抽出する。音響特徴量検出部440は、複数のピークのうち、周波数の低い順に、第1フォルマント:F1、第2フォルマント:F2、第3フォルマント:F3とする。音響特徴量検出部440は、第1~第3フォルマントの情報(たとえば、周波数)を、フォルマント周波数の情報として検出する。音響特徴量検出部440は、特許文献(特開昭62-54297号公報)に記載の技術を用いて、フォルマント周波数を検出してもよい。
時間変化算出部450は、フォルマント周波数の時間変化を算出する処理部である。時間変化算出部450は、時間変化の算出結果を基にして、フォルマント周波数の変化量が閾値TH4未満となる区間を特定する。たとえば、ある音声フレームのフォルマント周波数を、F1、F2、F3の平均周波数としてもよいし、F1、F2、F3のいずれかの周波数を、フォルマント周波数としてもよい。時間変化算出部450は、特定した区間の情報を、統計量算出部460に出力する。
時間変化算出部450が、フォルマント周波数の変化量が閾値TH4未満となる区間を特定する処理は、時間変化算出部150が行った処理において、ピッチ周波数を、フォルマント周波数に置き換え、閾値TH1を閾値TH4に置き換えた処理に対応する。
統計量算出部460は、フォルマント周波数の変化量が閾値TH4未満となる区間の情報と、音響特徴量(フォルマント周波数)とを基にして、音響特徴量の統計量を算出する処理部である。統計量算出部460が、統計量を算出する処理は、統計量算出部160が、統計量を算出する処理に対応する。統計量算出部460は、統計量の情報を、印象評価部470に出力する。
印象評価部470は、統計量の情報を基にして、音声信号(発話)の印象を評価する処理部である。印象評価部470は、評価結果を、送信部480に出力する。印象評価部470が、印象を評価する処理は、実施例1で説明した印象評価部170の処理と同様である。
ただし、印象評価部470は、第1音声信号に基づく統計量に基づき、話者1Aの発話の印象を評価する。印象評価部470は、第2音声信号に基づく統計量に基づき、話者1Bの発話の印象を評価する。印象評価部470は、第3音声信号に基づく統計量に基づき、話者1Cの発話の印象を評価する。
送信部480は、印象評価部470から受け付けた評価結果の情報を、表示装置350に送信する処理部である。
次に、本実施例3に係る音声処理装置の処理手順の一例について説明する。図18は、本実施例3に係る音声処理装置の処理手順を示すフローチャートである。図18に示すように、この音声処理装置400の分離部415は、第1~第3音声信号を分離し、各音声バッファ420a~420cに記録する(ステップS301)。
取得部430は、各音声バッファ420a~420cに記録された音声信号を取得する(ステップS302)。音声処理装置400の音響特徴量検出部440は、音声信号からフォルマント周波数を検出する(ステップS303)。
音声処理装置400の時間変化算出部450は、各フォルマント周波数に基づいて、変化量が閾値TH4未満となる区間を特定する(ステップS304)。音声処理装置400の統計量算出部460は、区間の継続時間を基にして、重み係数を算出する(ステップS305)。
統計量算出部460は、フォルマント周波数に対応する重み係数に基づいて、ヒストグラムを算出する(ステップS306)。音声処理装置400の印象評価部470は、ヒストグラムの広がりに基づいて、発話の印象を評価する(ステップS307)。
印象評価部470は、印象の評価結果を表示装置350に表示させる(ステップS308)。音声処理装置400は、音声信号が終了した場合には(ステップS309,Yes)、処理を終了する。一方、音声処理装置400は、音声信号が終了していない場合には(ステップS309,No)、分析開始位置を更新し(ステップS310)、ステップS302に移行する。
次に、本実施例3に係る音声処理装置400の効果について説明する。音声処理装置400は、フォルマント変化量が閾値TH4未満となる区間を特定し、この区間に検出されたフォルマント周波数に対応する度数を、他の区間で検出されたフォルマント周波数の度数よりも小さくして、ヒストグラム(頻度分布)を算出する。これにより、言い淀みによるヒストグラムの広がりを抑えることができ、発話に関する印象を正確に推定することができる。
図19は、本実施例4に係るシステムの構成を示す図である。図19に示すように、このシステムは、携帯端末65と、基地局60a,60bと、音声処理装置500とを有する。携帯端末65は、スピーカ20aおよびマイク25aに接続される。音声処理装置500は、スピーカ20bおよびマイク25bに接続される。
基地局60aと基地局60bとは、ネットワーク35を介して相互に接続される。基地局60aおよび基地局60bは、携帯端末65または音声処理装置500から送信される音声信号を中継する装置である。たとえば、基地局60bは、携帯端末65から送信される音声信号を、音声処理装置500に送信する。
携帯端末65は、携帯電話、スマートフォン、タブレット端末、ノートPC(Personal Computer)等に対応する。携帯端末65は、話者1aの音声信号を、マイク25aを介して取得する。携帯端末65は、無線により基地局60aに接続し、取得した話者1aの音声信号を、音声処理装置500に送信する。音声処理装置500に送信された音声信号は、スピーカ20bから出力される。
音声処理装置500は、携帯電話、スマートフォン、タブレット端末、ノートPC(Personal Computer)等に対応する。音声処理装置500は、通話機能に加えて、話者1aの発話の評価を行い、評価結果を表示する。
図20は、本実施例4に係る音声処理装置の構成を示す機能ブロック図である。図20に示すように、音声処理装置500は、受信部510、記憶部520、取得部530、音響特徴量検出部540、時間変化算出部550、統計量算出部560、印象評価部570と、表示部580とを有する。なお、音声処理装置500は、図19で説明したような通話機能を有するが、この通話機能は、公知の通話機能と同様であるため、説明を省略する。
受信部510は、携帯端末65から、話者1aの音声信号を受信する処理部である。受信部510は、受信した音声信号を、記憶部520の音声バッファ520aに記録する。
記憶部520は、音声バッファ520aを有する。記憶部520は、RAM、ROM、フラッシュメモリなどの半導体メモリ素子や、HDDなどの記憶装置に対応する。
音声バッファ520aは、話者1aの音声信号を保持するバッファである。たとえば、音声信号は、所定区間毎の複数の音声フレームが時系列に並んだ情報であるものとする。音声フレームは、所定区間における時間と音声信号の大きさとを対応づけた情報である。
取得部530は、音声バッファ520aから音声信号を取得する処理部である。取得部530は、取得した音声信号を、音響特徴量検出部540に出力する。
音響特徴量検出部540は、音声信号に含まれる各音声フレームから、スペクトルパワーを検出する処理部である。スペクトルパワーは、音響特徴量の一例である。音響特徴量検出部540は、スペクトルパワーの情報を、時間変化算出部550および統計量算出部560に出力する。
たとえば、音響特徴量検出部540は、音声フレームに対してFFT(Fast Fourier Transform)を実行することで、各周波数のパワースペクトル密度を検出する。たとえば、音響特徴量検出部540は、周波数とパワースペクトル密度との関係SP(n,f)を、パワースペクトルとして検出してもよいし、パワースペクトル密度の最大値または平均値等を、スペクトルパワーとして検出してもよい。
時間変化算出部550は、スペクトルパワーの時間変化を算出する処理部である。時間変化算出部550は、時間変化の算出結果を基にして、スペクトルパワーの変化量が閾値TH5未満となる区間を特定する。たとえば、スペクトルパワーの変化量は、n-1番目の音声フレームの各周波数のスペクトルパワーと、n番目の音声フレームの各周波数のスペクトルパワーとの差分の合計値とする。時間変化算出部550は、特定した区間の情報を、統計量算出部560に出力する。
統計量算出部560は、スペクトルパワーの変化量が閾値TH5未満となる区間の情報と、音響特徴量(スペクトルパワー)とを基にして、音響特徴量の統計量を算出する処理部である。統計量算出部560が、統計量を算出する処理は、統計量算出部160が、統計量を算出する処理に対応する。統計量算出部560は、統計量の情報を、印象評価部570に出力する。
印象評価部570は、統計量の情報を基にして、音声信号(発話)の印象を評価する処理部である。印象評価部570は、評価結果を、表示部580に表示させる。印象評価部570が、印象を評価する処理は、実施例1で説明した印象評価部170の処理と同様である。
なお、実施例1で説明した印象評価部170の評価結果を「印象がよい」、「普通」、「印象が悪い」のいずれかの評価結果としていたが、印象評価部570は、評価結果を評価値として出力してもよい。たとえば、印象評価部570は、平常時のヒストグラムの広がりよりも、統計量の情報に含まれる広がりの方が広い場合に「評価値=1」と評価する。印象評価部570は、平常時のヒストグラムの広がりと、統計量の情報に含まれる広がりとが等しい場合に「評価値=0」と評価する。印象評価部570は、平常時のヒストグラムの広がりよりも、統計量の情報に含まれる広がりの方が狭い場合に「評価値=-1」と評価する。
印象評価部570は、所定期間毎の評価値を算出する。印象評価部570は、式(3)に基づいて、評価値を平滑化してもよい。式(3)において、score(n)は、平滑化前の評価値であり、score’(n)は、平滑化後の評価値である。coefは、忘却係数であり、たとえば、0.9となる。
Figure 0007000757000007
表示部580は、印象評価部570の評価結果を表示する表示装置である。たとえば、表示部580は、液晶ディスプレイ、タッチパネル等に対応する。図21は、本実施例4に係る表示部が表示する評価結果のグラフの一例を示す図である。図21に示すように、この評価結果のグラフの横軸は時間に対応する軸であり、縦軸は平滑化後の評価値に対応する軸である。評価値の値が「1」に近づくほど、印象がよいことを示す。
次に、本実施例4に係る音声処理装置の処理手順の一例について説明する。図22は、本実施例4に係る音声処理装置の処理手順を示すフローチャートである。図22に示すように、この音声処理装置500の受信部510は、音声信号を音声バッファ520aに記録する(ステップS401)。
音声処理装置500の取得部530は、音声バッファ520aに記録された音声信号を取得する(ステップS402)。音声処理装置500の音響特徴量検出部540は、音声信号からスペクトルパワーを検出する(ステップS403)。
音声処理装置500の時間変化算出部550は、各スペクトルパワーに基づいて、変化量が閾値TH5未満となる区間を特定する(ステップS404)。音声処理装置500の統計量算出部560は、区間の継続時間を基にして、重み係数を算出する(ステップS405)。
統計量算出部560は、スペクトルパワーに対応する重み係数に基づいて、ヒストグラムを算出する(ステップS406)。音声処理装置500の印象評価部570は、ヒストグラムの広がりに基づいて、発話の印象を評価する(ステップS407)。
印象評価部570は、印象の評価結果を表示部580に表示させる(ステップS408)。音声処理装置500は、音声信号が終了した場合には(ステップS409,Yes)、処理を終了する。一方、音声処理装置500は、音声信号が終了していない場合には(ステップS409,No)、分析開始位置を更新し(ステップS410)、ステップS402に移行する。
次に、本実施例4に係る音声処理装置500の効果について説明する。音声処理装置500は、スペクトルパワーの変化量が閾値TH5未満となる区間を特定し、この区間に検出されたスペクトルパワーに対応する度数を、他の区間で検出されたスペクトルパワーの度数よりも小さくして、ヒストグラム(頻度分布)を算出する。これにより、言い淀みによるヒストグラムの広がりを抑えることができ、発話に関する印象を正確に推定することができる。
次に、上記実施例に示した音声処理装置100,200,400,500と同様の機能を実現するコンピュータのハードウェア構成の一例について説明する。図23は、音声処理装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
図23に示すように、コンピュータ600は、各種演算処理を実行するCPU601と、ユーザからのデータの入力を受け付ける入力装置602と、ディスプレイ603とを有する。また、コンピュータ600は、記憶媒体からプログラム等を読み取る読み取り装置604と、有線または無線ネットワークを介して収録機器等との間でデータの授受を行うインターフェース装置605とを有する。また、コンピュータ600は、各種情報を一時記憶するRAM606と、ハードディスク装置607とを有する。そして、各装置601~607は、バス608に接続される。
ハードディスク装置607は、音響特徴量検出プログラム607a、時間変化算出プログラム607b、統計量算出プログラム607c、印象評価プログラム607dを有する。CPU601は、音響特徴量検出プログラム607a、時間変化算出プログラム607b、統計量算出プログラム607c、印象評価プログラム607dを読み出してRAM606に展開する。
音響特徴量検出プログラム607aは、音響特徴量検出プロセス606aとして機能する。時間変化算出プログラム607bは、時間変化算出プロセス606bとして機能する。統計量算出プログラム607cは、統計量算出プロセス606cとして機能する。印象評価プログラム607dは、印象評価プロセス606dとして機能する。
音響特徴量検出プロセス606aの処理は、音響特徴量検出部140,240,440,540の処理に対応する。時間変化算出プロセス606bの処理は、時間変化算出部150,250,450,550の処理に対応する。統計量算出プロセス606cの処理は、統計量算出部160,260,460,560の処理に対応する。印象評価プロセス606dは、印象評価部170,270,470,570の処理に対応する。
なお、各プログラム607a~607dについては、必ずしも最初からハードディスク装置607に記憶させておかなくても良い。例えば、コンピュータ600に挿入されるフレキシブルディスク(FD)、CD-ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ600が各プログラム607a~607dを読み出して実行するようにしても良い。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)入力音声を取得し、
前記入力音声の第1および第2の音響特徴量を検出し、
前記第1の音響特徴量の時間変化量を算出し、
前記時間変化量に基づいて前記第2の音響特徴量に対する係数を算出し、
前記係数に基づいて前記第2の音響特徴量に関する統計量を算出する
ことをコンピュータに実行させることを特徴とする音声処理プログラム。
(付記2)前記統計量を基にして、前記入力音声の印象を評価する処理をコンピュータに更に実行させることを特徴とする付記1に記載の音声処理プログラム。
(付記3)前記時間変化量を算出する処理は、前記第1の音響特徴量の時間変化量が閾値未満となる区間を特定し、前記係数を算出する処理は、前記区間の長さに応じて、前記第2の音響特徴量に対する係数を算出することを特徴とする付記1または2に記載の音声処理プログラム。
(付記4)前記入力音声は時系列に並んだ複数の音声フレームを含み、前記時間変化量を算出する処理は、過去の音声フレームの第1の音響特徴量と、現在の音声フレームの第1の音響特徴量との差分が閾値未満となる区間を特定することを特徴とする付記3に記載の音声処理プログラム。
(付記5)前記時間変化量を算出する処理は、前記第1の音響特徴量の分散が閾値未満となる区間を特定することを特徴とする付記3に記載の音声処理プログラム。
(付記6)前記係数を算出する処理は、前記区間の長さが大きいほど、値の小さくなる係数を算出すること特徴とする付記3、4または5に記載の音声処理プログラム。
(付記7)前記統計量を算出する処理は、複数の前記第2の音響特徴量のうち、前記区間の長さが閾値未満となる第2の音響特徴量を基にして、前記統計量を算出することを特徴とする付記3~6のいずれか一つに記載の音声処理プログラム。
(付記8)前記統計量を算出する処理は、前記第2の音響特徴量の頻度分布の広がり、平均値、最小値、最大値のうち、いずれか一つ以上を、前記統計量として算出することを特徴とする付記1~7のいずれか一つに記載の音声処理プログラム。
(付記9)前記入力音声の第1および第2の音響特徴量を検出する処理は、前記入力音声のピッチ周波数を、前記第1の音響特徴量または第2の音響特徴量として検出することを特徴とする付記1~8のいずれか一つに記載の音声処理プログラム。
(付記10)前記入力音声の第1および第2の音響特徴量を検出する処理は、前記入力音声のパワーを、前記第1の音響特徴量または第2の音響特徴量として検出することを特徴とする付記1~8のいずれか一つに記載の音声処理プログラム。
(付記11)前記入力音声の第1および第2の音響特徴量を検出する処理は、前記入力音声のフォルマント周波数を、前記第1の音響特徴量または第2の音響特徴量として検出することを特徴とする付記1~8のいずれか一つに記載の音声処理プログラム。
(付記12)前記入力音声の第1および第2の音響特徴量を検出する処理は、前記入力音声のスペクトルパワーを、前記第1の音響特徴量または第2の音響特徴量として検出することを特徴とする付記1~8のいずれか一つに記載の音声処理プログラム。
(付記13)コンピュータが実行する音声処理方法であって、
入力音声を取得し、
前記入力音声の第1および第2の音響特徴量を検出し、
前記第1の音響特徴量の時間変化量を算出し、
前記時間変化量に基づいて前記第2の音響特徴量に対する係数を算出し、
前記係数に基づいて前記第2の音響特徴量に関する統計量を算出する
処理を実行することを特徴とする音声処理方法。
(付記14)前記統計量を基にして、前記入力音声の印象を評価する処理をコンピュータに更に実行させることを特徴とする付記13に記載の音声処理方法。
(付記15)前記時間変化量を算出する処理は、前記第1の音響特徴量の時間変化量が閾値未満となる区間を特定し、前記係数を算出する処理は、前記区間の長さに応じて、前記第2の音響特徴量に対する係数を算出することを特徴とする付記13または14に記載の音声処理方法。
(付記16)前記入力音声は時系列に並んだ複数の音声フレームを含み、前記時間変化量を算出する処理は、過去の音声フレームの第1の音響特徴量と、現在の音声フレームの第1の音響特徴量との差分が閾値未満となる区間を特定することを特徴とする付記15に記載の音声処理方法。
(付記17)前記時間変化量を算出する処理は、前記第1の音響特徴量の分散が閾値未満となる区間を特定することを特徴とする付記15に記載の音声処理方法。
(付記18)前記係数を算出する処理は、前記区間の長さが大きいほど、値の小さくなる係数を算出すること特徴とする付記15、16または17に記載の音声処理方法。
(付記19)前記統計量を算出する処理は、複数の前記第2の音響特徴量のうち、前記区間の長さが閾値未満となる第2の音響特徴量を基にして、前記統計量を算出することを特徴とする付記15~18のいずれか一つに記載の音声処理方法。
(付記20)前記統計量を算出する処理は、前記第2の音響特徴量の頻度分布の広がり、平均値、最小値、最大値のうち、いずれか一つ以上を、前記統計量として算出することを特徴とする付記13~19のいずれか一つに記載の音声処理方法。
(付記21)前記入力音声の第1および第2の音響特徴量を検出する処理は、前記入力音声のピッチ周波数を、前記第1の音響特徴量または第2の音響特徴量として検出することを特徴とする付記13~20のいずれか一つに記載の音声処理方法。
(付記22)前記入力音声の第1および第2の音響特徴量を検出する処理は、前記入力音声のパワーを、前記第1の音響特徴量または第2の音響特徴量として検出することを特徴とする付記13~20のいずれか一つに記載の音声処理方法。
(付記23)前記入力音声の第1および第2の音響特徴量を検出する処理は、前記入力音声のフォルマント周波数を、前記第1の音響特徴量または第2の音響特徴量として検出することを特徴とする付記13~20のいずれか一つに記載の音声処理方法。
(付記24)前記入力音声の音響特徴量を検出する処理は、前記入力音声のスペクトルパワーを、前記第1の音響特徴量または第2の音響特徴量として検出することを特徴とする付記13~20のいずれか一つに記載の音声処理方法。
(付記25)入力音声を取得し、前記入力音声の第1および第2の音響特徴量を検出する音響特徴検出部と、
前記第1の音響特徴量の時間変化量を算出する時間変化算出部と、
前記時間変化量に基づいて前記第2の音響特徴量に対する係数を算出し、前記係数に基づいて前記第2の音響特徴量に関する統計量を算出する統計量算出部と
を有することを特徴とする音声処理装置。
(付記26)前記統計量を基にして、前記入力音声の印象を評価する印象評価部を更に有することを特徴とする付記25に記載の音声処理装置。
(付記27)前記時間変化算出部は、前記第1の音響特徴量の時間変化量が閾値未満となる区間を特定し、前記係数を算出する処理は、前記区間の長さに応じて、前記第2の音響特徴量に対する係数を算出することを特徴とする付記25または26に記載の音声処理装置。
(付記28)前記入力音声は時系列に並んだ複数の音声フレームを含み、前記時間変化算出部(150)は、過去の音声フレームの第1の音響特徴量と、現在の音声フレームの第1の音響特徴量との差分が閾値未満となる区間を特定することを特徴とする付記27に記載の音声処理装置。
(付記29)前記時間変化算出部は、前記第1の音響特徴量の分散が閾値未満となる区間を特定することを特徴とする付記27に記載の音声処理装置。
(付記30)前記統計量算出部は、前記区間の長さが大きいほど、値の小さくなる係数を算出すること特徴とする付記27、28または29に記載の音声処理装置。
(付記31)前記統計量算出部は、複数の前記第2の音響特徴量のうち、前記区間の長さが閾値未満となる第2の音響特徴量を基にして、前記統計量を算出することを特徴とする付記27~30のいずれか一つに記載の音声処理装置。
(付記32)前記統計量算出部は、前記第2の音響特徴量の頻度分布の広がり、平均値、最小値、最大値のうち、いずれか一つ以上を、前記統計量として算出することを特徴とする付記25~31のいずれか一つに記載の音声処理装置。
(付記33)前記音響特徴検出部は、前記入力音声のピッチ周波数を、前記第1の音響特徴量または第2の音響特徴量として検出することを特徴とする付記25~31のいずれか一つに記載の音声処理装置。
(付記34)前記音響特徴検出部は、前記入力音声のパワーを、前記第1の音響特徴量または第2の音響特徴量として検出することを特徴とする付記25~31のいずれか一つに記載の音声処理装置。
(付記35)前記音響特徴検出部は、前記入力音声のフォルマント周波数を、前記第1の音響特徴量または第2の音響特徴量として検出することを特徴とする付記25~31のいずれか一つに記載の音声処理装置。
(付記36)前記音響特徴検出部は、前記入力音声のスペクトルパワーを、前記第1の音響特徴量または第2の音響特徴量として検出することを特徴とする付記25~31のいずれか一つに記載の音声処理装置。
100,200,400,500 音声処理装置
140,240、440,540 音響特徴量検出部
150,250、450,550 時間変化算出部
160,260、460,560 統計量算出部
170,270、470,570 印象評価部

Claims (6)

  1. 入力音声を取得し、
    前記入力音声から、ピッチ周波数、パワー、フォルマント周波数、スペクトルパワーのうち、いずれか一つの種別の音響特徴量を検出し、
    記音響特徴量の時間変化量が、所定の閾値よりも小さい区間を特定し、
    特定した区間の継続時間が短いほど大きい係数を、前記音響特徴量に対する係数として算出し、
    前記係数を、各音響特徴量の度数に対する係数として求めた、前記音響特徴量のヒストグラムの広がりを、前記音響特徴量に関する統計量として算出する
    ことをコンピュータに実行させることを特徴とする音声処理プログラム。
  2. 前記統計量を基にして、前記入力音声の印象を評価する処理をコンピュータに更に実行させることを特徴とする請求項1に記載の音声処理プログラム。
  3. 前記入力音声は時系列に並んだ複数の音声フレームを含み、前記時間変化量を算出する処理は、過去の音声フレームの音響特徴量と、現在の音声フレームの音響特徴量との差分が閾値未満となる区間を特定することを特徴とする請求項に記載の音声処理プログラム。
  4. 前記統計量を算出する処理は、前記音響特徴量の頻度分布の広がり、平均値、最小値、最大値のうち、いずれか一つ以上を、前記統計量として算出することを特徴とする請求項1、2または3に記載の音声処理プログラム。
  5. コンピュータが実行する音声処理方法であって、
    入力音声を取得し、
    前記入力音声から、ピッチ周波数、パワー、フォルマント周波数、スペクトルパワーのうち、いずれか一つの種別の音響特徴量を検出し、
    記音響特徴量の時間変化量が、所定の閾値よりも小さい区間を特定し、
    特定した区間の継続時間が短いほど大きい係数を、前記音響特徴量に対する係数として算出し、
    前記係数を、各音響特徴量の度数に対する係数として求めた、前記音響特徴量のヒストグラムの広がりを、前記音響特徴量に関する統計量として算出する
    処理を実行することを特徴とする音声処理方法。
  6. 入力音声を取得し、前記入力音声から、ピッチ周波数、パワー、フォルマント周波数、スペクトルパワーのうち、いずれか一つの種別の音響特徴量を検出する音響特徴検出部と、
    記音響特徴量の時間変化量が、所定の閾値よりも小さい区間を特定する時間変化算出部と、
    特定した区間の継続時間が短いほど大きい係数を、前記音響特徴量に対する係数として算出し、
    前記係数を、各音響特徴量の度数に対する係数として求めた、前記音響特徴量のヒストグラムの広がりを、前記音響特徴量に関する統計量として算出する統計量算出部と
    を有することを特徴とする音声処理装置。
JP2017175635A 2017-09-13 2017-09-13 音声処理プログラム、音声処理方法および音声処理装置 Active JP7000757B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017175635A JP7000757B2 (ja) 2017-09-13 2017-09-13 音声処理プログラム、音声処理方法および音声処理装置
US16/122,098 US10832687B2 (en) 2017-09-13 2018-09-05 Audio processing device and audio processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017175635A JP7000757B2 (ja) 2017-09-13 2017-09-13 音声処理プログラム、音声処理方法および音声処理装置

Publications (2)

Publication Number Publication Date
JP2019053121A JP2019053121A (ja) 2019-04-04
JP7000757B2 true JP7000757B2 (ja) 2022-01-19

Family

ID=65632188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017175635A Active JP7000757B2 (ja) 2017-09-13 2017-09-13 音声処理プログラム、音声処理方法および音声処理装置

Country Status (2)

Country Link
US (1) US10832687B2 (ja)
JP (1) JP7000757B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7000757B2 (ja) * 2017-09-13 2022-01-19 富士通株式会社 音声処理プログラム、音声処理方法および音声処理装置
JP7311319B2 (ja) * 2019-06-19 2023-07-19 ファナック株式会社 時系列データ表示装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014123011A (ja) 2012-12-21 2014-07-03 Sony Corp 雑音検出装置および方法、並びに、プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4944018A (en) * 1988-04-04 1990-07-24 Bose Corporation Speed controlled amplifying
KR970011724B1 (ko) * 1994-12-29 1997-07-14 삼성전자 주식회사 디지탈 오디오신호 혼합회로
KR100211830B1 (ko) * 1995-03-16 1999-08-02 윤종용 미니디스크의 적응변환 오디오 코딩회로
US20030236663A1 (en) * 2002-06-19 2003-12-25 Koninklijke Philips Electronics N.V. Mega speaker identification (ID) system and corresponding methods therefor
US8311821B2 (en) * 2003-04-24 2012-11-13 Koninklijke Philips Electronics N.V. Parameterized temporal feature analysis
EP2063416B1 (en) * 2006-09-13 2011-11-16 Nippon Telegraph And Telephone Corporation Feeling detection method, feeling detection device, feeling detection program containing the method, and recording medium containing the program
JP2010054568A (ja) 2008-08-26 2010-03-11 Oki Electric Ind Co Ltd 感情識別装置、感情識別方法およびプログラム
EP2573763B1 (en) * 2010-05-17 2018-06-20 Panasonic Intellectual Property Corporation of America Audio classification device, method, program
US9173025B2 (en) * 2012-02-08 2015-10-27 Dolby Laboratories Licensing Corporation Combined suppression of noise, echo, and out-of-location signals
EP3096242A1 (en) * 2015-05-20 2016-11-23 Nokia Technologies Oy Media content selection
JP7000757B2 (ja) * 2017-09-13 2022-01-19 富士通株式会社 音声処理プログラム、音声処理方法および音声処理装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014123011A (ja) 2012-12-21 2014-07-03 Sony Corp 雑音検出装置および方法、並びに、プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
外川太郎 他,"感性デジタルマーケティングを支えるメディア処理技術",FUJITSU,2017年09月01日,Vol.68,No.5,pp.43-51

Also Published As

Publication number Publication date
US10832687B2 (en) 2020-11-10
US20190080699A1 (en) 2019-03-14
JP2019053121A (ja) 2019-04-04

Similar Documents

Publication Publication Date Title
CN108900725B (zh) 一种声纹识别方法、装置、终端设备及存储介质
JP5542206B2 (ja) オーディオ・システムの知覚品質を判定する方法およびシステム
RU2597487C2 (ru) Устройство обработки, способ обработки, программа, машиночитаемый носитель записи информации и система обработки
US20200051585A1 (en) Voice activity detection method and apparatus
US11232810B2 (en) Voice evaluation method, voice evaluation apparatus, and recording medium for evaluating an impression correlated to pitch
JP7000757B2 (ja) 音声処理プログラム、音声処理方法および音声処理装置
JP6676009B2 (ja) 話者判定装置、話者判定情報生成方法、プログラム
CN111785294A (zh) 音频检测方法及装置、终端、存储介质
CN111199749A (zh) 行为识别方法、装置,机器学习方法、装置以及记录介质
US20190096433A1 (en) Voice processing method, voice processing apparatus, and non-transitory computer-readable storage medium for storing voice processing computer program
JP6724290B2 (ja) 音響処理装置、音響処理方法、及び、プログラム
US20210027796A1 (en) Non-transitory computer-readable storage medium for storing detection program, detection method, and detection apparatus
US11004463B2 (en) Speech processing method, apparatus, and non-transitory computer-readable storage medium for storing a computer program for pitch frequency detection based upon a learned value
JP6891736B2 (ja) 音声処理プログラム、音声処理方法および音声処理装置
JP6994922B2 (ja) 会話認識記録システム
CN105989838B (zh) 语音识别方法及装置
JP7293826B2 (ja) 問題検出装置、問題検出方法および問題検出プログラム
JP6907859B2 (ja) 音声処理プログラム、音声処理方法および音声処理装置
CN117727311B (zh) 音频处理方法及装置、电子设备及计算机可读存储介质
JP2018180482A (ja) 音声検出装置及び音声検出プログラム
JP6819426B2 (ja) 音声処理プログラム、音声処理方法および音声処理装置
JP5777569B2 (ja) 音響特徴量計算装置及び方法、特定状況モデルデータベース作成装置、特定要素音モデルデータベース作成装置、状況推定装置、発呼適否通知装置並びにプログラム
JP2022038498A (ja) 選定プログラム、選定方法および選定装置
CN117727311A (zh) 音频处理方法及装置、电子设备及计算机可读存储介质
JP2019020600A (ja) 評価プログラム、評価方法および評価装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211207

R150 Certificate of patent or registration of utility model

Ref document number: 7000757

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150