JP2020126125A - 音声処理プログラム、音声処理方法および音声処理装置 - Google Patents

音声処理プログラム、音声処理方法および音声処理装置 Download PDF

Info

Publication number
JP2020126125A
JP2020126125A JP2019017950A JP2019017950A JP2020126125A JP 2020126125 A JP2020126125 A JP 2020126125A JP 2019017950 A JP2019017950 A JP 2019017950A JP 2019017950 A JP2019017950 A JP 2019017950A JP 2020126125 A JP2020126125 A JP 2020126125A
Authority
JP
Japan
Prior art keywords
voice
feature amount
emotion
speaker
clustering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019017950A
Other languages
English (en)
Other versions
JP7230545B2 (ja
Inventor
太郎 外川
Taro Togawa
太郎 外川
紗友梨 中山
Sayuri Nakayama
紗友梨 中山
高橋 潤
Jun Takahashi
潤 高橋
森岡 清訓
Kiyonori Morioka
清訓 森岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019017950A priority Critical patent/JP7230545B2/ja
Priority to US16/742,493 priority patent/US11721357B2/en
Publication of JP2020126125A publication Critical patent/JP2020126125A/ja
Application granted granted Critical
Publication of JP7230545B2 publication Critical patent/JP7230545B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/84Detection of presence or absence of voice signals for discriminating voice from noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】話者の感情が変化する場合に、複数の話者に含まれる1人の話者と、音声データに含まれる音声とを対応付けること。【解決手段】音声処理装置は、複数の話者の音声が含まれる入力音から複数の音声区間を検出する。音声処理装置は、複数の音声区間から特徴量をそれぞれ算出する。音声処理装置は、複数の音声区間に対する話者の感情をそれぞれ判定する。音声処理装置は、第1の感情と判定された音声区間の特徴量から、第1の感情とは異なる第2の感情と判定された音声区間の特徴量までの変化ベクトルを基にして、複数の特徴量をクラスタリングする。【選択図】図2

Description

本発明は、音声処理プログラム等に関する。
近年、音声データをテキストデータに変換する技術がある。たとえば、企業内において、会議での音声を録音し、録音した音声データをテキストデータに変換することで、議事録の作成が容易になる。
ここで、複数の話者が参加する会議では、音声データに複数の話者の発話が混在するため、音声データに含まれる音声が誰の音声であるのかを特定する技術が求められている。これに対して、音響的な類似度が高い発話同士を同一のクラスタに結合する処理を繰り返してクラスタリングすることで、各発話に対する話者を識別する従来技術がある。
特開2017−111760号公報 特開2012−137680号公報
陳伯翰、北岡教英、武田一哉「クラスタ選定によるボトムアップ話者ダイアライゼーションの高精度化」、情報処理学会 研究報告 音声言語情報処理(SLP)2012-SLP-94(27)、1-6.
しかしながら、上述した従来技術では、話者の感情が変化する場合に、複数の話者に含まれる1人の話者と、音声データに含まれる音声とを対応付けることができないという問題がある。
図18は、従来技術の問題を説明するための図である。図18では、特徴量空間の簡易説明のため、1024次元の特徴量を主成分分析で2次元(特徴量(1)、特徴量(2))の特徴量空間に圧縮して、各話者の音声の特徴量(特徴量により定まる特徴量空間上の点)を表示する。図18のグラフの横軸は特徴量(1)に対応する軸であり、縦軸は特徴量(2)に対応する軸である。
図18に示すように、話者の感情変化に伴い、音声の特徴量が変動する。たとえば、話者1の感情が「平常」である場合、音声の各特徴量は、領域1aに含まれる。話者1の感情が「平常」から「悲しみ」に変化すると、音声の各特徴量は、領域1aから領域1bに移行する。一方、話者1の感情が「平常」から「怒り」に変化すると、音声の各特徴量は、領域1aから領域1cに移行する。
たとえば、話者2の感情が「平常」である場合、音声の各特徴量は、領域2aに含まれる。話者2の感情が「平常」から「悲しみ」に変化すると、音声の各特徴量は、領域2aから領域2bに移行する。一方、話者2の感情が「平常」から「怒り」に変化すると、音声の各特徴量は、領域2aから領域2cに移行する。
たとえば、話者3の感情が「平常」である場合、音声の各特徴量は、領域3aに含まれる。話者3の感情が「平常」から「悲しみ」に変化すると、音声の各特徴量は、領域3aから領域3bに移行する。一方、話者3の感情が「平常」から「怒り」に変化すると、音声の各特徴量は、領域3aから領域3cに移行する。
図18に示すように、話者1〜3の音声の特徴量は、話者の感情変化に伴い分散するため、従来技術では、クラスタリング性能が低下し、音声に対する話者を精度よく対応付けることができない。たとえば、領域1aの話者1の音声の特徴量と、領域2bの話者2の音声の特徴量とが同一のクラスタに分類されると、話者1の音声と話者2の音声とを、同一の話者の音声と判定されてしまう。
1つの側面では、本発明は、話者の感情が変化する場合に、複数の話者に含まれる1人の話者と音声データに含まれる音声とを対応付けることができる音声処理プログラム、音声処理方法および音声処理装置を提供することを目的とする。
第1の案では、コンピュータに次の処理を実行させる。コンピュータは、複数の話者の音声が含まれる入力音から複数の音声区間を検出する。コンピュータは、複数の音声区間から特徴量をそれぞれ算出する。コンピュータは、複数の音声区間に対する話者の感情をそれぞれ判定する。コンピュータは、第1の感情と判定された音声区間の特徴量から、第1の感情とは異なる第2の感情と判定された音声区間の特徴量までの変化ベクトルを基にして、複数の特徴量をクラスタリングする。
話者の感情が変化する場合でも、複数の話者に含まれる1人の話者と音声データに含まれる音声とを対応付けることができる。
図1は、本実施例1に係る音声処理装置の処理の一例を説明するための図(1)である。 図2は、本実施例1に係る音声処理装置の処理の一例を説明するための図(2)である。 図3は、本実施例1に係るシステムの一例を示す図である。 図4は、本実施例1に係る音声処理装置の構成を示す機能ブロック図である。 図5は、スペクトルの自己相関の一例を示す図である。 図6は、波形の自己相関の一例を示す図である。 図7は、本実施例1に係るクラスタリング部の処理を説明するための図である。 図8は、本実施例1に係る音声処理装置の処理手順を示すフローチャートである。 図9は、本実施例2に係るシステムの一例を示す図である。 図10は、本実施例2に係る音声処理装置の構成を示す機能ブロック図である。 図11は、本実施例2に係るクラスタリング部の処理を説明するための図(1)である。 図12は、本実施例2に係るクラスタリング部の処理を説明するための図(2)である。 図13は、本実施例2に係る音声処理装置の処理手順を示すフローチャートである。 図14は、本実施例3に係るシステムの一例を示す図である。 図15は、本実施例3に係る音声処理装置の構成を示す機能ブロック図である。 図16は、本実施例3に係る音声処理装置の処理手順を示すフローチャートである。 図17は、本実施例に係る音声処理装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。 図18は、従来技術の問題を説明するための図である。
以下に、本願の開示する音声処理プログラム、音声処理方法および音声処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1および図2は、本実施例1に係る音声処理装置の処理の一例を説明するための図である。図1および図2では、特徴量空間の簡易説明のため、1024次元の特徴量を主成分分析で2次元(特徴量(1)、特徴量(2))の特徴量空間に圧縮して、各話者の音声の特徴量(特徴量により定まる特徴量空間上の点)を表示する。図1および図2のグラフ5の横軸は特徴量(1)に対応する軸であり、縦軸は特徴量(2)に対応する軸である。たとえば、音声処理装置は、下記のステップS1〜S3を実行する。
図1のステップS1について説明する。音声処理装置は、入力音から複数の音声区間を検出し、各音声区間について、特徴量を抽出すると共に、各音声区間に対する話者の感情をそれぞれ判定する。音声処理装置は、話者の感情が「平常」であると判定した各音声区間の特徴量について、クラスタリングを実行することで、複数の特徴量を、クラスタ10a,10b,10cに分類する。たとえば、音声処理装置は、クラスタ10aを「話者1」に対応付け、クラスタ10bを「話者2」に対応付け、クラスタ10cを「話者3」に対応付ける。
音声処理装置は、話者の感情が「悲しみ」であると判定した各音声区間の特徴量について、クラスタリングを実行することで、複数の特徴量を、クラスタ11a,11b,11cに分類する。音声処理装置は、話者の感情が「怒り」であると判定した各音声区間の特徴量について、クラスタリングを実行することで、複数の特徴量を、クラスタ12a,12b,12cに分類する。
図1のステップS2について説明する。本実施例に係る音声処理装置は「感情に伴う特徴量変化の方向は、話者によらず概ね類似する」ことに着目して、クラスタ10a〜10cと、クラスタ11a〜11cとの対応付けを行う。また、音声処理装置は、クラスタ10a〜10cと、クラスタ12a〜12cとの対応付けを行う。
音声処理装置は、クラスタ10a〜10cから未選択の一つの始点のクラスタを選択し、クラスタ11a〜11cから未選択の一つの終点のクラスタを選択し、選択した始点のクラスタと終点のクラスタとを結ぶ「変化ベクトル」を特定する。音声処理装置は、上記の処理を繰り返し実行することで、複数の変化ベクトルを特定する。たとえば、クラスタ10a〜10cと、クラスタ11a〜11cとを基に特定される各変化ベクトルのパターンは、6パターンとなる。ここでは説明の便宜上、2つのパターンに対応する各変化ベクトルについて示す。
たとえば、パターン1では、変化ベクトル5aa,5bc,5cbが特定される。変化ベクトル5aaは、始点のクラスタ10aと終点のクラスタ11aとを結ぶベクトルである。変化ベクトル5bcは、始点のクラスタ10bと終点のクラスタ11cとを結ぶベクトルである。変化ベクトル5cbは、始点のクラスタ10cと終点のクラスタ11bとを結ぶベクトルである。
パターン2では、変化ベクトル5aa,5bb,5ccが特定される。変化ベクトル5aaは、始点のクラスタ10aと終点のクラスタ11aとを結ぶベクトルである。変化ベクトル5bbは、始点のクラスタ10bと終点のクラスタ11bとを結ぶベクトルである。変化ベクトル5ccは、始点のクラスタ10cと終点のクラスタ11cとを結ぶベクトルである。
図示を省略するが、音声処理装置は、残りのパターンについても、各変化ベクトルを特定する。音声処理装置は、各パターンについて、各変化ベクトルの方向の類似性を評価し、最も類似性の高いパターンを特定する。そうすると、他のパターンと比較して、パターン2で示した変化ベクトル5aa,5bb,5ccの方向の類似性が最も大きくなる。これによって、音声処理装置は、変化ベクトル5aaでクラスタ10aと結ばれるクラスタ11aを、話者1に対応付ける。音声処理装置は、変化ベクトル5bbでクラスタ10aと結ばれるクラスタ11bを、話者2に対応付ける。音声処理装置は、変化ベクトル5ccでクラスタ10aと結ばれるクラスタ11cを、話者3に対応付ける。
図2のステップS3について説明する。音声処理装置は、クラスタ10a〜10cから未選択の一つの始点のクラスタを選択し、クラスタ12a〜12cから未選択の一つの終点のクラスタを選択する。音声処理装置は、選択した始点のクラスタと終点のクラスタとを結ぶ変化ベクトルを特定する。音声処理装置は、上記の処理を繰り返し実行することで、複数の変化ベクトルを特定する。たとえば、クラスタ10a〜10cと、クラスタ12a〜12cとを基に特定される各変化ベクトルのパターンは、6パターンとなる。このでは説明の便宜上、2つのパターンに対応する各変化ベクトルについて示す。
たとえば、パターン1では、変化ベクトル6aa,6bc,6cbが特定される。変化ベクトル6aaは、始点のクラスタ10aと終点のクラスタ12aとを結ぶベクトルである。変化ベクトル6bcは、始点のクラスタ10bと終点のクラスタ12cとを結ぶベクトルである。変化ベクトル6cbは、始点のクラスタ10cと終点のクラスタ12bとを結ぶベクトルである。
パターン2では、変化ベクトル6aa,6bb,6ccが特定される。変化ベクトル6aaは、始点のクラスタ10aと終点のクラスタ12aとを結ぶベクトルである。変化ベクトル6bbは、始点のクラスタ10bと終点のクラスタ12bとを結ぶベクトルである。変化ベクトル6ccは、始点のクラスタ10cと終点のクラスタ12cとを結ぶベクトルである。
図示を省略するが、音声処理装置は、残りのパターンについても、各変化ベクトルを特定する。音声処理装置は、各パターンについて、各変化ベクトルの方向の類似性を評価し、最も類似性の高いパターンを特定する。そうすると、他のパターンと比較して、パターン2で示した変化ベクトル6aa,6bb,6ccの方向の類似性が最も大きくなる。これによって、音声処理装置は、変化ベクトル6aaでクラスタ10aと結ばれるクラスタ12aを、話者1に対応付ける。音声処理装置は、変化ベクトル6bbでクラスタ10aと結ばれるクラスタ12bを、話者2に対応付ける。音声処理装置は、変化ベクトル6ccでクラスタ10aと結ばれるクラスタ12cを、話者3に対応付ける。
図2のステップS3について説明する。上記のように、音声処理装置は「感情に伴う特徴量変化の方向は、話者によらず概ね類似する」ことに着目して、変化ベクトルの方向の類似性に基づき、クラスタの対応付けを行う。具体的には、音声処理装置は、クラスタ10aと、クラスタ11a,12aを対応付け、クラスタ10a,11a,12aに分類された特徴量の音声を、話者1の音声と判定する。音声処理装置は、クラスタ10bと、クラスタ11b,12bを対応付け、クラスタ10b,11b,12bに分類された特徴量の音声を、話者2の音声と判定する。音声処理装置は、クラスタ10cと、クラスタ11c,12cを対応付け、クラスタ10c,11c,12cに分類された特徴量の音声を、話者3の音声と判定する。これによって、音声処理装置は、話者の感情が変化する場合でも、複数の話者に含まれる1人の話者と、音声データに含まれる音声とを対応付けることができる。
次に、本実施例1に係るシステムの一例について説明する。図3は、本実施例1に係るシステムの一例を示す図である。図3に示すように、このシステムは、スマートスピーカ21と、サーバ26と、音声処理装置100とを有する。スマートスピーカ21、サーバ26、音声処理装置100は、ネットワーク25に接続される。
スマートスピーカ21は、マイク21aおよびスピーカ21bを有する。スマートスピーカ21は、マイク21aを用いて集音した各話者の音声を入力音声情報に変換し、入力音声情報を、音声処理装置100に送信する。また、スマートスピーカ21は、入力音声情報に対応する応答音声情報を、サーバ26から受信すると、受信した応答音声情報をスピーカ21bに出力する。
音声処理装置100は、スマートスピーカ21から入力音声情報を受信すると、入力音声情報の音声区間毎に、特徴量を抽出し、話者の感情を判定する。音声処理装置100は、感情変化に伴う特徴量の変化ベクトルを基にして、複数の特徴量をクラスタリングし、クラスタリング結果を基にして、音声区間毎に音声と話者との対応付けを行う。音声処理装置100は、各音声区間の音声と、話者識別情報とをそれぞれ対応付けたユーザ音声情報を、サーバ26に送信する。
サーバ26は、ユーザ音声情報を受信すると、ユーザ音声情報を解析して、ユーザ音声情報に応答するための応答音声情報を生成する。サーバ26は、応答音声情報を、スマートスピーカ21に送信する。
次に、図3に示した音声処理装置100の構成の一例について説明する。図4は、本実施例1に係る音声処理装置の構成を示す機能ブロック図である。図4に示すように、この音声処理装置100は、取得部110と、検出部120と、算出部130と、判定部140と、クラスタリング部150と、送信部160とを有する。各処理部110〜160は、たとえば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、音声処理装置100の内部に記憶されたプログラムがRAM(Random Access Memory)等を作業領域として実行されることにより実現される。また、各処理部110〜160は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
取得部110は、スマートスピーカ21から入力音声情報を取得する処理部である。取得部110は、取得した入力音声情報を、検出部120に出力する。入力音声情報は、入力音の一例である。
検出部120は、入力音声情報から複数の音声区間を検出する処理部である。たとえば、検出部120は、入力音声情報のパワーを特定し、パワーが閾値未満となる無音区間に挟まれた区間を、音声区間として検出する。検出部120は、国際公開第2009/145192号に開示された技術を用いて、音声区間を検出してもよい。
たとえば、検出部120は、音声区間によって区切られる入力音声情報を、固定長のフレームに分割し、各フレームを、算出部130および判定部140に出力する。検出部120は、各フレームに対して、時系列にフレーム番号を割り当てる。また、検出部120は、後述する算出部130にSNR(Signal-Noise Ratio)を算出されるために、無音区間を含む入力音声情報を、算出部130に出力してもよい。
算出部130は、フレームに含まれる音声信号を基にして特徴量を算出する処理部である。たとえば、算出部130は、特徴量として、スペクトルの自己相関、フォルマント周波数、波形の自己相関、ピッチ周波数、フレームパワー、SNR、スペクトルの平均パワーをそれぞれ算出する。かかる特徴量は、音声信号の調波性、周期性または信号強度に関する特徴量といえる。
算出部130が、特徴量として「スペクトルの自己相関(自己相関係数)」を算出する処理の一例について説明する。たとえば、算出部130は、式(1)に基づいて、所定範囲のシフト量における最大の自己相関値AC2(n)を算出する。nは、フレーム番号を示す。式(1)においてP(f,n)は、フレーム番号「n」のフレームに含まれる音声信号の周波数「f」におけるスペクトルを示す。算出部130は、音声信号C(t)に対して、FFT(Fast Fourier Transform)等を適用し、スペクトルP(f,n)を算出する。たとえば、周波数範囲の境界値のうち、下限値Fminには、100Hzが設定されると共に、上限値Fmaxには、2000Hzが設定される。
Figure 2020126125
図5は、スペクトルの自己相関の一例を示す図である。図5の横軸は周波数のシフト量に対応する軸であり、縦軸はスペクトルの自己相関に対応する軸である。図5に示す例では、予め設定される所定範囲T1において、周波数のシフト量j=jaとなる場合に、自己相関の値が最大となっている。すなわち、フレーム番号「n」のフレームについて、スペクトルの自己相関値AC2(n)は、シフト量j=jaとなる場合の自己相関の値となる。
算出部130が、特徴量として「フォルマント周波数」を算出する処理の一例について説明する。フォルマント周波数が所定範囲に含まれているか否かにより、音声らしさを評価できる。
算出部130は、フレームに含まれる音声信号C(t)に対して線形予測(Linear Prediction Coding)分析を行い、複数のピークを抽出することで、複数のフォルマント周波数を算出する。たとえば、算出部130は、周波数の低い順に、第1フォルマント周波数:F1、第2フォルマント周波数:F2、第3フォルマント周波数:F3を算出する。算出部130は、特開昭62−54297号公報に開示された技術を用いて、フォルマント周波数を算出してもよい。
算出部130が、特徴量として「波形の自己相関(自己相関係数)」を算出する処理の一例について説明する。たとえば、算出部130は、式(2)に基づいて、所定範囲のシフト量における最大の自己相関値AC(n)を算出する。nは、フレーム番号を示す。式(2)においてC(t)は、音声信号の時間「t」における大きさを示す。「M」は、1フレームの時間長である。たとえば、1フレームの時間長を20msとする。
Figure 2020126125
図6は、波形の自己相関の一例を示す図である。図6の横軸は時間方向のシフト量に対応する軸であり、縦軸は波形の自己相関に対応する軸である。図6に示す例では、予め設定される所定範囲T2において、シフト量j=jbとなる場合に、自己相関の値が最大となっている。すなわち、フレーム番号「n」のフレームについて、波形の自己相関値AC(n)は、シフト量j=jbとなる場合の自己相関の値となる。
算出部130が、特徴量として「ピッチ周波数」を算出する処理の一例について説明する。ピッチ周波数が所定範囲(たとえば、100〜400Hz)に含まれているか否かに基づいて、音声らしさを評価することができる。
算出部130は、RAPT(A Robust Algorithm for Pitch Tracking)の推定手法を用いて、フレームに含まれる音声信号のピッチ周波数p(n)を算出する。算出部130は、「D.Talkin,"A Robust Algorithm for Pitch Tracking (RAPT),"in Speech Coding & Synthesis,W.B. Kleijn and K. K. Pailwal (Eds.),Elsevier,pp.495−518,1995」に記載された技術を用いて、ピッチ周波数を算出してもよい。
算出部130が、特徴量として「フレームパワー」を算出する処理の一例について説明する。たとえば、算出部130は、式(3)に基づいて、所定長のフレームにおけるパワーS(n)を算出する。式(3)において、「n」はフレーム番号を示し、「M」は1フレームの時間長(たとえば、20ms)を示し、「t」は時間を示す。なお、算出部130は、所定の平滑化係数を用いて、時間平滑化したパワーを、フレームパワーとして算出してもよい。
Figure 2020126125
算出部130が、特徴量として「SNR」を算出する処理の一例について説明する。算出部130は、入力音声情報を複数のフレームに区切り、各フレームについて、パワーS(n)を算出する。算出部130は、式(3)を基にして、パワーS(n)を算出する。算出部130は、パワーS(n)に基づいて発話区間の有無を判定する。
算出部130は、パワーS(n)が閾値TH1よりも大きい場合、フレーム番号nのフレームに発話が含まれていると判定し、v(n)=1に設定する。一方、算出部130は、パワーS(n)が閾値TH1以下となる場合、フレーム番号nのフレームに発話が含まれていないと判定し、v(n)=0に設定する。
算出部130は、発話区間の判定結果v1(n)に応じて、雑音レベルNを更新する。算出部130は「v(n)=1」となる場合、式(4)を基にして、雑音レベルN(n)を更新する。一方、算出部130は「v(n)=0」となる場合、式(5)を基にして、雑音レベルN(n)を更新する。なお、下記の式(4)および下記の式(5)における「coef」は、忘却係数を指し、例えば、0.9などの値が採用される。
N(n)=N(n−1)*coef+S(n)*(1−coef)・・・(4)
N(n)=N(n−1)・・・(5)
算出部130は、式(6)を基にして、SNR(n)を算出する。
SNR(n)=S(n)−N(n)・・・(6)
算出部130が、特徴量として「スペクトルの平均パワー」を算出する処理の一例について説明する。算出部130は、フレームに含まれる音声信号C(t)に対してFFTなどを適用し、スペクトルP(f,n)を算出する。算出部130は、式(7)を基にして、スペクトルの平均パワーP_ave(n)を算出する。式(5)において、「f」は、周波数を指す。また、上記の帯域には、音声に対応する周波数範囲が設定される。たとえば、周波数範囲の境界値のうち、下限値Fminには、100Hzが設定されると共に、上限値Fmaxには、2000Hzが設定される。なお、算出部130は、周波数軸をメルスケールに変換してもよい。
Figure 2020126125
算出部130は、フレーム毎に上記の特徴量を算出し、算出した特徴量をクラスタリング部150に出力する。算出部130は、フレーム番号と、このフレーム番号のフレームから算出された特徴量とを対応付けた「特徴量情報」を、クラスタリング部150に出力する。たとえば、算出部130は、フレーム毎に特徴量情報を生成し、複数の特徴量情報を、クラスタリング部150に出力する。
判定部140は、フレームに含まれる音声信号を基にして、話者の感情を判定する処理部である。たとえば、判定部140は、音声信号から音声の強度、音声の出現速度を示すテンポ、音声の各単語内の強度変化パターンを示す抑揚をそれぞれ検出する。判定部140は、音声の強度、音声のテンポ、音声の抑揚のそれぞれについて変化量を求め、求めた変化量に基づいて、フレームに含まれる音声信号の感情が、平常、悲しみ、怒りのいずれであるのかを判定する。たとえば、判定部140は、特開2002−91482号公報に記載された技術を用いて、感情を判定してもよい。
判定部140は、フレーム番号と、このフレーム番号のフレームから判定された感情とを対応付けた「感情情報」を、クラスタリング部150に出力する。たとえば、判定部140は、フレーム毎に感情情報を生成し、複数の感情情報を、クラスタリング部150に出力する。
クラスタリング部150は、平常の感情と判定された音声区間の特徴量から、悲しみまたは怒りの感情と判定された音声区間の特徴量までの変化ベクトルを基にして、複数の特徴量をクラスタリングする処理部である。クラスタリング部150は、クラスタリングの結果を基にして、特徴量を算出した音声区間と、話者とを対応付ける。
たとえば、クラスタリング部150は、事前クラスタリング処理、ベクトル算出処理、類似性評価処理、話者対応付け処理を実行する。
クラスタリング部150が実行する「事前クラスタリング処理」の一例について説明する。クラスタリング部150は、複数の特徴量情報と、複数の感情情報とを基にして、感情が「平常」と判定されたフレームから抽出された特徴量をそれぞれ検出する。以下の説明では、感情が「平常」と判定されたフレームから抽出された特徴量を「第1特徴量」と表記する。
クラスタリング部150は、検出した複数の第1特徴量に対して、k近傍法等を用いて、クラスタリングする。図7は、本実施例1に係るクラスタリング部の処理を説明するための図である。図7では、特徴量空間の簡易説明のため、1024次元の特徴量を主成分分析で2次元(特徴量(1)、特徴量(2))の特徴量空間に圧縮して、第1特徴量(特徴量により定まる特徴量空間上の点)を表示する。図7のグラフ30の横軸は特徴量(1)に対応する軸であり、縦軸は特徴量(2)に対応する軸である。
図7に示すように、クラスタリング部150が、複数の第1特徴量に対して、k近傍法等を用いて、クラスタリングすると、複数の第1特徴量は、クラスタ30a,30b,30cに分類される。クラスタリング部150は、各話者1,2,3の音声の特徴量を予め保持しているものとする。クラスタリング部150は、各話者1〜3の音声の特徴量と、各クラスタ30a〜30c(クラスタの重心)との距離に基づいて、クラスタに対する話者の対応付けを行う。
たとえば、クラスタリング部150は、話者1の音声の特徴量と、クラスタ30cの重心との距離が、他のクラスタ30a,30cの重心との距離よりも近いものとすると、クラスタ30cと話者1とを対応付ける。クラスタリング部150は、話者2の音声の特徴量と、クラスタ30bの重心との距離が、他のクラスタ30a,30cの重心との距離よりも近いものとすると、クラスタ30bと話者2とを対応付ける。クラスタリング部150は、話者3の音声の特徴量と、クラスタ30aの重心との距離が、他のクラスタ30b,30cの重心との距離よりも近いものとすると、クラスタ30aと話者3とを対応付ける。
クラスタリング部150が実行する「ベクトル算出処理」の一例について説明する。クラスタリング部150は、複数の特徴量情報と、複数の感情情報とを基にして、感情が「悲しみ」と判定されたフレームから抽出された特徴量をそれぞれ検出する。以下の説明では、感情が「悲しみ」と判定されたフレームから抽出された特徴量を「第2特徴量」と表記する。
クラスタリング部150は、式(8)を基にして、話者毎に、第1特徴量の平均を基準とした、複数の第2特徴量の「変化ベクトル」をそれぞれ算出する。式(8)において、iは、発話区間インデックス(フレーム番号)に対応し、∀i∈{1,2,・・・,N}により定義される。sp(i)は、発話区間に対する話者割当に対応し、話者が3人の場合には、∀sp(i)∈{1,2,3}により定義される。変化ベクトルは、発話区間インデックスと、話者の人数に応じた数だけ算出される。
Figure 2020126125
同様にして、クラスタリング部150は、複数の特徴量情報と、複数の感情情報とを基にして、感情が「怒り」と判定されたフレームから抽出された特徴量をそれぞれ検出する。以下の説明では、感情が「怒り」と判定されたフレームから抽出された特徴量を「第3特徴量」と表記する。
クラスタリング部150は、式(8)を基にして、話者毎に、第1特徴量の平均を基準とした、複数の第3特徴量の「変化ベクトル」をそれぞれ算出する。変化ベクトルは、発話区間インデックスと、話者の人数に応じた数だけ算出される。
クラスタリング部150が実行する「類似性評価処理」の一例について説明する。クラスタリング部150は、複数の変化ベクトルの方向の類似性を評価する。複数の変化ベクトルの方向の類似性は、式(9)に示す目的関数Simによって評価され、目的関数Simの値が大きいほど、変化ベクトルの方向が類似していることを示す。式(9)において、「sp」は話者を示すものであり、「f」は感情を示すものである。式(9)のcos(Vi,sp(i),Vj,sp(j))は、コサイン類似度を示すものであり、コサイン類似度は、式(10)により定義される。
Figure 2020126125
Figure 2020126125
クラスタリング部150が実行する「話者対応付け処理」の一例について説明する。クラスタリング部150は、変化ベクトルの方向性の類似度が最大となる基準で、フレーム(音声区間)に含まれる話者の割当てを選択する。類似度は、式(9)で算出される。クラスタリング部150は、式(11)に基づいて、話者の割当てを選択する。話者が3人の場合には、∀sp(i)∈{1,2,3}により定義される。
Figure 2020126125
式(8)で算出される変化ベクトルは、特徴量(第2特徴量、第3特徴量)と話者(話者に対応付けられるクラスタ)との組み合わせに応じたパターンがある。たとえば、ある1つの第2特徴量を終点とする変化ベクトルは、始点を話者1とする変化ベクトル、始点を話者2とする変化ベクトル、始点を話者3とする変化ベクトルがある。
クラスタリング部150は、式(9)に示されるように各パターンについて、各変化ベクトルによるコサイン類似度を算出し、コサイン類似度が最大となるパターンを、各特徴量(第2特徴量、第3特徴量)について特定する。クラスタリング部150は、特定したパターンに基づき、特徴量の話者を判定する。たとえば、特定されたパターンの変化ベクトルが、話者1を始点するものであれば、係る変化ベクトルの終点となる特徴量の算出元となるフレームに、話者1が割り当てられる。クラスタリング部150は、各第2特徴量、各第3特徴量について、上記処理を実行することで、各フレームに話者を割り当てる。
クラスタリング部150は、各フレームと、各話者の識別情報とを対応付けたユーザ音声情報を生成し、送信部160に出力する。なお、クラスタリング部150は、図1、図2で説明したように、第2特徴量、第3特徴量に関してクラスタリングを行った後に、変化ベクトルを設定し、各フレームに話者を割り当てる処理を行ってもよい。
送信部160は、ユーザ音声情報を、サーバ26に送信する処理部である。
続いて、本実施例1に係る音声処理装置100の処理手順の一例について説明する。図8は、本実施例1に係る音声処理装置の処理手順を示すフローチャートである。図8に示すように、音声処理装置100の取得部110は、入力音声情報を取得する(ステップS101)。音声処理装置100の検出部120は、入力音声情報に含まれる音声区間を検出する(ステップS102)。
音声処理装置100の算出部130は、音声区間の特徴量を算出する(ステップS103)。音声処理装置100の判定部140は、音声区間に対する感情を判定する(ステップS104)。音声処理装置100のクラスタリング部150は、平常感情と判定された各音声区間の特徴量をクラスタリングし、各クラスタに対して話者を対応付ける(ステップS105)。
クラスタリング部150は、平常以外の感情の音声区間の特徴量に対して、平常感情の特徴量を基準(始点)とした変化ベクトルを算出する(ステップS106)。クラスタリング部150は、音声区間の特徴量と話者との組み合わせに対して、変化ベクトルの方向性の類似性を評価する(ステップS107)。
クラスタリング部150は、変化ベクトルの方向の類似性が最大となる組み合わせを特定し、音声区間に対する話者を対応付ける(ステップS108)。音声処理装置100の送信部160は、ユーザ音声情報をサーバ26に送信する(ステップS109)。
次に、本実施例1に係る音声処理装置100の効果について説明する。音声処理装置100は、入力音声情報から音声区間を検出し、各音声区間から特徴量を算出すると共に、話者の感情を判定する。音声処理装置100は、感情変化に伴う特徴量の変化ベクトルを算出し、変化ベクトルの方向の類似性が最大となる特徴量と話者との組み合わせを判定し、特徴量の算出元となる音声区間と、話者とを対応付ける。これによって、話者の感情が変化する場合でも、複数の話者に含まれる1人の話者と、音声区間の音声とを対応付けることができる。
音声処理装置100は、平常時の第1特徴量をクラスタリングし、各クラスタの特徴量の平均を始点とし、平常時以外の特徴量(第2特徴量、第3特徴量)を始点とする複数の変化ベクトルを、話者と特徴量との組み合わせに応じて算出する。音声処理装置100は、複数の変化ベクトルの方向の類似性が最大となる話者と特徴量の組み合わせに基づいて、特徴量の算出元となる音声区間と話者とを対応付ける。これによって、複数話者による感情変化を含む音声でも、各話者の音声区間を精度よく特定ができる。また、複数の話者の発話を含む入力音声情報について、いつ誰が話したかを特定することができる。
音声処理装置100は、音声区間の特徴量として、調波性、周期性または信号強度に関する特徴量を算出する。たとえば、音声処理装置100は、音声区間の特徴量として、スペクトルの自己相関、フォルマント周波数、波形の自己相関、ピッチ周波数、フレームパワー、SNR、スペクトルの平均パワーをそれぞれ算出する。かかる特徴量を用いることで、話者の感情変化に伴う変化ベクトルを精度よく算出することができる。
ところで、本実施例1に係る音声処理装置100は、複数の変化ベクトルの方向の類似性を算出する場合に、コサイン類似度を用いたがこれに限定されるものではない。音声処理装置100は、ピアソンの相関係数を基にして、複数の変化ベクトルの方向の類似性を算出してもよい。
図9は、本実施例2に係るシステムの一例を示す図である。図9に示すように、このシステムは、収録機器40aと、ディスプレイ40bと、サーバ45と、音声処理装置200とを有する。収録機器40a、ディスプレイ40b、サーバ45、音声処理装置200は、ネットワーク25に接続される。
収録機器40aは、カメラ1ca,2ca,3caと、マイク1m,2m,3mに接続される。カメラ1caは、話者1の顔画像を撮影するカメラである。カメラ2caは、話者2の顔画像を撮影するカメラである。カメラ3caは、話者3の顔画像を撮影するカメラである。マイク1m〜3mは、話者1〜3の会話を集音するマイクである。
収録機器40aは、マイク1m〜3mを用いて集音した音声を入力音声情報に変換する。本実施例2では一例として、収録機器40aは、マイク1m〜3mのうち、いずれかの一つのマイクが集音した音声を入力音声情報に変換し、入力音声情報を、音声処理装置200に送信する。
収録機器40aは、カメラ1ca〜3caによって撮影された各顔画像と、話者識別情報とを対応付けた顔画像情報を生成する。たとえば、収録機器40aは、カメラ1caによって撮影された顔画像と、話者1の話者識別情報とを対応付ける。収録機器40aは、カメラ2caによって撮影された顔画像と、話者2の話者識別情報とを対応付ける。収録機器40aは、カメラ3caによって撮影された顔画像と、話者3の話者識別情報とを対応付ける。収録機器40aは、顔画像情報を、音声処理装置200に送信する。
音声処理装置200は、収録機器40aから入力音声情報および顔画像情報を受信すると、入力音声情報の音声区間毎に、特徴量を抽出する。また、音声処理装置200は、顔画像情報を基にして、話者の感情を判定する。音声処理装置200は、感情変化に伴う特徴量の変化ベクトルを基にして、複数の特徴量をクラスタリングし、クラスタリング結果を基にして、音声区間毎に音声と話者との対応付けを行う。音声処理装置200は、各音声区間の音声と、話者識別情報とをそれぞれ対応付けたユーザ音声情報を、サーバ45に送信する。
サーバ45は、ユーザ音声情報を受信すると、ユーザ音声情報を解析して、ユーザ音声情報に応答するための応答音声情報を生成する。サーバ45は、応答音声情報を、ディスプレイ40bに送信する。ディスプレイ40bは、応答音声情報に対応するテキスト情報等を表示する。
次に、図9に示した音声処理装置200の構成の一例について説明する。図10は、本実施例2に係る音声処理装置の構成を示す機能ブロック図である。図10に示すように、この音声処理装置200は、取得部210と、検出部220と、算出部230と、判定部240と、クラスタリング部250と、送信部260とを有する。各処理部210〜260は、たとえば、CPUやMPU等によって、音声処理装置200の内部に記憶されたプログラムがRAM等を作業領域として実行されることにより実現される。また、各処理部210〜260は、例えば、ASICやFPGA等の集積回路により実現されてもよい。
取得部210は、収録機器40aから入力音声情報および顔画像情報を取得する処理部である。取得部210は、取得した入力音声情報を、検出部220に出力する。取得部210は、取得した顔画像情報を、判定部240に出力する。
検出部220は、入力音声情報から複数の音声区間を検出する処理部である。たとえば、検出部220は、音声区間によって区切られる入力音声情報を、固定長のフレームに分割し、各フレームを、算出部230に出力する。検出部220は、各フレームに対して、時系列にフレーム番号を割り当てる。検出部220に関するその他の処理は、実施例1の検出部120の処理と同様である。
算出部230は、フレームに含まれる音声信号を基にして特徴量を算出する処理部である。算出部230が特徴量を算出する処理は、実施例1の算出部230が特徴量を算出する処理と同様である。算出部230は、フレーム毎に特徴量情報を生成し、複数の特徴量情報を、クラスタリング部250に出力する。
判定部240は、顔画像情報を基にして、話者の感情を判定する処理部である。判定部240は、顔画像を入力した際に、感情が「平常」、「悲しみ」、「怒り」のいずれかを判定する学習済みのニューラルネットワークを用いて、各話者の感情を判定する。
たとえば、判定部240は、各話者の感情の判定結果を集計し、「平常」、「悲しみ」、「怒り」について多数決を行い、代表の感情を判定する。たとえば、判定部240は、話者1,2の感情が「平常」、話者3の感情が「悲しみ」と判定された場合には、平常の数が最も多いため、代表の感情を「平常」と判定する。判定部240は判定結果(代表の感情の判定結果)を、クラスタリング部250に出力する。たとえば、判定部240は、特開2008−146318号公報に開示された技術を用いて、話者毎の感情を判定してもよい。判定部240は、所定時間毎に、顔画像情報を取得し、話者の感情を判定する。
クラスタリング部250は、平常の感情と判定された際の音声区間の特徴量から、悲しみまたは怒りの感情と判定された際の音声区間の特徴量までの変化ベクトルを基にして、複数の特徴量をクラスタリングする処理部である。クラスタリング部250は、クラスタリングの結果を基にして、特徴量を算出した音声区間と、話者とを対応付ける。
たとえば、クラスタリング部250は、事前クラスタリング処理、ベクトル算出処理、類似性評価処理、特徴量補正処理、話者対応付け処理を実行する。
クラスタリング部250が実行する「事前クラスタリング処理」の一例について説明する。クラスタリング部150は、複数の特徴量情報と、感情の判定結果とを基にして、感情が「平常」と判定されている間のフレームから算出された特徴量をそれぞれ検出する。たとえば、クラスタリング部250は、話者1〜3の感情の判定結果が「平常」と判定されている間に、算出部230から取得した各特徴量情報のフレームを、感情が「平常」と判定されたフレームとして扱う。以下の説明では、感情が「平常」と判定されたフレームから抽出された特徴量を「第1特徴量」と表記する。
クラスタリング部250は、検出した複数の第1特徴量に対して、k近傍法等を用いて、クラスタリングする。クラスタリング部250は、各話者1,2,3の音声の特徴量を予め保持しており、各クラスタと各話者1〜3の音声の特徴量との距離に基づいて、クラスタに対する話者の対応付けを行う。
クラスタリング部250が実行する「ベクトル算出処理」の一例について説明する。クラスタリング部250は、複数の特徴量情報と、感情の判定結果とを基にして、感情が「悲しみ」と判定されている間のフレームから抽出された特徴量をそれぞれ検出する。たとえば、クラスタリング部250は、話者1〜3の感情のいずれかの判定結果が「悲しみ」と判定されて、「怒り」と判定されていない間に、算出部230から取得した各特徴量情報のフレームを、感情が「悲しみ」と判定されたフレームとして扱う。以下の説明では、感情が「悲しみ」と判定されたフレームから抽出された特徴量を「第2特徴量」と表記する。クラスタリング部250は、式(8)を基にして、話者毎に、第1特徴量の平均を基準(始点)とした、複数の第2特徴量の「変化ベクトル」をそれぞれ算出する。
クラスタリング部250は、複数の特徴量情報と、感情の判定結果とを基にして、感情が「怒り」と判定されたフレームから抽出された特徴量をそれぞれ検出する。たとえば、クラスタリング部250は、話者1〜3の感情のいずれかの判定結果が「怒り」と判定されて、「悲しみ」と判定されていない間に、算出部230から取得した各特徴量情報のフレームを、感情が「怒り」と判定されたフレームとして扱う。以下の説明では、感情が「怒り」と判定されたフレームから抽出された特徴量を「第3特徴量」と表記する。クラスタリング部250は、式(8)を基にして、話者毎に、第1特徴量の平均を基準(始点)とした、複数の第3特徴量の「変化ベクトル」をそれぞれ算出する。
クラスタリング部250が実行する「類似性評価処理」の一例について説明する。クラスタリング部250は、複数の変化ベクトルの方向の類似性を評価する。複数の変化ベクトルの方向の類似性は、式(9)に示す目的関数Simによって評価され、目的関数Simの値が大きいほど、変化ベクトルの方向が類似していることを示す。
クラスタリング部250は、式(9)に示されるように話者と特徴量の組み合わせに応じた各パターンについて、各変化ベクトルによるコサイン類似度を算出し、コサイン類似度が最大となるパターンを、各特徴量(第2特徴量、第3特徴量)について特定する。
クラスタリング部250が実行する「特徴量補正処理」の一例について説明する。クラスタリング部250は、コサイン類似度が最大となる各話者と各第2特徴量との組み合わせにより特定される複数の変化ベクトルを平均することで、第1平均ベクトルを算出する。また、クラスタリング部250は、コサイン類似度が最大となる各話者と各第3特徴量との組み合わせにより特定される複数の変化ベクトルを平均することで、第2平均ベクトルを算出する。たとえば、クラスタリング部250は、式(12)に基づいて平均ベクトル(第1平均ベクトル、第2平均ベクトル)を算出する。
Figure 2020126125
式(12)において、iは、発話区間インデックス(フレーム番号)に対応し、∀i∈{1,2,・・・,N}により定義される。sp(i)は、発話区間に対する話者割当に対応し、話者が3人の場合には、∀sp(i)∈{1,2,3}により定義される。fは、感情(悲しみまたは怒り)を示すものであり、∀f∈{1,2}により定義される。
図11は、本実施例2に係るクラスタリング部の処理を説明するための図(1)である。図11のグラフ50は「補正前の特徴量」を示し、グラフ60は「補正後の特徴量」を示す。図11では、特徴量空間の簡易説明のため、1024次元の特徴量を主成分分析で2次元(特徴量(1)、特徴量(2))の特徴量空間に圧縮して、第1特徴量(特徴量により定まる特徴量空間上の点)を表示する。図11のグラフ50,60の横軸は特徴量(1)に対応する軸であり、縦軸は特徴量(2)に対応する軸である。
たとえば、図11のグラフ50において、クラスタ50aに含まれる各特徴量は、話者3に対応付けられた音声区間の第1特徴量である。クラスタ50bに含まれる各特徴量は、話者2に対応付けられた音声区間の第2特徴量である。クラスタ50cに含まれる各特徴量は、話者1に対応付けられた音声区間の第2特徴量である。
領域51aに含まれる各特徴量は、類似度評価処理で特定された類似度が最大となる複数の変化ベクトルのうち、話者3の第1特徴量を始点する変化ベクトルであって、かかる変化ベクトルの終点となる第2特徴量である。ベクトル7aは、クラスタ50aの重心から、領域51aの各第2特徴量に至る複数の変化ベクトルを平均した第1平均ベクトルである。
領域51bに含まれる各特徴量は、類似度評価処理で特定された類似度が最大となる複数の変化ベクトルのうち、話者2の第1特徴量を始点する変化ベクトルであって、かかる変化ベクトルの終点となる第2特徴量である。ベクトル7bは、クラスタ50bの重心から、領域51bの各第2特徴量に至る複数の変化ベクトルを平均した第1平均ベクトルである。
領域51cに含まれる各特徴量は、類似度評価処理で特定された類似度が最大となる複数の変化ベクトルのうち、話者1の第1特徴量を始点する変化ベクトルであって、かかる変化ベクトルの終点となる第2特徴量である。ベクトル7cは、クラスタ50cの重心から、領域51cの各第2特徴量に至る複数の変化ベクトルを平均した第1平均ベクトルである。
領域52aに含まれる各特徴量は、類似度評価処理で特定された類似度が最大となる複数の変化ベクトルのうち、話者3の第1特徴量を始点する変化ベクトルであって、かかる変化ベクトルの終点となる第3特徴量である。ベクトル8aは、クラスタ50aの重心から、領域52aの各第3特徴量に至る複数の変化ベクトルを平均した第2平均ベクトルである。
領域52bに含まれる各特徴量は、類似度評価処理で特定された類似度が最大となる複数の変化ベクトルのうち、話者2の第1特徴量を始点する変化ベクトルであって、かかる変化ベクトルの終点となる第3特徴量である。ベクトル8bは、クラスタ50bの重心から、領域52bの各第3特徴量に至る複数の変化ベクトルを平均した第2平均ベクトルである。
領域52cに含まれる各特徴量は、類似度評価処理で特定された類似度が最大となる複数の変化ベクトルのうち、話者1の第1特徴量を始点する変化ベクトルであって、かかる変化ベクトルの終点となる第3特徴量である。ベクトル8cは、クラスタ50cの重心から、領域52cの各第2特徴量に至る複数の変化ベクトルを平均した第2平均ベクトルである。
クラスタリング部250は、領域51aに含まれる各第2特徴量を、ベクトル7aの逆方向に移動させる補正を行う。クラスタリング部250は、領域51bに含まれる各第2特徴量を、ベクトル7bの逆方向に移動させる補正を行う。クラスタリング部250は、領域51cに含まれる各第2特徴量を、ベクトル7cの逆方向に移動させる補正を行う。
クラスタリング部250は、領域52aに含まれる各第3特徴量を、ベクトル8aの逆方向に移動させる補正を行う。クラスタリング部250は、領域52bに含まれる各第2特徴量を、ベクトル8bの逆方向に移動させる補正を行う。クラスタリング部250は、領域52cに含まれる各第2特徴量を、ベクトル8cの逆方向に移動させる補正を行う。
クラスタリング部250が、上記の補正を行うことで、グラフ50に含まれる各特徴量は、グラフ60に示す各特徴量に補正される。
クラスタリング部250が実行する「話者対応付け処理」の一例について説明する。クラスタリング部250は、補正した各特徴量のうち、悲しみ、または、怒りと判定された音声区間の特徴量に対して、k近傍法等を用いて、クラスタリングする。図12は、本実施例2に係るクラスタリング部の処理を説明するための図(2)である。図12では、特徴量空間の簡易説明のため、1024次元の特徴量を主成分分析で2次元(特徴量(1)、特徴量(2))の特徴量空間に圧縮して、補正後の特徴量を表示する。図12のグラフ30の横軸は特徴量(1)に対応する軸であり、縦軸は特徴量(2)に対応する軸である。
図12に示すように、クラスタリング部250が、複数の特徴量に対して、k近傍法等を用いて、クラスタリングすると、複数の特徴量は、クラスタ61a,61b,61cに分類される。クラスタリング部250は、各話者1,2,3の音声の特徴量を予め保持しているものとする。クラスタリング部250は、各話者1〜3の音声の特徴量と、各クラスタ61a〜61c(クラスタの重心)との距離に基づいて、クラスタに対する話者の対応付けを行う。
たとえば、クラスタリング部250は、話者1の音声の特徴量と、クラスタ61cの重心との距離が、他のクラスタ61a,61cの重心との距離よりも近いものとすると、クラスタ61cと話者1とを対応付ける。クラスタリング部250は、話者2の音声の特徴量と、クラスタ61bの重心との距離が、他のクラスタ61a,61cの重心との距離よりも近いものとすると、クラスタ61bと話者2とを対応付ける。クラスタリング部250は、話者3の音声の特徴量と、クラスタ61aの重心との距離が、他のクラスタ61b,61cの重心との距離よりも近いものとすると、クラスタ61aと話者3とを対応付ける。
クラスタリング部250は、クラスタ61cに含まれる各特徴量を算出した各フレーム(音声区間)と、話者1とを対応付ける。クラスタリング部250は、クラスタ61bに含まれる各特徴量を算出した各フレーム(音声区間)と、話者2とを対応付ける。クラスタリング部250は、クラスタ61aに含まれる各特徴量を算出した各フレーム(音声区間)と、話者1とを対応付ける。クラスタリング部250は、各フレームと、各話者の識別情報とを対応付けたユーザ音声情報を生成し、送信部260に出力する。
送信部260は、ユーザ音声情報を、サーバ45に送信する処理部である。
次に、本実施例1に係る音声処理装置200の処理手順の一例について説明する。図13は、本実施例2に係る音声処理装置の処理手順を示すフローチャートである。図13に示すように、音声処理装置200の取得部210は、入力音声情報および顔画像情報を取得する(ステップS201)。
音声処理装置200の検出部220は、入力音声情報に含まれる音声区間を検出する(ステップS202)。算出部230は、音声区間の特徴量を算出する(ステップS203)。音声処理装置200の判定部240は、顔画像情報を基にして感情を判定する(ステップS204)。
音声処理装置200のクラスタリング部250は、平常感情と判定されている間の音声区間の特徴量をクラスタリングし、各クラスタに対して話者を対応付ける(ステップS205)。クラスタリング部250は、平常以外の感情の各音声区間の特徴量に対して、平常感情の特徴量を基準とした変化ベクトルを算出する(ステップS206)。
クラスタリング部250は、音声区間の特徴量と話者との組み合わせに対して、変化ベクトルの方向の類似性を評価する(ステップS207)。クラスタリング部250は、変化ベクトルの方向の類似性が最大となる組み合わせを特定し、複数の変化ベクトルの平均ベクトルを算出する(ステップS208)。
クラスタリング部250は、平均ベクトルを適用して、平常以外の感情の各音声区間の特徴量を補正する(ステップS209)。クラスタリング部250は、補正した各特徴量をクラスタリングし、各クラスタに対して話者を対応付ける(ステップS210)。音声処理装置200の送信部260は、ユーザ音声情報をサーバ45に送信する(ステップS211)。
次に、本実施例2に係る音声処理装置200の効果について説明する。音声処理装置200は、話者の顔画像を基にして、話者の感情を判定するため、入力音声情報を用いた感情の判定が難しい場合でも、各音声区間に対応する感情を判定することができる。
音声処理装置200は、類似度評価処理で特定された類似度が最大となる複数の変化ベクトルを用いて、平均ベクトルを算出し、この平均ベクトルを用いて、平常以外の感情の特徴量を補正する。そして、音声処理装置200は、補正した特徴量をクラスタリングすることで、特徴量と話者とを対応付ける。これによって、話者の感情が変化する場合でも、複数の話者に含まれる1人の話者と、音声区間の音声とを対応付けることができる。
なお、本実施例2では一例として、音声処理装置200は、顔画像情報を基にして、話者の感情を判定したが、これに限定されるものではなく、実施例1と同様にして、入力音声情報の音声区間を基にして、感情を判定してもよい。また、音声処理装置200は、顔画像情報と、入力音声情報とを用いて、話者の感情を判定してもよい。たとえば、顔画像情報と、入力音声情報とに優先度をそれぞれ設定しておき、顔画像情報と、入力音声情報との判定結果が異なる場合に、優先度の高い情報の判定結果を優先するなどの処理を行ってもよい。
図14は、本実施例3に係るシステムの一例を示す図である。図14に示すように、このシステムは、収録機器70と、ディスプレイ40bと、サーバ45と、音声処理装置300とを有する。収録機器70、ディスプレイ40b、サーバ45、音声処理装置300は、ネットワーク25に接続される。
収録機器70は、カメラ1ca,2ca,3caと、マイク1m,2m,3m、生体センサ1s,2s,3sに接続される。カメラ1caは、話者1の顔画像を撮影するカメラである。カメラ2caは、話者2の顔画像を撮影するカメラである。カメラ3caは、話者3の顔画像を撮影するカメラである。マイク1m〜3mは、話者1〜3の会話を集音するマイクである。
生体センサ1sは、話者1の心拍等の生体情報を測定するセンサである。生体センサ2sは、話者2の心拍等の生体情報を測定するセンサである。生体センサ3sは、話者3の心拍等の生体情報を測定するセンサである。
収録機器70は、マイク1m〜3mを用いて集音した音声を入力音声情報に変換する。本実施例3では一例として、収録機器70は、マイク1m〜3mのうち、いずれかの一つのマイクが集音した音声を入力音声情報に変換し、入力音声情報を、音声処理装置300に送信する。
収録機器70は、カメラ1ca〜3caによって撮影された各顔画像と、話者識別情報とを対応付けた「顔画像情報」を生成する。たとえば、収録機器70は、カメラ1caによって撮影された顔画像と、話者1の話者識別情報とを対応付ける。収録機器70は、カメラ2caによって撮影された顔画像と、話者2の話者識別情報とを対応付ける。収録機器70は、カメラ3caによって撮影された顔画像と、話者3の話者識別情報とを対応付ける。収録機器70は、顔画像情報を、音声処理装置300に送信する。
収録機器70は、生体センサ1s〜3sによって測定された各生体情報と、話者識別情報とを対応付けた「生体センサ情報」を生成する。たとえば、収録機器70は、生体センサ1sによって測定された生体情報と、話者1の話者識別情報とを対応付ける。収録機器70は、生体センサ2sによって測定された生体情報と、話者2の話者識別情報とを対応付ける。収録機器70は、生体センサ3sによって測定された生体情報と、話者3の話者識別情報とを対応付ける。収録機器70は、生体センサ情報を、音声処理装置300に送信する。
音声処理装置300は、収録機器70から入力音声情報、顔画像情報、生体センサ情報を受信すると、入力音声情報の音声区間毎に、特徴量を抽出する。また、音声処理装置300は、顔画像情報および生体センサ情報を基にして、話者の感情を判定する。音声処理装置300は、感情変化に伴う特徴量の変化ベクトルを基にして、複数の特徴量をクラスタリングし、クラスタリング結果を基にして、音声区間毎に音声と話者との対応付けを行う。音声処理装置300は、各音声区間の音声と、話者識別情報とをそれぞれ対応付けたユーザ音声情報を、サーバ45に送信する。
サーバ45は、ユーザ音声情報を受信すると、ユーザ音声情報を解析して、ユーザ音声情報に応答するための応答音声情報を生成する。サーバ45は、応答音声情報を、ディスプレイ40bに送信する。ディスプレイ40bは、応答音声情報に対応するテキスト情報等を表示する。
次に、図14に示した音声処理装置300の構成の一例について説明する。図15は、本実施例3に係る音声処理装置の構成を示す機能ブロック図である。図15に示すように、この音声処理装置300は、取得部310と、検出部320と、算出部330と、判定部340と、クラスタリング部350と、送信部360とを有する。各処理部310〜360は、たとえば、CPUやMPU等によって、音声処理装置300の内部に記憶されたプログラムがRAM等を作業領域として実行されることにより実現される。また、各処理部310〜360は、例えば、ASICやFPGA等の集積回路により実現されてもよい。
取得部310は、収録機器70から入力音声情報、顔画像情報、生体センサ情報を取得する処理部である。取得部310は、取得した入力音声情報を、検出部320に出力する。取得部310は、取得した顔画像情報および生体センサ情報を、判定部340に出力する。
検出部320は、入力音声情報から複数の音声区間を検出する処理部である。たとえば、検出部320は、音声区間によって区切られる入力音声情報を、固定長のフレームに分割し、各フレームを、算出部330に出力する。検出部320は、各フレームに対して、時系列にフレーム番号を割り当てる。検出部320に関するその他の処理は、実施例1の検出部120の処理と同様である。
算出部330は、フレームに含まれる音声信号を基にして特徴量を算出する処理部である。たとえば、算出部330は、ニューラルネットワーク(NN:Neural Network)に音響特徴パラメータを入力することで、特徴量を算出する。ニューラルネットワークは、深層学習モデルの一例である。
音響特徴パラメータには、スペクトル、ピッチ周波数、フォルマント周波数等が含まれる。算出部330が、スペクトル、ピッチ周波数、フォルマント周波数を算出する処理は、実施例1の算出部130が、スペクトル、ピッチ周波数、フォルマント周波数を算出する処理と同様である。
算出部330が用いるNNは、学習済みのNNを用いる。係るNNは、音響特徴パラメータと、話者の正解データとを対応付けた学習データを用いて、学習装置(図示略)によって事前に学習される。NNは、入力層、隠れ層、出力層からなる。音響特徴パラメータを入力層に入力すると、出力層から、音響特徴パラメータに対応する話者の確率が出力される。算出部330は、音響特徴パラメータをNNの入力層に入力した際に、出力層よりも一つ前の層から出力される情報を、音響特徴パラメータの特徴量として取得する。算出部330は、特開2018−139071号公報に開示された技術を用いて、NNの学習を行ってもよい。
算出部330は、フレーム毎に上記の特徴量を算出し、算出した特徴量をクラスタリング部350に出力する。算出部330は、フレーム番号と、このフレーム番号のフレームから算出された特徴量とを対応付けた「特徴量情報」を、クラスタリング部350に出力する。
判定部340は、顔画像情報および生体センサ情報を基にして、話者の感情を判定する処理部である。まず、判定部340は、顔画像情報を基にして各話者の感情を判定し、生体センサ情報を基にして各話者の感情を判定し、最終的な感情の判定を行う。判定部340が、顔画像情報を基にして、各話者の感情を判定する処理は、実施例2で説明した判定部240の処理と同様である。
判定部340が、生体センサ情報を基にして、各話者の感情を判定する処理について説明する。判定部340は、生体センサ情報に含まれる話者の心拍の特徴を基にして、話者の覚醒度の度合い、および、快適さの度合いを算出する。判定部340は、覚醒度の度合い、および、快適さの度合いと、感情とを対応付けたテーブル等を基にして、話者の感情を判定する。なお、判定部340は、特開2017−144222号公報に開示された技術を用いて、話者毎の感情を判定してもよい。
判定部340は、顔画像情報により求めた各話者の感情の判定結果と、生体センサ情報により求めた各話者の感情の判定結果とを集計し、「平常」、「悲しみ」、「怒り」について多数決を行い、代表の感情を判定する。たとえば、顔画像情報により判定された話者1,2の感情が「平常」、話者3の感情が「悲しみ」とし、生体センサ情報により判定された話者1,3の感情が「平常」、話者2の感情が「怒り」とする。この場合には、平常の数が最も多いため、判定部340は、代表の感情を「平常」と判定する。判定部340は判定結果(代表の感情の判定結果)を、クラスタリング部350に出力する。
クラスタリング部350は、平常の感情と判定された際の音声区間の特徴量から、悲しみまたは怒りの感情と判定された際の音声区間の特徴量までの変化ベクトルを基にして、複数の特徴量をクラスタリングする処理部である。クラスタリング部350は、クラスタリングの結果を基にして、特徴量を算出した音声区間と、話者とを対応付ける。クラスタリング部350は、各音声区間(フレーム)と、各話者の識別情報とを対応付けたユーザ音声情報を生成し、送信部360に出力する。クラスタリング部350の処理は、実施例2で説明したクラスタリング部250の処理と同様である。
送信部360は、ユーザ音声情報を、サーバ45に送信する処理部である。
次に、本実施例3に係る音声処理装置300の処理手順の一例について説明する。図16は、本実施例3に係る音声処理装置の処理手順を示すフローチャートである。図16に示すように、音声処理装置300の取得部310は、入力音声情報、顔画像情報、生体センサ情報を取得する(ステップS301)。
音声処理装置300の検出部320は、入力音声情報に含まれる音声区間を検出する(ステップS302)。算出部330は、音声区間の音響特徴パラメータを算出する(ステップS303)。算出部330は、音声区間の音響特徴パラメータをNNに入力し、特徴量を算出する(ステップS304)。音声処理装置300の判定部340は、顔画像情報および生体センサ情報を基にして感情を判定する(ステップS305)。
音声処理装置300のクラスタリング部350は、平常感情と判定されている間の音声区間の特徴量をクラスタリングし、各クラスタに対して話者を対応付ける(ステップS306)。クラスタリング部350は、平常以外の感情の各音声区間の特徴量に対して、平常感情の特徴量を基準とした変化ベクトルを算出する(ステップS307)。
クラスタリング部350は、音声区間の特徴量と話者との組み合わせに対して、変化ベクトルの方向の類似性を評価する(ステップS308)。クラスタリング部350は、変化ベクトルの方向の類似性が最大となる組み合わせを特定し、複数の変化ベクトルの平均ベクトルを算出する(ステップS309)。
クラスタリング部350は、平均ベクトルを適用して、平常以外の感情の各音声区間の特徴量を補正する(ステップS310)。クラスタリング部350は、補正した各特徴量をクラスタリングし、各クラスタに対して話者を対応付ける(ステップS311)。音声処理装置300の送信部360は、ユーザ音声情報をサーバ45に送信する(ステップS312)。
次に、本実施例3に係る音声処理装置300の効果について説明する。音声処理装置300は、話者の顔画像および生体情報を基にして、話者の感情を判定するため、入力音声情報を用いた感情の判定が難しい場合でも、各音声区間に対応する感情を判定することができる。
音声処理装置300は、音声区間の特徴量を算出する場合に、学習済みのNNを用いる。このため、入力音声情報に含まれるノイズ等の不確定要素を、NNによって吸収した特徴量を算出することができる。
なお、本実施例3では一例として、音声処理装置300は、顔画像情報および生体センサ情報を基にして、話者の感情を判定したが、これに限定されるものではなく、実施例1と同様にして、入力音声情報の音声区間を基にして、感情を判定してもよい。また、音声処理装置300は、入力音声情報と、顔画像情報と、生体センサ情報とを用いて、話者の感情を判定してもよい。たとえば、音声処理装置300は、顔画像情報の感情の判定結果と、生体センサ情報の感情の判定結果と、入力音声情報との感情の判定結果とについて多数決を行い、総合的な感情を判定してもよい。
音声処理装置300の算出部330は、NNを用いて音声区間の特徴量を算出していたがこれに限定されるものではなく、実施例1で説明した算出部130と同様にして、特徴量を算出してもよい。
次に、本実施例に示した音声処理装置100(200,300)と同様の機能を実現するコンピュータのハードウェア構成の一例について説明する。図17は、本実施例に係る音声処理装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
図17に示すように、コンピュータ400は、各種演算処理を実行するCPU401と、ユーザからのデータの入力を受け付ける入力装置402と、ディスプレイ403とを有する。また、コンピュータ400は、記憶媒体からプログラム等を読み取る読み取り装置404と、有線または無線ネットワークを介して、外部装置等との間でデータの授受を行うインタフェース装置405とを有する。コンピュータ400は、各種情報を一時記憶するRAM406と、ハードディスク装置407とを有する。そして、各装置401〜407は、バス408に接続される。
ハードディスク装置407は、取得プログラム407a、検出プログラム407b、算出プログラム407c、判定プログラム407d、クラスタリングプログラム407e、送信プログラム407fを有する。CPU401は、取得プログラム407a、検出プログラム407b、算出プログラム407c、判定プログラム407d、クラスタリングプログラム407e、送信プログラム407fを読み出してRAM406に展開する。
取得プログラム407aは、取得プロセス406aとして機能する。検出プログラム407bは、検出プロセス406bとして機能する。算出プログラム407cは、算出プロセス406cとして機能する。判定プログラム407dは、判定プロセス406dとして機能する。クラスタリングプログラム407eは、クラスタリングプロセス406eとして機能する。送信プログラム407fは、送信プロセス406fとして機能する。
取得プロセス406aの処理は、取得部110,210,310の処理に対応する。検出プロセス406bの処理は、検出部120,220,320の処理に対応する。算出プロセス406cの処理は、算出部130,230,330の処理に対応する。判定プロセス406dの処理は、判定部140,240,340の処理に対応する。クラスタリングプロセス406eの処理は、クラスタリング部150,250,350の処理に対応する。送信プロセス406fの処理は、送信部160,260,360の処理に対応する。
なお、各プログラム407a〜407fについては、必ずしも最初からハードディスク装置407に記憶させておかなくてもよい。例えば、コンピュータ400に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ400が各プログラム407a〜407fを読み出して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)コンピュータに、
複数の話者の音声が含まれる入力音から複数の音声区間を検出し、
前記複数の音声区間から特徴量をそれぞれ算出し、
前記複数の音声区間に対する話者の感情をそれぞれ判定し、
第1の感情と判定された音声区間の特徴量から、前記第1の感情とは異なる第2の感情と判定された音声区間の特徴量までの変化ベクトルを基にして、複数の特徴量をクラスタリングする
処理を実行させることを特徴とする音声処理プログラム。
(付記2)前記クラスタリングする処理は、前記第1の感情と判定された各音声区間の第1特徴量を複数のクラスタに分類し、前記複数のクラスタのうち一つのクラスタと、前記第2の感情と判定された各音声区間の複数の第2特徴量のうち一つの第2特徴量とを結ぶ変化ベクトルを、前記クラスタと前記第2特徴量との組み合わせに基づいて生成し、複数の変化ベクトルの方向の類似性が最大となるクラスタと第2特徴量との組み合わせを特定することを特徴とする付記1に記載の音声処理プログラム。
(付記3)前記変化ベクトルを基にして、前記第2の感情と判定された各音声区間の特徴量を補正する処理を更に実行し、前記クラスタリングする処理は、前記第1の感情と判定された各音声区間の特徴量、および、補正された各特徴量をクラスタリングすることを特徴とする付記1または2に記載の音声処理プログラム。
(付記4)前記クラスタリングする処理は、平常感情と判定された各音声区間の複数の特徴量に対してクラスタリングしたクラスタのうち一つのクラスタと、平常感情以外の感情と判定された各音声区間の複数の特徴量のうち一つの特徴量とを結ぶことで、前記変化ベクトルを生成することを特徴とする付記1、2または3に記載の音声処理プログラム。
(付記5)前記クラスタリングの結果を基にして、特徴量に対応する音声区間と、話者とを対応付ける処理を更に実行することを特徴とする付記1〜4のいずれか一つに記載の音声処理プログラム。
(付記6)前記クラスタリングする処理は、前記複数の変化ベクトル間のコサイン類似度またはピアソンの相関係数を基にして、前記類似性を評価することを特徴とする付記2に記載の音声処理プログラム。
(付記7)前記判定する処理は、前記音声区間に含まれる音声の特徴量を基にして、前記話者の感情を判定することを特徴とする付記1〜6のいずれか一つに記載の音声処理プログラム。
(付記8)前記判定する処理は、話者の顔画像を基にして、前記話者の感情を判定することを特徴とする付記1〜7のいずれか一つに記載の音声処理プログラム。
(付記9)前記判定する処理は、話者の生体情報を基にして、前記話者の感情を判定することを特徴とする付記1〜8のいずれか一つに記載の音声処理プログラム。
(付記10)前記算出する処理は、前記音声区間の特徴量として、調波性、周期性または信号強度に関する特徴量を算出することを特徴とする付記1〜9のいずれか一つに記載の音声処理プログラム。
(付記11)前記算出する処理は、前記音声区間の特徴量として、前記入力音のスペクトルの相関性、フォルマント周波数、前記入力音の自己相関係数、ピッチ周波数、前記入力音のパワー、SNR(Signal-Noise ratio)、スペクトルパワーのいずれかを抽出することを特徴とする付記10に記載の音声処理プログラム。
(付記12)前記算出する処理は、前記音声区間の情報と話者とを対応付けた学習データを用いて学習された深層学習モデルを基にして、特徴量を算出することを特徴とする付記1〜11のいずれか一つに記載の音声処理プログラム。
(付記13)コンピュータが実行する音声処理方法であって、
複数の話者の音声が含まれる入力音から複数の音声区間を検出し、
前記複数の音声区間から特徴量をそれぞれ算出し、
前記複数の音声区間に対する話者の感情をそれぞれ判定し、
第1の感情と判定された音声区間の特徴量から、前記第1の感情とは異なる第2の感情と判定された音声区間の特徴量までの変化ベクトルを基にして、複数の特徴量をクラスタリングする
処理を実行することを特徴とする音声処理方法。
(付記14)複数の話者の音声が含まれる入力音から複数の音声区間を検出する検出部と、
前記複数の音声区間から特徴量をそれぞれ算出する算出部と、
前記複数の音声区間に対する話者の感情をそれぞれ判定する判定部と、
第1の感情と判定された音声区間の特徴量から、前記第1の感情とは異なる第2の感情と判定された音声区間の特徴量までの変化ベクトルを基にして、複数の特徴量をクラスタリングするクラスタリング部と
を有することを特徴とする音声処理装置。
21 スマートスピーカ
21a マイク
21b スピーカ
25 ネットワーク
26,45 サーバ
100,200,300 音声処理装置
110,210,310 取得部
120,220,320 検出部
130,230,330 算出部
140,240,340 判定部
150,250,350 クラスタリング部
160,260,360 送信部

Claims (14)

  1. コンピュータに、
    複数の話者の音声が含まれる入力音から複数の音声区間を検出し、
    前記複数の音声区間から特徴量をそれぞれ算出し、
    前記複数の音声区間に対する話者の感情をそれぞれ判定し、
    第1の感情と判定された音声区間の特徴量から、前記第1の感情とは異なる第2の感情と判定された音声区間の特徴量までの変化ベクトルを基にして、複数の特徴量をクラスタリングする
    処理を実行させることを特徴とする音声処理プログラム。
  2. 前記クラスタリングする処理は、前記第1の感情と判定された各音声区間の第1特徴量を複数のクラスタに分類し、前記複数のクラスタのうち一つのクラスタと、前記第2の感情と判定された各音声区間の複数の第2特徴量のうち一つの第2特徴量とを結ぶ変化ベクトルを、前記クラスタと前記第2特徴量との組み合わせに基づいて生成し、複数の変化ベクトルの方向の類似性が最大となるクラスタと第2特徴量との組み合わせを特定することを特徴とする請求項1に記載の音声処理プログラム。
  3. 前記変化ベクトルを基にして、前記第2の感情と判定された各音声区間の特徴量を補正する処理を更に実行し、前記クラスタリングする処理は、前記第1の感情と判定された各音声区間の特徴量、および、補正された各特徴量をクラスタリングすることを特徴とする請求項1または2に記載の音声処理プログラム。
  4. 前記クラスタリングする処理は、平常感情と判定された各音声区間の複数の特徴量に対してクラスタリングしたクラスタのうち一つのクラスタと、平常感情以外の感情と判定された各音声区間の複数の特徴量のうち一つの特徴量とを結ぶことで、前記変化ベクトルを生成することを特徴とする請求項1、2または3に記載の音声処理プログラム。
  5. 前記クラスタリングの結果を基にして、特徴量に対応する音声区間と、話者とを対応付ける処理を更に実行することを特徴とする請求項1〜4のいずれか一つに記載の音声処理プログラム。
  6. 前記クラスタリングする処理は、前記複数の変化ベクトル間のコサイン類似度またはピアソンの相関係数を基にして、前記類似性を評価することを特徴とする請求項2に記載の音声処理プログラム。
  7. 前記判定する処理は、前記音声区間に含まれる音声の特徴量を基にして、前記話者の感情を判定することを特徴とする請求項1〜6のいずれか一つに記載の音声処理プログラム。
  8. 前記判定する処理は、話者の顔画像を基にして、前記話者の感情を判定することを特徴とする請求項1〜7のいずれか一つに記載の音声処理プログラム。
  9. 前記判定する処理は、話者の生体情報を基にして、前記話者の感情を判定することを特徴とする請求項1〜8のいずれか一つに記載の音声処理プログラム。
  10. 前記算出する処理は、前記音声区間の特徴量として、調波性、周期性または信号強度に関する特徴量を算出することを特徴とする請求項1〜9のいずれか一つに記載の音声処理プログラム。
  11. 前記算出する処理は、前記音声区間の特徴量として、前記入力音のスペクトルの相関性、フォルマント周波数、前記入力音の自己相関係数、ピッチ周波数、前記入力音のパワー、SNR(Signal-Noise Ratio)、スペクトルパワーのいずれかを抽出することを特徴とする請求項10に記載の音声処理プログラム。
  12. 前記算出する処理は、前記音声区間の情報と話者とを対応付けた学習データを用いて学習された深層学習モデルを基にして、特徴量を算出することを特徴とする請求項1〜11のいずれか一つに記載の音声処理プログラム。
  13. コンピュータが実行する音声処理方法であって、
    複数の話者の音声が含まれる入力音から複数の音声区間を検出し、
    前記複数の音声区間から特徴量をそれぞれ算出し、
    前記複数の音声区間に対する話者の感情をそれぞれ判定し、
    第1の感情と判定された音声区間の特徴量から、前記第1の感情とは異なる第2の感情と判定された音声区間の特徴量までの変化ベクトルを基にして、複数の特徴量をクラスタリングする
    処理を実行することを特徴とする音声処理方法。
  14. 複数の話者の音声が含まれる入力音から複数の音声区間を検出する検出部と、
    前記複数の音声区間から特徴量をそれぞれ算出する算出部と、
    前記複数の音声区間に対する話者の感情をそれぞれ判定する判定部と、
    第1の感情と判定された音声区間の特徴量から、前記第1の感情とは異なる第2の感情と判定された音声区間の特徴量までの変化ベクトルを基にして、複数の特徴量をクラスタリングするクラスタリング部と
    を有することを特徴とする音声処理装置。
JP2019017950A 2019-02-04 2019-02-04 音声処理プログラム、音声処理方法および音声処理装置 Active JP7230545B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019017950A JP7230545B2 (ja) 2019-02-04 2019-02-04 音声処理プログラム、音声処理方法および音声処理装置
US16/742,493 US11721357B2 (en) 2019-02-04 2020-01-14 Voice processing method and voice processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019017950A JP7230545B2 (ja) 2019-02-04 2019-02-04 音声処理プログラム、音声処理方法および音声処理装置

Publications (2)

Publication Number Publication Date
JP2020126125A true JP2020126125A (ja) 2020-08-20
JP7230545B2 JP7230545B2 (ja) 2023-03-01

Family

ID=71837820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019017950A Active JP7230545B2 (ja) 2019-02-04 2019-02-04 音声処理プログラム、音声処理方法および音声処理装置

Country Status (2)

Country Link
US (1) US11721357B2 (ja)
JP (1) JP7230545B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021171956A1 (ja) * 2020-02-25 2021-09-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 話者識別装置、話者識別方法、及び、プログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117953919A (zh) * 2022-10-31 2024-04-30 腾讯科技(深圳)有限公司 数据处理方法、装置、设备、存储介质及计算机程序产品
CN117746905B (zh) * 2024-02-18 2024-04-19 百鸟数据科技(北京)有限责任公司 基于时频持续性分析的人类活动影响评估方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001215993A (ja) * 2000-01-31 2001-08-10 Sony Corp 対話処理装置および対話処理方法、並びに記録媒体
JP2004252085A (ja) * 2003-02-19 2004-09-09 Fujitsu Ltd 音声変換システム及び音声変換プログラム
JP2014123239A (ja) * 2012-12-21 2014-07-03 Hitachi Ltd 渋滞情報配信システム、サーバ、車載端末、及びプログラム
JP2016507772A (ja) * 2012-12-27 2016-03-10 ゼットティーイー コーポレーションZte Corporation 音声データの伝送方法及び装置
JP2016102860A (ja) * 2014-11-27 2016-06-02 日本放送協会 音声加工装置、及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007017853A1 (en) * 2005-08-08 2007-02-15 Nice Systems Ltd. Apparatus and methods for the detection of emotions in audio interactions
US8788270B2 (en) * 2009-06-16 2014-07-22 University Of Florida Research Foundation, Inc. Apparatus and method for determining an emotion state of a speaker
WO2011011413A2 (en) * 2009-07-20 2011-01-27 University Of Florida Research Foundation, Inc. Method and apparatus for evaluation of a subject's emotional, physiological and/or physical state with the subject's physiological and/or acoustic data
JP5494468B2 (ja) 2010-12-27 2014-05-14 富士通株式会社 状態検出装置、状態検出方法および状態検出のためのプログラム
KR102191306B1 (ko) * 2014-01-22 2020-12-15 삼성전자주식회사 음성 감정 인식 시스템 및 방법
JP6720520B2 (ja) 2015-12-18 2020-07-08 カシオ計算機株式会社 感情推定器生成方法、感情推定器生成装置、感情推定方法、感情推定装置及びプログラム
US10896428B1 (en) * 2017-12-14 2021-01-19 Amazon Technologies, Inc. Dynamic speech to text analysis and contact processing using agent and customer sentiments
CN110998725B (zh) * 2018-04-19 2024-04-12 微软技术许可有限责任公司 在对话中生成响应

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001215993A (ja) * 2000-01-31 2001-08-10 Sony Corp 対話処理装置および対話処理方法、並びに記録媒体
JP2004252085A (ja) * 2003-02-19 2004-09-09 Fujitsu Ltd 音声変換システム及び音声変換プログラム
JP2014123239A (ja) * 2012-12-21 2014-07-03 Hitachi Ltd 渋滞情報配信システム、サーバ、車載端末、及びプログラム
JP2016507772A (ja) * 2012-12-27 2016-03-10 ゼットティーイー コーポレーションZte Corporation 音声データの伝送方法及び装置
JP2016102860A (ja) * 2014-11-27 2016-06-02 日本放送協会 音声加工装置、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021171956A1 (ja) * 2020-02-25 2021-09-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 話者識別装置、話者識別方法、及び、プログラム

Also Published As

Publication number Publication date
JP7230545B2 (ja) 2023-03-01
US11721357B2 (en) 2023-08-08
US20200251129A1 (en) 2020-08-06

Similar Documents

Publication Publication Date Title
CN107799126B (zh) 基于有监督机器学习的语音端点检测方法及装置
JP5708155B2 (ja) 話者状態検出装置、話者状態検出方法及び話者状態検出用コンピュータプログラム
JP4796309B2 (ja) モバイル・デバイス上のマルチセンサによるスピーチ改良のための方法および装置
US7729914B2 (en) Method for detecting emotions involving subspace specialists
JP2021527840A (ja) 声紋識別方法、モデルトレーニング方法、サーバ、及びコンピュータプログラム
JP7230545B2 (ja) 音声処理プログラム、音声処理方法および音声処理装置
US9047866B2 (en) System and method for identification of a speaker by phonograms of spontaneous oral speech and by using formant equalization using one vowel phoneme type
JP3584458B2 (ja) パターン認識装置およびパターン認識方法
JP4572218B2 (ja) 音楽区間検出方法、音楽区間検出装置、音楽区間検出プログラム及び記録媒体
JP2003508804A (ja) 音源をクラス分けするためのシステムおよび方法
JP2013222113A (ja) 音検出装置、音検出方法、音特徴量検出装置、音特徴量検出方法、音区間検出装置、音区間検出方法およびプログラム
US20170287489A1 (en) Synthetic oversampling to enhance speaker identification or verification
Gao et al. Wearable audio monitoring: Content-based processing methodology and implementation
CN110570870A (zh) 一种文本无关的声纹识别方法、装置及设备
CN110400565A (zh) 说话人识别方法、系统及计算机可读存储介质
TW202221624A (zh) 沖壓品質檢測系統及沖壓品質檢測方法
CN111710332A (zh) 语音处理方法、装置、电子设备及存储介质
JP6268916B2 (ja) 異常会話検出装置、異常会話検出方法及び異常会話検出用コンピュータプログラム
Zhang et al. Articulatory movement features for short-duration text-dependent speaker verification
Dov et al. Multimodal kernel method for activity detection of sound sources
JP2021021749A (ja) 検出プログラム、検出方法、検出装置
JP5272141B2 (ja) 音声処理装置およびプログラム
Shakeel et al. Metric-based multimodal meta-learning for human movement identification via footstep recognition
Wróbel et al. Identification of Humans Using Hand Clapping Sounds
Yang Algorithms for affective and ubiquitous sensing systems and for protein structure prediction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230130

R150 Certificate of patent or registration of utility model

Ref document number: 7230545

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150