JP6705142B2 - 音質判定装置及びプログラム - Google Patents

音質判定装置及びプログラム Download PDF

Info

Publication number
JP6705142B2
JP6705142B2 JP2015183718A JP2015183718A JP6705142B2 JP 6705142 B2 JP6705142 B2 JP 6705142B2 JP 2015183718 A JP2015183718 A JP 2015183718A JP 2015183718 A JP2015183718 A JP 2015183718A JP 6705142 B2 JP6705142 B2 JP 6705142B2
Authority
JP
Japan
Prior art keywords
unit
tilt
overtone
sound
sound quality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015183718A
Other languages
English (en)
Other versions
JP2017058536A (ja
Inventor
隆一 成山
隆一 成山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2015183718A priority Critical patent/JP6705142B2/ja
Priority to PCT/JP2016/076180 priority patent/WO2017047453A1/ja
Publication of JP2017058536A publication Critical patent/JP2017058536A/ja
Priority to US15/920,532 priority patent/US10453478B2/en
Application granted granted Critical
Publication of JP6705142B2 publication Critical patent/JP6705142B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/60Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • G10H1/06Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Description

本発明は、音質をリアルタイムに判定する技術に関する。
発声の技法として裏声又はファルセットと呼ばれる技法が存在する。これらは、特に高いピッチ(音高)に対応する発音を作り出すための技法であり、アーティストの間でも一般的に用いられる技法である。そのため、近年では、表声(地声)及び裏声を含む発声を客観的に評価する技術を開発する動きがある(特許文献1)。
特開2014−130227号公報
しかしながら、特許文献1に記載された技術では、評価部において機械学習を行う必要があり、膨大なデータが必要になるという問題があった。
本発明の課題の一つは、膨大なデータを必要とせず、リアルタイムに音質を判定することにある。
本発明の一実施形態による音質判定装置は、入力音を取得する取得部と、前記取得部によって取得された前記入力音の周波数分布を算出する周波数分布算出部と、前記周波数分布算出部によって算出された前記周波数分布に基づいて、周波数に対する倍音の強度の変化を示すチルトを算出するチルト算出部と、前記チルト算出部によって算出されたチルトと、当該チルトに関連した閾値とを比較するチルト比較部と、前記チルト比較部によって比較された結果に基づいて、前記入力音が所定の音質であるか否かを判定する判定部と、を備えることを特徴とする。
上記音質判定装置は、さらに、前記周波数分布算出部によって算出された前記周波数分布に基づいて、基音の周波数に対する倍音の周波数の比率を示す倍音比率を算出する倍音比率算出部と、前記倍音比率算出部によって算出された倍音比率と、当該倍音比率に関連した閾値とを比較する倍音比率比較部と、を備え、前記判定部は、チルト比較部によって比較された結果及び前記倍音比率比較部によって比較された結果に基づいて、前記入力音が所定の音質であるか否かを判定してもよい。
また、本発明の他の実施形態による音質判定装置は、入力音を取得する取得部と、前記入力音取得部によって取得された前記入力音の周波数分布を算出する周波数分布算出部と、前記周波数分布算出部によって算出された前記周波数分布に基づいて、基音に対する倍音の比率を示す倍音比率を算出する倍音比率算出部と、前記倍音比率算出部によって算出された倍音比率と、当該倍音比率に関連した閾値とを比較する倍音比率比較部と、前記倍音比率比較部によって比較された結果に基づいて、前記入力音が所定の音質であるか否かを判定する判定部と、を備えることを特徴とする。
前記チルトに関連した閾値、または倍音比率に関連した閾値としては、前記周波数分布における基音の周波数を用いて導出された値を用いてもよい。これらの閾値は、所定の演算式により導出されてもよいし、予めチルトまたは倍音比率と閾値とを関連付けたルックアップテーブルから導出してもよい。前記閾値を所定の演算式により導出する場合、当該演算式のパラメータを変更可能なパラメータ変更部をさらに備えてもよい。
また、前記入力音の入力期間において出力される伴奏音を選択する選択部をさらに備えてもよく、前記パラメータ変更部は、選択された前記伴奏音に関連付けられた情報に基づいて前記パラメータを変更してもよい。
上述した音質判定装置において、前記判定部は、前記チルトが所定の基準を満たすとき、前記所定の音質であると判定してもよいし、前記チルトが所定の基準を所定時間継続して満たすとき、前記所定の音質であると判定してもよい。
また、本発明の一実施形態によるプログラムは、コンピュータに、入力音を取得し、
取得された前記入力音の周波数分布を算出し、算出された前記周波数分布に基づいて、周波数に対する倍音の強度の変化を示すチルトを算出し、算出されたチルトと、当該チルトに関連した閾値とを比較し、比較された結果に基づいて、前記入力音が所定の音質であるか否かを判定することを実行させる。
また、本発明の他の実施形態によるプログラムは、コンピュータに、入力音を取得し、取得された前記入力音の周波数分布を算出し、算出された前記周波数分布に基づいて、基音に対する倍音の比率を示す倍音比率を算出し、算出された倍音比率と、当該倍音比率に関連した閾値とを比較し、比較された結果に基づいて、前記入力音が所定の音質であるか否かを判定することを実行させる。
上述した構成によれば、膨大なデータを必要とせず、リアルタイムに音質を判定することが可能となる。
本発明の第1実施形態における音質判定装置の構成を示すブロック図である。 本発明の第1実施形態における音質判定機能の構成を示すブロック図である。 チルトの概念を説明するための図である。 本発明の第1実施形態における音質判定機能を構成する判定部による裏声判定の概念を説明するための図である。 本発明の第2実施形態における音質判定機能の構成を示すブロック図である。 倍音比率の算出方法を説明するための図である。 本発明の第2実施形態における音質判定機能を構成する判定部による裏声判定の概念を説明するための図である。 ピッチと倍音比率の相関を説明するための図である。 本発明の第3実施形態における音質判定機能の構成を示すブロック図である。 本発明の第3実施形態における音質判定機能を構成する判定部による裏声判定の概念を説明するための図である。 変形例1における音質判定機能の構成を示すブロック図である。 変形例2における音質判定機能の構成を示すブロック図である。 変形例3における音質判定機能の構成を示すブロック図である。
以下、本発明の一実施形態における音質判定装置について、図面を参照しながら詳細に説明する。以下に示す実施形態は、本発明の実施形態の一例であって、本発明はこれらの実施形態に限定されるものではない。
(第1実施形態)
本発明の第1実施形態における音質判定装置10について説明する。第1実施形態における音質判定装置10は、歌唱する利用者(以下、歌唱者という場合がある)の歌唱音声の音質を判定する機能を備えた装置である。音質判定装置10は、ピッチ(基本周波数)の変化に依存した閾値を用いて音質パラメータを評価し、所定の条件を満たした場合に特定の音質であると判定する機能を備えている。
本実施形態では、音質パラメータとして、周波数に対する倍音の強度の変化を示すチルト(詳細は後述する)を用いる例を示し、歌唱音声から、音質として裏声(ファルセット)を判定する例を示す。
[ハードウエア]
図1は、本発明の第1実施形態における音質判定装置10の構成を示すブロック図である。音質判定装置10は、例えば、歌唱採点機能を備えたカラオケ装置である。音質判定装置10は、制御部11、記憶部13、操作部15、表示部17、通信部19、および信号処理部21を含む。また、信号処理部21には、音入力部(例えばマイクロフォン)23及び音出力部(例えばスピーカー)25が接続されている。これらの各構成は、バス27を介して相互に接続されている。
制御部11は、CPUなどの演算処理回路を含む。制御部11は、記憶部13に記憶された制御プログラム13aをCPUにより実行して、各種機能を音質判定装置10において実現させる。実現される機能には、歌唱音声の音質判定機能が含まれる。本実施形態では、音質判定機能の具体例として、歌唱音声から裏声を判定する機能を例示する。
記憶部13は、不揮発性メモリ、ハードディスク等の記憶装置である。記憶部13は、音質判定機能を実現するための制御プログラム13aを記憶する。制御プログラムは、磁気記録媒体、光記録媒体、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記憶した状態で提供されてもよい。この場合には、音質判定装置10は、記録媒体を読み取る装置を備えていればよい。また、制御プログラム13aは、インターネット等のネットワーク経由でダウンロードされてもよい。
また、記憶部13は、歌唱に関するデータとして、楽曲データ13b、及び歌唱音声データ13cを記憶する。楽曲データ13bは、カラオケの歌唱曲に関連するデータ、例えば、ガイドメロディデータ、伴奏データ、歌詞データなどが含まれている。ガイドメロディデータは、歌唱曲のメロディを示すデータである。伴奏データは、歌唱曲の伴奏を示すデータである。ガイドメロディデータおよび伴奏データは、MIDI形式で表現されたデータであってもよい。歌詞データは、歌唱曲の歌詞を表示させるためのデータ、および表示させた歌詞テロップを色替えするタイミングを示すデータである。歌唱音声データ13cは、歌唱者が音入力部23から入力した歌唱音声を示すデータである。この例では、歌唱音声データは、音質判定機能によって歌唱音声に基づいて音質判定がなされるまで、記憶部13に記憶される。
操作部15は、操作パネルおよびリモコンなどに設けられた操作ボタン、キーボード、マウスなどの装置であり、入力された操作に応じた信号を制御部11に出力する。表示部17は、液晶ディスプレイ、有機ELディスプレイ等の表示装置であり、制御部11による制御に基づいた画面が表示される。なお、操作部15と表示部17とは一体としてタッチパネルを構成してもよい。通信部19は、制御部11の制御に基づいて、インターネットやLAN(Local Area Network)などの通信回線と接続して、サーバ等の外部装置と情報の送受信を行う。なお、記憶部13の機能は、通信部19において通信可能な外部装置で実現されてもよい。
信号処理部21は、MIDI形式の信号からオーディオ信号を生成する音源、A/Dコンバータ、D/Aコンバータ等を含む。歌唱音声は、マイクロフォン等の音入力部23において電気信号に変換されて信号処理部21に入力され、信号処理部21においてA/D変換されて制御部11に出力される。上述したように、歌唱音声は、歌唱音声データとして記憶部13に記憶される。また、伴奏データは、制御部11によって読み出され、信号処理部21においてD/A変換され、スピーカー等の音出力部25から歌唱曲の伴奏音として出力される。このとき、ガイドメロディも音出力部25から出力されるようにしてもよい。
[音質判定機能]
音質判定装置10の制御部11が記憶部13に記憶された制御プログラム13aを実行することによって実現される音質判定機能について説明する。なお、以下に説明する音質判定機能を実現する構成の一部または全部は、ハードウエアによって実現されてもよい。
図2は、本発明の第1実施形態における音質判定機能100の構成を示すブロック図である。音質判定機能100は、伴奏出力部101、入力音取得部103、周波数分布算出部105、チルト算出部107、閾値Tth導出部109、比較部111、および判定部113を含む。なお、伴奏出力部101及び閾値Tth導出部109は、音質判定機能100の構成として必須の構成ではないため破線で示している。後述する図5、図9、図11〜図13においても同様に、破線で示す要素(機能)は必須の構成ではない。
伴奏出力部101は、歌唱者に指定された歌唱曲に対応する伴奏データを読み出し、信号処理部21を介して、伴奏音を音出力部25から出力させる。入力音取得部103は、音入力部23から入力された歌唱音声を示す歌唱音声データを取得する。この例では、伴奏音が出力されている期間における音入力部23への入力音を、判定対象の歌唱音声として認識する。なお、入力音取得部103は、歌唱音声データを信号処理部21から直接取得するが、いったん記憶部13に記憶された歌唱音声データを取得するようにしてもよい。また、入力音取得部103は、音入力部23への入力音を示す歌唱音声データを取得する場合に限らず、外部装置への入力音を示す歌唱音声データを、通信部19によりネットワーク経由で取得してもよい。
周波数分布算出部105は、入力音取得部103によって取得された歌唱音声データに対しフレーム(所定期間で区切られたデータサンプル)ごとにフーリエ解析を行い、各フレームにおける周波数分布を算出する。周波数分布算出部105で取得された周波数分布から、各フレームにおける歌唱音声の基音と倍音との関係を求めることができる。
チルト算出部107は、周波数分布算出部105で取得された歌唱音声データの周波数分布からチルト(T)を算出する。ここで、チルトとは、周波数に対する倍音の強度(パワー)の変化を示す値のことをいう。例えば、チルト算出部107は、周波数分布から複数の倍音にそれぞれ対応する複数の強度を求め、それら複数の強度を用いた直線近似により得た一次関数の傾きをチルトとして算出することができる。図3は、チルトの概念を説明するための図である。図3において、横軸は歌唱音声に含まれる周波数成分を対数で取ったものであり、縦軸は各周波数における音の強度を対数で取ったものである。周波数f0は、ピッチ(基本周波数)と呼ばれ、基音の周波数に対応する。また、周波数f1、f2、f3は、それぞれ2倍音、3倍音、4倍音の周波数に対応する。
このとき、例えば、各倍音の強度のピーク値について最小二乗法による直線近似を行うと、一次関数301を得ることができる。一般的に、高い周波数の倍音(高調波)ほど強度が低くなる傾向にあるため、一次関数301は右下がりとなることが多い。そのため、一次関数301を式で表すと、通常はy=−ax+b(「x」及び「y」は、それぞれ図3のx軸及びy軸に対応する変数)となり、このときの定数aを本明細書中では「チルト」と定義する。すなわち、「チルト」とは、周波数の増加分に対して倍音の強度がどのように減少するかを示すパラメータとも言える。
なお、この例では、最小二乗法による直線近似によりチルトを求めているが、周波数の変化に対して倍音の強度がどのように変化するかを示すパラメータを抽出することさえできれば、どのような手法を用いてチルトを求めてもよい。また、「倍音に対応する強度」の一例として倍音の強度のピーク値を用いる例を示したが、各倍音の強度の変化の傾向を表すことが可能な値であれば、ピーク値に限定する必要はない。例えば、倍音の周波数における強度の値(上述したピーク値とは異なる場合がある)を用いてもよいし、倍音の強度を所定範囲で積分して得た面積を用いてもよい。
また、図3の例では、f1からf3(つまり、2倍音から4倍音)までを用いてチルトを求めたが、これに限らず、チルトの算出に用いる倍音は任意に決定することができる。さらに、例えば強度が一定以上の倍音を用いてチルトを算出するようにしてもよい。
閾値Tth導出部109は、チルトに関連した閾値(Tth)として、周波数分布算出部105で取得されたピッチに基づく閾値を導出する。チルトに関連した閾値(Tth)は、ピッチに依存して変化する値であり、所定の演算式(例えば、独立変数をピッチとする関数Ft(F0))を用いて導出することができる。このとき、所定の演算式は、一次関数であってもよいし、2次以上の高次関数であってもよい。さらに、所定の演算式を用いる方式に代えて、予めピッチと閾値とを関連付けたルックアップテーブルから導出してもよい。これらの演算式やルックアップテーブルは、様々な歌唱音声を統計処理するなどして予め求めておけばよい。
比較部111は、チルト算出部107で取得されたチルトと、閾値Tth導出部109で取得されたチルトに関連した閾値とを比較する。そして、チルトと閾値との間の大小関係を示す信号を判定部113に対して出力する。
判定部113は、比較部111から取得したチルトと閾値との間の大小関係を示す信号に基づいて、入力音取得部103で取得された歌唱音声データが裏声を示すものであるか否かを判定する。ここで、上述のチルトに関連した閾値は、任意のピッチにおいて、歌唱音声が裏声であるか否かを判定する指標となる値としての意味を持つ。具体的には、あるフレームにおけるチルトが、そのフレームにおけるピッチに依存した所定の閾値以上である場合(すなわち、上述した一次関数301の傾きを示す定数「a」が、所定の閾値以上である場合)には、そのフレームの歌唱音声は、裏声であると判定される。
図4は、判定部113における裏声判定の概念を説明するための図である。図4において、横軸はピッチ(P)であり、縦軸はチルト(T)である。図4には、前述の閾値(Tth)を導出するための所定の演算式として、関数Ft(P)が示されている。この例では、あるフレームにおけるピッチ(P)が決まると、そのピッチに対応した閾値(Tth)が関数Ft(P)から求まる。判定部113では、チルト算出部107で算出されたチルトと、閾値Tth導出部109で関数Ft(P)から求められた閾値(Tth)とを比較した結果に基づいて、チルトが閾値(Tth)以上であれば、そのフレームの歌唱音声は裏声であると判定する。
図4において、あるフレーム1では、ピッチがP1、チルトがT1となり、T1が閾値(Ft(P1))未満であったとする。この場合、判定部113は、フレーム1の歌唱音声は、表声であると判定する。他方、フレーム1とは異なるフレーム2において、ピッチがP1、チルトがT2となり、T2が閾値(Ft(P2))以上になったとする。この場合、判定部113は、フレーム2の歌唱音声は、裏声であると判定する。なお、ここではフレーム単位で裏声であるか否か判定する例を示したが、所定数以上のフレームが連続して上記条件を満たすときに裏声と判定されるように構成してもよい。
本発明者らの知見によれば、歌唱音声の音質(声質)が裏声に近づくにつれて、図3に示すような周波数分布図においては、2倍音、3倍音、4倍音と高調波になるにしたがって、急激に強度が低くなる傾向がある。つまり、図3に示すように、周波数に対する倍音の強度の変化を示すチルト(傾き)が急峻なものとなる。これ傾向を利用すれば、チルトが算出できれば、それが所定の閾値以上となった場合(すなわち、周波数に対する倍音の強度の変化が急峻である場合)に裏声であると判定できる。上述の関数Ft(P)は、発声する人に依存して変化し得るが、様々な人物の歌唱音声を統計的に処理することにより、予め関数Ft(P)を求めておくことができる。
以上のように、第1実施形態における音質判定装置10は、入力音取得部103から入力した歌唱音声データに対して周波数分布算出部105で周波数解析を行い、その解析結果に基づいて、チルト算出部107で音質パラメータとしてチルトを算出する。その後、算出されたチルトと閾値Tth導出部109から取得したチルトに関連した所定の閾値とを比較部111にて比較する。そして、その比較結果に基づいて、判定部113が、入力した歌唱音声データが裏声を示すデータであるか否かを判定する。このように、周波数解析から判定までの一連の処理は、所定のフレームごとに少ない演算量で実行することが可能であるため、歌唱音声データの蓄積や機械学習が不要である。これにより、膨大なデータを必要とせず、リアルタイムに裏声を判定することが可能となる。
(第2実施形態)
本発明の第2実施形態における音質判定機能100aは、音質パラメータとして、第1実施形態で説明したチルトに加えて倍音比率を用い、チルト及び倍音比率に基づいて裏声判定を行う点で第1実施形態における音質判定機能100とは異なる。ここで、倍音比率とは、基音の周波数に対する倍音の周波数の比率を示すパラメータである。なお、本実施形態では、第1実施形態における音質判定機能100との構成上の差異に注目して説明を行い、同じ部分については同じ符号を付して説明を省略する。
図5は、本発明の第2実施形態における音質判定機能100aの構成を示すブロック図である。音質判定機能100aは、伴奏出力部101、入力音取得部103、周波数分布算出部105、チルト算出部107、閾値Tth導出部109、倍音比率算出部201、閾値Hth導出部203、比較部111a、および判定部113aを含む。
倍音比率算出部201は、周波数分布算出部105から取得した基音の周波数の強度と倍音の周波数の強度とを用いて倍音比率を算出する。ここで、倍音比率の具体的な算出方法の一例について図6を用いて説明する。
図6は、1フレーム分の歌唱音声データにおける周波数分布を示す図である。この例では、基音の周波数f0、倍音の周波数f1〜f3に強度のピークが現れている。倍音比率は、基音の周波数に対する倍音の周波数の比率であるから、「倍音の周波数の強度/基音の周波数の強度」で表すことができる。本実施形態では、各倍音における強度の幅(例えば半値幅W0〜W3)を基準として、各ピークが占める面積A0〜A3を求め、これらの面積A0〜A3を各ピークにおける強度として演算する。したがって、図6に示す周波数分布における倍音比率は、「(A1+A2+A3)/A0」で求められる。
なお、倍音比率の算出方法は、上述した例に限定されるものではない。例えば、半値幅以外の所定の幅を基準として各ピークの面積を求めてもよいし、簡易的に、強度として各ピークの最大ピーク値を用いてもよい。また、倍音比率の算出に使用する倍音は、例えば3倍音または4倍音まで使用したり、特定の周波数帯域に含まれる倍音のみを使用したりするなど、任意に決めることができる。さらに、例えば強度が一定以上の倍音を用いて倍音比率を算出することも可能である。
閾値Hth導出部203は、倍音比率に関連した閾値(Hth)を導出する。倍音比率に関連した閾値(Hth)は、チルトに関連した閾値(Tth)と同様に、ピッチに依存して変化する値である。すなわち、倍音比率に関連した閾値(Hth)も、所定の演算式(例えば、独立変数をピッチとする関数Fh(f0))を用いて導出することができる。所定の演算式は、一次関数であってもよいし、2次以上の高次関数であってもよい。さらに、所定の演算式を用いる方式に代えて、予めピッチと閾値とを関連付けたルックアップテーブルから導出してもよい。これらの演算式やルックアップテーブルは、様々な歌唱音声を統計処理するなどして予め求めておけばよい。
比較部111aは、チルト算出部107で取得されたチルトと閾値Tth導出部109で取得された閾値(Tth)とを比較するとともに、倍音比率算出部201で取得された倍音比率と閾値Hth導出部203で取得された閾値(Hth)とを比較する。そして、チルトと閾値(Tth)との間の大小関係を示す信号及び倍音比率と閾値(Hth)との間の大小関係を示す信号を判定部113aに対して出力する。
判定部113aは、比較部111aから取得したチルトと閾値(Tth)との間の大小関係を示す信号及び倍音比率と閾値(Hth)との間の大小関係を示す信号に基づいて、入力音取得部103で取得された歌唱音声データが裏声を示すものであるか否かを判定する。具体的には、あるフレームにおけるチルトが、閾値(Tth)以上であって、かつ、倍音比率が、閾値(Hth)以下である場合に、そのフレームの歌唱音声は、裏声であると判定される。なお、ここではフレーム単位で裏声であるか否か判定する例を示したが、所定数以上のフレームが連続して上記条件を満たすときに裏声と判定されるように構成してもよい。
図7は、判定部113aにおける裏声判定の概念を説明するための図である。本実施形態の判定部113aでは、図7(a)に示すチルトに基づく判定及び図7(b)に示す倍音比率に基づく判定の両方を用いて裏声であるか否かの判定を行う。図7(a)において、横軸はピッチ(P)、縦軸はチルト(T)であり、関数Ft(P)は、図4と同様に、チルトに関連した閾値(Tth)を導出するための演算式に対応する。また、図7(b)において、横軸はピッチ(P)、縦軸は倍音比率(H)であり、関数Fh(P)は、倍音比率に関連した閾値(Hth)を導出するための演算式に対応する。
図7(a)に示すように、あるフレーム1において、ピッチがP1、チルトがT1となり、T1が閾値(Ft(P1))以上であったとする。この場合、第1実施形態における判定部113では、フレーム1の歌唱音声は、裏声であると判定されるが、本実施形態における判定部113aでは、さらに同一ピッチ(P1)における倍音比率に基づく判定を追加する。例えば、図7(b)に示すように、ピッチがP1のとき、倍音比率がH1となった場合、すなわち倍音比率が閾値(Fh(P1))以下となった場合に、入力された歌唱音声は裏声であると判定される。逆に、ピッチがP1のとき、倍音比率がH2となった場合、すなわち倍音比率が閾値(Fh(P1))を超えた場合には、たとえチルトT1が閾値(Ft(P1))以上であったとしても、入力された歌唱音声は表声であると判定される。
つまり、本実施形態の場合、ピッチ、チルト、及び倍音比率のそれぞれを軸とする三次元座標系において、所定のピッチにおいてチルトが閾値(Ft(P))以上であって、かつ、倍音比率が閾値(Fh(P))以下となる一定の空間に位置する歌唱音声が裏声であると判定されることになる。なお、上述の関数Ft(P)及び関数Fh(P)は、いずれも発生する人に依存して変化し得るが、様々な人物の歌唱音声を統計的に処理することにより、関数Ft(P)及び関数Fh(P)を求めておくことができる。
本発明者らの知見によれば、歌唱音声の音質(声質)が裏声に近づくにつれて、基音に対する倍音の比率が低くなる傾向にある。具体的には、図8に示すように、ピッチを横軸、倍音比率を縦軸にとって歌唱音声の統計をとった場合、相対的に、表声801はピッチが低く倍音比率が高い領域に分布し、裏声802はピッチが高く倍音比率が低い領域に分布する傾向にあることが分かっている。そのため、これら表声801と裏声802との境界を、簡易的に関数Fh(P)により画定することにより、図8において関数Fh(P)以下となる領域を裏声領域と推定することができる。
以上のように、第2実施形態における音質判定機能100aは、音質パラメータとして第1実施形態にて説明したチルトに加えて倍音比率を算出し、これらのチルト及び倍音比率とそれぞれに関連した所定の閾値とを比較する。そして、それらの比較結果に基づいて、入力した歌唱音声データが裏声を示すデータであるか否かを判定する。このように、チルトに加えて倍音比率も裏声判定のための音質パラメータとして用いることにより、第1実施形態にて説明した効果に加えて、さらに裏声判定の精度が向上する。
(第3実施形態)
第2実施形態における音質判定機能100aでは、音質パラメータとしてチルト及び倍音比率の両方を用いた例を示したが、図8を用いて説明したように、倍音比率とピッチの関係から簡易的に裏声であるか否かを判定することも可能である。
本発明の第3実施形態における音質判定機能100bは、音質パラメータとして、第2実施形態で説明した倍音比率に基づいて裏声判定を行うものである。なお、本実施形態では、第1実施形態及び第2実施形態における音質判定機能100、100aとの構成上の差異に注目して説明を行い、同じ部分については同じ符号を付して説明を省略する。
図9は、本発明の第3実施形態における音質判定機能100bの構成を示すブロック図である。音質判定機能100bは、伴奏出力部101、入力音取得部103、周波数分布算出部105、倍音比率算出部201、閾値Hth導出部203、比較部111b、および判定部113bを含む。
第2実施形態にて説明したように、倍音比率算出部201は、周波数分布算出部105から取得した基音の周波数の強度と倍音の周波数の強度とを用いて倍音比率を算出する。また、閾値Hth導出部203は、倍音比率に関連した閾値(Hth)を導出する。
比較部111bは、倍音比率算出部201で取得された倍音比率と閾値Hth導出部203で取得された閾値(Hth)とを比較し、倍音比率と閾値(Hth)との間の大小関係を示す信号を判定部113bに対して出力する。
判定部113bは、比較部111bから取得した倍音比率と閾値(Hth)との間の大小関係を示す信号に基づいて、入力音取得部103で取得された歌唱音声データが裏声を示すものであるか否かを判定する。具体的には、あるフレームにおける倍音比率が、閾値(Hth)以下である場合に、そのフレームの歌唱音声は、裏声であると判定される。
図10は、判定部113bにおける裏声判定の概念を説明するための図である。図10において、横軸はピッチ(P)であり、縦軸は倍音比率(H)である。図10には、第2実施形態にて説明した閾値(Hth)を導出するための所定の演算式として、関数Fh(P)が示されている。この例では、あるフレームにおけるピッチ(P)が決まると、そのピッチに対応した閾値(Hth)が関数Fh(P)から求まる。判定部113bでは、倍音比率算出部201で算出された倍音比率と、閾値Hth導出部203で関数Fh(P)から求められた閾値(Hth)とを比較した結果に基づいて、倍音比率が閾値以下であれば、そのフレームの歌唱音声は裏声であると判定する。
図10において、あるフレーム1では、ピッチがP1、倍音比率がH1となり、倍音比率が閾値(Fh(P1))未満であったとする。この場合、判定部113bは、フレーム1の歌唱音声は、裏声であると判定する。他方、同じピッチP1であっても、倍音比率が閾値以上のH2となった場合には、フレーム1の歌唱音声は表声であると判定される。さらに、たとえ倍音比率がH1であっても、ピッチがP1より低いP2となったことにより、倍音比率が閾値(Fh(P2))を超えれば、その歌唱音声は表声であると判定される。なお、ここではフレーム単位で裏声であるか否か判定する例を示したが、所定数以上のフレームが連続して上記条件を満たすときに裏声と判定されるように構成してもよい。
以上のように、第3実施形態における音質判定機能100bは、音質パラメータとして倍音比率を算出し、倍音比率とそれに関連した所定の閾値とを比較する。そして、その比較結果に基づいて、入力した歌唱音声データが裏声を示すデータであるか否かを判定する。このように、本実施形態における音質判定機能100bによれば、周波数解析から判定までの一連の処理が所定のフレームごとに少ない演算量で実行することが可能である。そのため、歌唱音声データの蓄積や機械学習が不要であり、演算量を抑えつつ、リアルタイムに裏声を判定することが可能である。
(変形例)
以上の各実施形態は、必要に応じて適宜変形が可能である。変形例の一例を以下に示す。これらの変形例は、組み合わせて実施されてもよい。
(変形例1)
第1実施形態における音質判定機能100では、周波数分布算出部105から取得したデータに基づいて、閾値Tth導出部109がチルトに関連した閾値(Tth)を導出し、該閾値とチルトとを比較する例を示した。しかし、裏声になるとチルトが急峻なものとなるという傾向は、あまり大きく人に依存しない場合がある。そのため、簡易的には、閾値を一定値とみなして裏声判定を行うことも可能である。
図11は、変形例1における音質判定機能100cの構成を示すブロック図である。音質判定機能100cは、第1実施形態における音質判定機能100の閾値Tth導出部109が省略され、比較部111cが固定値としての閾値Tthを有する。したがって、音質判定機能100cでは、チルト算出部107で取得されたチルトが比較部111cに入力されると、固定値である閾値Tthとの間で大小関係を比較される。このとき、閾値Tthは、様々な歌唱音声を統計処理するなどして予め求めておけばよい。
これにより、閾値(Tth)を導出する処理を省略することができ、裏声判定の処理全体の負荷を軽減できるとともに、より迅速に裏声判定を行うことが可能となる。
なお、ここでは、第1実施形態における音質判定機能100を例に挙げて、チルトに関連した閾値(Tth)を固定値として閾値Tth導出部を省略する例を示した。しかし、これに限らず、第2実施形態における音質判定機能100aや第3実施形態における音質判定機能100bの倍音比率に関連した閾値(Hth)についても固定値として閾値Hth導出部203を省略することが可能である。この場合においても、比較部111aや111bに閾値Hthをもたせておけばよい。
さらに、第2実施形態の音質判定機能100bにおいては、閾値Tth導出部109及び閾値Hth導出部203の両方を省略することも可能である。この場合、比較部111aに閾値Tth及び閾値Hthをもたせておけばよい。
(変形例2)
上述した各実施形態では、チルトに関連した閾値(Tth)または倍音比率に関連した閾値(Hth)を予め求めておく例を示したが、これらの閾値を導出するための演算式(関数を含む)のパラメータを適宜変更可能としてもよい。例えば、歌唱者が男性であるか女性であるか等の性別、または、大人であるか子どもであるか等の年齢に応じてパラメータを変更し、閾値を導出するための演算式(例えば係数)を変更することができる。このような演算式の設定パラメータの変更は、自動的に行われてもよいし、手動で行われてもよい。手動で行う場合、例えば、図1に示した音質判定装置10において、操作部15を操作することにより、演算式のパラメータを変更すればよい。
図12は、変形例2における音質判定機能100dの構成を示すブロック図である。音質判定機能100dは、第1実施形態における音質判定機能100における閾値Tth導出部109において、関数Ft(f0)の設定パラメータを変更可能としたものである。図12に示すように、音質判定機能100dの閾値Tth導出部109aには、パラメータ変更部205からのデータが入力されている。
パラメータ変更部205は、閾値Tthを導出するための演算式における定数(設定パラメータ)を変更するためのデータを閾値Tth導出部109aに対して出力する。例えば、パラメータ変更部205は、歌唱者が男性である場合と女性である場合とで異なるデータを出力し、前述の演算式の定数を変更することにより、閾値Tth導出部109aで用いられる演算式を男性用の演算式に変更したり女性用の演算式に変更したりすることができる。
このようなパラメータ変更部205を設けることにより、男性の裏声と女性の裏声の音質的な差異を判定部113による裏声判定に反映させることが可能となり、より精度の高い裏声判定が可能となる。なお、ここでは第1実施形態の変形を例に挙げたが、第2実施形態または第3実施形態の音質判定機能に適用できることは勿論である。
(変形例3)
変形例2で説明したパラメータ変更部は、さらに伴奏音に関連づけられた情報に基づいてパラメータを変更するように構成することも可能である。例えば、パラメータ変更部は、伴奏音に関連づけられた、男性パートを示す情報、女性パートを示す情報、子ども用の伴奏音である旨を示す情報等に基づいてパラメータを変更することが可能である。
図13は、変形例3における音質判定機能100eの構成を示すブロック図である。音質判定機能100eは、パラメータ変更部205aに対し、伴奏音を選択する選択部207が接続されている。歌唱者が所望の歌唱曲を指定すると、歌唱曲に対応する伴奏データが選択部207により選択される。選択部207による伴奏データの選択を指示する信号は、伴奏出力部101に入力され、伴奏データが再生される。また、選択部207からは伴奏音に関連づけられた情報がパラメータ変更部205aに入力される。
伴奏音に関連づけられた情報は、伴奏データに付随するデータであってもよいし、伴奏データに関連づけて記憶された別のデータであってもよい。伴奏音に関連づけられた情報として、例えば男性パートを示す情報がパラメータ変更部205aに入力されると、閾値Tth導出部109aの演算式を男性歌唱者用の演算式に変更するべく、パラメータ変更部205aから男性歌唱者用演算式に対応するデータが出力される。
同様に、選択部207から女性パートを示す情報が出力された場合には、パラメータ変更部205aから演算式を女性歌唱者用演算式に設定するためのデータが出力され、子ども用の伴奏音である旨を示す情報が出力された場合には、パラメータ変更部205aから演算式を子ども用演算式に設定するためのデータが出力される。その他、伴奏音に関連づけてファルセットが多用される旨の情報を用意しておけば、裏声判定の精度を上げるように演算式のパラメータを変更することも可能である。
このような選択部207及びパラメータ変更部205aを設けることにより、伴奏音に合わせて、閾値Tth導出部109aにおける演算式のきめ細やかなパラメータ設定が可能となり、より精度の高い裏声判定が可能となる。なお、ここでは第1実施形態の変形を例に挙げたが、第2実施形態または第3実施形態の音質判定機能に適用できることは勿論である。
(変形例4)
上述した各実施形態では、音質判定装置として、歌唱者による歌唱音声から裏声を判定する例を示したが、裏声に限るものではなく、チルトや倍音比率を用いて他の音質を判定することも可能である。例えば、チルトが小さく倍音比率が高めに現れるような歌唱音声である場合に、明るい音質であると判定するなど、チルトまたは倍音比率の音質に依存した傾向を把握することにより、様々な音質を判定することも可能である。
(変形例5)
上述した各実施形態では、人の歌唱音声の音質(声質)を判定する例を示したが、楽器から発せられた音または合成歌唱音(歌詞を構成する文字に応じた音声素片を組み合わせつつ、指定された音高になるように波形を合成することによって生成された歌唱音)の音質を判定することも可能である。楽器からの発音であっても、人の発声と同様に、周波数分布図において、高調波になるにしたがって、急峻に強度が低くなり、周波数に対する倍音の強度の変化を示すチルト(傾き)が急峻なものとなる場合がある。このような場合に、その楽器からの発音が裏声に相当する音質であると判定することができる。このような音質の発音は、基本的にサイン波に近い音となる。
本発明の実施形態として説明した構成を基にして、当業者が適宜構成要素の追加、削除もしくは設計変更を行ったもの、又は、工程の追加、省略もしくは条件変更を行ったものも、本発明の要旨を備えている限り、本発明の範囲に含まれる。
また、上述した実施形態の態様によりもたらされる作用効果とは異なる他の作用効果であっても、本明細書の記載から明らかなもの、又は、当業者において容易に予測し得るものについては、当然に本発明によりもたらされると解される。
10…音質判定装置、11…制御部、13…記憶部、13a…制御プログラム、13b…楽曲データ、13c…歌唱音声データ、15…操作部、17…表示部、19…通信部、21…信号処理部、23…音入力部、25…音出力部、100…音質判定機能、101…伴奏出力部、103…入力音取得部、105…周波数分布算出部、107…チルト算出部、109…閾値Tth導出部、111…比較部、113…判定部

Claims (11)

  1. 入力音を取得する取得部と、
    前記取得部によって取得された前記入力音の周波数分布を算出する周波数分布算出部と、
    前記周波数分布算出部によって算出された前記周波数分布に基づいて、周波数に対する倍音の強度の変化を示すチルトを算出するチルト算出部と、
    前記チルト算出部によって算出されたチルトと、当該チルトに関連した閾値とを比較するチルト比較部と、
    前記チルト比較部によって比較された結果に基づいて、前記入力音が所定の音質であるか否かを判定する判定部と、
    を備えることを特徴とする音質判定装置。
  2. さらに、前記周波数分布算出部によって算出された前記周波数分布に基づいて、基音の周波数に対する倍音の周波数の比率を示す倍音比率を算出する倍音比率算出部と、
    前記倍音比率算出部によって算出された倍音比率と、当該倍音比率に関連した閾値とを比較する倍音比率比較部と、
    を備え、
    前記判定部は、チルト比較部によって比較された結果及び前記倍音比率比較部によって比較された結果に基づいて、前記入力音が所定の音質であるか否かを判定することを特徴とする請求項1に記載の音質判定装置。
  3. 前記チルト算出部は、前記周波数分布から複数の倍音にそれぞれ対応する複数の強度を求め、前記複数の強度を用いた直線近似により得た一次関数の傾きを前記チルトとして算出することを特徴とする請求項1に記載の音質判定装置。
  4. 前記チルトに関連した閾値として、前記周波数分布における基音の周波数を用いて導出された値を用いることを特徴とする請求項1乃至3のいずれか1項に記載の音質判定装置。
  5. 前記倍音比率に関連した閾値として、前記周波数分布における基音の周波数を用いて導出された値を用いることを特徴とする請求項2に記載の音質判定装置。
  6. 入力音を取得する取得部と、
    前記入力音取得部によって取得された前記入力音の周波数分布を算出する周波数分布算出部と、
    前記周波数分布算出部によって算出された前記周波数分布に基づいて、基音に対する倍音の比率を示す倍音比率を算出する倍音比率算出部と、
    前記倍音比率算出部によって算出された倍音比率と、当該倍音比率に関連した閾値とを比較する倍音比率比較部と、
    前記倍音比率比較部によって比較された結果に基づいて、前記入力音が所定の音質であるか否かを判定する判定部と、
    を備え
    前記閾値は、所定の演算式により導出され、
    前記演算式のパラメータを変更可能なパラメータ変更部をさらに備えることを特徴とする音質判定装置。
  7. 前記倍音比率に関連した閾値として、前記周波数分布における基音の周波数を用いて導出された値を用いることを特徴とする請求項6に記載の音質判定装置。
  8. 前記閾値は、所定の演算式により導出され、
    前記演算式のパラメータを変更可能なパラメータ変更部をさらに備えることを特徴とする請求項1乃至のいずれか1項に記載の音質判定装置。
  9. 前記入力音の入力期間において出力される伴奏音を選択する選択部をさらに備え、
    前記パラメータ変更部は、選択された前記伴奏音に関連付けられた情報に基づいて前記パラメータを変更することを特徴とする請求項に記載の音質判定装置。
  10. コンピュータに、
    入力音を取得し、
    取得された前記入力音の周波数分布を算出し、
    算出された前記周波数分布に基づいて、周波数に対する倍音の強度の変化を示すチルトを算出し、
    算出されたチルトと、当該チルトに関連した閾値とを比較し、
    比較された結果に基づいて、前記入力音が所定の音質であるか否かを判定することを実行させるためのプログラム。
  11. コンピュータに、
    入力音を取得し、
    取得された前記入力音の周波数分布を算出し、
    算出された前記周波数分布に基づいて、基音に対する倍音の比率を示す倍音比率を算出し、
    算出された倍音比率と、当該倍音比率に関連した所定の演算式により導出される閾値とを比較し、
    比較された結果に基づいて、前記入力音が所定の音質であるか否かを判定し、
    前記演算式のパラメータを変更することを実行させるためのプログラム。

JP2015183718A 2015-09-17 2015-09-17 音質判定装置及びプログラム Expired - Fee Related JP6705142B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015183718A JP6705142B2 (ja) 2015-09-17 2015-09-17 音質判定装置及びプログラム
PCT/JP2016/076180 WO2017047453A1 (ja) 2015-09-17 2016-09-06 音質判定装置及び記録媒体
US15/920,532 US10453478B2 (en) 2015-09-17 2018-03-14 Sound quality determination device, method for the sound quality determination and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015183718A JP6705142B2 (ja) 2015-09-17 2015-09-17 音質判定装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2017058536A JP2017058536A (ja) 2017-03-23
JP6705142B2 true JP6705142B2 (ja) 2020-06-03

Family

ID=58289169

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015183718A Expired - Fee Related JP6705142B2 (ja) 2015-09-17 2015-09-17 音質判定装置及びプログラム

Country Status (3)

Country Link
US (1) US10453478B2 (ja)
JP (1) JP6705142B2 (ja)
WO (1) WO2017047453A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6728754B2 (ja) * 2015-03-20 2020-07-22 ヤマハ株式会社 発音装置、発音方法および発音プログラム
JP6759545B2 (ja) * 2015-09-15 2020-09-23 ヤマハ株式会社 評価装置およびプログラム
CN114242044B (zh) * 2022-02-25 2022-10-11 腾讯科技(深圳)有限公司 语音质量评估方法、语音质量评估模型训练方法及装置
CN114400022B (zh) * 2022-03-25 2022-08-23 北京荣耀终端有限公司 音质比对的方法、设备和存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW430778B (en) * 1998-06-15 2001-04-21 Yamaha Corp Voice converter with extraction and modification of attribute data
US20060089836A1 (en) * 2004-10-21 2006-04-27 Motorola, Inc. System and method of signal pre-conditioning with adaptive spectral tilt compensation for audio equalization
EP2256724A1 (en) * 2008-03-19 2010-12-01 Pioneer Corporation Overtone production device, acoustic device, and overtone production method
EP2410522B1 (en) * 2008-07-11 2017-10-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio signal encoder, method for encoding an audio signal and computer program
US8788276B2 (en) * 2008-07-11 2014-07-22 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for calculating bandwidth extension data using a spectral tilt controlled framing
JP4709928B1 (ja) * 2010-01-21 2011-06-29 株式会社東芝 音質補正装置及び音質補正方法
EP2362376A3 (en) * 2010-02-26 2011-11-02 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Apparatus and method for modifying an audio signal using envelope shaping
JP5957798B2 (ja) * 2011-03-16 2016-07-27 ヤマハ株式会社 裏声検出装置および歌唱評価装置
US8548803B2 (en) * 2011-08-08 2013-10-01 The Intellisis Corporation System and method of processing a sound signal including transforming the sound signal into a frequency-chirp domain
JP6150276B2 (ja) * 2012-12-28 2017-06-21 国立大学法人三重大学 発声評価装置、発声評価方法、及びプログラム
US9672843B2 (en) * 2014-05-29 2017-06-06 Apple Inc. Apparatus and method for improving an audio signal in the spectral domain

Also Published As

Publication number Publication date
US20180204588A1 (en) 2018-07-19
WO2017047453A1 (ja) 2017-03-23
US10453478B2 (en) 2019-10-22
JP2017058536A (ja) 2017-03-23

Similar Documents

Publication Publication Date Title
US10789921B2 (en) Audio extraction apparatus, machine learning apparatus and audio reproduction apparatus
US10453478B2 (en) Sound quality determination device, method for the sound quality determination and recording medium
WO2018084305A1 (ja) 音声合成方法
JP6690181B2 (ja) 楽音評価装置及び評価基準生成装置
WO2019107378A1 (ja) 音声合成方法、音声合成装置およびプログラム
JP5223433B2 (ja) 音声データ処理装置およびプログラム
US11842720B2 (en) Audio processing method and audio processing system
Xue et al. Acoustic and articulatory analysis and synthesis of shouted vowels
JP2018077283A (ja) 音声合成方法
JP5509536B2 (ja) 音声データ処理装置およびプログラム
JP6488767B2 (ja) 歌唱評価装置およびプログラム
JP7124870B2 (ja) 情報処理方法、情報処理装置およびプログラム
JP5618743B2 (ja) 歌唱音声評価装置
JP7419768B2 (ja) 楽曲生成方法および楽曲生成システム
Miyazaki et al. Building a measurement model for simulating naturalness of vibrato based on subjective evaluation
JP6144592B2 (ja) 歌唱採点システム
JP7127682B2 (ja) 情報処理方法、情報処理装置およびプログラム
WO2016039463A1 (ja) 音響解析装置
WO2016039465A1 (ja) 音響解析装置
US20210350783A1 (en) Sound signal synthesis method, neural network training method, and sound synthesizer
JP5262875B2 (ja) 追従性評価システム,カラオケシステムおよびプログラム
JP5697395B2 (ja) 歌唱音声評価装置およびプログラム
JP2018077280A (ja) 音声合成方法
RU2591640C1 (ru) Способ модификации голоса и устройство для его осуществления (варианты)
JP2015079065A (ja) 合成情報管理装置および音声合成装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200414

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200427

R151 Written notification of patent or utility model registration

Ref document number: 6705142

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees