JP6759545B2 - 評価装置およびプログラム - Google Patents

評価装置およびプログラム Download PDF

Info

Publication number
JP6759545B2
JP6759545B2 JP2015181642A JP2015181642A JP6759545B2 JP 6759545 B2 JP6759545 B2 JP 6759545B2 JP 2015181642 A JP2015181642 A JP 2015181642A JP 2015181642 A JP2015181642 A JP 2015181642A JP 6759545 B2 JP6759545 B2 JP 6759545B2
Authority
JP
Japan
Prior art keywords
feature amount
input sound
unit
evaluation
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015181642A
Other languages
English (en)
Other versions
JP2017058441A (ja
Inventor
隆一 成山
隆一 成山
辰弥 寺島
辰弥 寺島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2015181642A priority Critical patent/JP6759545B2/ja
Priority to PCT/JP2016/076135 priority patent/WO2017047447A1/ja
Priority to CN201680052018.3A priority patent/CN108028051A/zh
Publication of JP2017058441A publication Critical patent/JP2017058441A/ja
Priority to US15/894,291 priority patent/US10497348B2/en
Application granted granted Critical
Publication of JP6759545B2 publication Critical patent/JP6759545B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/005Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/051Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or detection of onsets of musical sounds or notes, i.e. note attack timings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Auxiliary Devices For Music (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)

Description

本発明は、リズム感を評価する技術に関する。
歌唱音声を解析して評価する機能が備えられているカラオケ装置が増加している。歌唱音声は、例えば、歌唱音声のピッチと歌唱すべきメロディのピッチとを比較し、これらの一致の程度に基づいて評価される。また、様々な評価方法を用いることにより、より精度の高い評価ができる。様々な評価方法の一つとして、例えば、リズム感が重視されるような楽曲の歌唱を評価する技術が開発されている(例えば、特許文献1)。
特開2013−190564号公報
特許文献1に開示された技術では、楽曲の模範となる音声と歌唱した音声とを特徴量で比較してリズム感の評価を行っている。この評価によれば、楽曲の模範音に近い歌唱ができているか否かの評価を、リズム感という観点から行うことができる。一方、模範音を用いずにリズム感の評価を行うことも望まれている。
本発明の目的の一つは、模範音とは関係なく、入力音のリズム感を評価することにある。
本発明の一実施形態によると、入力音を取得する取得部と、前記取得部によって取得された入力音から特徴量を算出する特徴量算出部と、前記特徴量算出部によって算出された特徴量に基づいて、前記取得部によって取得された入力音に含まれる各音の開始点に対応する区切位置を検出する検出部と、前記検出部によって検出された複数の区切位置に基づいて、当該複数の区切位置の規則性の高さに関する評価値を算出する評価値算出部と、を備えることを特徴とする評価装置が提供される。
また、前記特徴量は、前記入力音の音量レベルに対応する値を含み、前記検出部は、前記特徴量に対応する前記音量レベルが、予め決められた閾値より低いレベルから高いレベルに遷移する位置に基づいて、前記区切位置を検出してもよい。
前記検出部は、前記区切位置を検出する際に、所定の区間毎に、予め決められたルールにしたがって前記閾値を変更してもよい。
前記音量レベルは、所定の周波数帯域における前記入力音の音量レベルであってもよい。
前記特徴量は、前記入力音の周波数分布のSN比に対応する値を含み、前記検出部は、前記SN比が予め決められた割合以上に減少してから増加に転じた位置に基づいて、さらに前記区切位置を検出してもよい。
前記特徴量は、前記入力音の周波数分布に対応する値を含み、前記検出部は、前記周波数分布の基音の強度が予め決められた閾値より低い強度から高い強度に変化した位置に基づいて、さらに前記区切位置を検出してもよい。
前記特徴量は、前記入力音のピッチに対応する値を含み、前記検出部は、前記ピッチの変化が予め決められた幅以上に変化した位置に基づいて、さらに前記区切位置を検出してもよい。
伴奏音を出力する伴奏音出力部をさらに備え、前記取得部は、少なくとも前記伴奏音が出力されている期間に前記入力音を取得してもよい。
また、本発明の一実施形態によると、コンピュータに、入力音を取得し、取得された前記入力音から特徴量を算出し、算出された前記特徴量に基づいて、取得された前記入力音に含まれる各音の開始点に対応する区切位置を検出し、検出された複数の前記区切位置に基づいて、当該複数の区切位置の規則性の高さに関する評価値を算出することを実行させるためのプログラムが提供される。
本発明の一実施形態によれば、模範音とは関係なく、入力音のリズム感を評価することができる。
本発明の第1実施形態における評価装置の構成を示すブロック図である。 本発明の第1実施形態におけるリズム評価機能の構成を示すブロック図である。 本発明の第1実施形態における評価方法を説明する図である。 隣接する区切位置の時間間隔の度数分布の例を示す図である。 本発明の第1実施形態における評価方法において閾値が低い場合の例を説明する図である。 本発明の第1実施形態における評価方法において閾値が高い場合の例を説明する図である。 本発明の第2実施形態におけるリズム評価機能の構成を示すブロック図である。 本発明の第2実施形態における評価方法を説明する図である。 本発明の第1実施形態における評価方法において、子音を含まない歌詞が含まれる場合の例を説明する図である。 本発明の第3実施形態におけるリズム評価機能の構成を示すブロック図である。 本発明の第3実施形態において用いられるSN比を説明する図である。 本発明の第3実施形態における評価方法を説明する図である。 本発明の第4実施形態における評価機能の構成を示すブロック図である。 本発明の第4実施形態における評価方法を説明する図である。
以下、本発明の一実施形態における評価装置について、図面を参照しながら詳細に説明する。以下に示す実施形態は本発明の実施形態の一例であって、本発明はこれらの実施形態に限定されるものではない。なお、本実施形態で参照する図面において、同一部分または同様な機能を有する部分には同一の符号または類似の符号(数字の後にA、B等を付しただけの符号)を付し、その繰り返しの説明は省略する場合がある。
<第1実施形態>
本発明の第1実施形態における評価装置について、図面を参照しながら詳細に説明する。第1実施形態に係る評価装置は、歌唱するユーザ(以下、歌唱者という場合がある)の歌唱音声のリズム感を評価する装置である。この評価装置は、歌唱する楽曲において模範となる音声が無くても、歌唱音声のリズム感を評価することができる。以下、このような評価装置について説明する。
[ハードウエア]
図1は、本発明の第1実施形態における評価装置の構成を示すブロック図である。評価装置1は、例えば、カラオケ装置である。なお、スマートフォン等の携帯装置であってもよい。評価装置1は、制御部11、記憶部13、操作部15、表示部17、通信部19、および信号処理部21を含む。これらの各構成は、バスを介して接続されている。また、信号処理部21には、マイクロフォン23およびスピーカ25が接続されている。
制御部11は、CPUなどの演算処理回路を含む。制御部11は、記憶部13に記憶された制御プログラムをCPUにより実行して、各種機能を評価装置1において実現させる。実現される機能には、歌唱音声のリズム感を評価する機能(以下、リズム評価機能という場合がある)が含まれる。記憶部13は、不揮発性メモリ、ハードディスク等の記憶装置である。記憶部13は、リズム評価機能を実現するための制御プログラムを記憶する。制御プログラムは、コンピュータにより実行可能であればよく、磁気記録媒体、光記録媒体、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記憶した状態で提供されてもよい。この場合には、評価装置1は、記録媒体を読み取る装置を備えていればよい。また、制御プログラムは、ネットワーク経由でダウンロードされてもよい。
また、記憶部13は、歌唱に関するデータとして、楽曲データ、歌唱音声データ、および評価基準情報を記憶する。楽曲データは、カラオケの歌唱曲に関連するデータ、例えば、ガイドメロディデータ、伴奏データ、歌詞データなどが含まれている。ガイドメロディデータは、歌唱曲のメロディを示すデータである。伴奏データは、歌唱曲の伴奏を示すデータである。ガイドメロディデータおよび伴奏データは、MIDI形式で表現されたデータであってもよい。歌詞データは、歌唱曲の歌詞を表示させるためのデータ、および表示させた歌詞テロップを色替えするタイミングを示すデータである。これらのデータは、外部サーバから取得してもよい。歌唱音声データは、歌唱者がマイクロフォン23から入力した歌唱音声を示すデータである。この例では、歌唱音声データは、リズム評価機能によって歌唱音声が評価されるまで、記憶部13にバッファされる。評価基準情報は、リズム評価機能が歌唱音声の評価の基準として用いる情報である。例えば、後述する閾値を決定するためのルールを規定した情報、および評価値を算出するための演算式の情報等が含まれる。
操作部15は、操作パネルおよびリモコンなどに設けられた操作ボタン、キーボード、マウスなどの装置であり、入力された操作に応じた信号を制御部11に出力する。この操作部15によって、例えば、楽曲の選択等、カラオケ装置において一般的に行われる入力操作が可能である。表示部17は、液晶ディスプレイ、有機ELディスプレイ等の表示装置であり、制御部11による制御に基づいた画面が表示される。なお、操作部15と表示部17とは一体としてタッチパネルを構成してもよい。通信部19は、制御部11の制御に基づいて、インターネットなどの通信回線と接続して、サーバ等の外部装置と情報の送受信を行う。なお、記憶部13の機能は、通信部19において通信可能な外部装置で実現されてもよい。
信号処理部21は、MIDI形式の信号からオーディオ信号を生成する音源、A/Dコンバータ、D/Aコンバータ等を含む。歌唱音声は、マイクロフォン23において電気信号に変換されて信号処理部21に入力され、信号処理部21においてA/D変換されて制御部11に出力される。上述したように、歌唱音声は、歌唱音声データとして記憶部13にバッファされる。また、伴奏データは、制御部11によって読み出され、信号処理部21においてD/A変換され、スピーカ25から歌唱曲の伴奏として出力される。このとき、ガイドメロディもスピーカ25から出力されるようにしてもよい。
[リズム評価機能]
評価装置1の制御部11が制御プログラムを実行することによって実現されるリズム評価機能について説明する。なお、以下に説明するリズム評価機能を実現する構成の一部または全部は、ハードウエアによって実現されてもよい。
図2は、本発明の第1実施形態におけるリズム評価機能の構成を示すブロック図である。リズム評価機能100は、取得部101、特徴量算出部103、検出部105、および評価値算出部107を含む。取得部101は、マイクロフォン23から入力された歌唱音声を示す歌唱音声データを取得する。この例では、伴奏音が出力されている期間におけるマイクロフォン23への入力音を、評価対象の歌唱音声として認識する。なお、取得部101は、記憶部13にバッファされた歌唱音声データを取得する。記憶部13に1曲全体の歌唱音声データが記憶された後に取得してもよいし、所定時間の歌唱音声データがバッファされた後に取得してもよい。また、取得部101は、マイクロフォン23へ入力音を示す歌唱音声データを取得する場合に限らず、外部装置への入力音を示す歌唱音声データを、通信部19によりネットワーク経由で取得してもよい。
特徴量算出部103は、取得部101によって取得された歌唱音声データを解析し、特徴量の時間的な変化を算出する。この例では、特徴量は、歌唱音声の音量レベルである。
検出部105は、特徴量算出部103において算出された音量レベルに基づいて、歌唱音声に含まれる各音の開始点に対応する区切位置を検出する。各音とは例えば歌詞の各文字の発音に対応する。また、この例では、各音の開始点は子音から母音に切り替わるタイミング、すなわち母音が始まる部分に相当する。各音の開始点に対応する区切位置とは、この開始点と一致する場合に限らず、開始点に基づいて予め決められた処理によって決められる位置である。
日本語では、子音および母音の組み合わせによって発音されるときに、子音の発音期間の音量レベルが、母音の発音期間の音量レベルに比べて小さくなる傾向にある。この傾向は、1文字を単独で発音する場合に限らず、複数文字を連続して発音する場合においても見られる傾向である。検出部105は、このような特徴を利用して、各音の開始点に対応する区切位置を検出する。
図3は、本発明の第1実施形態における評価方法を説明する図である。ここでは、「さ(子音「s」+母音「a」)」、「く(子音「k」+母音「u」)」、「ら(子音「l」+母音「a」)」の文字を歌唱した場合において、音量レベルの時間変化を例示した。この音量変化は、図3に示すスペクトルVSである。この時間は、歌唱音声が入力されてから(評価開始のタイミングから)経過した時間を示している。いずれの文字の発音においても、子音の発音期間において音量レベルが下がる傾向が見られている。
検出部105は、複数の文字が連続して発音される場合であっても、このように子音部分で音量レベルが低下する部分を利用して、区切位置を検出する。この例では、検出部105は、音量レベルの閾値Vthを決定し、Vthより低いレベルから高いレベルに遷移した点を区切位置として検出する。図3の例では、区切位置は、時間ts1、ts2、ts3、・・・として検出される。Vthは、予め決められた音量レベルであればよく、この例では、音量レベルのバックグラウンドのレベルVbと音量レベルの最大レベルVpとに基づいて決められる。例えば、単位をdBとした場合に、Vth=Vp×0.9(Vp−Vb)などとして、所定の演算式によって決められればよい。Vpは、この例では、1曲全体における音量レベルの最大値である。なお、1曲を複数の評価区間に分けておき、予め決められたルールにしたがって、それぞれの評価区間に対応してVthが変更されていってもよい。この場合には、評価区間毎のVbおよびVpを用いてVthが決められればよい。
図2に戻って説明を続ける。評価値算出部107は、検出部105によって検出された複数の区切位置の規則性の高さに関する評価値を算出する。この例では、評価値算出部107は、隣接する区切位置の時間間隔の度数分布を算出し、その分布に基づいて評価値を算出する。この時間間隔は、図3の例であれば、Tw1、Tw2、Tw3が対応している。
図4は、隣接する区切位置の時間間隔の度数分布の例を示す図である。図4は、横軸が隣接する区切位置の時間間隔を示し、縦軸が度数を示している。このように時間間隔の度数分布をとると、周期的なピークが現れる。この例では、時間tp1、tp2、tp3、tp4にピークが現れている。tp1が八分音符の長さに対応する場合、tp2は四分音符の長さ、tp3は付点四分音符の長さ、tp4は二分音符の長さに対応する。したがって、それぞれのピークが、tp1の整数倍からずれている場合には、歌唱のリズムがずれていることを示している。tp1より短い時間においてピークが存在するような場合、最も短い時間のピークを基準として判断することが望ましい。例えば、tp1の1/2の位置にピークが存在する場合、tp1の整数倍以外のピーク、すなわち、1.5倍、2.5倍にもピークが生じやすくなるためである。
また、ピークがずれていなくても、それぞれのピークの幅(例えば、半値幅W1、W2、W3、W4)が大きいほど、歌唱のリズムが安定していないことを示している。このように、評価値算出部107は、上記のピークの位置関係(例えば、ピーク間隔の分散値など)、および各ピークの幅(例えば、ピークの分散値または半値幅など)に応じて評価値を算出する。例えば、ピーク間隔が揃っているほど、またピーク幅が狭いほど、規則性が高い、すなわちリズム感がよいという評価値が算出されるようにすればよい。なお、度数分布の自己相関係数を用いたり、コムフィルタを用いたりすることによって、付点音符などによるピークの拡がりを排除して評価するようにしてもよい。自己相関係数を用いた場合には、係数とピーク間隔とに基づいて、さらにテンポの推定を行ってもよい。
このように、リズム評価機能100を実現した評価装置1によれば、複数文字を連続して発音するような歌唱が含まれていても、歌唱音声の音量レベルの変化から各音の開始点に対応する区切位置を検出することができる。そのため、評価装置1によれば、楽曲毎の模範音のような比較の基準となるデータを用いなくても、複数の区切位置の規則性の高さに関する評価値を算出することによって、歌唱者のリズム感の評価をすることができる。なお、この評価値に基づく結果は、表示部17において提示されてもよい。
[閾値Vthによる影響]
ここで、音量レベルの閾値Vthに関し、低めに設定した場合の閾値Vthbおよび高めに設定した場合の閾値Vthuの影響を説明する。
図5は、本発明の第1実施形態における評価方法において閾値が低い場合の例を説明する図である。図5に示すように、相対的に低い閾値Vthbが採用されると、連続した発音の区間において各音の区切位置の検出が困難になる。その結果、区切位置は、複数の音がまとめて検出され、例えば、フレーズ毎などの大きな単位として検出されることになる。図5の例では、例えば、ts5およびts6に区切位置が検出されて、それらの間隔がTw5となる。このような検出結果になったとしても、一部の区間において、上記のTw1に相当する区切位置の検出ができれば、Tw5がTw1の整数倍からどの程度ずれているかによって、リズム感の程度を判定することができる。
図6は、本発明の第1実施形態における評価方法において閾値が高い場合の例を説明する図である。図6に示すように相対的に高い閾値Vthuが採用されると、音量レベルが小さい音が検出されなくなる。その結果、区切位置は、連続した発音区間における各音の区切位置の一部が検出されなくなる。区切位置の時間間隔が長くなったり、度数分布をとったときの度数が少なくなったりする。図6では、ts7およびts8が検出されて、それらの間隔がTw7となった例である。このTw7は、図3におけるTw3に対応するものである。
このように、閾値Vthは、適切に設定される必要がある。しかしながら、ずれていたとしても、度数が減ったり、複数の音を単位として区切位置が検出されたりするため、結果に与える影響は少ない。なお、上記の閾値Vthを予備的に複数の値で設定し、それぞれにおいて区切位置を検出してもよい。そして、検出された区切位置を参照して、予め決められた方法で、閾値Vthとして正式に設定すべき値を決定してもよい。例えば、閾値Vthを、評価値の算出結果が最も高くなる値としてもよいし、度数分布を算出したときに、所定の度数以上のピークが最も多くなる値としてもよい。このように、閾値Vthは様々に設定可能であるが、その設定については、予め決められたルールに従って決められていれば、どのように決められてもよい。
<第2実施形態>
第2実施形態では、特徴量算出部103において音量レベルを算出する前に、歌唱音声の一部の周波数帯域を除去する機能を備えるリズム評価機能100Aについて説明する。
図7は、本発明の第2実施形態におけるリズム評価機能の構成を示すブロック図である。上述したように、リズム評価機能100Aは、取得部101によって取得された歌唱音声データが示す歌唱音声の一部の周波数帯域を除去するフィルタ部102を含む。この例では、フィルタ部102は、ローパスフィルタまたはバンドパスフィルタであって、歌唱音声の高周波成分を除去する。特徴量算出部103は、高周波成分が除去された特定周波数帯域の歌唱音声を示すデータが入力されて、音量レベルを算出する。この音量レベルは、特定周波数帯域のパワーに対応する。子音は、母音に比べて基音に対して倍音成分およびノイズ成分を多く含むため、高周波成分を除去することにより、子音と母音との音量レベルの差を拡大することができる。
図8は、本発明の第2実施形態における評価方法を説明する図である。フィルタ部102の存在によって、図8に示すように、各音の最初の部分(子音の部分)の音量レベルが他の部分の音量レベルに比べて、相対的に大きく減少する。これによって各音の区切位置を正確に検出することができる閾値Vthのマージンが広がる。また、日本語以外の言語において、例えば中国語では、子音と母音との音量レベルの差が小さい。このような言語に、フィルタ部102を適用することによって、子音部分の音量レベルを低下させることができ、区切位置の検出が容易になる。なお、第1実施形態のようにフィルタ部102を適用しない場合、すなわち、特定周波数帯域にフィルタしない場合の音量レベルを用いた区切位置の検出方法を、第2実施形態における検出方法と併用してもよい。
<第3実施形態>
上記の実施形態では、連続した音であっても子音における音量レベルの減少を利用して、各音の区切位置を検出したが、第3実施形態では、子音がない母音のみの音が含まれていても、区切位置を検出できるようにしたリズム評価機能100Bについて説明する。まず、このような状況に置いて、第1実施形態のリズム評価機能100で区切位置を検出した場合の例を説明する。
図9は、本発明の第1実施形態における評価方法において、子音を含まない歌詞が含まれる場合の例を説明する図である。ここでは、歌詞が「さ(子音「s」+母音「a」)」、「い(母音「i」)」、「た(子音「t」+母音「a」)」である例を示している。したがって、「さ」と「い」との間には子音が存在しないため、音量レベルの減少が見られない。そのため、第1実施形態におけるリズム評価機能100では、区切位置は、ts8、ts10、ts11の位置で検出され、「い」の音の開始点に対応する区切位置は検出されない。そのため、度数分布をとる際に用いられる区切位置の時間間隔は、Tw8、Tw10となる。第3実施形態では、このような場合に、さらに異なる方法で区切位置の検出を試みるようになっている。以下、第3実施形態におけるリズム評価機能100Bについて説明する。
図10は、本発明の第3実施形態におけるリズム評価機能の構成を示すブロック図である。この例では、特徴量算出部103Bは、第1実施形態における特徴量算出部103の機能に対応する音量レベル算出部1031、および周波数分布算出部1032を含む。周波数分布算出部1032では、取得部101において取得された歌唱音声データを解析し、FFT(Fast Fourier Transform)を用いて周波数分布の時間的な変化を算出し、さらに、周波数分布のSN比を算出する。周波数分布のSN比について説明する。
図11は、本発明の第3実施形態において用いられるSN比を説明する図である。歌唱音声の周波数分布のスペクトルFSは、基音f0の他、整数倍の倍音f1、f2、・・・をピークとして含む。それぞれのピークにおいて、半値幅Vf0、Vf1、Vf2、・・・に含まれる領域(ハッチング部分)の積分値をシグナルS(Sf0、Sf1、Sf2,・・・)とし、それ以外の部分をノイズNとして、S/NをSN比として算出する。このとき、所定の倍音(例えば、3倍音)のピークまでを範囲とするなどして、所定の周波数範囲でSN比を算出する。
検出部105Bは、音量レベル算出部1031において算出された音量レベルと、周波数分布算出部1032において算出されたSN比とを用いて、区切位置を検出する。
図12は、本発明の第3実施形態における評価方法を説明する図である。上記のようにして算出されたSN比は、スペクトルDSに示すように、各音の開始点では低く(ノイズN成分が多く)、その後、急激に増加するという傾向を有している。母音のみの音であっても、このような傾向を有している。検出部105Bは、SN比を用いて区切位置を検出するときには、このような傾向を利用している。
検出部105Bは、音量レベルに基づいて、第1実施形態と同様な方法で区切位置を検出する。そして、検出部105Bは、音量レベルを用いて検出できなかった区切位置、すなわち、隣接する区切位置の間において、SN比を用いて他の区切位置を検出する。例えば、検出部105Bは、SN比に対して所定の閾値Vthfを決定する。そして、検出部105Bは、SN比が予め決められた割合以上に減少してから増加に転じた位置、この例ではVthfより低い値から高い値に遷移した位置を区切位置として検出する。このとき、音量レベルに基づいて検出した区切位置から所定時間以上ずれた位置においてのみ区切位置を検出する。例えば、図12の例では、「tsp9」がSN比に基づく区切位置として検出される。この例では「ts8」および「ts10」は、区切位置に近いため、SN比に基づく区切位置としては検出されない。この結果、隣接する区切位置の時間間隔は「Tw8」、「Tw9」、「Tw10」となる。
閾値Vthfは、SN比の最小値と最大値とに基づいて、決められてもよい。例えば、最小値をSNm、最大値をSNpとすると、Vthf=SNp×0.9(SNp−SNm)などとして、所定の演算式によって決められればよい。なお、次に述べるように決められてもよい。音量レベルに基づいて決められた区切位置(図12の例では、「ts8」および「ts10」)のいずれかにおいて、SN比のレベル(図12の例において、区切位置「ts8」であれば、CP8)を閾値Vthfとしてもよい。また、音量レベルに基づいて決められた区切位置に到達する度に閾値Vthfを更新していってもよい。例えば、「ts8」を経過した後「ts10」を経過するまで区間は、「ts8」の時点でのSN比CP8を閾値Vthf8とし、「ts10」の後の区間は「ts10」の時点でのSN比CP10を閾値Vthf10とすればよい。このようにすると、閾値Vthおよび閾値Vthfにおいて間接的に相関関係を持たせることもできる。その結果、異なる方法で区切位置を検出したとしても、その方法の違いによる補正をせずに、区切位置の規則性の評価をすることができる。
このように、連続する音に母音のみの音が含まれることで、リズム評価機能100では音量レベルに基づいて検出できない区切位置があったとしても、SN比を用いたリズム評価機能100Bを用いることで、その区切位置を検出することができる。なお、SN比を用いた区切位置の検出の際に、音量レベルを用いた区切位置の検出については、必ずしも併用する必要はない。この場合には、音量レベル算出部1031は不要である。検出部105Bにおける音量レベルに基づく区切位置の検出も不要である。一方、第3実施形態の構成において、さらに、第2実施形態の構成(特定周波数帯域のパワー)による区切位置の検出を併用してもよい。
<第4実施形態>
第4実施形態では、リズム感以外についても歌唱音声の評価を行う場合の例を説明する。この例では、歌唱音声のピッチの変化についても評価に加えた例について説明する。ここでは、特に、歌唱音声のピッチの比較の対象が楽曲のメロディではない場合、すなわち、楽曲のメロディに依存せずに、歌唱音声のピッチの評価を可能とした場合の構成を説明する。
この例では、評価基準情報は、評価機能が歌唱音声の評価の基準として用いる情報をさらに含む。例えば、評価基準情報には、歌唱技法を検出するための歌唱ピッチの変化(歌唱ピッチ波形)を特定するための情報が含まれる。ビブラート、コブシ、シャクリ、フォールといった歌唱技法であれば、例えば、以下のような歌唱ピッチ波形を示す。
(1)ビブラート:ピッチが細かく(所定周期以下で)高低に変化する。ビブラート検出の具体的な例は、特開2005−107087号公報に開示されている。
(2)コブシ:ピッチが一時的に(所定時間以内で)高くなり、その後、元のピッチに戻る。コブシ検出の具体的な例は、特開2008−268370号公報に開示されている。
(3)シャクリ:ピッチが所定時間かけて高くなり、その後安定する。シャクリ検出の具体的な例は、特開2005−107334号公報に開示されている。
(4)フォール:ピッチが所定時間かけて低くなり、その後、歌唱が途切れる。フォール検出の具体的な例は、特開2008−225115号公報に開示されている。
図13は、本発明の第4実施形態における評価機能の構成を示すブロック図である。評価機能200は、上記のリズム評価機能100と同等の機能を有するリズム評価機能部100Cを備え、さらに、伴奏出力部201、入力音取得部203、ピッチ算出部205、特定区間検出部207、ピッチ比較部209、および評価部211を含む。伴奏出力部201は、歌唱者に指定された歌唱曲に対応する伴奏データを読み出し、信号処理部21を介して、伴奏音をスピーカ25から出力させる。
入力音取得部203は、マイクロフォン23から入力された歌唱音声を示す歌唱音声データを取得する。この例では、伴奏音が出力されている期間におけるマイクロフォン23への入力音を、評価対象の歌唱音声として認識する。なお、入力音取得部203は、記憶部13にバッファされた歌唱音声データを取得するが、記憶部13に1曲全体の歌唱音声データが記憶された後に取得してもよいし、信号処理部21から直接取得してもよい。なお、リズム評価機能部100Cにおける取得部101に相当する機能によって取得される歌唱音声データは、入力音取得部203によって取得された歌唱音声データと同じである。
ピッチ算出部205は、入力音取得部203によって取得された歌唱音声データを解析し、歌唱ピッチ(周波数)の時間的な変化、すなわち歌唱ピッチ波形を算出する。具体的には、歌唱音声の波形のゼロクロスを用いた方法、FFTを用いた方法等、公知の方法で歌唱ピッチ波形が算出される。なお、リズム評価機能部100Cのリズム評価機能が、第3実施形態におけるリズム評価機能100Bに対応する場合には、周波数分布算出部1032において取得された周波数分布を用いて歌唱ピッチを算出してもよい。
特定区間検出部207は、歌唱ピッチ波形を解析し、歌唱音声の入力期間のうち、評価基準情報によって規定された歌唱技法を含む区間(特定区間)を検出する。このとき検出される特定区間は、歌唱技法の種類ごとに対応付けられていてもよい。
ピッチ比較部209は、歌唱音声の入力期間のうち、特定区間検出部207において検出された特定区間を除いた区間を、評価区間として設定する。ピッチ比較部209は、評価区間における歌唱ピッチ波形を、基準ピッチと比較する。比較結果として、この例では、歌唱ピッチ波形と基準ピッチとの不一致度を算出する。複数の基準ピッチが100cent間隔で存在する。そのため、複数の基準ピッチのうち、歌唱ピッチに最も近い基準ピッチが歌唱ピッチの比較対象として選択される。歌唱ピッチ波形と基準ピッチとの差が大きいほど、不一致度が高くなるように算出される。例えば、歌唱ピッチ波形の各サンプルにおける歌唱ピッチと基準ピッチとの差分を評価区間において加算し、加算値を評価区間のサンプル数で除算することによって、不一致度が算出される。
このようにして、メロディに依存しない歌唱評価を行うこともできる。また、この例では、歌唱ピッチと基準ピッチとが、歌唱音声の入力期間全体ではなく、特定区間を除いた区間において比較している。したがって、特定区間における歌唱技法による意図的な歌唱ピッチのずれが、不一致度を増加させてしまわないようにすることもできる。
評価部211は、リズム評価機能部100Cから出力される歌唱のリズム感に関する評価値(評価値算出部107から出力される評価値)と、ピッチ比較部209における比較結果に基づいて、歌唱音声の評価の指標となる評価値を算出する。この例では、ピッチ比較部209で算出された不一致度が低いほど、また、リズム評価機能部100Cから出力される評価値が、リズム感がよい評価であるほど、評価値が高く算出され、歌唱音声の評価が良くなる。
なお、評価部211は、さらに他の要素に基づいて評価値を算出してもよい。他の要素は、歌唱技法および歌唱音声データから抽出可能な他のパラメータなどが想定される。歌唱技法を評価値に反映させる場合には、特定区間検出部207において検出された特定区間に対応する歌唱技法を用いればよい。他のパラメータとしては、例えば、音量変化がある。音量変化を用いれば、歌唱の抑揚を評価に加えることもできる。評価部211による評価結果は、表示部17において提示されてもよい。
上述した評価機能200による歌唱音声の評価方法について、図14に示す具体的な歌唱ピッチの例を用いて説明する。
図14は、本発明の第4実施形態における評価方法を説明する図である。図14に示す波形は、歌唱の一部における歌唱ピッチ波形の例である。縦軸はピッチを示す。ピッチ方向に100centごとに配置された破線は複数の基準ピッチを示している。横軸は時間の経過を示している。特定区間検出部207は、歌唱ピッチ波形から、歌唱技法が存在する特定区間を検出する。図14に示す区間Sは「シャクリ」、区間Fは「フォール」、区間Kは「コブシ」、区間Vは「ビブラート」にそれぞれ対応する特定区間である。したがって、評価区間は、区間S、F、K、Vに対応する特定区間以外となる。
ピッチ比較部209において算出される不一致度は、各サンプルにおける歌唱ピッチと基準ピッチとの差分の加算値に対応している。区間Vにおいては、ビブラートのピッチ変化の特徴から、この加算値が大きくなる。そのため、区間Vを歌唱ピッチと基準ピッチとの比較の対象に含める場合に、ビブラートの歌唱技法を用いた豊かな歌唱であるにもかかわらず、不一致度が大きく算出されて歌唱の評価を下げてしまう場合がある。このような場合であっても、本実施形態における評価装置1のように、区間Vを含む特定区間を除いた評価区間において歌唱ピッチと基準ピッチとの比較をすれば、歌唱技法を用いることによって評価を下げないようにすることもできる。
特定区間では、歌唱ピッチが特定の変化をする場合に、音量レベルについても通常の歌唱とは異なる変化が生じる場合がある。そのため、リズム評価機能部100Cにおけるリズム感の評価においても、特定の歌唱技法を用いている特定区間においては、評価の対象外としてもよい。例えば、特定区間において検出される区切位置については、評価値算出部107が算出する度数分布に反映されないようにすればよい。
<その他の実施形態>
第3実施形態においては、歌唱音声データの周波数分布に基づいてSN比を算出することによって、区切位置をSN比に基づいて検出していた。このように得られた周波数分布を別の用途に用いて区切位置を検出するようにしてもよい。例えば、歌唱音声の周波数分布に基づいて歌唱音声のピッチを算出し、ピッチに基づいて区切位置を検出してもよい。例えば、ピッチの変化が予め決められた幅以上に変化した位置に基づいて、区切位置を検出してもよい。大きくピッチが変化する位置は、異なる音である場合が多いためである。
また、周波数分布に基づいて、基音f0の強度が、予め決められた閾値より低いレベルから高いレベルに変化した位置に基づいて、区切位置を検出してもよい。基音f0の強度が低いレベルから高いレベルに変化する位置は、新たな発音がされた場合が多いためである。なお、これらの区切位置の検出方法は、上記の各実施形態における区切位置の検出方法と併用することもできる。また、それぞれの検出方法を単独で用いることもできる。例えば、音量レベルを用いずに、ピッチまたは基音f0に基づいて、区切位置が検出されてもよい。
第1実施形態では、音量レベルと閾値Vthとの関係に基づいて、区切位置を検出していたが、音量レベルと別のパラメータとの関係に基づいて、区切位置を検出するようにしてもよい。例えば、検出部105は、音量レベルの変動が所定範囲に収まっている領域(フラット領域)を特定する。そして、複数のフラット領域が音量レベルより低くなるディップ領域を挟んで配置されている場合に、ディップ領域の直後において区切位置が検出されてもよい。
入力音取得部203によって取得される歌唱音声データが示す音は、歌唱者による音声に限られず、歌唱合成による音声であってもよいし、楽器音であってもよい。楽器音である場合には、単音演奏であることが望ましい。なお、楽器音である場合には、子音および母音の概念が存在しないが、演奏方法によっては、各音の発音の開始点において歌唱と同様な傾向を有する。したがって、楽器音においても同様の判定ができる場合もある。また、上記のピッチに基づく区切位置の検出、また、基音f0に基づく区切位置の検出についても、楽器音に適用することができる。特に、ピッチが連続的に変化させられない構造の楽器(クラリネット、トランペット等)においては、100cent単位で階段状に変化することが多い。したがって、区切位置の検出が容易である。
また、楽器の操作により特有のノイズが楽器音に含まれる場合がある。例えば、トランペットのピストンの操作音がノイズとして楽器音に含まれる場合がある。このようなノイズは特定周波数帯域に含まれる場合がある。そのため、第2実施形態と同様にして、特定周波数帯域の音量レベル(特定周波数帯域のパワー)のピークとなるタイミング、または所定の閾値を超えて増加するタイミング等を基準として、区切位置が検出されるようにしてもよい。また、上記のノイズは、第3実施形態で示したSN比において特徴的な変化を示す場合がある。そのため、第3実施形態と同様にして、SN比の特徴的な変化を検出することによって、区切位置が検出されるようにしてもよい。
1…評価装置、11…制御部、13…記憶部、15…操作部、17…表示部、19…通信部、21…信号処理部、23…マイクロフォン、25…スピーカ、100…リズム評価機能、101…取得部、102…フィルタ部、103…特徴量算出部、105…検出部、107…評価値算出部、200…評価機能、201…伴奏出力部、203…入力音取得部、205…ピッチ算出部、207…特定区間検出部、209…ピッチ比較部、211…評価部、1031…音量レベル算出部、1032…周波数分布算出部

Claims (10)

  1. 入力音を取得する取得部と、
    前記取得部によって取得された入力音から特徴量を算出する特徴量算出部と、
    前記特徴量算出部によって算出された特徴量に基づいて、前記取得部によって取得された入力音に含まれる各音の開始点に対応する区切位置を検出する検出部と、
    前記検出部によって検出された複数の区切位置のうち隣接する区切位置の時間間隔に基づいて、当該複数の区切位置の規則性の高さに関する評価値を算出する評価値算出部と、
    を備え、
    前記特徴量は、前記入力音の音量レベルに対応する値を含み、
    前記検出部は、前記特徴量に対応する前記音量レベルが、予め決められた閾値より低いレベルから高いレベルに遷移する位置に基づいて、前記区切位置を検出し、
    前記検出部は、前記区切位置を検出する際に、所定の区間毎に、予め決められたルールにしたがって前記閾値を変更することを特徴とする評価装置。
  2. 前記音量レベルは、所定の周波数帯域における前記入力音の音量レベルであることを特徴とする請求項1に記載の評価装置。
  3. 入力音を取得する取得部と、
    前記取得部によって取得された入力音から特徴量を算出する特徴量算出部と、
    前記特徴量算出部によって算出された特徴量に基づいて、前記取得部によって取得された入力音に含まれる各音の開始点に対応する区切位置を検出する検出部と、
    前記検出部によって検出された複数の区切位置のうち隣接する区切位置の時間間隔に基づいて、当該複数の区切位置の規則性の高さに関する評価値を算出する評価値算出部と、
    を備え、
    前記特徴量は、前記入力音の周波数分布のSN比に対応する値を含み、
    前記検出部は、前記SN比が予め決められた割合以上に減少してから増加に転じた位置に基づいて、さらに前記区切位置を検出することを特徴とする評価装置。
  4. 前記特徴量は、前記入力音の周波数分布に対応する値を含み、
    前記検出部は、前記周波数分布の基音の強度が予め決められた閾値より低い強度から高
    い強度に変化した位置に基づいて、さらに前記区切位置を検出することを特徴とする請求項1乃至請求項3のいずれかに記載の評価装置。
  5. 前記特徴量は、前記入力音のピッチに対応する値を含み、
    前記検出部は、前記ピッチの変化が予め決められた幅以上に変化した位置に基づいて、さらに前記区切位置を検出することを特徴とする請求項1乃至請求項4のいずれかに記載の評価装置。
  6. 伴奏音を出力する伴奏出力部をさらに備え、
    前記取得部は、少なくとも前記伴奏音が出力されている期間に前記入力音を取得することを特徴とする請求項1乃至請求項5のいずれかに記載の評価装置。
  7. 入力音を取得する取得部と、
    前記取得部によって取得された入力音から特徴量を算出する特徴量算出部と、
    前記特徴量算出部によって算出された特徴量に基づいて、前記取得部によって取得された入力音に含まれる各音の開始点に対応する区切位置を検出する検出部と、
    前記検出部によって検出された複数の区切位置に基づいて、当該複数の区切位置の規則性の高さに関する評価値を算出する評価値算出部と、
    を備え、
    前記特徴量は、前記入力音の音量レベルに対応する値を含み、
    前記検出部は、前記特徴量に対応する前記音量レベルが、予め決められた閾値より低いレベルから高いレベルに遷移する位置に基づいて、前記区切位置を検出し、
    前記検出部は、前記区切位置を検出する際に、所定の区間毎に、予め決められたルールにしたがって前記閾値を変更することを特徴とする評価装置。
  8. 入力音を取得する取得部と、
    前記取得部によって取得された入力音から特徴量を算出する特徴量算出部と、
    前記特徴量算出部によって算出された特徴量に基づいて、前記取得部によって取得された入力音に含まれる各音の開始点に対応する区切位置を検出する検出部と、
    前記検出部によって検出された複数の区切位置に基づいて、当該複数の区切位置の規則性の高さに関する評価値を算出する評価値算出部と、
    を備え、
    前記特徴量は、前記入力音の周波数分布のSN比に対応する値を含み、
    前記検出部は、前記SN比が予め決められた割合以上に減少してから増加に転じた位置に基づいて、さらに前記区切位置を検出することを特徴とする評価装置。
  9. コンピュータに、
    入力音を取得し、
    取得された前記入力音から特徴量を算出し、
    算出された前記特徴量に基づいて、取得された前記入力音に含まれる各音の開始点に対応する区切位置を検出し、
    検出された複数の前記区切位置に基づいて、当該複数の区切位置の規則性の高さに関する評価値を算出すること
    を実行させるためのプログラムであり、
    前記特徴量は、前記入力音の音量レベルに対応する値を含み、
    前記区切位置を検出することは、前記特徴量に対応する前記音量レベルが、予め決められた閾値より低いレベルから高いレベルに遷移する位置に基づいて行われ、
    前記区切位置を検出することは、前記区切位置を検出する際に、所定の区間毎に、予め決められたルールにしたがって前記閾値を変更することを特徴とするプログラム。
  10. コンピュータに、
    入力音を取得し、
    取得された前記入力音から特徴量を算出し、
    算出された前記特徴量に基づいて、取得された前記入力音に含まれる各音の開始点に対応する区切位置を検出し、
    検出された複数の前記区切位置に基づいて、当該複数の区切位置の規則性の高さに関する評価値を算出すること
    を実行させるためのプログラムであり、
    前記特徴量は、前記入力音の周波数分布のSN比に対応する値を含み、
    前記区切位置を検出することは、前記SN比が予め決められた割合以上に減少してから増加に転じた位置に基づいて、さらに前記区切位置を検出することを特徴とするプログラム。
JP2015181642A 2015-09-15 2015-09-15 評価装置およびプログラム Active JP6759545B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015181642A JP6759545B2 (ja) 2015-09-15 2015-09-15 評価装置およびプログラム
PCT/JP2016/076135 WO2017047447A1 (ja) 2015-09-15 2016-09-06 評価装置および記録媒体
CN201680052018.3A CN108028051A (zh) 2015-09-15 2016-09-06 评估装置和记录介质
US15/894,291 US10497348B2 (en) 2015-09-15 2018-02-12 Evaluation device and evaluation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015181642A JP6759545B2 (ja) 2015-09-15 2015-09-15 評価装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2017058441A JP2017058441A (ja) 2017-03-23
JP6759545B2 true JP6759545B2 (ja) 2020-09-23

Family

ID=58289218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015181642A Active JP6759545B2 (ja) 2015-09-15 2015-09-15 評価装置およびプログラム

Country Status (4)

Country Link
US (1) US10497348B2 (ja)
JP (1) JP6759545B2 (ja)
CN (1) CN108028051A (ja)
WO (1) WO2017047447A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6728754B2 (ja) * 2015-03-20 2020-07-22 ヤマハ株式会社 発音装置、発音方法および発音プログラム
JP6759545B2 (ja) * 2015-09-15 2020-09-23 ヤマハ株式会社 評価装置およびプログラム
JP6690181B2 (ja) * 2015-10-22 2020-04-28 ヤマハ株式会社 楽音評価装置及び評価基準生成装置
CN108630191A (zh) * 2018-07-23 2018-10-09 上海斐讯数据通信技术有限公司 一种模拟不同距离的语音识别成功率的测试系统及方法
JP7169243B2 (ja) * 2019-03-29 2022-11-10 株式会社第一興商 カラオケ装置
US10805223B1 (en) * 2019-04-10 2020-10-13 Dell Products L.P. Systems and methods for handling data congestion for shared buffer switches with dynamic thresholding
CN110111813B (zh) * 2019-04-29 2020-12-22 北京小唱科技有限公司 节奏检测的方法及装置
US20220310047A1 (en) * 2021-03-25 2022-09-29 Yousician Oy User interface for displaying written music during performance

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5521323A (en) * 1993-05-21 1996-05-28 Coda Music Technologies, Inc. Real-time performance score matching
KR950009596A (ko) * 1993-09-23 1995-04-24 배순훈 노래반주용 비디오 기록재생장치 및 방법
KR0144223B1 (ko) * 1995-03-31 1998-08-17 배순훈 가라오케의 채점 방법
JP3299890B2 (ja) * 1996-08-06 2002-07-08 ヤマハ株式会社 カラオケ採点装置
JP3952523B2 (ja) * 1996-08-09 2007-08-01 ヤマハ株式会社 カラオケ装置
US6151571A (en) * 1999-08-31 2000-11-21 Andersen Consulting System, method and article of manufacture for detecting emotion in voice signals through analysis of a plurality of voice signal parameters
DE10123366C1 (de) * 2001-05-14 2002-08-08 Fraunhofer Ges Forschung Vorrichtung zum Analysieren eines Audiosignals hinsichtlich von Rhythmusinformationen
US7421304B2 (en) * 2002-01-21 2008-09-02 Kenwood Corporation Audio signal processing device, signal recovering device, audio signal processing method and signal recovering method
JP2004102148A (ja) * 2002-09-12 2004-04-02 Taito Corp リズム感採点機能を有するカラオケ採点装置
EP1455504B1 (en) * 2003-03-07 2014-11-12 Samsung Electronics Co., Ltd. Apparatus and method for processing audio signal and computer readable recording medium storing computer program for the method
JP4163584B2 (ja) 2003-09-30 2008-10-08 ヤマハ株式会社 カラオケ装置
JP4222915B2 (ja) 2003-09-30 2009-02-12 ヤマハ株式会社 歌唱音声評価装置、カラオケ採点装置及びこれらのプログラム
KR20060128925A (ko) * 2004-01-21 2006-12-14 코닌클리케 필립스 일렉트로닉스 엔.브이. 음악 입력 신호에 대한 템포 애매성의 척도를 결정하기위한 방법 및 시스템
CN101213589B (zh) * 2006-01-12 2011-04-27 松下电器产业株式会社 对象声音分析装置和对象声音分析方法
JP4672613B2 (ja) * 2006-08-09 2011-04-20 株式会社河合楽器製作所 テンポ検出装置及びテンポ検出用コンピュータプログラム
JP4427530B2 (ja) * 2006-09-21 2010-03-10 株式会社東芝 音声認識装置、プログラムおよび音声認識方法
JP5137176B2 (ja) * 2006-11-28 2013-02-06 株式会社タイトー リズムゲーム装置
JP4865607B2 (ja) 2007-03-13 2012-02-01 ヤマハ株式会社 カラオケ装置、歌唱評価方法およびプログラム
JP4910854B2 (ja) 2007-04-17 2012-04-04 ヤマハ株式会社 こぶし検出装置、こぶし検出方法及びプログラム
CN101441865A (zh) * 2007-11-19 2009-05-27 盛趣信息技术(上海)有限公司 演唱类游戏的评分方法及系统
US9253560B2 (en) * 2008-09-16 2016-02-02 Personics Holdings, Llc Sound library and method
CA2685779A1 (en) * 2008-11-19 2010-05-19 David N. Fernandes Automated sound segment selection method and system
US9286911B2 (en) * 2008-12-15 2016-03-15 Audio Analytic Ltd Sound identification systems
CN101859560B (zh) * 2009-04-07 2014-06-04 林文信 卡拉ok歌曲伴唱自动评分方法
JP4513132B2 (ja) * 2009-05-29 2010-07-28 株式会社バンダイナムコゲームス コンピュータ読み取り可能な記録媒体
US9053696B2 (en) * 2010-12-01 2015-06-09 Yamaha Corporation Searching for a tone data set based on a degree of similarity to a rhythm pattern
US8964998B1 (en) * 2011-06-07 2015-02-24 Sound Enhancement Technology, Llc System for dynamic spectral correction of audio signals to compensate for ambient noise in the listener's environment
JP6024130B2 (ja) * 2012-03-13 2016-11-09 ヤマハ株式会社 音声評価装置
CN103514866B (zh) * 2012-06-28 2018-01-16 深圳市咪发发科技有限公司 一种乐器演奏评分的方法及装置
CN103871426A (zh) * 2012-12-13 2014-06-18 上海八方视界网络科技有限公司 对比用户音频与原唱音频相似度的方法及其系统
US20150327802A1 (en) * 2012-12-15 2015-11-19 Tokyo Institute Of Technology Evaluation apparatus for mental state of human being
JP6123995B2 (ja) * 2013-03-14 2017-05-10 ヤマハ株式会社 音響信号分析装置及び音響信号分析プログラム
US9785706B2 (en) * 2013-08-28 2017-10-10 Texas Instruments Incorporated Acoustic sound signature detection based on sparse features
JP2015128507A (ja) * 2014-01-07 2015-07-16 富士通株式会社 評価プログラム、評価方法および評価装置
JP6539941B2 (ja) * 2014-01-07 2019-07-10 富士通株式会社 評価プログラム、評価方法及び評価装置
CN104882147A (zh) * 2015-06-05 2015-09-02 福建星网视易信息系统有限公司 一种演唱评分显示方法、装置及系统
JP6759545B2 (ja) * 2015-09-15 2020-09-23 ヤマハ株式会社 評価装置およびプログラム
JP6705142B2 (ja) * 2015-09-17 2020-06-03 ヤマハ株式会社 音質判定装置及びプログラム
JP6690181B2 (ja) * 2015-10-22 2020-04-28 ヤマハ株式会社 楽音評価装置及び評価基準生成装置
JP6759560B2 (ja) * 2015-11-10 2020-09-23 ヤマハ株式会社 調律推定装置及び調律推定方法
JP6631199B2 (ja) * 2015-11-27 2020-01-15 ヤマハ株式会社 技法判定装置

Also Published As

Publication number Publication date
WO2017047447A1 (ja) 2017-03-23
US20180174561A1 (en) 2018-06-21
JP2017058441A (ja) 2017-03-23
US10497348B2 (en) 2019-12-03
CN108028051A (zh) 2018-05-11

Similar Documents

Publication Publication Date Title
JP6759545B2 (ja) 評価装置およびプログラム
US7582824B2 (en) Tempo detection apparatus, chord-name detection apparatus, and programs therefor
CN105810190B (zh) 音乐内容和实时音乐伴奏的自动转录
US7579546B2 (en) Tempo detection apparatus and tempo-detection computer program
US8158871B2 (en) Audio recording analysis and rating
JP6759560B2 (ja) 調律推定装置及び調律推定方法
US20140278433A1 (en) Voice synthesis device, voice synthesis method, and recording medium having a voice synthesis program stored thereon
US10643638B2 (en) Technique determination device and recording medium
JP2017111268A (ja) 技法判定装置
WO2015111671A1 (ja) 歌唱評価装置、歌唱評価方法及び歌唱評価プログラム
JP2016180965A (ja) 評価装置およびプログラム
JP5585320B2 (ja) 歌唱音声評価装置
JP5131130B2 (ja) 追従性評価システム,カラオケシステムおよびプログラム
JP2007240552A (ja) 楽器音認識方法、楽器アノテーション方法、及び楽曲検索方法
JP5034642B2 (ja) カラオケ装置
Müller et al. Tempo and Beat Tracking
JP6144592B2 (ja) 歌唱採点システム
JP2012078700A (ja) 歌唱音声評価装置
JP5262875B2 (ja) 追従性評価システム,カラオケシステムおよびプログラム
JP6836467B2 (ja) カラオケ装置
JP2017111274A (ja) データ処理装置
JP6175034B2 (ja) 歌唱評価装置
JP2017129787A (ja) 音採譜装置
WO2019092780A1 (ja) 評価装置およびプログラム
JP5697395B2 (ja) 歌唱音声評価装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200817

R151 Written notification of patent or utility model registration

Ref document number: 6759545

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151