JP6690181B2 - 楽音評価装置及び評価基準生成装置 - Google Patents

楽音評価装置及び評価基準生成装置 Download PDF

Info

Publication number
JP6690181B2
JP6690181B2 JP2015208173A JP2015208173A JP6690181B2 JP 6690181 B2 JP6690181 B2 JP 6690181B2 JP 2015208173 A JP2015208173 A JP 2015208173A JP 2015208173 A JP2015208173 A JP 2015208173A JP 6690181 B2 JP6690181 B2 JP 6690181B2
Authority
JP
Japan
Prior art keywords
evaluation
data
feature amount
unit
musical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015208173A
Other languages
English (en)
Other versions
JP2017083484A (ja
Inventor
隆一 成山
隆一 成山
松本 秀一
秀一 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2015208173A priority Critical patent/JP6690181B2/ja
Priority to PCT/JP2016/079770 priority patent/WO2017068990A1/ja
Publication of JP2017083484A publication Critical patent/JP2017083484A/ja
Priority to US15/958,343 priority patent/US10453435B2/en
Application granted granted Critical
Publication of JP6690181B2 publication Critical patent/JP6690181B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/366Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems with means for modifying or correcting the external signal, e.g. pitch correction, reverberation, changing a singer's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/44Tuning means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/081Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for automatic key or tonality recognition, e.g. using musical rules or a knowledge base
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/325Musical pitch modification
    • G10H2210/331Note pitch correction, i.e. modifying a note pitch or replacing it by the closest one in a given scale
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/09Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being zero crossing rates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals

Description

本発明は、楽音(楽器の演奏音、人の歌唱音その他の音楽の音)を評価する技術に関する。
カラオケ装置には、歌唱音声を解析して評価する機能が備えられていることが多い。歌唱の評価には様々な方法が用いられる。その方法の一つとして、例えば、特許文献1には、歌唱者の音声から取得したレベルデータと、オリジナルの楽曲データの中に含まれる基準歌唱音のMIDIメッセージを構成するレベルデータとを比較し、その差に応じて歌唱を評価する技術が開示されている。
特開平10−49183号公報
特許文献1に記載された技術では、歌唱評価のリファレンスとして、基準歌唱音のMIDIメッセージを予め楽曲データの中に含めておく必要がある。逆に言えば、そのような基準歌唱音を含まない楽曲データを用いた場合、歌唱評価を行うことができず、その点において改善の余地があった。
本発明の課題の一つは、リファレンスを含まない楽曲データを用いた楽音の評価を可能とするための技術を提供することにある。
本発明の一実施形態による楽音評価装置は、入力された楽音を取得する楽音取得部と、前記楽音から特徴量を算出する特徴量算出部と、事前に取得された複数の楽音についての特徴量の分布を示す特徴量分布データを取得する特徴量分布データ取得部と、前記特徴量算出部が算出した特徴量と前記特徴量分布データ取得部が取得した前記特徴量分布データとに基づいて、前記入力された楽音に対する評価値を算出する評価値算出部と、前記評価値に基づいて前記楽音を評価する評価部と、を備える。
前記評価値算出部は、前記特徴量の分布の散布度に応じて前記評価値に対する重みづけを行うようにしてもよい。散布度としては、分散または標準偏差を用いることができる。
上述の楽音評価装置は、前記入力された楽音におけるキーシフトの量を判定するキーシフト判定部と、前記キーシフト判定部により判定されたキーシフトの量を用いて、前記特徴量算出部が算出した前記特徴量に対して補正を行うキーシフト補正部と、を備えていてもよい。
上述の楽音評価装置は、前記入力された楽音における区間ごとの特徴を示す情報を含む区間情報を取得する区間情報取得部を備え、前記評価部は、前記区間情報に基づいて前記評価値に対する重みづけを行うようにしてもよい。
また、本発明の一実施形態による評価基準生成装置は、楽音を示す情報を取得する楽音情報取得部と、n個の楽音について特徴量の時間的変化を示す特徴量データを取得する特徴量データ取得部と、前記楽音を示す情報から取得した該楽音の特徴量データと前記n個の楽音の各特徴量データとを用いた統計処理を行い、(n+1)個の楽音における特徴量の分布を示す特徴量分布データを生成する特徴量分布データ生成部と、を備える。
上述の評価基準生成装置は、前記楽音に関する楽曲を識別する識別子と前記特徴量分布データとを対応付けて外部に出力する出力部を備えてもよい。このとき、前記楽曲を識別する識別子は、前記楽音情報取得部によって楽音を示す情報とともに取得されてもよい。
第1実施形態のデータ処理システムの構成を示すブロック図である。 第1実施形態の楽音評価装置の構成を示すブロック図である。 第1実施形態の楽音評価機能の構成を示すブロック図である。 第1実施形態の評価基準生成機能の構成を示すブロック図である。 特徴量データを用いて過去の歌唱音声における代表的なピッチ波形データを抽出する概念図である。 評価対象のピッチ波形データと評価基準のピッチ波形データとを比較した場合の一例を示す図である。 各評価ポイントにおけるピッチの分布状態と、評価対象のピッチと評価基準のピッチとのずれ量を説明するための図である。 第2実施形態の楽音評価機能の構成を示すブロック図である。 第3実施形態の楽音評価機能の構成を示すブロック図である。 特徴量分布データにおける所定の評価ポイントのピッチのヒストグラムを示す図である。
以下、本発明の一実施形態における評価装置について、図面を参照しながら詳細に説明する。以下に示す実施形態は、本発明の実施形態の一例であって、本発明はこれらの実施形態に限定されるものではない。なお、本実施形態で参照する図面において、同一部分または同様な機能を有する部分には同一の符号または類似の符号(数字の後にA、B等を付しただけの符号)を付し、その繰り返しの説明は省略する場合がある。
(第1実施形態)
[データ処理システムの構成]
図1は、本発明の第1実施形態におけるデータ処理システムの構成を示すブロック図である。データ処理システム1000は、評価装置10、データ処理装置20、およびデータベース30を備える。これらの各構成は、インターネット等のネットワーク40を介して接続されている。この例では、複数の評価装置10がネットワーク40に接続されている。評価装置10は、例えば、カラオケ装置であり、この例では歌唱評価が可能なカラオケ装置である。なお、評価装置10は、スマートフォン等の端末装置であってもよい。
本実施形態では、これらの評価装置10において歌唱音声が入力され、データ処理装置20において歌唱音声の特徴量の分布を求める統計処理がなされる。また、歌唱音声データから時系列に求めた特徴量を示すデータ(特徴量データ30a)と、複数の特徴量データに対して統計処理を行うことにより得られた、所定タイミングごとの特徴量の分布を示すデータ(特徴量分布データ30b)とがデータベース30に登録される。
本実施形態では、歌唱音声の特徴量として、歌唱音声のピッチ(基本周波数)を用い、特徴量データとして、歌唱音声データから算出されたピッチの時間的な変化を示すデータ(以下「ピッチ波形データ」という)を用いる。また、特徴量分布データとして、複数のピッチ波形データの統計処理により求めた、所定タイミングごとのピッチの度数分布を示すデータを用いる。このとき、特徴量データは、評価装置10において算出されたものであってもよいし、データ処理装置20において算出されたものであってもよい。
以上のように、データベース30には、各評価装置10またはデータ処理装置20において歌唱音声から生成された特徴量データ30aが、楽音ごとに関連付けられて登録され、複数の特徴量データ30aから生成された特徴量分布データ30bが楽曲ごと(例えば歌唱音声に関連する楽曲を識別する識別子ごと)に関連付けられて登録されている。
なお、図1では、データ処理装置20とデータベース30とがネットワーク40を介して接続される構成を示しているが、これに限らず、データベース30がデータ処理装置20に対して物理的に接続された構成としてもよい。また、データベース30には、特徴量データだけでなく、その元となった歌唱音声データも登録してあってもよい。
[データ処理装置の構成]
図1に示すように、データ処理装置20は、制御部21、記憶部23、および通信部25を含む。制御部21は、CPUなどの演算処理回路を含む。制御部21は、記憶部23に記憶された制御プログラム23aをCPUにより実行して、各種機能をデータ処理装置20において実現する。実現される機能には、歌唱音声の特徴量に対して統計処理を行い、歌唱音声の評価基準となる特徴量分布データを生成する機能(評価基準生成機能)が含まれる。評価基準生成機能については後述する。
記憶部23は、不揮発性メモリ、ハードディスク等の記憶装置である。記憶部23は、評価基準生成機能を実現するための制御プログラム23aを記憶する。制御プログラム23aは、コンピュータにより実行可能であればよく、磁気記録媒体、光記録媒体、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記憶した状態で提供されてもよい。この場合には、データ処理装置20は、記録媒体を読み取る装置を備えていればよい。また、制御プログラム23aは、ネットワーク40を経由して外部サーバ等からダウンロードされてもよい。通信部25は、制御部21の制御に基づいて、ネットワーク40に接続して、ネットワーク40に接続された外部装置と情報の送受信を行う。
[評価装置の構成]
本発明の第1実施形態における評価装置10について説明する。図2は、本発明の第1実施形態における評価装置10の構成を示すブロック図である。評価装置10は、例えば、歌唱採点機能を備えたカラオケ装置である。評価装置10は、制御部11、記憶部13、操作部15、表示部17、通信部19、および信号処理部21を含む。また、信号処理部21には、楽音入力部(例えばマイクロフォン)23及び楽音出力部(例えばスピーカー)25が接続されている。これらの各構成は、バス27を介して相互に接続されている。
制御部11は、CPUなどの演算処理回路を含む。制御部11は、記憶部13に記憶された制御プログラム13aをCPUにより実行して、各種機能を評価装置10において実現させる。実現される機能には、歌唱音声の評価機能が含まれる。本実施形態では、歌唱音声の評価機能の具体例として、カラオケにおける歌唱の採点機能を例示する。
記憶部13は、不揮発性メモリ、ハードディスク等の記憶装置である。記憶部13は、評価機能を実現するための制御プログラム13aを記憶する。制御プログラムは、磁気記録媒体、光記録媒体、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記憶した状態で提供されてもよい。この場合には、評価装置10は、記録媒体を読み取る装置を備えていればよい。また、制御プログラム13aは、インターネット等のネットワーク経由でダウンロードされてもよい。
また、記憶部13は、歌唱に関するデータとして、楽曲データ13b、歌唱音声データ13c、及び分布データ13dを記憶する。楽曲データ13bは、カラオケの歌唱曲に関連するデータ、例えば、伴奏データ、歌詞データなどが含まれている。伴奏データは、歌唱曲の伴奏を示すデータである。伴奏データは、MIDI形式で表現されたデータであってもよい。歌詞データは、歌唱曲の歌詞を表示させるためのデータ、及び表示させた歌詞テロップを色替えするタイミングを示すデータである。なお、楽曲データ13bは、歌唱曲のメロディを示すガイドメロディデータを含んでいてもよい。本実施形態では、ガイドメロディデータが無くても歌唱評価が可能であるが、有っても何ら差し支えない。
歌唱音声データ13cは、歌唱者が楽音入力部23から入力した歌唱音声を示すデータである。つまり、記憶部13は、歌唱音声データのバッファとして機能する。本実施形態では、歌唱音声データ13cは、評価機能によって歌唱音声の評価がなされるまで記憶部13に記憶される。また、歌唱音声の評価が終了した後は、歌唱音声データ13cをデータ処理装置20またはデータベース30に送信するようにしてもよい。
特徴量分布データ13dは、複数の歌唱音声のピッチ波形データについての統計処理の結果を示すデータである。例えば、特徴量分布データ13dとしては、過去に歌唱された複数の歌唱音声について、それぞれのピッチ波形データを用いて統計処理を行い、その結果得られた各タイミングにおけるピッチの度数分布を示すデータを用いることができる。また、特徴量分布データ13dには、度数分布から算出することが可能な各種統計値を含めることができ、例えば散布度(標準偏差、分散)や代表値(最頻値、中央値、平均値)などを含めることができる。この特徴量分布データ13dが、歌唱音声の評価における評価基準となる。
操作部15は、操作パネルおよびリモコンなどに設けられた操作ボタン、キーボード、マウスなどの装置であり、入力された操作に応じた信号を制御部11に出力する。表示部17は、液晶ディスプレイ、有機ELディスプレイ等の表示装置であり、制御部11による制御に基づいた画面が表示される。なお、操作部15と表示部17とは一体としてタッチパネルを構成してもよい。通信部19は、制御部11の制御に基づいて、インターネットやLAN(Local Area Network)などの通信回線と接続して、サーバ等の外部装置と情報の送受信を行う。なお、記憶部13の機能は、通信部19において通信可能な外部装置で実現されてもよい。
信号処理部21は、MIDI形式の信号からオーディオ信号を生成する音源、A/Dコンバータ、D/Aコンバータ等を含む。歌唱音声は、マイクロフォン等の楽音入力部23において電気信号に変換されて信号処理部21に入力され、信号処理部21においてA/D変換されて制御部11に出力される。上述したように、歌唱音声は、歌唱音声データとして記憶部13に記憶される。また、伴奏データは、制御部11によって読み出され、信号処理部21においてD/A変換され、スピーカー等の楽音出力部25から歌唱曲の伴奏音として出力される。このとき、ガイドメロディも楽音出力部25から出力されるようにしてもよい。
[楽音評価機能]
評価装置10の制御部11が記憶部13に記憶された制御プログラム13aを実行することによって実現される楽音評価機能について説明する。なお、以下に説明する楽音評価機能を実現する構成の一部または全部は、ハードウエアによって実現されてもよい。また、以下に説明する楽音評価機能は、楽音評価方法または楽音評価プログラムとしても把握することができる。つまり、楽音評価機能を構成する各要素において実行される処理(または当該処理を実行する命令)を、それぞれ楽音評価方法(または楽音評価プログラム)の構成として把握してもよい。
図3は、本発明の第1実施形態における楽音評価機能100の構成を示すブロック図である。楽音評価機能100は、楽音取得部101、特徴量算出部103、特徴量分布データ取得部105、評価値算出部107、及び評価部109を含む。
楽音取得部101は、入力された歌唱音声を示す歌唱音声データを取得する。この例では、伴奏音が出力されている期間における楽音入力部23への入力音を、評価対象の歌唱音声として認識する。なお、本実施形態では、楽音取得部101は、記憶部13に記憶された歌唱音声データ13cを取得するが、信号処理部21から直接取得するように構成してもよい。また、楽音取得部101は、楽音入力部23への入力音を示す歌唱音声データを取得する場合に限らず、外部装置への入力音を示す歌唱音声データを、通信部19によりネットワーク経由で取得してもよい。
特徴量算出部103は、楽音取得部101によって取得された歌唱音声データに対して、例えばフーリエ解析を行い、歌唱音声の特徴量としてピッチを時系列に算出する。ピッチの算出は、時間的に連続して行われてもよいし、所定の間隔を空けて行われてもよい。また、本実施形態では、フーリエ解析を用いる例を示したが、歌唱音声の波形のゼロクロスを用いた方法など、その他の公知の方法を用いてもよい。
なお、特徴量算出部103で時系列に算出された特徴量は、いったん記憶部13に記憶された後、楽曲を識別する識別子と共にネットワーク40を介してデータベース30に送信され、特徴量データ30aとして登録される。勿論、特徴量のデータベース30への送信は、データ処理装置20を経由して行われてもよい。また、このとき、特徴量算出部103は、記憶部13に記憶された楽曲データ13bから楽曲を識別する識別子を取得してもよい。
特徴量分布データ取得部105は、記憶部13に記憶された特徴量分布データ13dを取得する。本実施形態では、データベース30からネットワーク40を介してダウンロードされた特徴量分布データを通信部19で受信し、それを一旦記憶部13に記憶しておく例を示す。しかし、これに限らず、ダウンロードした特徴量分布データをそのまま取得することも可能である。
なお、特徴量分布データは、入力された楽音に関連付けられたものを取得する。すなわち、楽音取得部101で取得された歌唱音声に関連した楽曲に関連付けられた特徴量分布データを取得する。この関連付けは、例えば楽曲を識別する識別子を用いて行うことができる。この場合、楽曲を識別する識別子は、楽音取得部101において取得すればよい。
評価値算出部107は、特徴量算出部103から出力された評価対象となる歌唱音声のピッチと、特徴量分布データ取得部105で取得された特徴量分布データとに基づいて歌唱評価(採点)の基礎となる評価値を算出する。例えば、評価値算出部107では、評価対象となるタイミング(以下「評価ポイント」という)における歌唱音声のピッチと、同一タイミングにおける過去の複数の歌唱音声のピッチの分布との関係に基づいて、当該分布から評価対象のピッチがどの程度乖離しているかを求める。そして、その乖離の度合いが大きいほど評価値を低くする算出するなどして、評価ポイントごとに歌唱音声の評価を行うことができる。
評価部109は、評価値算出部107から出力された評価値に応じて歌唱音声の評価を行う。評価の仕方は様々な方法を採用することができ、例えば評価値算出部107から出力された評価値をそのまま用いてもよいし、評価ポイントごとの重要性や難易度に応じて各評価値に対して重みづけを行って歌唱音声を評価してもよい。
以上のように、本実施形態における楽音評価機能100は、過去から現在に至るまで蓄積された複数の歌唱音声をいわゆるビッグデータとして活用し、それら歌唱音声の特徴量の分布を示す情報を用いて各評価装置10における歌唱評価を可能とする。なお、楽音評価機能100は、単独のコンピュータで実現されてもよいし、複数のコンピュータの協働により実現されてもよい。例えば、楽音取得部101、特徴量算出部103、特徴量分布データ取得部105、評価値算出部107、及び評価部109の一部又は全部が異なるコンピュータで実現され、これらのコンピュータがネットワークを介した通信を行うことにより、楽音評価機能100が実現されてもよい。
[評価基準生成機能]
データ処理装置20の制御部21が記憶部23に記憶された制御プログラム23aを実行することによって実現される評価基準生成機能について説明する。なお、以下に説明する評価基準生成機能を実現する構成の一部または全部は、ハードウエアによって実現されてもよい。また、以下に説明する評価基準生成機能は、評価基準生成方法または評価基準生成プログラムとしても把握することができる。つまり、評価基準生成機能を構成する各要素において実行される処理(または当該処理を実行する命令)を、それぞれ評価基準生成方法(または評価基準生成プログラム)の構成として把握してもよい。
図4は、本発明の第1実施形態における評価基準生成機能200の構成を示すブロック図である。評価基準生成機能200は、楽音情報取得部201、特徴量データ取得部203、特徴量分布データ生成部205、及び出力部207を含む。なお、出力部207は、必要に応じて設ければよく、必須の構成ではないため点線で示してある。
楽音情報取得部201は、楽音を示す情報を取得する。本実施形態では、楽音を示す情報として、図1に示す各評価装置10で取得された歌唱音声データを、ネットワーク40を介して取得する。つまり、楽音情報取得部201には、ネットワーク40を介して接続される複数の評価装置10から、複数の歌唱音声データが収集される。なお、楽音を示す情報としては、歌唱音声データのような楽音データそのものだけでなく、楽音データから算出したピッチなどの特徴量を取得してもよい。
特徴量データ取得部203は、データベース30から特徴量データ30aを取得する。前述のとおり、特徴量データとは、歌唱音声データから時系列に求めた特徴量の示すデータである。本実施形態の場合、データベース30には、過去に各評価装置10で歌唱された複数の歌唱音声についてのピッチ波形データが楽曲ごとに記憶されている。特徴量データ取得部203は、これらのピッチ波形データを取得することにより、過去に歌唱された複数の歌唱音声のピッチ波形データを取得することができる。
特徴量分布データ生成部205は、楽音情報取得部201から入力された歌唱音声データと、特徴量データ取得部203から入力された特徴量データとに基づいて、特徴量分布データを生成する。具体的には、楽音情報取得部201から入力された歌唱音声データを解析して算出したピッチ波形データと、特徴量データ取得部203から取得したピッチ波形データ(過去に蓄積されたピッチ波形データ)とを合わせ、統計処理を行うことにより、各タイミングにおけるピッチの度数分布を示すデータを生成する。
ピッチの度数分布は、例えばピッチの属するグリッドについて度数を求めればよい。グリッドの幅は、セント単位で任意に決めることができ、例えば、数セントごとや数十セントごとに設定することができる。このとき、グリッドの幅は、母集団の数に応じて決めることが好ましい。具体的には、母集団が大きければグリッド幅を狭く(度数分布の粒度を高く)し、母集団が少なければグリッド幅を広く(度数分布の粒度を低く)すればよい。
また、特徴量分布データ生成部205は、ピッチの度数分布だけでなく、その度数分布から算出される散布度(例えば標準偏差、分散)、代表値(例えば最頻値、中央値、平均値)といった統計値も特徴量分布データに含めることができる。
特徴量データ取得部203から取得したピッチ波形データには、過去に歌唱された複数の歌唱音声について、所定のタイミングごとのピッチが含まれる。つまり、所定のタイミングに着目した場合、過去の様々な歌唱に対応して複数のピッチが存在する。本実施形態では、それら過去の複数のピッチに対して楽音情報取得部201を介して取得した歌唱音声のピッチを追加し、統計処理の母集団を逐次更新することにより、所定のタイミングにおける度数分布を逐次更新することができる。
出力部207は、特徴量分布データ生成部205で生成された特徴量分布データを外部に出力する。例えば、出力部207は、生成した特徴量分布データを、図1に示すネットワーク40を介してデータベース30に出力することができる。勿論、これに限らず、ネットワーク40に接続された他のいかなる装置に対しても出力することが可能である。
なお、楽音情報取得部201は、各評価装置10から出力されたピッチ波形データに加えて、対応する楽曲を識別する識別子を取得してもよい。楽曲を識別する識別子を用いることにより、特徴量データ取得部203は、楽音情報取得部201で取得された歌唱音声データと同一楽曲についての特徴量データを取得することができる。
以上のように、本実施形態における評価基準生成機能200は、過去に歌唱された歌唱音声をネットワーク40上に接続された複数の評価装置10から収集し、それらに基づいて、歌唱評価の基準となる歌唱音声の特徴量の分布を示す情報を生成することができる。これにより、リファレンスを含まない楽曲データを用いた歌唱または演奏においても評価をすることが可能となる。なお、評価基準生成機能200は、単独のコンピュータで実現されてもよいし、複数のコンピュータの協働により実現されてもよい。例えば、楽音情報取得部201、特徴量データ取得部203、及び特徴量分布データ生成部205の一部又は全部が異なるコンピュータで実現され、これらのコンピュータがネットワークを介した通信を行うことにより、評価基準生成機能200が実現されてもよい。
[歌唱評価の一例]
歌唱評価の一例について図5〜7を用いて説明する。図5は、特徴量データを用いて過去の歌唱音声における代表的なピッチ波形データを抽出する概念図である。図5において、横軸は時間、縦軸はピッチである。時間軸上には、複数の評価ポイントEP1、EP2、EP3及びEP4が示されている。なお、評価ポイントは、歌唱評価を実行する所定のタイミングを特定する概念であり、所定の時刻であってもよいし、所定の期間であってもよい。
また、図5では、評価ポイントの一例として4点の評価ポイントを示しているが、評価ポイントをどこに設定するかは任意に決定することができる。また、楽曲全体における歌唱部分の重要度や難易度に応じて評価ポイントの粗密を調整してもよい。例えば、重要度や難易度の高い部分については評価ポイントの数を増やし、低い部分については評価ポイントの数を減らすなどしてもよい。
各評価ポイントの軸上には、過去の歌唱音声におけるピッチの分布を示すヒストグラムPH1、PH2、PH3及びPH4が示されている。つまり、各評価ポイントでは、過去の歌唱音声のピッチが、所定の幅をもって分布していることが分かる。これらは、歌唱音声の歌唱者による音声のばらつきに起因するものであり、この分布の尖度が大きいほど多くの歌唱者が同じように歌唱していることを示し、尖度が小さいほど歌唱者によって歌い方が異なることを意味している。換言すれば、その評価ポイントは、分布の尖度が大きいほど難易度が低く、尖度が小さいほど難易度が高いことを意味しているとも言える。
このとき、各ヒストグラムPH1、PH2、PH3及びPH4それぞれにおける最頻値であるピッチP1、P2、P3及びP4を繋いだピッチ波形データPSは、過去の歌唱音声におけるピッチの代表値を用いたピッチ波形データ(以下「基準ピッチ波形データ」という)となる。このような基準ピッチ波形データPSは、例えば図3に示した評価値算出部107で生成することが可能である。
図6は、評価対象のピッチ波形データと評価基準のピッチ波形データとを比較した場合の一例を示す図である。図6において、評価対象のピッチ波形データPE(以下「評価ピッチ波形データPE」という)は、図3に示した特徴量算出部103で算出された特徴量を時系列に並べた波形データである。図6に示すように、通常、評価ピッチ波形データPEと基準ピッチ波形データPSとの間には「ずれ」が生じる。このずれは、評価対象となっている歌唱者の音高と、過去の大多数の歌唱者による音高とがずれていることを意味する。
図6において、評価ポイントEP2に着目すると、評価ピッチ波形データPE上の点PeにおけるピッチはPe2であり、基準ピッチ波形データPS上の点PsにおけるピッチはPs2である。すなわち、評価ポイントEP2においては、評価ピッチ波形データPEと基準ピッチ波形データPSとの間に、|Pe2−Ps2|に相当するずれ量が発生していることが示されている。本実施形態では、このずれ量を、図3に示した評価値算出部107における評価値の算出に用いる。
図7は、各評価ポイントにおけるピッチの分布状態と、評価対象のピッチと評価基準のピッチとのずれ量を説明するための図である。図7(A)は、評価ポイントEP1におけるピッチの分布状態、図7(B)は、評価ポイントEP2におけるピッチの分布状態、図7(C)は、評価ポイントEP4におけるピッチの分布状態を示している。
図7(A)において、評価ポイントEP1におけるピッチの分布状態DS1は、ほぼ正規分布を示し、過去の歌唱音声のピッチに偏りが少ないことを示している。このとき、分布状態DS1におけるピークに対応するピッチPs1と、評価対象の歌唱音声におけるピッチPe1との間には、ずれ量Pd1(=|Pe1−Ps1|)が存在する。
評価値算出部107では、ずれ量Pd1を用いて評価値を算出する。例えば、第1閾値及び第2閾値を設定し、ずれ量Pd1が第1閾値よりも小さい場合、第1閾値より大きく第2閾値より小さい場合、第2閾値より大きい場合というように場合分けを行って、どこに該当するかに応じて評価値を変えてもよい。また、ずれ量Pd1をそのまま評価値として用いることも可能である。また、上述した閾値を設定して評価値を求めるほかに、ずれ量Pd1がピッチの分布状態DS1の標準偏差の何倍であるかを求め、評価対象となる歌唱の代表値からのずれが、母集団の何パーセント以内に収まるかを評価してもよい。
図7(B)において、評価ポイントEP2におけるピッチの分布状態DS2は、ややブロードな分布を示し、過去の歌唱音声にばらつきが多いことを示している。このとき、分布状態DS2におけるピークに対応するピッチPs2と、評価対象の歌唱音声におけるピッチPe2との間には、ずれ量Pd2(=|Pe2−Ps2|)が存在する。このずれ量Pd2を用いて評価値算出部107は評価値を算出する。
図7(C)において、評価ポイントEP4におけるピッチの分布状態DS4は、尖度の大きい分布(ピークの鋭い分布)を示し、過去の歌唱音声にばらつきが少ないことを示している。このとき、分布状態DS4におけるピークに対応するピッチPs4と、評価対象の歌唱音声におけるピッチPe4との間には、ずれがなく、完全に一致している。この場合、評価値算出部107における評価値の算出にあたっては、ずれ量ゼロとして扱えばよい。例えば、歌唱評価が減点方式であれば、評価値をゼロとして減点せず、加点方式であれば特定の加算点を加えて加点してもよい。
以上のように、評価値算出部107では、評価ポイントごとに、評価対象の歌唱音声におけるピッチと、過去の複数の歌唱音声におけるピッチの分布との関係を解析し、過去の複数の歌唱音声におけるピッチの分布から評価対象のピッチがどの程度乖離しているかに応じて評価値を決定することができる。そして、図3に示した評価部109において、評価値算出部107で算出された評価値を用いた評価が行われる。
なお、図7に示したピッチの分布状態は、その評価ポイントにおける歌唱の重要度や難易度を示しているとも言える。例えば、評価ポイントEP2は、分布状態DS2がブロードであるため、歌唱者によって様々に音高が変化することが分かる。つまり、評価ポイントEP2付近は、難易度が高くて音高がばらつくか、重要度が低くて音高がばらつくか(つまり、大多数が適当に歌っている状態)であると推測できる。そのため、評価部109において、評価ポイントEP2の評価値に対する重みづけを低くする(評価ポイントEP2の評価値を考慮しない場合も含む)といった評価が可能である。
逆に、評価ポイントEP4は、分布状態DS4が急峻なピークを示すため、複数の歌唱者の音高に殆ど差がないことが分かる。つまり、評価ポイントEP4付近は、難易度が低いか、重要度が高いか(つまり、大多数が慎重に歌っている状態)であると推測できる。そのため、評価部109において、評価ポイントEP4の評価値に対する重みづけを高くするといった評価が可能である。
以上のように、評価部109は、歌唱音声の評価に際して、特徴量の分布の散布度(例えば標準偏差、分散)に応じて評価値算出部107で算出された評価値に対する重みづけを行うことができる。これにより、評価ポイントごとに重みづけを変え、過去の複数の歌唱音声の傾向に沿った適切な評価を行うことが可能となる。
(第2実施形態)
本発明の第2実施形態における楽音評価機能100aは、特徴量算出部103で算出した特徴量に対してキーシフト処理を行う点で第1実施形態における楽音評価機能100とは異なる。なお、本実施形態では、第1実施形態における楽音評価機能100との構成上の差異に注目して説明を行い、同じ部分については同じ符号を付して説明を省略する。
図8は、本発明の第2実施形態における楽音評価機能100aの構成を示すブロック図である。楽音評価機能100aは、評価装置10の制御部11が記憶部13に記憶された制御プログラム13aを実行することによって実現される。楽音評価機能100aは、楽音取得部101、特徴量算出部103、特徴量分布データ取得部105、キーシフト判定部113、キーシフト補正部115、評価値算出部107、及び評価部109を含む。
ここで、キーシフト判定部113は、特徴量算出部103から入力されたピッチを解析して歌唱音声のキーシフトの量を判定する。本実施形態では、キーシフトの量は、記憶部13に記憶された楽曲データ13bからキーシフトの入力値(歌唱者が設定したキーのシフト量または楽曲に予め設定されたキーのシフト量)を取得することにより判定する。キーシフト判定部113は、キーシフトの入力値が無い場合には、歌唱音声に対してキーシフトは無いと判定し、キーシフトの入力値がある場合には、歌唱音声に対してキーシフトがあると判定してその入力値をキーシフトの量としてキーシフト補正部115に出力する。
キーシフト補正部115では、特徴量算出部103で算出されたピッチに対し、キーシフト判定部113から入力されたキーシフトの量に応じてキーシフトをキャンセルする補正を行う。これにより、歌唱者がどのようなキーで歌唱した場合においても、その影響を受けることなく歌唱評価を行うことが可能となる。
なお、本実施形態では、キーシフトの量を楽曲データ13bから取得したキーシフトの入力値に基づいて判定する例を示したが、特徴量算出部103で算出したピッチに基づいて判定することも可能である。例えば、評価ピッチ波形データの平坦部におけるピッチと特徴量分布データから取得した基準ピッチ波形データの平坦部におけるピッチとの差分に基づいてキーシフトの量を判定してもよい。また、例えば、評価ピッチ波形データ全体における平均ピッチと特徴量分布データから取得した基準ピッチ波形データ全体における平均ピッチとの差分に基づいてキーシフトの量を判定してもよい。
(第3実施形態)
本発明の第3実施形態における楽音評価機能100bは、評価部109における歌唱評価の際に、楽曲全体の区間情報を考慮した評価を行う点で第1実施形態における楽音評価機能100とは異なる。なお、本実施形態では、第1実施形態における楽音評価機能100との構成上の差異に注目して説明を行い、同じ部分については同じ符号を付して説明を省略する。
図9は、本発明の第3実施形態における楽音評価機能100bの構成を示すブロック図である。楽音評価機能100bは、評価装置10の制御部11が記憶部13に記憶された制御プログラム13aを実行することによって実現される。楽音評価機能100bは、楽音取得部101、特徴量算出部103、特徴量分布データ取得部105、評価値算出部107、区間情報取得部117、及び評価部109aを含む。
ここで、区間情報とは、楽曲(伴奏曲とも言える)の区間ごとに付随する情報であり、例えばAメロ、Bメロ、サビの区別といった曲構成その他の楽曲における区間の特徴を示す情報である。区間情報取得部117は、例えば記憶部13に記憶された楽曲データ13bから区間情報を取得することができる。ただし、これに限らず、ネットワーク40を介してデータ処理装置20から区間情報を取得してもよい。
評価部109aは、区間情報取得部117で取得された区間情報を考慮して歌唱音声の評価を行う。例えば、評価部109aは、区間情報に応じて評価値の重みづけを行い、区間ごとに評価の重要度を変更することができる。具体的には、区間情報がAメロやBメロである場合には評価値に対する重みづけを軽くして重要度を下げ、サビである場合には評価値に対する重みづけを重くして重要度を上げることができる。
また、区間情報が難易度を示す情報を有していれば、その難易度に応じて重みづけの強弱を調整することができる。例えば、楽曲全体の中でピッチの低い部分(低音部)の難易度が高く設定されていれば、その部分の評価の重みづけを低く設定すればよいし、ピッチの高い部分(高音部)の難易度が高く設定されていれば、その部分の評価の重みづけは高く設定すればよい。
本実施形態の構成によれば、評価ポイントごとのピッチの分布状態における散布度などを用いることなく、簡易な方法で評価値に対する重みづけを行うことができ、より柔軟性のある歌唱評価を高速に行うことができる。
(変形例1)
上述した実施形態1〜3では、歌唱音声の特徴量としてピッチ(基本周波数)を用いる例を示したが、特徴量として、音量、特定の周波数帯の強度(パワー値)、倍音比率その他の歌唱音声データから算出可能な特徴量を用いることも可能である。これら音量等は、ゲインの違いにより取得される値が異なるため、ゲインが既知であればその値を用いて予め補正することが望ましい。ゲインが不明である場合は、音量等について歌唱音声全体の平均値を算出し、その平均値を所定の値に合わせ込むように補正すればよい。なお、倍音比率に関しては、特開2012−194389号公報を参照すればよい。
また、他の方法として、隣接する評価ポイントの音量等との差分を求め、その差分を用いて度数分布を算出してもよい。これにより、音量等について相対的な分布傾向を算出することができるため、ゲインに依らず特徴量の分布を把握することができる。また、隣接する評価ポイントの音量の差分を求めた場合、その差分によって音量の立ち上がり箇所を判定することも可能である。そして、過去の複数の歌唱音声からそれぞれ音量の立ち上がりタイミングを収集することにより、音量の立ち上がり、すなわち歌唱のタイミングの分布を求めて歌唱評価に利用することも可能である。
(変形例2)
上述した実施形態1〜3では、評価値算出部107における評価値の算出に当たり、評価対象のピッチと評価基準のピッチとの間のずれ量を用いる例を示したが、評価基準のピッチの度数に対する評価対象のピッチの度数の割合を用いることも可能である。
図10は、特徴量分布データにおける所定の評価ポイントのピッチのヒストグラムを示す図である。図10に示すヒストグラムDSにおいて、最頻値に相当する度数aを示す階級51に対応するピッチPsが評価基準のピッチであり、度数bを示す階級52に対応するピッチPeが評価対象のピッチである。なお、ここでは、階級51におけるピッチ範囲の中央値をピッチPsとし、階級52におけるピッチ範囲の中央値をピッチPeとしている。
このとき、評価値算出部107では、例えば、算出式b/aを計算することにより評価値を算出することができる。ただし、これに限らず、評価基準のピッチの度数に対する評価対象のピッチの度数の割合を求めることができれば、どのような算出式を用いてもよい。
また、ここでは特徴量としてピッチを例示したが、音量、特定の周波数帯の強度(パワー値)、倍音比率その他の歌唱音声データから算出可能な特徴量についても同様である。ただし、これら音量等については、変形例1で述べたように、ゲインの影響をキャンセルするために、隣接する評価ポイントの音量等との差分を求め、その差分を用いて度数分布を算出することが好ましい。
(変形例3)
上述した実施形態1〜3では、歌唱音声に歌唱技法(ビブラート、ファルセット、こぶしなど)が入れた場合について考慮していないが、別途歌唱技法を検出する手段を設け、歌唱技法を考慮して歌唱評価を行ってもよい。
例えば、過去の複数の歌唱音声における特徴量データごとに、公知の方法により歌唱技法の検出を行い、歌唱技法を入れた歌唱音声の割合に応じて、歌唱技法の評価の大小を決定してもよい。具体的には、歌唱技法を入れた歌唱音声の割合が多ければ歌唱技法を含めて特徴量分布データを生成し、割合が少なければ歌唱技法が入った部分の特徴量を考慮せずに特徴量分布データを生成してもよい。
これにより、歌唱技法を入れた場合に、他の大多数の歌唱者が歌唱技法を入れてないことに起因して評価が下がるといった不具合を改善することができる。
(変形例4)
上述した実施形態1〜3では、人の歌唱音声を評価する例を示したが、楽器から発せられた音または合成歌唱音(歌詞を構成する文字に応じた音声素片を組み合わせつつ、指定された音高になるように波形を合成することによって生成された歌唱音)の評価を行うことも可能である。
(変形例5)
上述した実施形態1〜3では、評価装置としてカラオケ装置を例に挙げて説明したが、その他の装置に応用することも可能である。例えば、合唱曲について複数の歌唱者が一斉に歌唱する場合における練習用教習装置として利用することも可能である。
具体的には、歌唱者全員の歌唱音声を独立に取得して、それぞれについて求めた特徴量データの統計処理を行い、特徴量分布データを生成する。その上で、この特徴量分布データと個々の歌唱音声から求めた特徴量とを用いて歌唱評価を行う。これにより、例えば特徴量分布データから求めた平均値からのずれ量が大きい歌唱者に対して適切に指導を行い、修正を試みることが可能となる。なお、ここでは合唱する場合を例に挙げて説明したが、複数の楽器の演奏による合奏についても同様である。すなわち、演奏者全員の演奏音を独立に取得して、それぞれについて求めた特徴量データの統計処理を行い、生成した特徴量分布データと個々の演奏音から求めた特徴量とを用いて演奏評価を行うことも可能である。
本発明の実施形態として説明した構成を基にして、当業者が適宜構成要素の追加、削除もしくは設計変更を行ったもの、又は、工程の追加、省略もしくは条件変更を行ったものも、本発明の要旨を備えている限り、本発明の範囲に含まれる。
また、上述した実施形態の態様によりもたらされる作用効果とは異なる他の作用効果であっても、本明細書の記載から明らかなもの、又は、当業者において容易に予測し得るものについては、当然に本発明によりもたらされると解される。
1000…データ処理システム、10…評価装置、11…制御部、13…記憶部、13a…制御プログラム、13b…楽曲データ、13c…歌唱音声データ、13d…特徴量分布データ、15…操作部、17…表示部、19…通信部、21…信号処理部、23…音入力部、25…音出力部、20…データ処理装置、21…制御部、23…記憶部、23a…制御プログラム、25…通信部、30…データベース、30a…特徴量データ、30b…特徴量分布データ、40…ネットワーク、100…楽音評価機能、101…楽音取得部、103…特徴量算出部、105…特徴量分布データ取得部、107…評価値算出部、109…評価部、200…評価基準生成機能、201…楽音情報取得部、203…特徴量データ取得部、205…特徴量分布データ生成部、207…出力部

Claims (6)

  1. 入力された楽音を取得する楽音取得部と、
    前記楽音から特徴量を算出する特徴量算出部と、
    複数の歌唱者からそれぞれ事前に取得された複数の楽音についての特徴量の分布を示す特徴量分布データを取得する特徴量分布データ取得部と、
    前記特徴量算出部が算出した特徴量と前記特徴量分布データ取得部が取得した前記特徴量分布データとに基づいて、前記入力された楽音に対する評価値を算出する評価値算出部と、
    前記評価値に基づいて前記楽音を評価する評価部と、
    を備えることを特徴とする楽音評価装置。
  2. 前記評価部は、前記特徴量の分布の散布度に応じて前記評価値に対する重みづけを行うことを特徴とする請求項1に記載の楽音評価装置。
  3. さらに、前記入力された楽音におけるキーシフトの量を判定するキーシフト判定部と、
    前記キーシフト判定部により判定されたキーシフトの量を用いて、前記特徴量算出部が算出した前記特徴量に対して補正を行うキーシフト補正部と、
    を備えることを特徴とする請求項1に記載の楽音評価装置。
  4. さらに、前記入力された楽音における区間ごとの特徴を示す情報を含む区間情報を取得する区間情報取得部を備え、
    前記評価部は、前記区間情報に基づいて前記評価値に対する重みづけを行うことを特徴とする請求項1に記載の楽音評価装置。
  5. 楽音を示す情報を取得する楽音情報取得部と、
    複数の歌唱者からそれぞれ事前に取得されたn個の楽音について特徴量の時間的変化を示す特徴量データを取得する特徴量データ取得部と、
    前記楽音を示す情報から取得した該楽音の特徴量データと前記n個の楽音の各特徴量データとを用いた統計処理を行い、(n+1)個の楽音における特徴量の分布を示す特徴量分布データを生成する特徴量分布データ生成部と、
    を備えることを特徴とする評価基準生成装置。
  6. さらに、前記楽音に関する楽曲を識別する識別子と前記特徴量分布データとを対応付けて外部に出力する出力部を備えることを特徴とする請求項5に記載の評価基準生成装置。

JP2015208173A 2015-10-22 2015-10-22 楽音評価装置及び評価基準生成装置 Expired - Fee Related JP6690181B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015208173A JP6690181B2 (ja) 2015-10-22 2015-10-22 楽音評価装置及び評価基準生成装置
PCT/JP2016/079770 WO2017068990A1 (ja) 2015-10-22 2016-10-06 楽音評価装置、評価基準生成装置及び記録媒体
US15/958,343 US10453435B2 (en) 2015-10-22 2018-04-20 Musical sound evaluation device, evaluation criteria generating device, method for evaluating the musical sound and method for generating the evaluation criteria

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015208173A JP6690181B2 (ja) 2015-10-22 2015-10-22 楽音評価装置及び評価基準生成装置

Publications (2)

Publication Number Publication Date
JP2017083484A JP2017083484A (ja) 2017-05-18
JP6690181B2 true JP6690181B2 (ja) 2020-04-28

Family

ID=58557461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015208173A Expired - Fee Related JP6690181B2 (ja) 2015-10-22 2015-10-22 楽音評価装置及び評価基準生成装置

Country Status (3)

Country Link
US (1) US10453435B2 (ja)
JP (1) JP6690181B2 (ja)
WO (1) WO2017068990A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6728754B2 (ja) * 2015-03-20 2020-07-22 ヤマハ株式会社 発音装置、発音方法および発音プログラム
JP6759545B2 (ja) * 2015-09-15 2020-09-23 ヤマハ株式会社 評価装置およびプログラム
JP6690181B2 (ja) * 2015-10-22 2020-04-28 ヤマハ株式会社 楽音評価装置及び評価基準生成装置
JP2021131401A (ja) 2018-04-26 2021-09-09 国立大学法人 筑波大学 音楽性情報提供方法、音楽性情報提供装置、及び音楽性情報提供システム
US20220277763A1 (en) * 2019-08-05 2022-09-01 National University Of Singapore System and method for assessing quality of a singing voice
US11398212B2 (en) * 2020-08-04 2022-07-26 Positive Grid LLC Intelligent accompaniment generating system and method of assisting a user to play an instrument in a system

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3299890B2 (ja) * 1996-08-06 2002-07-08 ヤマハ株式会社 カラオケ採点装置
JP3637871B2 (ja) * 2001-01-23 2005-04-13 ヤマハ株式会社 変調方式判別装置及び方法、復調器及び方法、オーディオ再生装置及び方法、情報記録媒体及びプログラム
JP2006048286A (ja) * 2004-08-03 2006-02-16 Sony Corp 情報処理装置および方法、並びにプログラム
US20070250319A1 (en) * 2006-04-11 2007-10-25 Denso Corporation Song feature quantity computation device and song retrieval system
JP2009092871A (ja) * 2007-10-05 2009-04-30 Yamaha Corp 採点装置及びプログラム
JP5147389B2 (ja) * 2007-12-28 2013-02-20 任天堂株式会社 楽曲提示装置、楽曲提示プログラム、楽曲提示システム、楽曲提示方法
JP5625235B2 (ja) * 2008-11-21 2014-11-19 ソニー株式会社 情報処理装置、音声解析方法、及びプログラム
JP5463655B2 (ja) * 2008-11-21 2014-04-09 ソニー株式会社 情報処理装置、音声解析方法、及びプログラム
JP5206378B2 (ja) * 2008-12-05 2013-06-12 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP5957798B2 (ja) 2011-03-16 2016-07-27 ヤマハ株式会社 裏声検出装置および歌唱評価装置
EP3206202B1 (en) * 2011-03-25 2018-12-12 Yamaha Corporation Accompaniment data generating apparatus and method
JP6073618B2 (ja) * 2012-09-24 2017-02-01 株式会社エクシング カラオケ装置
JP6179140B2 (ja) * 2013-03-14 2017-08-16 ヤマハ株式会社 音響信号分析装置及び音響信号分析プログラム
JP6123995B2 (ja) * 2013-03-14 2017-05-10 ヤマハ株式会社 音響信号分析装置及び音響信号分析プログラム
US8927846B2 (en) * 2013-03-15 2015-01-06 Exomens System and method for analysis and creation of music
JP6065703B2 (ja) * 2013-03-27 2017-01-25 ブラザー工業株式会社 基準データ作成システム、及び演奏端末装置
CN104217729A (zh) * 2013-05-31 2014-12-17 杜比实验室特许公司 音频处理方法和音频处理装置以及训练方法
JP6304650B2 (ja) * 2014-01-23 2018-04-04 ヤマハ株式会社 歌唱評価装置
JP6759545B2 (ja) * 2015-09-15 2020-09-23 ヤマハ株式会社 評価装置およびプログラム
JP6690181B2 (ja) * 2015-10-22 2020-04-28 ヤマハ株式会社 楽音評価装置及び評価基準生成装置
JP6759560B2 (ja) * 2015-11-10 2020-09-23 ヤマハ株式会社 調律推定装置及び調律推定方法
US9792889B1 (en) * 2016-11-03 2017-10-17 International Business Machines Corporation Music modeling

Also Published As

Publication number Publication date
US20180240448A1 (en) 2018-08-23
JP2017083484A (ja) 2017-05-18
US10453435B2 (en) 2019-10-22
WO2017068990A1 (ja) 2017-04-27

Similar Documents

Publication Publication Date Title
JP6690181B2 (ja) 楽音評価装置及び評価基準生成装置
US10497348B2 (en) Evaluation device and evaluation method
US10643638B2 (en) Technique determination device and recording medium
EP2528054A2 (en) Management of a sound material to be stored into a database
JP2017111268A (ja) 技法判定装置
US20180204588A1 (en) Sound quality determination device, method for the sound quality determination and recording medium
JP6175812B2 (ja) 楽音情報処理装置及びプログラム
JP6288197B2 (ja) 評価装置及びプログラム
JP6102076B2 (ja) 評価装置
JP2020129040A (ja) 電子楽器、電子楽器の制御方法、及びプログラム
JP5585320B2 (ja) 歌唱音声評価装置
JP5618743B2 (ja) 歌唱音声評価装置
WO2020110724A1 (ja) 音響解析方法、音響解析装置、およびモデル構築方法
JP2016184112A (ja) アンサンブル評価装置
JP2007240552A (ja) 楽器音認識方法、楽器アノテーション方法、及び楽曲検索方法
JP2015194767A (ja) 音声評価装置
JP6175034B2 (ja) 歌唱評価装置
JP6074835B2 (ja) 楽曲練習支援装置
JP5697395B2 (ja) 歌唱音声評価装置およびプログラム
JP2017111274A (ja) データ処理装置
JP6638305B2 (ja) 評価装置
JP2016177144A (ja) 評価基準生成装置および歌唱評価装置
WO2014142201A1 (ja) 分離用データ処理装置およびプログラム
JP2018005188A (ja) 音響解析装置および音響解析方法
WO2019092780A1 (ja) 評価装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200323

R151 Written notification of patent or utility model registration

Ref document number: 6690181

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees