JP6671245B2 - 識別装置 - Google Patents

識別装置 Download PDF

Info

Publication number
JP6671245B2
JP6671245B2 JP2016110146A JP2016110146A JP6671245B2 JP 6671245 B2 JP6671245 B2 JP 6671245B2 JP 2016110146 A JP2016110146 A JP 2016110146A JP 2016110146 A JP2016110146 A JP 2016110146A JP 6671245 B2 JP6671245 B2 JP 6671245B2
Authority
JP
Japan
Prior art keywords
sound
identification
code
input
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016110146A
Other languages
English (en)
Other versions
JP2017215520A (ja
Inventor
松岡 保静
保静 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2016110146A priority Critical patent/JP6671245B2/ja
Publication of JP2017215520A publication Critical patent/JP2017215520A/ja
Application granted granted Critical
Publication of JP6671245B2 publication Critical patent/JP6671245B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Auxiliary Devices For Music (AREA)

Description

本発明は、和音の識別装置に関する。
特許文献1は、音源の種別を判定する装置を開示する。この装置によると、音のスペクトル分布がいくつかの周波数帯域にサブバンド化され、サブバンド化されたスペクトル分布がニューラルネットワークに入力され音源の種別が判定されるので、正確に音響の音源種別を識別することができる。
特開2001−33304号公報
ところで、ギターなどの楽器を使用すると、和音が発生する。楽器では、和音はコードとして識別される。コードには、基本となるトライアドコードとともに用いられる(トライアドコードに付加される)テンションコードや7thコードといった複雑なコードがある。テンションコードや7thコードを用いたコード同士は、互いに識別することが難しいこともある。たとえばギターを弾いたときにそのような複雑なコードに対応する和音がきちんと発生したかどうかを、ギターの演奏者が確認したい場合がある。しかしながら、音に関する識別に係る技術として、上述した特許文献1に示されるような音源種別を識別する技術は提案されているものの、和音を識別する技術は提案されていない。したがって、和音を精度よく識別することができる技術が要望されている。
本発明は、上記課題に鑑みてなされたものであり、和音を精度良く識別することが可能な識別装置を提供することを目的とする。
本発明の一態様に係る識別装置は、音を入力する入力手段と、入力手段によって入力された音の音域ごとの成分を算出する算出手段と、音域ごとの成分に基づいて和音を識別する機械学習により、算出手段の算出結果を用いて入力手段によって入力された音に含まれる和音を識別する識別手段と、を備える。
上記の識別装置では、音域ごとの成分に基づいて和音を識別する機械学習により、入力された音の音域ごとの成分の算出結果を用いて入力された音に含まれる和音が識別される。このように機械学習により和音を識別することで、和音を精度良く識別することができる。
識別手段は、音域ごとの成分に基づいて所定の音を識別する第1の機械学習により、算出手段の算出結果を用いて、入力手段によって入力された音に含まれる第1の音を識別する第1の識別処理を実行し、第1の識別処理を実行した後、音域ごとの成分および第1の音に基づいて所定の音を識別する第2の機械学習により、算出手段の算出結果および第1の識別処理による識別結果を用いて、入力手段によって入力された音に含まれる第1の音以外の第2の音を識別して、入力手段によって入力された音に含まれる和音を識別する第2の識別処理を実行する
たとえば、第1の音をトライアドコードの音に設定し、第2の音をトライアドコードとともに用いられるテンションコードや7thコードの音に設定しておくことが考えられる。その場合、第1の機械学習をトライアドコードの識別に特化した機械学習とすることができるので、第1の機械学習による第1の識別処理の精度を高めることができる。また、第2の機械学習をテンションコードや7thコードの識別に特化した機械学習とすることができるので、第2の機械学習による第2の識別処理の精度を高めることができる。そして、第2の識別処理によってテンションコードや7thコードが識別されれば、第1の処理によって識別されたトライアドコードと併せて、その音に含まれる和音を識別することができる。このように高い識別精度を有する第1および第2の2段階の識別処理を実行することによって、和音の識別精度をさらに向上させることができる。
その場合、算出手段は、音域の高さに応じて予め定められた順序に各音域の成分を並べて構成されるデータ列を生成し、生成したデータ列を上述の成分として算出し、識別手段は、データ列を用いて、第1の識別処理を実行し、第1の識別処理の識別結果に応じてデータ列の順序を変更し、順序を変更したデータ列を用いて、第2の識別処理を実行してもよい。このように順序を変更したデータ列を用いて第2の識別処理を実行することによって、データ列の順序を変更することなく第2の識別処理を実行する場合よりも、たとえば上述のようなテンションコードや7thコードの識別精度をさらに向上させることができる。
算出手段は、入力手段によって入力された音の音域ごとの振幅および位相を成分として算出してもよい。これにより、音域ごとの振幅のみを成分として算出しその算出結果から和音を識別する場合よりも、識別精度を向上させることができる。
本発明によれば、和音を精度良く識別することが可能になる。
識別装置の概要を説明するための図である。 識別装置の概略構成を示す図である。 算出部による音の音域ごとの成分の算出の例を示す図である。 トライアドコード識別部およびテンションコード識別部の機械学習に用いられるニューラルネットワークの構成例を示す図である。 識別装置のハードウェア構成の例を示す図である。 識別装置において実行される処理の一例を示すフローチャートである。
以下、本発明の実施形態について、図面を参照しながら説明する。なお、図面の説明において同一要素には同一符号を付し、重複する説明は省略する。
図1は、実施形態に係る識別装置の概要を説明するための図である。識別装置10は、ギター1などの楽器で発生した音を識別する。ギター1で発生する音には、コードとして識別することができる和音が含まれる。識別装置10はギター1で発生した音に含まれる和音を識別する。なお、ギター1などの楽器ではなく、オーディオ機器2で発生する音が、識別装置10によって識別されてもよい。
図2は、識別装置10の概略構成を示す図である。識別装置10は、その機能ブロックとして、入力部11と、算出部12と、トライアドコード識別部13と、テンションコード識別部14と、出力部15とを含む。
入力部11は、識別装置10において、音を入力する部分(入力手段)である。入力部11は、たとえばマイクを含んで構成され、ギター1やオーディオ機器2など(図1)で発生した音を、電気信号などの信号に変換して取得する。信号の例は、音圧の時間変化を表す信号である。以下、入力部11によって取得された信号を、単に「音」という場合もある。
算出部12は、入力部11によって入力された音の音域ごとの成分を算出する部分(算出手段)である。たとえば、算出部12は、入力部11によって入力された音の音域ごとの成分を算出する。算出の対象は、予め定められた期間における音の音域ごとの成分であってよい。予め定められた期間は、たとえばギター1が演奏された際に一つの和音が発生している期間(0.5秒程度)である。入力部11による音の入力期間は予め定められた期間よりも長くてよく(たとえば1フレーズの演奏時間)、その場合、算出部12は、入力部11による音の入力期間を上述の予め定められた期間で区切り、区切った各期間における音の音域ごとの成分を算出してもよい。音域は周波数帯域で表すことができ、各音域は、予め定められた周波数範囲内において予め設定された異なる複数の周波数帯域に対応している。予め定められた周波数範囲は、ギター1で発生する和音に含まれ得るすべての音の周波数を含む周波数範囲である。この周波数範囲は、1オクターブ分の音だけでなく、2〜3オクターブ分あるいはそれよりも多いオクターブ分の音の周波数を含む周波数範囲であってよい。予め設定された異なる複数の周波数帯域は、予め定められた周波数範囲をたとえば12分割した場合のそれぞれの周波数帯域である。それぞれの周波数帯域の帯域幅は同じであってもよいし異なっていてもよい。分割は12分割に限られず、24分割または36分割あるいはそれ以外の数での分割であってもよい。
算出部12は、音域の高さに応じて予め定められた順序に各音域の成分を並べて構成されるデータ列を、音の音域ごとの成分として算出する。予め定められた順序は、周波数の昇順または降順(音が高くなって行く順または低くなって行く順)である。なお、周波数の昇順(音が高くなっていく順)に並べられたデータ列であって、その成分がパワー(その音域での音のエネルギーでありたとえば振幅の大きさから求められる)で表されるものは、クロマベクトルとも称される。上述のように、音域は周波数帯域に対応するので、音の音域ごとの成分は、フーリエ変換処理を用いて算出することができる。これについて、図3を用いて具体的に、説明する。
図3は、算出部12による音の音域ごとの成分の算出の例を示す図である。算出部12は、まず、入力部11によって入力された音に対して、フーリエ変換処理を実行する。このフーリエ変換処理により、図3の(a)の左側に示されるように、周波数とパワーとの関係を示すデータが得られる。次に、算出部12は、図3の(a)の左側に示されるような周波数とパワーとの関係を示すデータについて、各音域に対応する周波数帯域ごとの値を集計する。集計値は、たとえば、その音域に対応する周波数帯域における中心周波数でのパワーの値であってもよいし、その音域に対応する周波数帯域における各周波数でのパワーの平均値であってもよい。算出部12は、集計した音域ごとのパワーを音の高い順または低い順に並べて構成されるデータ列を生成する。これにより、図3の(a)の右側に示されるような音域とパワーとの関係を示すデータ列が得られる。この例では、データ列は、12個の音域と、各音域のパワーとの関係を示している。ここで、音が高くなっていく順に各音域が並んでいる場合には、データ列はクロマベクトルとなる。
また、フーリエ変換処理により、図3の(b)の左側に示されるような周波数と位相との関係を示すデータも得られる。算出部12は、図3の(b)の左側に示されるような周波数と位相との関係を示すデータについても、各音域に対応する周波数帯域ごとの値(音域ごとの位相の値)を集計する。集計の手法は、上述のパワーの場合と同様であってよい。算出部12は、パワーの場合と同様に並べて構成されるデータ列を、集計した音域ごとの位相についても生成する。これにより、図3の(b)の右側に示されるような音域と位相との関係を示すデータ列も得られる。
再び図2に戻り、次に、トライアドコード識別部13およびテンションコード識別部14について説明する。トライアドコード識別部13およびテンションコード識別部14は、算出部12の算出結果を用いて入力部11によって入力された音に含まれる和音を識別する部分(識別手段)である。トライアドコード識別部13およびテンションコード識別部14は、音域ごとの成分に基づいて和音を識別するための機械学習を行うように構成されている。本実施形態では、トライアドコード識別部13と、テンションコード識別部14とは、それぞれ異なる機械学習を行う。以下、トライアドコード識別部13およびテンションコード識別部14のそれぞれについて説明する。
トライアドコード識別部13は、音域ごとの成分に基づいて入力部11により入力された音に含まれる所定の音(第1の音)を識別する第1の機械学習を行う。第1の音は、予め設定されており、たとえばトライアドコードを構成する複数の音のうちのいずれかの音である。トライアドコード識別部13は、第1の機械学習により、算出部12の算出結果を用いて、入力部11によって入力された音に含まれる音のうちトライアドコードの音を識別する処理(第1の識別処理)を実行する。
第1の識別処理および第1の機械学習を行うために、トライアドコード識別部13は、ニューラルネットワークを有している。トライアドコード識別部13が有するニューラルネットワークの構成例が、図4の(a)に示される。
図4の(a)に示されるように、第1の識別処理では、ニューラルネットワーク13aの入力は、音域ごとのパワーP1〜P12および位相θ1〜θ12である。この例では、パワーP1および位相θ1の音域が最も低い音域であり、パワーP12および位相θ12の音域が最も高い音域である。つまり、12個の音域を音が高くなって行く順に並べて構成されるデータ列が、ニューラルネットワーク13aに入力されることになる。なお、パワーP1〜P12と位相θ1〜θ12のうち、パワーのP1〜P12のみがニューラルネットワーク13aに入力されてもよい。ニューラルネットワーク13aの出力は、コードC、CmおよびBmなどの各トライアドコードのそれぞれについての数値であってよい。この数値は、そのトライアドコードの音(3つの音)が、入力部11によって入力された音に含まれているか否かの確度を示す。たとえば、ニューラルネットワーク13aの出力において最も確度の大きいトライアドコードが、入力部11によって入力された音のトライアドコードとして識別される。すなわち、第1の識別処理では、入力部11によって入力された音に、予め設定された複数の第1の音の組み合わせが含まれているか否かが識別される。なお、ニューラルネットワーク13aの出力においてすべてのトライアドコードの確度が予め設定されたしきい値を下回る場合には、入力部11によって入力された音には、トライアドコードの音が含まれていないと判定されてもよく、その場合には、後述のテンションコード識別部14による判定は行われなくてもよい。
以上説明した第1の識別処理を行うために、ニューラルネットワーク13aは、予め第1の機械学習を行っている。第1の機械学習では、いずれのトライアドコードの音を含んでいるのかということが予め分かっている音の音域ごとの成分を上述のデータ列としたものと、各トライアドコードの確度とを組み合わせたサンプルデータ(第1のサンプルデータ)を準備する。サンプルデータにおけるトライアドコードの確度は、たとえばトライアドコードがコードCの場合には、コードCの確度を最大値(たとえば1)とし、それ以外のトライアドコードの確度を最小値(たとえば0)としたものである。第1の機械学習では、さまざまなトライアドコードについての第1のサンプルデータをニューラルネットワーク13aに与えることによって、ニューラルネットワーク13aを学習させる。このような第1の機械学習を行ったニューラルネットワーク13aを用いて第1の識別処理を行うことによって、トライアドコード識別部13は、トライアドコードの音を精度良く識別することができる。
再び図2に戻り、テンションコード識別部14は、音域ごとの成分および第1の音(トライアドコードの音)に基づいて、第1の音以外の所定の音(第2の音)を識別する第2の機械学習を行う。第2の音は、予め設定されており、たとえばトライアドコードに付加されるテンションコードや7thコードの音である。テンションコード識別部14は、第2の機械学習により、算出部12の算出結果およびトライアドコード識別部13の第1の識別処理による識別結果を用いて、入力部11によって入力された音に含まれる第2の音を識別して、入力部11によって入力された音に含まれる和音を識別する処理(第2の識別処理)を実行する。
第2の識別処理および第2の機械学習を行うために、テンションコード識別部14も、トライアドコード識別部13と同様にニューラルネットワークを有している。テンションコード識別部14が有するニューラルネットワークの構成例が、図4の(b)に示される。
図4の(b)に示されるように、第2の識別処理では、ニューラルネットワーク14aの入力も、12個の音域ごとのパワーおよび位相である。ただし、位相の入力は必須ではない。ここで、第2の処理においてニューラルネットワーク14aに入力されるデータ列の順序は、先に図4の(a)を参照して説明した第1の識別処理においてニューラルネットワーク13aに入力されるデータ列の順序と異なっていてもよい。これは、テンションコード識別部14が、トライアドコード識別部13の識別結果に応じて、算出部12によって算出されたデータ列の順序を変更した後に、ニューラルネットワーク14aに入力するためである。
データ列の順序の変更(並べ替え)の手法としては次のような手法がある。たとえば、トライアドコード識別部13による識別結果が、トライアドコードがGであるという結果の場合、テンションコード識別部14は、トライアドコードGにおける最も低い音(いわゆるルート音であり、この場合はいわゆる12音階で言う「ソ」に相当)の音域の成分が、データ列の最初の音域に位置するように、データ列をシフトさせる。シフト前のデータ列においてルート音よりも低い音の音域の成分は、それらの音域の並びを維持したまま、シフト前のデータ列における最後の音域以降に移動させる。たとえば、シフト前のデータ列では、図4の(a)に示されるように、パワーP1および位相θ1がデータ列の最初の音域に位置しており、パワーP12および位相θ12がデータ列の最後の音域に位置している。これに対し、シフト後のデータ列では、図4の(b)に示されるように、パワーP6および位相θ6がデータ列の最初の音域に位置しており、シフト前のデータ列においてパワーP6および位相θ6よりも低い音の音域のパワーP1〜P5および位相θ1〜θ5は、それらの音域の並びを維持したまま、シフト前のデータ列における最後の音域であったパワーP12および位相θ12以降に移動している。このようにデータ列をシフトさせると、トライアドコードに付加されるテンションコードや7thコードが識別しやすくなる。この理由は、テンションコード識別部14によって識別されるテンションコード等は、基準となるルート音から所定の音域だけ離れた音が含まれているものであり、どのトライアドコードでも共通のため、共通の識別器を利用できるためである。ニューラルネットワーク14aの出力は、M7th、m7th、9th、sus4といったテンションコードや7thコードのそれぞれについての数値であってよい。この数値は、そのテンションコードまたは7thコードの音(第2の音)が、入力部11によって入力された音に含まれているか否かの確度を示す。たとえば、ニューラルネットワーク14aの出力において最も確度の大きいテンションコードまたは7thコードが、入力部11によって入力された音のテンションコードまたは7thコードとして識別される。なお、ニューラルネットワーク14aの出力においてすべてのテンションコードまたは7thコードの確度が予め設定されたしきい値を下回る場合には、入力部11によって入力された音には、テンションコードまたは7thコードの音が含まれていないと判定されてもよい。
以上説明した第2の識別処理を行うために、ニューラルネットワーク14aは、予め第2の機械学習を行っている。第2の機械学習では、いずれのトライアドコードと、テンションコードまたは7thコードで識別できる音を含んでいるのかということが予め分かっている音の音域ごとの成分を上述のデータ列としさらにそのトライアドコードに応じてデータ列の順序を変更したものと、各テンションコードまたは7thコードとを組み合わせたサンプルデータ(第2のサンプルデータ)を準備する。テンションコードまたは7thコードの確度は、たとえばコードM7thの場合には、コードM7thの確度を最大値(たとえば1)とし、それ以外のテンションコードおよび7thコードの確度を最小値(たとえば0)としたものである。第2の機械学習では、さまざまなテンションコードおよび7thコードについての第2のサンプルデータをニューラルネットワーク14aに与えることによって、ニューラルネットワーク14aを学習させる。このような第2の機械学習を行ったニューラルネットワーク14aを用いて第2の識別処理を行うことによって、テンションコード識別部14は、トライアドコードだけでなくさらにテンションコードや7thコードを用いることによってはじめて識別できる音を精度良く識別することができる。そして、すでにトライアドコード識別部13の第1の処理によってトライアドコードが分かっているので、テンションコード識別部14は、トライアドコードおよびそのトライアドコードに付加されるテンションコードや7thコードを用いて、入力部11によって入力された音に含まれる和音を識別することができる。これは、トライアドコードと、そのトライアドコードに付加されるテンションコードや7thコードとの組合せから、和音が一義的に特定されるためである。
再び図2に戻り、出力部15は、テンションコード識別部14の識別結果を出力する部分である。たとえば、入力部11によって入力された音に含まれる和音を識別するためのコード(トライアドコード、および、テンションコードや7thコード)を示す情報が、文字や画像などを用いて表示される。あるいは、コードを示す情報が、識別装置10において実行可能なアプリケーションで利用される。アプリケーションの例は、ギター1(図1)などの楽器で発生した音を識別するためのアプリケーションであり、より具体的には、ギター1の演奏者が意図していたコードを正しく弾けた場合にスコアを付与するといったゲームなどが考えられる。なお、テンションコード識別部14がテンションコードや7thコードの音が入力部11によって入力された音に含まれていないと判定した場合には、トライアドコード識別部13によって識別されたトライアドコードのみが出力部15によって出力される。トライアドコード識別部13がトライアドコードの音が入力部11によって入力された音に含まれていないと判定され、テンションコード識別部14による第2の識別処理が実行されなかった場合には、入力部11によって入力された音には和音は含まれていないことを示す情報が出力部15によって出力されてもよい。
図5は、識別装置10のハードウェア構成を示す。図5に示されるように、識別装置10は、1つ以上のCPU(Central Processing Unit)101、主記憶装置であるRAM(Random Access Memory)102およびROM(Read Only Memory)103、操作モジュール104、マイク105、通信モジュール106、ディスプレイ108等のハードウェアにより構成されている。通信モジュール106が無線通信を行う場合には、アンテナ107がさらに追加される。これらの構成要素がプログラム等により動作することで、先に図2を参照して説明した識別装置10の各機能が発揮される。また、通信モジュール106が識別装置10の外部のサーバと通信を行うことによって、識別装置10の機能の一部を外部のサーバに実行させることもできる。この場合、識別装置10と外部のサーバとの協働によって、本発明に係る識別装置が実現される。
図6は、識別装置10において実行される処理の一例を示すフローチャートである。この処理は、たとえば、識別装置10において、上述のアプリケーションが実行されたことに応じて開始される。
ステップS1において、識別装置10では、音が入力される。たとえば、ギター1の演奏者が、トライアドコードの音およびそのトライアドコードに付加されるテンションコードの音を含む和音を発生させようとして、ギター1を演奏する。そして、識別装置10の入力部11が、ギター1で発生した音を取得する。
ステップS2において、フーリエ変換処理が実行される。具体的に、算出部12が、先のステップS1で取得された音に対してフーリエ変換処理を実行する。フーリエ変換処理の対象となるのは、先に説明した一つの和音が発生している期間(たとえば0.5秒)の音である。
ステップS3において、音域ごとの成分が生成される。具体的に、算出部12が、先のステップS2で実行されたフーリエ変換処理の結果を用いて、たとえば先に図3を参照して説明したような各音域の成分を算出する(データ列を生成する)。
ステップS4において、トライアドコードが識別される。具体的に、トライアドコード識別部13が、先のステップS3で生成されたデータ列をニューラルネットワーク13aに入力する。そして、ニューラルネットワーク13aの出力から、先のステップS1で入力された音のトライアドコードを識別する。
ステップS5において、テンションコード等が識別される。具体的に、テンションコード識別部14が、まず、先のステップS4でのトライアドコードの識別結果に応じて、先のステップS3で生成されたデータ列の順序を変更し、ニューラルネットワーク14aに入力する。そして、ニューラルネットワーク14aの出力から、先のステップS1で入力された音のテンションコードまたは7thコードを識別する。最後に、先のステップS4で識別されたトライアドコードと、ここで識別したテンションコードや7thコードとから、先のステップS1で入力された音の和音を識別する。
ステップS6において、識別結果が出力される。具体的に、出力部15が、先のステップS4で識別されたコード(トライアドコード)および先のステップS5で識別されたコード(テンションコードや7thコード)を示す情報を表示する。これにより、ギター1の演奏者は、ギター1で発生した和音を確認することができる。コードを示す情報が、上述のようなアプリケーションのゲームに利用されてもよい。
以上説明した識別装置10によれば、先に図4を参照して説明したような音域ごとの成分に基づいて和音を識別する機械学習により、入力された音の音域ごとの成分の算出結果を用いて入力された音に含まれる和音が識別される(ステップS4、S5)。このように機械学習により和音を識別することで、和音を精度良く識別することができる。たとえばコードEM7は、12音階におけるミ、ソ、シ、レという4つの音を示し、コードG7はファ、ソ、シ、レという4つの音を示す。この場合、コードEm7とコードG7との相違は、ミおよびファという半音違いの音であるため識別しにくいが、識別装置10によれば、各コードを精度良く識別できる。その他に、コードCとコードAm7とを識別したり、コードCm7とコードEmとを識別したりすることもできる。
より具体的には、第1の機械学習はトライアドコードの識別に特化した機械学習であるので、トライアドコード識別部13によってトライアドコードが精度良く識別される。また、第2の機械学習はテンションコードや7thコードの識別に特化した機械学習であるので、テンションコード識別部14によってテンションコードや7thコードが精度良く識別される。このように、識別精度の高められた第1および第2の2段階の識別処理によって、和音の識別精度をさらに向上させることができる。たとえば上述のコードEM7およびコードG7の場合のように構成音が似たコードを1段階の識別処理を用いて識別してもよいが、それよりも、3つの音を示すトライアドコードを高い精度で識別できるように機械学習された(チューニングされた)第1の識別処理と、トライアドコードが決定したこと(換言すれば、ルート音が決定したこと)を前提に4つ目の音を高い精度で識別できるように機械学習された(チューニングされた)第2の識別処理との2段階の識別処理を用いることによって、識別精度をさらに向上させることができる。ただし、本発明に係る識別装置は、2段階の識別処理を用いる構成に限定されるものではない。1段階の識別処理を用いた場合でも、機械学習を深めて行くこと等によって和音の識別精度をさらに向上させることもできる。
また、算出部12は、算出した音域ごとの成分を、音域の高さに応じて音の高い順または低い順に並べ替えて構成されるデータ列を生成する(ステップS3)。そして、トライアドコード識別部13は、生成されたデータ列を用いて第1の識別処理を実行する(ステップS4)。テンションコード識別部14は、トライアドコード識別部13の識別結果に応じて算出部12によって生成されたデータ列の順序を変更し、変更したデータ列を用いて第2の識別処理を実行する(ステップS5)。このように順序を変更したデータ列を用いて第2の識別処理を実行することによって、データ列の順序を変更することなく第2の識別処理を実行する場合よりも、たとえば上述のようなテンションコードや7thコードの識別精度をさらに向上させることができる。なお、上述のようなデータ列の順序の変更に限らず、テンションコードや7thコードの識別精度を向上させることが可能なデータ列の変更の手法があれば、その手法が採用されてもよい。
算出部12は、入力手段によって入力された音の音域ごとの振幅および位相を成分として算出してもよい(ステップS3)。これにより、音域ごとの振幅のみを成分として算出しその算出結果から和音を識別する場合よりも、識別精度を向上させることができる。
1…ギター、2…オーディオ機器、10…識別装置、11…入力部(入力手段)、12…算出部(算出手段)、13…トライアドコード識別部(識別手段)、14…テンションコード識別部(識別手段)、15…出力部。

Claims (3)

  1. 音を入力する入力手段と、
    前記入力手段によって入力された音の音域ごとの成分を算出する算出手段と、
    音域ごとの成分に基づいて和音を識別する機械学習により、前記算出手段の算出結果を用いて前記入力手段によって入力された音に含まれる和音を識別する識別手段と、
    を備え
    前記識別手段は、
    音域ごとの成分に基づいて所定の音を識別する第1の機械学習により、前記算出手段の算出結果を用いて、前記入力手段によって入力された音に含まれる第1の音を識別する第1の識別処理を実行し、
    前記第1の識別処理を実行した後、音域ごとの成分および前記第1の音に基づいて所定の音を識別する第2の機械学習により、前記算出手段の算出結果および前記第1の識別処理による識別結果を用いて、前記入力手段によって入力された音に含まれる前記第1の音以外の第2の音を識別して、前記入力手段によって入力された音に含まれる和音を識別する第2の識別処理を実行する、識別装置。
  2. 前記算出手段は、音域の高さに応じて予め定められた順序に各音域の成分を並べて構成されるデータ列を生成し、生成したデータ列を前記成分として算出し、
    前記識別手段は、
    前記データ列を用いて、前記第1の識別処理を実行し、
    前記第1の識別処理の識別結果に応じて前記データ列の順序を変更し、順序を変更したデータ列を用いて、前記第2の識別処理を実行する、
    請求項に記載の識別装置。
  3. 前記算出手段は、前記入力手段によって入力された音の音域ごとの振幅および位相を前記成分として算出する、
    請求項1又は2に記載の識別装置。
JP2016110146A 2016-06-01 2016-06-01 識別装置 Active JP6671245B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016110146A JP6671245B2 (ja) 2016-06-01 2016-06-01 識別装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016110146A JP6671245B2 (ja) 2016-06-01 2016-06-01 識別装置

Publications (2)

Publication Number Publication Date
JP2017215520A JP2017215520A (ja) 2017-12-07
JP6671245B2 true JP6671245B2 (ja) 2020-03-25

Family

ID=60576843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016110146A Active JP6671245B2 (ja) 2016-06-01 2016-06-01 識別装置

Country Status (1)

Country Link
JP (1) JP6671245B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7243147B2 (ja) * 2018-02-09 2023-03-22 ヤマハ株式会社 コード推定方法、コード推定装置およびプログラム
US10586519B2 (en) 2018-02-09 2020-03-10 Yamaha Corporation Chord estimation method and chord estimation apparatus
JP7230464B2 (ja) 2018-11-29 2023-03-01 ヤマハ株式会社 音響解析方法、音響解析装置、プログラムおよび機械学習方法
JP7375302B2 (ja) * 2019-01-11 2023-11-08 ヤマハ株式会社 音響解析方法、音響解析装置およびプログラム
WO2021100679A1 (ja) * 2019-11-20 2021-05-27 ヤマハ株式会社 情報処理システム、鍵盤楽器、情報処理方法およびプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6057502A (en) * 1999-03-30 2000-05-02 Yamaha Corporation Apparatus and method for recognizing musical chords
JP2007041234A (ja) * 2005-08-02 2007-02-15 Univ Of Tokyo 音楽音響信号の調推定方法および調推定装置
JP4333700B2 (ja) * 2006-06-13 2009-09-16 ソニー株式会社 和音推定装置及び方法
JP4214491B2 (ja) * 2006-10-20 2009-01-28 ソニー株式会社 信号処理装置および方法、プログラム、並びに記録媒体
JP2008216488A (ja) * 2007-03-01 2008-09-18 Univ Waseda 音声処理装置及び音声認識装置
JP2012506061A (ja) * 2008-10-15 2012-03-08 ムゼーカ ソシエテ アノニム デジタル音楽音響信号の分析方法
JP5463655B2 (ja) * 2008-11-21 2014-04-09 ソニー株式会社 情報処理装置、音声解析方法、及びプログラム

Also Published As

Publication number Publication date
JP2017215520A (ja) 2017-12-07

Similar Documents

Publication Publication Date Title
JP6671245B2 (ja) 識別装置
US20160148606A1 (en) Automatic composition apparatus, automatic composition method and storage medium
Wu et al. Polyphonic music transcription with semantic segmentation
US8907197B2 (en) Performance information processing apparatus, performance information processing method, and program recording medium for determining tempo and meter based on performance given by performer
US8912421B2 (en) Chord-playing instruction device, chord-playing instruction method, and recording medium
US9245508B2 (en) Music piece order determination device, music piece order determination method, and music piece order determination program
US20220383842A1 (en) Estimation model construction method, performance analysis method, estimation model construction device, and performance analysis device
US10909958B2 (en) Electronic musical interface
CN113763913B (zh) 一种曲谱生成方法、电子设备及可读存储介质
JP2017090671A (ja) 調律推定装置、評価装置およびデータ処理装置
JP5196550B2 (ja) コード検出装置およびコード検出プログラム
WO2019180830A1 (ja) 歌唱評価方法及び装置、プログラム
JP6539887B2 (ja) 楽音評価装置及びプログラム
US9040799B2 (en) Techniques for analyzing parameters of a musical performance
US11600252B2 (en) Performance analysis method
CN113012666A (zh) 一种检测音乐调性的方法、装置、终端设备及计算机存储介质
JP2015045731A (ja) 音響信号のアライメント装置
CN113228158B (zh) 演奏校正方法及演奏校正装置
JP6812273B2 (ja) 楽器音認識装置及び楽器音認識プログラム
JP5272900B2 (ja) 楽曲難易度算出装置および楽曲難易度算出プログラム
JP5807754B2 (ja) 弦楽器演奏評価装置及び弦楽器演奏評価プログラム
JP5153517B2 (ja) コード名検出装置及びコード名検出用コンピュータ・プログラム
JP6565529B2 (ja) 自動アレンジ装置及びプログラム
JP2006195384A (ja) 楽曲調性算出装置および選曲装置
JP5272899B2 (ja) 楽曲難易度算出装置および楽曲難易度算出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200303

R150 Certificate of patent or registration of utility model

Ref document number: 6671245

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250