JP2019144485A - コード特定方法およびプログラム - Google Patents

コード特定方法およびプログラム Download PDF

Info

Publication number
JP2019144485A
JP2019144485A JP2018030460A JP2018030460A JP2019144485A JP 2019144485 A JP2019144485 A JP 2019144485A JP 2018030460 A JP2018030460 A JP 2018030460A JP 2018030460 A JP2018030460 A JP 2018030460A JP 2019144485 A JP2019144485 A JP 2019144485A
Authority
JP
Japan
Prior art keywords
code
acoustic signal
attribute
specifying
music
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018030460A
Other languages
English (en)
Other versions
JP7069819B2 (ja
Inventor
康平 須見
Kohei Sumi
康平 須見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2018030460A priority Critical patent/JP7069819B2/ja
Priority to US16/282,453 priority patent/US11322124B2/en
Publication of JP2019144485A publication Critical patent/JP2019144485A/ja
Application granted granted Critical
Publication of JP7069819B2 publication Critical patent/JP7069819B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • G10H1/383Chord detection and/or recognition, e.g. for correction, or automatic bass generation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/036Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal of musical genre, i.e. analysing the style of musical pieces, usually for selection, filtering or classification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/056Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or identification of individual instrumental parts, e.g. melody, chords, bass; Identification or separation of instrumental parts by their characteristic voices or timbres
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/005Algorithms for electrophonic musical instruments or musical processing, e.g. for automatic composition or resource allocation
    • G10H2250/015Markov chains, e.g. hidden Markov models [HMM], for musical processing, e.g. musical analysis or musical composition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/135Autocorrelation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

【課題】楽曲の属性に応じた適切なコードを特定する。【解決手段】コード特定装置100は、楽曲に関する相異なる複数の属性にそれぞれ対応し、音響信号Vの特徴量Yからコードを特定するための複数のコード特定部のうち、処理対象の音響信号Vが表す楽曲の属性に対応したコード特定部により、処理対象の音響信号Vに応じたコードXを特定する。【選択図】図2

Description

本発明は、音声や楽音を示す音響信号からコード(和音)を判別する技術に関する。
複数の音声や楽音の混合音の波形を示す音響信号からコード名を特定する技術が従来から提案されている。例えば特許文献1には、入力される楽音の波形情報からコードを判定する技術が開示されている。周波数スペクトルに関する情報と、事前に用意された和音パターンとを比較するパターンマッチングを利用して和音が特定される。
特開2000−298475号公報
楽曲中で観測されるコードは、当該楽曲の属性(例えばジャンル)に応じて傾向が相違する。例えば、楽曲の属性に応じて演奏の頻度が高いコードや低いコードがある。したがって、楽曲の属性を加味しない特許文献1の技術では、必ずしも適切なコードを特定することができないという問題がある。以上の事情を考慮して、本発明は、楽曲の属性に応じた適切なコードを特定することを目的とする。
以上の課題を解決するために、本発明の好適な態様に係るコード特定方法は、楽曲に関する相異なる複数の属性にそれぞれ対応し、音響信号の特徴量からコードを特定するための複数のコード特定部のうち、処理対象の音響信号が表す楽曲の属性に対応したコード特定部により、前記処理対象の音響信号に応じたコードを特定する。
本発明の好適な態様に係るプログラムは、楽曲に関する相異なる複数の属性にそれぞれ対応し、音響信号の特徴量からコードを特定するための複数のコード特定部のうち、処理対象の音響信号が表す楽曲の属性に対応したコード特定部により、前記処理対象の音響信号に応じたコードを特定する処理をコンピュータに実行させる。
本発明の実施形態に係るコード特定装置の構成を示すブロック図である。 コード特定装置の機能的な構成を示すブロック図である。 機械学習装置の機能的な構成を示すブロック図である。 コード特定処理のフローチャートである。
図1は、本発明の好適な形態に係るコード特定装置100の構成を例示するブロック図である。本実施形態のコード特定装置100は、楽曲の演奏音(例えば歌唱音声または楽音等)を表す音響信号Vに応じたコードXを特定するコンピュータシステムであり、図1に例示される通り、表示装置11(提示装置の一例)と操作装置12と制御装置13と記憶装置14とを具備する。例えば携帯電話機もしくはスマートフォン等の可搬型の情報端末、またはパーソナルコンピュータ等の可搬型または据置型の情報端末がコード特定装置100として好適に利用され得る。
表示装置11(例えば液晶表示パネル)は、制御装置13による制御のもとで各種の画像を表示する。本実施形態では、音響信号Vから特定された複数のコードXの時系列を表示する。操作装置12は、利用者からの指示を受付ける入力機器である。例えば、利用者が操作可能な複数の操作子、または、表示装置11の表示面に対する接触を検知するタッチパネルが、操作装置12として好適に利用される。
制御装置13は、例えばCPU(Central Processing Unit)等の処理回路であり、コード特定装置100を構成する各要素を統括的に制御する。本実施形態の制御装置13は、記憶装置14に記憶された音響信号Vに応じたコードXを特定する。
記憶装置14は、例えば磁気記録媒体もしくは半導体記録媒体等の公知の記録媒体、または、複数種の記録媒体の組合せで構成され、制御装置13が実行するプログラムと制御装置13が使用する各種のデータとを記憶する。本実施形態の記憶装置14は、相異なる楽曲に対応する複数の音響信号Vを記憶する。各音響信号Vには、当該音響信号Vが表す楽曲の属性を表すデータ(以下「属性データ」という)Zが対応付けられている。楽曲の属性とは、楽曲の特徴や性質を示す情報である。本実施形態では、楽曲のジャンル(例えばロック、ポップまたはハードコア等)を楽曲の属性として例示する。なお、コード特定装置100とは別体の記憶装置14(例えばクラウドストレージ)を用意し、移動体通信網またはインターネット等の通信網を介して制御装置13が記憶装置14に対する書込および読出を実行してもよい。すなわち、記憶装置14はコード特定装置100から省略され得る。
図2は、制御装置13の機能的な構成を例示するブロック図である。図2に例示される通り、制御装置13は、記憶装置14に記憶されたプログラムを実行することで、音響信号Vに応じた複数のコードXの時系列を特定するための複数の機能(属性特定部32,抽出部34,処理部36)を実現する。なお、複数の装置の集合(すなわちシステム)で制御装置13の機能を実現してもよいし、制御装置13の機能の一部または全部を専用の電子回路(例えば信号処理回路)で実現してもよい。
利用者は、操作装置12の操作により、記憶装置14に記憶された複数の音響信号Vのうち、処理対象の音響信号Vを選択する。属性特定部32は、処理対象の音響信号Vが表す楽曲の属性を特定する。具体的には、属性特定部32は、処理対象の音響信号Vに対応付けられた属性データZを記憶装置14から読み出すことで、属性を特定する。
抽出部34は、処理対象の音響信号Vから当該音響信号Vの特徴量Yを抽出する。特徴量Yは、単位期間毎に抽出される。単位期間は、例えば楽曲の1拍分に相当する期間である。すなわち、音響信号Vから複数の特徴量Yの時系列が生成される。特徴量Yは、音響信号Vのうち各単位期間に対応した部分について音響的な特徴を表す指標である。例えば、複数の音階音(例えば平均律の12半音)の各々に対応する複数の要素を含むクロマベクトル(PCP:Pitch Class Profile)が特徴量Yとして例示される。クロマベクトルのうち任意の1個の音階音に対応する要素は、音響信号Vのうち当該音階音に対応する成分の強度を複数のオクターブにわたり加算した強度に設定される。
処理部36は、処理対象の音響信号Vに応じたコードXを特定する。具体的には、処理部36は、音響信号Vの特徴量YからコードXを特定するための複数の学習済モデルM(コード特定部の一例)を具備する。複数の学習済モデルMは、楽曲に関する相異なる複数の属性(例えばロック、ポップまたはハードコア等)にそれぞれ対応する。本実施形態の処理部36は、複数の学習済モデルMのうち、属性特定部32が特定した属性(すなわち処理対象の音響信号Vが表す楽曲の属性)に対応した学習済モデルMにより、処理対象の音響信号Vに応じたコードXを特定する。具体的には、処理部36は、複数の学習済モデルMのうち、属性特定部32が特定した属性に対応した学習済モデルMを選択し、当該選択した学習済モデルMに抽出部34が抽出した特徴量Yを入力することでコードXを特定する。抽出部34が抽出した複数の特徴量Yの各々についてコードXが特定される。すなわち、音響信号Vに応じた複数のコードXの時系列が特定される。表示装置11は、処理部36により特定された複数のコードXの時系列を表示する。
本実施形態の学習済モデルMは、音響信号Vの特徴量YとコードXとの間の関係を学習した統計的モデルであり、複数の係数Kで規定される。具体的には、学習済モデルMは、抽出部34が抽出した特徴量Yの入力に対してコードXを出力する。例えばニューラルネットワーク(典型的にはディープニューラルネットワーク)が学習済モデルMとして好適に利用される。ひとつの属性に対応する学習済モデルMの複数の係数Kは、当該属性に関する複数(Q個)の教師データLを利用した機械学習により設定される。
図3は、複数の係数Kを設定するための機械学習装置200の構成を示すブロック図である。機械学習装置200は、図3に例示される通り、分類部21と複数の学習部23とを具備するコンピュータシステムで実現される。分類部21および各学習部23は、例えばCPU(Central Processing Unit)等の制御装置(図示略)により実現される。なお、コード特定装置100に機械学習装置200を搭載してもよい。複数の教師データLの各々は、コードXと当該コードXの特徴量Yとの組合せである。教師データLには、属性データZが対応付けられている。
分類部21は、N個(Q<N)の教師データLを属性毎に分類する。具体的には、分類部21は、N個の教師データLを、属性データZが共通する教師データL毎に分類する。複数の学習部23は、相異なる複数の属性(例えばロック、ポップまたはハードコア等)にそれぞれ対応する。各学習部23は、当該学習部23に対応する属性に分類されたQ個の教師データLを利用した機械学習(深層学習)により、当該属性に関する学習済モデルMを規定する複数の係数Kを生成する。属性毎に生成された複数の係数Kは、記憶装置14に記憶される。以上の説明から理解される通り、特定の属性に対応する学習済モデルMは、当該属性を有する楽曲の音響信号Vの特徴量YとコードXとの関係を学習する。すなわち、特定の属性に対応する学習済モデルMに特徴量Yを入力することで、当該属性を有する楽曲のもとで当該特徴量Yに対して妥当なコードXが出力される。
図4は、コード特定装置100の制御装置13が音響信号Vに応じたコードXを特定する処理(以下「コード特定処理」という)のフローチャートである。コード特定処理は、例えば利用者からの指示を契機として開始される。コード特定処理を開始すると、属性特定部32は、処理対象の音響信号Vが表す楽曲の属性を特定する(Sa1)。抽出部34は、処理対象の音響信号Vから単位期間毎に特徴量Yを抽出する(Sa2)。処理部36は、複数の学習済モデルMのうち、属性特定部32が特定した属性に対応する学習済モデルMを選択する(Sa3)。処理部36は、選択した学習済モデルMに、抽出部34が抽出した特徴量Yを入力することで単位期間毎にコードXを特定する(Sa4)。
以上に説明した通り、本実施形態では、処理対象の音響信号Vが表す楽曲の属性に対応した学習済モデルMにより、処理対象の音響信号Vに応じたコードXが特定される。したがって、属性に関わらず共通の学習済モデルMによりコードXを特定する構成と比較して、楽曲の属性に応じた適切なコードXを特定することができる。
本実施形態では特に、音響信号Vの特徴量YとコードXとの間の関係を学習した学習済モデルMによりコードXが特定されるから、例えば事前に用意されたコードXと音響信号Vの特徴量Yとの比較によりコードXを特定する構成と比較して、音響信号Vの多様な特徴量Yから高精度にコードXを特定することができるという利点がある。また、学習済モデルMは、当該学習済モデルMに対応する属性に応じた複数の教師データLを利用した機械学習により生成されるから、音響信号Vの特徴量YとコードXとの間で楽曲の属性毎に観測される傾向に沿って、適切にコードXを特定することができる。
<変形例>
以上に例示した態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
(1)例えば移動体通信網またはインターネット等の通信網を介して端末装置(例えば携帯電話機またはスマートフォン)と通信するサーバ装置によりコード特定装置100を実現してもよい。端末装置は、属性が対応付けられた音響信号Vをコード特定装置100に送信する。コード特定装置100は、端末装置から送信された音響信号Vに対するコード特定処理により、音響信号Vおよび属性からコードXを特定し、当該コードXを端末装置に送信する。なお、端末装置は、音響信号Vの特徴量Yをコード特定装置100に送信してもよい。つまり、抽出部34は、コード特定装置100から省略され得る。
(2)前述の形態では、楽曲のジャンルを属性として例示したが、属性が示す情報は以上の例示に限定されない。例えば楽曲を演奏した奏者(アーティスト)、または、楽曲が作成された年代等の各種の情報を属性としてもよい。
(3)前述の形態では、記憶装置14に記憶された属性データZを読み出すことで、属性を特定したが、属性の特定方法は以上の例示に限定されない。例えば属性特定部32は、記憶装置14に記憶された音響信号Vの解析により、当該音響信号Vが表す楽曲の属性を特定してもよい。例えば属性特定部32は、音響信号Vの解析により楽曲のジャンルを特定する。ジャンルの特定には、公知の技術が採用される。音響信号Vの解析により属性を特定する構成によれば、処理対象の音響信号Vが表す楽曲の属性を利用者が指示する操作が不要になるという利点がある。
(4)前述の形態では、処理部36は複数の属性にそれぞれ対応した複数の学習済モデルMを利用してコードXを特定したが、コードXを特定する方法は以上の例示に限定されない。例えば、複数の属性にそれぞれ対応した複数の参照テーブルを利用してコードXを特定してもよい。各参照テーブルは、相異なる複数のコードXの各々に、当該コードXに対応する特徴量Yが対応付けられたデータテーブルである。処理部36は、複数の参照テーブルのうち、属性特定部32が特定した属性に対応する参照テーブルを選択すると、当該参照テーブルに登録された特徴量Yのうち、抽出部34が抽出した特徴量Yに最も近似する特徴量Yに対応するコードXを特定する。音響信号Vの特徴量YからコードXを特定するための要素は、「コード特定部」として包括的に表現される。すなわち、コード特定部は、前述の形態で例示した学習済モデルMや、前述の参照テーブルを含む概念である。
(5)前述の形態では、音響信号Vの特徴量Yとしてクロマベクトルを例示したが、特徴量Yの種類は以上の例示に限定されない。例えば音響信号Vの周波数スペクトルを特徴量Yとしてもよい。
(6)前述の形態では、ニューラルネットワークを学習済モデルMとして例示したが、学習済モデルMは以上の例示に限定されない。例えばSVM(Support Vector Machine)またはHMM(Hidden Markov Model)を学習済モデルMとして利用してもよい。
(7)前述の形態では、特徴量Yを入力してコードXを出力する学習済モデルMを利用したが、学習済モデルMの態様は以上の例示に限定されない。例えば特徴量Yを入力してコードX毎の出現確率を出力する学習済モデルMを利用してもよい。処理部36は、出現確率が最高のコードXを特定する。以上の構成では、出現確率が昇順で上位に位置する複数のコードXを特定してもよい。
(8)前述の各形態に係るコード特定装置100および機械学習装置200は、各形態での例示の通り、コンピュータ(具体的には制御装置)とプログラムとの協働により実現される。前述の各形態に係るプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体を含み得る。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体を除外するものではない。また、通信網を介した配信の形態でプログラムをコンピュータに提供することも可能である。また、プログラムの実行主体はCPUに限定されず、Tensor Processing UnitおよびNeural Engine等のニューラルネットワーク用のプロセッサ、または、信号処理用のDSP(Digital Signal Processor)がプログラムを実行してもよい。また、以上の例示から選択された複数種の主体が協働してプログラムを実行してもよい。
(9)学習済モデルMは、制御装置(コンピュータの例示)により実現される統計的モデル(例えばニューラルネットワーク)であり、入力Aに応じた出力Bを生成する。具体的には、学習済モデルMは、入力Aから出力Bを特定する演算を制御装置に実行させるプログラム(例えば人工知能ソフトウェアを構成するプログラムモジュール)と、当該演算に適用される複数の係数との組合せで実現される。学習済モデルMの複数の係数は、入力Aと出力Bとを対応させた複数の教師データLを利用した事前の機械学習(深層学習)により最適化されている。すなわち、学習済モデルMは、入力Aと出力Bとの間の関係を学習した統計的モデルである。制御装置は、学習済の複数の係数と所定の応答関数とを適用した演算を未知の入力Aに対して実行することで、複数の教師データLから抽出される傾向(入力Aと出力Bとの間の関係)のもとで入力Aに対して妥当な出力Bを生成する。
(10)以上に例示した形態から、例えば以下の構成が把握される。
本発明の好適な態様(第1態様)に係るコード特定方法は、楽曲に関する相異なる複数の属性にそれぞれ対応し、音響信号の特徴量からコードを特定するための複数のコード特定部のうち、処理対象の音響信号が表す楽曲の属性に対応したコード特定部により、前記処理対象の音響信号に応じたコードを特定する。以上の態様によれば、処理対象の音響信号が表す楽曲の属性に対応したコード特定部により、処理対象の音響信号に応じたコードが特定されるから、属性に関わらず共通のコード特定部によりコードを特定する構成と比較して、楽曲の属性に応じた適切なコードを特定することができる。
第1態様の好適例(第2態様)において、前記複数のコード特定部の各々は、音響信号の特徴量とコードとの間の関係を学習した学習済モデルである。以上の態様によれば、音響信号の特徴量とコードとの間の関係を学習した学習済モデルによりコードが特定されるから、例えば事前に用意されたコードと音響信号の特徴量との比較によりコードを特定する構成と比較して、音響信号の多様な特徴量から高精度にコードを特定することができる。
第2態様の好適例(第3態様)において、前記複数のコード特定部の各々は、当該コード特定部に対応する属性に応じた複数の教師データを利用した機械学習により生成される。以上の態様によれば、コード特定部が当該コード特定部に対応する属性に応じた複数の教師データを利用した機械学習により生成されるから、音響信号の特徴量とコードとの間で楽曲の属性毎に観測される傾向に沿って、適切にコードを特定することができる。
第1態様から第3態様の何れかの好適例(第4態様)において、前記処理対象の音響信号が表す楽曲の属性を特定し、前記複数のコード特定部のうち、前記特定した属性に対応したコード特定部により前記コードを特定する。以上の態様によれば、処理対象の音響信号が表す楽曲の属性を特定し、当該特定した属性に対応したコード特定部によりコードが特定されるから、処理対象の音響信号が表す楽曲の属性を利用者が指示する操作が不要になる。
第1態様から第4態様の何れかの好適例(第5態様)において、前記処理対象の音響信号を端末装置から受信し、前記受信した音響信号の特徴量から特定したコードを前記端末装置に送信する。以上の態様によれば、例えば利用者の端末装置に搭載されたコード特定部によりコードを特定する方法と比較して、端末装置での処理負荷が低減される。
本発明の好適な態様(第6態様)に係るプログラムは、楽曲に関する相異なる複数の属性にそれぞれ対応し、音響信号の特徴量からコードを特定するための複数のコード特定部のうち、処理対象の音響信号が表す楽曲の属性に対応したコード特定部により、前記処理対象の音響信号に応じたコードを特定する処理をコンピュータに実行させる。以上の態様によれば、処理対象の音響信号が表す楽曲の属性に対応したコード特定部により、処理対象の音響信号に応じたコードが特定されるから、属性に関わらず共通のコード特定部によりコードを特定する構成と比較して、楽曲の属性に応じた適切なコードを特定することができる。
100…コード特定装置、200…機械学習装置、11…表示装置、12…操作装置、13…制御装置、14…記憶装置、21…分類部、23…学習部、32…属性特定部、34…抽出部、36…処理部。

Claims (6)

  1. 楽曲に関する相異なる複数の属性にそれぞれ対応し、音響信号の特徴量からコードを特定するための複数のコード特定部のうち、処理対象の音響信号が表す楽曲の属性に対応したコード特定部により、前記処理対象の音響信号に応じたコードを特定する
    コンピュータにより実現されるコード特定方法。
  2. 前記複数のコード特定部の各々は、音響信号の特徴量とコードとの間の関係を学習した学習済モデルである
    請求項1のコード特定方法。
  3. 前記複数のコード特定部の各々は、当該コード特定部に対応する属性に応じた複数の教師データを利用した機械学習により生成される
    請求項2のコード特定方法。
  4. 前記処理対象の音響信号が表す楽曲の属性を特定し、
    前記複数のコード特定部のうち、前記特定した属性に対応したコード特定部により前記コードを特定する
    請求項1から請求項3の何れかのコード特定方法。
  5. 前記処理対象の音響信号を端末装置から受信し、
    前記受信した音響信号の特徴量から特定したコードを前記端末装置に送信する
    請求項1から請求項4の何れかのコード特定方法。
  6. 楽曲に関する相異なる複数の属性にそれぞれ対応し、音響信号の特徴量からコードを特定するための複数のコード特定部のうち、処理対象の音響信号が表す楽曲の属性に対応したコード特定部により、前記処理対象の音響信号に応じたコードを特定する処理
    をコンピュータに実行させるプログラム。
JP2018030460A 2018-02-23 2018-02-23 コード特定方法、コード特定装置およびプログラム Active JP7069819B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018030460A JP7069819B2 (ja) 2018-02-23 2018-02-23 コード特定方法、コード特定装置およびプログラム
US16/282,453 US11322124B2 (en) 2018-02-23 2019-02-22 Chord identification method and chord identification apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018030460A JP7069819B2 (ja) 2018-02-23 2018-02-23 コード特定方法、コード特定装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2019144485A true JP2019144485A (ja) 2019-08-29
JP7069819B2 JP7069819B2 (ja) 2022-05-18

Family

ID=67686061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018030460A Active JP7069819B2 (ja) 2018-02-23 2018-02-23 コード特定方法、コード特定装置およびプログラム

Country Status (2)

Country Link
US (1) US11322124B2 (ja)
JP (1) JP7069819B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10586519B2 (en) * 2018-02-09 2020-03-10 Yamaha Corporation Chord estimation method and chord estimation apparatus
JP7069819B2 (ja) * 2018-02-23 2022-05-18 ヤマハ株式会社 コード特定方法、コード特定装置およびプログラム
US11037537B2 (en) * 2018-08-27 2021-06-15 Xiaoye Huo Method and apparatus for music generation
JP7375302B2 (ja) * 2019-01-11 2023-11-08 ヤマハ株式会社 音響解析方法、音響解析装置およびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0527767A (ja) * 1991-07-24 1993-02-05 Yamaha Corp 和音検出装置および自動伴奏装置
JP2000298475A (ja) * 1999-03-30 2000-10-24 Yamaha Corp 和音判定装置、方法及び記録媒体
JP2004302318A (ja) * 2003-03-31 2004-10-28 Doshisha 音楽データ生成システム、音楽データ生成装置、および音楽データ生成方法
JP2009282464A (ja) * 2008-05-26 2009-12-03 Kawai Musical Instr Mfg Co Ltd コード検出装置およびコード検出プログラム
JP2010122630A (ja) * 2008-11-21 2010-06-03 Sony Corp 情報処理装置、音声解析方法、及びプログラム
JP2013076908A (ja) * 2011-09-30 2013-04-25 Casio Comput Co Ltd 調判定装置、調判定方法及び調判定プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2797112B2 (ja) * 1988-04-25 1998-09-17 カシオ計算機株式会社 電子弦楽器のコード判別装置
US5563361A (en) * 1993-05-31 1996-10-08 Yamaha Corporation Automatic accompaniment apparatus
US6448486B1 (en) * 1995-08-28 2002-09-10 Jeff K. Shinsky Electronic musical instrument with a reduced number of input controllers and method of operation
US5859381A (en) * 1996-03-12 1999-01-12 Yamaha Corporation Automatic accompaniment device and method permitting variations of automatic performance on the basis of accompaniment pattern data
US9293127B2 (en) * 2009-06-01 2016-03-22 Zya, Inc. System and method for assisting a user to create musical compositions
US8847054B2 (en) * 2013-01-31 2014-09-30 Dhroova Aiylam Generating a synthesized melody
US9734810B2 (en) * 2015-09-23 2017-08-15 The Melodic Progression Institute LLC Automatic harmony generation system
US9824719B2 (en) * 2015-09-30 2017-11-21 Apple Inc. Automatic music recording and authoring tool
US10147407B2 (en) * 2016-08-31 2018-12-04 Gracenote, Inc. Characterizing audio using transchromagrams
US10586519B2 (en) * 2018-02-09 2020-03-10 Yamaha Corporation Chord estimation method and chord estimation apparatus
JP7069819B2 (ja) * 2018-02-23 2022-05-18 ヤマハ株式会社 コード特定方法、コード特定装置およびプログラム
CN113010730B (zh) * 2021-03-22 2023-07-21 平安科技(深圳)有限公司 音乐文件生成方法、装置、设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0527767A (ja) * 1991-07-24 1993-02-05 Yamaha Corp 和音検出装置および自動伴奏装置
JP2000298475A (ja) * 1999-03-30 2000-10-24 Yamaha Corp 和音判定装置、方法及び記録媒体
JP2004302318A (ja) * 2003-03-31 2004-10-28 Doshisha 音楽データ生成システム、音楽データ生成装置、および音楽データ生成方法
JP2009282464A (ja) * 2008-05-26 2009-12-03 Kawai Musical Instr Mfg Co Ltd コード検出装置およびコード検出プログラム
JP2010122630A (ja) * 2008-11-21 2010-06-03 Sony Corp 情報処理装置、音声解析方法、及びプログラム
JP2013076908A (ja) * 2011-09-30 2013-04-25 Casio Comput Co Ltd 調判定装置、調判定方法及び調判定プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
吉井和佳: "音楽と機械学習", 情報処理, vol. 27, no. 6, JPN6021050543, June 2016 (2016-06-01), pages 519 - 522, ISSN: 0004666302 *

Also Published As

Publication number Publication date
US11322124B2 (en) 2022-05-03
JP7069819B2 (ja) 2022-05-18
US20190266988A1 (en) 2019-08-29

Similar Documents

Publication Publication Date Title
CN107767869B (zh) 用于提供语音服务的方法和装置
JP7069819B2 (ja) コード特定方法、コード特定装置およびプログラム
JP7086521B2 (ja) 情報処理方法および情報処理装置
US11842721B2 (en) Systems and methods for generating synthesized speech responses to voice inputs by training a neural network model based on the voice input prosodic metrics and training voice inputs
US10586519B2 (en) Chord estimation method and chord estimation apparatus
US11367424B2 (en) Method and apparatus for training adaptation quality evaluation model, and method and apparatus for evaluating adaptation quality
JP7140221B2 (ja) 情報処理方法、情報処理装置およびプログラム
CN111602193A (zh) 用于处理乐曲的演奏的信息处理方法和装置
JP2016161823A (ja) 音響モデル学習支援装置、音響モデル学習支援方法
US20230351989A1 (en) Information processing system, electronic musical instrument, and information processing method
JP2021128297A (ja) 推定モデル構築方法、演奏解析方法、推定モデル構築装置、演奏解析装置、およびプログラム
US20220215051A1 (en) Audio analysis method, audio analysis device and non-transitory computer-readable medium
US20210287695A1 (en) Apparatus for Analyzing Audio, Audio Analysis Method, and Model Building Method
JP7243147B2 (ja) コード推定方法、コード推定装置およびプログラム
CN115244614A (zh) 参数推论方法、参数推论系统及参数推论程序
CN112632401A (zh) 推荐装置、信息提供系统、推荐方法及存储介质
JP2021086060A (ja) 楽曲生成方法および楽曲生成システム
JP2020112683A (ja) 音響解析方法および音響解析装置
KR102625795B1 (ko) 인공지능 기반의 유사 음원 검색 시스템 및 방법
JP7230085B2 (ja) 音声を処理するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
EP4064268A1 (en) Information processing system, keyboard instrument, information processing method, and program
JP2018005188A (ja) 音響解析装置および音響解析方法
Kamonsantiroj et al. Chord Recognition in Music Using a Robust Pitch Class Profile (PCP) Feature and Support Vector Machines (SVM)
JP2024033382A (ja) 楽器識別方法、楽器識別装置、および、楽器識別プログラム
JP2021189246A (ja) 学習装置、学習方法、学習プログラム、生成装置、生成方法及び生成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220418

R151 Written notification of patent or utility model registration

Ref document number: 7069819

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151