JP2022021890A - 音楽処理システム、音楽処理プログラム、及び音楽処理方法 - Google Patents

音楽処理システム、音楽処理プログラム、及び音楽処理方法 Download PDF

Info

Publication number
JP2022021890A
JP2022021890A JP2020125761A JP2020125761A JP2022021890A JP 2022021890 A JP2022021890 A JP 2022021890A JP 2020125761 A JP2020125761 A JP 2020125761A JP 2020125761 A JP2020125761 A JP 2020125761A JP 2022021890 A JP2022021890 A JP 2022021890A
Authority
JP
Japan
Prior art keywords
music
data
generated
shaping
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020125761A
Other languages
English (en)
Inventor
健二 玉井
Kenji Tamai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tmik Inc
Original Assignee
Tmik Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tmik Inc filed Critical Tmik Inc
Priority to JP2020125761A priority Critical patent/JP2022021890A/ja
Priority to TW110126249A priority patent/TW202209300A/zh
Priority to KR1020237003220A priority patent/KR20230028802A/ko
Priority to US18/014,905 priority patent/US20230252962A1/en
Priority to PCT/JP2021/026976 priority patent/WO2022019268A1/ja
Priority to CN202180059081.0A priority patent/CN116210049A/zh
Priority to EP21846639.9A priority patent/EP4187532A1/en
Priority to JP2021192834A priority patent/JP7033365B2/ja
Publication of JP2022021890A publication Critical patent/JP2022021890A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • G10G1/04Transposing; Transcribing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G3/00Recording music in notation form, e.g. recording the mechanical operation of a musical instrument
    • G10G3/04Recording music in notation form, e.g. recording the mechanical operation of a musical instrument using electrical means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/30Character recognition based on the type of data
    • G06V30/304Music notations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Acoustics & Sound (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

【課題】 原曲を入力としつつ、新たに作曲された曲を生成する。【解決手段】 本発明は、音楽処理システムに関する。そして、本発明の音楽処理システムは、1チャンネル以上のメロディと1チャンネル以上のコードで構成された楽曲の譜面が記述された楽曲データと楽曲データの楽曲を構成する要素の属性を示す構成情報とを含む入力データに基づいて機械学習した学習モデルを用いて、楽曲を生成する楽曲生成手段と、楽曲生成手段が生成した生成楽曲を音楽的に調和した内容に整形する整形手段とを有することを特徴とする音楽処理システム。【選択図】 図1

Description

本発明は、音楽処理装置、音楽処理プログラム、及び音楽処理方法に関し、例えば、新たな楽曲の作曲に適用し得る。
従来、楽曲を作曲するための知識を有しないユーザについでも、容易に楽曲を生成することを支援するシステムとして、例えば、特許文献1の記載技術が存在する。
特許文献1に記載されたシステムでは、ユーザの操作により、原曲に対するアレンジの程度を変えながら原曲の編曲を支援するシステムである。特許文献1に記載されたシステムでは、発音タイミングを除いた3つの属性(音高、音長、音の大きさ)のうちの少なくとも1つの属性によって音の状態を定義するとき、或る状態から次の状態への遷移確率を設定した遷移確率データを複数保持している。そして、特許文献1に記載されたシステムでは、選択する遷移確率データを選択することによって原曲をアレンジの程度を変えることができるため、音楽に関する知識を殆ど有しない利用者であっても、アレンジの程度を変えながら、原曲の編曲を行うことができる。
特開2009-20323号公報
しかしながら、特許文献1の記載技術において、遷移確率データの属性からは発音タイミングが除かれているため、あくまで原曲をアレンジしたというだけで、作曲しているとは言い難い。
そのため、原曲を入力としつつ、新たに作曲された曲を生成することができる音楽処理システム、音楽処理プログラム、及び音楽処理方法が望まれている。
第1の本発明の音楽処理システムは、(1)1チャンネル以上のメロディと1チャンネル以上のコードで構成された楽曲の譜面が記述された楽曲データと前記楽曲データの楽曲を構成する要素の属性を示す構成情報とを含む入力データに基づいて機械学習した学習モデルを用いて、楽曲を生成する楽曲生成手段と、(2)前記楽曲生成手段が生成した生成楽曲を音楽的に調和した内容に整形する整形手段とを有することを特徴とする。
第2本発明の音楽処理プログラムは、コンピュータを、(1)1チャンネル以上のメロディと1チャンネル以上のコードで構成された楽曲の譜面が記述された学習用楽曲データを有する学習用データに基づいて機械学習した学習モデルを用いて、楽曲を生成する楽曲生成手段と、(2)前記楽曲生成手段が生成した生成楽曲を音楽的に調和した内容に整形する整形手段として機能させることを特徴とする音楽処理プログラム。
第3の本発明は、音楽処理システムが行う音楽処理方法において、(1)前記音楽処理システムは、楽曲生成手段と、整形手段とを備え、(2)前記楽曲生成手段は、1チャンネル以上のメロディと1チャンネル以上のコードで構成された楽曲の譜面が記述された学習用楽曲データを有する学習用データに基づいて機械学習した学習モデルを用いて、楽曲を生成し、(3)前記整形手段は、前記楽曲生成手段が生成した生成楽曲を音楽的に調和した内容に整形することを特徴とする。
本発明によれば、原曲を入力としつつ、新たに作曲された曲を生成することができる。
第1の実施形態に係る音楽処理装置の機能的構成について示したブロック図である。 第1の実施形態に係る生成処理部に適用するAIの学習時の構成例について示したブロック図である。 第1の実施形態に係る生成処理部における楽曲生成時の構成例について示したブロック図である。 第1の実施形態に係る入力楽曲の例をスコア形式の譜面で表した例について示している。 第1の実施形態に係る入力楽曲の例におけるメロディチャンネルの譜面をID(数値)に変換した内容を表形式で示した図である。 第1の実施形態に係る入力楽曲の例におけるコードチャンネルの譜面をID(数値)に変換した内容を表形式で示した図である。 第1の実施形態に係るメロディチャンネルの各音符についてIDに変換するための変換表について示した図である。 第1の実施形態に係るコードチャンネルの各コードについてIDに変換するための変換表について示した図である。 第1の実施形態に係る整形処理部が行う整形処理の流れについて示したフローチャートである。 第1の実施形態で処理される整形前楽曲(生成楽曲)の例について示した図である。 第1の実施形態で処理される整形前楽曲の例におけるコード進行について示した図である。 第1の実施形態に係る整形処理部による各調のカウント結果について示した図である。 第1の実施形態で処理されるコード整形済楽曲の例について示した図である。 第1の実施形態で処理されるメロディ整形済楽曲の例について示した図である。 第1の実施形態で[操作パラメータ=0]とした場合における生成楽曲の例について示した図である。 第1の実施形態で[操作パラメータ=10]とした場合における生成楽曲の例について示した図である。 第1の実施形態で[操作パラメータ=20]とした場合における生成楽曲の例について示した図である。 第2の実施形態に係る音楽処理装置の機能的構成について示したブロック図である。 第2の実施形態に係る生成処理部における楽曲生成時の構成例について示したブロック図である。
(A)第1の実施形態
以下、本発明による音楽処理システム、音楽処理プログラム、及び音楽処理方法の第1の実施形態を、図面を参照しながら詳述する。
(A-1)第1の実施形態の構成
図1は、この実施形態の音楽処理システム10の全体構成を示すブロック図である。
音楽処理システム10は、新たに楽曲を生成して出力するシステムである。
音楽処理システム10は、全てハードウェア(例えば、専用チップ等)により構成するようにしてもよいし一部又は全部についてソフトウェア(プログラム)として構成するようにしてもよい。音楽処理システム10は、例えば、プロセッサ及びメモリを有するコンピュータにプログラム(実施形態の音楽処理プログラムを含む)をインストールすることにより構成するようにしてもよい。また、音楽処理システム10を構成するコンピュータの数は限定されないものであり、複数台のコンピュータにプログラムやデータを分散して配置することにより実現するようにしてもよい。
音楽処理システム10は、入力楽曲データ、構成情報を含むデータ(以下、「入力データ」とも呼ぶ)と操作パラメータが入力されると、その入力データを利用して新たな楽曲を生成して出力する処理を行う。以下では、音楽処理システム10が出力する楽曲データを、「出力楽曲データ」と呼ぶものとする。
次に、入力楽曲データ/出力楽曲データについて説明する。
この実施形態において、入力楽曲データ/出力楽曲データのデータ形式(入出力される音楽データの形式)は、スタンダードMIDIファイル(Standard Musical Instrument Digital Interface File;以下、「SMF」と呼ぶ)の形式であるものとして説明するが入力楽曲データ/出力楽曲データに適用するデータ形式はスタンダードMIDIファイルの形式に限定されず種々の演奏情報(譜面データ)の形式のデータを適用することができる。また、音楽処理システム10において、入力楽曲データ/出力楽曲データに適用するデータ形式として、SMFのような演奏情報の形式ではなく、WAVやMP3等の直接的な音響信号の形式であってもよい。音楽処理システム10において、入力楽曲データ/出力楽曲データが音響信号の形式である場合には、入力される入力楽曲データをSMF等の演奏情報の形式のデータに変換して処理し、出力楽曲データとして音響信号の形式に変換したデータを出力することになる。音楽処理システム10において音響信号の形式のデータを演奏情報の形式のデータに変換する処理、及び演奏情報の形式のデータを音響信号の形式のデータに変換する処理(音楽再生処理)については種々の処理を適用することができるので、詳細については説明を省略する。
なお、この実施形態では、入力楽曲データと出力楽曲データは、同じデータ形式(SMFの形式)であるものとして説明するが、それぞれ異なる形式としてもよいことは当然である。
この実施形態において、音楽処理システム10で処理される楽曲の単位(例えば、長さやチャンネル(MIDI上のチャンネル)の数等)は、限定されないものである。すなわち、この実施形態において、音楽処理システム10で処理される楽曲の単位の長さは、固定長(例えば、所定の小節数)としてもよいし可変長としてもよい。この実施形態では、音楽処理システム10で処理される楽曲の単位の長さは4/4拍子の換算で8小節(32拍;2/2拍子の場合は16小節)の固定長であるものとして説明する。また、この実施形態において、音楽処理システム10で処理される楽曲のチャンネル数はメロディ1チャンネルとコード(メロディに対する伴奏の和音)1チャンネルの合計2チャンネルで構成されるものとして説明する。以下では、楽曲を構成するメロディのチャンネルを「メロディチャンネル」、コードのチャンネルを「コードチャンネル」と呼ぶものとする。なお、音楽処理システムで処理される楽曲においてメロディチャンネル及びコードチャンネルは、それぞれ複数(2以上)としてもよい。
次に、「構成情報」について説明する。
構成情報は、入力楽曲における各区間の要素の属性(種類)を示すパラメータである。この実施形態の例では、入力楽曲の要素としてイントロ、Aメロ、Bメロ又はサビのいずれかの属性を適用するものとする。適用可能な要素の属性は、上記に限らず種々の形式(例えば、第1主題、第2主題等の形式)を適用するようにしてもよい。
構成情報は、入力楽曲データとは別のデータとして構成もよいが、SMFのマーカ(marker)に構成情報に対応する情報を埋め込むことで実現するようにしてもよい。SMFでは、ユーザにより任意のテキストを書き込むことが可能なフィールドとしてマーカが用意されている。そこで、入力楽曲データ(SMFデータ)のマーカに、構成情報に対応するテキスト(例えば、イントロ、Aメロ、Bメロ、サビのようなテキスト)を書き込む形式としてもよい。
例えば、入力楽曲データとして供給されたSMFデータにおいて、1小節目の先頭のタイミング(ポジション)のマーカに「イントロ」、5小節目の先頭のタイミングのマーカに「Aメロ」と設定されていた場合、音楽処理システム10では、1~4小節目の区間を「イントロ」と認識し、5小節目以後(5~8小節目)の区間をAメロと認識する。また、例えば、入力楽曲データとして供給されたSMFデータにおいて、1小節目の先頭のタイミング(ポジション)のマーカに「Aメロ」設定されており、それ以外のマーカが設定されていない場合、音楽処理システム10では、全ての区間(1~8小節目)を「Aメロ」と認識する。以上のように、SMFデータでは、区間ごとの要素の属性をマーカに書き込むことが可能となっている。
SMFデータとは別に構成情報を記述する場合の具体的な形式は限定されないものであり、入力楽曲の区間ごとの要素の属性が記述されていればよい。例えば、SMFのマーカと同様にタイミング(ポジション)と要素の属性を示す情報(例えば、Aメロ、Bメロ、イントロに対応するテキストや数値)を対とした情報の列により構成情報を記述するようにしてもよい。また、入力楽曲の全区間について同じ属性を適用する場合は、構成情報にはタイミングに関する情報は必要無く、単に属性に対応するパラメータやテキストを設定するようにしてもよい。
次に、「操作パラメータ」について説明する。
操作パラメータは、音楽処理システム10において、ユーザから生成される楽曲の特性の操作を受け付けるためのインタフェースとして利用可能なパラメータである。この実施形態において、操作パラメータは1つの数値(1次元のパラメータ)で表されるものとして説明する。ただし、操作パラメータは、限定されないものであり、複数の数値(多次元のパラメータ)で表すようにしてもよいし、数値以外の形式(例えば、TRUE/FALSEのようなフラグ形式)で表わすようにしてもよい。操作パラメータの詳細については後述する。
次に、音楽処理システム10の内部構成について説明する。
図1に示すように、音楽処理システム10は、ベクトル化処理部101、生成処理部102、整形処理部103、及び復元処理部104を有している。
ベクトル化処理部101は、入力楽曲データ及び構成情報を含むデータについて後段の生成処理部102での処理に適した形式のベクトルデータ(以下、「入力楽曲ベクトルデータ」と呼ぶ)に変換する処理を行う。そして、ベクトル化処理部101は、取得した入力楽曲ベクトルデータを生成処理部102に供給する。入力楽曲ベクトルデータの具体的な形式については後述する。
生成処理部102は、AIを用いた生成モデルの処理により、入力楽曲ベクトルデータと操作パラメータに基づき新たな楽曲(以下、「生成楽曲」と呼ぶ)に対応するベクトルデータ(入力楽曲ベクトルデータと同様の形式のデータ;以下「生成楽曲ベクトルデータ」と呼ぶ)を生成して出力する。生成処理部102は、生成楽曲ベクトルデータを整形処理部103に供給する。生成処理部102の詳細構成については後述する。
整形処理部103は、生成楽曲ベクトルデータの楽曲について、音楽的に調和した内容に整形する処理(例えば、全体的な調の統一や、メロディとコードとの間のスケールの調整等)を行い、「整形済楽曲ベクトルデータ」として出力する。
生成楽曲ベクトルデータの楽曲は、AI(生成処理部102)から出力されたままの内容であるため、調が揃っていない場合や、メロディとコードとの間でスケールが合っていない場合等、音楽的(音楽理論的)に見て調和していない場合があり得る。そこで、音楽処理システム10では、整形処理部103を備えることで、音楽的に整形された楽曲を出力するようにしている。なお、AI(生成処理部102)から出力される生成楽曲ベクトルデータについて整形することが必要でない場合(例えば、ユーザ側で必要でない場合や、最初から音楽的に整った内容が生成される場合)には、整形処理部103の構成を除外して、生成楽曲ベクトルデータをそのまま復元処理部104に供給するようにしてもよい。
復元処理部104は、整形済楽曲ベクトルデータについて、所定の形式の音楽データ(この実施形態では、SMFの形式)に復元(変換)して「出力楽曲データ」として出力する。
次に、生成処理部102に適用するAIの構成例について説明する。
生成処理部102では、ディープラーニングベースで機械学習した学習モデルをもとにAIが構成されている。具体的には、生成処理部102では、VAE(Variational AutoEncoder)の枠組みで学習を行った学習モデルを取得する。
生成処理部102に用いられるAIを構成するプラットフォーム(ミドルウェア)については限定されないものであり種々のプラットフォームを適用することができる。この実施形態の例では、生成処理部102は、Python(登録商標)及びその周辺のライブラリを用いて構成されるものとして以下の説明を行う。
図2は、生成処理部102に適用するAIの学習時(学習モデルを取得する際)の構成例について示した図である。
図2に示すように、生成処理部102では、学習時において少なくとも、エンコーダ201(符号化器)、デコーダ202(復号器)、ディスクリミネータ203(識別器)、及び潜在変数処理部204が動作する。
エンコーダ201は、入力楽曲ベクトルデータに基づいて、潜在変数の平均ベクトルμと確立分布を示す分散ベクトルσを取得して出力する。
学習時において、潜在変数処理部204は、VAEの枠組みに従い、平均ベクトルμに対して標準偏差σに応じたノイズを加算した値を潜在変数z(潜在変数のサンプル)として取得してデコーダ202に供給する。このとき、潜在変数処理部204は、例えば、以下の(1)式に従って潜在変数zを取得するようにしてもよい。例えば、(1)式において、I=1としてもよい。
z=μ+εσ(ε~N(0,I)) …(1)
例えば、潜在変数zが256次元のベクトルである場合、潜在変数処理部204が学習時において潜在変数zを取得するためのソースコード(Pythonで記述した場合のコード)は、「μ+numpy.random.normal(loc=0.0, scale=1*σ,size=256)」とすることができる。
デコーダ202は潜在変数zを復元処理したベクトルデータ(以下、「復元楽曲ベクトルデータ」と呼ぶ)を出力する。図2に示すVAEの枠組みにおいては、エンコーダ201及びデコーダ202によりジェネレータ(生成器)が構成されている。ディスクリミネータ203は、復元楽曲ベクトルデータがジェネレータにより生成されたデータかそうでないかを識別する。生成処理部102では、ジェネレータは、ディスクリミネータ203にジェネレータが生成したベクトルデータであることを見破られないように学習が行われる。図2では、説明を簡易とするため図示を省略しているが、図2の学習時には、ディスクリミネータ203の識別結果や、LOSS(入力楽曲ベクトルデータと復元楽曲ベクトルデータとの差分)を用いてジェネレータが学習処理を行うことになる。
生成処理部102の学習時には、ベクトル化処理部101から学習に用いられるサンプル(入力楽曲ベクトルデータ)が逐次供給されるようにしてもよい。生成処理部102の学習に用いられるサンプル数は限定されないものであるが、1000~3000程度のサンプル数を適用するようにしてもよい。また、生成処理部102の学習において、各サンプル(1つの入力楽曲ベクトルデータ)について1000回転程度の学習処理(1000回程度、潜在変数zに基づき復元楽曲ベクトルデータを生成するまでの学習処理)を行うようにしてもよい。
また、生成処理部102の学習に用いるサンプル(入力楽曲ベクトルデータ)の元となる楽曲の種類(例えば、ポップス、ジャズ等)やアーティスト等について比率を変化することにより、ジェネレータで生成される楽曲の特徴についても変化させることができる。基本的にVAEの枠組みによりAIの学習を行う場合、潜在変数zの分布する範囲は学習に用いたサンプルに応じた分布となるためである。
この実施形態では、潜在変数zは、256次元の固定サイズであるものとするが、zのサイズはこれに限定されないものである。潜在変数zのサイズは、処理されるベクトルデータ(入力楽曲ベクトルデータ/復元楽曲ベクトルデータ)のサイズに応じて変更することが望ましい。
図3は、生成処理部102に適用するAIで学習したモデルを用いて生成楽曲ベクトルデータを生成する時(以下、「楽曲生成時」と呼ぶ)の構成例について示した図である。
図3では、上述の図2と同一部分又は対応する部分に、同一の符号又は対応する符号を付している。
図3に示すように、生成処理部102では、楽曲生成時において少なくとも、エンコーダ201、デコーダ202、及び潜在変数処理部204が動作する。
エンコーダ201とデコーダ202自体の動作は学習時と同様であるため詳しい説明を省略する。
潜在変数処理部204は、楽曲生成時においては、分散ベクトルσ及び操作パラメータcに応じたノイズを潜在変数zに混入(加算)させる点で学習時と異なる。
具体的には、潜在変数処理部204は、楽曲生成時においては、上記の(1)式において、I=cとすることで、ノイズを潜在変数zに操作パラメータcを反映させた値に補正することができる。操作パラメータcについて設定可能な範囲は限定されないものであり、ユーザにより調整可能としてもよい。例えば、操作パラメータcとしては、0~10の範囲で設定可能とするようにしてもよいし、0~50の範囲で所定のグリッド幅(例えば、10)ずつ変更可能とするようにしてもよい。また、潜在変数処理部204において、操作パラメータcの値についてユーザから入力を受け付ける方式(例えば、入力を受け付けるデバイスや操作画面の構成)については限定されないものである。
例えば、潜在変数zが256次元のベクトルである場合、潜在変数処理部204が、楽曲生成時に潜在変数zを取得するためのソースコード(Pythonで記述した場合のコード)は、「μ+numpy.random.normal(loc=0.0, scale=c*σ,size=256)」とすることができる。
(A-2)第1の実施形態の動作
次に、以上のような構成を有する第1の実施形態における音楽処理システム10の動作(実施形態に係る音楽処理方法)を説明する。
まず、ベクトル化処理部101の処理の詳細について説明する。
上述の通り、音楽処理システム10では、2チャンネルで8小節(32拍)の楽曲単位で処理される。
図4は、入力楽曲の例をスコア形式の譜面で表した例について示している。
なお、図4に示す入力楽曲は、アレクサンドル・ボロディン作曲の「韃靼人の踊り」(ポロヴェツ人の踊り)からの一節である。
図4では、入力楽曲のメロディチャンネルとコードチャンネルの譜面を、スコア形式で表している。なお、ここでは、各楽曲のチャンネルの楽器(MIDI上の楽器名)はピアノ系のものであるものとする。
まず、ベクトル化処理部101は、入力楽曲データの各チャンネルの音符の配列について48分音符単位(12分の1拍単位)で符号化(数列化)する。ここでは、入力楽曲データは8小節(32拍)であるので、各チャンネルについて符号化すると、8×48=384個の符号列が発生することになる。ここでは、各符号は、1つの数値(以下、単に「ID」と呼ぶ)で表されるものとする。
図5は、図4に示す入力楽曲のうちメロディチャンネルの譜面をIDに変換(符号化)した内容を表形式で図示している。
図6は、図4に示す入力楽曲のうちコードチャンネルの譜面をIDに変換(符号化)した内容を表形式図示している。
図5、図6の表では、1列で1小節(4拍)分のID(48個のIDを設定するスロット)が配置されている。
図7は、メロディチャンネルの各音符についてIDに変換するための変換表の例について示している。
図5、図7に示すように、メロディチャンネルでは、各音符の頭のタイミング(スロット)に、ピッチの高さに対応するID(2以後のID)が設定され、休符の頭のタイミング(スロット)には「1」のIDが設定されている。また、図5、図7に示すように、メロディチャンネルでは、音符又は休符の頭のタイミング以外のタイミング(スロット)に、直前の状態を継続するための「0」の符号が設定される。具体的には、「0」のIDは、図7に示すように、「直前のIDの状態が継続している状態」、「直前のIDの状態が継続している状態。」、「直前のIDが0の場合は、さらにその直前の状態が継続している状態。」、「直前のIDが1の場合は、音が鳴っていない状態。」、「それ以外の場合は、該当するピッチの音が鳴り続けている状態。」という処理を意味している。
図8は、コードチャンネルの各コードについてIDに変換するための変換表について示している。
図6、図8に示すように、コードチャンネルでは、各コード(和音)の頭のタイミング(スロット)に、コードの種類(和音の組合せ)に対応するID(2以後のID)が設定され、休符の頭のタイミング(スロット)には「1」のIDが設定される。コードチャンネルでは、ピッチの最低音は、MIDIにおける国際式のC2、最高音はB5に相当する音となる。また、図6、図8に示すように、コードチャンネルでは、音符又は休符の頭のタイミング以外のタイミング(スロット)に、直前の状態を継続するための「0」の符号が設定される。具体的には、「0」の符号は、図8に示すように、「直前のIDの状態が継続している状態」、「直前のIDの状態が継続している状態。」、「直前のIDが0の場合は、さらにその直前の状態が継続している状態。」、「直前のIDが1の場合は、音が鳴っていない状態。」、「それ以外の場合は、該当するコードの音が鳴り続けている状態。」という処理を意味している。
以上のように、ベクトル化処理部101は、入力楽曲データの各チャンネルについて数列に変換することで、各チャンネルに対応するOne-Hot Vector(AIの処理に好適なデータ形式のデータ)を得ることができる。以下では、各チャンネルについて符号化(ID化/数列化/One-Hot Vector化)したデータの塊を、「符号化済入力楽曲データ」と呼ぶものとする。符号化済入力楽曲データには、メロディチャンネルの数列(384のIDの列/符号列/One-Hot Vector)と、コードチャンネルの数列(384個のIDの列/数列/One-Hot Vector)が含まれるデータとなる。以下では、メロディチャンネルの数列の各数値をMi(iは1~384のスロット番号(時系列の順序)を示す)、コードチャンネルの数列の各数値をCiと表すものとする。具体的には、メロディチャンネルの数列をM1、M2、M3、…、M384と表し、コードチャンネルの数列をC1、C2、C3、…、C384と表すものとする。
次に、ベクトル化処理部101が構成情報を符号化(数列化)する処理について説明する。
上述の通り、ベクトル化処理部101では構成情報により、入力楽曲の区間ごとの要素の属性(例えば、イントロ、Aメロ、Bメロ、サビ等)を把握することができる。そこで、ベクトル化処理部101は、入力楽曲の各スロットに対応する要素の属性を把握し、各スロットに要素(要素の属性)に対応する数値(符号)を設定した数列を取得する。
各要素の属性に対応する数値(符号)の割り振りは限定されないものである。この実施形態では、各要素に対応する数値は0~50の範囲で割り振られているものとする。具体的には、この実施形態の例では、Aメロに対応する数値として10~19のいずれか、Bメロに対応する数値として20~29のいずれか、サビに対応する数値として30~39のいずれか、イントロに対応する数値として40~49のいずれかが割り振られているものとして説明する。例えば、ベクトル化処理部101では、Aメロに対応する数値を10、Bメロに対応する数値を20、サビに対応する数値を30、イントロに対応する数値を40とするようにしてもよい。要素の属性が異なる場合は、ある程度数値の間隔をあけることでAIに要素の属性による特徴を区別させやすくすることができる。また、入力楽曲で、同じ要素の区間が複数発生する場合(例えば、Aメロ、Bメロ、Aメロと続くような場合)、ベクトル化処理部101は、重複して発生する区間について異なる数値を設定するようにしてもよい。例えば、Aメロ、Bメロ、Aメロと続くような場合、1回目のAメロの区間については30、2回目のAメロの区間については31を設定するようにしてもよい。なお、この実施形態では、構成要素に対応するパラメータは1次元としているが多次元で構成するようにしてもよい。例えば、構成要素に対応するパラメータとして3つのパラメータF、G、Hを設定したと仮定した場合、Aメロを「F=1、G=0、H=0」、Bメロを「F=0、G=1、H=0」、サビを「F=0、G=0、H=1」と定義するようにしてもよい。
以上のように、ベクトル化処理部101では、構成情報に基づき、入力楽曲の各スロット(384個のスロット)に対して、要素の属性に対応する数値を設定することができる。以下では、構成情報に基づく数列の各数値をEiと表すものとする。具体的には、構成情報に基づく各スロットの数列をE1~E384と表すものとする。
そして、ベクトル化処理部101は、符号化済入力楽曲データを構成する数列(メロディチャンネル及びコードチャンネルの数列)と構成情報に基づく数列についてAI処理に適したベクトルデータ(行列式)に組み立てる処理を行う。
この場合、ベクトル化処理部101が生成する以下の(2)式のような行列式をベクトルデータとして取得するようにしてもよい。(2)式では、1スロット分(48分音符分)のデータを1行とした行列式となっている。つまり、(2)式において、i行目(iは1~384のいずれかの整数)は、(Mi、Ci、Ei)で構成されている。
Figure 2022021890000002
なお、この実施形態では、音楽処理システム10のAI(生成処理部102)で処理されるベクトルデータ(入力楽曲ベクトルデータ、復元楽曲ベクトルデータ等)は、全て(2)式のような形式であるものとして説明する。ベクトルデータの形式は、(2)に限らず、同じ数列で構成されていれば具体的な配列の順序や各行の構成についてはその他の形式(例えば、24分音符単位で1行を構成する形式)としてもよい。
また、上述の通り、この実施形態において、入力楽曲ベクトルデータにおいてメロディチャンネルとコードチャンネルの数列は、48部音符単位で数列化(ID化)されてはいるが、実質的には、元の入力楽曲データ(SMFデータ)と同様に譜面(演奏情報)の形式のデータであると言える。したがって、音楽処理システム10において、最初から入力楽曲データとして、メロディチャンネルとコードチャンネルのデータについて数列化されたデータの供給を受けるようにしてもよい。また、音楽処理システム10において、最初から入力楽曲ベクトルデータの形式で、供給を受けるようにしてもよい。その場合、音楽処理システム10において、ベクトル化処理部101を除外するようにしてもよい。
次に、整形処理部103による整形処理の詳細について説明する。
上述の通り、整形処理部103は、生成楽曲ベクトルデータについて整形処理を行って整形済楽曲ベクトルデータとして出力する。また、以下では、生成楽曲ベクトルデータに対応する楽曲を「整形前楽曲」と呼び、整形済楽曲ベクトルデータの楽曲を「整形済楽曲」と呼ぶものとする。
この実施形態では、整形前楽曲は8小節(32拍)程度の長さであるため、整形処理部103は、整形前楽曲に対し、整形処理として全体にわたって調を統一する処理を行うものとする。なお、整形処理部103は、整形前楽曲を複数の区間に分け、それぞれの区間について別個に統一調を決定して、その後の整形処理を行うようにしてもよい。
この実施形態では、整形処理部103は、ベクトルデータの状態(生成楽曲ベクトルデータ)で整形処理を行うものとして説明するが、整形処理部103と復元処理部104の順序を入れ替えて、SMFデータの形式に復元してから整形処理を行うようにしてもよい。
図9は、整形処理部103が行う整形処理の流れについて示したフローチャートである。
まず、整形処理部103は、整形前楽曲について統一する調として適した調を推定する処理(以下、「調推定処理」と呼ぶ)を行い、調推定処理の結果に従って統一する調(以下、「統一調」と呼ぶ)を決定する(S101)。
次に、整形処理部103は、整形前楽曲のコードチャンネルについて統一調で一般的に使用されるコードのみになるように整形する処理(以下、「コード整形処理」と呼ぶ)を行う(S102)。以下では、整形前楽曲についてコード整形処理を行った後の楽曲を「コード整形済楽曲」と呼ぶものとする。
次に、整形処理部103は、コード整形済楽曲のメロディチャンネルの各音符について、コードチャンネルのコードと調和するように整形する処理(以下、「メロディ整形処理」と呼ぶ)を行い、整形済楽曲として取得する(S103)。具体的には、整形処理部103は、コード整形済楽曲のメロディチャンネルの各音符について、同時に鳴っている(同じ時系列で鳴っている)コードチャンネルのコード(以下、「対応コード」と呼ぶ)に対応するスケール(以下、「コードスケール」と呼ぶ)に合うようにピッチを調整(整形)する処理を行う。
次に、ステップS101の調推定処理の詳細について説明する。
整形処理部103は、調推定処理において、整形前楽曲について、全24調((長調×12音)+(短調×12音)=24)のうち、どの調が統一調として適しているかを推定する。
この実施形態では、整形処理部103は、整形前楽曲に含まれるコードが、各調で使用されるコードとどれだけ一致するかを数え上げ、最もそれらのコードとの一致数が多い調を、最適な統一調として推定(決定)する。
図10は、整形前楽曲(生成楽曲)の例についてスコア形式で示した図である。
図11は、図10に示す整形前楽曲におけるコード進行について示した図である。
図11では、整形前楽曲を構成する14個の各コードに対して先頭から順に、C01~C14という符号を付している。そして、図10では、コードC01~C14に対して、コード名を付記している。図10に示すように、コードC01~C14のコードは[DM7],[A7],[Am7],[E],[Bm7],[Esus4],[D7],[B7],[Am7],[E7],[Em7],[A7],[Em],[Em7]となっている。
整形処理部103は、整形前楽曲の各コードを構成する各音について、各調(全24調の各調)のダイアトニックコードにどのくらい含まれているかをカウントする。このときの整形処理部103によるカウント結果を図12に示す。
図12は、整形処理部103が、各調のダイアトニックコードが、整形前楽曲の各コードを構成する各音にいくつ含まれているかをカウントした結果について示した図である。
図12の表では、調ごとに含まれるダイアトニックコードの数(以下、「カウント数」と呼ぶ)を示している。
例えば、図11、図12に示すように、Eminorのダイアトニックコードは、計8つのコード(C03[Am7],C05[Bm7],C07[D7],C08[B7],C09[Am7],C11[Em7],C13[Em],C14[Em7])に含まれることになるので、Eminorのカウント数は8となる。
そして、この場合、図12に示すように、Eminorのカウント数が8と最も多くなっている。したがって、この場合、整形処理部103は、当該整形前楽曲に対する統一調としてEminorが最適であると推定することになる。
次に、ステップS102のコード整形処理の詳細について説明する。
上述の通り、整形処理部103は、コード整形処理において、整形前楽曲のコードチャンネルについて統一調で一般的に使用されるコードのみになるようにコード整形処理を行って、コード整形済楽曲を生成する。
まず、整形処理部103は、整形前楽曲のコードチャンネルを構成する各コードについて、統一調で使用されるコードと一致するコード(以下、「一致コード」と呼ぶ)であるか、そうでないコード(以下、「不一致コード」と呼ぶ)であるかを判断する。
そして、整形処理部103は、整形前楽曲のコードチャンネルを構成する各コードのうち、不一致コードについて統一調のダイアトニックコード(以下、「統一調コード」と呼ぶ)となるようにコードを調整(整形)する。
このとき、整形処理部103が、各不一致コードについて修正する先の統一調コード(以下、「調整先コード」と呼ぶ)を選択する方法については限定されないものであるが、以下のようなポリシーで選択するようにしてもよい。
基本的に、整形処理では、変更する量(ピッチを変更する音符の数)はできるだけ少ないことが望ましい。整形処理部103は、以下のポリシーに従って調整先コードを選択するようにしてもよい。
[第1のポリシー]
各不一致コードについて、統一調コードのうち最も一致する構成音の多いものを調整先コードとして選択する。
[第2のポリシー]
第1のポリシーに該当する統一調コードが複数存在する不一致コードについては、当該不一致コードと最も構成音数の差が小さい(最も一致する構成音数が多い)統一調コードを調整先コードとして選択する。
[第3のポリシー]
第2のポリシーに該当する統一調コードも複数存在する不一致コードについては、実装内のインデックス(例えば、実装上付与される各コードの管理番号(ID番号))が最も若いコードを調整先コードとして選択する。なお、この場合は、複数の統一調コードから、ランダムで選択したコードを調整先コードとしてもよい。
図10に示す整形前楽曲において、統一調をEminorとすると、一致コードは、C03[Am7],C05[Bm7],C07[D7],C08[B7],C09[Am7],C11[Em7],C13[Em],C14[Em7]であり、不一致コードは、C01[DM7],C02[A7]、C04[E],C06[Esus4],C10[E7],C12[A7]となる。
図13は、図10に示す整形前楽曲についてコード整形処理を行った結果(コード整形済楽曲)について示した図である。
図13では、当該整形前楽曲において、統一調をEminorとし、上記のポリシーに従って、不一致コードC01[DM7],C02[A7]、C04[E],C06[Esus4],C10[E7],C12[A7]を統一調コードに修正した結果について示している。
例えば、1小節目のコードC01[DM7](構成音DF#AC#)について上記のポリシーにあてはめると、Eminorのダイアトニックコードで最も一致する構成音が多い統一調コードであるF#m7b5(構成音F#ACE)に変更することになる。
次に、ステップS103のメロディ整形処理の詳細について説明する。
上述の通り、メロディ整形処理において、整形処理部103は、コード整形済楽曲のメロディチャンネルの各音符について、対応コードのスケール(以下、「対応コードスケール」と呼ぶ)の構成音となるように調整(整形)する処理を行う。以下では、メロディチャンネルにおいて、対応コードスケールの構成音でないために、調整対象となる音符を「調整対象音符」と呼ぶものとする。
なお、対向コードスケールは、基本的に対応コードのスケール(例えば、対応コードがAm7であれば対応コードスケールはAminorのスケールとなる)が、対応コードがadd9コードの場合は、当該対応コードのルート音に対応するリディアンスケールを対応コードスケールとして取り扱うようにしてもよい。
このとき、整形処理部103が、調整対象音符(メロディチャンネルの各音符)のピッチを調整する方法については限定されないものであるが、以下のようなポリシーで行うようにしてもよい。なお、音符としては分かれていても、スラーでつながった同じピッチの音符については1つの音符(調整対象音符)とみなして、以下の各ポリシーに適用するようにしてもよい。
[第1のポリシー]
調整対象音符については、対応コードスケールの構成音のみで構成されるようにピッチを調整する。
[第2のポリシー]
複数のコードの区間にまたがった調整対象音符(以下、「複数コード対応音符」と呼ぶ)は、それらの複数のコードのすべての対応コードスケールで共通する音のみで構成されるようにピッチを調整する。例えば、複数コード対応音符の区間で、1回コードが切り替わる場合対応コードは2つとなり、2回コードが切り替わる場合対応コードは3つとなる。
[第3のポリシー]
第2のポリシーを満たすピッチが存在しない複数コード対応音符については、コードの切れ目(コードの切り替わりのタイミング)で分割し、分割した各音符について、それぞれ別個の調整対象音符として、最初からピッチ整形処理(第1のポリシーから適用する処理)を行う。
[第4のポリシー]
調整対象音符のピッチを調整する際、整形前楽曲における当該調整対象音符の直前の音符(以下、「直前音符」と呼ぶ)及び直後の音符(以下、「直後音符」と呼ぶ)との相対的なピッチの上下関係(「ピッチが上がっている」、「ピッチが下がっている」、「ピッチが同じ」の3つのパターンのいずれか)を保つ。
以下では、当該調整対象音符のピッチをPT、直前音符のピッチをPB、直後音符のピッチをPAと表すものとする。例えば、直前音符のピッチPBと当該調整対象音符のピッチPTとの関係では、PB=PT(ピッチが同じ)、PB>PT(ピッチが下がっている)、PB<PT(ピッチが上がっている)のパターンが存在する。また、例えば、当該調整対象音符のピッチPTと直後音符のピッチPAとの関係では、PT=PA(ピッチが同じ)、PT>PA(ピッチが下がっている)、PT>PA(ピッチが上がっている)のパターンが存在する。
[第5のポリシー]
当該調整対象音符のピッチ調整だけでは第4のポリシーを満たすことができない場合、直後音符についてもピッチ調整を行う前提で、第4のポリシーを満たすピッチの調整パターンを決定する。
[第6のポリシー]
当該調整対象音符のピッチ調整を行う際、調整前後のピッチの差分を所定以下(例えば、±1オクターブ以下)に収める。
整形処理部103は、以上のようなポリシーで調整対象音符を、対応コードスケールの構成音のみで構成されるように調整することが望ましい。なお、第4及び第5のポリシーについて、守ることができない状態である場合は、この2つのポリシーを除外して調整するようにしてもよい。また、第4及び第5のポリシーを守ると第6のポリシーを満たすことができない状態である場合は、「第6のポリシーを除外する」又は「第4又は第5のポリシーを除外する」のいずれかを適用するようにしてもよい。
図14は、図13に示すコード整形済楽曲についてメロディ整形処理を行った結果(メロディ整形済楽曲)について示した図である。
図14に示すように、メロディ整形処理により、1小節目Fの音が、上記のポリシーに従いF#(Eminorスケール構成音であり、前後の音との高さの関係が変わらない音)に変更されている。
(A-3)第1の実施形態の効果
第1の実施形態によれば、以下のような効果を奏することができる。
第1の実施形態の音楽処理システム10では、AIを用いた生成モデルにより、入力楽曲データ(原曲)を入力としつつ、新た作曲された楽曲を生成することができる。
また、第1の実施形態の音楽処理システム10では、操作パラメータcに応じたノイズを潜在変数zに混入(加算)させることができる。操作パラメータcには、任意の値を設定することが可能であるため、ユーザは、操作パラメータcの値を変動させて複数の楽曲を生成させることで、生成された楽曲の中から、生成楽曲について入力楽曲データ(原曲)を入力としつつ新たに作曲したといえる内容を選んで取得することが可能となる。
次に、操作パラメータの変動に伴い、生成楽曲が変化する具体例について図15~図17を用いて説明する。
図15~図17は、それぞれ入力楽曲を図4の楽曲とし、操作パラメータの値を0、10、20と変動させた場合における生成楽曲を譜面(五線譜)の形式で表した図である。
図15に示すように、操作パラメータの値を0とした場合、原曲(図4)と同じ調(F# minor)もしくはその平行調(A major)と推定できる曲が生成されている。また、図15の譜面では、原曲(図4)と同じく4小節単位でひとまとまりのようなメロディの構成が見られる。
図16に示すように、操作パラメータの値を10とした場合、原曲(図4)と同じ調ではなく、その下属調(Dmajor)と推定される曲が生成されている。
図17に示すように、操作パラメータの値を20とした場合、原曲(図4)と調が大きく異なるだけでなく、使用されている音符の種類やテンポ感も全く違う曲になっている。
以上のように、第1の実施形態の音楽処理システム10では、操作パラメータcの値を変動させることで、生成楽曲について、入力楽曲データ(原曲)からを入力としつつ新たに作曲したといえる内容とすることが可能となる。
(B)第2の実施形態
以下、本発明による音楽処理システム、音楽処理プログラム、及び音楽処理方法の第2の実施形態を、図面を参照しながら詳述する。
(B-1)第2の実施形態の構成及び動作
図18は、第2の実施形態の音楽処理システム10Aの全体構成を示すブロック図である。
図18では、上述の図1と同一部分又は対応する部分に、同一の符号又は対応する符号を付している。
以下では、第2の実施形態について第1の実施形態との差異を説明する。
第2の実施形態の音楽処理システム10Aでは、生成処理部102が生成処理部102Aに置き換わっている点で第1の実施形態と異なっている。
第2の実施形態の生成処理部102Aは、AIの学習時の構成は第1の実施形態と同じであるが、その後の楽曲生成時における構成が異なる。
図19は、第2の実施形態の生成処理部102Aにおける楽曲生成時の構成例について示した図である。
図19では、上述の図3と上述の図1と同一部分又は対応する部分に、同一の符号又は対応する符号を付している。
図19に示すように、第2の実施形態の生成処理部102Aでは、楽曲生成時に、潜在変数処理部204Aとデコーダ202のみが動作する。
潜在変数処理部204Aは、楽曲生成時において、エンコーダ201からのデータによらず、所定の手段で取得する数値(例えば、乱数等)に基づき独自にデコーダ202へ供給する潜在変数zを生成する点で第1の実施形態と異なっている。
例えば、上記の(1)式において、μ=0、σ=1、I=1とすることで、分散が1の乱数に基づいた潜在変数zを取得するようにしてもよい。例えば、潜在変数zが256次元のベクトルである場合、潜在変数処理部204Aが潜在変数zを取得するためのソースコード(Pythonで記述した場合のコード)は、「numpy.random.normal(loc=0.0, scale=1.0, size=256)」とすることができる。
なお、第2の実施形態において、σ及びIに設定する具体的な値は上記の例に限定されず、種々の値を適用することができる。
(B-2)第2の実施形態の効果
第2の実施形態によれば、以下のような効果を奏することができる。
第2の実施形態の音楽処理システム10Aでは、入力楽曲によらず、潜在変数処理部204Aが乱数に基づいて取得する潜在変数zを用いて楽曲を生成する。これにより、第2の実施形態の音楽処理システム10Aでは、入力楽曲を入力せずに新たな楽曲を生成することができる。
(C)他の実施形態
本発明は、上記の各実施形態に限定されるものではなく、以下に例示するような変形実施形態も挙げることができる。
(C-1)第1の実施形態では、音楽処理システムが入力楽曲ベクトルデータ(入力楽曲データ)及び操作パラメータに基づいて楽曲生成する動作モード(以下、「リファレンスモード」と呼ぶ)について説明し、第2の実施形態では、音楽処理システムが乱数に基づき楽曲生成する動作モード(以下、「ランダムモード」と呼ぶ)について説明したが、この2つの動作モードの両方に対応し、ユーザの操作等に基づいて動作モードを変更可能な音楽処理システムを構築するようにしてもよい。
(C-2)上記の各実施形態では、生成処理部102は、学習時の構成と、楽曲生成時の構成の両方を備えるものとして説明したが、学習の処理がすでに済んだ状態であれば学習時の構成(例えば、ディスクリミネータ203等)は備えなくてもよい。
10…音楽処理システム、101…ベクトル化処理部、102…生成処理部、103…整形処理部、104…復元処理部、201…エンコーダ、202…デコーダ、203…ディスクリミネータ、204…潜在変数処理部。

Claims (5)

  1. 1チャンネル以上のメロディと1チャンネル以上のコードで構成された楽曲の譜面が記述された楽曲データと前記楽曲データの楽曲を構成する要素の属性を示す構成情報とを含む入力データに基づいて機械学習した学習モデルを用いて、楽曲を生成する楽曲生成手段と、
    前記楽曲生成手段が生成した生成楽曲を音楽的に調和した内容に整形する整形手段と
    を有することを特徴とする音楽処理システム。
  2. 前記楽曲生成手段は、
    入力データに基づいて前記学習モデルを用いて入力データに対応する潜在変数の平均ベクトルと分散ベクトルを出力するエンコーダと、
    前記平均ベクトルと分散ベクトルを処理して潜在変数を生成する潜在変数処理手段と、
    前記学習モデルを用いて、前記潜在変数処理手段が生成した潜在変数に応じた入力データと同じ形式の出力データを出力するデコーダと
    を有することを特徴とする請求項1に記載の音楽処理システム。
  3. 前記楽曲生成手段は、入力データと共に、生成される楽曲の性質を操作するための操作パラメータの入力を受け付け、
    前記潜在変数処理手段は、前記潜在変数に、前記分散ベクトルと前記操作パラメータの組合せに応じたノイズを混入させる
    ことを特徴とする請求項2に記載の音楽処理システム。
  4. コンピュータを、
    1チャンネル以上のメロディと1チャンネル以上のコードで構成された楽曲の譜面が記述された学習用楽曲データを有する学習用データに基づいて機械学習した学習モデルを用いて、楽曲を生成する楽曲生成手段と、
    前記楽曲生成手段が生成した生成楽曲を音楽的に調和した内容に整形する整形手段と
    して機能させることを特徴とする音楽処理プログラム。
  5. 音楽処理システムが行う音楽処理方法において、
    前記音楽処理システムは、楽曲生成手段と、整形手段とを備え、
    前記楽曲生成手段は、1チャンネル以上のメロディと1チャンネル以上のコードで構成された楽曲の譜面が記述された学習用楽曲データを有する学習用データに基づいて機械学習した学習モデルを用いて、楽曲を生成し、
    前記整形手段は、前記楽曲生成手段が生成した生成楽曲を音楽的に調和した内容に整形する
    ことを特徴とする音楽処理方法。
JP2020125761A 2020-07-22 2020-07-22 音楽処理システム、音楽処理プログラム、及び音楽処理方法 Pending JP2022021890A (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2020125761A JP2022021890A (ja) 2020-07-22 2020-07-22 音楽処理システム、音楽処理プログラム、及び音楽処理方法
TW110126249A TW202209300A (zh) 2020-07-22 2021-07-16 音樂處理系統、音樂處理程式、及音樂處理方法
KR1020237003220A KR20230028802A (ko) 2020-07-22 2021-07-19 음악 처리 시스템, 음악 처리 프로그램, 및 음악 처리 방법
US18/014,905 US20230252962A1 (en) 2020-07-22 2021-07-19 Music processing system, music processng program, and music processing method
PCT/JP2021/026976 WO2022019268A1 (ja) 2020-07-22 2021-07-19 音楽処理システム、音楽処理プログラム、及び音楽処理方法
CN202180059081.0A CN116210049A (zh) 2020-07-22 2021-07-19 音乐处理系统、音乐处理程序以及音乐处理方法
EP21846639.9A EP4187532A1 (en) 2020-07-22 2021-07-19 Music processing system, music processing program, and music processing method
JP2021192834A JP7033365B2 (ja) 2020-07-22 2021-11-29 音楽処理システム、音楽処理プログラム、及び音楽処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020125761A JP2022021890A (ja) 2020-07-22 2020-07-22 音楽処理システム、音楽処理プログラム、及び音楽処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021192834A Division JP7033365B2 (ja) 2020-07-22 2021-11-29 音楽処理システム、音楽処理プログラム、及び音楽処理方法

Publications (1)

Publication Number Publication Date
JP2022021890A true JP2022021890A (ja) 2022-02-03

Family

ID=79728720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020125761A Pending JP2022021890A (ja) 2020-07-22 2020-07-22 音楽処理システム、音楽処理プログラム、及び音楽処理方法

Country Status (7)

Country Link
US (1) US20230252962A1 (ja)
EP (1) EP4187532A1 (ja)
JP (1) JP2022021890A (ja)
KR (1) KR20230028802A (ja)
CN (1) CN116210049A (ja)
TW (1) TW202209300A (ja)
WO (1) WO2022019268A1 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3659220B2 (ja) * 1996-05-27 2005-06-15 ヤマハ株式会社 自動メロディ生成装置および記録媒体
JP4506998B2 (ja) 2007-07-12 2010-07-21 Necソフト株式会社 自動作曲装置および自動作曲方法ならびにプログラム
KR101982345B1 (ko) * 2017-07-21 2019-05-24 주식회사 마인드셋 인공지능을 이용한 음악 생성 장치 및 방법
JP7298115B2 (ja) * 2018-06-25 2023-06-27 カシオ計算機株式会社 プログラム、情報処理方法、及び電子機器
JP7415922B2 (ja) * 2018-10-19 2024-01-17 ソニーグループ株式会社 情報処理方法、情報処理装置及び情報処理プログラム
CN114868138A (zh) * 2020-01-14 2022-08-05 索尼集团公司 信息处理装置、信息处理方法和程序

Also Published As

Publication number Publication date
CN116210049A (zh) 2023-06-02
US20230252962A1 (en) 2023-08-10
WO2022019268A1 (ja) 2022-01-27
EP4187532A1 (en) 2023-05-31
TW202209300A (zh) 2022-03-01
KR20230028802A (ko) 2023-03-02

Similar Documents

Publication Publication Date Title
JP3704980B2 (ja) 自動作曲装置と記録媒体
US9607593B2 (en) Automatic composition apparatus, automatic composition method and storage medium
US5003860A (en) Automatic accompaniment apparatus
US6395970B2 (en) Automatic music composing apparatus that composes melody reflecting motif
US9460694B2 (en) Automatic composition apparatus, automatic composition method and storage medium
US8946534B2 (en) Accompaniment data generating apparatus
CN112382257B (zh) 一种音频处理方法、装置、设备及介质
US6294720B1 (en) Apparatus and method for creating melody and rhythm by extracting characteristic features from given motif
Cogliati et al. Transcribing Human Piano Performances into Music Notation.
JPWO2008062816A1 (ja) 自動作曲システム
KR20160076775A (ko) 입력 곡 정보에 기반한 자동 작곡 프로그램 및 시스템
JP7033365B2 (ja) 音楽処理システム、音楽処理プログラム、及び音楽処理方法
JP2012068548A (ja) 調判定装置および調判定プログラム
TWI751484B (zh) 調整歌伴奏音之方法及調整歌伴奏音之電子裝置
WO2022019268A1 (ja) 音楽処理システム、音楽処理プログラム、及び音楽処理方法
CN110867174A (zh) 自动混音装置
JP4698606B2 (ja) 楽曲処理装置
JP7251684B2 (ja) アレンジ生成方法、アレンジ生成装置、及び生成プログラム
JP2002268632A (ja) フレーズ分析装置及びフレーズ分析プログラムを記録した記録媒体
CN111613198B (zh) 一种midi的节奏型识别方法及应用
JP3633335B2 (ja) 楽曲生成装置および楽曲生成プログラムを記録したコンピュータ読み取り可能な記録媒体
US6750387B2 (en) Mode-enhanced hindustani music
JP3216529B2 (ja) 演奏データ分析装置および演奏データ分析方法
JP2002032079A (ja) 自動作曲装置及び方法並びに記憶媒体
JP2623955B2 (ja) 電子楽器

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211129