JP2019028106A - 情報処理方法およびプログラム - Google Patents

情報処理方法およびプログラム Download PDF

Info

Publication number
JP2019028106A
JP2019028106A JP2017143980A JP2017143980A JP2019028106A JP 2019028106 A JP2019028106 A JP 2019028106A JP 2017143980 A JP2017143980 A JP 2017143980A JP 2017143980 A JP2017143980 A JP 2017143980A JP 2019028106 A JP2019028106 A JP 2019028106A
Authority
JP
Japan
Prior art keywords
information
performance
music
unit
unit period
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017143980A
Other languages
English (en)
Other versions
JP2019028106A5 (ja
JP6708179B2 (ja
Inventor
陽 前澤
Akira Maezawa
陽 前澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2017143980A priority Critical patent/JP6708179B2/ja
Priority to PCT/JP2018/027838 priority patent/WO2019022118A1/ja
Publication of JP2019028106A publication Critical patent/JP2019028106A/ja
Priority to US16/752,039 priority patent/US11568244B2/en
Publication of JP2019028106A5 publication Critical patent/JP2019028106A5/ja
Application granted granted Critical
Publication of JP6708179B2 publication Critical patent/JP6708179B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • G10G1/04Transposing; Transcribing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0091Means for obtaining special acoustic effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/105Composing aid, e.g. for supporting creation, edition or modification of a piece of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules
    • G10H2210/115Automatic composing, i.e. using predefined musical rules using a random process to generate a musical note, phrase, sequence or structure
    • G10H2210/121Automatic composing, i.e. using predefined musical rules using a random process to generate a musical note, phrase, sequence or structure using a knowledge base
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/161Note sequence effects, i.e. sensing, altering, controlling, processing or synthesising a note trigger selection or sequence, e.g. by altering trigger timing, triggered note values, adding improvisation or ornaments, also rapid repetition of the same note onset, e.g. on a piano, guitar, e.g. rasgueado, drum roll
    • G10H2210/165Humanizing effects, i.e. causing a performance to sound less machine-like, e.g. by slightly randomising pitch or tempo
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/375Tempo or beat alterations; Music timing control
    • G10H2210/385Speed change, i.e. variations from preestablished tempo, tempo change, e.g. faster or slower, accelerando or ritardando, without change in pitch
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/016File editing, i.e. modifying musical data files or streams as such
    • G10H2240/021File editing, i.e. modifying musical data files or streams as such for MIDI-like files or data streams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Acoustics & Sound (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】楽曲情報が表す楽曲を特定の傾向のもとで演奏したときの演奏情報を生成する。【解決手段】情報処理装置は、楽曲の内容を表す楽曲情報と、楽曲内の一の単位期間からみて過去の演奏に関する演奏情報とを、演奏に関する特定の傾向が反映されたニューラルネットワークに付与することで、当該単位期間について、特定の傾向のもとでの演奏情報ymを生成する。【選択図】図3

Description

本発明は、楽曲の演奏に関する演奏情報を処理する技術に関する。
例えば特許文献1には、楽曲の演奏音を表す音響信号を処理することで、演奏音のうち任意の楽器の音色を他の楽器の音色に変更する技術が開示されている。
国際公開第2010/095622号
現実の楽曲の演奏においては、演奏者に特有の傾向(音楽的な表情または演奏の癖)が演奏音に付与される。他方、楽曲の内容を表す既存の楽曲情報(例えばMIDIデータ)は、楽曲の標準的な演奏を指定する。特定の演奏者に特有の演奏の傾向を既存の楽曲情報に反映させるためには、音楽制作者等の作業者が楽曲情報を手動で編集する作業(いわゆる打込み作業)が必要であり、作業負荷が過大であるという問題がある。以上の事情を考慮して、本発明は、楽曲情報が表す楽曲を特定の傾向のもとで演奏したときの演奏情報を生成することを目的とする。
以上の課題を解決するために、本発明の好適な態様に係る情報処理方法は、コンピュータが、楽曲の内容を表す楽曲情報と、前記楽曲内の一の単位期間からみて過去の演奏に関する演奏情報とを、演奏に関する特定の傾向が反映されたニューラルネットワークに付与することで、前記一の単位期間について、前記特定の傾向のもとでの演奏情報を生成する。
また、本発明の好適な態様に係るプログラムは、楽曲の内容を表す楽曲情報と、前記楽曲内の一の単位期間からみて過去の演奏に関する演奏情報とを、演奏に関する特定の傾向が反映されたニューラルネットワークに付与することで、前記一の単位期間について、前記特定の傾向のもとでの演奏情報を生成する演奏情報生成部としてコンピュータを機能させる。
本発明の第1実施形態に係る情報処理装置の構成を示すブロック図である。 楽曲情報および単位情報の模式図である。 情報処理装置の機能的な構成を示すブロック図である。 特徴情報の説明図である。 楽曲情報編集の内容を示すフローチャートである。 第2実施形態に係る情報処理装置の機能的な構成を示すブロック図である。
<第1実施形態>
図1は、本発明の第1実施形態に係る情報処理装置100の構成を示すブロック図である。図1に例示される通り、第1実施形態の情報処理装置100は、制御装置11と記憶装置12とを具備するコンピュータシステムで実現される。例えばパーソナルコンピュータ等の各種の機器が情報処理装置100として利用される。
制御装置11は、例えばCPU(Central Processing Unit)等の処理回路を含んで構成される。例えば単数または複数のチップで制御装置11が実現される。記憶装置12は、制御装置11が実行するプログラムと制御装置11が使用する各種のデータとを記憶する。例えば半導体記録媒体および磁気記録媒体等の公知の記録媒体、または複数種の記録媒体の組合せが、記憶装置12として任意に採用される。
本実施形態の記憶装置12は、楽曲の内容を表す楽曲情報Sを記憶する。本実施形態の楽曲情報Sは、楽曲を構成する複数の音符の各々について音高と強度と発音期間(発音時刻および継続長)とを指定する。音高および強度を指定して発音または消音を指示する指示データと、各指示データの発音時点を指定する時間データとが時系列に配列されたMIDI(Musical Instrument Digital Interface)形式のファイル(SMF:Standard MIDI File)が楽曲情報Sの好適例である。
図2に例示される通り、楽曲情報Sは、複数(M個)の部分(以下「単位情報」という)U〜Uに区分される。任意の1個の単位情報U(m=1〜M)は、楽曲を時間軸上で区分したM個の単位期間Q〜Qのうち第m番目の単位期間Q内の演奏の内容を指定する。すなわち、単位情報Uは、楽曲の単位期間Qに含まれる1個以上の音符の各々について音高と強度と発音期間とを指定する。各単位期間Qは、例えば楽曲の所定の音価(例えば8分音符)に相当する時間長の期間である。
情報処理装置100は、演奏に関する特定の傾向(以下「目標傾向」という)を楽曲情報Sに付与した楽曲情報Saを生成する。目標傾向は、例えば特定の演奏者に特有の音楽的な表情または演奏の癖である。図1に例示される通り、本実施形態の制御装置11は、記憶装置12に記憶されたプログラムを実行することで、楽曲情報Sから楽曲情報Saを生成するための複数の要素(演奏情報生成部21および楽曲情報処理部22)として機能する。なお、制御装置11の一部の機能を専用の電子回路により実現してもよい。
演奏情報生成部21は、目標傾向のもとで楽曲を演奏したときの演奏情報yを生成する。演奏情報yは、楽曲の演奏の傾向に関する変数である。第1実施形態では、演奏速度を演奏情報yとして例示する。演奏情報yは、単位期間Q毎に順次に生成される。すなわち、演奏情報yは単位期間Q毎に変化し得る。
図1の楽曲情報処理部22は、演奏情報生成部21が単位期間Q毎に生成した演奏情報yを楽曲情報Sに反映させることで楽曲情報Saを生成する。具体的には、楽曲情報処理部22は、楽曲情報Sが各単位期間Qについて指定する演奏の演奏速度が、当該単位期間Qの演奏情報yが指定する演奏速度に変更されるように、楽曲情報Sを編集することで楽曲情報Saを生成する。すなわち、楽曲情報処理部22は、特定の演奏者による演奏の目標傾向を楽曲情報Sに付加する要素として機能する。
図3は、情報処理装置100の機能的な構成を示すブロック図である。図3においては、楽曲内の第m番目の単位期間Qについて演奏情報yを生成する場合が想定されている。図3に例示される通り、第1実施形態の演奏情報生成部21は、係数特定部31と演算処理部32とを具備する。
第1実施形態の演奏情報yは、以下の数式(1)で表現される自己回帰過程により生成される。
Figure 2019028106
図3の係数特定部31は、単位期間Qにおける線形予測係数(自己回帰係数)amjを楽曲情報Sから特定する。第1実施形態の係数特定部31は、目標傾向が反映されたニューラルネットワークNを含んで構成される。ニューラルネットワークNは、目標傾向に沿う多数の教師データを利用した機械学習によりモデルパラメータθ(θa,θb)が設定された数理モデルである。具体的には、数式(1)により算定される演奏情報yと目標傾向に沿う演奏を表す演奏情報(教師データ)との誤差が最小化されるようにモデルパラメータθが設定される。したがって、第1実施形態のニューラルネットワークNは、機械学習に利用された多数の教師データから抽出される目標傾向のもとで楽曲情報Sにとって妥当な線形予測係数amj(am1,am2,am3,…,amP)を出力する。
図3に例示される通り、第1実施形態のニューラルネットワークNは、第1ニューラルネットワークNaと第2ニューラルネットワークNbとで構成される。第1ニューラルネットワークNaおよび第2ニューラルネットワークNbの各々は、例えば、畳込み層と最大値プーリング層を含む複数層の積層にバッチ正規化層と全結合層とを接続した畳込みニューラルネットワーク(CNN:Convolutional Neural Network)である。活性化関数にはLeaky ReLU(Rectified Linear Unit)が好適である。ただし、ニューラルネットワークN(Na,Nb)の構造および活性化関数の種類は任意である。
第1ニューラルネットワークNaは、図4に例示される通り、線形予測係数amjを特定すべき単位期間Q(一の単位期間の例示)における特徴情報Fを楽曲情報Sから特定する。具体的には、第1ニューラルネットワークNaは、単位期間Qを含む解析期間Aに対応する複数(2W+1個)の単位情報Um−w〜Um+wから、当該単位期間Qの特徴情報Fを生成する。解析期間Aは、単位期間Qの過去(前方)の単位期間Qm−wから後方の単位期間Qm+wまでの期間である。
図4に例示される通り、特徴情報Fは、解析期間A内の複数の単位情報Um−w〜Um+wにそれぞれ対応する複数の特徴量Φm−w〜Φm+wの系列である。第1ニューラルネットワークNaのモデルパラメータθaは、複数の単位情報の時系列と特徴情報とを含む多数の教師データを利用した機械学習により設定される。したがって、第1ニューラルネットワークNaは、多数の教師データから抽出される傾向のもとで複数の単位情報Um−w〜Um+wにとって妥当な特徴情報Fを出力する。特徴情報Fは、解析期間A内の演奏内容の音楽的な特徴を要約した情報に相当する。
図3の第2ニューラルネットワークNbは、第1ニューラルネットワークNaにより生成された特徴情報Fと、単位期間Qの過去の期間におけるP個(Pは2以上の自然数)の演奏情報ym−1〜ym−Pとから、単位期間Qの線形予測係数amjを特定する。第2ニューラルネットワークNbのモデルパラメータθbは、特徴情報および複数の演奏情報の時系列を含むベクトルと線形予測係数とを含む多数の教師データを利用した機械学習により設定される。したがって、第2ニューラルネットワークNbは、多数の教師データから抽出される目標傾向のもとで特徴情報FとP個の演奏情報ym−1〜ym−Pとにとって妥当な線形予測係数amjを出力する。以上の説明から理解される通り、第1実施形態では、単位期間Qの過去におけるP個の演奏情報ym−1〜ym−Pが、当該単位期間Qにおける演奏情報yの特定のためにフィードバックされる。
演算処理部32は、係数特定部31が特定した線形予測係数amjと過去のP個の演奏情報ym−1〜ym−Pとについて前述の数式(1)の演算を実行することで、単位期間Qの演奏情報yを生成する。以上の説明から理解される通り、第1実施形態の演奏情報生成部21は、楽曲情報S(複数の単位情報Um−w〜Um+w)と過去のP個の演奏情報ym−1〜ym−PとをニューラルネットワークNに付与することで、目標傾向が反映された演奏情報yを単位期間Qについて生成する。単位期間Qに対応する特徴情報Fと過去のP個の演奏情報ym−1〜ym−Pとから演奏情報yを特定する処理は、楽曲内のM個の単位期間Q〜Qの各々について時系列の順番で逐次的に実行される。以上の処理により生成されたM個の演奏情報y〜yの時系列は、目標傾向のもとで楽曲を演奏したときの演奏速度の時間変化に相当する。
図5は、制御装置11が楽曲情報Sから楽曲情報Saを生成する処理(以下「楽曲情報編集」という)の内容を例示するフローチャートである。例えば情報処理装置100に対する利用者からの指示を契機として図5の楽曲情報編集が開始される。楽曲情報編集を開始すると、演奏情報生成部21は、楽曲内のM個の単位期間Q〜Qのうち未選択の最先の単位期間Qを選択する(S1)。
演奏情報生成部21は、楽曲情報Sと過去のP個の演奏情報ym−1〜ym−PとをニューラルネットワークNに付与することで、単位期間Qの演奏情報yを生成する(S2)。なお、楽曲内の先頭の単位期間Qが選択された段階では、初期値として用意された演奏情報yが楽曲情報SとともにニューラルネットワークNに付与される。
具体的には、演奏情報生成部21の係数特定部31は、楽曲情報Sのうち単位期間Qの周辺の解析期間Aに対応する複数の単位情報Um−w〜Um+wに応じた特徴情報Fを、第1ニューラルネットワークNaにより生成する(S21)。係数特定部31は、特徴情報Fと過去のP個の演奏情報ym−1〜ym−Pとに応じた線形予測係数amjを、第2ニューラルネットワークNbにより特定する(S22)。そして、演算処理部32は、線形予測係数amjと過去のP個の演奏情報ym−1〜ym−Pとから単位期間Qの演奏情報yを生成する(S23)。
楽曲情報処理部22は、演奏情報生成部21が生成した演奏情報yを、楽曲情報Sのうち単位期間Qの単位情報Uに反映させる(S3)。制御装置11は、楽曲内の全部(M個)の単位期間Q〜Qについて以上の処理(S1〜S3)が完了したか否かを判定する(S4)。未処理の単位期間Qがある場合(S4:NO)、演奏情報生成部21は、現時点で選択されている単位期間Qの直後の単位期間Qm+1を新たに選択して(S1)、演奏情報yの生成(S2)と単位情報Uの編集(S3)とを実行する。他方、楽曲内の全部の単位期間Q〜Qについて処理が完了すると(S4:YES)、制御装置11は、図5の楽曲情報編集を終了する。楽曲情報編集を終了する時点では、楽曲のM個の単位期間Q〜Qについて目標傾向を反映させた楽曲情報Saが生成される。
以上に説明した通り、第1実施形態では、楽曲情報Sと過去のP個の演奏情報ym−1〜ym−Pとを、目標傾向が反映されたニューラルネットワークNに付与することで、楽曲の単位期間Qを目標傾向のもとで演奏したときの演奏情報yiを生成することができる。第1実施形態では、楽曲内のM個の単位期間Q〜Qの各々について各演奏情報yが順次に特定される。また、ニューラルネットワークNにより特定された線形予測係数amjと過去のP個の演奏情報ym−1〜ym−Pとに応じて演奏情報yが特定されるから、簡便な演算で演奏情報yを特定できるという利点がある。
第1実施形態では、楽曲情報Sから特徴情報Fを特定する第1ニューラルネットワークNaと、特徴情報Fおよび過去のP個の演奏情報ym−1〜ym−Pとから線形予測係数amjを特定する第2ニューラルネットワークNbとが利用される。したがって、過去のP個の演奏情報ym−1〜ym−Pを反映した適切な演奏情報yを生成できるという利点がある。
<第2実施形態>
本発明の第2実施形態を説明する。なお、以下に例示する各形態において作用または機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
図6は、第2実施形態における演奏情報処理装置100の具体的な構成を示すブロック図である。図6に例示される通り、第2実施形態の演奏情報生成部21は、第1実施形態と同様の係数特定部31および演算処理部32のほかに演奏解析部33を具備する。演奏解析部33は、係数特定部31および演算処理部32と同様に、記憶装置12に記憶されたプログラムを制御装置11が実行することで実現される。
第2実施形態の演奏情報処理装置100には演奏装置13が接続される。演奏装置13は、利用者が楽曲の演奏に利用する入力機器である。例えば利用者が操作する複数の鍵が配列された鍵盤楽器型の演奏機器(例えばMIDI楽器)が好適に利用される。演奏装置13は、利用者による操作に連動して指示情報Zを順次に出力する。指示情報Zは、楽曲を構成する複数の音符の各々について生成され、当該音符の音高と強度とを指定して発音または消音を指示するデータ(例えばMIDIイベントデータ)である。
演奏解析部33は、演奏装置13により供給される複数の指示情報Zの時系列から演奏情報x(x〜x)を生成する。演奏情報xは、演奏情報yと同様に、楽曲の演奏の傾向に関する変数である。具体的には、例えば楽曲の演奏速度または演奏強度など、演奏者毎に相違し得る音楽的な表情に関する各種の変数が、演奏情報xの好適例である。演奏情報xは、楽曲の単位期間Q毎に順次に生成される。
前述の第1実施形態では、単位期間Qからみて過去のP個の演奏情報ym−1〜ym−Pを演奏情報yの生成のためにフィードバックした。第2実施形態では、単位期間Qからみて過去におけるP個の演奏情報xm−1〜xm−Pが演奏情報生成部21(係数特定部31)に供給される。係数特定部31は、楽曲情報S(解析期間A内の複数の単位情報Um−w〜Um+w)と過去のP個の演奏情報xm−1〜xm−PとをニューラルネットワークNに付与することで、単位期間Qについて、目標傾向が反映された演奏情報yを生成する。
目標傾向に対応する演奏の演奏者が演奏装置13を操作する場合を想定すると、P個の演奏情報xm−1〜xm−Pから生成される演奏情報yは、当該演奏者が単位期間Qにおいて実行すると予測される演奏に対応する。すなわち、第2実施形態の演奏情報生成部21によれば、楽曲情報Sと過去のP個の演奏情報xm−1〜xm−PとをニューラルネットワークNに付与することで、単位期間Qにおける演奏者による演奏に関する演奏情報yを予測することが可能である。
<変形例>
以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
(1)前述の各形態では、演奏情報yの生成毎に楽曲の単位情報Uを編集したが(S3)、楽曲の全区間についてM個の演奏情報y〜yを生成してから、M個の演奏情報y〜yを利用して楽曲情報Sの全体を編集してもよい。
(2)前述の各形態では、単位期間Qを中心とした解析期間Aを例示したが、単位期間Qと解析期間Aとの関係は以上の例示に限定されない。解析期間A内において単位期間Qの過去に位置する単位期間の個数と後方に位置する単位期間の個数とを相違させてもよい。
(3)前述の各形態では、演奏情報生成部21が生成した演奏情報yを楽曲情報Sの編集に利用したが、演奏情報yを時間軸上で平滑化したうえで楽曲情報Sの編集に利用してもよい。例えば、単位期間Qの演奏情報yを含む所定個の演奏情報の移動平均を確定的な演奏情報Yとして算定し、演奏情報Yを楽曲情報Sの編集に利用する構成が想定される。また、例えば標準的な演奏情報yREFを記憶装置12に保持し、以下の数式(2)で表現される通り、演奏情報生成部21が生成した演奏情報yと標準的な演奏情報yREFとの加重和を、確定的な演奏情報Ymとして楽曲情報Sの編集に利用してもよい。なお、数式(2)の係数αは、1を下回る適切な正数に設定される。
Figure 2019028106
(4)例えば移動体通信網またはインターネット等の通信網を介して端末装置(例えば携帯電話機またはスマートフォン)と通信するサーバ装置により情報処理装置100を実現することも可能である。具体的には、情報処理装置100は、端末装置から受信した楽曲情報Sに対する楽曲情報編集(図5)により楽曲情報Saを生成し、当該楽曲情報Saを端末装置に送信する。また、演奏情報生成部21が生成した演奏情報yを端末装置に送信し、楽曲情報Sから楽曲情報Saを生成する処理は端末装置において実行してもよい。すなわち、楽曲情報処理部22は情報処理装置100から省略される。
(5)前述の各形態では、楽曲の演奏速度を演奏情報yとして例示したが、演奏情報yが表す変数は以上の例示に限定されない。例えば、楽曲の演奏強度など、演奏者毎に相違し得る音楽的な表情に関する任意の変数が、演奏情報yとして利用される。演奏情報xについても同様に、演奏速度には限定されない。すなわち、音楽的な表情に関する各種の変数(例えば演奏強度)が演奏情報xとして利用される。
(6)以上に例示した形態から、例えば以下の構成が把握される。
<態様1>
本発明の好適な態様(態様1)に係る情報処理方法は、コンピュータが、楽曲の内容を表す楽曲情報と、前記楽曲内の一の単位期間からみて過去の演奏に関する演奏情報とを、演奏に関する特定の傾向が反映されたニューラルネットワークに付与することで、前記一の単位期間について、前記特定の傾向のもとでの演奏情報を生成する。以上の態様によれば、楽曲情報と過去の複数の演奏情報とをニューラルネットワークに付与することで、楽曲内の単位期間を目標傾向のもとで演奏したときの演奏情報を生成することができる。
<態様2>
態様1の好適例(態様2)において、前記演奏情報の生成では、前記楽曲内の複数の単位期間の各々について、前記楽曲情報と、当該単位期間からみて過去の2以上の単位期間について前記ニューラルネットワークにより生成された演奏情報とを、当該ニューラルネットワークに付与することで、前記演奏情報を順次に生成する。以上の態様によれば、楽曲内の複数の単位期間の各々について演奏情報を生成することができる。
<態様3>
態様1または態様2の好適例(態様3)において、前記演奏情報の生成では、前記一の単位期間について前記ニューラルネットワークにより線形予測係数を特定し、前記線形予測係数と、前記一の単位期間からみて過去の演奏に関する演奏情報とに応じて、前記一の単位期間における演奏情報を特定する。以上の態様では、ニューラルネットワークにより特定された線形予測係数と過去の複数の演奏情報とに応じて演奏情報が特定されるから、簡便な演算で演奏情報を特定できるという利点がある。
<態様4>
態様3の好適例(態様4)において、前記楽曲情報は、前記楽曲内の相異なる単位期間に対応する複数の単位情報に区分され、前記ニューラルネットワークは、前記一の単位期間を含む解析期間内の各単位期間の単位情報から、当該解析期間内の特徴を表す特徴情報を生成する第1ニューラルネットワークと、前記第1ニューラルネットワークにより前記単位期間毎に生成された特徴情報と、前記一の単位期間からみて過去の演奏に関する演奏情報とから、前記一の単位期間について線形予測係数を特定する第2ニューラルネットワークとを含む。以上の態様では、楽曲情報から特徴情報を特定する第1ニューラルネットワークと、特徴情報および過去の複数の演奏情報とから線形予測係数を特定する第2ニューラルネットワークとが利用される。したがって、過去の複数の演奏情報を反映した適切な演奏情報を生成できるという利点がある。
<態様5>
態様1の好適例(態様5)において、前記演奏情報の生成では、前記楽曲情報と、前記一の単位期間からみて過去における利用者の演奏に関する演奏情報とを、前記ニューラルネットワークに付与することで、前記一の単位期間における前記利用者の演奏に関する演奏情報を予測する。以上の態様によれば、楽曲情報と過去の複数の演奏情報とをニューラルネットワークに付与することで、利用者の演奏に関する演奏情報を予測することができる。
<態様6>
本発明の好適な態様(態様6)に係るプログラムは、楽曲の内容を表す楽曲情報と、前記楽曲内の一の単位期間からみて過去の演奏に関する演奏情報とを、演奏に関する特定の傾向が反映されたニューラルネットワークに付与することで、前記一の単位期間について、前記特定の傾向のもとでの演奏情報を生成する演奏情報生成部21としてコンピュータを機能させる。以上の態様によれば、楽曲情報と過去の複数の演奏情報とをニューラルネットワークに付与することで、楽曲内の単位期間を目標傾向のもとで演奏したときの演奏情報を生成することができる。
態様6に係るプログラムは、例えばコンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされる。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体や磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体を除外するものではない。また、通信網を介した配信の形態でプログラムをコンピュータに提供してもよい。
100…情報処理装置、11…制御装置、12…記憶装置、13…演奏装置、21…演奏情報生成部、22…楽曲情報処理部、31…係数特定部、32…演算処理部、33…演奏解析部。

Claims (6)

  1. コンピュータが、
    楽曲の内容を表す楽曲情報と、前記楽曲内の一の単位期間からみて過去の演奏に関する演奏情報とを、演奏に関する特定の傾向が反映されたニューラルネットワークに付与することで、前記一の単位期間について、前記特定の傾向のもとでの演奏情報を生成する
    情報処理方法。
  2. 前記演奏情報の生成においては、前記楽曲内の複数の単位期間の各々について、前記楽曲情報と、当該単位期間からみて過去の2以上の単位期間について前記ニューラルネットワークにより生成された演奏情報とを、当該ニューラルネットワークに付与することで、前記演奏情報を順次に生成する
    請求項1の情報処理方法。
  3. 前記演奏情報の生成においては、
    前記一の単位期間について前記ニューラルネットワークにより線形予測係数を特定し、
    前記線形予測係数と、前記一の単位期間からみて過去の演奏に関する演奏情報とに応じて、前記一の単位期間における演奏情報を特定する
    請求項1または請求項2の情報処理方法。
  4. 前記楽曲情報は、前記楽曲内の相異なる単位期間に対応する複数の単位情報に区分され、
    前記ニューラルネットワークは、
    前記一の単位期間を含む解析期間内の各単位期間の単位情報から、当該解析期間内の特徴を表す特徴情報を生成する第1ニューラルネットワークと、
    前記第1ニューラルネットワークにより前記単位期間毎に生成された特徴情報と、前記一の単位期間からみて過去の演奏に関する演奏情報とから、前記一の単位期間について線形予測係数を特定する第2ニューラルネットワークとを含む
    請求項3の情報処理方法。
  5. 前記演奏情報の生成においては、前記楽曲情報と、前記一の単位期間からみて過去における利用者の演奏に関する演奏情報とを、前記ニューラルネットワークに付与することで、前記一の単位期間における前記利用者の演奏に関する演奏情報を予測する
    請求項1の情報処理方法。
  6. 楽曲の内容を表す楽曲情報と、前記楽曲内の一の単位期間からみて過去の演奏に関する演奏情報とを、演奏に関する特定の傾向が反映されたニューラルネットワークに付与することで、前記一の単位期間について、前記特定の傾向のもとでの演奏情報を生成する演奏情報生成部
    としてコンピュータを機能させるプログラム。
JP2017143980A 2017-07-25 2017-07-25 情報処理方法、情報処理装置およびプログラム Active JP6708179B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017143980A JP6708179B2 (ja) 2017-07-25 2017-07-25 情報処理方法、情報処理装置およびプログラム
PCT/JP2018/027838 WO2019022118A1 (ja) 2017-07-25 2018-07-25 情報処理方法
US16/752,039 US11568244B2 (en) 2017-07-25 2020-01-24 Information processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017143980A JP6708179B2 (ja) 2017-07-25 2017-07-25 情報処理方法、情報処理装置およびプログラム

Publications (3)

Publication Number Publication Date
JP2019028106A true JP2019028106A (ja) 2019-02-21
JP2019028106A5 JP2019028106A5 (ja) 2020-04-30
JP6708179B2 JP6708179B2 (ja) 2020-06-10

Family

ID=65040224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017143980A Active JP6708179B2 (ja) 2017-07-25 2017-07-25 情報処理方法、情報処理装置およびプログラム

Country Status (3)

Country Link
US (1) US11568244B2 (ja)
JP (1) JP6708179B2 (ja)
WO (1) WO2019022118A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020235506A1 (ja) * 2019-05-23 2020-11-26 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、記憶媒体
WO2021251364A1 (ja) * 2020-06-09 2021-12-16 ヤマハ株式会社 音響処理方法、音響処理システムおよびプログラム
WO2022176506A1 (ja) * 2021-02-16 2022-08-25 ヤマハ株式会社 情報処理システム、電子楽器、情報処理方法、および学習済モデルの生成方法
WO2022202374A1 (ja) * 2021-03-26 2022-09-29 ヤマハ株式会社 音響処理方法、音響処理システム、プログラム、および生成モデルの確立方法
WO2023171497A1 (ja) * 2022-03-07 2023-09-14 ヤマハ株式会社 音響生成方法、音響生成システムおよびプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6708179B2 (ja) * 2017-07-25 2020-06-10 ヤマハ株式会社 情報処理方法、情報処理装置およびプログラム
JP6724938B2 (ja) * 2018-03-01 2020-07-15 ヤマハ株式会社 情報処理方法、情報処理装置およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001159892A (ja) * 1999-08-09 2001-06-12 Yamaha Corp 演奏データ作成装置及び記録媒体
US6297439B1 (en) * 1998-08-26 2001-10-02 Canon Kabushiki Kaisha System and method for automatic music generation using a neural network architecture
WO2018016581A1 (ja) * 2016-07-22 2018-01-25 ヤマハ株式会社 楽曲データ処理方法およびプログラム

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5990404A (en) * 1996-01-17 1999-11-23 Yamaha Corporation Performance data editing apparatus
US5942710A (en) * 1997-01-09 1999-08-24 Yamaha Corporation Automatic accompaniment apparatus and method with chord variety progression patterns, and machine readable medium containing program therefore
JP4049014B2 (ja) * 2003-05-09 2008-02-20 ヤマハ株式会社 楽譜表示装置および楽譜表示コンピュータプログラム
US8093484B2 (en) * 2004-10-29 2012-01-10 Zenph Sound Innovations, Inc. Methods, systems and computer program products for regenerating audio performances
JP2008241850A (ja) * 2007-03-26 2008-10-09 Sanyo Electric Co Ltd 録音または再生装置
EP2148321B1 (en) * 2007-04-13 2015-03-25 National Institute of Advanced Industrial Science and Technology Sound source separation system, sound source separation method, and computer program for sound source separation
US7902446B2 (en) * 2008-02-20 2011-03-08 Oem, Incorporated System for learning and mixing music
JP5428294B2 (ja) * 2008-10-31 2014-02-26 ブラザー工業株式会社 運動コンテンツ生成システム、出力端末、運動コンテンツ生成装置、コンテンツ生成方法及びコンテンツ生成プログラム
US8831762B2 (en) * 2009-02-17 2014-09-09 Kyoto University Music audio signal generating system
US8465366B2 (en) * 2009-05-29 2013-06-18 Harmonix Music Systems, Inc. Biasing a musical performance input to a part
US8629342B2 (en) * 2009-07-02 2014-01-14 The Way Of H, Inc. Music instruction system
JP5630155B2 (ja) * 2009-09-14 2014-11-26 ヤマハ株式会社 記憶システムおよび記憶装置
JP5560861B2 (ja) * 2010-04-07 2014-07-30 ヤマハ株式会社 楽曲解析装置
US8835738B2 (en) * 2010-12-27 2014-09-16 Apple Inc. Musical systems and methods
JP2013141167A (ja) * 2012-01-06 2013-07-18 Yamaha Corp 演奏装置
JP6402878B2 (ja) * 2013-03-14 2018-10-10 カシオ計算機株式会社 演奏装置、演奏方法およびプログラム
JP6340755B2 (ja) * 2013-04-16 2018-06-13 カシオ計算機株式会社 演奏評価装置、演奏評価方法およびプログラム
JP2014228750A (ja) * 2013-05-23 2014-12-08 ヤマハ株式会社 演奏記録システム、演奏記録方法および楽器
WO2014204875A1 (en) * 2013-06-16 2014-12-24 Jammit, Inc. Synchronized display and performance mapping of musical performances submitted from remote locations
FR3022051B1 (fr) * 2014-06-10 2016-07-15 Weezic Procede de suivi d'une partition musicale et procede de modelisation associe
JP6645085B2 (ja) * 2015-09-18 2020-02-12 ヤマハ株式会社 自動アレンジ装置及びプログラム
JP6477511B2 (ja) * 2016-01-18 2019-03-06 ヤマハ株式会社 鍵盤楽器およびプログラム
JP6682953B2 (ja) * 2016-03-30 2020-04-15 ヤマハ株式会社 楽譜表示制御方法、楽譜表示制御装置、楽譜表示制御プログラム
US9767705B1 (en) * 2016-04-21 2017-09-19 Yousician Oy System for estimating user's skill in playing a music instrument and determining virtual exercises thereof
EP3489945B1 (en) * 2016-07-22 2021-04-14 Yamaha Corporation Musical performance analysis method, automatic music performance method, and automatic musical performance system
WO2018137189A1 (en) * 2017-01-25 2018-08-02 Sunland Information Technology (Shanghai) Co., Ltd. Piano system and method thereof
US10490092B2 (en) * 2017-03-17 2019-11-26 Age Of Learning, Inc. Personalized mastery learning platforms, systems, media, and methods
US11157553B2 (en) * 2017-05-25 2021-10-26 J.W. Pepper & Son, Inc. Sheet music search and discovery system
US10121461B1 (en) * 2017-06-27 2018-11-06 International Business Machines Corporation Providing feedback on musical performance
JP6708180B2 (ja) * 2017-07-25 2020-06-10 ヤマハ株式会社 演奏解析方法、演奏解析装置およびプログラム
JP6708179B2 (ja) * 2017-07-25 2020-06-10 ヤマハ株式会社 情報処理方法、情報処理装置およびプログラム
US11107490B1 (en) * 2020-05-13 2021-08-31 Benjamin Slotznick System and method for adding host-sent audio streams to videoconferencing meetings, without compromising intelligibility of the conversational components

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6297439B1 (en) * 1998-08-26 2001-10-02 Canon Kabushiki Kaisha System and method for automatic music generation using a neural network architecture
JP2001159892A (ja) * 1999-08-09 2001-06-12 Yamaha Corp 演奏データ作成装置及び記録媒体
WO2018016581A1 (ja) * 2016-07-22 2018-01-25 ヤマハ株式会社 楽曲データ処理方法およびプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020235506A1 (ja) * 2019-05-23 2020-11-26 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、記憶媒体
JP2020190676A (ja) * 2019-05-23 2020-11-26 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
WO2021251364A1 (ja) * 2020-06-09 2021-12-16 ヤマハ株式会社 音響処理方法、音響処理システムおよびプログラム
WO2022176506A1 (ja) * 2021-02-16 2022-08-25 ヤマハ株式会社 情報処理システム、電子楽器、情報処理方法、および学習済モデルの生成方法
WO2022202374A1 (ja) * 2021-03-26 2022-09-29 ヤマハ株式会社 音響処理方法、音響処理システム、プログラム、および生成モデルの確立方法
WO2023171497A1 (ja) * 2022-03-07 2023-09-14 ヤマハ株式会社 音響生成方法、音響生成システムおよびプログラム

Also Published As

Publication number Publication date
US11568244B2 (en) 2023-01-31
WO2019022118A1 (ja) 2019-01-31
JP6708179B2 (ja) 2020-06-10
US20200160821A1 (en) 2020-05-21

Similar Documents

Publication Publication Date Title
JP6708179B2 (ja) 情報処理方法、情報処理装置およびプログラム
JP6724938B2 (ja) 情報処理方法、情報処理装置およびプログラム
JP7298115B2 (ja) プログラム、情報処理方法、及び電子機器
JP7230919B2 (ja) 楽譜データの情報処理装置
US20220059063A1 (en) Music Generator Generation of Continuous Personalized Music
CN111418006B (zh) 声音合成方法、声音合成装置及记录介质
JP2017111372A (ja) 音声合成方法、音声合成制御方法、音声合成装置および音声合成制御装置
US11842719B2 (en) Sound processing method, sound processing apparatus, and recording medium
JP7069819B2 (ja) コード特定方法、コード特定装置およびプログラム
JP7327497B2 (ja) 演奏解析方法、演奏解析装置およびプログラム
JP6708180B2 (ja) 演奏解析方法、演奏解析装置およびプログラム
US20220383843A1 (en) Arrangement generation method, arrangement generation device, and generation program
JP7343012B2 (ja) 情報処理装置および情報処理方法
WO2019176954A1 (en) Machine learning method, electronic apparatus, electronic musical instrument, model generator for part selection, and method of part determination
CN112420002A (zh) 乐曲生成方法、装置、电子设备及计算机可读存储介质
JP7147384B2 (ja) 情報処理方法および情報処理装置
JP4735221B2 (ja) 演奏データ編集装置及びプログラム
JP4595852B2 (ja) 演奏データ処理装置及びプログラム
JP4148184B2 (ja) 自動伴奏データ生成方法を実現するためのプログラムおよび自動伴奏データ生成装置
CN117636825A (zh) 来自人类音频的生成音乐
JP4760348B2 (ja) 楽曲選択装置および楽曲選択用コンピュータプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200318

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200318

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200318

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200416

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200504

R151 Written notification of patent or utility model registration

Ref document number: 6708179

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151