JP7103106B2 - 情報処理方法および情報処理装置 - Google Patents

情報処理方法および情報処理装置 Download PDF

Info

Publication number
JP7103106B2
JP7103106B2 JP2018174785A JP2018174785A JP7103106B2 JP 7103106 B2 JP7103106 B2 JP 7103106B2 JP 2018174785 A JP2018174785 A JP 2018174785A JP 2018174785 A JP2018174785 A JP 2018174785A JP 7103106 B2 JP7103106 B2 JP 7103106B2
Authority
JP
Japan
Prior art keywords
data
unit
pedal
period
key
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018174785A
Other languages
English (en)
Other versions
JP2020046533A5 (ja
JP2020046533A (ja
Inventor
美咲 上原
陽 前澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2018174785A priority Critical patent/JP7103106B2/ja
Priority to PCT/JP2019/034188 priority patent/WO2020059465A1/ja
Priority to EP19862004.9A priority patent/EP3855425A4/en
Priority to CN201980058992.4A priority patent/CN112753067A/zh
Publication of JP2020046533A publication Critical patent/JP2020046533A/ja
Priority to US17/204,340 priority patent/US20210201865A1/en
Publication of JP2020046533A5 publication Critical patent/JP2020046533A5/ja
Priority to JP2022098702A priority patent/JP7343012B2/ja
Application granted granted Critical
Publication of JP7103106B2 publication Critical patent/JP7103106B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10FAUTOMATIC MUSICAL INSTRUMENTS
    • G10F1/00Automatic musical instruments
    • G10F1/02Pianofortes with keyboard
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • G10H1/34Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
    • G10H1/344Structural association with individual keys
    • G10H1/348Switches actuated by parts of the body other than fingers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/265Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/021Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs, seven segments displays
    • G10H2220/026Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs, seven segments displays associated with a key or other user input device, e.g. key indicator lights
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/221Keyboards, i.e. configuration of several keys or key-like input devices relative to one another
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Description

本発明は、情報を処理する技術に関する。
例えば楽曲を表すデータから各種のデータを生成する技術が従来から提案されている。例えば特許文献1には、ピアノのペダルを駆動する制御信号を生成する演奏システムが開示されている。鍵操作のタイミングとペダル操作のタイミングが規定されている楽曲データと、ピアノの鍵の操作に応じたMIDI(Musical Instrument Digital Interface)データとから、制御信号が生成される。
特開2017-102415号公報
特許文献1の技術では、鍵操作とペダル操作とを個別に表す楽曲データが必要である。しかし、実際には、鍵操作とペダル操作とを区別せずに鍵毎の発音期間のみを規定する楽曲データしか用意できない場合もある
以上の課題を解決するために、本発明の好適な態様に係る情報処理方法は、演奏内容を表す演奏データから、複数の音高の各々に対応する鍵の押鍵期間を表す押鍵データと、押鍵による発音を伸長するペダルの操作期間を表すペダルデータとを生成する。
本発明の好適な態様に係る情報処理装置は、演奏内容を表す演奏データから、複数の音高の各々に対応する鍵の押鍵期間を表す押鍵データと、押鍵による発音を伸長するペダルの操作期間を表すペダルデータとを生成する生成部を具備する。
本発明の第1実施形態に自動演奏システムの構成を例示するブロック図である。 演奏データ、押鍵データおよびペダルデータの模式図である。 情報処理装置の機能的な構成を例示するブロック図である。 制御装置の処理のフローチャートである。 第2実施形態に係る情報処理装置の機能的な構成を例示するブロック図である。 修正処理1の説明図である。 修正処理2の説明図である。 修正処理3の説明図である。 修正処理4の説明図である。
<第1実施形態>
図1は、本発明の第1実施形態に係る自動演奏システム100の構成を例示するブロック図である。自動演奏システム100は、楽曲を自動演奏するコンピュータシステムである。図1に例示される通り、自動演奏システム100は、情報処理装置10と自動演奏楽器20とを具備する。情報処理装置10は、演奏内容を表すデータ(以下「演奏データ」という)Mから、自動演奏楽器20による自動演奏に利用される各種のデータを生成するコンピュータシステムである。例えば携帯電話機、スマートフォンまたはパーソナルコンピュータ等の情報端末が、情報処理装置10として好適に利用される。
自動演奏楽器20は、情報処理装置10が生成した各種のデータにより自動演奏する鍵盤楽器である。例えば自動演奏ピアノが自動演奏楽器20として例示される。図1に例示される通り、自動演奏楽器20は、複数の相異なる音高の発音にそれぞれ利用される複数の鍵により構成される鍵盤23と、押鍵による発音を伸長するペダル25とを具備する。情報処理装置10と自動演奏楽器20とは、例えば有線または無線により接続される。自動演奏楽器20に情報処理装置10を搭載してもよい。
図1に例示される通り、第1実施形態の情報処理装置10は、制御装置11と記憶装置13とを具備する。制御装置11は、例えばCPU(Central Processing Unit)等の処理回路であり、情報処理装置10の各要素を統括的に制御する。記憶装置13は、制御装置11が実行するプログラムと制御装置11が使用する各種のデータとを記憶する。例えば磁気記録媒体または半導体記録媒体等の公知の記録媒体が記憶装置13として利用される。なお、複数種の記録媒体の組合せにより記憶装置13を構成してもよい。また、情報処理装置10に対して着脱可能な可搬型の記録媒体、または情報処理装置10が通信網を介して通信可能な外部記録媒体(例えばオンラインストレージ)を、記憶装置13として利用してもよい。
第1実施形態の記憶装置13は、自動演奏楽器20による演奏の対象となる楽曲の演奏データMを記憶する。図2には、演奏データMが模式的に図示されている。演奏データMは、複数の音高Kの各々について発音期間Eを表すデータである。各音高Kの楽音の発音が開始される時点から消音される時点までの期間が発音期間Eである。図2では、128個の音高K1-K128の各々について、発音期間Eを時系列に表すデータが演奏データMとして例示される。MIDI規格に準拠したMIDIデータが演奏データMとして例示される。例えば、演奏者によるピアノの演奏音を収音装置(例えばマイク)により収音した音響信号から演奏データMが生成される。例えば音響信号を音高K毎の帯域成分に分離し、各帯域成分の強度が閾値を上回る区間が発音期間Eとして抽出される。なお、事前に収録されてCD等の記録媒体に記録された音響信号からも同様の方法により演奏データMが生成される。演奏データMの生成には、公知の採譜技術が任意に採用される。
図2に例示される通り、第1実施形態の演奏データMは、時間軸上で相異なるN個の単位期間T1-TNに区分される。単位期間Tn(1≦n≦N)は、例えば数十ミリ秒から数百ミリ秒程度の時間長の期間(フレーム)である。各音高Kの発音期間Eは、複数の単位期間Tnにわたり連続し得る。
図3は、情報処理装置10の機能的な構成を例示するブロック図である。図3に例示される通り、制御装置11は、記憶装置13に記憶されたプログラムを実行することで複数の機能(前処理部112および生成部114)を実現する。なお、相互に別体で構成された複数の装置により制御装置11の機能を実現してもよい。制御装置11の機能の一部または全部を専用の電子回路で実現してもよい。
前処理部112は、演奏データMに対応する第1単位データXnを単位期間Tn毎に生成する。図2には、第1単位データXnが模式的に図示されている。図2に例示される通り、単位期間Tnに対応する第1単位データXnは、発音データAnと開始点データBnとを含む。発音データAnは、単位期間Tnについて各音高Kの発音の有無を示すデータである。例えば、発音データAnは、128個の音高K1-K128に対応する128次元の2値ベクトルにより表現される。例えば、発音データAnの128ビットのうち発音がある音高K(図2の黒線)に対応する各ビットは1に設定され、発音がない音高Kに対応する各ビットは0に設定される。音高Kの発音期間Eが複数の単位期間Tnにわたり連続する場合には、当該音高Kに対応するビットが複数の発音データAnにわたり連続して1に設定される。なお、複数の音高Kが共通の単位期間Tnにおいて発音され得る。
開始点データBnは、単位期間Tnについて音高K毎に発音の開始点(以下「発音開始点」という)であるか否かを示すデータである。例えば、開始点データBnは、128個の音高K1-K128に対応する128次元の2値ベクトルにより表現される。例えば、開始点データBnの128ビットのうち開始点である音高K(図2の黒線)に対応する各ビットは1に設定され、開始点ではない音高Kに対応する各ビットは0に設定される。音高Kの発音期間Eが複数の単位期間Tnにわたり連続する場合には、先頭の単位期間Tnに対応する開始点データBnの音高Kに対応するビットが1に設定される。以上の説明から理解される通り、各単位期間Tnにそれぞれ対応するN個の第1単位データX1-XNの時系列が演奏データMから生成される。
図3の生成部114は、押鍵データQとペダルデータUとを演奏データMから生成する。押鍵データQおよびペダルデータUが自動演奏楽器20による自動演奏に利用される。図2には、押鍵データQおよびペダルデータUが模式的に図示されている。図2に例示される通り、押鍵データQおよびペダルデータUの各々は、演奏データMと同様にN個の単位期間T1-TNに区分される。すなわち、演奏データMと同じ時間長である押鍵データQおよびペダルデータUが生成される。
押鍵データQは、各音高Kに対応する鍵が押鍵される期間(以下「押鍵期間」という)Hを表すデータである。押鍵が開始される時点から終了(すなわち離鍵)される時点までの期間が押鍵期間Hである。他方、ペダルデータUは、ペダルを操作する期間(以下「操作期間」という)Sを表すデータである。ペダルの操作が開始される時点から終了される時点までの期間が操作期間Sである。
演奏データMに対応する入力と、押鍵データQおよびペダルデータUに対応する出力の関係を学習した学習済モデルが生成部114として例示される。第1実施形態の学習済モデルは、単位期間Tn毎に、前処理部112が生成した第1単位データXnを入力として、押鍵データQに対応する第2単位データYnおよびペダルデータUに対応する第3単位データZnを出力する。
図2には、生成部114により生成される第2単位データYnおよび第3単位データZnが模式的に図示されている。図2に例示される通り、第2単位データYnは、押鍵データQのうち単位期間Tnに対応する部分であり、第3単位データZnは、ペダルデータUのうち単位期間Tnに対応する部分である。すなわち、N個の第2単位データY1-YNの時系列が押鍵データQであり、N個の第3単位データZ1-ZNの時系列がペダルデータUである。
具体的には、第2単位データYnは、各音高Kに対応する鍵の押鍵の有無を示すデータである。例えば、第2単位データYnは、128個の音高K1-K128に対応する128次元の2値ベクトルにより表現される。例えば、第2単位データYnの128ビットのうち押鍵がある鍵の音高K(図2の黒線)に対応する各ビットは1に設定され、押鍵がない鍵の音高Kに対応する各ビットは0に設定される。音高Kの押鍵期間Hが複数の単位期間Tnにわたり連続する場合には、当該音高Kに対応するビットが複数の第2単位データYnにわたり連続して1に設定される。すなわち、連続するN個の第2単位データY1-YNの時系列(すなわち押鍵データQ)により、各音高Kに対応する押鍵期間Hが表現される。なお、複数の音高Kが共通の単位期間Tnにおいて押鍵され得る。以上の説明から理解される通り、N個の単位期間T1-TNの各々について第2単位データYnを時系列に配列することで、押鍵データQが生成される。
具体的には、第3単位データZnは、ペダルの操作の有無を示すデータである。例えば、第3単位データZnは、1ビットで表現される。例えば、単位期間Tnにおいてペダルの操作がある場合(図2の黒線)には1(on)に設定され、単位期間Tnにおいてペダルの操作がない場合には0(off)に設定される。操作期間Sが複数の単位期間Tnにわたり連続する場合には、複数の第3単位データZnにわたり連続して1に設定される。すなわち、連続するN個の第3単位データZ1-ZNの時系列(すなわちペダルデータU)により、ペダルの操作期間Sが表現される。以上の説明から理解される通り、N個の単位期間T1-TNの各々について第3単位データZnを時系列に配列することで、ペダルデータUが生成される。押鍵データQが表す押鍵期間Hにより発音される期間をペダルデータUの内容に応じて伸長した期間が演奏データMの発音期間Eに相当する。
学習済モデルは、演奏データMと、押鍵データQおよびペダルデータUとの関係を学習した統計的予測モデルである。第1実施形態では、第1単位データXnと、第2単位データYnおよび第3単位データZnとの関係を学習した学習済モデルが利用される。学習済モデルとしてはニューラルネットワークが好適に利用される。例えば、学習済モデルは、相互に直列に接続された複数層の長短期記憶(LSTM:Long Short Term Memory)ユニットで構成される。長短期記憶ユニットは、時系列データの解析に好適な再帰型ニューラルネットワーク(RNN:Recurrent Neural Network)の具体例である。具体的には、学習済モデルは、演奏データMから押鍵データQおよびペダルデータUを生成する演算を制御装置11に実行させるプログラム(例えば人工知能ソフトウェアを構成するプログラムモジュール)と、当該演算に適用される複数の係数との組合せで実現される。学習済モデルを規定する複数の係数は、複数の学習データを利用した機械学習(特に深層学習)により設定されて記憶装置13に保持される。
複数の学習データの各々は、第1単位データXnと、第2単位データYnおよび第3単位データZnの正解値とを対応させたデータである。複数の係数が暫定的に設定されたモデル(以下「暫定モデル」という)に学習データの第1単位データXnを入力することで第2単位データYnおよび第3単位データZnを生成し、当該生成された第2単位データYnおよび第3単位データZnと学習データの正解値との誤差を表す評価関数が最小化されるように、暫定モデルの複数の係数が逐次的に更新される。評価関数に応じた各係数の更新には、例えば誤差逆伝播法が好適に利用される。以上に説明した係数の更新が反復され、所定の条件が成立した段階の暫定モデルが、確定的な学習済モデルとして利用される。
図4は、制御装置11が実行する処理を例示するフローチャートである。単位期間Tn毎に図4の処理が実行される。図4の処理が開始されると、前処理部112は、記憶装置13に記憶された演奏データMから、第1単位データXnを生成する(Sa1)。N個の単位期間T1-TNの各々について第1単位データXnが生成される。生成部114は、前処理部112が生成した第1単位データXnから、第2単位データYnおよび第3単位データZnを生成する(Sa2)。演奏データMに対応する入力(すなわち第1単位データXn)と、押鍵データQおよびペダルデータUに対応する出力(すなわち第2単位データYnおよび第3単位データZn)との関係を学習した学習済モデルが生成部114として利用される。N個の単位期間T1-TNの各々について、第2単位データYnと第3単位データZnとが出力されるから、押鍵データQおよびペダルデータUが生成される。
図1の自動演奏楽器20は、情報処理装置10が生成した押鍵データQおよびペダルデータUを利用して自動演奏を実行する。図1に例示される通り、自動演奏楽器20は、前述した鍵盤23およびペダルに加えて、制御装置21を具備する。制御装置21は、例えばCPU等の処理回路であり、自動演奏楽器20の各要素を統括的に制御する。鍵盤23の動作とペダル25の動作とが制御装置21により制御される。
第1実施形態の制御装置21は、押鍵データQに応じて鍵盤23を構成する複数の鍵を動作させる。具体的には、制御装置21は、押鍵データQが鍵毎に指定する押鍵期間Hの始点において当該鍵の押鍵を開始させ、押鍵期間Hの終点において離鍵させる。また、第1実施形態の制御装置21は、ペダルデータUに応じてペダル25を動作させる。具体的には、制御装置21は、ペダルデータUが指定する操作期間Sの始点において当該ペダル25の操作を開始させ、操作期間Sの終点において当該ペダル25の操作を終了させる。以上に説明した制御のもとで、鍵盤23とペダル25とが動作する。したがって、押鍵データQの押鍵期間Hに応じて発音される各音高Kが、ペダルデータUの操作期間Sに応じて伸長される。
以上に説明した通り、第1実施形態によれば、演奏データMから押鍵データQとペダルデータUとが生成される。第1実施形態の演奏データMは、楽曲の演奏内容を表すデータであり、押鍵による発音と、ペダル操作による発音の伸長とが区別されていない。第1実施形態では、以上のように押鍵とペダル操作とが区別されていない演奏データMからも、押鍵データQとペダルデータUとを生成することができる。また、第1実施形態では、各音高Kについて発音期間Eを表すデータが演奏データMとして利用されるから、各音高Kの発音期間Eに応じて適切に押鍵データQとペダルデータUを生成することができる。
第1実施形態では、演奏データMに対応する入力と、押鍵データQおよびペダルデータUに対応する出力との関係を学習した学習済モデルが、押鍵データQおよびペダルデータUを生成する。したがって、例えば、発音開始点から所定時間を押鍵期間Hとして、それ以降はペダル25の操作期間Sとする規則のもとで、押鍵データQとペダルデータUとを生成する方法と比較して、演奏データMから押鍵データQとペダルデータUとを適切に生成することができる。具体的には、学習済モデルの学習に使用した多数の学習データに潜在する、演奏データMと押鍵データQおよびペダルデータUとの関係のもとで、統計的に妥当な押鍵データQおよびペダルデータUを生成することができる。
第1実施形態では特に、学習済モデルが、単位期間Tn毎に、第1単位データXnを入力とし、第2単位データYnおよび第3単位データZnを出力する再帰型のニューラルネットワークであるから、第2単位データYnの時系列(すなわち押鍵データQ)と第3単位データZnの時系列(すなわちペダルデータU)とが生成される。また、発音データAnと開始点データBnとを第1単位データXnが含むから、各音高Kの発音の有無と、発音開始点であるか否かとに応じて適切に押鍵データQとペダルデータUとを生成することができる。
<第2実施形態>
本発明の第2実施形態を説明する。なお、以下の各例示において機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
図5は、第2実施形態に係る情報処理装置10の機能的な構成を例示するブロック図である。図5に例示される通り、第2実施形態に係る制御装置11は、第1実施形態と同様の前処理部112と生成部114とに加えて、後処理部116を実現する。
後処理部116は、生成部114が生成した押鍵データQを演奏データMに応じて修正する処理(以下「修正処理」という)を実行する。第2実施形態の修正処理は、押鍵データQを開始点データBnに応じて修正する処理である。修正処理により修正押鍵データWが生成される。第2実施形態の自動演奏楽器20は、生成部114が生成したペダルデータUと、後処理部116が生成した修正押鍵データWとに応じて自動演奏を実行する。
以下、修正処理の具体的な内容を説明する。以下の説明では、任意の音高Kについて修正処理を実行する場合を例示する。ただし、128個の音高K1-K128のうち対象となる全ての音高Kについて修正処理が実行され得る。
<修正処理1>
図6は、修正処理1の内容を説明する説明図である。図6に示す通り、音高Kの発音開始点Pが開始点データBnに存在するにも関わらず、押鍵データQに当該発音開始点Pに対応する押鍵期間Hが存在しない場合を想定する。発音開始点Pが存在するということは、押鍵がされているはずであるから、押鍵期間Hが見落とされていると推定できる。そこで、修正処理1では、開始点データBnの発音開始点Pを始点とする押鍵期間Hが押鍵データQに存在しない場合に、後処理部116は、当該発音開始点Pを始点とする所定長の押鍵期間Hを当該押鍵データQに追加することで修正押鍵データWを生成する。
修正処理1によれば、開始点データBnの発音開始点を始点とする押鍵期間Hが押鍵データQに存在しない場合に、当該発音開始点を始点とする所定長の押鍵期間Hが当該押鍵データQに追加される。したがって、実際には押鍵期間Hが存在すべき場所(すなわち、生成部114が検出できなかった地点)に適切に押鍵期間Hを追加することが可能である。
<修正処理2>
図7は、修正処理2の内容を説明する説明図である。図7に示す通り、押鍵データQが表す押鍵期間H内において、第1発音開始点P1と当該第1発音開始点P1の直後に第2発音開始点P2とが存在する場合を想定する。以上のように時間軸上で異なる時点に位置する2つの発音開始点が存在する場合、当該2つの発音開始点のそれぞれに対応する2つの押鍵期間Hが存在するはずである。そこで、修正処理2では、押鍵データQが表す押鍵期間H内において、第1発音開始点P1と第2発音開始点P2とが開始点データBnに存在する場合に、後処理部116は、当該第1発音開始点P1を始点とする押鍵期間H1と、当該第2発音開始点P2を始点とする押鍵期間H2とに、押鍵データQが表す押鍵期間Hを分離することで修正押鍵データWを生成する。
修正処理2によれば、押鍵データQが表す押鍵期間H内において、第1発音開始点P1と第2発音開始点P2とが存在する場合に、当該第1発音開始点を始点とする押鍵期間H1と、当該第2発音開始点を始点とする押鍵期間H2とに押鍵データQが表す押鍵期間Hが分離される。したがって、本来は必要である押鍵期間H2を追加することで、発音開始点毎に適切に押鍵期間Hを生成することができる。
<修正処理3>
図8は、修正処理3の内容を説明する説明図である。図8に示す通り、押鍵データQにおける第1押鍵期間H1の直後の第2押鍵期間H2の始点に発音開始点Pが存在しない場合を想定する。第1押鍵期間H1と第2押鍵期間H2は、時間軸上で相互に離間した期間である。なお、第1押鍵期間H1の始点に対応する発音開始点Pは存在する。発音開始点Pが存在しない場合、当該発音開始点Pに対応する押鍵期間Hは存在しないはずであるから、対応する発音開始点Pが存在しない第2押鍵期間H2は不要であると推定できる。そこで、修正処理3では、第1押鍵期間H1の直後の第2押鍵期間H2の始点に対応する開始点データBnに発音開始点Pが存在しない場合に、後処理部116は、押鍵データQから第2押鍵期間H2を削除することで修正押鍵データWを生成する。
修正処理3によれば、押鍵データQにおける第2押鍵期間H2の始点に発音開始点Pが存在しない場合に、当該押鍵データQから第2押鍵期間H2が削除される。したがって、本来は不要である押鍵期間H2を削除することで、発音開始点P毎に適切に押鍵期間Hを生成することができる。
<修正処理4>
図9は、修正処理4の内容を説明する説明図である。修正処理4では、修正処理3と同様に、押鍵データQにおける第2押鍵期間H2の始点に発音開始点が存在しない場合を想定する。ただし、修正処理4は、生成部114が生成したペダルデータUも押鍵データQの修正に加味する。図9に示す通り、ペダルデータUにおける操作期間Sが第1押鍵期間H1と第2押鍵期間H2とにわたり連続する場合に修正処理4が実行される。具体的には、ペダルデータUの操作期間Sの始点が、第1押鍵期間H1の終点よりも前に位置し、かつ、ペダルデータUの操作期間Sの終点が第2押鍵期間H2の始点以降に存在する場合である。
押鍵期間Hに操作期間Sの始点が位置する場合には、当該操作期間Sの終点までは発音が維持されるはずである。そこで、修正処理4では、押鍵データQにおける第2押鍵期間H2の始点に対応する開始点データBnに発音開始点Pが存在せず、かつ、ペダルデータUにおける操作期間Sが第1押鍵期間H1と第2押鍵期間H2とにわたり連続する場合に、後処理部116は、当該押鍵データQにおいて第1押鍵期間H1と第2押鍵期間H2とを連結することで、修正押鍵データWを生成する。
修正処理4によれば、押鍵データQにおける第2押鍵期間H2の始点に開始点データBnの発音開始点Pが存在せず、かつ、ペダルデータUにおける操作期間Sが第1押鍵期間H1と第2押鍵期間H2とにわたり連続する場合に、当該押鍵データQにおいて第1押鍵期間H1と第2押鍵期間H2とが連結される。したがって、本来は連続する押鍵期間Hであるべき2つの押鍵期間H1,H2を適切に連結することができる。
押鍵データQにおける第2押鍵期間H2の始点に対応する開始点データBnに発音開始点Pが存在しない場合には、原則的には修正処理3が実行されるが、ペダルデータUの操作期間Sが第1押鍵期間H1と第2押鍵期間H2とにわたる場合には、例外的に修正処理4が実行される。なお、修正処理4において、ペダルデータUのみを押鍵データQの修正に加味してもよい。すなわち、開始点データBnを加味することは修正処理4において必須ではない。
第2実施形態においても第1実施形態と同様の効果が実現される。第2実施形態では特に、開始点データBnに応じて押鍵データQが修正されるから、開始点データBnの傾向を適切に反映するように押鍵データQを修正することができるという利点がある。
なお、修正処理は、以上に説明した修正処理1-4に限定されない。例えば、演奏データMに応じて押鍵データQの押鍵期間Hを伸長する修正処理も例示される。また、演奏データMに応じてペダルデータUを修正する構成、ペダルデータUに応じて押鍵データQを修正する構成、または、押鍵データQに応じてペダルデータUを修正する構成も採用される。
<変形例>
以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
(1)前述の各形態では、学習済モデルを利用して押鍵データQとペダルデータUとを生成したが、例えば発音開始点から所定時間を押鍵期間Hとして、それ以降はペダルの操作期間Sとする規則のもとで、押鍵データQとペダルデータUとを生成してもよい。以上の説明から理解される通り、生成部114は学習済モデルに限定されない。
(2)前述の各形態では、各音高Kについて発音期間Eを表すデータを演奏データMとして利用したが、演奏データMは以上の例示に限定されない。例えば、演奏音の波形を表す音響データを演奏データMとして利用してもよい。また、振幅スペクトルの時系列(振幅スペクトログラム)を表す演奏データMを利用してもよい。
(3)前述の各形態では、記憶装置13に事前に記憶された楽曲の演奏データMから、押鍵データQとペダルデータUとを生成したが、例えば演奏者による演奏音の収音による演奏データMの生成に並行して、当該演奏データMから押鍵データQとペダルデータUとを生成してもよい。
(4)前述の各形態では、単位期間Tn毎に、演奏データMに対応する第1単位データXnを入力として、押鍵データQに対応する第2単位データYnと、ペダルデータUに対応する第3単位データZnとを出力する学習済モデルを利用したが、学習済モデルは以上の例示に限定されない。例えば演奏データMを入力し、押鍵データQおよびペダルデータUを出力する学習済モデルを利用してもよい。すなわち、第1単位データXnを生成する前処理部112は必須ではない。以上の説明から理解される通り、演奏データMに対応する入力には、演奏データMそのものと、演奏データMから生成されたデータ(例えば第1単位データXn)とが含まれる。また、押鍵データQおよびペダルデータUに対応する出力には、押鍵データQおよびペダルデータUそのものと、押鍵データQに対応するデータ(例えば第2単位データYn)とペダルデータUに対応するデータ(例えば第3単位データZn)とが含まれる。なお、学習済モデルを生成するための機械学習に利用される学習データは、学習済モデルの内容に応じて適宜に変更される。
(5)前述の各形態では、単位期間Tn毎の第1単位データXnを生成部114に入力したが、当該単位期間Tnを含む複数の単位期間Tnにわたる第1単位データXnの時系列を生成部114に入力してもよい。例えば、複数の単位期間Tnの各々について、当該単位期間Tnの前後にわたる所定個の単位期間Tnの第1単位データXnが生成部114に入力される。以上のように複数の第1単位データXnの時系列が学習済モデルに入力される構成では、学習済モデルの再帰性は必須ではない。例えば畳込ニューラルネットワーク(CNN)等の任意のニューラルネットワークを学習済モデルとして利用できる。
(6)前述の各形態では、第1単位データXnは、発音データAnおよび開始点データBnを含んだが、開始点データBnは必須ではない。すなわち、発音データAnのみから押鍵データQおよびペダルデータUを生成することも可能である。ただし、発音データAnおよび開始点データBnを第1単位データXnが含む構成によれば、発音データAnのみを第1単位データXnが含む構成と比較して、押鍵データQとペダルデータUとを適切に生成することができる。
また、発音データAnおよび開始点データBnとは異なる他のデータを第1単位データXnが含んでもよい。例えば、単位期間Tn毎の音量を表す音量データを第1単位データXnが含んでもよい。具体的には、音量を多段階で表現した多値ベクトルが音量データとして利用される。以上の構成によれば、音量が急峻に増加する時点が押鍵期間Hの始点として推定される可能性が高い。
(7)前述の各形態では、音高K毎に発音の有無を2値ベクトルにより表現した発音データAnを例示したが、発音データAnは以上の例示に限定されない。例えば、音高K毎に発音の強さを多段階で表す多値ベクトルを発音データAnとして利用してもよい。例えば、発音データAnにおける音高K毎の数値は、当該音高Kの発音がない場合は0に設定され、当該音高Kの発音がある場合には、当該発音の強さに応じた多段階の数値に設定される。
(8)前述の各形態では、各音高Kに対応する鍵の押鍵の有無を2値ベクトルにより表現した第2単位データYnを例示したが、第2単位データYnは以上の例示に限定されない。例えば、音高K毎に押鍵の強さを多段階で表す多値ベクトルを第2単位データYnとして利用してもよい。例えば、第2単位データYnの音高K毎の数値は、当該音高Kの押鍵がない場合は0に設定され、当該音高Kの押鍵がある場合には、当該押鍵の強さ(深さ)に応じた多段階の数値に設定される。
(9)前述の各形態では、ペダル操作の有無を2値ベクトルにより表現した第3単位データZnを例示したが、第3単位データZnは以上の例示に限定されない。例えば、ペダル操作の強さを多段階で表す多値ベクトルを第3単位データZnとして利用してもよい。例えば、第3単位データZnの数値は、ペダル操作がない場合は0に設定され、ペダル操作がある場合には、当該ペダル操作の強さ(踏み込み度合)に応じた多段階の数値に設定される。
(10)前述の各形態において、例えばインターネット等の通信網を介して自動演奏楽器20と通信可能なサーバ装置に情報処理装置10を搭載してもよい。
(11)前述の各形態では、自動演奏ピアノを自動演奏楽器20として例示したが、鍵盤とペダルとを具備する楽器であれば自動演奏楽器20は自動演奏ピアノに限定されない。例えば自動演奏が可能であるマリンバを自動演奏楽器20として利用してもよい。
(12)前述の各形態では、前処理部112および生成部114の双方を具備する情報処理装置10を例示したが、前処理部112と生成部114とを別個の装置で実現してもよい。例えば、情報処理装置10の前処理部112により生成した第1単位データXnを、情報処理装置10と通信可能なサーバ装置に送信し、当該サーバ装置の生成部114で第2単位データYnおよび第3単位データZnを生成してもよい。また、第2実施形態では、後処理部116を情報処理装置10とは別個の装置で実現してもよい。
(13)前述の各形態に係る情報処理装置10の機能は、コンピュータ(例えば制御装置11)とプログラムとの協働により実現される。本発明の好適な態様に係るプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされる。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体を含む。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体を除外するものではない。また、通信網を介した配信の形態でプログラムをコンピュータに提供してもよい。
(14)学習済モデルを実現するための人工知能ソフトウェアの実行主体はCPUに限定されない。例えば、Tensor Processing UnitおよびNeural Engine等のニューラルネットワーク専用の処理回路、または、人工知能に専用されるDSP(Digital Signal Processor)が、人工知能ソフトウェアを実行してもよい。また、以上の例示から選択された複数種の処理回路が協働して人工知能ソフトウェアを実行してもよい。
<付記>
以上に例示した形態から、例えば以下の構成が把握される。
本発明の好適な態様(第1態様)に係る情報処理方法は、演奏内容を表す演奏データから、複数の音高の各々に対応する鍵の押鍵期間を表す押鍵データと、押鍵による発音を伸長するペダルの操作期間を表すペダルデータとを生成する。以上の態様によれば、演奏内容を表す演奏データから押鍵データとペダルデータとを生成できる。
第1態様の好適例(第2態様)において、前記演奏データは、前記各音高について発音期間を表すデータである。以上の態様によれば、各音高について発音期間を表すデータが演奏データとして利用されるから、各音高の発音期間に応じて適切に押鍵データとペダルデータを生成することができる。
第2態様の好適例(第3態様)において、前記演奏データに対応する入力と、前記押鍵データおよび前記ペダルデータに対応する出力との関係を学習した学習済モデルが、前記演奏データから前記押鍵データおよび前記ペダルデータを生成する。以上の態様によれば、演奏データに対応する入力と、押鍵データおよびペダルデータに対応する出力との関係を学習した学習済モデルが、押鍵データおよびペダルデータを生成する。したがって、例えば、発音開始点から所定時間を押鍵期間として、それ以降はペダルの操作期間とする規則のもとで、押鍵データとペダルデータとを生成する方法と比較して、演奏データから押鍵データとペダルデータとを適切に生成することができる。
第3態様の好適例(第4態様)において、前記学習済モデルは、単位期間毎に、前記演奏データに対応する第1単位データを入力として、前記押鍵データに対応する第2単位データおよび前記ペダルデータに対応する第3単位データを出力する再帰型のニューラルネットワークであり、前記第1単位データは、前記各音高の発音の有無を示す発音データを含み、前記第2単位データは、前記各音高に対応する鍵の押鍵の有無を示し、前記第3単位データは、前記ペダルの操作の有無を示す。以上の態様によれば、学習済モデルが、単位期間毎に、第1単位データを入力とし、第2単位データおよび第3単位データを出力する再帰型のニューラルネットワークであるから、第2単位データの時系列(すなわち押鍵データ)と第3単位データの時系列(すなわちペダルデータ)とが生成される。また、各音高の発音の有無を示す発音データを第1単位データが含むから、各音高の発音の有無に応じて適切に押鍵データとペダルデータとを生成することができる。
第4態様の好適例(第5態様)において、前記第1単位データは、前記音高毎に発音開始点であるか否かを示す開始点データを含む。以上の態様によれば、音高毎に発音開始点であるか否かを示す開始点データを第1単位データが含むから、発音開始点である否かに応じて適切に押鍵データとペダルデータとを生成することができる。
第5態様の好適例(第6態様)において、前記開始点データに応じて前記押鍵データを修正する。以上の態様によれば、開始点データに応じて押鍵データが修正されるから、開始点データの傾向を適切に反映するように押鍵データを修正することができる。
第6態様の好適例(第7態様)において、前記開始点データの発音開始点を始点とする押鍵期間が前記押鍵データに存在しない場合に、当該発音開始点を始点とする所定長の押鍵期間を当該押鍵データに追加する。以上の態様によれば、開始点データの発音開始点を始点とする押鍵期間が押鍵データに存在しない場合に、当該発音開始点を始点とする所定長の押鍵期間が当該押鍵データに追加される。したがって、実際には押鍵期間が存在すべき場所に適切に押鍵期間を追加することが可能である。
第6態様または第7態様の好適例(第8態様)において、前記押鍵データが表す押鍵期間内において、第1発音開始点と当該第1発音開始点の直後に第2発音開始点とが存在する場合に、当該第1発音開始点を始点とする押鍵期間と、当該第2発音開始点を始点とする押鍵期間とに前記押鍵データが表す押鍵期間を分離する。以上の態様によれば、押鍵データが表す押鍵期間内において、第1発音開始点と当該第1発音開始点の直後に第2発音開始点とが存在する場合に、当該第1発音開始点を始点とする押鍵期間と、当該第2発音開始点を始点とする押鍵期間とに押鍵データが表す押鍵期間が分離される。したがって、本来は必要である押鍵期間を追加することで、発音開始点毎に適切に押鍵期間を生成することができる。
第6態様または第8態様の何れかの好適例(第9態様)において、前記押鍵データにおける第1押鍵期間の直後の第2押鍵期間の始点に対応する前記開始点データに発音開始点が存在しない場合に、当該押鍵データから前記第2押鍵期間を削除する。以上の態様によれば、押鍵データにおける第1押鍵期間の直後の第2押鍵期間の始点に発音開始点が存在しない場合に、当該押鍵データから第2押鍵期間が削除される。したがって、本来は不要である押鍵期間を削除することで、発音開始点毎に適切に押鍵期間を生成することができる。
第6態様または第9態様の何れかの好適例(第10態様)において、前記押鍵データにおける第1押鍵期間の直後の第2押鍵期間の始点に前記開始点データの発音開始点が存在せず、かつ、前記ペダルデータにおける前記操作期間が前記第1押鍵期間と前記第2押鍵期間とにわたり連続する場合に、当該押鍵データにおいて前記第1押鍵期間と前記第2押鍵期間とを連結する。以上の態様によれば、押鍵データにおける第1押鍵期間の直後の第2押鍵期間の始点に開始点データの発音開始点が存在せず、かつ、ペダルデータにおける操作期間が第1押鍵期間と第2押鍵期間とにわたり連続する場合に、当該押鍵データにおいて第1押鍵期間と第2押鍵期間とが連結される。したがって、本来は連続する押鍵期間であるべき2つの押鍵期間を適切に連結することができる。
以上に例示した各態様の情報処理方法を実行する情報処理装置、または、以上に例示した各態様の情報処理方法をコンピュータに実行させるプログラムとしても、本発明の好適な態様は実現される。
100…自動演奏システム、10…情報処理装置、11…制御装置、112…前処理部、114…生成部、116…後処理部、13…記憶装置、20…自動演奏楽器、21…制御装置、23…鍵盤、25…ペダル。

Claims (10)

  1. 演奏内容を表す演奏データから押鍵による発音を伸長するペダルの操作期間を表すペダルデータ生成するコンピュータにより実現される情報処理方法であって、
    前記演奏データに対応する入力と、前記ペダルデータに対応する出力との関係を学習した学習済モデルが、前記演奏データから前記ペダルデータを生成する
    情報処理方法。
  2. 演奏内容を表す演奏データから、複数の音高の各々に対応する鍵の押鍵期間を表す押鍵データと、押鍵による発音を伸長するペダルの操作期間を表すペダルデータとを生成するコンピュータにより実現される情報処理方法であって、
    前記演奏データに対応する入力と、前記押鍵データおよび前記ペダルデータに対応する出力との関係を学習した学習済モデルが、前記演奏データから前記押鍵データおよび前記ペダルデータを生成する
    情報処理方法。
  3. 前記学習済モデルは、単位期間毎に、前記演奏データに対応する第1単位データを入力として、前記押鍵データに対応する第2単位データおよび前記ペダルデータに対応する第3単位データを出力する再帰型のニューラルネットワークであり、
    前記第1単位データは、前記各音高の発音の有無を示す発音データを含み、
    前記第2単位データは、前記各音高に対応する鍵の押鍵の有無を示し、
    前記第3単位データは、前記ペダルの操作の有無を示す
    請求項の情報処理方法。
  4. 前記第1単位データは、前記音高毎に発音開始点であるか否かを示す開始点データを含む
    請求項の情報処理方法。
  5. 前記開始点データに応じて前記押鍵データを修正する
    請求項の情報処理方法。
  6. 演奏内容を表す演奏データから押鍵による発音を伸長するペダルの操作期間を表すペダルデータ生成する生成部を具備し、
    前記生成部は、前記演奏データに対応する入力と、前記ペダルデータに対応する出力との関係を学習した学習済モデルである
    情報処理装置。
  7. 演奏内容を表す演奏データから、複数の音高の各々に対応する鍵の押鍵期間を表す押鍵データと、押鍵による発音を伸長するペダルの操作期間を表すペダルデータとを生成する生成部を具備し、
    前記生成部は、前記演奏データに対応する入力と、前記押鍵データおよび前記ペダルデータに対応する出力との関係を学習した学習済モデルである
    情報処理装置。
  8. 前記学習済モデルは、単位期間毎に、前記演奏データに対応する第1単位データを入力として、前記押鍵データに対応する第2単位データおよび前記ペダルデータに対応する第3単位データを出力する再帰型のニューラルネットワークであり、
    前記第1単位データは、前記各音高の発音の有無を示す発音データを含み、
    前記第2単位データは、前記各音高に対応する鍵の押鍵の有無を示し、
    前記第3単位データは、前記ペダルの操作の有無を示す
    請求項7の情報処理装置。
  9. 前記第1単位データは、前記音高毎に発音開始点であるか否かを示す開始点データを含む
    請求項8の情報処理装置。
  10. 前記開始点データに応じて前記押鍵データを修正する
    請求項9の情報処理装置。
JP2018174785A 2018-09-19 2018-09-19 情報処理方法および情報処理装置 Active JP7103106B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2018174785A JP7103106B2 (ja) 2018-09-19 2018-09-19 情報処理方法および情報処理装置
PCT/JP2019/034188 WO2020059465A1 (ja) 2018-09-19 2019-08-30 演奏データの情報処理装置
EP19862004.9A EP3855425A4 (en) 2018-09-19 2019-08-30 INFORMATION PROCESSING DEVICE FOR PLAYING DATA
CN201980058992.4A CN112753067A (zh) 2018-09-19 2019-08-30 演奏数据的信息处理装置
US17/204,340 US20210201865A1 (en) 2018-09-19 2021-03-17 Information processing method, information processing device and a non-transitory storage medium
JP2022098702A JP7343012B2 (ja) 2018-09-19 2022-06-20 情報処理装置および情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018174785A JP7103106B2 (ja) 2018-09-19 2018-09-19 情報処理方法および情報処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022098702A Division JP7343012B2 (ja) 2018-09-19 2022-06-20 情報処理装置および情報処理方法

Publications (3)

Publication Number Publication Date
JP2020046533A JP2020046533A (ja) 2020-03-26
JP2020046533A5 JP2020046533A5 (ja) 2021-07-29
JP7103106B2 true JP7103106B2 (ja) 2022-07-20

Family

ID=69888775

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018174785A Active JP7103106B2 (ja) 2018-09-19 2018-09-19 情報処理方法および情報処理装置
JP2022098702A Active JP7343012B2 (ja) 2018-09-19 2022-06-20 情報処理装置および情報処理方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022098702A Active JP7343012B2 (ja) 2018-09-19 2022-06-20 情報処理装置および情報処理方法

Country Status (5)

Country Link
US (1) US20210201865A1 (ja)
EP (1) EP3855425A4 (ja)
JP (2) JP7103106B2 (ja)
CN (1) CN112753067A (ja)
WO (1) WO2020059465A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113012668B (zh) * 2019-12-19 2023-12-29 雅马哈株式会社 键盘装置及发音控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001290474A (ja) 2000-04-06 2001-10-19 Japan Science & Technology Corp 音楽情報解析装置、音楽情報解析方法及び音楽情報解析プログラムを記録した記録媒体
JP2005301299A (ja) 1998-02-05 2005-10-27 Casio Comput Co Ltd 楽音データ変換装置、操作指示装置及び記憶媒体
JP2017102414A (ja) 2015-12-04 2017-06-08 ヤマハ株式会社 信号処理装置、演奏システム、及び演奏制御方法
JP2018063295A (ja) 2016-10-11 2018-04-19 ヤマハ株式会社 演奏制御方法および演奏制御装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06118945A (ja) * 1992-10-02 1994-04-28 Yamaha Corp 自動ピアノのペダル駆動データ作成方法
US6025550A (en) * 1998-02-05 2000-02-15 Casio Computer Co., Ltd. Musical performance training data transmitters and receivers, and storage mediums which contain a musical performance training program
JP6744522B2 (ja) 2015-12-04 2020-08-19 国立大学法人東京芸術大学 演奏システム、及び制御方法
US11295739B2 (en) * 2018-08-23 2022-04-05 Google Llc Key phrase spotting

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005301299A (ja) 1998-02-05 2005-10-27 Casio Comput Co Ltd 楽音データ変換装置、操作指示装置及び記憶媒体
JP2001290474A (ja) 2000-04-06 2001-10-19 Japan Science & Technology Corp 音楽情報解析装置、音楽情報解析方法及び音楽情報解析プログラムを記録した記録媒体
JP2017102414A (ja) 2015-12-04 2017-06-08 ヤマハ株式会社 信号処理装置、演奏システム、及び演奏制御方法
JP2018063295A (ja) 2016-10-11 2018-04-19 ヤマハ株式会社 演奏制御方法および演奏制御装置

Also Published As

Publication number Publication date
US20210201865A1 (en) 2021-07-01
EP3855425A1 (en) 2021-07-28
EP3855425A4 (en) 2022-06-01
WO2020059465A1 (ja) 2020-03-26
JP7343012B2 (ja) 2023-09-12
CN112753067A (zh) 2021-05-04
JP2022123072A (ja) 2022-08-23
JP2020046533A (ja) 2020-03-26

Similar Documents

Publication Publication Date Title
CN107316638A (zh) 一种诗词背诵评测方法及系统、一种终端及存储介质
US11568244B2 (en) Information processing method and apparatus
JP2000502470A (ja) 口語テキストを認識する方法及びシステム
CN103810992A (zh) 语音合成方法和语音合成设备
US11488567B2 (en) Information processing method and apparatus for processing performance of musical piece
US11967302B2 (en) Information processing device for musical score data
JP2023081946A (ja) 学習装置、自動採譜装置、学習方法、自動採譜方法及びプログラム
US11322124B2 (en) Chord identification method and chord identification apparatus
US11842719B2 (en) Sound processing method, sound processing apparatus, and recording medium
US11875777B2 (en) Information processing method, estimation model construction method, information processing device, and estimation model constructing device
JP7343012B2 (ja) 情報処理装置および情報処理方法
WO2021075014A1 (ja) 演奏解析方法、演奏解析装置およびプログラム
JP6708180B2 (ja) 演奏解析方法、演奏解析装置およびプログラム
JP6733487B2 (ja) 音響解析方法および音響解析装置
CN113228158B (zh) 演奏校正方法及演奏校正装置
CN113168824B (zh) 音响解析方法、音响解析装置以及模型构建方法
JP2020038252A (ja) 情報処理方法および情報処理装置
US20240134459A1 (en) Haptic feedback method, system and related device for matching split-track music to vibration
WO2024085175A1 (ja) データ処理方法およびプログラム
Bognár Audio Effect Modeling with Deep Learning Methods
CN117321675A (zh) 乐谱制作装置、训练装置、乐谱制作方法以及训练方法
CN116805480A (zh) 音响设备及该音响设备的参数输出方法
CN116830179A (zh) 信息处理系统、电子乐器、信息处理方法及机器学习系统
CN116631359A (zh) 乐曲的生成方法、装置、计算机可读介质及电子设备
CN113593504A (zh) 一种音高识别模型的建立方法、音高识别方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210617

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220620

R151 Written notification of patent or utility model registration

Ref document number: 7103106

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151