JP2019159146A - 電子機器、情報処理方法、及びプログラム - Google Patents

電子機器、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2019159146A
JP2019159146A JP2018046692A JP2018046692A JP2019159146A JP 2019159146 A JP2019159146 A JP 2019159146A JP 2018046692 A JP2018046692 A JP 2018046692A JP 2018046692 A JP2018046692 A JP 2018046692A JP 2019159146 A JP2019159146 A JP 2019159146A
Authority
JP
Japan
Prior art keywords
music data
instrument
parts included
played
musical instrument
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018046692A
Other languages
English (en)
Other versions
JP6617784B2 (ja
Inventor
大輝 日暮
Daiki Higure
大輝 日暮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018046692A priority Critical patent/JP6617784B2/ja
Priority to PCT/JP2019/010066 priority patent/WO2019176954A1/en
Publication of JP2019159146A publication Critical patent/JP2019159146A/ja
Application granted granted Critical
Publication of JP6617784B2 publication Critical patent/JP6617784B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0016Means for indicating which keys, frets or strings are to be actuated, e.g. using lights or leds
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/015Musical staff, tablature or score displays, e.g. for score reading during a performance.
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/016File editing, i.e. modifying musical data files or streams as such
    • G10H2240/021File editing, i.e. modifying musical data files or streams as such for MIDI-like files or data streams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

【課題】複数のパートから、所定の楽器で演奏するためのパートを選択すること。【解決手段】電子機器において、複数の第1楽曲データのそれぞれに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する学習時抽出部と、前記学習時抽出部により抽出された特徴量に基づいて機械学習を行うことにより、第2楽曲データに含まれる複数のパートから、楽器で演奏させるパートを選択するためのモデルを、学習済みモデルとして生成する生成部と、を有する。【選択図】図4

Description

本発明は、電子機器、電子楽器、情報処理方法、及びプログラムに関する。
従来、ピアノ以外の複数の楽器により演奏される楽曲における各楽器(各パート)用の楽譜から、1台のピアノで演奏できるように編曲した楽譜(ピアノ・リダクション)を作成する技術が知られている(例えば、非特許文献1を参照)。
"Automatic Piano Reduction from Ensemble Scores Based on Merged-Output Hidden Markov Model" [online] [平成30年2月8日検索]、インターネット<URL:http://eita-nakamura.github.io/articles/Nakamura-Sagayama_AutomaticPianoReduction_ICMC2015.pdf>
各パートの楽譜は、1種類の楽器、または鍵盤楽器における左右のいずれかの手で演奏することを想定して作られているため、他の楽器等で演奏する場合も、比較的演奏し易い場合がある。しかしながら、従来技術では、複数のパートの楽譜における音符から、主要な音符を抽出するため、元の楽譜における演奏しやすさが損なわれる場合がある。
そこで、一側面では、複数のパートから、所定の楽器で演奏するためのパートを選択することができる技術を提供することを目的とする。
一つの案では、複数の第1楽曲データのそれぞれに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する学習時抽出部と、前記学習時抽出部により抽出された特徴量に基づいて機械学習を行うことにより、第2楽曲データに含まれる複数のパートから、楽器で演奏させるパートを選択するためのモデルを、学習済みモデルとして生成する生成部と、を有する電子機器が提供される。
一側面によれば、複数のパートから、所定の楽器で演奏するためのパートを選択することができる。
実施形態に係る情報処理システムの構成例を示す図である。 実施形態に係るサーバ、端末、及び電子楽器のハードウェア構成例を示す図である。 実施形態に係る情報処理装置の機能構成の一例を示す図である。 実施形態に係る情報処理システムの処理の一例を示すシーケンス図である。 実施形態に係る機械学習により学習済みモデルを生成する処理の一例について説明するフローチャートである。 実施形態に係る学習用データの一例について説明する図である。 機械学習に用いられる、各パートに対する特徴量について説明する図である。 GBDTを用いて機械学習をする場合の処理の一例について説明するフローチャートである。 GBDTを用いた学習済みモデルのデータの一例について説明する図である。 学習済みモデルのデータに基づいて、パートを決定する処理の一例について説明するフローチャートである。
以下、図面に基づいて本発明の実施形態を説明する。
<システム構成>
図1は、実施形態に係る情報処理システム1の構成例を示す図である。図1において、情報処理システム1は、サーバ10、端末20、及び電子楽器30を備える。なお、各装置の数は、図1の例に限定されない。
サーバ10と端末20は、例えば、携帯電話網、LAN(Local Area Network)、無線LAN、及びインターネット等のネットワーク50により通信が接続される。端末20と電子楽器30は、例えば、USBケーブル、または近距離無線通信等により接続される。
サーバ10は、サーバ用の情報処理装置(コンピュータ、電子機器)である。サーバ10は、学習用のデータに基づいて機械学習を行い、楽曲データに含まれる複数のパートから、所定の楽器で演奏させるパートを選択するための学習済みモデルを生成する。
端末20は、例えば、タブレット端末、スマートフォン、デスクトップPC(Personal Computer)、ノートPC等の情報処理装置である。端末20は、サーバ10から取得した学習済みモデルのデータと、ユーザから指定された楽曲データとに基づいて、所定の楽器で演奏させるパートを選択する。
電子楽器30は、例えば、電子キーボード、電子オルガン、電子ピアノ、電子管楽器、電子弦楽器、及びシンセサイザー等の電子楽器である。電子楽器30は、端末20から入力された楽曲データに基づいて、音を出力する。また、ユーザの演奏操作に応答して、音を出力する。
<ハードウェア構成>
図2は、実施形態に係るサーバ10、端末20、及び電子楽器30のハードウェア構成例を示す図である。以下では、サーバ10を例として説明する。図2のサーバ10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU(Central Processing Unit)104、インタフェース装置105、表示装置106、入力装置107、及び出力装置108等を有する。
サーバ10での処理を実現するプログラム(情報処理プログラム)は、記録媒体101によって提供される。プログラムを記録した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。
メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従ってサーバ10に係る機能を実現する。インタフェース装置105は、ネットワーク等に接続するためのインタフェースとして用いられる。表示装置106はプログラムによるGUI(Graphical User Interface)等を表示する。入力装置107はキーボード及びマウス等、またはタッチパネル及びボタン等で構成され、様々な操作指示を入力させるために用いられる。出力装置108は、スピーカ等で構成され、様々な音を出力させるために用いられる。
なお、記録媒体101の一例としては、CD−ROM、DVDディスク、又はUSBメモリ等の可搬型の記録媒体が挙げられる。また、補助記憶装置102の一例としては、HDD(Hard Disk Drive)又はフラッシュメモリ等が挙げられる。記録媒体101及び補助記憶装置102のいずれについても、コンピュータ読み取り可能な記録媒体に相当する。また、サーバ10は、GPU(Graphics Processing Unit)を有し、GPUを用いて、後述する機械学習に関する処理の少なくとも一部を行うようにしてもよい。この場合、GPUが実装されたアクセラレータ用のボードが、インタフェース装置105等を介してバスBに接続されてもよい。
なお、端末20及び電子楽器30のハードウェア構成は、図2に示すサーバ10のハードウェア構成例と同様でもよい。電子楽器30における入力装置107は、例えば、鍵盤等で構成され、演奏させる音を入力させるために用いられる。また、電子楽器30は、出力装置108として、演奏された音等を発音(再生)させる発音装置(音源やスピーカ等)も有する。電子楽器30の入力装置、及び出力装置は、それぞれ、「操作部」、及び「発音部」の一例である。
<機能構成>
次に、図3を参照し、実施形態に係るサーバ10、及び端末20の機能構成について説明する。図3は、実施形態に係るサーバ10、及び端末20の機能構成の一例を示す図である。
≪サーバ10の機能構成≫
サーバ10は、記憶部11を有する。記憶部11は、例えば、補助記憶装置102等を用いて実現される。記憶部11は、学習用データ111等のデータを記憶する。学習用データ111には、一の楽曲データに含まれる複数のパートのそれぞれの音符のデータ(演奏情報)と、当該一の楽曲データに含まれる複数のパートのうち所定の楽器に対して予め選択されたパートを示す情報(教師データ)との組のデータの集合が記憶されている。学習用データ111の詳細な例については後述する。
また、サーバ10は、抽出部12、生成部13、及び出力部14を有する。これら各部は、サーバ10にインストールされた1以上のプログラムが、サーバ10のCPU104に実行させる処理により実現される。
抽出部12は、学習用データ111に記憶されている複数の楽曲データ(「第1楽曲データ」)のそれぞれに含まれる各パートに対する所定の特徴量を抽出する。
生成部13は、抽出部12により抽出された所定の特徴量と、学習用データ111に記憶されている所定の楽器のパートを示す情報とに基づいて、ユーザ等に指定された楽曲データに含まれる複数のパートから、前記所定の楽器で演奏させるパートを選択するための学習済みモデルを生成する。
出力部14は、生成部13により生成された学習済みモデルのデータを、端末20に出力する。出力部14は、例えば、端末20にインストールされるアプリケーションに当該学習済みモデルのデータを含めて、端末20に外部サーバ等を介して当該アプリケーションを配信してもよい。
≪端末20の機能構成≫
端末20は、受付部21、取得部22、抽出部23、決定部24、制御部25、及び出力部26を有する。これら各部は、端末20にインストールされた1以上のプログラムが、端末20のCPUに実行させる処理により実現される。
受付部21は、端末20のユーザからの各種の操作を受け付ける。
取得部22は、複数のパートを含む楽曲データから、所定の楽器で演奏させるパートを選択するための学習済みモデルのデータをサーバ10から取得する。また、取得部22は、ユーザの操作等に応答して、複数のパートを含む楽曲データ(「第2楽曲データ」)を、外部サーバ等から取得する。
抽出部23は、取得部22により取得された楽曲データに含まれる複数のパートのそれぞれに対する所定の特徴量を抽出する。
決定部24は、取得部22により取得された学習済みモデルと、抽出部23により抽出された複数のパートのそれぞれに対する所定の特徴量とに基づいて、取得部22により取得された楽曲データに含まれる複数のパートから、所定の楽器で演奏させるパートを決定する。
制御部25は、決定部24により決定されたパートに応じた楽譜を画面に表示させる。 出力部26は、決定部24により決定されたパートの情報等を、電子楽器30に出力する。出力部26は、例えば、決定部24により決定されたパートを含む第1演奏データと、当該所定の楽曲データに含まれるパートのうち、決定部24により決定されたパート以外のパートを含む第2演奏データ等を、電子楽器30に出力する。
≪電子楽器30の機能構成≫
電子楽器30は、取得部31、案内部32、及び再生部33を有する。これら各部は、電子楽器30にインストールされた1以上のプログラムが、電子楽器30のCPUに実行させる処理により実現される。
取得部31は、第1演奏データ、及び第2演奏データを端末20から取得する。案内部32は、取得部31により取得された第1演奏データに基づいてユーザによる演奏を案内する。再生部33は、案内部32の指示に従い、第2演奏データに含まれる音符に対応する音を再生してスピーカから出力させる。
<処理>
次に、図4を参照し、実施形態に係る情報処理システム1の処理について説明する。図4は、実施形態に係る情報処理システム1の処理の一例を示すシーケンス図である。
ステップS1において、サーバ10の抽出部12は、学習用データ111に記憶されている楽曲データに含まれる各パートに対する所定の特徴量を抽出する。
続いて、サーバ10の生成部13は、抽出部12により抽出された特徴量と、学習用データ111に記憶されている所定の楽器のパートを示す情報とに基づいて、ユーザ等に指定された楽曲データに含まれる複数のパートから、当該所定の楽器で演奏させるパートを選択するための学習済みモデルを生成する(ステップS2)。
続いて、端末20の取得部22は、ユーザの操作等に応答して、当該学習済みモデルのデータをサーバ10から取得する(ステップS3)。
続いて、端末20の取得部22は、ユーザの操作等に応答して、所定の楽曲データを取得する(ステップS4)。ここで、当該所定の楽曲データは、例えば、SMF(Standard MIDI File)規格のフォーマットで作成されたデータ(SMFファイル)でもよい。当該所定の楽曲データには、複数のパートのデータが含まれており、GM(General MIDI)規格のフォーマットで、各パートの音を出力する場合の音色の楽器が指定されていてもよい。端末20の取得部22は、例えば、ユーザの操作に応答して、当該所定の楽曲データをインターネット上のサーバ等からダウンロードしてもよい。
続いて、端末20の抽出部23は、取得部22により取得された所定の楽曲データに含まれる各パートに対する所定の特徴量を抽出する(ステップS5)。続いて、端末20の受付部21は、演奏の難易度(演奏者の習熟度)を指定する操作をユーザから受け付ける(ステップS6)。
続いて、端末20の決定部24は、当該難易度、当該所定の楽曲データ、及び学習済みモデルのデータに基づいて、当該所定の楽曲データに含まれる複数のパートのうち、所定の楽器での演奏に適した1以上のパートを決定する(ステップS7)。
続いて、端末20の制御部25は、決定部24により決定されたパートを含む第1演奏データと、当該所定の楽曲データに含まれるパートのうち、決定部24により決定されたパート以外のパートを含む第2演奏データを生成する(ステップS8)。ここで、第1演奏データ、及び第2演奏データは、SMFファイルとして作成されてもよい。
続いて、端末20の制御部25は、第1演奏データに基づいた楽譜を画面に表示させる(ステップS9)。ここで、端末20の制御部25は、例えば、コード名(音名)を記した簡易な楽譜であるコード譜を表示させてもよい。
続いて、電子楽器30の取得部31は、第1演奏データ、及び第2演奏データを端末20から取得する(ステップS10)。続いて、電子楽器30の案内部32は、ユーザから所定の操作を受け付けると、第1演奏データに基づいてユーザによる演奏を案内(ナビゲーション、サポート)する(ステップS11)とともに、再生部33により第2演奏データに基づく音をスピーカから出力させる(ステップS12)。ここで、電子楽器30の案内部32は、例えば、鍵盤等の操作部を光らせることにより、演奏の案内を行う。また、電子楽器30の案内部32は、ユーザによる演奏操作に応じた演奏の進行を判断し(第1演奏データにおける現在の演奏位置を順次更新していき)、この演奏の進行に合わせて、第2演奏データに含まれる音符に対応する楽音を再生部33により順次発音させていく。これにより、ユーザは、例えば、タブレット端末等である端末20に表示された楽譜を見ながら、電子楽器30にて当該楽譜に従って演奏することができる。
なお、ステップS9の演奏を案内する処理、及びステップS10の音を出力する処理の少なくとも一部は、端末20の制御部25にて実行されてもよい。この場合、端末20の制御部25は、例えば、画面に鍵盤等を表示し、当該鍵盤等を光らせることにより、演奏の案内を行うようにしてもよい。
また、電子楽器30は、ユーザによる鍵盤等の演奏操作に応じた音をスピーカから出力させる。この場合、電子楽器30は、当該演奏操作に応じた音を、当該所定の楽曲データのSMFファイルにおいて第1演奏データのパートに対して指定されている楽器の音色で出力してもよいし、ユーザの操作により指定された楽器の音色で出力してもよい。これにより、例えば、第1演奏データとして決定された、ギター等の鍵盤を有しない楽器用のパートを、電子楽器30の鍵盤等を用いた演奏操作により、ピアノ等の音色で演奏することもできる。また、例えば、第1演奏データとして決定された、ピアノ等の鍵盤を有する楽器用のパートまたはギター等の鍵盤を有しない楽器用のパートを、電子楽器30の鍵盤等を用いた演奏操作により、ギター等の音色で演奏することもできる。
≪学習済みモデル生成処理≫
次に、図5乃至図7を参照し、図4のステップS1及びステップS2の、サーバ10における機械学習により学習済みモデルを生成する処理について説明する。図5は、実施形態に係る機械学習により学習済みモデルを生成する処理の一例について説明するフローチャートである。以下では、電子楽器30がピアノ等の鍵盤楽器であり、右手用のパートと左手用のパートの2つのパートを決定する例について説明する。なお、開示の技術は、鍵盤楽器用に2つのパートを決定する場合に限らず、1つのパートのみを決定する場合にも適用できる。また、演奏パート選択の対象となる楽器の種類を、学習データ(教師データ)が記憶された複数の楽器の種類の中からユーザに選択させるようにしてもよい。
ステップS101において、抽出部12は、複数のパートを含む楽曲データと、当該楽曲データに含まれるパートから選択された右手用のパート、及び左手用のパートとの組み合わせの集合のデータを学習用データ111から取得する。ここで、抽出部12は、例えば、電子楽器30が、鍵盤等によりユーザにより両手で演奏される電子楽器である場合、3以上のパートを含む楽曲データのみを処理対象としてもよい。
図6は、実施形態に係る学習用データ111の一例について説明する図である。図6に示す学習用データ111の例では、複数の楽曲データIDの各々に対応付けて、楽曲データに含まれるパート、右手用に選択されたパート、左手用に選択されたパートが記憶されている。楽曲データIDは、楽曲データを識別するための情報である。楽曲データに含まれるパートは、楽曲データIDに係る楽曲データに含まれる各パートであり、教師あり学習における例題のデータである。楽曲データに含まれるパートは、例えば、MIDI(Musical Instrument Digital Interface)規格による、音の高さ、音の強さ等の情報が符号化された演奏情報でもよい。ここでは、鍵盤楽器の演奏パート選択に適した学習データ(教師データ)を用いるが、鍵盤楽器以外の楽器の演奏パート選択を行う場合には、その楽器に適した別の学習データ(教師データ)が用いられる。
右手用に選択されたパート、及び左手用に選択されたパートは、それぞれ、当該楽曲データに含まれる複数のパートのうち、所定の楽器での右手、及び左手による演奏に適していると判断されたパートであり、教師あり学習における正解のデータである。
図6の例では、楽曲データIDが「001」の楽曲データには、「パート1A、パート1B、パート1C、パート1D、パート1E、パート1F、パート1G、・・・」等が含まれ、右手用に選択されたパートは「パート1C」、左手用に選択されたパートは「パート1E」であることが示されている。なお、学習用データ111に記憶されているデータは、例えば、サーバ10を運用する事業者等により、予め設定されていてもよい。
なお、抽出部12は、例えば、学習用データ111に記憶されている楽曲データに含まれる複数のパートのそれぞれの各音符を所定の音高分だけ上下させたパートを含む楽曲データを生成してデータ拡張(Data Augmentation)を行うようにしてもよい。これにより、サンプル数が比較的少ない場合等においても学習済みモデルの精度が向上する。なお、例えば、あるパートの各音符が「ド、レ、ミ、ド、・・・」であれば、音高が2半音上げられた場合は「レ、ミ、ファ♯、レ、・・・」となる。抽出部12は、上下させる音高の値を順次変更することにより、学習用データ111に記憶されている一のデータに基づいて複数のデータ拡張用のデータを生成してもよい。この場合、抽出部12は、例えば、上下させる音高の値を−10乃至−1、及び1乃至10まで1ずつ変更することにより、当該一のデータに基づいて二十個のデータ拡張用のデータを生成できる。
続いて、抽出部12は、取得した各組み合わせについて、楽曲データに含まれる各パートから、所定の特徴量をそれぞれ抽出する(ステップS102)。ここで、以下で説明するように、抽出部12は、当該所定の特徴量として、パートに含まれる各音符の音が出力される時間長または音高の平均または分散と、パートに含まれる音符に同時に音が出力される複数の音符がある場合は各時点において最も高い音符の音の長さまたは音高の平均または分散と、パートに含まれる各音符により単位時間あたりに出力される音の数の平均または分散と、パートにおけるモノフォニーとポリフォニーの割合と、パートにおける同音進行、順次進行、及び跳躍進行の回数の割合とのうちの少なくとも一つを抽出してもよい。
図7は、機械学習に用いられる、各パートに対する特徴量について説明する図である。図7には、楽譜で表記した場合の音符701乃至音符708と、MIDIデータにより指定された、音符701乃至音符708の音がそれぞれ出力される時間701A乃至時間708Aが示されている。
抽出部12は、パートに含まれる各音符の音が出力される時間長(音の長さ、音価)及び音高(ピッチ)の平均及び分散を当該パートの特徴量としてもよい。この場合、抽出部12は、例えば、4分音符の音の長さの値を1として計算してもよい。また、抽出部12は、例えば、MIDIにおける音高の数値表現と同様に、国際式オクターブ表記におけるC0の音高の値を12とし、音高がC0から半音上がる毎に1大きな値として計算してもよい。
また、抽出部12は、パートに含まれる音符に、同時に音が出力される複数の音符がある場合、各時点において最も高い音符の音の長さ及び音高の平均及び分散を当該パートの特徴量としてもよい。これは、人の耳は高い音の方が知覚し易く、一番高い音がメロディラインになることが多いためである。この場合、図7の例では、各時点において最も高い音符の音の長さは、時間701A乃至時間703A、時間705A、時間708Aと、音符704の音が出力される時間704Aのうち時間705Aと重ならない時間704Bと、音符707の音が出力される時間707Aのうち時間708Aと重ならない時間707Bの長さである。
また、抽出部12は、パートに含まれる各音符により単位時間(例えば、1拍)あたりに出力される音の数(発音数)の平均及び分散を当該パートの特徴量としてもよい。これは、例えば、ドラム等の楽器は、単位時間あたりに出力される音の数が比較的多い等、楽器の種類によって単位時間あたりに出力される音の数が異なる場合が多いためである。
また、抽出部12は、パートにおけるモノフォニーとポリフォニーの割合を当該パートの特徴量としてもよい。ここで、モノフォニーとは、例えば、同時に出力される音の数が1つであることをいう。また、ポリフォニーとは、例えば、同時に出力される音の数が複数であることをいう。これは、ピアノ等の鍵盤を用いる楽器のパートにおいては、片手で同時に複数の音を演奏することが多いためである。この場合、抽出部12は、例えば、パートに含まれる各音符により出力される音の時間(発音時間)長のうち、モノフォニーである時間長の割合、及びポリフォニーである時間長の割合を当該パートの特徴量としてもよい。または、抽出部12は、パートに含まれる各音符のうち、モノフォニーである音符の割合、及びポリフォニーである音符の割合を当該パートの特徴量としてもよい。この場合、抽出部12は、MIDIデータにおいて複数の音符の音が出力されるタイミングの差が所定の閾値(例えば、0.1秒)以内である場合、当該複数の音符はモノフォニーであると判定してもよい。これは、図7の音符707、及び音符708のように、複数の音符が、楽譜上では同じ時間位置でも、MIDIデータでは、演奏の人間らしさを再現する等のため、時間707A、及び時間708Aのように、数ミリ秒乃至百ミリ秒程度ずれて指定されているためである。
また、抽出部12は、パートにおける同音進行、順次進行、及び跳躍進行の回数の割合を当該パートの特徴量としてもよい。ここで、同音進行とは、例えば、一の音符と、当該一の音符の次の音符の音高が同じであることをいう。順次進行とは、例えば、一の音符と、当該一の音符の次の音符の音高が1つだけ上下していることをいう。跳躍進行とは、例えば、一の音符と、当該一の音符の次の音符の音高が2つ以上上下していることをいう。これは、楽器の種類に応じて、同音進行等の割合が異なることが多いためである。また、メロディに該当するパートは、跳躍進行が比較的少ないことが多いためである。抽出部12は、パートに含まれる音符に、同時に音が出力される複数の音符がある場合、当該複数の音符のうち、最も高い音符に対する同音進行、順次進行、及び跳躍進行の回数の割合を当該パートの特徴量としてもよい。
これらの特徴量には、演奏用パートの選択に適した特徴量であり、少なくとも、鍵盤楽器、管楽器、弦楽器、打楽器等の各種の楽器に共通した楽器演奏の難易度や演奏音の良し悪しに影響を与える特徴量、または、特定の種類の楽器で演奏する場合に特有の演奏の難易度や演奏音の良し悪しに影響を与える特徴量が含まれている。つまり、楽器の種類毎に、初心者でも音高を順番に指定していく演奏操作を素早く行うことが比較的に容易な(難しい)楽器や、同時に複数の音高を指定する演奏操作が比較的に容易な(難しい)楽器や、音高の指定操作よりもリズムの指定操作が重要な楽器などがあり、ユーザが演奏する楽器の種類に合わせて、異なる演奏パートを選択する必要がある場合には、特定の種類の楽器に対応する特徴量が必要となる。
続いて、生成部13は、抽出した特徴量に基づいて、機械学習を行うことにより、学習済みモデルのデータを生成する(ステップS103)。ここで、生成部13は、例えば、GBDT(Gradient Boosting Decision Tree、勾配ブースティング決定木)、SVM(Support Vector Machine)、ニューラルネットワーク、深層学習、線形回帰、またはロジスティック回帰等のアルゴリズムを用いて機械学習を行ってもよい。または、生成部13は、他の公知のアルゴリズムを用いて機械学習を行ってもよい。
(GBDTを用いて機械学習をする場合の例)
次に、図8、及び図9を参照し、図5のステップS103で、GBDTを用いて機械学習をする場合の処理の一例について説明する。図8は、GBDTを用いて機械学習をする場合の処理の一例について説明するフローチャートである。なお、以下で、ステップS201からステップS205までの一連の処理を一回行うことを、今回の学習と称する。
ステップS201において、生成部13は、学習用データ111から取得した例題のデータと正解のデータの組のデータうち、今回の学習で用いるデータを決定する。ここで、今回の学習で用いるデータを、ランダムに決定してもよい。
続いて、生成部13は、複数の特徴量のうち、今回の学習で用いる特徴量を決定する(ステップS202)。ここで、生成部13は、今回の学習で用いる特徴量を、ランダムに決定してもよい。つまり、ランダムな決定のために、演奏用パートの選択に適していない特徴量が含まれていた場合であっても、学習によって自動的に演奏用パートの選択に適した特徴量が選ばれる(重みが高くなる)からである。
続いて、生成部13は、今回の学習で用いるデータ、及び今回の学習で用いる特徴量に基づいて、決定木を決定する(ステップS203)。ここで、生成部13は、例えば、分類結果の平均情報量(エントロピー)を小さくする分岐条件を算出し、当該分岐条件を有する決定木を生成する。
続いて、生成部13は、今回の学習で用いるデータ、及び今回生成した決定木に基づいて、決定木の各葉に対する投票数を決定する(ステップS204)。ここで、生成部13は、現時点までに生成された複数の決定木による分類結果について、当該複数の決定木による多数決をした場合に、正答率が高くなるように、当該複数の決定木の分類結果による投票数に差を付ける。これにより、正答率が比較的高い決定木の葉(ノード)は投票数が増やされ、正答率が比較的低い決定木の葉は投票数が減らされる。
続いて、生成部13は、今回生成した決定木により誤分類したデータに対して重みを付ける(ステップS205)。ここで、生成部13は、誤分類したデータに対して、分類結果の平均情報量を比較的大きく見積もるように重みを付加する。これにより、次回の学習で生成する決定木においては、今回の学習で生成した決定木の分類結果が誤ったデータに対して、正しく分類され易くなる。
続いて、生成部13は、終了条件に合致するか否かを判定する(ステップS206)。ここで、生成部13は、例えば、正答率の向上が収束してきた場合に、終了条件に合致すると判定する。終了条件に合致しない場合(ステップS206でNO)、ステップS201の処理に進む。一方、終了条件に合致した場合(ステップS206でYES)、処理を終了する。
図9は、GBDTを用いた学習済みモデルのデータの一例について説明する図である。図9の例では、学習済みモデルのデータには、図8のステップS201からステップS205までの一連の処理により生成された複数(例えば、数百個)の決定木801乃至804等のデータが含まれている。また、決定木801における各葉801A乃至801Eには、ステップS204の処理で決定された投票数が設定されている。他の決定木802乃至804等における各葉にも、決定木801の例と同様に投票数が設定されている。これにより、後述するように、端末20の実行フェーズの処理において、各決定木の各葉の当該投票数に応じた多数決により、各決定木による分類結果のうち、一の分類結果が選択される。
≪学習済みモデルを用いた決定処理≫
次に、図10を参照し、図4のステップS5乃至ステップS7における、端末20において、学習済みモデルのデータに基づいて、所定の楽曲データに含まれる複数のパートのうち、所定の楽器での演奏に適した1以上のパートを決定する処理について説明する。図10は、学習済みモデルのデータに基づいて、パートを決定する処理の一例について説明するフローチャートである。
以下では、所定の楽曲データに2以上のパートが含まれる場合について説明する。なお、所定の楽曲データに含まれるパートの数が2つである場合は、当該2つのパートについて、音高の平均値をそれぞれ算出し、当該平均値が高い方のパートを右手用のパートと決定し、当該平均値が低い方のパートを左手用のパートと決定してもよい。
ステップS301において、抽出部23は、所定の楽曲データに含まれる各パートから特徴量を抽出する。ここで、抽出部23は、図5のステップS102の処理で抽出した特徴量と同じ特徴量を抽出する。
続いて、決定部24は、ユーザから指定された演奏の難易度に応じて、学習済みモデルのデータにおけるパラメータを調整する(ステップS302)。学習済みモデルの生成に上述したGBDTが用いられた場合、決定部24は、例えば、ユーザから指定された演奏の難易度が高い程、各決定木において、ポリフォニーの割合が比較的高い(モノフォニーの割合が比較的低い)という条件により分類された分類結果に対する投票数を比較的多くしてもよい。または、ポリフォニーの割合が比較的低いという条件により分類されたノードに対する投票数を比較的少なくしてもよい。また、決定部24は、例えば、ユーザから指定された演奏の難易度が高い程、各決定木において、単位時間あたりに出力される音の数の平均または分散が比較的大きいという条件により分類された分類結果に対する投票数を比較的多くしてもよい。または、単位時間あたりに出力される音の数の平均または分散が比較的小さいという条件により分類された分類結果に対する投票数を比較的少なくしてもよい。これにより、例えば、演奏の習熟度が高いユーザには、比較的多くの音を同時に演奏する箇所が比較的多い等の、演奏の難易度が高いパートを選択することができる。
なお、これに代えて、サーバ10が、演奏の難易度に応じた学習用データに基づいて、演奏の難易度に応じた学習済みモデルを作成し、決定部24は、ユーザから指定された演奏の難易度に応じた学習済みモデルを用いるようにしてもよい。
続いて、決定部24は、所定の楽曲データに含まれる各パートについて、学習済みモデルのデータに基づいて、所定の楽器に対するパートらしさを推定する(ステップS303)。なお、所定の楽器は、予め鍵盤楽器などの1つの楽器に固定されていてもよいし、鍵盤楽器、管楽器、弦楽器等の複数の種類の異なる楽器の中からユーザが選択するようにしてもよい。ここで、決定部24は、所定の楽曲データに含まれる各パートに対し、例えば、右手用のパートらしさ示す確率値、左手用のパートらしさ示す確率値、及びその他のパートらしさを示す確率値を決定する。ここで、決定部24は、例えば、学習済みモデルの生成に、上述したGBDTが用いられた場合、右手用のパートとして投票された値を、softmax関数などを用いて当該確率の値に変換してもよい。
また、決定部24は、所定の楽曲データに含まれる各パートに対する、所定の楽器に対する各パートらしさを示す確率値に、ユーザから指定された演奏の難易度に応じた所定の重みをそれぞれ付加するようにしてもよい。この場合、決定部24は、例えば、所定の楽曲データに含まれる各パートに対し、ユーザから指定された演奏の難易度が高い程、ポリフォニーの割合が比較的高い(モノフォニーの割合が比較的低い)パートに対する各確率値をより大きくするように調整してもよい。また、決定部24は、例えば、所定の楽曲データに含まれる各パートに対し、ユーザから指定された演奏の難易度が高い程、単位時間あたりに出力される音の数の平均または分散が比較的大きいパートに対する各確率値をより大きくするように調整してもよい。これにより、例えば、GBDT、SVM、またはニューラルネットワーク等が用いられた学習済みモデルによる推定結果を調整し、演奏の習熟度が高いユーザには、比較的多くの音を同時に演奏する箇所が比較的多い等の、演奏の難易度が高いパートを選択することができる。
続いて、決定部24は、所定の楽曲データに含まれる各パートのうち、所定の楽器の右手用のパートらしさを示す確率が最大であるパートを、右手用のパートと決定する(ステップS304)。
続いて、決定部24は、所定の楽曲データに含まれる各パートであって、右手用のパートと決定したパート以外の各パートのうち、所定の楽器の左手用のパートらしさを示す確率が最大であるパートを、左手用のパートと決定し(ステップS305)、処理を終了する。これにより、例えば、複数の楽器のパートを合わせて演奏させるための楽曲データを用いて、1台のピアノ等により演奏させるための楽譜を選択することができる。
<変形例>
上述した実施形態では、学習用データとして、演奏データと教師データ(パート選択情報)の両方を入力することにより、右手パートと左手パートを正しく抽出できるように学習を行ったが、教師データ(パート選択情報)を入力することなく演奏データのみを入力することで、演奏データに含まれるパートを指定した特徴量に基づいて分類(カテゴライズ)することを学習し、この分類されたパートの中から演奏対象とするパートをユーザが選択するようにしてもよい。また、この分類された複数のパートの中からユーザが選択した楽器の種類に応じて演奏対象とするパートを選択するようにしてもよい。
また、上述した実施形態では、ユーザが演奏時に用いる機器を、端末20と電子楽器30とに分けて構成したが、これらの機能を1つの機器で実現するようにしてもよい。例えば、端末20に電子楽器30の発音機能や演奏操作機能を設けたり(端末20のタッチパネル付きの表示画面等を用いて楽器の機能をエミュレートしたり)、電子楽器30に端末20の通信機能や各種の処理機能を設けてもよい。)
サーバ10、及び端末20の各機能部は、例えば1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。端末20の各機能部の少なくとも一部を、サーバ10に設けた構成としてもよい。この場合、例えば、取得部22、抽出部23、及び決定部24等をサーバ10に設け、サーバ10が、所定の楽曲データを端末20等から取得し、上述した第1演奏データ、及び第2演奏データを生成して端末20に配信するようにしてもよい。また、サーバ10の各機能部の少なくとも一部を、端末20に設けた構成としてもよい。
サーバ10、端末20、及び電子楽器30は、一体の装置として構成されてもよい。また、サーバ10と端末20は、一体の装置として構成されてもよい。また、端末20及び電子楽器30は、一体の装置として構成されてもよい。この場合、電子楽器30の筐体に端末20を内蔵してもよいし、端末20のタッチパネル等により電子楽器30の鍵盤等の操作部を実現してもよい。
以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。なお、抽出部12は「学習時抽出部」の一例である。また、抽出部23は、「実行時抽出部」の一例である。
また、上述した実施形態では、パートを選択するためのモデルを機械学習によって生成することで、人間が手作業で判断基準を決めることが不可能な(または不可能に近い)複雑なモデル(精度の高いモデル)を生成することを可能にしている。しかしながら、必ずしも全ての判断基準を機械学習によって決めなければいけないものではなく、上述したような楽器の演奏に影響を与える各種の特徴量を用いた判断基準を、部分的に人間が介入して決めたり、可能であれば全ての判断基準を人間が手作業で決めてもかまわない。その場合であっても、上述したような楽器の演奏に影響を与える各種の特徴量を用いることで、より効果的なパート選択を行うモデルを生成することが可能となる。
以上の説明に関し、更に以下の説明を開示する。
(付記1)
複数の第1楽曲データのそれぞれに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する学習時抽出部と、
前記学習時抽出部により抽出された特徴量に基づいて機械学習を行うことにより、第2楽曲データに含まれる複数のパートから、楽器で演奏させるパートを選択するためのモデルを、学習済みモデルとして生成する生成部と、を有する電子機器。
(付記2)
前記生成部は、前記学習時抽出部により抽出された特徴量と、前記第1楽曲データに含まれる複数のパートのうち、楽器で演奏させるパートを示す情報とに基づいて機械学習を行うことにより、前記第2楽曲データに含まれる複数のパートから、楽器で演奏させるパートを選択するための前記学習済みモデルを生成する、
付記1に記載の電子機器。
(付記3)
前記学習時抽出部は、前記第1楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、特定の種類の楽器の演奏に影響を与える特徴量を抽出し、
前記生成部は、前記学習時抽出部により抽出された特徴量と、前記第1楽曲データに含まれる複数のパートのうち、前記特定の種類の楽器で演奏させるパートを示す情報とに基づいて、前記第2楽曲データに含まれる複数のパートから、前記特定の種類の楽器で演奏させるパートを選択するための前記学習済みモデルを生成する、
付記2に記載の電子機器。
(付記4)
前記学習時抽出部は、前記第1楽曲データに含まれる複数のパートのそれぞれの各音符を所定の音高分だけ上下させたパートに対する特徴量を抽出する、
付記1乃至3のいずれか一項に記載の電子機器。
(付記5)
楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する実行時抽出部と、
機械学習により生成された学習済みモデルと、前記実行時抽出部により抽出された特徴量とに基づいて、前記楽曲データに含まれる複数のパートから、楽器としての機能により演奏させるパートを決定する決定部と、を有する電子機器。
(付記6)
前記学習済みモデルは、複数の第1楽曲データのそれぞれに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量と、前記複数の第1楽曲データのそれぞれに含まれる複数のパートのうち、楽器で演奏させるパートを示す情報とに基づいて生成されたモデルである、
付記5に記載の電子機器。
(付記7)
前記学習済みモデルは、前記第1楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、特定の種類の楽器の演奏に影響を与える特徴量と、前記第1楽曲データに含まれる複数のパートのうち、前記特定の種類の楽器で演奏させるパートを示す情報とに基づいて生成されたモデルである、
付記6に記載の電子機器。
(付記8)
前記決定部は、ユーザから指定された難易度に応じて、前記学習済みモデルに含まれるパラメータ、及び前記学習済みモデルにより推定された楽器で演奏させるパートらしさを示す確率値の少なくとも一方を調整する、付記5乃至7のいずれか一項に記載の電子機器。
(付記9)
前記電子機器は、
前記決定部により決定されたパートに応じた楽譜を画面に表示させるとともに、前記楽曲データに含まれる複数のパートのうち、前記決定部により決定された前記楽器で演奏させるパート以外のパートに応じた音を出力させる制御部を有する、
付記5乃至8のいずれか一項に記載の電子機器。
(付記10)
当該特徴量は、
パートに含まれる各音符の音が出力される時間長または音高の平均または分散と、
パートに含まれる音符に同時に音が出力される複数の音符がある場合は各時点において最も高い音符の音の長さまたは音高の平均または分散と、
パートに含まれる各音符により単位時間あたりに出力される音の数の平均または分散と、
パートにおけるモノフォニーとポリフォニーの割合と、
パートにおける同音進行、順次進行、及び跳躍進行の回数の割合との少なくとも一つを含む、付記1乃至9のいずれか一項に記載の電子機器。
(付記11)
当該楽器は、鍵盤を有する楽器であり、
前記学習済みモデルは、楽曲データに含まれる複数のパートから、当該楽器においてユーザの右手で演奏させるパート、及び当該楽器において前記ユーザの左手で演奏させるパートを選択するためのモデルである、付記1乃至10のいずれか一項に記載の電子機器。
(付記12)
前記学習済みモデルは、GBDT(Gradient Boosting Decision Tree)に対応した機械学習により生成される、
付記1乃至11のいずれか一項に記載の電子機器。
(付記13)
楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、特定の種類の楽器の演奏に影響を与える特徴量を抽出する実行時抽出部と、
機械学習により生成された学習済みモデルと、前記実行時抽出部により抽出された前記特徴量とに基づいて、前記楽曲データに含まれる複数のパートから、前記特定の種類の楽器で演奏させるパートを決定する決定部と、
前記特定の種類の楽器としての演奏の操作を行う操作部と、
前記操作部の操作で演奏された楽音を発音させる発音部と、
を有する電子楽器。
(付記14)
電子機器が、
複数の第1楽曲データのそれぞれに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する処理と、
前記抽出する処理により抽出された特徴量に基づいて機械学習を行うことにより、第2楽曲データに含まれる複数のパートから、楽器で演奏させるパートを選択するためのモデルを、学習済みモデルとして生成する処理と、を実行する情報処理方法。
(付記15)
電子機器が、
楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する処理と、
機械学習により生成された学習済みモデルと、前記抽出する処理により抽出された特徴量とに基づいて、前記楽曲データに含まれる複数のパートから、楽器としての機能により演奏させるパートを決定する処理と、を実行する情報処理方法。
(付記16)
電子機器に、
複数の第1楽曲データのそれぞれに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する処理と、
前記抽出する処理により抽出された特徴量に基づいて機械学習を行うことにより、第2楽曲データに含まれる複数のパートから、楽器で演奏させるパートを選択するためのモデルを、学習済みモデルとして生成する処理と、を実行させるプログラム。
(付記17)
電子機器に、
楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する処理と、
機械学習により生成された学習済みモデルと、前記抽出する処理により抽出された特徴量とに基づいて、前記楽曲データに含まれる複数のパートから、楽器としての機能により演奏させるパートを決定する処理と、を実行させるプログラム。
1 情報処理システム
10 サーバ
11 記憶部
111 学習用データ
12 抽出部
13 生成部
14 出力部
20 端末
21 受付部
22 取得部
23 抽出部
24 決定部
25 制御部
26 出力部
30 電子楽器
一つの案では、複数の楽曲データのそれぞれに含まれる複数のパートのそれぞれに対する特徴量であって、特定の楽器の演奏の適否に係る特徴量を抽出する学習時抽出部と、前記学習時抽出部により抽出された特徴量に基づいて機械学習を行うことにより、前記複数の楽曲データのいずれとも異なる楽曲データに含まれる複数のパートから、前記特定の楽器で演奏させるパートを選択するためのモデルを、学習済みモデルとして生成する生成部と、を有する電子機器が提供される。
本発明は、電子機器、情報処理方法、及びプログラムに関する。
一つの案では、楽曲データに含まれる複数のパートのそれぞれに対して抽出された特徴量と、機械学習により生成された学習済みモデルと基づいて、前記楽曲データに含まれる複数のパートから、特定の楽器で演奏させるパートを決定する制御部を有し、前記特徴量は、パートに含まれる各音符の音が出力される時間長または音高の平均または分散と、パートに含まれる音符に同時に音が出力される複数の音符がある場合は各時点において最も高い音符の音の長さまたは音高の平均または分散と、パートに含まれる各音符により単位時間あたりに出力される音の数の平均または分散と、パートにおけるモノフォニーとポリフォニーの割合と、パートにおける同音進行、順次進行、及び跳躍進行の回数の割合と、の少なくとも一つを含む、電子機器が提供される。

Claims (17)

  1. 複数の第1楽曲データのそれぞれに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する学習時抽出部と、
    前記学習時抽出部により抽出された特徴量に基づいて機械学習を行うことにより、第2楽曲データに含まれる複数のパートから、楽器で演奏させるパートを選択するためのモデルを、学習済みモデルとして生成する生成部と、を有する電子機器。
  2. 前記生成部は、前記学習時抽出部により抽出された特徴量と、前記第1楽曲データに含まれる複数のパートのうち、楽器で演奏させるパートを示す情報とに基づいて機械学習を行うことにより、前記第2楽曲データに含まれる複数のパートから、楽器で演奏させるパートを選択するための前記学習済みモデルを生成する、
    請求項1に記載の電子機器。
  3. 前記学習時抽出部は、前記第1楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、特定の種類の楽器の演奏に影響を与える特徴量を抽出し、
    前記生成部は、前記学習時抽出部により抽出された特徴量と、前記第1楽曲データに含まれる複数のパートのうち、前記特定の種類の楽器で演奏させるパートを示す情報とに基づいて、前記第2楽曲データに含まれる複数のパートから、前記特定の種類の楽器で演奏させるパートを選択するための前記学習済みモデルを生成する、
    請求項2に記載の電子機器。
  4. 前記学習時抽出部は、前記第1楽曲データに含まれる複数のパートのそれぞれの各音符を所定の音高分だけ上下させたパートに対する特徴量を抽出する、
    請求項1乃至3のいずれか一項に記載の電子機器。
  5. 楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する実行時抽出部と、
    機械学習により生成された学習済みモデルと、前記実行時抽出部により抽出された特徴量とに基づいて、前記楽曲データに含まれる複数のパートから、楽器としての機能により演奏させるパートを決定する決定部と、を有する電子機器。
  6. 前記学習済みモデルは、複数の第1楽曲データのそれぞれに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量と、前記複数の第1楽曲データのそれぞれに含まれる複数のパートのうち、楽器で演奏させるパートを示す情報とに基づいて生成されたモデルである、
    請求項5に記載の電子機器。
  7. 前記学習済みモデルは、前記第1楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、特定の種類の楽器の演奏に影響を与える特徴量と、前記第1楽曲データに含まれる複数のパートのうち、前記特定の種類の楽器で演奏させるパートを示す情報とに基づいて生成されたモデルである、
    請求項6に記載の電子機器。
  8. 前記決定部は、ユーザから指定された難易度に応じて、前記学習済みモデルに含まれるパラメータ、及び前記学習済みモデルにより推定された楽器で演奏させるパートらしさを示す確率値の少なくとも一方を調整する、請求項5乃至7のいずれか一項に記載の電子機器。
  9. 前記電子機器は、
    前記決定部により決定されたパートに応じた楽譜を画面に表示させるとともに、前記楽曲データに含まれる複数のパートのうち、前記決定部により決定された前記楽器で演奏させるパート以外のパートに応じた音を出力させる制御部を有する、
    請求項5乃至8のいずれか一項に記載の電子機器。
  10. 当該特徴量は、
    パートに含まれる各音符の音が出力される時間長または音高の平均または分散と、
    パートに含まれる音符に同時に音が出力される複数の音符がある場合は各時点において最も高い音符の音の長さまたは音高の平均または分散と、
    パートに含まれる各音符により単位時間あたりに出力される音の数の平均または分散と、
    パートにおけるモノフォニーとポリフォニーの割合と、
    パートにおける同音進行、順次進行、及び跳躍進行の回数の割合との少なくとも一つを含む、請求項1乃至9のいずれか一項に記載の電子機器。
  11. 当該楽器は、鍵盤を有する楽器であり、
    前記学習済みモデルは、楽曲データに含まれる複数のパートから、当該楽器においてユーザの右手で演奏させるパート、及び当該楽器において前記ユーザの左手で演奏させるパートを選択するためのモデルである、請求項1乃至10のいずれか一項に記載の電子機器。
  12. 前記学習済みモデルは、GBDT(Gradient Boosting Decision Tree)に対応した機械学習により生成される、
    請求項1乃至11のいずれか一項に記載の電子機器。
  13. 楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、特定の種類の楽器の演奏に影響を与える特徴量を抽出する実行時抽出部と、
    機械学習により生成された学習済みモデルと、前記実行時抽出部により抽出された前記特徴量とに基づいて、前記楽曲データに含まれる複数のパートから、前記特定の種類の楽器で演奏させるパートを決定する決定部と、
    前記特定の種類の楽器としての演奏の操作を行う操作部と、
    前記操作部の操作で演奏された楽音を発音させる発音部と、
    を有する電子楽器。
  14. 電子機器が、
    複数の第1楽曲データのそれぞれに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する処理と、
    前記抽出する処理により抽出された特徴量に基づいて機械学習を行うことにより、第2楽曲データに含まれる複数のパートから、楽器で演奏させるパートを選択するためのモデルを、学習済みモデルとして生成する処理と、を実行する情報処理方法。
  15. 電子機器が、
    楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する処理と、
    機械学習により生成された学習済みモデルと、前記抽出する処理により抽出された特徴量とに基づいて、前記楽曲データに含まれる複数のパートから、楽器としての機能により演奏させるパートを決定する処理と、を実行する情報処理方法。
  16. 電子機器に、
    複数の第1楽曲データのそれぞれに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する処理と、
    前記抽出する処理により抽出された特徴量に基づいて機械学習を行うことにより、第2楽曲データに含まれる複数のパートから、楽器で演奏させるパートを選択するためのモデルを、学習済みモデルとして生成する処理と、を実行させるプログラム。
  17. 電子機器に、
    楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する処理と、
    機械学習により生成された学習済みモデルと、前記抽出する処理により抽出された特徴量とに基づいて、前記楽曲データに含まれる複数のパートから、楽器としての機能により演奏させるパートを決定する処理と、を実行させるプログラム。
JP2018046692A 2018-03-14 2018-03-14 電子機器、情報処理方法、及びプログラム Active JP6617784B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018046692A JP6617784B2 (ja) 2018-03-14 2018-03-14 電子機器、情報処理方法、及びプログラム
PCT/JP2019/010066 WO2019176954A1 (en) 2018-03-14 2019-03-12 Machine learning method, electronic apparatus, electronic musical instrument, model generator for part selection, and method of part determination

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018046692A JP6617784B2 (ja) 2018-03-14 2018-03-14 電子機器、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019159146A true JP2019159146A (ja) 2019-09-19
JP6617784B2 JP6617784B2 (ja) 2019-12-11

Family

ID=67907943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018046692A Active JP6617784B2 (ja) 2018-03-14 2018-03-14 電子機器、情報処理方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP6617784B2 (ja)
WO (1) WO2019176954A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021106693A1 (ja) * 2019-11-26 2021-06-03 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
CN113780811A (zh) * 2021-09-10 2021-12-10 平安科技(深圳)有限公司 乐器演奏评估方法、装置、设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2600997Y2 (ja) * 1993-01-29 1999-11-02 横河電機株式会社 リレー接点保護回路
JP3743079B2 (ja) * 1996-10-24 2006-02-08 ヤマハ株式会社 演奏データ作成方法および装置
JP2003223165A (ja) * 2002-01-29 2003-08-08 Yamaha Corp 楽譜表示装置および電子楽器
JP3807333B2 (ja) * 2002-03-22 2006-08-09 ヤマハ株式会社 メロディ検索装置およびメロディ検索プログラム
JP4255871B2 (ja) * 2004-03-30 2009-04-15 株式会社河合楽器製作所 電子楽器の表示装置
JP2012220653A (ja) * 2011-04-07 2012-11-12 Panasonic Corp 変化対応型嗜好推定装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021106693A1 (ja) * 2019-11-26 2021-06-03 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
CN113780811A (zh) * 2021-09-10 2021-12-10 平安科技(深圳)有限公司 乐器演奏评估方法、装置、设备及存储介质
CN113780811B (zh) * 2021-09-10 2023-12-26 平安科技(深圳)有限公司 乐器演奏评估方法、装置、设备及存储介质

Also Published As

Publication number Publication date
WO2019176954A1 (en) 2019-09-19
JP6617784B2 (ja) 2019-12-11

Similar Documents

Publication Publication Date Title
JP7243052B2 (ja) オーディオ抽出装置、オーディオ再生装置、オーディオ抽出方法、オーディオ再生方法、機械学習方法及びプログラム
Dittmar et al. Music information retrieval meets music education
US11037538B2 (en) Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system
US10964299B1 (en) Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions
CA2929213C (en) System and method for enhancing audio, conforming an audio input to a musical key, and creating harmonizing tracks for an audio input
JP2018537727A (ja) 言語および/またはグラフィカルアイコンベースの音楽体験記述子を採用する自動化音楽作曲および生成機械、システムおよびプロセス
US20140053711A1 (en) System and method creating harmonizing tracks for an audio input
JP2012532340A (ja) 音楽教育システム
US11024275B2 (en) Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system
JP2001159892A (ja) 演奏データ作成装置及び記録媒体
WO2013039610A1 (en) System and method for providing audio for a requested note using a render cache
JP2022116335A (ja) 電子楽器、方法及びプログラム
CA2843437A1 (en) System and method for producing a more harmonious musical accompaniment and for applying a chain of effects to a musical composition
JP7180587B2 (ja) 電子楽器、方法及びプログラム
JP6617784B2 (ja) 電子機器、情報処理方法、及びプログラム
US10298192B2 (en) Sound processing device and sound processing method
CA2843438A1 (en) System and method for providing audio for a requested note using a render cache
US20220238088A1 (en) Electronic musical instrument, control method for electronic musical instrument, and storage medium
WO2022153875A1 (ja) 情報処理システム、電子楽器、情報処理方法およびプログラム
JP6582517B2 (ja) 制御装置およびプログラム
JP3900187B2 (ja) 演奏データ作成装置
WO2022172732A1 (ja) 情報処理システム、電子楽器、情報処理方法および機械学習システム
US20230290325A1 (en) Sound processing method, sound processing system, electronic musical instrument, and recording medium
CN118135974A (zh) 生成音乐的方法、装置、电子设备及计算机可读存储介质
Lionello et al. A machine learning approach to violin vibrato modelling in audio performances and a didactic application for mobile devices

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181211

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191028

R150 Certificate of patent or registration of utility model

Ref document number: 6617784

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150