JP2019159146A - 電子機器、情報処理方法、及びプログラム - Google Patents
電子機器、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2019159146A JP2019159146A JP2018046692A JP2018046692A JP2019159146A JP 2019159146 A JP2019159146 A JP 2019159146A JP 2018046692 A JP2018046692 A JP 2018046692A JP 2018046692 A JP2018046692 A JP 2018046692A JP 2019159146 A JP2019159146 A JP 2019159146A
- Authority
- JP
- Japan
- Prior art keywords
- music data
- instrument
- parts included
- played
- musical instrument
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G1/00—Means for the representation of music
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0016—Means for indicating which keys, frets or strings are to be actuated, e.g. using lights or leds
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
- G10H1/0058—Transmission between separate instruments or between individual components of a musical system
- G10H1/0066—Transmission between separate instruments or between individual components of a musical system using a MIDI interface
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/005—Non-interactive screen display of musical or status data
- G10H2220/015—Musical staff, tablature or score displays, e.g. for score reading during a performance.
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/011—Files or data streams containing coded musical information, e.g. for transmission
- G10H2240/016—File editing, i.e. modifying musical data files or streams as such
- G10H2240/021—File editing, i.e. modifying musical data files or streams as such for MIDI-like files or data streams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrophonic Musical Instruments (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
Description
図1は、実施形態に係る情報処理システム1の構成例を示す図である。図1において、情報処理システム1は、サーバ10、端末20、及び電子楽器30を備える。なお、各装置の数は、図1の例に限定されない。
図2は、実施形態に係るサーバ10、端末20、及び電子楽器30のハードウェア構成例を示す図である。以下では、サーバ10を例として説明する。図2のサーバ10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU(Central Processing Unit)104、インタフェース装置105、表示装置106、入力装置107、及び出力装置108等を有する。
次に、図3を参照し、実施形態に係るサーバ10、及び端末20の機能構成について説明する。図3は、実施形態に係るサーバ10、及び端末20の機能構成の一例を示す図である。
サーバ10は、記憶部11を有する。記憶部11は、例えば、補助記憶装置102等を用いて実現される。記憶部11は、学習用データ111等のデータを記憶する。学習用データ111には、一の楽曲データに含まれる複数のパートのそれぞれの音符のデータ(演奏情報)と、当該一の楽曲データに含まれる複数のパートのうち所定の楽器に対して予め選択されたパートを示す情報(教師データ)との組のデータの集合が記憶されている。学習用データ111の詳細な例については後述する。
端末20は、受付部21、取得部22、抽出部23、決定部24、制御部25、及び出力部26を有する。これら各部は、端末20にインストールされた1以上のプログラムが、端末20のCPUに実行させる処理により実現される。
電子楽器30は、取得部31、案内部32、及び再生部33を有する。これら各部は、電子楽器30にインストールされた1以上のプログラムが、電子楽器30のCPUに実行させる処理により実現される。
次に、図4を参照し、実施形態に係る情報処理システム1の処理について説明する。図4は、実施形態に係る情報処理システム1の処理の一例を示すシーケンス図である。
次に、図5乃至図7を参照し、図4のステップS1及びステップS2の、サーバ10における機械学習により学習済みモデルを生成する処理について説明する。図5は、実施形態に係る機械学習により学習済みモデルを生成する処理の一例について説明するフローチャートである。以下では、電子楽器30がピアノ等の鍵盤楽器であり、右手用のパートと左手用のパートの2つのパートを決定する例について説明する。なお、開示の技術は、鍵盤楽器用に2つのパートを決定する場合に限らず、1つのパートのみを決定する場合にも適用できる。また、演奏パート選択の対象となる楽器の種類を、学習データ(教師データ)が記憶された複数の楽器の種類の中からユーザに選択させるようにしてもよい。
次に、図8、及び図9を参照し、図5のステップS103で、GBDTを用いて機械学習をする場合の処理の一例について説明する。図8は、GBDTを用いて機械学習をする場合の処理の一例について説明するフローチャートである。なお、以下で、ステップS201からステップS205までの一連の処理を一回行うことを、今回の学習と称する。
次に、図10を参照し、図4のステップS5乃至ステップS7における、端末20において、学習済みモデルのデータに基づいて、所定の楽曲データに含まれる複数のパートのうち、所定の楽器での演奏に適した1以上のパートを決定する処理について説明する。図10は、学習済みモデルのデータに基づいて、パートを決定する処理の一例について説明するフローチャートである。
上述した実施形態では、学習用データとして、演奏データと教師データ(パート選択情報)の両方を入力することにより、右手パートと左手パートを正しく抽出できるように学習を行ったが、教師データ(パート選択情報)を入力することなく演奏データのみを入力することで、演奏データに含まれるパートを指定した特徴量に基づいて分類(カテゴライズ)することを学習し、この分類されたパートの中から演奏対象とするパートをユーザが選択するようにしてもよい。また、この分類された複数のパートの中からユーザが選択した楽器の種類に応じて演奏対象とするパートを選択するようにしてもよい。
サーバ10、及び端末20の各機能部は、例えば1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。端末20の各機能部の少なくとも一部を、サーバ10に設けた構成としてもよい。この場合、例えば、取得部22、抽出部23、及び決定部24等をサーバ10に設け、サーバ10が、所定の楽曲データを端末20等から取得し、上述した第1演奏データ、及び第2演奏データを生成して端末20に配信するようにしてもよい。また、サーバ10の各機能部の少なくとも一部を、端末20に設けた構成としてもよい。
(付記1)
複数の第1楽曲データのそれぞれに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する学習時抽出部と、
前記学習時抽出部により抽出された特徴量に基づいて機械学習を行うことにより、第2楽曲データに含まれる複数のパートから、楽器で演奏させるパートを選択するためのモデルを、学習済みモデルとして生成する生成部と、を有する電子機器。
(付記2)
前記生成部は、前記学習時抽出部により抽出された特徴量と、前記第1楽曲データに含まれる複数のパートのうち、楽器で演奏させるパートを示す情報とに基づいて機械学習を行うことにより、前記第2楽曲データに含まれる複数のパートから、楽器で演奏させるパートを選択するための前記学習済みモデルを生成する、
付記1に記載の電子機器。
(付記3)
前記学習時抽出部は、前記第1楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、特定の種類の楽器の演奏に影響を与える特徴量を抽出し、
前記生成部は、前記学習時抽出部により抽出された特徴量と、前記第1楽曲データに含まれる複数のパートのうち、前記特定の種類の楽器で演奏させるパートを示す情報とに基づいて、前記第2楽曲データに含まれる複数のパートから、前記特定の種類の楽器で演奏させるパートを選択するための前記学習済みモデルを生成する、
付記2に記載の電子機器。
(付記4)
前記学習時抽出部は、前記第1楽曲データに含まれる複数のパートのそれぞれの各音符を所定の音高分だけ上下させたパートに対する特徴量を抽出する、
付記1乃至3のいずれか一項に記載の電子機器。
(付記5)
楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する実行時抽出部と、
機械学習により生成された学習済みモデルと、前記実行時抽出部により抽出された特徴量とに基づいて、前記楽曲データに含まれる複数のパートから、楽器としての機能により演奏させるパートを決定する決定部と、を有する電子機器。
(付記6)
前記学習済みモデルは、複数の第1楽曲データのそれぞれに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量と、前記複数の第1楽曲データのそれぞれに含まれる複数のパートのうち、楽器で演奏させるパートを示す情報とに基づいて生成されたモデルである、
付記5に記載の電子機器。
(付記7)
前記学習済みモデルは、前記第1楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、特定の種類の楽器の演奏に影響を与える特徴量と、前記第1楽曲データに含まれる複数のパートのうち、前記特定の種類の楽器で演奏させるパートを示す情報とに基づいて生成されたモデルである、
付記6に記載の電子機器。
(付記8)
前記決定部は、ユーザから指定された難易度に応じて、前記学習済みモデルに含まれるパラメータ、及び前記学習済みモデルにより推定された楽器で演奏させるパートらしさを示す確率値の少なくとも一方を調整する、付記5乃至7のいずれか一項に記載の電子機器。
(付記9)
前記電子機器は、
前記決定部により決定されたパートに応じた楽譜を画面に表示させるとともに、前記楽曲データに含まれる複数のパートのうち、前記決定部により決定された前記楽器で演奏させるパート以外のパートに応じた音を出力させる制御部を有する、
付記5乃至8のいずれか一項に記載の電子機器。
(付記10)
当該特徴量は、
パートに含まれる各音符の音が出力される時間長または音高の平均または分散と、
パートに含まれる音符に同時に音が出力される複数の音符がある場合は各時点において最も高い音符の音の長さまたは音高の平均または分散と、
パートに含まれる各音符により単位時間あたりに出力される音の数の平均または分散と、
パートにおけるモノフォニーとポリフォニーの割合と、
パートにおける同音進行、順次進行、及び跳躍進行の回数の割合との少なくとも一つを含む、付記1乃至9のいずれか一項に記載の電子機器。
(付記11)
当該楽器は、鍵盤を有する楽器であり、
前記学習済みモデルは、楽曲データに含まれる複数のパートから、当該楽器においてユーザの右手で演奏させるパート、及び当該楽器において前記ユーザの左手で演奏させるパートを選択するためのモデルである、付記1乃至10のいずれか一項に記載の電子機器。
(付記12)
前記学習済みモデルは、GBDT(Gradient Boosting Decision Tree)に対応した機械学習により生成される、
付記1乃至11のいずれか一項に記載の電子機器。
(付記13)
楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、特定の種類の楽器の演奏に影響を与える特徴量を抽出する実行時抽出部と、
機械学習により生成された学習済みモデルと、前記実行時抽出部により抽出された前記特徴量とに基づいて、前記楽曲データに含まれる複数のパートから、前記特定の種類の楽器で演奏させるパートを決定する決定部と、
前記特定の種類の楽器としての演奏の操作を行う操作部と、
前記操作部の操作で演奏された楽音を発音させる発音部と、
を有する電子楽器。
(付記14)
電子機器が、
複数の第1楽曲データのそれぞれに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する処理と、
前記抽出する処理により抽出された特徴量に基づいて機械学習を行うことにより、第2楽曲データに含まれる複数のパートから、楽器で演奏させるパートを選択するためのモデルを、学習済みモデルとして生成する処理と、を実行する情報処理方法。
(付記15)
電子機器が、
楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する処理と、
機械学習により生成された学習済みモデルと、前記抽出する処理により抽出された特徴量とに基づいて、前記楽曲データに含まれる複数のパートから、楽器としての機能により演奏させるパートを決定する処理と、を実行する情報処理方法。
(付記16)
電子機器に、
複数の第1楽曲データのそれぞれに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する処理と、
前記抽出する処理により抽出された特徴量に基づいて機械学習を行うことにより、第2楽曲データに含まれる複数のパートから、楽器で演奏させるパートを選択するためのモデルを、学習済みモデルとして生成する処理と、を実行させるプログラム。
(付記17)
電子機器に、
楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する処理と、
機械学習により生成された学習済みモデルと、前記抽出する処理により抽出された特徴量とに基づいて、前記楽曲データに含まれる複数のパートから、楽器としての機能により演奏させるパートを決定する処理と、を実行させるプログラム。
10 サーバ
11 記憶部
111 学習用データ
12 抽出部
13 生成部
14 出力部
20 端末
21 受付部
22 取得部
23 抽出部
24 決定部
25 制御部
26 出力部
30 電子楽器
Claims (17)
- 複数の第1楽曲データのそれぞれに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する学習時抽出部と、
前記学習時抽出部により抽出された特徴量に基づいて機械学習を行うことにより、第2楽曲データに含まれる複数のパートから、楽器で演奏させるパートを選択するためのモデルを、学習済みモデルとして生成する生成部と、を有する電子機器。 - 前記生成部は、前記学習時抽出部により抽出された特徴量と、前記第1楽曲データに含まれる複数のパートのうち、楽器で演奏させるパートを示す情報とに基づいて機械学習を行うことにより、前記第2楽曲データに含まれる複数のパートから、楽器で演奏させるパートを選択するための前記学習済みモデルを生成する、
請求項1に記載の電子機器。 - 前記学習時抽出部は、前記第1楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、特定の種類の楽器の演奏に影響を与える特徴量を抽出し、
前記生成部は、前記学習時抽出部により抽出された特徴量と、前記第1楽曲データに含まれる複数のパートのうち、前記特定の種類の楽器で演奏させるパートを示す情報とに基づいて、前記第2楽曲データに含まれる複数のパートから、前記特定の種類の楽器で演奏させるパートを選択するための前記学習済みモデルを生成する、
請求項2に記載の電子機器。 - 前記学習時抽出部は、前記第1楽曲データに含まれる複数のパートのそれぞれの各音符を所定の音高分だけ上下させたパートに対する特徴量を抽出する、
請求項1乃至3のいずれか一項に記載の電子機器。 - 楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する実行時抽出部と、
機械学習により生成された学習済みモデルと、前記実行時抽出部により抽出された特徴量とに基づいて、前記楽曲データに含まれる複数のパートから、楽器としての機能により演奏させるパートを決定する決定部と、を有する電子機器。 - 前記学習済みモデルは、複数の第1楽曲データのそれぞれに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量と、前記複数の第1楽曲データのそれぞれに含まれる複数のパートのうち、楽器で演奏させるパートを示す情報とに基づいて生成されたモデルである、
請求項5に記載の電子機器。 - 前記学習済みモデルは、前記第1楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、特定の種類の楽器の演奏に影響を与える特徴量と、前記第1楽曲データに含まれる複数のパートのうち、前記特定の種類の楽器で演奏させるパートを示す情報とに基づいて生成されたモデルである、
請求項6に記載の電子機器。 - 前記決定部は、ユーザから指定された難易度に応じて、前記学習済みモデルに含まれるパラメータ、及び前記学習済みモデルにより推定された楽器で演奏させるパートらしさを示す確率値の少なくとも一方を調整する、請求項5乃至7のいずれか一項に記載の電子機器。
- 前記電子機器は、
前記決定部により決定されたパートに応じた楽譜を画面に表示させるとともに、前記楽曲データに含まれる複数のパートのうち、前記決定部により決定された前記楽器で演奏させるパート以外のパートに応じた音を出力させる制御部を有する、
請求項5乃至8のいずれか一項に記載の電子機器。 - 当該特徴量は、
パートに含まれる各音符の音が出力される時間長または音高の平均または分散と、
パートに含まれる音符に同時に音が出力される複数の音符がある場合は各時点において最も高い音符の音の長さまたは音高の平均または分散と、
パートに含まれる各音符により単位時間あたりに出力される音の数の平均または分散と、
パートにおけるモノフォニーとポリフォニーの割合と、
パートにおける同音進行、順次進行、及び跳躍進行の回数の割合との少なくとも一つを含む、請求項1乃至9のいずれか一項に記載の電子機器。 - 当該楽器は、鍵盤を有する楽器であり、
前記学習済みモデルは、楽曲データに含まれる複数のパートから、当該楽器においてユーザの右手で演奏させるパート、及び当該楽器において前記ユーザの左手で演奏させるパートを選択するためのモデルである、請求項1乃至10のいずれか一項に記載の電子機器。 - 前記学習済みモデルは、GBDT(Gradient Boosting Decision Tree)に対応した機械学習により生成される、
請求項1乃至11のいずれか一項に記載の電子機器。 - 楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、特定の種類の楽器の演奏に影響を与える特徴量を抽出する実行時抽出部と、
機械学習により生成された学習済みモデルと、前記実行時抽出部により抽出された前記特徴量とに基づいて、前記楽曲データに含まれる複数のパートから、前記特定の種類の楽器で演奏させるパートを決定する決定部と、
前記特定の種類の楽器としての演奏の操作を行う操作部と、
前記操作部の操作で演奏された楽音を発音させる発音部と、
を有する電子楽器。 - 電子機器が、
複数の第1楽曲データのそれぞれに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する処理と、
前記抽出する処理により抽出された特徴量に基づいて機械学習を行うことにより、第2楽曲データに含まれる複数のパートから、楽器で演奏させるパートを選択するためのモデルを、学習済みモデルとして生成する処理と、を実行する情報処理方法。 - 電子機器が、
楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する処理と、
機械学習により生成された学習済みモデルと、前記抽出する処理により抽出された特徴量とに基づいて、前記楽曲データに含まれる複数のパートから、楽器としての機能により演奏させるパートを決定する処理と、を実行する情報処理方法。 - 電子機器に、
複数の第1楽曲データのそれぞれに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する処理と、
前記抽出する処理により抽出された特徴量に基づいて機械学習を行うことにより、第2楽曲データに含まれる複数のパートから、楽器で演奏させるパートを選択するためのモデルを、学習済みモデルとして生成する処理と、を実行させるプログラム。 - 電子機器に、
楽曲データに含まれる複数のパートのそれぞれに対する特徴量であって、楽器の演奏に影響を与える特徴量を抽出する処理と、
機械学習により生成された学習済みモデルと、前記抽出する処理により抽出された特徴量とに基づいて、前記楽曲データに含まれる複数のパートから、楽器としての機能により演奏させるパートを決定する処理と、を実行させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018046692A JP6617784B2 (ja) | 2018-03-14 | 2018-03-14 | 電子機器、情報処理方法、及びプログラム |
PCT/JP2019/010066 WO2019176954A1 (en) | 2018-03-14 | 2019-03-12 | Machine learning method, electronic apparatus, electronic musical instrument, model generator for part selection, and method of part determination |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018046692A JP6617784B2 (ja) | 2018-03-14 | 2018-03-14 | 電子機器、情報処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019159146A true JP2019159146A (ja) | 2019-09-19 |
JP6617784B2 JP6617784B2 (ja) | 2019-12-11 |
Family
ID=67907943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018046692A Active JP6617784B2 (ja) | 2018-03-14 | 2018-03-14 | 電子機器、情報処理方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6617784B2 (ja) |
WO (1) | WO2019176954A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021106693A1 (ja) * | 2019-11-26 | 2021-06-03 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
CN113780811A (zh) * | 2021-09-10 | 2021-12-10 | 平安科技(深圳)有限公司 | 乐器演奏评估方法、装置、设备及存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2600997Y2 (ja) * | 1993-01-29 | 1999-11-02 | 横河電機株式会社 | リレー接点保護回路 |
JP3743079B2 (ja) * | 1996-10-24 | 2006-02-08 | ヤマハ株式会社 | 演奏データ作成方法および装置 |
JP2003223165A (ja) * | 2002-01-29 | 2003-08-08 | Yamaha Corp | 楽譜表示装置および電子楽器 |
JP3807333B2 (ja) * | 2002-03-22 | 2006-08-09 | ヤマハ株式会社 | メロディ検索装置およびメロディ検索プログラム |
JP4255871B2 (ja) * | 2004-03-30 | 2009-04-15 | 株式会社河合楽器製作所 | 電子楽器の表示装置 |
JP2012220653A (ja) * | 2011-04-07 | 2012-11-12 | Panasonic Corp | 変化対応型嗜好推定装置 |
-
2018
- 2018-03-14 JP JP2018046692A patent/JP6617784B2/ja active Active
-
2019
- 2019-03-12 WO PCT/JP2019/010066 patent/WO2019176954A1/en active Application Filing
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021106693A1 (ja) * | 2019-11-26 | 2021-06-03 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
CN113780811A (zh) * | 2021-09-10 | 2021-12-10 | 平安科技(深圳)有限公司 | 乐器演奏评估方法、装置、设备及存储介质 |
CN113780811B (zh) * | 2021-09-10 | 2023-12-26 | 平安科技(深圳)有限公司 | 乐器演奏评估方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2019176954A1 (en) | 2019-09-19 |
JP6617784B2 (ja) | 2019-12-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7243052B2 (ja) | オーディオ抽出装置、オーディオ再生装置、オーディオ抽出方法、オーディオ再生方法、機械学習方法及びプログラム | |
Dittmar et al. | Music information retrieval meets music education | |
US11037538B2 (en) | Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system | |
US10964299B1 (en) | Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions | |
CA2929213C (en) | System and method for enhancing audio, conforming an audio input to a musical key, and creating harmonizing tracks for an audio input | |
JP2018537727A (ja) | 言語および/またはグラフィカルアイコンベースの音楽体験記述子を採用する自動化音楽作曲および生成機械、システムおよびプロセス | |
US20140053711A1 (en) | System and method creating harmonizing tracks for an audio input | |
JP2012532340A (ja) | 音楽教育システム | |
US11024275B2 (en) | Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system | |
JP2001159892A (ja) | 演奏データ作成装置及び記録媒体 | |
WO2013039610A1 (en) | System and method for providing audio for a requested note using a render cache | |
JP2022116335A (ja) | 電子楽器、方法及びプログラム | |
CA2843437A1 (en) | System and method for producing a more harmonious musical accompaniment and for applying a chain of effects to a musical composition | |
JP7180587B2 (ja) | 電子楽器、方法及びプログラム | |
JP6617784B2 (ja) | 電子機器、情報処理方法、及びプログラム | |
US10298192B2 (en) | Sound processing device and sound processing method | |
CA2843438A1 (en) | System and method for providing audio for a requested note using a render cache | |
US20220238088A1 (en) | Electronic musical instrument, control method for electronic musical instrument, and storage medium | |
WO2022153875A1 (ja) | 情報処理システム、電子楽器、情報処理方法およびプログラム | |
JP6582517B2 (ja) | 制御装置およびプログラム | |
JP3900187B2 (ja) | 演奏データ作成装置 | |
WO2022172732A1 (ja) | 情報処理システム、電子楽器、情報処理方法および機械学習システム | |
US20230290325A1 (en) | Sound processing method, sound processing system, electronic musical instrument, and recording medium | |
CN118135974A (zh) | 生成音乐的方法、装置、电子设备及计算机可读存储介质 | |
Lionello et al. | A machine learning approach to violin vibrato modelling in audio performances and a didactic application for mobile devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181211 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190806 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190904 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191015 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191028 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6617784 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |