JP7432127B2 - 情報処理方法、情報処理システムおよびプログラム - Google Patents
情報処理方法、情報処理システムおよびプログラム Download PDFInfo
- Publication number
- JP7432127B2 JP7432127B2 JP2022553716A JP2022553716A JP7432127B2 JP 7432127 B2 JP7432127 B2 JP 7432127B2 JP 2022553716 A JP2022553716 A JP 2022553716A JP 2022553716 A JP2022553716 A JP 2022553716A JP 7432127 B2 JP7432127 B2 JP 7432127B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- comment
- musical instrument
- image
- trained model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 92
- 238000003672 processing method Methods 0.000 title claims description 17
- 238000012549 training Methods 0.000 claims description 167
- 238000012545 processing Methods 0.000 claims description 54
- 238000000034 method Methods 0.000 claims description 35
- 238000000605 extraction Methods 0.000 claims description 21
- 239000000284 extract Substances 0.000 claims description 11
- 230000004048 modification Effects 0.000 description 44
- 238000012986 modification Methods 0.000 description 44
- 238000010586 diagram Methods 0.000 description 27
- 238000004891 communication Methods 0.000 description 22
- 238000013528 artificial neural network Methods 0.000 description 18
- 210000003205 muscle Anatomy 0.000 description 16
- 230000006870 function Effects 0.000 description 15
- 230000005057 finger movement Effects 0.000 description 12
- 210000002683 foot Anatomy 0.000 description 12
- 230000015654 memory Effects 0.000 description 11
- 230000004044 response Effects 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000029058 respiratory gaseous exchange Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000012706 support-vector machine Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 210000003371 toe Anatomy 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000007664 blowing Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B15/00—Teaching music
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Acoustics & Sound (AREA)
- Electrophonic Musical Instruments (AREA)
- Auxiliary Devices For Music (AREA)
- Image Analysis (AREA)
Description
本開示は、適切なコメントを示すコメント情報を決定できる技術の提供を目的とする。
A1:情報処理システム1
図1は、本開示の情報処理システム1の一例を示す図である。情報処理システム1は、楽器100Aを用いて楽曲Nの演奏を学習するユーザ100Bによって利用される。楽器100Aは、ピアノである。ピアノは、楽器の種類の一例、および、楽器の一例である。以下、「楽器の種類」という文言は、「楽器」という文言に置き換えることができる。ユーザ100Bは、オンラインで楽器100Aの演奏を教えるオンライン音楽教室の生徒である。ユーザ100Bは、オンライン音楽教室の生徒に限らず、楽器100Aを用いる演奏の上達を望む者(オンライン音楽教室の生徒以外)でもよい。ユーザ100Bは、演奏者の一例である。
図2は、演奏教習システム100の一例を示す図である。演奏教習システム100は、カメラ110と、表示部130と、スピーカ140と、操作部150と、通信部160と、記憶装置170と、処理装置180と、を含む。
図3は、情報処理装置200の一例を示す図である。情報処理装置200は、通信部210と、記憶装置220と、処理装置230と、を含む。
指画像情報d1が、ピアノの鍵盤に対する手の指の動きを画像で示す場合、第1情報(楽曲Nの演奏時におけるピアノの鍵盤に対する手の各指の使い方を画像で示す情報)は、楽曲Nの演奏時におけるピアノの鍵盤に対する手の指の動きを画像で示す情報である。
指画像情報d1が、ピアノの鍵盤に対する手の指の骨格の動きを画像で示す場合、第1情報は、楽曲Nの演奏時におけるピアノの鍵盤に対する手の指の骨格の動きを画像で示す情報である。
学習済みモデル233は、入力X1に応じた出力Y1を生成する。学習済みモデル233は、入力X1として「楽器と演奏者との相対的な位置関係を示す情報(例えば、指画像情報d1)」を用い、出力Y1として「コメントを示す情報」を用いる。
図4は、演奏教習システム100の動作を説明するための図である。以下では、ユーザ100Bがピアノを用いて楽曲Nを演奏することを想定する。
図5は、情報処理装置200の動作を説明するための図である。
上述の実施形態における変形の態様を以下に示す。以下の態様から任意に選択された2個以上の態様が、相互に矛盾しない範囲において適宜に併合されてもよい。
上述の実施形態において、抽出部231は、情報処理装置200ではなく、演奏教習システム100における処理装置180によって実現されてもよい。この場合、演奏教習システム100は、ユーザ画像情報a1の代わりに指画像情報d1を情報処理装置200に送信する。情報処理装置200の決定部232は、演奏教習システム100から受信した指画像情報d1に基づいて、コメント情報bを決定する。第1変形例によれば、情報処理装置200における処理の負荷を低減できる。
上述の実施形態および第1変形例において、訓練データT1の第1情報(訓練用の入力データ)は、楽曲N全体の演奏においてピアノの鍵盤に対する手の指の使い方を画像で示す情報でもよい。
例えば、指画像情報d1が、ピアノの鍵盤に対する手の指の動きを画像で示す場合、楽曲N全体の演奏においてピアノの鍵盤に対する手の指の使い方を画像で示す情報は、楽曲N全体の演奏においてピアノの鍵盤に対する手の指の動きを画像で示す情報である。指画像情報d1が、ピアノの鍵盤に対する手の指の骨格の動きを画像で示す場合、楽曲N全体の演奏においてピアノの鍵盤に対する手の指の使い方を画像で示す情報は、楽曲N全体の演奏においてピアノの鍵盤に対する手の指の骨格の動きを画像で示す情報である。
当該第1情報は、楽曲Nの一部分の演奏においてピアノの鍵盤に対する手の指の使い方を画像で示す情報でもよい。
指画像情報d1が、ピアノの鍵盤に対する手の指の動きを画像で示す場合、楽曲Nの一部分の演奏においてピアノの鍵盤に対する手の指の使い方を画像で示す情報は、楽曲Nの一部分の演奏においてピアノの鍵盤に対する手の指の動きを画像で示す情報である。指画像情報d1がピアノの鍵盤に対する手の指の骨格の動きを画像で示す場合、楽曲Nの一部分の演奏においてピアノの鍵盤に対する手の指の使い方を画像で示す情報は、楽曲Nの一部分の演奏においてピアノの鍵盤に対する手の指の骨格の動きを画像で示す情報である。
楽曲Nの一部分は、例えば、楽曲Nを4小節ごとに区切った部分である。楽曲Nの一部分は、楽曲Nを4小節ごとに区切った部分に限らず適宜変更可能である。
上述の実施形態および第1~第2変形例において、楽器と演奏者との相対的な位置関係を示す特徴情報、および、楽器に対する演奏者の身体の使い方を示す特徴情報は、指画像情報d1に限らない。
この場合、ユーザ画像情報a1は、楽器100Aで楽曲Nを演奏するユーザ100Bの両足と、楽器100Aと、を画像で表す。例えば、カメラ110の撮像範囲が、楽器100A(ピアノ)を操作するユーザ100Bの両足と、楽器100Aと、を含む範囲に設定される。カメラ110は、楽器100A(ピアノ)を操作するユーザ100Bの両足を撮像することによって、ユーザ画像情報a1を生成する。ユーザ画像情報a1から両足画像情報を抽出する手法は、ユーザ画像情報a1から指画像情報d1を抽出する手法において「ピアノの鍵盤を操作する人間の手の指」の代わりに「ピアノのペダルを操作する人間の両足」を用いることによって実現される。
この場合、訓練データT1の第1情報が示す画像は、ピアノのペダルに対する演奏者における両足の使い方を表す。両足画像情報が、ピアノのペダルに対する演奏者における両足の動きを画像で表す情報である場合、訓練データT1の第1情報が示す画像は、ピアノのペダルに対する演奏者における両足の動きを表す。両足画像情報が、ピアノのペダルに対する演奏者における両足の骨格の動きを画像で表す情報である場合、訓練データT1の第1情報が示す画像は、ピアノのペダルに対する演奏者における両足の骨格の動きを表す。
訓練データT1の第2情報が示すピアノ教師の適切なコメントは、例えば、「ダンパーペダルを踏みこんで。」、「つま先に力が入りすぎです。」および「つま先に力を入れましょう。」の少なくとも1つを含む。ピアノ教師の適切なコメントは、上述のコメントに限らず適宜変更可能である。
この場合、ユーザ画像情報a1は、楽器100Aで楽曲Nを演奏するユーザ100Bの全身と、楽器100Aと、を画像で表す。例えば、カメラ110は、楽器100A(ピアノ)を操作するユーザ100Bの全身と、楽器100Aと、を撮像することによって、ユーザ画像情報a1を生成する。ユーザ画像情報a1から全身画像情報を抽出する手法は、ユーザ画像情報a1から指画像情報d1を抽出する手法において「ピアノの鍵盤を操作する人間の手の指」の代わりに「ピアノを操作する人間の全身」を用いることによって実現される。
この場合、訓練データT1の第1情報が示す画像は、ピアノに対する演奏者の全身の使い方を表す。全身画像情報が、ピアノに対する演奏者の全身の動きを画像で表す情報である場合、訓練データT1の第1情報が示す画像は、ピアノに対する演奏者の全身の動きを表す。全身画像情報が、ピアノに対する演奏者の全身の骨格の動きを画像で表す情報である場合、訓練データT1の第1情報が示す画像は、ピアノに対する演奏者の全身の動きを表す。
訓練データT1の第2情報が示すピアノ教師の適切なコメントは、例えば、「背筋を伸ばしてね。」および「腕が身体に近すぎますよ。」のいずれかである。ピアノ教師の適切なコメントは、上述のコメントに限らず適宜変更可能である。
上述の実施形態および第1~第3変形例において、決定部232は、学習済みモデル233を用いることなく、コメント情報bを決定してもよい。例えば、決定部232は、指の動きとコメント候補情報との対応関係を示すコメントテーブルを用いて、コメント情報bを決定する。コメントテーブルが、「指の動きの速度が参照速度以上」という指の動きと、「離鍵を早く。」というコメント候補情報と、の対応関係を示す例を説明する。決定部232は、指画像情報d1(またはユーザ画像情報a1)に基づいて、ユーザ100Bにおける手の指における動きの速度を算出する。決定部232は、算出した速度が参照速度以上である場合、コメントテーブルにおいて「指の動きの速度が参照速度以上」という指の動きに対応する「離鍵を早く。」というコメント候補情報を、コメント情報bとして決定する。指の動きの例とコメント候補情報の例は適宜変更可能である。例えば、コメントテーブルが、「正しい指の移動方向」という指の動きと、「上手です。」というコメント候補情報と、の対応関係を示してもよい。この場合、決定部232は、指画像情報d1(またはユーザ画像情報a1)に基づいて、ユーザ100Bにおける手の指の移動方向を特定する。決定部232は、特定した指の移動方向がコメントテーブルに示される「正しい指の移動方向」と一致する場合、コメントテーブルにおいて「正しい指の移動方向」という指の動きに対応する「上手です。」というコメント候補情報をコメント情報bとして決定する。
上述の実施形態および第1~第4変形例において、楽器100Aの種類が変更可能である場合、学習済みモデル233が、楽器の種類ごと(楽器ごと)に設けられてもよい。例えば、処理装置230は、楽器の種類ごとに、楽曲Nについての学習済みモデル233を実現する。以下、楽器100Aの種類として、ピアノとバイオリンが存在する例を説明する。ピアノとバイオリンは、それぞれ、楽器の一例である。ピアノとバイオリンは、複数の楽器の一例である。楽器100Aの種類(複数の楽器)は、ピアノとバイオリンに限らず適宜変更可能である。
楽曲Nの演奏時におけるバイオリンに対する左手の各指の使い方を画像で示す情報は、例えば、楽曲Nの演奏時におけるバイオリンの絃に対する左手の各指の動きを画像で示す情報である。楽曲Nの演奏時におけるバイオリンに対する左手の各指の使い方を画像で示す情報は、楽曲Nの演奏時におけるバイオリンの絃に対する左手の各指の骨格の動きを画像で示す情報でもよい。
学習済みモデル235が、第1情報として、楽曲Nの演奏時におけるバイオリンに対する左手の各指の骨格の動きを画像で示す情報を用いている場合、指画像情報d2は、バイオリンの絃に対するユーザ100Bにおける左手の各指の骨格の動きを画像で示す。
決定部232は、指画像情報d2を学習済みモデル235に入力する。続いて、決定部232は、指画像情報d2の入力に応じて学習済みモデル235が出力する情報を、コメント情報bとして決定する。
この場合、ユーザ画像情報a1は、楽器100Aで楽曲Nを演奏するユーザ100Bの上半身と、楽器100Aと、を画像で表す。例えば、カメラ110の撮像範囲が、楽器100A(バイオリン)を操作するユーザ100Bの上半身と、楽器100Aと、を含む範囲に設定される。カメラ110は、楽器100A(バイオリン)を操作するユーザ100Bの上半身と楽器100Aとを撮像することによって、ユーザ画像情報a1を生成する。ユーザ画像情報a1から上半身画像情報を抽出する手法は、ユーザ画像情報a1から指画像情報d1を抽出する手法において「ピアノの鍵盤を操作する人間の手の指」の代わりに「バイオリンを操作する演奏者の上半身」を用いることによって実現される。
この場合、訓練データT2の第1情報が示す画像は、バイオリンに対する演奏者の上半身の使い方を表す。上半身画像情報が、バイオリンに対する演奏者の上半身の動きを画像で表す情報である場合、訓練データT2の第1情報が示す画像は、バイオリンに対する演奏者の上半身の動きを表す。上半身画像情報が、バイオリンに対する演奏者の上半身の骨格の動きを画像で表す情報である場合、訓練データT2の第1情報が示す画像は、バイオリンに対する演奏者の上半身の骨格の動きを表す。
訓練データT2の第2情報が示すバイオリン教師の適切なコメントは、例えば、「姿勢が良いですね。その調子。」、「弓の角度をもっとあげて。」および「人差し指だけでなく、中指・薬指を使って弓に圧力をかけましょう。」のいずれかである。バイオリン教師の適切なコメントは、上述のコメントに限らず適宜変更可能である。
楽曲Nの演奏時におけるギターに対する両手の各指の使い方を画像で示す情報は、例えば、楽曲Nの演奏時におけるギターに対する両手の各指の動きを画像で示す情報である。楽曲Nの演奏時におけるギターに対する両手の各指の使い方を画像で示す情報は、楽曲Nの演奏時におけるギターに対する両手の各指の骨格の動きを画像で示す情報でもよい。
学習済みモデル235が、第1情報として、楽曲Nの演奏時におけるギターに対する両手の各指の動きを画像で示す情報を用いる場合、両手画像情報d3は、ギターに対するユーザ100Bにおける両手の各指の動きを画像で示す。
学習済みモデル235が、第1情報として、楽曲Nの演奏時におけるギターに対する両手の各指の骨格の動きを画像で示す情報を用いる場合、両手画像情報d3は、ギターに対するユーザ100Bにおける両手の各指の骨格の動きを画像で示す。
決定部232は、両手画像情報d3を学習済みモデル235に入力する。続いて、決定部232は、両手画像情報d3の入力に応じて学習済みモデル235が出力する情報を、コメント情報bとして決定する。
楽曲Nの演奏時におけるサクソフォンに対する口および頬の筋肉の使い方を画像で示す情報は、例えば、楽曲Nの演奏時におけるサクソフォンに対する口および頬の筋肉の動きを画像で示す情報である。楽曲Nの演奏時におけるサクソフォンに対する口および頬の筋肉の使い方を画像で示す情報は、例えば、楽曲Nの演奏時におけるサクソフォンに対する口および頬の骨格の動きを画像で示す情報でもよい。
学習済みモデル235が、第1情報として、楽曲Nの演奏時におけるサクソフォンに対する口および頬の筋肉の動きを画像で示す情報を用いる場合、顔画像情報d4は、サクソフォンに対する口および頬の筋肉の動きを画像で示す。
学習済みモデル235が、第1情報として、楽曲Nの演奏時におけるサクソフォンに対する口および頬の骨格の動きを画像で示す情報を用いる場合、顔画像情報d4は、サクソフォンに対する口および頬の骨格の動きを画像で示す。
決定部232は、顔画像情報d4を学習済みモデル235に入力する。続いて、決定部232は、顔画像情報d4の入力に応じて学習済みモデル235が出力する情報を、コメント情報bとして決定する。
楽曲Nの演奏時におけるフルートに対する頬の筋肉の使い方および呼吸のタイミングを画像で示す情報は、例えば、楽曲Nの演奏時におけるフルートに対する上半身の動きを画像で示す情報である。楽曲Nの演奏時におけるフルートに対する頬の筋肉の使い方および呼吸のタイミングを画像で示す情報は、楽曲Nの演奏時におけるフルートに対する上半身の骨格の動きを画像で示す情報でもよい。
学習済みモデル235が、第1情報として、楽曲Nの演奏時におけるフルートに対する上半身の動きを画像で示す情報を用いる場合、上半身画像情報d5は、フルートに対するユーザ100Bにおける上半身の動きを画像で示す。
学習済みモデル235が、第1情報として、楽曲Nの演奏時におけるフルートに対する上半身の骨格の動きを画像で示す情報を用いる場合、上半身画像情報d5は、フルートに対するユーザ100Bにおける上半身の骨格の動きを画像で示す。
決定部232は、上半身画像情報d5を学習済みモデル235に入力する。続いて、決定部232は、上半身画像情報d5の入力に応じて学習済みモデル235が出力する情報を、コメント情報bとして決定する。
第5変形例において、ユーザ画像情報a1に基づいて、楽器情報c1が特定されてもよい。
第6変形例において、楽器の種類に関連する関連情報(楽器に関する関連情報)は、楽器100Aを表す画像を情報に限らない。関連情報は、ユーザ100Bが楽器100Aを演奏する状況において楽器100Aが出力する音を示す楽器音情報でもよい。楽器音情報は、演奏者が楽器を演奏する状況において楽器が出力する音を示す情報の一例である。以下では、楽器音情報は、楽曲Nについてユーザ100Bが楽器100Aを演奏する状況において楽器100Aが出力する音を示す。
第6~第7変形例において、楽器の種類に関連する関連情報(楽器に関する関連情報)は、楽器の種類に応じた楽譜を示す楽譜情報でもよい。楽器の種類に応じた楽譜は、楽器に応じた楽譜の一例である。楽譜は、譜面とも称される。楽譜情報は、例えば、楽譜を撮像するカメラによって生成される。例えば、カメラ110が、楽譜情報を生成する機器として兼用される。楽譜情報は、演奏教習システム100から情報処理装置202または203に送信される。
第6~第8変形例において、ユーザ100Bのスケジュールを示すスケジュール情報が、楽器の種類を示す場合、楽器の種類に関連する関連情報としてスケジュール情報が用いられてもよい。スケジュール情報は、楽器の種類と、当該種類の楽器の教習スケジュールと、の組合せを示していれば、演奏教習システム100が配置される生徒用の部屋のスケジュールを示してもよい。楽器の種類(例えば、ピアノ)と、当該種類の楽器(例えば、ピアノ)の教習スケジュールと、の組合せは、楽器(例えば、ピアノ)と、当該楽器(例えば、ピアノ)の教習スケジュールと、の組合せの一例である。
上述の実施形態および第1~第9変形例において、タッチパネルである操作部150は、楽器情報c1を受け付けるユーザインターフェイスとして、図16に示すようなユーザインターフェイスを有してもよい。ピアノボタン151へのタッチは、楽器の種類としてピアノを示す楽器情報c1の入力を意味する。フルートボタン152へのタッチは、楽器の種類としてフルートを示す楽器情報c1の入力を意味する。楽器情報c1を受け付けるユーザインターフェイスは、図16に示されるユーザインターフェイスに限らない。第10変形例によれば、ユーザは直感的に楽器情報c1を入力できる。
上述の実施形態および第1~第10変形例において、コメント情報bの送信先は、演奏教習システム100に限らず、例えば、ユーザ100Bの保護者(例えば、ユーザ100Bの親)が使用する電子機器でもよい。電子機器は、例えば、スマートフォン、タブレットまたはノート型パーソナルコンピュータである。コメント情報bの送信先は、演奏教習システム100と、ユーザ100Bの保護者が使用する電子機器と、の両方でもよい。
演奏教習システム100の処理装置180が、情報処理装置200~203の処理装置230が有する機能を、さらに有してもよい。この場合、演奏教習システム100は、情報処理装置200~203のいずれとも通信することなく、コメント情報bを得ることができる。
上述の実施形態および第1~第12変形例において、処理装置230は、学習済みモデル233を生成してもよい。
上述の形態の少なくとも1つから以下の態様が把握される。
本開示の態様(第1態様)に係る情報処理方法は、コンピュータによって実行される情報処理方法であって、楽器を用いる演奏者の画像を示す画像情報に基づいて、前記演奏者へのコメントを示すコメント情報を決定する。この態様によれば、画像情報から抽出された特徴情報に基づいて、コメント情報が決定される。このため、楽器を用いる演奏者の画像に応じた適切なコメントを示すコメント情報を決定できる。
第1態様の例(第2態様)において、前記コメント情報を決定することは、前記画像情報から、前記楽器と前記演奏者との相対的な位置関係を示す特徴情報を抽出することと、前記抽出した特徴情報に基づいて、前記演奏者へのコメントを示すコメント情報を決定することと、を含む。この態様によれば、画像情報から抽出された特徴情報に基づいて、コメント情報が決定される。このため、楽器と演奏者との相対的な位置関係に応じた適切なコメントを示すコメント情報を決定できる。
第2態様の例(第3態様)において、前記特徴情報は、前記相対的な位置関係として、前記楽器に対する前記演奏者の身体の使い方を示す。この態様によれば、楽器に対する演奏者の身体の使い方に応じた適切なコメントを示すコメント情報を決定できる。
第2態様または第3態様の例(第4態様)において、前記特徴情報に基づいてコメント情報を決定することは、前記楽器と前記演奏者との相対的な位置関係を示す学習用特徴情報と、前記学習用特徴情報が示す前記相対的な位置関係についてのコメントを示す学習用コメント情報と、の関係を学習した第1学習済みモデルへ前記特徴情報を入力することと、前記特徴情報に応じて前記第1学習済みモデルが出力する情報を、前記コメント情報として決定することと、を含む。この態様によれば、学習済みモデルを用いてコメント情報を決定するため、コメント情報は、高い確率で適切なコメントを示すことができる。
第4態様の例(第5態様)において、第1コメントを示す第1コメント情報を、前記楽器の演奏手法を教える先生によって使用される端末装置に送信し、前記端末装置が前記先生からの入力に基づいて前記第1コメント情報を修正することによって生成した第2コメントを受信することを、さらに含み、前記学習用コメントは、前記第2コメントを含む。この態様によれば、先生が遠隔地にいたとしても、先生のコメントを用いることが可能である。
第4態様または第5態様の例(第6態様)において、前記第1学習済みモデルは、複数の楽器に個別に対応する複数の第1学習済みモデルを含み、さらに、前記複数の楽器の中の前記楽器を示す楽器情報を取得し、前記複数の第1学習済みモデルから、前記楽器情報が示す前記楽器に対応する第1学習済みモデルを特定し、前記コメント情報を決定することは、前記特定した第1学習済みモデルへ入力された前記特徴情報に応じて当該第1学習済みモデルが出力する情報を、前記コメント情報として決定することを含む。この態様によれば、楽器ごとに、適切なコメント情報を決定できる。
第6態様の例(第7態様)において、さらに、前記楽器に関する関連情報を用いて、前記楽器情報を特定し、前記第1学習済みモデルを特定することは、前記複数の第1学習済みモデルから、前記特定した楽器情報が示す前記楽器に対応する第1学習済みモデルを特定することを含む。この態様によれば、楽器に関する関連情報に基づいて、適切なコメント情報を決定できる。
第7態様の例(第8態様)において、前記関連情報は、前記楽器が出力する音を示す情報、前記楽器を表す画像を示す情報、前記楽器に応じた楽譜を示す情報、または、前記楽器と当該楽器の教習スケジュールとの組合せを示す情報である。この態様によれば、種々の情報を関連情報として用いることが可能である。
第7態様の例(第9態様)において、前記楽器情報を特定することは、前記楽器に関する学習用関連情報と、前記学習用関連情報から特定される前記楽器を示す学習用楽器情報と、の関係を学習した第2学習済みモデルへ前記関連情報を入力することと、前記関連情報に応じて前記第2学習済みモデルが出力する情報を、前記楽器情報として特定することと、を含む。この態様によれば、学習済みモデルを用いて楽器情報を特定するため、楽器情報は、演奏者が演奏する楽器を高い精度で示すことができる。
第7態様の例(第10態様)において、前記楽器情報を特定することは、前記楽器に関する参照用関連情報と、前記楽器を示す参照用楽器情報との対応関係を示すテーブルを参照することにより、前記関連情報に対応する参照用楽器情報を、前記楽器情報として特定することを含む。この態様によれば、学習済みモデル用いることなく、楽器情報を特定できる。
第1態様から第10態様のいずれかの例(第11態様)において、前記コメント情報は、前記楽器に対する前記演奏者の身体の使い方に関するアドバイスを示す。この態様によれば、楽器に対する演奏者の身体の使い方に関するアドバイスを決定できる。
第2態様の例(第12態様)において、前記コメント情報を決定することは、前記演奏者が前記楽器を演奏する状況において前記楽器が出力する音を示す情報と、前記特徴情報と、に基づいて、前記コメント情報を決定することを含む。この態様によれば、楽器が出力する音を示す情報と特徴情報とに基づいて、コメント情報を決定するため、より適切なコメントを示すコメント情報を決定できる。
本開示の態様(第13態様)に係る情報処理システムは、楽器を用いる演奏者の画像を示す画像情報に基づいて、前記演奏者へのコメントを示すコメント情報を決定する決定部を含む。この態様によれば、画像情報に基づいて、コメント情報が決定される。このため、適切なコメントを示すコメント情報を決定できる。
本開示の態様(第14態様)に係るプログラムは、コンピュータに、楽器を用いる演奏者の画像を示す画像情報に基づいて、前記演奏者へのコメントを示すコメント情報を決定する、処理を実行させる。この態様によれば、画像情報に基づいて、コメント情報が決定される。このため、適切なコメントを示すコメント情報を決定できる。
Claims (13)
- コンピュータによって実行される情報処理方法であって、
楽器を用いる演奏者の画像を示す画像情報に基づいて、前記演奏者へのコメントを示すコメント情報を決定し、
前記コメント情報を決定することは、
前記画像情報から、前記楽器と前記演奏者との相対的な位置関係を示す特徴情報を抽出することと、
前記抽出した特徴情報に基づいて、前記演奏者へのコメントを示すコメント情報を決定することと、を含み、
前記特徴情報に基づいて前記コメント情報を決定することは、
前記楽器と前記演奏者との相対的な位置関係を示す学習用特徴情報と、前記学習用特徴情報が示す前記相対的な位置関係についてのコメントを示す学習用コメント情報と、の関係を学習した第1学習済みモデルへ前記特徴情報を入力することと、
前記特徴情報に応じて前記第1学習済みモデルが出力する情報を、前記コメント情報として決定することと、を含み、
第1コメントを示す第1コメント情報を、前記楽器の演奏手法を教える先生によって使用される端末装置に送信し、
前記端末装置が前記先生からの入力に基づいて前記第1コメント情報を修正することによって生成した第2コメントを受信することを、さらに含み、
前記学習用コメント情報は、前記第2コメントを含む、
情報処理方法。 - 前記第1学習済みモデルは、複数の楽器に対応する複数の第1学習済みモデルを含み、
さらに、
前記複数の楽器の中の前記楽器を示す楽器情報を取得し、
前記複数の第1学習済みモデルから、前記楽器情報が示す前記楽器に対応する第1学習済みモデルを特定し、
前記特徴情報に基づいて前記コメント情報を決定することは、前記特定した第1学習済みモデルへ入力された前記特徴情報に応じて当該第1学習済みモデルが出力する情報を、前記コメント情報として決定することを含む、
請求項1に記載の情報処理方法。 - さらに、前記楽器に関する関連情報を用いて、前記楽器情報を特定し、
前記第1学習済みモデルを特定することは、前記複数の第1学習済みモデルから、前記特定した楽器情報が示す前記楽器に対応する第1学習済みモデルを特定することを含む、
請求項2に記載の情報処理方法。 - コンピュータによって実行される情報処理方法であって、
楽器を用いる演奏者の画像を示す画像情報に基づいて、前記演奏者へのコメントを示すコメント情報を決定し、
前記コメント情報を決定することは、
前記画像情報から、前記楽器と前記演奏者との相対的な位置関係を示す特徴情報を抽出することと、
前記抽出した特徴情報に基づいて、前記演奏者へのコメントを示すコメント情報を決定することと、を含み、
前記特徴情報に基づいて前記コメント情報を決定することは、
前記楽器と前記演奏者との相対的な位置関係を示す学習用特徴情報と、前記学習用特徴情報が示す前記相対的な位置関係についてのコメントを示す学習用コメント情報と、の関係を学習した第1学習済みモデルへ前記特徴情報を入力することと、
前記特徴情報に応じて前記第1学習済みモデルが出力する情報を、前記コメント情報として決定することと、を含み、
前記第1学習済みモデルは、複数の楽器に対応する複数の第1学習済みモデルを含み、
さらに、
前記複数の楽器の中の前記楽器を示す楽器情報を取得し、
前記複数の第1学習済みモデルから、前記楽器情報が示す前記楽器に対応する第1学習済みモデルを特定し、
前記特徴情報に基づいて前記コメント情報を決定することは、前記特定した第1学習済みモデルへ入力された前記特徴情報に応じて当該第1学習済みモデルが出力する情報を、前記コメント情報として決定することを含み、
さらに、前記楽器に関する関連情報を用いて、前記楽器情報を特定し、
前記第1学習済みモデルを特定することは、前記複数の第1学習済みモデルから、前記特定した楽器情報が示す前記楽器に対応する第1学習済みモデルを特定することを含む、
情報処理方法。 - 前記関連情報は、
前記楽器が出力する音を示す情報、
前記楽器を表す画像を示す情報、
前記楽器に応じた楽譜を示す情報、または、
前記楽器と当該楽器の教習スケジュールとの組合せを示す情報である、
請求項3または4に記載の情報処理方法。 - 前記楽器情報を特定することは、
前記楽器に関する学習用関連情報と、前記学習用関連情報から特定される前記楽器を示す学習用楽器情報と、の関係を学習した第2学習済みモデルへ前記関連情報を入力することと、
前記関連情報に応じて前記第2学習済みモデルが出力する情報を、前記楽器情報として特定することと、を含む、
請求項3または4に記載の情報処理方法。 - 前記楽器情報を特定することは、
前記楽器に関する参照用関連情報と、前記楽器を示す参照用楽器情報との対応関係を示すテーブルを参照することにより、前記関連情報に対応する参照用楽器情報を、前記楽器情報として特定することを含む、
請求項3または4に記載の情報処理方法。 - 前記コメント情報は、前記楽器に対する前記演奏者の身体の使い方に関するアドバイスを示す、
請求項1から7のいずれか1項に記載の情報処理方法。 - 前記特徴情報は、前記相対的な位置関係として、前記楽器に対する前記演奏者の身体の使い方を示す、
請求項1から8のいずれか1項に記載の情報処理方法。 - 楽器を用いる演奏者の画像を示す画像情報に基づいて、前記演奏者へのコメントを示すコメント情報を決定する情報処理システムであって、
前記画像情報から、前記楽器と前記演奏者との相対的な位置関係を示す特徴情報を抽出する抽出部と、
前記抽出した特徴情報に基づいて、前記演奏者へのコメントを示すコメント情報を決定する決定部と、を含み、
前記決定部は、前記楽器と前記演奏者との相対的な位置関係を示す学習用特徴情報と、前記学習用特徴情報が示す前記相対的な位置関係についてのコメントを示す学習用コメント情報と、の関係を学習した第1学習済みモデルへ前記特徴情報を入力することと、前記特徴情報に応じて前記第1学習済みモデルが出力する情報を、前記コメント情報として決定することと、を実行し、
第1コメントを示す第1コメント情報を、前記楽器の演奏手法を教える先生によって使用される端末装置に送信し、前記端末装置が前記先生からの入力に基づいて前記第1コメント情報を修正することによって生成した第2コメントを受信するデータ取得部を、さらに含み、
前記学習用コメント情報は、前記第2コメントを含む、
情報処理システム。 - 楽器を用いる演奏者の画像を示す画像情報に基づいて、前記演奏者へのコメントを示すコメント情報を決定する情報処理システムであって、
前記画像情報から、前記楽器と前記演奏者との相対的な位置関係を示す特徴情報を抽出する抽出部と、
前記抽出した特徴情報に基づいて、前記演奏者へのコメントを示すコメント情報を決定する決定部と、を含み、
前記決定部は、前記楽器と前記演奏者との相対的な位置関係を示す学習用特徴情報と、前記学習用特徴情報が示す前記相対的な位置関係についてのコメントを示す学習用コメント情報と、の関係を学習した第1学習済みモデルへ前記特徴情報を入力することと、前記特徴情報に応じて前記第1学習済みモデルが出力する情報を、前記コメント情報として決定することと、を実行し、
前記第1学習済みモデルは、複数の楽器に対応する複数の第1学習済みモデルを含み、
前記決定部は、さらに、前記複数の楽器の中の前記楽器を示す楽器情報を取得し、前記複数の第1学習済みモデルから、前記楽器情報が示す前記楽器に対応する第1学習済みモデルを特定し、前記特定した第1学習済みモデルへ入力された前記特徴情報に応じて当該第1学習済みモデルが出力する情報を、前記コメント情報として決定し、
さらに、前記楽器に関する関連情報を用いて、前記楽器情報を特定する特定部を含み、
前記決定部は、前記複数の第1学習済みモデルから、前記特定した楽器情報が示す前記楽器に対応する第1学習済みモデルを特定する、
情報処理システム。 - コンピュータに、
楽器を用いる演奏者の画像を示す画像情報に基づいて、前記演奏者へのコメントを示すコメント情報を決定する、
処理を実行させるプログラムであって、
前記コメント情報を決定することは、
前記画像情報から、前記楽器と前記演奏者との相対的な位置関係を示す特徴情報を抽出することと、
前記抽出した特徴情報に基づいて、前記演奏者へのコメントを示すコメント情報を決定することと、を含み、
前記特徴情報に基づいて前記コメント情報を決定することは、
前記楽器と前記演奏者との相対的な位置関係を示す学習用特徴情報と、前記学習用特徴情報が示す前記相対的な位置関係についてのコメントを示す学習用コメント情報と、の関係を学習した第1学習済みモデルへ前記特徴情報を入力することと、
前記特徴情報に応じて前記第1学習済みモデルが出力する情報を、前記コメント情報として決定することと、を含み、
第1コメントを示す第1コメント情報を、前記楽器の演奏手法を教える先生によって使用される端末装置に送信し、
前記端末装置が前記先生からの入力に基づいて前記第1コメント情報を修正することによって生成した第2コメントを受信することを、さらに含み、
前記学習用コメント情報は、前記第2コメントを含む、
プログラム。 - コンピュータに、
楽器を用いる演奏者の画像を示す画像情報に基づいて、前記演奏者へのコメントを示すコメント情報を決定する、
処理を実行させるプログラムであって、
前記コメント情報を決定することは、
前記画像情報から、前記楽器と前記演奏者との相対的な位置関係を示す特徴情報を抽出することと、
前記抽出した特徴情報に基づいて、前記演奏者へのコメントを示すコメント情報を決定することと、を含み、
前記特徴情報に基づいて前記コメント情報を決定することは、
前記楽器と前記演奏者との相対的な位置関係を示す学習用特徴情報と、前記学習用特徴情報が示す前記相対的な位置関係についてのコメントを示す学習用コメント情報と、の関係を学習した第1学習済みモデルへ前記特徴情報を入力することと、
前記特徴情報に応じて前記第1学習済みモデルが出力する情報を、前記コメント情報として決定することと、を含み、
前記第1学習済みモデルは、複数の楽器に対応する複数の第1学習済みモデルを含み、
さらに、
前記複数の楽器の中の前記楽器を示す楽器情報を取得し、
前記複数の第1学習済みモデルから、前記楽器情報が示す前記楽器に対応する第1学習済みモデルを特定し、
前記特徴情報に基づいて前記コメント情報を決定することは、前記特定した第1学習済みモデルへ入力された前記特徴情報に応じて当該第1学習済みモデルが出力する情報を、前記コメント情報として決定することを含み、
さらに、前記楽器に関する関連情報を用いて、前記楽器情報を特定し、
前記第1学習済みモデルを特定することは、前記複数の第1学習済みモデルから、前記特定した楽器情報が示す前記楽器に対応する第1学習済みモデルを特定することを含む、
プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020164979 | 2020-09-30 | ||
JP2020164979 | 2020-09-30 | ||
PCT/JP2021/032463 WO2022070771A1 (ja) | 2020-09-30 | 2021-09-03 | 情報処理方法、情報処理システムおよびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2022070771A1 JPWO2022070771A1 (ja) | 2022-04-07 |
JP7432127B2 true JP7432127B2 (ja) | 2024-02-16 |
Family
ID=80950363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022553716A Active JP7432127B2 (ja) | 2020-09-30 | 2021-09-03 | 情報処理方法、情報処理システムおよびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230230493A1 (ja) |
JP (1) | JP7432127B2 (ja) |
WO (1) | WO2022070771A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024085175A1 (ja) * | 2022-10-18 | 2024-04-25 | ヤマハ株式会社 | データ処理方法およびプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013148773A (ja) | 2012-01-20 | 2013-08-01 | Casio Comput Co Ltd | 演奏教習装置及びそのプログラム |
WO2019130755A1 (ja) | 2017-12-27 | 2019-07-04 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US20200074876A1 (en) | 2018-09-04 | 2020-03-05 | Aleatoric Technologies LLC | Artificially Intelligent Music Instruction Methods and Systems |
US20210104169A1 (en) | 2019-10-07 | 2021-04-08 | DMAI, Inc. | System and method for ai based skill learning |
-
2021
- 2021-09-03 JP JP2022553716A patent/JP7432127B2/ja active Active
- 2021-09-03 WO PCT/JP2021/032463 patent/WO2022070771A1/ja active Application Filing
-
2023
- 2023-03-28 US US18/127,095 patent/US20230230493A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013148773A (ja) | 2012-01-20 | 2013-08-01 | Casio Comput Co Ltd | 演奏教習装置及びそのプログラム |
WO2019130755A1 (ja) | 2017-12-27 | 2019-07-04 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US20200074876A1 (en) | 2018-09-04 | 2020-03-05 | Aleatoric Technologies LLC | Artificially Intelligent Music Instruction Methods and Systems |
US20210104169A1 (en) | 2019-10-07 | 2021-04-08 | DMAI, Inc. | System and method for ai based skill learning |
Non-Patent Citations (1)
Title |
---|
平野 光正,ドラム練習者のための自主練習システムにおける判定結果の表示方法に関する検討と実装,電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会,2014年11月07日,Vol.114 No.305,第19~24頁 |
Also Published As
Publication number | Publication date |
---|---|
WO2022070771A1 (ja) | 2022-04-07 |
JPWO2022070771A1 (ja) | 2022-04-07 |
US20230230493A1 (en) | 2023-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
De Souza | Music at hand: Instruments, bodies, and cognition | |
US11417233B2 (en) | Systems and methods for assisting a user in practicing a musical instrument | |
US11557269B2 (en) | Information processing method | |
US11749246B2 (en) | Systems and methods for music simulation via motion sensing | |
US10748515B2 (en) | Enhanced real-time audio generation via cloud-based virtualized orchestra | |
Weinberg et al. | Robotic musicianship: embodied artificial creativity and mechatronic musical expression | |
JP7432127B2 (ja) | 情報処理方法、情報処理システムおよびプログラム | |
CN109564756B (zh) | 一种智能钢琴系统 | |
WO2019156091A1 (ja) | 情報処理方法 | |
JP2013083845A (ja) | 情報処理装置および方法、並びにプログラム | |
CN111816148A (zh) | 一种基于生成对抗网络的虚拟人声视唱方法和系统 | |
De Souza | Musical instruments, bodies, and cognition | |
WO2022202264A1 (ja) | 演奏解析方法、演奏解析システムおよびプログラム | |
WO2022070769A1 (ja) | 情報処理方法および情報処理システム | |
JP6295597B2 (ja) | 複数人による協調演奏を実現する装置およびシステム | |
CN112019910A (zh) | 一种乐器演奏方法、装置、电视及存储介质 | |
KR102490769B1 (ko) | 음악적 요소를 이용한 인공지능 기반의 발레동작 평가 방법 및 장치 | |
Antoshchuk et al. | Creating an interactive musical experience for a concert hall | |
KR102492981B1 (ko) | 인공지능 기반 발레반주 생성 방법 및 장치 | |
KR102634347B1 (ko) | 사용자와의 인터랙션을 이용한 인지 기능 훈련 및 검사 장치 | |
WO2022202265A1 (ja) | 画像処理方法、画像処理システムおよびプログラム | |
WO2022202267A1 (ja) | 情報処理方法、情報処理システムおよびプログラム | |
Nitheezkant et al. | Guitar-For-All-A Programmable Single Touch Synthetic Guitar | |
JP2024022812A (ja) | 情報処理装置、情報処理方法及びプログラム | |
Jordà Puig | Digital Lutherie--Crafting musical computers for new musics performance and improvisation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230302 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240117 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7432127 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |