JP2020042161A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2020042161A
JP2020042161A JP2018169321A JP2018169321A JP2020042161A JP 2020042161 A JP2020042161 A JP 2020042161A JP 2018169321 A JP2018169321 A JP 2018169321A JP 2018169321 A JP2018169321 A JP 2018169321A JP 2020042161 A JP2020042161 A JP 2020042161A
Authority
JP
Japan
Prior art keywords
information processing
feedback
information
data
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018169321A
Other languages
English (en)
Inventor
雄司 北澤
Yuji Kitazawa
雄司 北澤
直樹 澁谷
Naoki Shibuya
直樹 澁谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2018169321A priority Critical patent/JP2020042161A/ja
Priority to US17/250,759 priority patent/US20210319715A1/en
Priority to DE112019004528.8T priority patent/DE112019004528T5/de
Priority to PCT/JP2019/022099 priority patent/WO2020054145A1/ja
Publication of JP2020042161A publication Critical patent/JP2020042161A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/021Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs, seven segments displays
    • G10H2220/026Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs, seven segments displays associated with a key or other user input device, e.g. key indicator lights
    • G10H2220/061LED, i.e. using a light-emitting diode as indicator
    • G10H2220/066Colour, i.e. indications with two or more different colours
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/265Key design details; Special characteristics of individual keys of a keyboard; Key-like musical input devices, e.g. finger sensors, pedals, potentiometers, selectors
    • G10H2220/311Key design details; Special characteristics of individual keys of a keyboard; Key-like musical input devices, e.g. finger sensors, pedals, potentiometers, selectors with controlled tactile or haptic feedback effect; output interfaces therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/321Garment sensors, i.e. musical control means with trigger surfaces or joint angle sensors, worn as a garment by the player, e.g. bracelet, intelligent clothing
    • G10H2220/326Control glove or other hand or palm-attached control device
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/351Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
    • G10H2220/355Geolocation input, i.e. control of musical parameters based on location or geographic position, e.g. provided by GPS, WiFi network location databases or mobile phone base station position databases
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/391Angle sensing for musical purposes, using data from a gyroscope, gyrometer or other angular velocity or angular movement sensing device
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/395Acceleration sensing or accelerometer use, e.g. 3D movement computation by integration of accelerometer data, angle sensing with respect to the vertical, i.e. gravity sensing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

【課題】例えば、楽器の打鍵の強弱に基づく情報に応じたフィードバックを行う。【解決手段】人体に着脱可能とされ、楽器の打鍵の強弱に基づく情報に応じたフィードバックを行うフィードバック情報を生成する制御部を有する情報処理装置である。【選択図】図3

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。
打鍵の強弱を変更できる楽器が知られている。例えば、下記の特許文献1には、打鍵の強弱を変更できる自動演奏ピアノが記載されている。
特開2011−22599号公報
例えば特許文献1に記載の楽器の演奏に関して、プロや上級者から生徒がレッスンを受ける際には、生徒に対して適切なフィードバックがなされることが望まれる。
本開示は、楽器等のレッスンが行われるシステムにおいて、生徒に対して適切なフィードバックを行うことが可能な情報処理装置、情報処理方法及びプログラムを提供することを目的の一つとする。
本開示は、例えば、
人体に着脱可能とされ、
楽器の打鍵の強弱に基づく情報に応じたフィードバックを行うフィードバック情報を生成する制御部を有する
情報処理装置である。
本開示は、例えば、
制御部が、楽器の打鍵の強弱に基づく情報に応じたフィードバックを行うフィードバック情報を生成する
人体に着脱可能とされる情報処理装置における情報処理方法である。
本開示は、例えば、
制御部が、楽器の打鍵の強弱に基づく情報に応じたフィードバックを行うフィードバック情報を生成する
人体に着脱可能とされる情報処理装置における情報処理方法を、コンピュータに実行させるプログラムである。
図1は、実施の形態の概要を説明する際に参照される図である。 図2は、実施の形態に係る情報処理装置の外観例を示す斜視図である。 図3は、実施の形態に係る情報処理装置の内部構成例を示すブロック図である。 図4は、実施の形態に係る制御部の機能ブロックの一例を示す図である。 図5は、実施の形態に係る振動部が有する複数の振動デバイスの配置例を説明するための図である。 図6は、第1の実施の形態に係る遠隔レッスンシステムで行われる処理例を説明するための図である。 図7A及び図7Bは、実施の形態に係る振動フィードバック情報生成部の動作例を説明するための図である。 図8Aは先生の演奏に基づく時系列データの一例を示し、図8Bは生徒の演奏に基づく時系列データの一例を示し、図8Cは相違データの一例を示す図である。 図9は、相違データの一例を示す図である。 図10は、第1の実施の形態に係る、振動フィードバック情報に基づくフィードバックがなされる処理の流れを示すフローチャートである。 図11は、第1の実施の形態に係る、差分フィードバック情報に基づくフィードバックがなされる処理の流れを示すフローチャートである。 図12は、第2の実施の形態に係る遠隔レッスンシステムで行われる処理例を説明するための図である。 図13は、第2の実施の形態に係る、差分フィードバック情報に基づくフィードバックがなされる処理の流れを示すフローチャートである。 図14は、第3の実施の形態に係る遠隔レッスンシステムで行われる処理例を説明するための図である。 図15は、第3の実施の形態において、加速度データの差分を算出する処理を説明する際に参照される図である。 図16は、姿勢変化に関する相違データの一例を示す図である。 図17は、第3の実施の形態に係る、姿勢変化フィードバック情報に基づくフィードバックがなされる処理の流れを示すフローチャートである。
以下、本開示の実施の形態等について図面を参照しながら説明する。なお、説明は以下の順序で行う。
<背景>
<第1の実施の形態>
<第2の実施の形態>
<第3の実施の形態>
<変形例>
以下に説明する実施の形態等は本開示の好適な具体例であり、本開示の内容がこれらの実施の形態等に限定されるものではない。
<背景>
始めに、本開示の背景について説明する。近年、インターネットの高速化、ビデオチャットツールの高画質化、高音質化、スマートホン等のデバイスの普及に伴って、ビデオチャットツールを用いた、遠隔レッスンが普及してきている。遠隔レッスンの内容は、初期には英会話がほとんどであったが、近年は英会話のみならず、例えば、楽器のレッスンも行われるようになってきている。楽器の種類も、ピアノなどの鍵盤楽器だけでなく、ギターなどの弦楽器、フルートなどの管楽器に至るまで、様々な楽器の遠隔レッスンが行われるようになっている。
係る楽器の遠隔レッスンは、先生と生徒が顔を合わせてレッスンを行う対面レッスンに比べて、費用が安く、且つ、先生の居るレッスン会場へ通うが必要なく、時間が節約できるという利点がある。また、生徒は、遠隔レッスンにより、所望の楽器に関する演奏をレッスン会場に通うこと無く効率的に習得することができる。場合によっては、著名な先生のレッスンを受けることも可能になる。このような様々な利点を有する楽器の遠隔レッスンは、今後も増加していくことが予想される。
ところで、楽器の遠隔レッスンの際には、ヘッドホンやイヤホンを用いて先生の指示を聞き、ディスプレイやスクリーンに映し出される先生の弾き方を真似して、演奏の練習を進めていく。また、生徒が、一人で演奏を復習する際には、先生の演奏の録音を聞いたり、指示を思い出したりしながら演奏の練習を進めていく。
ピアノに代表される打鍵を伴う楽器を弾くことを練習する際には、適切な指の力の入れ具合(強弱の付け方)を習得することが重要である。音の強弱がそのまま曲の表情となるからである。強弱の付け方が適切であることが、曲への表情付けの上手さにつながる。通常の対面レッスン時には、先生に指を直接ガイドしてもらったり、先生の指を間近で注意深く見たりするなどして、どの指でどれくらいの力の入れ具合で打鍵しているのかを習得する。
一方で、遠隔レッスンにおいては、生徒から見て、先生が行っている打鍵の強弱がわかりにくく、打鍵の強弱の習得がしづらいという問題がある。生徒は遠隔地にいるために、当然ながら先生に直接指をガイドして強弱を教えてもらうことはできないし、間近で先生の手をみることもできない。従って、先生が演奏した際の演奏音の大小を聞いたり、先生の口頭の説明を聞いたりして、打鍵の強弱を習得しなければならない。
しかしながら、ビデオチャットツールでは、例えば、先生の演奏に対応する音データに対して、ノーマライズやノイズリダクション、ゲインコントロール等の信号処理が施されるため、生徒にとっての音の聞こえ方は一定ではないことがあり得る。このため、ビデオチャットツールから聞こえてくる音は打鍵の強弱の付け方を習得するための見本としては適切でない場合が多い。また、力の入れ具合は人それぞれの主観的なものなので、先生に口頭で説明されても生徒にとってはわかりにくいことが多々ある。係る問題は、生徒が一人で復習を行い演奏する際にも、同様に生じ得る。このように遠隔レッスンは、利便性に優れる反面、対面レッスンと比較して欠点も存在する。以上の点に鑑みてなされた本開示の実施の形態について、以下、詳細に説明する。
<第1の実施の形態>
[概要]
始めに、図1を参照して実施の形態の概要について説明する。実施の形態では、楽器、具体的にはピアノの遠隔レッスンを例にして説明する。図1に示すように、ピアノの遠隔レッスンを行う遠隔レッスンシステム(遠隔レッスンシステム1)では、先生一人に対して少なくとも一人の生徒が存在する。図1に示される例では、一人の先生T1に対して一人の生徒S1が存在しているが、複数の生徒S1が存在しても良い。
遠隔レッスンシステム1では、先生T1及び生徒S1が同一の構成を有する情報処理装置を使用する。先生T1が使用する情報処理装置を情報処理装置2Aと称する。生徒S1が使用する情報処理装置を情報処理装置2Bと称する。なお、情報処理装置2A、2Bとの間に構成上の差異があっても構わない。
また、遠隔レッスンシステム1では、先生T1及び生徒S1が同一の構成を有するグローブを装着してピアノを演奏する。先生T1が使用するグローブをグローブGAと称する。生徒S1が使用するグローブをグローブGBと称する。なお、グローブGA、GBとの間に構成上の差異があっても構わない。
グローブGAは、例えば、指毎に設けられた変位センサを有している。変位センサは、例えば、指の動き(変位)に応じた電圧を出力する歪ゲージ等により構成されている。グローブGBについても同様である。
情報処理装置2A、2Bは、ネットワークNTを介して接続されており、種々のデータの送受信が可能とされている(なお、図1では、情報処理装置2A、2BがネットワークNTを介して接続されている様子が模式的に示されている。)。ネットワーク。実施の形態に係るネットワークNTは、無線の伝送路を想定しているが有線の伝送路であっても構わない。ネットワークNTとしては、具体的には、インターネットなどの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などが挙げられる。また、ネットワークNTは、IP−VPN(Internet Protocol Virtual Private Network)などの専用回線網や、Bluetooth(登録商標)などの近距離無線通信網であっても良い。
なお、実施の形態の内容によっては、先生T1や生徒S1が、情報処理装置2A、2BやグローブGA、GBを必ずしも装着しなくて良い場合もあり得る。これらについては、個々の実施の形態の中で説明する。
[情報処理装置]
(情報処理装置の外観例)
次に、実施の形態に係る情報処理装置について説明する。図2は、実施の形態に係る情報処理装置2Aの外観例を示す斜視図である。情報処理装置2Aは、人体に着脱自在とされるウェアラブルデバイスである。情報処理装置2Aは、例えば、ユーザの首に装着されて使用される所謂ネックバンド型のウェアラブルデバイスである。具体的には、情報処理装置2Aは、一部が開放されたリング状の形状(C字形状)を有する筐体21Aを備えている。情報処理装置2Aは、筐体21Aの中央付近がユーザの首部の後方にかかるように、換言すれば、開放されている部分がユーザの前方に位置する状態となるように、ユーザに装着される。筐体21Aは、開放箇所が拡開できるように若干の可撓性を有しており、様々な首の太さに対応できるようになっている。
情報処理装置2Aの筐体21Aの適宜な箇所には、収音部としてのマイクロン及びスピーカが設けられている。例えば、筐体21Aの両端部付近に、マイクロン及びスピーカが設けられている。実施の形態に係る情報処理装置2Aは、マイクロホンにより収音可能とされており、また、スピーカにより音の再生が可能とされている。
(情報処理装置の内部構成例)
図3は、情報処理装置2Aの内部構成例を示すブロック図である。図3に示すように、情報処理装置2Aは、例えば、制御部201Aと、記憶部202Aと、角速度センサ203Aと、加速度センサ204Aと、地磁気センサ205Aと、GPS(Global Positioning System)206Aと、スピーカ207Aと、通信部208Aと、マイクロホン209Aと、振動部210Aとを有している。
制御部201Aは、例えば、CPU(Central Processing Unit)などにより構成されており、情報処理装置2Aの各部を統括的に制御する。制御部201Aが有する機能ブロック及び制御部201Aにより行われる処理の具体例については、後述する。
記憶部202Aは、各種のプログラムや、各種のデータが固定的に記憶される不揮発性のメモリと、制御部201Aの作業領域として用いられる揮発性のメモリとを含む。上記プログラムは、光ディスクや、半導体デバイスなどの可搬性の記録媒体から読み取られても良いし、ネットワーク上のサーバ装置からダウンロードされても良い。
角速度センサ203Aは、情報処理装置2Aの3軸(XYZ軸)回りの角速度を検出し、検出した3軸回りの角速度の情報を制御部201Aに出力する。加速度センサ204Aは、情報処理装置2Aの3軸方向の加速度を検出し、検出した3軸方向の加速度の情報を制御部201Aに出力する。地磁気センサ205Aは、情報処理装置2Aの3軸回りの角度(方位)を検出し、検出した角度(方位)の情報を制御部201Aに出力する。本実施の形態では、各センサの検出軸が3軸とされているが、この検出軸は、1軸、あるいは、2軸であっても良い。
GPS206Aは、GPS衛星からの電波を受信して、情報処理装置2Aの位置情報を検出し、この位置情報を制御部201Aに出力する。
スピーカ207Aは、筐体21Aに設けられた開口部(不図示)の下側の位置にそれぞれ1つずつ設けられている。これらのスピーカ207Aは、制御部201Aによる制御に応じて音を再生する。なお、スピーカ207Aの数が2つとされているが、スピーカ207Aの数については特に限定されることはない。
通信部208Aは、他の機器との間で、無線又は有線により通信を行う。通信部208Aは、通信方式に応じたアンテナ、変復調回路等を有している。
マイクロホン209Aは、情報処理装置2Aの周囲の音を収音する。例えば、先生T1のピアノの演奏音を収音する。収音された演奏音の音データ(以下、演奏データと適宜、称する)が制御部201Aに供給される。
振動部210Aは、筐体21Aの内部に収納され、制御部201Aの制御に応じて振動するデバイスである。
なお、実施の形態では、情報処理装置2Aが、グローブGAが有する変位センサの出力を取得できるように構成されている。例えば、情報処理装置2AがグローブGAと有線又は無線により接続されており、通信を介して変位センサの出力が情報処理装置2Aに供給されるように構成されている。
(制御部の機能ブロック)
図4は、制御部201Aの機能ブロックの一例を示す図である。実施の形態に係る制御部201Aは、機能ブロックとして例えば、振動フィードバック情報生成部221Aと、差分算出部222Aと、差分フィードバック情報生成部223Aと、フィードバック制御部224Aとを有している。振動フィードバック情報生成部、差分算出部、差分フィードバック情報生成部及びフィードバック制御部の具体的な動作例については後述する。なお、制御部201Aは、上述した機能ブロック以外にもA/D(Analog to Digital)変換等の適宜な機能を実行する構成を有している。
(振動部)
ここで振動部210Aの具体例について説明する。振動部210Aは、例えば、複数の振動デバイスを有している。振動デバイスは、例えば、印加電圧に応じて変位するアクチュエータ等により構成される。図5は、振動部210Aが有する複数の振動デバイスの配置例を説明するための図である。振動部210Aは、例えば、指の配列に対応して配置された複数の振動デバイスを有している。より具体的には、振動部210Aは、10本の指に応じた10個の振動デバイス(振動デバイス210Aa、210Ab、210Ac・・・210Aj)を有している。図5に示すように、情報処理装置2Aの装着状態において、筐体21Aの左側から右側に向かって振動デバイス210Aa、210Ab、210Ac・・・210Ajが順に配置されている。
個々の振動デバイスが指に対応している。例えば、振動デバイス210Aaは、左手の小指に対応している。また、振動デバイス210Abは、左手の薬指に対応している。同様に、他の振動デバイスも所定の指に対応している。指の位置と振動デバイスの配置方向とが対応していることにより、振動デバイスが振動した際にどの指に対応する振動であるのかをユーザがわかりやすいようにすることができる。
以上、情報処理装置2Aの構成例について説明したが、実施の形態では、情報処理装置2Bも同様の構成を有している。なお、情報処理装置2Bの構成については、情報処理装置2Aの構成に付した参照符号における「A」を「B」に置き換えた参照符号を付す。例えば、情報処理装置2Aが有する制御部は、制御部201Aであるのに対して、情報処理装置2Bが有する制御部は、制御部201Bとなる。
[遠隔レッスンシステムで行われる処理例]
次に、図6から図9までを参照して、第1の実施の形態に係る遠隔レッスンシステム1で行われる処理例について説明する。
(先生側のシステムにおける処理例)
始めに、先生T1側のシステムで行われる処理例について説明する。図6に示すように、先生T1側のシステムにおいて、先生T1がピアノを演奏する。ピアノの演奏音がマイクロホン209Aにより収音され、収音された音データが例えば制御部201AによりA/D変換されることで演奏データPDが生成される。一方、演奏の進行に伴ってグローブGAが有する変位センサからセンサデータが出力され、係るセンサ出力が情報処理装置2Aに供給される。そして、センサデータが情報処理装置2Aの制御部201AによりA/D変換されることでセンサデータSD1が生成される。
演奏データPD及びセンサデータSD1が通信部208Aに供給される。制御部201Aの制御に応じて通信部208Aが動作し、通信部208Aが動作することにより演奏データPD及びセンサデータSD1が生徒S1側のシステムに送信される。なお、本実施の形態では、センサデータSD1が情報処理装置2Aを介して送信されているが、情報処理装置2Aとは異なる装置によりセンサデータSD1が生徒S1側のシステムに送信されるようにしても良い。
(生徒側のシステムにおける処理例)
次に、生徒S1側のシステムにおける処理例について説明する。生徒S1側の情報処理装置2Bの通信部208Bにより、先生T1側のシステムから送信された演奏データPD及びセンサデータSD1が受信される。受信されたデータのうち、演奏データPDが制御部201BによりD/A(Digital to Analog)された後にスピーカ207Bに供給され、スピーカ207Bから再生される。なお、演奏データPDは、記憶部202Bに記憶されても良く、適宜なタイミング(例えば、生徒S1が一人でピアノの演奏を復習するとき)に再生することも可能である。
一方、通信部208Bにより受信されたセンサデータSD1は、制御部201Bの振動フィードバック情報生成部221Bに供給される。振動フィードバック情報生成部221Bは、楽器の打鍵に基づく情報に基づいて、振動によるフィードバックを行う振動フィードバック情報を生成する。ここでの楽器の打鍵に基づく情報は、楽器の打鍵の強弱を示す情報を含む。
振動フィードバック情報生成部221Bの動作例について、図7A及び図7Bを参照して説明する。なお、以下説明する振動フィードバック情報生成部221Bの動作例は、振動フィードバック情報生成部221Aにも適用することができる。
実施の形態では、楽器の打鍵の強弱を、音を出すために打鍵した指の速さとしている。図7A及び図7Bに示すように、先生T1側のそれぞれの指の打鍵の強弱による変位データを振動データに変換する。まず、グローブGAが有する変位センサの値であるセンサデータSD1を時系列に並べて微分し、指の速さを表す値として扱い、その時系列データを求める(図7A参照)。指の速さを表す時系列のデータが、楽器の打鍵の強弱を示す情報の一例に対応する。求めた速さの時系列データから、振動の大きさの時系列データを生成する(図7B参照)。速さと振動の大きさは、例えば比例の関係とし、速さの取り得るおおよその最大値と振動部210Bの振動デバイスの制限からくる振動最大値を基に正規化する。振動フィードバック情報生成部221Bは、これらの処理を各指(10本)の分、行うことにより、各指に対応する振動の大きさの時系列データを生成する。この時系列データが、振動フィードバック情報の一例に対応する。振動フィードバック情報がフィードバック制御部224Bに供給される。
フィードバック制御部224Bは、振動フィードバック情報に基づくフィードバックが行われるように、必要な制御を行う。具体的には、フィードバック制御部224Bは、振動フィードバック情報に基づいて振動部210Bの適宜な振動デバイスを駆動し振動させる。例えば、振動フィードバック情報により、右手小指の所定の大きさの振動が示される場合は、フィードバック制御部224Bは、振動フィードバック情報で示される振動の大きさとなるように所定の大きさの電圧を振動デバイス210Bjに印加する。これにより振動デバイス210Bjが、振動フィードバック情報で示された強さで振動する。
上述した処理により、例えば、以下の遠隔レッスンの態様を実現することができる。生徒S1は、先生T1側のシステムから演奏データPD及びセンサデータSD1を取得する。生徒S1は、情報処理装置2Bを装着した状態で、適宜なタイミングで演奏データPDの再生を指示する。再生指示に応じて、生徒S1が装着している情報処理装置2Bの制御部201Bが、演奏データPDの再生処理及び振動部210Bを振動させる処理を行う。
演奏データPDの再生処理に応じてスピーカ207Bから先生T1の演奏音が再生されると共に、適宜な振動デバイスが振動する。この振動が情報処理装置2Bを装着している生徒S1の体に伝達される。これにより、生徒S1は、先生T1の演奏音を聴取できるのに加え、音を打鍵した際に先生T1が使用した指及びその打鍵の強さを認識(体感)することができる。従来、音のみでは理解しづらかった打鍵の強さが振動によりフィードバックされるので、生徒S1は適切な打鍵の強弱を理解することができる。なお、振動とともに、振動の大きさに比例するような効果音が再生されるようにしても良い。
このように、生徒S1は適切な打鍵の強弱を認識することができるものの、実際に自身が演奏した際の打鍵の強弱が適切であるのか否かが認識しづらい。そこで、本実施の形態では、更に、実際に自身が演奏した際の打鍵の強弱が適切であるか否かに関するフィードバックがなされるようにしている。以下、この点について説明する。
例えば、図6の生徒S1側のシステムに示すように、生徒S1がグローブGBを装着してピアノを演奏する。なお、演奏の際、生徒S1は、情報処理装置2Bを装着していても良いし、装着していなくても良い。グローブGBが有する変位センサの出力であり、制御部201BによりA/D変換されることで生成されたセンサデータSD2が情報処理装置2Bの制御部201B、より具体的には、差分算出部222Bに入力される。また、通信部208Bを介して受信されたセンサデータSD1も差分算出部222Bに入力される。
図8A〜図8Cを参照して、差分算出部222Bの動作例について説明する。差分算出部222Bは、センサデータSD1を速さのデータに変換する。変換方法は上述した方法と同様であり、センサデータSD1の値を時系列に並べて微分し、速さとしてその時系列データを求める。この速さの時系列データを時系列データD1と称する。上述したように、実施の形態では、楽器の打鍵の強弱を、音を出すために打鍵した指の速さとしていることから指の速さの時系列データTD1が、楽器の打鍵の強弱に基づく第1のデータの一例に対応する。時系列データTD1の具体例(例えば、左手小指の打鍵の速さに関する時系列データ)が図8Aに模式的に示されている。
また、差分算出部222Bは、センサデータSD2を速さのデータに変換する。変換方法は、上述したセンサデータSD1に対して行った方法と同様であり、センサデータSD2の値を時系列に並べて微分し、速さとしてその時系列データを求める。この速さの時系列データを時系列データTD2と称する。上述したように、実施の形態では、楽器の打鍵の強弱を、音を出すために打鍵した指の速さとしていることから指の速さの時系列データTD2が、第1のデータとは異なる、楽器の打鍵の強弱に基づく第2のデータの一例に対応する。時系列データTD2の具体例(例えば、左手小指の打鍵の速さに関する時系列データ)が図8Bに模式的に示されている。
差分算出部222Bは、時系列データTD1と時系列データTD2とを比較し、ある一定時間内に先生T1と生徒S1とが同じ指でほぼ同じ速さで打鍵している場合に、先生T1と生徒S1とが同じ速さ、即ち同じ強さで打鍵しているとみなし、生徒S1の打鍵の強さが適切であると判断する。例えば、図8A及び図8Bにより示される時系列データTD1、TD2の場合は、差分算出部222Bは、タイミングのずれが所定の閾値tht内(|t1−t2|<tht)であり、且つ、先生T1と生徒S1が同じ指で、閾値thv内でほぼ同じ速さで打鍵している(|v1−v2|<thv)場合に、先生T1と生徒S1とが同じ速さで打鍵しているとみなし、生徒S1の打鍵の強さが適切であると判断する。
差分算出部222Bは、上述した処理を連続的に行い、楽器の打鍵の強弱に基づく情報、具体的には、打鍵が同じ速さで行われていない箇所の時系列データである相違データDDを生成する。相違データDDは、全ての指の分だけ生成される。例えば、差分算出部222Bは、図8Cに示すように、同じ速さでの打鍵でないとき、具体的には、生徒S1のほうが先生T1より指の速度が大きい時はd=1、生徒S1のほうが先生T1より指の速度が小さい時にはd=−1、それ以外の時はd=0として、相違データDDを生成する。差分算出部222Bは、生成した相違データDDを差分フィードバック情報生成部223Bに出力する。
差分フィードバック情報生成部223Bは、差分即ち相違データDDに応じたフィードバックを行う差分フィードバック情報を生成する。図9に示すように、時系列データTD1、TD2の違いが一定以上の場合にパルスが出力されることが相違データDDにより示される。全ての指に関する相違データDDにおけるパルスの回数が多いほど、先生T1と生徒S1とにおける打鍵の強弱の相違が多いことになり、打鍵の強弱に関する生徒のミスが多いことになる。反対に、全ての指に関する相違データDDにおけるパルスの回数が少ないほど、先生T1と生徒S1とにおける打鍵の強弱の相違が少ないことになり、打鍵の強弱に関する生徒のミスが少ないことになる。
差分フィードバック情報生成部223Bは、パルスの回数、換言すれば、生徒側のミスの回数や、パルスの出力タイミングに応じた差分フィードバック情報を出力する。そして、フィードバック制御部224Bが、差分フィードバック情報に示された具体的なフィードバックを行うための制御を実行する。本実施の形態では、差分フィードバック情報に応じてメッセージ(TTS(Text to Speech))の再生及び振動の少なくとも一方によるフィードバックがなされる。
例えば、以下のような態様でフィードバックがなされる。
生徒S1側のシステムで、先生T1側のシステムにおける演奏データPD及びセンサデータSD1を取得する。生徒S1は、一度、ピアノを演奏する。このとき、差分算出部222B及び差分フィードバック情報生成部223Bが上述したように動作することで、差分フィードバック情報が生成される。
生徒S1による演奏の終了後、フィードバック制御部224Bによる差分フィードバック情報に応じたフィードバックがなされる。差分フィードバック情報には、例えば、メッセージの内容及び当該メッセージの再生タイミングが規定されている。具体例としては、生徒S1による演奏を録音しておき、その後、録音した演奏を再生する。差分フィードバック情報に示される内容に応じてフィードバック制御部224Bは、例えば、再生中の演奏の進行において、相違データDDによりd=−1が出力されたタイミングで「最初から数えて5秒目あたりをもう少し力強く弾いてみましょう。」等のメッセージを生成し、当該メッセージをスピーカ207Bから再生する制御を行う。
差分フィードバック情報生成部223Bは、差分が閾値を超えた回数に応じてフィードバックの内容を決定し、決定したフィードバックの内容に対応する差分フィードバック情報を生成しても良い。差分フィードバック情報に応じてフィードバック制御部224Bは、所定のメッセージを生成し再生する制御を行う。例えば、相違データDDにおけるパルスの回数が閾値以下の場合は、差分フィードバック情報生成部223Bは、曲の終了後に「上手ですね、よく頑張りましたね」のような褒めるメッセージを生成及び再生するための差分フィードバック情報を生成する。また、例えば、相違データDDにおけるパルスの回数が閾値より多い場合は、差分フィードバック情報生成部223Bは、曲の終了後に「もっと練習しましょう」との言葉や「今度は頑張りましょうね」「一緒に頑張りましょう」のような励ましのメッセージを生成及び再生するための差分フィードバック情報を生成する。フィードバック制御部224Bは、差分フィードバック情報に応じたフィードバックを行うための制御(例えば、上述したメッセージの生成及び再生処理)を行う。
差分フィードバック情報に応じて振動によるフィードバックが行われるようにしても良い。例えば、相違データDDにおけるパルスの回数に応じて、差分フィードバック情報生成部223Bは、曲の終了後に振動部210Bが所定の強さで振動するための差分フィードバック情報を生成する。例えば、パルスの回数が多いほど、即ち、間違いが多いほど振動部210Bが強く振動するような差分フィードバック情報を、差分フィードバック情報生成部223Bが生成する。差分フィードバック情報に応じて、フィードバック制御部224Bは、差分フィードバック情報で示された強さで振動部210Bを振動させる制御を行う。
なお、差分フィードバック情報に応じて振動部210Bを振動させる場合には、上述した振動フィードバック情報に基づく振動部210Bの振動と差分フィードバック情報に基づく振動部210Bの振動とが混在しないように振動のタイミング等が重複しないように適宜設定される。
なお、レッスンに応じて生徒S1の演奏レベルが上達する場合もあり得る。反対に、レッスンを怠ることにより生徒S1の演奏レベルが下がる場合もあり得る。そこで、相違データDDを生成する際の閾値(閾値thtや閾値thv)を演奏レベルに応じて動的に変更できるようにしても良い。例えば、演奏レベルが上達した場合には、閾値thtや閾値thvを小さくして難度を上げるようにしても良い。また、相違データDDにおけるパルスの回数に対する閾値(回数)を動的に変更可能としても良い。例えば、パルスの回数、即ち、ミスの回数が5回以下で有る場合に適切な打鍵の強弱に基づく演奏と判断されていたものが、ミスの回数が3回以下で有る場合に適切な打鍵の強弱に基づく演奏と判断されるようにしても良い。相違データDDを生成する際の閾値や、相違データDDにおけるパルスの回数に対する閾値の設定が、先生T1側のシステムにおける情報処理装置2Aでできるようにしても良い。そして、先生T1側の情報処理装置2Aにおいてなされた設定が、生徒S1側の情報処理装置2Aに供給されて用いられるようにしても良い。更に、難度が高く設定されている場合に適切な打鍵の強弱による演奏がなされた場合には、差分フィードバック情報生成部223Bが、例えば、より多く褒めるようなメッセージを生成及び再生するための差分フィードバック情報を生成しても良い。
[処理の流れ]
次に、遠隔レッスンシステム1において行われる処理の流れについて説明する。始めに、図10のフローチャートを参照して、振動フィードバック情報に基づくフィードバックがなされる処理の流れについて説明する。
処理の前提として、先生T1側のシステムと生徒S1側のシステムとが接続されることで両システム間におけるデータ、コマンド等の送受信が可能となり、遠隔レッスンシステム1が構築されている。遠隔レッスンシステム1では「さぁ、これからピアノのレッスンを始めましょう」等の対面レッスン時になされる会話と同様の会話がなされる。先生T1が発した会話は情報処理装置2Aで収音され、生徒S1側の情報処理装置2Bで再生される。一方、生徒S1が発した会話は情報処理装置2Bで収音され、先生T1側の情報処理装置2Aで再生される。
始めに、先生T1が、例えば情報処理装置2A及びグローブGAを装着した状態で、見本のピアノ演奏を行う。先生T1のピアノ演奏に伴う演奏音がマイクロホン209Aにより収音され、演奏データPDが生成される(ステップST11)。また、演奏に伴う先生T1の指の動きに応じて、グローブGAが有する変位センサがセンサデータSD1を出力し、センサデータSD1が情報処理装置2Aにより取得される(ステップST12)。ステップST11、ST12の処理は、先生T1の演奏に伴って並列的に行われる処理である。
演奏データPD及びセンサデータSD1が、通信部208Aを介して情報処理装置2Bに送信され、通信部208Bにより受信される。演奏データPDは、制御部201Bによりアナログデータに変換された後、適宜増幅されてスピーカ207Bから再生される(ステップST13)。
通信部208Bで受信されたセンサデータSD1は、振動フィードバック情報生成部221Bに供給される。振動フィードバック情報生成部221Bは、各指のセンサデータSD1を時系列に並べて微分し、振動の大きさの時系列データを生成する(ステップST14)。そして、フィードバック制御部224Bが、振動の大きさを示す時系列データD1に基づいて、対応する振動部210Bの振動デバイスを振動させる(ステップST15)。これにより、先生T1の打鍵の強弱が生徒S1側で再現される。情報処理装置2Bを利用することにより、先生T1の打鍵の強弱を生徒S1が体感することができる。
そして、曲(先生T1の演奏)が終了したか否かが制御部201Bにより判断される(ステップST16)。制御部201Bは、例えば、一定期間、演奏データPDの入力がない場合に、曲が終了したものと判断する。曲が終了していない場合は、処理がステップST11、ST12に戻る。曲が終了した場合には、処理が終了する。
なお、上述した処理は、情報処理装置2Aから演奏データPD及びセンサデータSD1が送信されることに伴って、演奏データPDに対応する演奏音がリアルタイムに再生され、センサデータSD1に基づく振動が生徒S1にリアルタイムにフィードバックされる例を説明したが、これに限定されるものではない。演奏データPD及びセンサデータSD1が一旦、記憶部202Bに記憶されても良い。そして、適宜なタイミング(例えば、先生T1から指示されたタイミングや、生徒S1の復習時)に、演奏データPD及びセンサデータSD1が記憶部202Bから読み出され、演奏データPDに対応する演奏音が再生され、センサデータSD1に基づく振動が生徒S1にフィードバックされるようにしても良い。
次に、図11のフローチャートを参照して、差分フィードバック情報に基づくフィードバックがなされる処理の流れについて説明する。なお、前提として、センサデータSD1が既に情報処理装置2Bに送信されているものとして説明する。
例えば先生T1の「それでは、演奏してください。」等の指示に応じて、生徒S1がピアノを演奏する。生徒S1は、例えば、グローブGB及び情報処理装置2Bを装着した状態でピアノを演奏する。ピアノの演奏に伴う生徒S1の指の動きに応じて、グローブGBが有する変位センサが、各指のセンサデータSD2を出力する。センサデータSD2が情報処理装置2Bにより取得される(ステップST21)。
そして、曲(生徒S1の演奏)が終了したか否かが制御部201Bにより判断される(ステップST22)。制御部201Bは、例えば、一定期間、生徒S1の演奏に伴う演奏データの入力がない場合に、曲が終了したものと判断する。曲が終了していない場合は、処理がステップST21に戻る。曲が終了した場合には、処理がステップST23に進む。
生徒S1の演奏が終了した後、生徒S1の演奏における打鍵の強弱とリファレンスとの差分が、差分算出部222Bにより算出される(ステップST23)。具体的には、差分算出部222Bは、リファレンスデータとしての各指のセンサデータSD1を時系列に並べて微分したデータと、各指のセンサデータSD2を時系列に並べて微分したデータとの差分を演算することにより、相違データDDを生成する。差分算出部222Bは、相違データDDを差分フィードバック情報生成部223Bに出力する
差分フィードバック情報生成部223Bは、相違データDDに基づいて、差分フィードバック情報を生成する(ステップST24)。そして、生成された差分フィードバック情報に基づいて、フィードバック制御部224Bが、生徒S1に対するフィードバックを行う(ステップST25)。上述したように、差分フィードバック情報に基づくフィードバックは、メッセージの再生や振動等によりなされる。
[効果の一例]
以上説明した第1の実施の形態によれば、打鍵の強弱を振動によりユーザ(例えば、遠隔レッスンシステムにおける生徒)にフィードバックすることができる。従って、当該ユーザは、適切な打鍵の強さを認識することができる。
また、先生の打鍵の強弱と生徒の打鍵の強弱とを比較した結果である差分に応じたフィードバックを行うことができる。従って、ユーザ(例えば、生徒)は、自身の打鍵の強さが適切であるか否かを認識することができる。
<第2の実施の形態>
次に、第2の実施の形態について説明する。なお、特に断らない限り、第1の実施の形態で説明した事項は、第2の実施の形態に対しても適用することができる。また、第2の実施の形態において、第1の実施の形態で説明した事項と同一若しくは同質の構成については同一の参照符号を付し、重複した説明を適宜、省略する。
図12は、第2の実施の形態に係る遠隔レッスンシステム(遠隔レッスンシステム1A)で行われる処理例を説明するための図である。第2の実施の形態では、例えば、略同時になされる先生T1と生徒S1とのピアノ演奏時に、リアルタイムに差分フィードバック情報が生成され、リアルタイムに差分フィードバック情報に基づくフィードバックがなされる。なお、略同時になされる演奏とは、伝送遅延や情報処理装置2A、2Bで行われる処理の遅延等が適切に補正され、先生T1及び生徒S1が聴感的に同時に演奏しているように聞こえる、タイミングのずれが所定以下の演奏を意味する。
上述したように、差分フィードバック情報に基づくフィードバックは、メッセージ及び振動の少なくとも一方によりなされる。本実施の形態では、メッセージ及び振動によりフィードバックがなされる。従って、図12に示すように、振動フィードバック情報による振動と差分フィードバック情報に基づく振動とが混在しないように、本実施の形態では、振動フィードバック情報によるフィードバックがなされないように構成されている。勿論、生徒S1が一人でピアノの演奏の復習を行う際等に、第1の実施の形態で説明したように、振動フィードバック情報によるフィードバックが行われるようにしても良い。
[処理の流れ]
次に、図13のフローチャートを参照して、第2の実施の形態に係る、差分フィードバック情報に基づくフィードバックがなされる処理の流れについて説明する。なお、先生T1及び生徒S1が略同時に行うピアノの演奏音は、情報処理装置2A、2Bのマイクロホン209A、209Bで収音され、相手の情報処理装置に送信される。そして、相手のピアノの演奏音は情報処理装置2A、2Bのスピーカ207A、207Bからそれぞれ再生される。
例えば先生T1の「それでは、一緒に演奏しましょう。」等の指示に応じて、先生T1及び生徒S1がピアノを演奏する。先生T1は、例えば、グローブGA及び情報処理装置2Aを装着した状態でピアノを演奏する。また、生徒S1は、例えば、グローブGB及び情報処理装置2Bを装着した状態でピアノを演奏する。
ピアノ演奏に伴う先生T1(本例ではリファレンス側)の指の動きに応じて、グローブGAが有する変位センサが、各指のセンサデータSD1を出力する。センサデータSD1が情報処理装置2Aにより取得される(ステップST31)。センサデータSD1は、情報処理装置2Aの通信部208Aにより情報処理装置2Bに送信される。センサデータSD1は、情報処理装置2Bの通信部208Bにより受信された後、制御部201Bに供給される。
また、ピアノ演奏に伴う生徒S1の指の動きに応じて、グローブGBが有する変位センサが、各指のセンサデータSD2を出力する。センサデータSD2が情報処理装置2Bにより取得される(ステップST32)。
差分算出部222Bは、先生T1の演奏における打鍵の強弱と生徒S1の演奏における打鍵の強弱との差分を算出する(ステップST33)。具体的には、差分算出部222Bは、リファレンスデータとしての各指のセンサデータSD1を時系列に並べて微分したデータと、各指のセンサデータSD2を時系列に並べて微分したデータとの差分を算出する。
そして、差分フィードバック情報生成部223Bは、閾値以上の差分(例えば、上述した相違データDDにおけるd=1やd=−1に対応する差分)があったか否かを判断する(ステップST34)。この判断で、閾値以上の差分があった場合には、差分フィードバック情報生成部223Bより差分フィードバック情報が生成され、差分フィードバック情報に基づくフィードバックが、フィードバック制御部224Bにより行われる(ステップST35)。閾値以上の差分がない場合は、フィードバックはなされず、先生及び生徒による演奏が進行する。
例えば、生徒S1の打鍵が先生T1の打鍵に比べて一定以上弱い場合には、当該打鍵がなされる指に対応する振動デバイスが、短く且つ弱く振動するフィードバックがなされると共に、「ここはもっと強く」等のメッセージが再生される差分フィードバック情報が生成される。一方で、生徒S1の打鍵が先生T1の打鍵に比べて一定以上強い場合には、当該打鍵がなされる指に対応する振動デバイスが、短く且つ強く振動するフィードバックがなされると共に、「ここはもっと弱く」等のメッセージが再生される差分フィードバック情報が生成される。差分フィードバック情報に基づくフィードバックがフィードバック制御部224Bにより行われる。
そして、曲(先生T1及び生徒S1の演奏)が終了したか否かが制御部201Bにより判断される(ステップST36)。制御部201Bは、例えば、一定期間、演奏データの入力がない場合に、曲が終了したものと判断する。曲が終了していない場合は、処理がステップST31、32に戻る。曲が終了した場合には、処理が終了する。
[効果]
以上説明した第2の実施の形態では、生徒のピアノの演奏時に、打鍵の強さがリファレンス(例えば、先生の打鍵の強さ)と一定以上相違する場合に、そのことをリアルタイムにフィードバックすることができる。
<第3の実施の形態>
次に、第3の実施の形態について説明する。なお、特に断らない限り、第1、第2の実施の形態で説明した事項は、第3の実施の形態に対しても適用することができる。また、第3の実施の形態において、第1、第2の実施の形態で説明した事項と同一若しくは同質の構成については同一の参照符号を付し、重複した説明を適宜、省略する。
[概要]
始めに、第3の実施の形態の概要について説明する。一般に、楽器の演奏の際には、上級者になればなるほど、単に楽器を演奏する動きだけでなく、体全体をつかって楽器を演奏することにより、より豊かな演奏音を奏でることが行われる。体全体の動きは、ノリなどとも称され、演奏のコンクールなどでは、体全体の動きが評価の対象にもなり得る。実施の形態に係る情報処理装置2A、2Bは、加速度センサ204A、204Bを有している。そこで、第3の実施の形態では、加速度センサ204A、204Bを、演奏者の姿勢変化を検出する姿勢変化検出部として使用し、例えば、演奏時における先生T1の姿勢変化と生徒S1の姿勢変化との差分を検出し、差分に応じたフィードバック行う。これにより、打鍵の強さだけなく、演奏時における適切な体の動きを生徒S1が認識できるようにする。以下、第3の実施の形態について詳細に説明する。
[処理例]
図14は、第3の実施の形態に係る遠隔レッスンシステム(遠隔レッスンシステム1B)で行われる処理例を説明するための図である。上述した実施の形態と異なる点を中心に説明する。
先生T1がピアノを演奏する際の姿勢変化が加速度センサ204Aにより検出される。加速度センサ204Aから出力されるセンサデータが制御部201Aによりデジタルデータに変換されることで、加速度データAD1が生成される。加速度データAD1が、通信部208Aを介して情報処理装置2Bに送信される。加速度データAD1は、情報処理装置2Bの通信部208Bにより受信され、制御部201Bに供給される。
また、生徒S1がピアノを演奏する際の姿勢変化が加速度センサ204Bにより検出される。加速度センサ204Bから出力されるセンサデータが制御部201Bによりデジタルデータに変換されることで、加速度データAD2が生成される。加速度データAD1、AD2が制御部201Bの差分算出部222Bに入力される。
第3の実施の形態に係る差分算出部222Bは、加速度データAD1、AD2の差分を算出する。図15Aに、先生T1側で取得される加速度データAD1が模式的に示されている。図15Bに、生徒S1側で取得される加速度データAD2が模式的に示されている。加速度データから体の姿勢変化を表す値を求める事を考える。加速度の極大/極小地点が、速度の変化が一番大きい点であり、体の姿勢変化の拍部分にあたるとする。
加速度を体の姿勢変化を表す代表値として扱い、先生T1側と生徒S1側のそれぞれの加速度データAD1、AD2を比べることでリファレンス(本例では先生の体の姿勢変化)との差分を求める。
ここで、3軸の時系列の加速度データは、下記の数式1によって表すことができる。
Figure 2020042161
上述した加速度データから、ベクトルの大きさの時系列データαを下記の数式2により求める。なお、先生T1側のベクトルの大きさの時系列データをα1とし、生徒S1側のベクトルの大きさの時系列データをα2とする。
Figure 2020042161
差分算出部222Bは、時系列データα1と時系列データα2とを比較し、タイミングのずれが所定の閾値tht内(|t1−t2|<tht)であり、且つ、先生T1と生徒S1がほぼ同じ姿勢変化を行っている(|α1−α2|<thα)場合に、先生T1と生徒S1とが同じ姿勢変化、即ち同じ体の動きで演奏しているとみなし、生徒S1の演奏時における体の動きが適切であると判断する。
差分算出部222Bは、上述した処理を連続的に行い、体の姿勢変化が相違する箇所の時系列データである相違データDD1を生成する。例えば、差分算出部222Bは、図15Cに示すように、同じ姿勢変化でないとき、具体的には、生徒S1の姿勢変化が先生T1の姿勢変化より大きい時はd=1、生徒S1の姿勢変化が先生T1の姿勢変化より小さい時にはd=−1、それ以外の時はd=0として、相違データDD1を生成する。本例では、相違データDD1が、楽器の演奏に伴う姿勢変化に基づく情報の一例に対応する。差分算出部222Bは、生成した相違データDD1を差分フィードバック情報生成部223Bに出力する。
差分フィードバック情報生成部223Bは、差分即ち相違データDD1に応じたフィードバックを行う姿勢変化フィードバック情報を生成する。図16に示すように、先生T1と生徒S1における姿勢変化に一定以上の違いがある場合には、パルスが出力されることが相違データDD1により示される。全ての指に関する相違データDD1におけるパルスの回数が多いほど、姿勢変化の相違が多いことになり、生徒S1側の姿勢変化が適切でない回数が多いことになる。反対に、相違データDD1におけるパルスの回数が少ないほど、姿勢変化の相違が少ないことになり、生徒S1が適切な姿勢変化でピアノを演奏していることになる。
差分フィードバック情報生成部223Bは、パルスの回数やパルスの発生タイミング等に応じた姿勢変化フィードバック情報を出力する。姿勢変化フィードバック情報には、フィードバックの内容やフィードバックを行うタイミングが含まれている。フィードバック制御部224Bは、姿勢変化フィードバック情報に基づくフィードバックをTTS等により行う。
例えば、以下のような態様でフィードバックがなされる。
生徒S1による演奏の終了後、姿勢変化フィードバック情報に応じたフィードバックがなされる。例えば、生徒S1による演奏を録音しておき、録音した演奏を再生しつつ、姿勢変化フィードバック情報に応じたフィードバックがなされる。フィードバック制御部224Bは、例えば、ある曲の進行において、相違データDD1でd=−1が出力されたタイミングで例えば「最初から数えて5秒目あたりをもっとノってみましょう(大きく体を動かしましょう)」等のメッセージを生成し、当該メッセージをスピーカ207Bから再生する。また、例えば、フィードバック制御部224Bは、ある曲の進行において、相違データDD1でd=1が出力されたタイミングで例えば「最初から数えて5秒目あたりはもっと落ち着いて弾いてみましょう」等のメッセージを生成し、当該メッセージをスピーカ207Bから再生する。
相違データDD1におけるパルスの回数に応じたメッセージが再生されても良い。パルスの回数が閾値以下の場合は、例えば、フィードバック制御部224Bは「うまくノって演奏していましたね」等の褒め言葉を再生する。パルスの回数が閾値より大きい場合は、例えば、フィードバック制御部224Bは「一緒に頑張りましょう」等の励ましの言葉を再生する。
姿勢変化フィードバック情報に基づくフィードバックが振動によりなされても良い。例えば、パルスの回数が閾値以下の場合は、振動する振動デバイスが一端側から他端側に連続的に変化する態様のフィードバックがなされる。また、パルスの回数が閾値より大きい場合は、全部の振動デバイスが振動する態様のフィードバックがなされる。勿論、どのような振動でフィードバックを行うかは適宜、設定することができる。また、第1の実施の形態で説明したように、生徒のレベルに応じて難易度が変わるように、閾値等の設定ができるようにしても良い。
[処理の流れ]
次に、図17のフローチャートを参照して、姿勢変化フィードバック情報に基づいてフィードバックがなされる処理の流れについて説明する。なお、前提として、加速度データAD1が既に情報処理装置2Bに送信されているものとして説明する。
例えば先生T1の「それでは、演奏してください。」等の指示に応じて、生徒S1がピアノを演奏する。生徒S1は、例えば、グローブGB及び情報処理装置2Bを装着した状態でピアノを演奏する。ピアノの演奏に伴う生徒S1の体の動きに応じて、加速度センサ204Bが加速度データを出力する。この加速度データが制御部201Bによりデジタルデータに変換され、加速度データAD2が生成される(ステップST41)。
そして、曲(生徒S1の演奏)が終了したか否かが制御部201Bにより判断される(ステップST42)。制御部201Bは、例えば、一定期間、演奏データの入力がない場合に、曲が終了したものと判断する。曲が終了していない場合は、処理がステップST41に戻る。曲が終了した場合には、処理がステップST43に進む。
生徒S1の演奏が終了した後、生徒S1の演奏時における姿勢変化とリファレンスとの差分が、差分算出部222Bにより算出される(ステップST43)。具体的には、差分算出部222Bは、加速度データAD1に基づく時系列データα1と加速度データAD2に基づく時系列データα2との差分を演算することにより、相違データDD1を生成する。差分算出部222Bは、相違データDD1を差分フィードバック情報生成部223Bに出力する
差分フィードバック情報生成部223Bは、相違データDD1に基づいて、姿勢変化フィードバック情報を生成する(ステップST44)。そして、生成された姿勢変化フィードバック情報に基づいて、フィードバック制御部224Bが、生徒S1に対するフィードバックを行う(ステップST45)。上述したように、姿勢変化フィードバック情報に基づくフィードバックは、メッセージの再生や振動等によりなされる。
[効果]
以上説明した第3の実施の形態によれば、演奏時における体の動きが適切であるか否かに関するフィードバックを行うことができる。従って、ユーザ(例えば、生徒)は、適切な体の動きで楽器を演奏することが可能となる。
<変形例>
以上、本開示の複数の実施の形態について具体的に説明したが、本開示の内容は上述した実施の形態に限定されるものではなく、本開示の技術的思想に基づく各種の変形が可能である。以下、変形例について説明する。
上述した実施の形態では、生徒側の情報処理装置が差分を計算するようにしたが、これに限定されるものではない。例えば、生徒が有するスマートホンやクラウド上に存在するサーバ装置が差分を計算するようにしても良い。係る場合は、情報処理装置の制御部が差分算出部を有しない構成でも良い。このように、情報処理装置の構成は、実施の形態で例示された構成に限定されるものではなく、適宜、変更することができる。
上述した各実施の形態は、適宜、組み合わせることが可能である。また、フィードバックする内容を、モードとして設定できるようにしても良い。例えば、所定のモードが設定された場合には、打鍵の強さの相違に応じたフィードバックがなされ、他のモードが設定された場合には、姿勢変化の相違に応じたフィードバックがなされるようにしても良い。
上述した実施の形態では、先生も情報処理装置を装着した構成について説明したがこれに限定されるものではない。例えば、演奏データやセンサデータを生徒側の情報処理装置に送信できる装置であれば、当該装置は必ずしも実施の形態で説明した情報処理装置に限定されるものではない。
上述した実施の形態では、主に、先生側から生徒側に各種のデータが送信される例について説明したが、生徒側から先生側に各種のデータが送信することも可能である。例えば、生徒側の情報処理装置から先生側の情報処理装置にセンサデータが送信され、先生側の情報処理装置における振動デバイスが生徒の打鍵の強さに対応する強さで振動するようにしても良い。即ち、先生が生徒の打鍵の強さ等を確認できるようにしても良い。
上述した実施の形態では、フィードバックがメッセージの再生及び振動の少なくとも一方によりなされる例について説明したが、これに限定されるものではない。例えば、表示によるフィードバックがなされても良い。表示は、例えば、ピアノに設けられたディスプレイを使用してなされる。実施の形態で説明した情報処理装置にディスプレイが設けられても良い。また、実施の形態で説明した情報処理装置にLED(Light Emitting Diode)等の発光部が設けられ、発光部の発光色や発光強度を変化させた発光(表示の一態様)によりフィードバックが行われるようにしても良い。例えば、生徒の演奏における打鍵の強さが適切である場合はLEDが緑で発光し、生徒の演奏における打鍵の強さが適切でない場合はLEDが赤で発光するようにしても良い。また、情報処理装置の制御部が生成した振動フィードバック情報や差分フィードバック情報に基づくフィードバックの制御が、情報処理装置と異なる装置(例えば、情報処理装置の近距離無線を行うことが可能なスマートホンやゲーム機器)で行われても良い。
上述した実施の形態では、リファレンスされるデータ、即ち、先生側のシステムで得られた各種のデータがネットワークを介して伝送される例について説明したが、これに限定されるものではない。例えば、先生側のシステムで得られるデータ(例えば、センサデータSD1)が記録メディアに記憶されており、当該記録メディアを介して供給されるようにしても良い。係る記録メディアとしては、HDD(Hard Disk Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、光磁気記憶デバイス等が挙げられる。記録メディアは、書籍等の付属物であっても良い。例えば、音楽のレッスンに関する書籍に記録メディアが付属していても良い。また、先生側のシステムで得られるデータが、所定のサーバ装置からダウンロード可能とされても良い。この場合、例えば、課金等の処理を行ったユーザのみが上述したデータをダウンロード可能としても良いし、複数の先生毎に上述したデータが用意され、ユーザが所望の先生のデータを選択的にダウンロードできるようにしても良い。
上述した実施の形態において、演奏データとセンサデータとが別々に送信されるようにしても良い。また、上述した実施の形態では、グローブが有する変位センサにより指の動き(速さ)が取得される例について説明したが、指の動きをセンシングできるものであれば、グローブが有する変位センサ以外で指の動きが取得されても良い。係る装置としては指の動きを撮像するカメラを挙げることができる。カメラは、情報処理装置に設けられていても良い。また、情報処理装置に設けられるカメラは、ヒンジ等の機構により可動とされ、指の動きを撮像できるように構成されても良い。
上述した各実施の形態の遠隔レッスンシステムが、生徒が先生の様子に関する映像情報、具体的には、先生の演奏姿、姿勢等に関する映像情報を視聴しながら行われても良い。そして、生徒が映像情報を視聴しつつ、振動のフィードバック等が行われても良い。勿論、先生が生徒の様子に関する映像情報を視聴しながら、遠隔レッスンシステムが行われても良い。遠隔レッスンシステムにおける映像情報のやり取りは、公知のビデオチャットツールを利用して行われても良いし、本技術に適した専用のビデオチャットツールやシステムを構築した上で、それらを利用して行われても良い。映像情報を利用することにより、相手の様子、例えば、生徒が先生の様子を視覚的に確認できるので、より効果的な遠隔レッスンを行うことができる。
実施の形態で説明した情報処理装置の形状は、リング形状(ネックバンド型)に限定されるものではない。他の形状、例えば、ベルト型、時計型等であっても良い。
実施の形態では、楽器の一例としてピアノを用いた説明をしたが、演奏操作(打鍵や息づかい)の強弱により音色が変わり得る楽器、例えば、太鼓やギターであっても構わない。
本開示は、装置、方法、プログラム、システム等により実現することもできる。例えば、上述した実施の形態で説明した機能を行うプログラムをダウンロード可能とし、実施の形態で説明した機能を有しない装置が当該プログラムをダウンロードしてインストールすることにより、当該装置において実施の形態で説明した制御を行うことが可能となる。本開示は、このようなプログラムを配布するサーバにより実現することも可能である。また、各実施の形態、変形例で説明した事項は、適宜組み合わせることが可能である。
なお、本開示中に例示された効果により本開示の内容が限定して解釈されるものではない。
本開示は、以下の構成も採ることができる。
(1)
人体に着脱可能とされ、
楽器の打鍵の強弱に基づく情報に応じたフィードバックを行うフィードバック情報を生成する制御部を有する
情報処理装置。
(2)
前記楽器の打鍵の強弱に基づく情報は、楽器の打鍵の強弱に基づく第1のデータと、前記第1のデータとは異なる、楽器の打鍵の強弱に基づく第2のデータとの差分を示す情報を含み、
前記制御部は、前記差分に応じたフィードバックを行う差分フィードバック情報を生成する
(1)に記載の情報処理装置。
(3)
前記制御部は、前記第1のデータと前記第2のデータとの差分を算出する
(2)に記載の情報処理装置。
(4)
第1の楽器の演奏時に当該第1の楽器の打鍵の強弱に基づく前記第1のデータが取得され、第2の楽器の演奏時に当該第2の楽器の打鍵の強弱に基づく前記第2のデータが取得され、
前記制御部は、略同時になされる前記第1の楽器及び前記第2の楽器の演奏の進行に伴って、前記差分をリアルタイムに算出する
(3)に記載の情報処理装置。
(5)
前記制御部は、前記差分が閾値を超えた回数に応じて前記フィードバックの内容を決定する
(2)に記載の情報処理装置。
(6)
前記閾値及び前記回数の少なくとも一方が変更可能とされている
(5)に記載の情報処理装置。
(7)
前記制御部は、前記差分フィードバック情報に応じたフィードバックを行うための制御を行う
(2)から(6)までの何れかに記載の情報処理装置。
(8)
メッセージの再生、振動及び表示の少なくとも一方によるフィードバックがなされる
(7)に記載の情報処理装置。
(9)
前記第1のデータがネットワークを介して供給される
(2)から(8)までの何れかに記載の情報処理装置。
(10)
前記第1のデータが記録メディアを介して供給される
(2)から(8)までの何れかに記載の情報処理装置。
(11)
前記楽器の打鍵の強弱に基づく情報は、楽器の打鍵の強弱を示す情報を含み、
前記制御部は、前記楽器の打鍵の強弱を示す情報に基づいて、振動によるフィードバックを行う振動フィードバック情報を生成する
(1から(10)までの何れかに記載の情報処理装置。
(12)
前記振動フィードバック情報に基づいて振動する振動部を有する
(11)に記載の情報処理装置。
(13)
前記振動部は、指の配列に対応して配置された複数の振動デバイスを有する
(12)に記載の情報処理装置。
(14)
前記制御部は、楽器に演奏に伴う姿勢変化に基づく情報に応じたフィードバックを行う姿勢変化フィードバック情報を生成する
(1)から(13)までの何れかに記載の情報処理装置。
(15)
楽器に演奏に伴う姿勢変化を検出する姿勢変化検出部を有する
(14)に記載の情報処理装置。
(16)
ネックバンド型の形状を有する
(1)から(15)までの何れかに記載の情報処理装置。
(17)
収音部を有する
(1)から(16)までの何れかに記載の情報処理装置。
(18)
スピーカを有する
(1)から(17)までの何れかに記載の情報処理装置。
(19)
制御部が、楽器の打鍵の強弱に基づく情報に応じたフィードバックを行うフィードバック情報を生成する
人体に着脱可能とされる情報処理装置における情報処理方法。
(20)
制御部が、楽器の打鍵の強弱に基づく情報に応じたフィードバックを行うフィードバック情報を生成する
人体に着脱可能とされる情報処理装置における情報処理方法を、コンピュータに実行させるプログラム。
2A,2B・・・情報処理装置
201A,201B・・・制御部
204A,204B・・・加速度センサ
207A,207B・・・スピーカ
209A,209B・・・マイクロホン
210A,210B・・・振動部
210Aa〜210Aj・・・振動デバイス

Claims (20)

  1. 人体に着脱可能とされ、
    楽器の打鍵の強弱に基づく情報に応じたフィードバックを行うフィードバック情報を生成する制御部を有する
    情報処理装置。
  2. 前記楽器の打鍵の強弱に基づく情報は、楽器の打鍵の強弱に基づく第1のデータと、前記第1のデータとは異なる、楽器の打鍵の強弱に基づく第2のデータとの差分を示す情報を含み、
    前記制御部は、前記差分に応じたフィードバックを行う差分フィードバック情報を生成する
    請求項1に記載の情報処理装置。
  3. 前記制御部は、前記第1のデータと前記第2のデータとの差分を算出する
    請求項2に記載の情報処理装置。
  4. 第1の楽器の演奏時に当該第1の楽器の打鍵の強弱に基づく前記第1のデータが取得され、第2の楽器の演奏時に当該第2の楽器の打鍵の強弱に基づく前記第2のデータが取得され、
    前記制御部は、略同時になされる前記第1の楽器及び前記第2の楽器の演奏の進行に伴って、前記差分をリアルタイムに算出する
    請求項3に記載の情報処理装置。
  5. 前記制御部は、前記差分が閾値を超えた回数に応じて前記フィードバックの内容を決定する
    請求項2に記載の情報処理装置。
  6. 前記閾値及び前記回数の少なくとも一方が変更可能とされている
    請求項5に記載の情報処理装置。
  7. 前記制御部は、前記差分フィードバック情報に応じたフィードバックを行うための制御を行う
    請求項2に記載の情報処理装置。
  8. メッセージの再生、振動及び表示の少なくとも一方によるフィードバックがなされる
    請求項7に記載の情報処理装置。
  9. 前記第1のデータがネットワークを介して供給される
    請求項2に記載の情報処理装置。
  10. 前記第1のデータが記録メディアを介して供給される
    請求項2に記載の情報処理装置。
  11. 前記楽器の打鍵の強弱に基づく情報は、楽器の打鍵の強弱を示す情報を含み、
    前記制御部は、前記楽器の打鍵の強弱を示す情報に基づいて、振動によるフィードバックを行う振動フィードバック情報を生成する
    請求項1に記載の情報処理装置。
  12. 前記振動フィードバック情報に基づいて振動する振動部を有する
    請求項11に記載の情報処理装置。
  13. 前記振動部は、指の配列に対応して配置された複数の振動デバイスを有する
    請求項12に記載の情報処理装置。
  14. 前記制御部は、楽器に演奏に伴う姿勢変化に基づく情報に応じたフィードバックを行う姿勢変化フィードバック情報を生成する
    請求項1に記載の情報処理装置。
  15. 楽器に演奏に伴う姿勢変化を検出する姿勢変化検出部を有する
    請求項14に記載の情報処理装置。
  16. ネックバンド型の形状を有する
    請求項1に記載の情報処理装置。
  17. 収音部を有する
    請求項1に記載の情報処理装置。
  18. スピーカを有する
    請求項1に記載の情報処理装置。
  19. 制御部が、楽器の打鍵の強弱に基づく情報に応じたフィードバックを行うフィードバック情報を生成する
    人体に着脱可能とされる情報処理装置における情報処理方法。
  20. 制御部が、楽器の打鍵の強弱に基づく情報に応じたフィードバックを行うフィードバック情報を生成する
    人体に着脱可能とされる情報処理装置における情報処理方法を、コンピュータに実行させるプログラム。
JP2018169321A 2018-09-11 2018-09-11 情報処理装置、情報処理方法及びプログラム Pending JP2020042161A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018169321A JP2020042161A (ja) 2018-09-11 2018-09-11 情報処理装置、情報処理方法及びプログラム
US17/250,759 US20210319715A1 (en) 2018-09-11 2019-06-04 Information processing apparatus, information processing method, and program
DE112019004528.8T DE112019004528T5 (de) 2018-09-11 2019-06-04 Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahrenund programm
PCT/JP2019/022099 WO2020054145A1 (ja) 2018-09-11 2019-06-04 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018169321A JP2020042161A (ja) 2018-09-11 2018-09-11 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2020042161A true JP2020042161A (ja) 2020-03-19

Family

ID=69776666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018169321A Pending JP2020042161A (ja) 2018-09-11 2018-09-11 情報処理装置、情報処理方法及びプログラム

Country Status (4)

Country Link
US (1) US20210319715A1 (ja)
JP (1) JP2020042161A (ja)
DE (1) DE112019004528T5 (ja)
WO (1) WO2020054145A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11508344B2 (en) * 2017-12-27 2022-11-22 Sony Corporation Information processing device, information processing method and program
WO2021239951A1 (de) * 2020-05-29 2021-12-02 Silanfa Gmbh Handgerät, auswertungssystem sowie verfahren zur auswertung des spiels eines tasteninstruments und computerprogramm dazu

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3678135B2 (ja) * 1999-12-24 2005-08-03 ヤマハ株式会社 演奏評価装置および演奏評価システム
JP2007078724A (ja) * 2005-09-09 2007-03-29 Kawai Musical Instr Mfg Co Ltd 電子楽器
JP2008122644A (ja) * 2006-11-13 2008-05-29 Casio Comput Co Ltd 演奏教習システムおよび演奏教習方法
JP2012128152A (ja) * 2010-12-15 2012-07-05 Casio Comput Co Ltd 演奏練習装置およびプログラム
JP6099850B1 (ja) * 2015-08-17 2017-03-22 日本テレビ放送網株式会社 プログラム、表示装置、表示方法、放送システム及び放送方法
JP2017062347A (ja) * 2015-09-24 2017-03-30 ヤマハ株式会社 データ処理装置及びプログラム
WO2018068203A1 (en) * 2016-10-11 2018-04-19 Sunland Information Technology Co., Ltd. A smart detecting and feedback system for smart piano
US11508344B2 (en) * 2017-12-27 2022-11-22 Sony Corporation Information processing device, information processing method and program
EP4057211A4 (en) * 2019-11-07 2022-11-23 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM

Also Published As

Publication number Publication date
DE112019004528T5 (de) 2021-06-02
US20210319715A1 (en) 2021-10-14
WO2020054145A1 (ja) 2020-03-19

Similar Documents

Publication Publication Date Title
US10964179B2 (en) Vibrotactile control systems and methods
JP6807924B2 (ja) リード楽器用装置
US20180174559A1 (en) Network musical instrument
JP4940956B2 (ja) 音声伝送システム
US8987571B2 (en) Method and apparatus for providing sensory information related to music
JPH07121294A (ja) 常装着型入力システム、常装着型意図伝達システム、常装着型音楽用キーボードシステム及び常装着型点字入出力システム
EP3381032B1 (en) Apparatus and method for dynamic music performance and related systems and methods
WO2020054145A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2015105091A1 (ja) 演奏情報伝達方法、演奏情報伝達システム
Bhagwati Elaborate audio scores: Concepts, affordances and tools
WO2006011342A1 (ja) 楽音生成装置および楽音生成システム
KR20120034486A (ko) 음악교습에 사용되는 건반장치
JP3879583B2 (ja) 楽音発生制御システム、楽音発生制御方法、楽音発生制御装置、操作端末、楽音発生制御プログラム及び楽音発生制御プログラムを記録した記録媒体
WO2022163137A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20080000345A1 (en) Apparatus and method for interactive
KR20120131695A (ko) 청각장애인용 음향 청취는 장치
KR20100056603A (ko) 다양한 감각 기관을 통한 음향 청취를 제공하는 장치
JP2021128252A (ja) 音源分離プログラム、音源分離装置、音源分離方法及び生成プログラム
Overholt Advancements in violin-related human-computer interaction
JP3912210B2 (ja) 楽器及び演奏補助装置
KR102634346B1 (ko) 훈련 수행 정확도에 따라 훈련 난이도를 변경하는 인지 기능 훈련 및 검사 장치
US12008892B2 (en) Vibrotactile control systems and methods
CN216412665U (zh) 一种乐器跟弹系统
WO2023243293A1 (ja) 演奏モーション推定方法および演奏モーション推定装置
JP6653840B1 (ja) 発音練習システム