JP7367690B2 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP7367690B2
JP7367690B2 JP2020550296A JP2020550296A JP7367690B2 JP 7367690 B2 JP7367690 B2 JP 7367690B2 JP 2020550296 A JP2020550296 A JP 2020550296A JP 2020550296 A JP2020550296 A JP 2020550296A JP 7367690 B2 JP7367690 B2 JP 7367690B2
Authority
JP
Japan
Prior art keywords
sensor
sensing data
information
information processing
performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020550296A
Other languages
English (en)
Other versions
JPWO2020071149A1 (ja
Inventor
晋一 古屋
貴紀 奥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020071149A1 publication Critical patent/JPWO2020071149A1/ja
Application granted granted Critical
Publication of JP7367690B2 publication Critical patent/JP7367690B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • G09B15/06Devices for exercising or strengthening fingers or arms; Devices for holding fingers or arms in a proper position for playing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G3/00Recording music in notation form, e.g. recording the mechanical operation of a musical instrument
    • G10G3/04Recording music in notation form, e.g. recording the mechanical operation of a musical instrument using electrical means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/265Key design details; Special characteristics of individual keys of a keyboard; Key-like musical input devices, e.g. finger sensors, pedals, potentiometers, selectors
    • G10H2220/311Key design details; Special characteristics of individual keys of a keyboard; Key-like musical input devices, e.g. finger sensors, pedals, potentiometers, selectors with controlled tactile or haptic feedback effect; output interfaces therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/351Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/371Vital parameter control, i.e. musical instrument control based on body signals, e.g. brainwaves, pulsation, temperature or perspiration; Biometric information

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Physiology (AREA)
  • Biomedical Technology (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Cardiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Dentistry (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pulmonology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Electrically Operated Instructional Devices (AREA)

Description

本開示は、情報処理装置に関する。
近年、各種のモーションセンサや生体情報センサの小型化、簡易化等が進んだことから、これらセンサによって容易に各種のセンシングデータを取得することが容易となり、例えば、ユーザのパフォーマンス(楽器演奏、スポーツ等)の習得の支援等に利用されるようになった。例えば、パフォーマンス(楽器演奏)に対して評価を行い、パフォーマンスの支援を行う技術の一例として、下記特許文献1に開示されている技術を挙げることができる。このような習得支援においては、複数のセンサから様々なセンシングデータを取得し、取得した複数のセンシングデータを解析することにより、習得支援に利用することができるデータを得ている。
特開2009-47861号公報
ところで、互いに異なる種類の複数のセンサを用いて複数のセンシングデータを取得しようとする場合、センシングデータの形式が異なる場合がある。例えば、生体情報センサからのセンシングデータは、アナログ形式のセンシングデータであることが一般的である。このような場合、生体情報センサからのセンシングデータは、他のセンサからのセンシングデータと同様にデジタル形式のセンシングデータにするためにデジタル形式に変換した後に、他のセンサからのセンシングデータとともに、解析が行われることとなる。さらに、ユーザのパフォーマンスの習得支援に有用なデータを取得するために、上述のような形式が混在する複数のセンシングデータであっても、互いに精度よく同期させることが求められる。
そこで、本開示においては、形式が混在するセンシングデータを精度よく同期させて取り扱うことができる、パフォーマンスの習得支援に利用可能な新規且つ改良された情報処理装置を提案する。
本開示によれば、ユーザの動作によるパフォーマンスに係る状態をセンシングする複数のセンサから得られた異なる形式の複数のセンシングデータを変換する変換部と、前記変換部で変換された前記センシングデータを処理する情報処理部と、前記情報処理部の処理結果に基づき、前記ユーザに対してフィードバック情報を出力する情報出力部と、を備え、前記変換部は、前記センサからのアナログ形式の前記センシングデータを、デジタル形式に変換して、前記情報処理部に出力するアナログ-デジタル信号変換部と、前記センサからのデジタル形式の前記センシングデータを、アナログ形式に変換して、前記アナログ-デジタル信号変換部に出力するデジタル-アナログ信号変換部と、を有する、情報処理装置を提供する。
以上説明したように本開示によれば、形式が混在するセンシングデータを精度よく同期させて取り扱うことができる、パフォーマンスの習得支援に利用可能な情報処理装置を提供することができる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態に係る情報処理システム1の構成例を説明する説明図である。 本開示の実施形態に係るセンサ装置10の構成を示すブロック図である。 本開示の実施形態に係るサーバ30の構成を示すブロック図である。 本開示の実施形態に係る変換装置20及び演算装置26の構成を示すブロック図である。 本開示の実施形態に係るフィードバック装置70の構成を示すブロック図である。 本開示の実施形態に係る情報処理方法の一例を説明するフローチャートである。 本開示の実施形態に係る教師データの作成のフローチャートである。 特徴量の抽出の一例を説明するための説明図(その1)である。 特徴量の抽出の一例を説明するための説明図(その2)である。 データベースの構築の一例を説明するための説明図(その1)である。 データベースの構築の一例を説明するための説明図(その2)である。 教師データの作成の一例を説明するための説明図(その1)である。 教師データの作成の一例を説明するための説明図(その2)である。 本開示の実施形態に係る比較データの作成のフローチャートである。 本開示の実施形態に係る比較のフローチャートである。 比較の一例を説明するための説明図(その1)である。 比較の一例を説明するための説明図(その2)である。 本開示の実施形態に係る習得支援モードのフローチャートである。 本開示の実施形態に係る情報処理装置900のハードウェア構成の一例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一または類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
なお、説明は以下の順序で行うものとする。
1.本開示に係る実施形態を創作するに至るまでの経緯
2.本開示の実施形態
2.1.本開示の実施形態に係る情報処理システム1の概要
2.2.本開示の実施形態に係るセンサ装置10の構成
2.3.本開示の実施形態に係るサーバ30の構成
2.4.本開示の実施形態に係る変換装置20及び演算装置26の構成
2.5.本開示の実施形態に係るフィードバック装置70の構成
2.6.本開示の実施形態に係る情報処理方法
2.6.1 教師データの作成の詳細
2.6.2 比較データの作成の詳細
2.6.3 比較の詳細
2.7.まとめ
3.習得支援モードについて
4.本開示の実施形態の応用例
5.ハードウェア構成について
6.補足
<<1.本開示に係る実施形態を創作するに至るまでの経緯>>
まず、本開示に係る実施形態を説明する前に、本発明者らが本開示に係る実施形態を創作するに至るまでの経緯について説明する。
先に説明したように、近年、各種のモーションセンサや生体情報センサの小型化、簡易化等が進んだことから、これらセンサによって容易に各種のセンシングデータを取得することが容易となり、例えば、ユーザのパフォーマンス(楽器演奏、スポーツ等)の習得支援に利用されるようになった。このような習得支援においては、複数のセンサから様々なセンシングデータをリアルタイムで同時に取得し、取得したこれら複数のセンシングデータを解析することにより、習得支援に利用することができるデータを得ている。
さらに、このような解析を行う場合、複数のセンサにおいて、それぞれのセンシングデータの取得のタイミングやセンシング時間幅を揃える、すなわち、複数のセンシングデータ間で同期を取ることが求められる。なお、以下の説明において、「同期を取る」とは、複数のセンシングデータの間で、センシングデータの取得のタイミングやセンシング時間の幅を揃えることを意味するものとする。
ところで、生体情報センサからのセンシングデータは、時間の経過に従って変化する波形データ等のようなアナログ形式のセンシングデータであることが一般的である。一方、多くのセンサ、又は、ユーザが使用する電子楽器等の出力は、デジタル形式のセンシングデータ又はデータを出力することが一般的である。そこで、上述のような習得支援においては、これらの複数のセンシングデータを同時に解析するために、解析を行う前に、アナログ形式のセンシングデータをアナログ-デジタル信号変換器等によりデジタル形式のセンシングデータに変換する。従って、ユーザのパフォーマンスの習得支援に有用なデータを取得するためには、上述のような形式が混在する複数のセンシングデータであっても、互いに精度よく同期させることが求められる。
しかしながら、複数のセンシングデータは互いに形式が異なることに起因して上述のような変換を行っていることから、これら複数のセンシングデータを精度よく同期させることは難しい。
そこで、このような状況を鑑みて、本発明者らは、形式が混在するセンシングデータを精度よく同期させて取り扱うことができる、パフォーマンスの習得支援に利用可能な、本開示の実施形態を創作するに至った。以下、このような本開示の実施形態に係る情報処理システム及び情報処理方法を順次詳細に説明する。
なお、以下の説明においては、本開示の実施形態をピアノの演奏法の指導(技能習得)に適用した場合について説明する。しかしながら、本開示の実施形態は、ピアノの演奏法の指導に適用することに限定されるものではなく、他の楽器の演奏法や、スポーツ、伝統工芸の技能習得、運動機能障害のリハビリ等に適用することも可能である。また、本開示の実施形態においては、楽器についても、特にピアノに限定されるものではなく、各種の電子楽器であってもよく、もしくは、各種のアコースティック楽器であってもよい。
また、以下の説明においては、ユーザとは、例えば、ピアノの演奏法等の指導を受ける被指導者、本実施形態に係るデータベースの構築にあたり各種のセンシングデータが収集される演奏者(例えば、プロフェッショナルピアニスト)等の演奏を行う又は行おうとしている演奏者等が含まれ、さらに、本実施形態に係る情報処理システムを利用する指導者等も含まれる。
そして、以下の説明において、ピアノ演奏(パフォーマンス)に対する評価値(評価情報)とは、演奏における演奏者の演奏速度(テンポ、リズム)、演奏の正確性(リズム又は各音の音量の正確性)、演奏によって生じる音の音量(音波形のピーク)、音の響き(音波形の積分値)、音色(スペクトラム)、和音(複数音)における音同士の音量差や時間差(いわゆる、和音における「バランス」)、各音パラメータの最大値と最小値との差分(レンジ)、各音のパラメータの粒度(解像度)、演奏におけるエネルギー効率等を意味するものとする。さらに、以下の説明において、ピアノ演奏の評価値は、上述の複数のパラメータのうちトレードオフ関係にあるパラメータ(例えば、演奏の速度と正確性)が存在することから、このような場合を考慮して、各パラメータ(数値)の比率であってもよい。ところで、例えば、ピアノ演奏の指導においては、一般的に、演奏速度よりも演奏の正確性を優先的に身に着けることを重視して指導が行われる。この理由としては、速い演奏速度を維持しつつ、ミス動作を多い、正確性の低い演奏を繰り返した場合、被指導者の身体及び脳神経等に、ミス動作を覚え込ませてしまうことになるためである。一方で、正確性を身に着けることを過剰に重視して指導を行った場合、被指導者は、力みすぎて、自らの筋を固めて演奏する癖がつき、演奏におけるエネルギー効率の低下を招くこととなる。従って、本実施形態においては、評価値として、上述のようなトレードオフ関係にあるパラメータのバランスを考慮して、各パラメータの比率を用いてもよい。また、本開示の実施形態をピアノ演奏だけでなく他のユーザの動作に適用した場合には、パフォーマンスに対する評価値とは、ユーザが行う運動要素の運動パターン、運動速度、運動正確性、運動量(運動パワー、力積、仕事量等)、パフォーマンスにおけるエネルギー効率、パフォーマンスによって生じる結果の状態等であってもよい。
さらに、以下の説明において、複数のセンシングデータの同期を取るとは、複数のセンシングデータの取得や処理のタイミングを一致させ、複数のセンシングデータの時間幅を一致させることを意味するものとする。
加えて、以下の説明においては、一人の演奏家又は被指導者が1つの課題(例えば、楽曲、フレーズ、スケール、アルペジオ、和音等)を演奏したことを1トライアルと呼ぶ。なお、本開示の実施形態においては、1つのトライアルにおいて、複数のセンシングデータを取得することができる。
<<2.本開示の実施形態>>
<2.1.本開示の実施形態に係る情報処理システム1の概要>
まずは、本開示の実施形態に係る情報処理システム(情報処理装置)1の概要構成について、図1を参照して説明する。図1は、本実施形態に係る情報処理システム1の構成例を説明する説明図である。本実施形態に係る情報処理システム1は、サーバ(情報処理部)30にて、ユーザ(被指導者又は演奏者)が動作することによって行われるパフォーマンスに係る状態をセンシングする複数のセンサ装置(センサ)10から得られた複数のセンシングデータを解析する。さらに、当該情報処理システム1は、上記解析の結果に基づいて、フィードバック装置(情報出力部)70を介して、様々な形態の情報をユーザにフィードバックする。
図1に示すように、本実施形態に係る情報処理システム1は、センサ装置10、サーバ30及びフィードバック装置70を含み、これらは互いにネットワーク90を介して通信可能に接続される。例えば、センサ装置10、サーバ30及びフィードバック装置70は、図示しない基地局等(例えば、携帯電話機の基地局、無線LAN(Local Area Network)のアクセスポイント等)を介してネットワーク90に接続されてもよい。すなわち、ネットワーク90で用いられる通信方式は、有線又は無線を問わず任意の方式を適用することができる。以下に、本実施形態に係る情報処理システム1に含まれる各装置の概要について説明する。
(センサ装置10)
センサ装置10は、演奏者又は被指導者の動作によるパフォーマンスに係る状態をセンシングすることができる。詳細には、センサ装置10は、被指導者又は演奏者の身体の一部に装着可能な各種の生体情報センサ、被指導者又は演奏者を撮像する撮像装置、被指導者又は演奏者が弾くピアノに設けられた圧力センサ又はフォトリフレクタセンサ、もしくは、当該ピアノの音を収音する収音装置(例えば、マイクロフォン)等であることができる。また、センサ装置10は、信号を出力することができる電子ピアノ等の電子楽器自体であってもよい。さらに、本実施形態に係る情報処理システム1に含まれるセンサ装置10は、数やその種類については特に限定されるものではない。なお、センサ装置10の詳細については後述する。
(サーバ30)
サーバ30は、例えば、コンピュータ等により構成される。詳細には、サーバ30は、センサ装置10から演奏者又は被指導者の演奏(パフォーマンス)に係るセンシングデータを収集し、収集したセンシングデータを解析、処理し、解析及び処理の結果に基づいて、被指導者等へフィードバックを行うための情報(フィードバック情報)を出力する。また、サーバ30は、例えば、ユーザが保有するコンピュータであってもよく、もしくは、本実施形態によってサービスを提供する、ユーザとは異なる場所に存在するサービス提供者が保有するコンピュータであってもよい。なお、サーバ30の詳細については後述する。
(フィードバック装置70)
フィードバック装置70は、被指導者等に、サーバ30からのフィードバック情報を提示(出力)するための装置であり、フィードバック情報を被指導者の演奏中又は演奏後等に可視化、力覚化、聴覚化、可聴化して通知(出力)する。例えば、フィードバック装置70は、表示装置(ディスプレイ)や音声出力装置(スピーカ)を含む、タブレット、スマートフォン、ラップトップ型PC(Personal Computer)、ノート型PC等のデバイス等であることができる。さらに、フィードバック装置70は、被指導者の身体の一部に装着可能なウェアラブルデバイスであってもよい。より具体的には、ウェアラブルデバイスとしては、HMD(Head Mounted Display)型、イヤーデバイス(ヘッドフォン)型、アンクレット型、腕輪型、首輪型、アイウェア型、グローブ型、パッド型、バッチ型、衣服型等の各種の方式のウェアラブルデバイスを採用することができる。なお、フィードバック装置70の詳細については後述する。
なお、図1においては、本実施形態に係る情報処理システム1には、1つのセンサ装置10及び1つのフィードバック装置70が含まれるものとして示されているが、本実施形態においてはこれに限定されるものではない。本実施形態においては、例えば、情報処理システム1は、複数のセンサ装置10及び複数のフィードバック装置70を含むことができる。さらに、実施形態に係る情報処理システム1は、例えば、センサ装置10からサーバ30へセンシングデータを送信する際の中継装置のような他の通信装置等を含んでいてもよい。
<2.2.本開示の実施形態に係るセンサ装置10の構成>
次に、本開示の実施形態に係るセンサ装置10の構成について、図2を参照して説明する。図2は、本実施形態に係るセンサ装置10の構成を示すブロック図である。本実施形態に係るセンサ装置10は、図2に示すように、センサ部100と、主制御部140と、通信部160とを主に有する。以下に、センサ装置10の各機能部の詳細について説明する。
(センサ部100)
センサ部100は、例えば、被指導者又は演奏者の身体に装着することにより、演奏(パフォーマンス)中の被指導者又は演奏者の身体の各部分が行う各運動要素の状態を示すセンシングデータを取得することができる。例えば、センサ部100は、加速度センサ、角速度センサ、ジャイロセンサ、地磁気センサ、位置センサ、振動センサ、圧力センサ、曲げセンサ等の1つ又は複数のセンサデバイスにより実現される。上述のようなセンサデバイスは、運動要素によって与えられる加速度や角速度等の変化を検出し、検出された変化を示す複数のセンシングデータを生成する。なお、センサ部100が、アナログ形式のセンシングデータを取得するセンサ(第1のセンサ)である場合には、センシングデータは、後述する変換装置(変換部)20によってデジタル形式のセンシングデータに変換され、サーバ30へ出力されることとなる。しかしながら、本実施形態においては、上述のセンサ部100は、アナログ形式のセンシングデータを取得するセンサであることに限定されるものではなく、デジタル形式のセンシングデータを取得するセンサ(第2のセンサ)であってもよい。
また、センサ部100は、例えば、被指導者又は演奏者の動作(演奏)によって移動するピアノの鍵盤(対象物)の上下動を検出する打鍵検出センサであってもよい。例えば、各鍵盤の下に打鍵検出センサを設置することにより、各鍵盤の上下動を検出することができる。具体的には、センサ部100は、例えば、被指導者又は演奏者の運動要素によってピアノの鍵盤に与えられる圧力を検出する圧力センサや、鍵盤の上下動を光の反射により検出する受発光センサからなるフォトリフレクタセンサであることができる。なお、上述のようなセンサ部100が、アナログ形式のセンシングデータを取得するセンサ(第1のセンサ)である場合には、センシングデータは、変換装置20によってデジタル形式のセンシングデータに変換され、サーバ30へ出力されることとなる。また、本実施形態においては、検出の対象となる対象物は、ピアノの鍵盤に限定されるものではなく、他の楽器(アコースティック楽器又は電子楽器)自体やその一部であってもよい。
また、本実施形態においては、センサ部100は、被指導者又は演奏者を撮像する撮像装置であってもよく、この場合、高速撮影カメラ(撮像装置)によって、演奏者等の動きをキャプチャすることにより、演奏者等の関節の位置や動きを定量的に検出することができる。さらに、本実施形態においては、被指導者又は演奏者の眼球の動き(眼球運動)や瞳孔の大きさ(瞳孔径)を撮像装置によって検出してもよい。なお、上述のようなセンサ部100が、アナログ形式のセンシングデータを取得するセンサ(第1のセンサ)である場合には、これまでの説明と同様に、センシングデータは、変換装置20によってデジタル形式のセンシングデータに変換され、サーバ30へ出力されることとなる。
また、本実施形態においては、センサ部100は、核磁気共鳴を利用して、被指導者又は演奏者の口腔内又は気管内の状態や、唇又は舌の動き等を検出する核磁気共鳴センサであってもよい。具体的には、被指導者等が磁気共鳴画像装置(MRI:Magnetic Resonance Imaging)内で演奏を実行することにより、上述の状態や動き等を検出することができる。特に、本開示の実施形態を各種の吹奏楽器(フルート、オーボエ、クラリネット、トランペット等)の演奏法に適用する場合には、他の方法では検出が難しい唇や舌の動きが検出することができることから、上記MRIは有用となる。なお、上述のようなセンサ部100が、アナログ形式のセンシングデータを取得するセンサ(第1のセンサ)である場合には、これまでの説明と同様に、センシングデータは、変換装置20によってデジタル形式のセンシングデータに変換され、サーバ30へ出力されることとなる。
また、本実施形態においては、センサ部100は、筋電センサ、心拍センサ、脈拍センサ、血流センサ、呼吸センサ、脳波センサ、皮膚温度センサ、皮膚導電率(皮膚抵抗)センサ、発汗センサ等の生体情報センサであってもよい。ここで、筋電センサとは、筋肉を構成する筋線維から発生する微弱な電場を検知するセンサである。詳細には、筋電センサは、演奏者又は被指導者の腕等に装着された複数の電極によって、腕等の筋が収縮する際に筋線維において発生し、身体表面に伝播する電気信号による筋電位を測定することにより、筋の筋活動量を定量的に検出することができる。また、心拍センサは、心臓における拍動である心拍を検出センサであり、脈拍センサは、心臓における拍動(心拍)により、動脈を通じ全身に血液が送られることにより、動脈内壁に圧力の変化が生じ、体表面等に現れる動脈の拍動である脈拍を検出するセンサである。血流センサは、身体に赤外線を放射し、その赤外光の反射により血流量を検出するセンサである。さらに、呼吸センサは、呼吸量の変化を検出する呼吸流量計であることができる。脳波センサは、頭皮に複数の電極を装着し、測定した電極間の電位差の変動から雑音を除去することにより周期性のある波を抽出することにより脳波を検出するセンサである。皮膚温度センサは、演奏者又は被指導者の体温を検出するセンサであり、皮膚導電率センサは、演奏者又は被指導者の皮膚電気抵抗を検出するセンサである。また、発汗センサは、演奏者又は被指導者の発汗を検出するセンサである。なお、上述のようなセンサ部100が、アナログ形式のセンシングデータを取得するセンサ(第1のセンサ)である場合には、これまでの説明と同様に、センシングデータは、変換装置20によってデジタル形式のセンシングデータに変換され、サーバ30へ出力されることとなる。
また、センサ部100は、被指導者又は演奏者によって演奏されるピアノからの音を収音する収音装置であってもよい。例えば、センサ部100は、ピアノの近傍に設けられたマイクロフォンであってもよい。なお、上述のようなセンサ部100が、アナログ形式のセンシングデータを取得するセンサ(第1のセンサ)である場合には、これまでの説明と同様に、センシングデータは、変換装置20によってデジタル形式のセンシングデータに変換され、サーバ30へ出力されることとなる。
さらに、センサ部100からのセンシングデータは、被指導者又は演奏者によって演奏される、すなわち、パフォーマンスで使用される電子楽器からの出力(音のデータ)であってもよい。言い換えると、本実施形態においては、センサ部100は、電子楽器であってもよい。この場合、センサ部100からのセンシングデータは、例えば、MIDI(MusicalInstrument Digital Interface)規格に準じた、デジタル形式のデータとなる。
さらに、センサ部100は、被指導者又は演奏者の位置情報を取得するGPS(Global Positioning System)受信機等の位置情報センサを含んでいてもよい。また、センサ部100は、被指導者又は演奏者が演奏する環境の状態を示す環境情報を取得するために、気圧センサ、温度センサ、及び、湿度センサ等の他の各種センサを含んでいてもよい。
また、本実施形態においては、センサ部100は、既に各楽器メーカが出荷した楽器(アコースティック楽器又は電子楽器)に既に設けられている各種のセンサであってもよい。
(主制御部140)
主制御部140は、センサ装置10内に設けられ、センサ装置10の各ブロックを制御することができる。当該主制御部140は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等のハードウェアにより実現される。また、当該主制御部140は、データ取得部142、処理部144、及び出力制御部152として機能することができる。以下に、本実施形態に係る主制御部140のこれら機能部の詳細について説明する。
-データ取得部142-
データ取得部142は、センサ部100を制御して、センサ部100から出力されたセンシングデータを取得し、取得したセンシングデータを後述する処理部144へ出力する。
-処理部144-
処理部144は、上述したデータ取得部142から出力されたセンシングデータを、ネットワーク90を介して送信可能な所定の形式に変換し、後述する出力制御部152に出力する。
-出力制御部152-
出力制御部152は、上述した処理部144から出力された所定の形式のセンシングデータを、後述する通信部160を制御してサーバ30へ送信する。
(通信部160)
通信部160は、センサ装置10内に設けられ、サーバ30等の外部装置との間で情報の送受信を行うことができる。言い換えると、通信部160は、データの送受信を行う機能を有する通信インタフェースと言える。なお、通信部160は、通信アンテナ、送受信回路やポート等の通信デバイスにより実現される。
なお、センサ装置10は、HMD型、イヤーデバイス型、アンクレット型、腕輪型、首輪型、アイウェア型、パッド型、バッチ型、ベルト型、衣服型等の各種の方式のウェアラブルデバイスであってもよい。具体的には、これらウェアラブルデバイスは、様々なセンシングデータを取得するために、被指導者又は演奏者の手指、腕部、脚部、胴部、頭部、足先等にモーションキャプチャとして設けられることができる。また、センサ装置10は、撮像装置、収音装置等の被指導者又は演奏者の周囲に設置される装置であってもよく、被指導者又は演奏者が使用する楽器自体であってもよく、特に限定されるものではない。さらに、本実施形態においては、センサ装置10は、図2に示されるような形態に限定されるものではない。
<2.3.本開示の実施形態に係るサーバ30の構成>
次に、本開示の実施形態に係るサーバ30の構成について、図3を参照して説明する。図3は、本実施形態に係るサーバ30の構成を示すブロック図である。先に説明したように、サーバ30は、例えば、コンピュータ等により構成される。図3に示すように、サーバ30は、入力部300と、出力部310と、主制御部340と、通信部360と、記憶部370とを主に有する。以下に、サーバ30の各機能部の詳細について説明する。
(入力部300)
入力部300は、サーバ30へのデータ、コマンドの入力を受け付ける。より具体的には、当該入力部300は、タッチパネル、キーボード等により実現され、被指導者又は演奏者の属性情報や後述する演奏に対する主観評価等の入力を受けつけることができる。
(出力部310)
出力部310は、例えば、ディスプレイ、スピーカ、映像出力端子、音声出力端子等により構成され、画像又は音声等により各種の情報を出力する。
(主制御部340)
主制御部340は、サーバ30内に設けられ、サーバ30の各ブロックを制御することができる。当該主制御部340は、例えば、CPU、ROM、RAM等のハードウェアにより実現される。また、当該主制御部340は、データ取得部342、解析部(情報処理部)346及び出力制御部(情報出力部)352として機能することもできる。以下に、本実施形態に係る主制御部340のこれら機能部の詳細について説明する。
-データ取得部342-
データ取得部342は、上述したセンサ装置10から送信されたセンシングデータを取得し、取得したセンシングデータを後述する処理部344へ出力する。
-処理部344-
処理部344は、上述したデータ取得部342から出力されたセンシングデータを解析、処理する。そして、出力制御部352は、解析及び処理の結果に基づいて、ユーザへフィードバックするフィードバック情報を生成することとなる。さらに、処理部344は、フィードバック情報を生成するための各種の情報からなるデータベース(DB)372(図10参照)を構築することもできる。詳細には、処理部344は、上述したこれら機能を実現するために、図3に示すように、解析部346、学習部348、比較部350として機能する。以下に、本実施形態に係る処理部344のこれら機能部の詳細について説明する。
解析部346は、1つのトライアルで取得できた複数のセンシングデータに対して解析等を行い、被指導者又は演奏者の演奏(パフォーマンス)の状態を特徴づける特徴量を抽出する。特徴量は、解析部346によって各センシングデータを統計的に処理することにより、各センシングデータの最大値、最小値、平均値、積分値、周期、変化量として抽出することができる。より具体的には、特徴量は、筋活動のピークや関節角度が最大になったタイミング等であることができる。このように抽出された特徴量は、上記トライアルで取得した複数のセンシングデータに紐づけられて、DB372として後述する記憶部370に格納される。また、解析部346は、抽出した特徴量を後述する学習部348や比較部350等に出力してもよい。
さらに、解析部346は、1つのトライアルで取得できた複数のセンシングデータ(詳細には、例えば、演奏に係る音声データ)に対して解析等を行い、被指導者又は演奏者の演奏(パフォーマンス)に対する評価値を抽出してもよい。上記評価値は、例えば、ピアノ演奏に対する評価値であって、演奏における演奏者の演奏速度、演奏の正確性、演奏によって生じる音の音量、音の響き、音色、和音における音同士の音量差や時間差、各音パラメータの最大値と最小値との差分、各音のパラメータの粒度等であることができる。このように抽出された評価値は、上記トライアルで取得した複数のセンシングデータに紐づけられて、DB372として後述する記憶部370に格納される。また、解析部346は、抽出した評価値を後述する学習部348や比較部350等に出力してもよい。
学習部348は、センシングデータ、特徴量、評価値における互いの関係性に関する情報を、これらに対して多変量解析を行うことで取得する。詳細には、学習部348は、サポートベクターレグレッションやディープニューラルネットワーク等の教師付き学習器であり、例えば、センシングデータと評価値との関係性を重回帰分析等の多変量解析を行うことにより、機械学習することができる。そして、学習部348が機械学習で得た関係性の情報(関係情報)は、DB372として後述する記憶部370に格納されることができ、後述する比較部350によって行われる教師データの選択に利用することができる。
比較部350は、DB372から被指導者の手本となるセンシングデータを1つ又は複数選択し、新たに取得された被指導者の複数のセンシングデータのうち、選択されたセンシングデータ(教師データ)と同一項目のセンシングデータ(比較データ)と比較する。詳細には、比較部350は、例えば、教師データと比較データとの差分(ズレ)を算出したり、これらの整合度を算出したりしてもよい。また、比較部350は、教師データと比較データとを重畳することにより、比較を行ってもよい。
具体的には、比較部350は、例えば、DB372から正確な演奏を目指す被指導者のお手本となる代表的なセンシングデータを教師データとして選択し、選択した教師データと同一項目の被指導者のセンシングデータと比較する。この際、比較部350は、お手本となる代表的なセンシングデータが複数存在する場合には、各センシングデータと、当該センシングデータと同一項目の被指導者のセンシングデータとの差分を算出する。そして、比較部350は、差分が大きなセンシングデータを、被指導者の演奏がより正確になるために修正する必要性が高い要素に係るセンシングデータであるとして選択する。本実施形態においては、このように選択を行うことで、最も被指導者が習得できていない技術的要素にフォーカスすることができることから、正確な演奏を効率的に取得するために有用なフィードバック情報を生成することが可能となる。
もしくは、比較部350は、上述の学習部348で得た関係性の情報に基づいて、演奏の正確性(評価値)と関係性が高いと推定されるセンシングデータを教師データとして選択してもよい。本実施形態においては、このように選択を行うことで、正確な演奏を効率的に取得することが可能な技術的要素にフォーカスすることができることから、正確な演奏を効率的に習得するために有用なフィードバック情報を生成することが可能となる。
また、本実施形態においては、比較部350は、被指導者の属性情報(性別、年齢、体格、筋力、柔軟性、俊敏性等)等に基づいて、当該属性情報と同一、又は、類似する属性情報を持つ演奏家に係るセンシングデータを教師データとして選択してもよい。本実施形態においては、このような選択を行うことにより、被指導者の属性等に応じたテーラーメイドのフィードバックを行うことができることから、被指導者は効率的に習得を行うことができる。さらに、比較部350は、被演奏者の演奏の状態の過去と現在とを比較する場合には、被演奏者の過去のセンシングデータを選択してもよい。
また、本実施形態においては、比較部350は、センシングデータを比較することに限定されるものではなく、上述の解析部346によって抽出された特徴量を比較してもよい。このような場合であっても、お手本となる代表的な特徴量が複数存在する場合には、比較部350は、上述のような選択を行うことができる。
-出力制御部352-
出力制御部352は、比較部350による比較結果に基づき、フィードバック情報を生成し、後述する通信部360を制御して、フィードバック装置70に送信する。送信されやフィードバック情報は、フィードバック装置70を介して、ユーザに出力される。また、出力制御部352は、教師データと比較データとの差分(ズレ)を空間的に又は時間的に拡大又は縮小することで、差分を強調又は減弱する処理を行い、フィードバック情報を生成してもよい。具体的には、本実施形態においては、教師データとの差分が大きな技能レベルの被指導者には、習得のモチベーションを低下させることを避けるために、差分を減弱してフィードバックする。一方、本実施形態においては、教師データとの差分が小さな技能レベルの被指導者には、より高い技能レベルまで導くために、小さな差分を強調して、被指導者が容易に認識できるようにして、フィードバックする。すなわち、本実施形態においては、上述のような処理を行うことにより、被指導者のモチベーションの低下を避けつつ、教師データとの差分を容易に認識させることができることから、効率的なパフォーマンスの習得支援を実現することができる。
また、出力制御部352は、ユーザの状況等に基づき、フィードバック情報に好適な感覚モダリティ(視覚、聴覚、触覚等)を選択し、選択した感覚モダリティに応じたフィードバック装置70へフィードバック情報を送信してもよい。本実施形態においては、ユーザの状況等に応じた感覚モダリティでフィードバック情報をユーザに提供することができることから、効率的なパフォーマンスの習得支援を実現することができる。
(通信部360)
通信部360は、サーバ30内に設けられ、センサ装置10やフィードバック装置70等の外部装置との間で情報の送受信を行うことができる。なお、通信部360は、通信アンテナ、送受信回路やポート等の通信デバイスにより実現される。
(記憶部370)
記憶部370は、サーバ30内に設けられ、上述した主制御部340が各種処理を実行するためのプログラム、情報等を格納する。さらに、記憶部370は、各種の属性情報等(メタファイル)に紐づけられた複数のセンシングデータからなるDB372を格納する。なお、記憶部370は、例えば、ハードディスク(Hard Disk:HD)などの磁気記録媒体や、フラッシュメモリ(flash memory)などの不揮発性メモリ(nonvolatile memory)等により実現される。
なお、上記メタファイル(属性情報)は、被指導者又は演奏者に関する属性情報(名前、性別、年齢、身長、体重、体格、筋力、掌の大きさ、柔軟性、俊敏性、ピアノ演奏の経験年数、技能レベル、出身国、指導者名等)、演奏(パフォーマンス)に関する属性情報(演奏日時、楽曲名、曲のカテゴリ、作曲家名、作曲年代、作曲家カテゴリ、テンポ、音量、単音か復音かの情報、演奏家又は被指導者に与えた教示内容、演奏楽器、演奏場所等)、演奏を特徴づける特徴量、演奏に対する評価値(評価情報)、センシングに関する属性情報(センサ種類、サンプリング周波数、チャネル数等)、演奏に対する感性評価情報(演奏者が表現しようとしたイメージ、音色、響きの情報等)等を含むことができる。さらに、上記メタファイルは、トライアルの属性情報(コンクール名、コンクールの段階、観客動員数、ファン数、観客の評価情報、閲覧数等)を含むことができる。すなわち、当該メタファイルは、1つのトライアルにおいて取得される複数のセンシングデータ(センシングデータ群)のラベルとして機能し、例えば、当該センシングデータ群は、ある演奏家がこういう風に表現しようとしてある曲を演奏した際にセンシングされた情報であることを示すことができる。
また、本実施形態においては、サーバ30は、図3に示されるような形態に限定されるものではなく、他の機能ブロック等を含んでいてもよい。
<2.4.本開示の実施形態に係る変換装置20及び演算装置26の構成>
ところで、先に説明したように、本実施形態に係る情報処理システム1に含まれるセンサ装置10によって得られるセンシングデータは、アナログ形式のセンシングデータと、デジタル形式のセンシングデータとが混在する。そして、被指導者のパフォーマンスの習得支援に有用なデータを取得するためには、上述のような形式が混在する複数のセンシングデータであっても、互いに精度よく同期させることが求められる。
そこで、本実施形態においては、センサ装置10とサーバ30との間に、図4に示すような変換装置(変換部)20及び演算装置26が設けられることが好ましい。そこで、以下に、図4を参照して、本実施形態に係る変換装置20及び演算装置26を説明する。図4は、本実施形態に係る変換装置20及び演算装置26の構成を示すブロック図である。詳細には、本実施形態に係る情報処理システム1は、センサ装置10とサーバ30との間に、図4に示すような変換装置20及び演算装置26を含む。以下に、これら変換装置20及び演算装置26の詳細を説明する。
(変換装置20)
図4に示すように、変換装置20は、複数のセンサ装置10から得られた異なる形式の複数のセンシングデータを変換する装置であり、デジタル-アナログ信号変換部200と、アナログ-デジタル信号変換部210とを主に有する。以下に、変換装置20のデジタル-アナログ信号変換部200及びアナログ-デジタル信号変換部210の詳細を説明する。
-デジタル-アナログ信号変換部200-
デジタル-アナログ信号変換部200は、複数のセンサ装置10のうちデジタル形式のセンシングデータを出力するセンサ装置(第2のセンサ)10bから、後述する演算装置26を介して受信したセンシングデータを、アナログ形式のセンシングデータに変換する。さらに、デジタル-アナログ信号変換部200は、変換したアナログ形式のセンシングデータを、後述するアナログ-デジタル信号変換部210へ出力する。
詳細には、デジタル-アナログ信号変換部200は、マイコンボード等からなる複数のデジタル-アナログ変換器(D/Aコンバータ)202を有する。例えば、1つのセンサ装置10bで取得された1つのセンシングデータは、後述する演算装置26において複数のチャネルごとのセンシングデータとして抽出される。そして、抽出された各チャネルのセンシングデータが、それぞれ上記D/Aコンバータ202に入力されることとなる。具体的には、センサ装置10bが、MIDI規格に準じた、デジタル形式のセンシングデータであるMIDI信号を出力する電子ピアノである場合には、MIDI信号の各パケットには、打鍵・離鍵等のイベントの情報(ステータス)、発生した音の高さの情報(ノート)、音の大きさの情報(ベロシティ)が含まれている。そこで、本実施形態においては、演算装置26において、MIDI信号を上述のようなステータス、ノート、ベロシティのチャネルごとのセンシングデータとして抽出し、抽出したセンシングデータは、上記D/Aコンバータ202に入力される。さらに、抽出したセンシングデータは、上記D/Aコンバータ202によってアナログ形式のセンシングデータに変換され、後述するアナログ-デジタル信号変換部210に入力される。実施形態においては、このようにデジタル形式のセンシングデータをアナログ形式のセンシングデータに変換することにより、当該センシングデータを、最初からアナログ形式でセンサ装置10aから出力されるセンシングデータとともに同時に取り扱うことができる。
また、デジタル-アナログ信号変換部200でアナログ形式に変換されたセンシングデータの一部は、例えば、特定の鍵盤をある強さ以上で叩いた瞬間等のイベントの発生のタイミングの情報を含む(イベント)。そこで、このようなイベントのセンシングデータは、デジタル-アナログ信号変換部200でアナログ形式に変換され、トリガ信号として他のセンサ装置10(例えば、アナログ形式のセンシングデータを取得するセンサ装置(第1のセンサ)10a)に入力されてもよい。当該トリガ信号は、センサ装置10aにおいて、センシングデータの取得を開始する(駆動する)ために利用されることができる。
-アナログ-デジタル信号変換部210-
アナログ-デジタル信号変換部210は、複数のセンサ装置10のうちアナログ形式のセンシングデータを出力するセンサ装置(第1のセンサ)10aからのセンシングデータを、デジタル形式のセンシングデータに変換する。さらに、アナログ-デジタル信号変換部210は、上述のデジタル-アナログ信号変換部200からの変換されたアナログ形式のセンシングデータを、デジタル形式のセンシングデータに変換する。そして、アナログ-デジタル信号変換部210は、変換したセンシングデータを上述したサーバ30へ出力する。詳細には、アナログ-デジタル信号変換部210は、マイコンボード等からなる複数のアナログ-デジタル変換器(A/Dコンバータ)212を有し、各A/Dコンバータ212は、アナログ形式の各センシングデータをデジタル形式に変換して、サーバ30へ出力することができる。
そして、アナログ-デジタル信号変換部210は、複数のセンシングデータを同期させるために、マイコンボードに搭載されたクロック(第1の時計機構)214を有する。クロック214は、トリガ信号を各A/Dコンバータ212もしくは各センサ装置10aに同時に出力し、当該トリガ信号によって各センシングデータの取得を開始させることにより、センシングデータの取得のタイミングを一致させることができる。すなわち、本実施形態においては、クロック214により、複数のセンサ装置10aからのセンシングデータを互いに精度よく同期させることができる。なお、クロック214は、時刻情報をサーバ30へ出力してもよい。
(演算装置26)
演算装置26は、デジタル形式のセンシングデータを取得するセンサ装置10bからのセンシングデータを取得し、取得したセンシングデータを各チャネル(例えば、ステータス、ノート、ベロシティ)のセンシングデータとして抽出する。さらに、演算装置26は、複数のチャネルごとに抽出したセンシングデータを上述の変換装置20へ出力する。詳細には、演算装置26は、図4に示すように、受信部260と、演算部270とを主に有する。以下に、演算装置26の受信部260及び演算部270の詳細を説明する。
-受信部260-
受信部260は、デジタル形式のセンシングデータを取得するセンサ装置10bからのセンシングデータを受信し、後述する演算部270へ出力する。
-演算部270-
演算部270は、上述の受信部260から取得したセンシングデータを各チャネルのセンシングデータとして抽出する。例えば、演算部270は、先に説明したように、デジタル形式のセンシングデータであるMIDI信号の各パケットに含まれるステータス、ノート、ベロシティを、各チャネルのセンシングデータとして抽出する。さらに、演算部270は、抽出した各チャネルのセンシングデータを上述した変換装置20へ出力する。
そして、演算部270は、複数のセンシングデータを同期させるために、マイコンボードに搭載されたクロック(第2の時計機構)272を有していてもよい。クロック272は、センシングデータに時刻情報を紐づけることができる。本実施形態においては、クロック272により、センサ装置10bからの複数のチャネルのセンシングデータは、同一の時刻情報が紐づけられることから、互いに時刻を一致させる、すなわち、同期させることができる。なお、クロック272は、時刻情報をサーバ30へ出力してもよい。
さらに、サーバ30においては、クロック214及びクロック272からの時刻情報に基づいて、変換装置20からの複数のセンシングデータの同期を取ることができる。詳細には、デジタル形式のセンシングデータを取得するセンサ装置10bからのセンシングデータは、事前にアナログ形式のセンシングデータに変換された後に、次いでデジタル形式のセンシングデータに変換される。一方、アナログ形式のセンシングデータを取得するセンサ装置10aからのセンシングデータは、事前にアナログ形式のセンシングデータに変換されることなく、デジタル形式のセンシングデータに変換される。従って、センサ装置10bからのセンシングデータと、センサ装置10aからのセンシングデータとの間には、サーバ30へ到達する時点で微小な時間差が生じることとなる。そこで、本実施形態においては、センサ装置10bからのセンシングデータと、センサ装置10aからのセンシングデータとを精度よく同期させるために、サーバ30において、上記時刻情報から得られるクロック214とクロック272との時間差に基づいてこれらセンシングデータに対して時間的なシフト処理を行う。従って、本実施形態によれば、形式が混在する複数のセンシングデータにおける時間軸を一致させ、これらセンシングデータを精度よく同期させて取り扱うことができる。
なお、クロック272は、演算装置26内に設けられていなくてもよく、センサ装置10bや、デジタル-アナログ信号変換部200内の演算装置26側、すなわち、センサ装置10b側に設けられていてもよい。
なお、本実施形態においては、変換装置20及び演算装置26は、図4にしめされるような形態に限定されるものではない。例えば、変換装置20及び演算装置26の両者又は一方が、上述のサーバ30内に設けられていてもよい。もしくは、変換装置20がセンサ装置10a内に設けられていてもよく、演算装置26がセンサ装置10b内に設けられていてもよく、特に限定されるものではない。しかしながら、センサ装置10a、10b内に、変換装置20及び演算装置26のいずれか一方が設けられることは、演奏家又は被指導者の身体に装着される、もしくは、演奏家又は被指導者の動作によって運動する対象物に装着されるセンサ装置10の重量が重くなることを意味する。そして、当該重さにより、演奏家又は被指導者のパフォーマンスに影響を与えることが予想される。また、このような場合、センサ装置10a、10bのセンシングデータにノイズが含まれやすくなることも予想される。従って、パフォーマンスへの影響やノイズを避けるために、変換装置20及び演算装置26は、センサ装置10a、10b内以外に設けられることが好ましい。
以上のように、本実施形態に係る情報処理システム1は、上述したような変換装置20を有することにより、アナログ形式のセンシングデータとデジタル形式のセンシングデータとが混在する場合であっても、これらセンシングデータを互いに精度よく同期させることが可能となる。その結果、上記情報処理システム1は、精度よく同期した、様々な情報を含む複数のセンシングデータを同時に解析することができることから、被指導者のパフォーマンスの習得支援に有用なデータを取得することが可能となる。
<2.5.本開示の実施形態に係るフィードバック装置70の構成>
次に、本開示の実施形態に係るフィードバック装置70の構成について、図5を参照して説明する。図5は、本実施形態に係るフィードバック装置70の構成を示すブロック図である。先に説明したように、フィードバック装置70は、タブレット、ラップトップ型PC、ノート型PC、ウェアラブルデバイス等のデバイスであることができる。さらに、図5に示すように、フィードバック装置70は、力覚機構710と、表示部714と、音声出力部716と、主制御部740と、通信部760と、記憶部770とを主に有する。以下に、フィードバック装置70の各機能部の詳細について説明する。
(力覚機構710)
力覚機構710は、サーバ30から送信されたフィードバック情報に基づいて、被指導者の身体の一部(例えば、関節等)に力を印加する等の力覚(触覚)を伝える装置である。例えば、力覚機構は、被指導者の手に装着されたグローブ型ウェアラブルデバイス(ウェアラブル装置)であることができる。また、本実施形態においては、力覚機構710は、上述のようなグローブ型ウェアラブルデバイスに限定されるものではなく、例えば、被指導者の身体の一部に振動を与える振動装置や、筋肉に刺激を与える電気筋肉刺激を利用した刺激装置であってもよい。すなわち、本実施形態においては、力覚機構710は、被指導者の身体の一部に触覚刺激を与えることにより、フィードバック情報を被指導者に体感的にフィードバック(バイオフィードバック)することができるものであればよい。
(表示部714)
表示部714は、ユーザにフィードバック情報を表示するためのデバイスであり、例えば、ユーザに向けて、画像又は光によりフィードバック情報を出力する。例えば、表示部714は、ディスプレイ、発光素子(図示省略)等により実現される。さらに、表示部714は、映像出力端子等により実現されてもよい。
また、表示部714は、フィードバック情報610に基づくオブジェクトを拡張現実(AR)として、実空間に重畳して表示することができる投影装置であってもよい。このような投影装置は、例えば、被指導者の眼前に装着されるスマートグラス型ウェアラブルデバイスであることができる。当該スマートグラス型ウェアラブルデバイスには、透過型ディスプレイが設けられており、当該透過型ディスプレイは、例えば、ハーフミラーや透明な導光板を用いて、透明な導光部等からなる虚像光学系を被指導者の眼前に保持し、当該虚像光学系の内側に上記オブジェクトを表示させる。また、上記投影装置は、被指導者の頭部に装着されるHMDであってもよい。
(音声出力部716)
音声出力部716は、ユーザにフィードバック情報を音声出力するためのデバイスであり、例えば、被指導者に耳に装着されたヘッドフォンスピーカや、被指導者の近傍に設けられたスピーカ(図示省略)であってもよい。さらに、音声出力部716は、音声出力端子等により実現されてもよい。
このように、本実施形態においては、フィードバック情報等やユーザの状況等に応じて、上述した力覚機構710、表示部714及び音声出力部716のいずれかの好適な感覚モダリティに対応する手段を選択し、被指導者等にフィードバックを行うことができる。また、本実施形態においては、同時に力覚機構710、表示部714及び音声出力部716によって複数の感覚モダリティによるフィードバックを行ってもよく、特に限定されるものではない。
(主制御部740)
主制御部740は、フィードバック装置70内に設けられ、フィードバック装置70の各ブロックを制御することができる。当該主制御部740は、例えば、CPU、ROM、RAM等のハードウェアにより実現される。
(通信部760)
通信部760は、サーバ30等の外部装置との間で情報の送受信を行うことができる。なお、通信部760は、通信アンテナ、送受信回路やポート等の通信デバイスにより実現される。
(記憶部770)
記憶部770は、フィードバック装置70内に設けられ、上述した主制御部740が各種処理を実行するためのプログラム等や、処理によって得た情報を格納する。なお、記憶部770は、例えば、HDなどの磁気記録媒体や、フラッシュメモリなどの不揮発性メモリ等により実現される。
また、フィードバック装置70は、図示しない入力部を有していてもよい。当該入力部は、フィードバック装置70へのデータ、コマンドの入力を受け付ける機能を有する。より具体的には、当該入力部は、タッチパネル、ボタン、スイッチ、キー、キーボード、マイクロフォン、画像センサ等により実現される。
また、本実施形態においては、センサ装置10のセンサ部100の機能と、フィードバック装置70の力覚機構710等を一体化して、1つのウェアラブルデバイスとしてもよい。なお、本実施形態においては、フィードバック装置70は、図5に示されるような形態に限定されるものではなく、例えば、他の機能部を有していてもよい。
<2.6.本開示の実施形態に係る情報処理方法>
以上、本実施形態に係る情報処理システム1、及び当該情報処理システム1に含まれる、各装置の構成について詳細に説明した。次に、本実施形態に係る情報処理方法について、図6を参照して説明する。図6は、本実施形態に係る情報処理方法の一例を説明するフローチャートである。
図6に示すように、本実施形態に係る情報処理方法には、ステップS100からステップS500までの複数のステップが含まれている。以下に、本実施形態に係る情報処理方法に含まれる各ステップの詳細を説明する。
(ステップS100)
まず、センサ装置10は、被指導者又は演奏者の演奏前に、当該被指導者等の身体の一部に予め装着される、もしくは、被指導者等の周囲に設置される。そして、被指導者等が、トライアルとして、所定の演奏(楽曲、フレーズ、スケール、アルペジオ、和音等)を開始すると、センサ装置10のセンサ部100は、演奏中の被指導者等の演奏(動作)に伴って発生する身体又は楽器等の各運動や、楽器が発生させる音等をセンシングし、複数のセンシングデータを取得する。さらに、センサ装置10は、取得したセンシングデータをサーバ30へ出力する。
この際、センサ装置10で取得しタセンシングデータは、上述の変換装置20によって変換された後に、サーバ30に入力されることとなる。従って、本実施形態に係る情報処理システム1は、先に説明したように、アナログ形式のセンシングデータとデジタル形式のセンシングデータとが混在する場合であっても、変換装置20によって、これらセンシングデータを互いに精度よく同期させることが可能となる。その結果、サーバ30は、この後に実行されるステップにおいて、精度よく同期した、様々な情報を含む複数のセンシングデータを同時に解析することができることから、被指導者のパフォーマンスの習得支援に有用なデータを取得することが可能となる。
なお、本実施形態においては、DB372を構築するための情報を取得するために、多数の演奏者(例えば、100人程度の演奏者)に所定の演奏(楽曲、フレーズ、スケール、アルペジオ、和音等)を行わせ、多数のセンシングデータを収集することが好ましい。また、その際に、サーバ30は、各演奏者の属性情報(性別、年齢、身長、体重、体格、筋力、掌の大きさ、柔軟性、俊敏性、ピアノ演奏の経験年数、技能レベル等)や演奏(パフォーマンス)に関する属性情報(日時、楽曲名、作曲家名、演奏楽器、演奏場所等)を取得してもよい。
(ステップS200)
サーバ30は、ステップS100で取得した演奏家のセンシングデータに基づいて、教師データを生成する。生成した教師データは、DB372として格納される(アーカイブ化)。なお、当該ステップS200の詳細については、後述する。
(ステップS300)
サーバ30は、ステップS100で取得した被指導者のセンシングデータに基づいて、比較データを生成する。生成した比較データは、DB372として格納されてもよい。なお、当該ステップS300の詳細については、後述する。
(ステップS400)
サーバ30は、DB372から教師データを選択し、選択した教師データを、上述のステップS300で生成された比較データと比較する。そして、サーバ30は、比較結果に基づいて、被指導者にフィードバックするためのフィードバック情報を生成する。なお、当該ステップS400の詳細については、後述する。
(ステップS500)
フィードバック装置70は、上述のステップS400で生成されたフィードバック情報に基づき、被指導者に向けてフィードバックを行う。
以下に、図6に示されるステップS200、ステップS300及びステップS400の詳細について、説明する。
(2.6.1 教師データの作成の詳細)
まずは、上述の図6のステップS200である、教師データの作成の詳細を、図7から図13を参照して説明する。図7は、本実施形態に係る教師データの作成のフローチャートである。図8及び図9は、特徴量506の抽出の一例を説明するための説明図である。また、図10及び図11は、データベース372の構築の一例を説明するための説明図であり、図12及び図13は、教師データの作成の一例を説明するための説明図である。
図7に示すように、教師データの作成は、ステップS201からステップS213までの複数のステップが含まれている。以下に、これら複数のステップの詳細を説明する。
(ステップS201)
サーバ30は、1トライアルにおけるセンシングの開始から終了までに、各センサ装置10が取得した複数のセンシングデータ(センシングデータ群)を1つのテキストファイルとして取得する。当該テキストファイルにはメタファイルが紐づけられており、当該メタファイルは、先に説明したように、演奏者に関する属性情報、演奏に関する属性情報等を含むことができる。さらに、上記メタファイルは、トライアルの属性情報(コンクール名、コンクールの段階、観客動員数、ファン数、観客の評価情報、閲覧数等)を含むこともできる。本実施形態においては、このようにセンシングデータ群にメタファイルを紐づけることにより、メタファイルに含まれる各種の情報を参照して、センシングデータ群を管理したり、教師データを選択したりすることを好適に、且つ、容易に行うことができる。
なお、メタファイルに含まれる上述の情報は、ユーザがサーバ30に入力してもよく、もしくは、センシングデータから解析可能であれば、センシングデータを解析し、情報を自動抽出して生成してもよい。例えば、センシングデータに含まれる音の情報を解析することにより、演奏曲を自動抽出してもよく、周囲に存在する観客数を推定してもよく、もしくは、センシングデータに含まれる位置情報を解析して、演奏した場所を自動抽出してもよい。
(ステップS203)
サーバ30は、ステップS201で取得した各センシングデータに含まれるノイズ等を、フィルタリングや統計処理(異常値検出)を行うことにより除去を行う(前処理)。
(ステップS205)
サーバ30は、1つのトライアルで取得され、上述のステップS203で前処理された複数のセンシングデータに対して解析等を行い、演奏の状態を特徴づける特徴量を抽出する。このように抽出された特徴量は、後述するステップS209においてメタファイルに書き込まれることとなる。詳細には、図8に示すように、サーバ30の解析部346により、センシングデータ500が解析されて、特徴量506が抽出される。例えば、特徴量506は、解析部346によってセンシングデータ500を統計的に処理することにより、センシングデータ500の最大値、最小値、平均値、積分値、周期、変化量として抽出することができる。より具体的には、特徴量506として、例えば、図9に示される鍵盤の移動量の時系列データであるセンシングデータ500上において、白丸、白三角、白四角のマーカによって示されるような、鍵盤が最も上方に位置した際のタイミングや、打鍵の上昇速度が最大になったタイミングや、打鍵の下降速度が最大になったタイミングが、抽出される。
サーバ30の解析部346は、図8に示すように、1つのトライアルで取得され、上述のステップS203で前処理された複数のセンシングデータ(例えば、演奏に係る音声データ)500に対して解析等を行い、演奏に対する評価値506aを抽出してもよい。上記評価値506aは、先に説明したように、例えば、演奏における演奏者の演奏速度、演奏の正確性、演奏によって生じる音の音量、音の響き、音色、和音における音同士の音量差や時間差、各音パラメータの最大値と最小値との差分、各音のパラメータの粒度等であることができる。このように抽出された評価値506aは、特徴量506と同様に、後述するステップS209においてメタファイルに書き込まれることとなる。
(ステップS207)
さらに、サーバ30は、上述の特徴量506や評価値506aによって直接評価できない演奏(パフォーマンス)に対する感性の評価である感性評価の情報を取得する。例えば、サーバ30は、トライアルの終了後に、演奏家に、自身の演奏に対する感性(輝きのある、流れるような、重厚な、つつみこむような、軽やかな、柔らかい、硬い等)を入力してもらうことで、感性評価を取得する。取得した感性評価は、特徴量506と同様に、後述するステップS209においてメタファイルに書き込まれることとなる。なお、感性評価の情報は、演奏家に直接入力してもらうことによって取得することに限定されるものではなく、演奏中の演奏家のつぶやき等を音声解析することにより、自動的に取得してもよい。本実施形態においては、このように音声解析によって自動的に取得することにより、演奏家の手を煩わせることなく、感性評価の情報を取得することができる。
また、本実施形態においては、感性評価の情報は、他の方法によっても取得してもよい。例えば、予め多数の人々(例えば、プロフェッショナルピアニスト等の専門家や、専門家以外の一般の人)に、様々な音楽(例えば、演奏家の演奏や、一般の人の演奏等、特に限定されない)を聴いてもらい、各音楽に対して感性評価を行ってもらう。次に、サーバ30は、学習部348に対して、教師信号として上述の感性評価を入力し、入力信号として上記の音楽を入力し、音楽と感性評価との関係性を機械学習させる。そして、サーバ30は、学習部348の機械学習によって得られた関係性を参照することにより、トライアルにおける演奏による音楽(響き等)に基づいて、トライアルにおける演奏に対する感性評価の情報を自動的に取得することができる。なお、本実施形態においては、上記専門家の感性評価が一般の人の感性評価よりも機械学習で得られる関係性に強く反映されるように、重み付けを行ってもよく、逆に、一般の人の感性評価が上記専門家の感性評価よりも機械学習で得られる関係性に強く反映されるように、重み付けを行ってもよい。さらに、本実施形態においては、サーバ30は、ロボット等によるピアノに対する打鍵のパラメータ(打鍵力、打鍵のタイミング、打鍵の長さ等)と、ロボット等による打鍵による音や音楽等に対する感性評価と学習部348に入力し、当該学習部348に、ロボット等による打鍵による音等と感性評価との関係性を機械学習させ、上記関係性を取得してもよい。本実施形態においては、このように機械学習を参照することにより、演奏家の手を煩わせることなく、感性評価の情報を取得することができる。
(ステップS209)
サーバ30は、ステップS205及びステップS207で取得した特徴量506、評価値506a及び感性評価の情報を上述のメタファイルに書き込む。本実施形態においては、センシングデータ群に特徴量506、評価値506a及び感性評価の情報を紐づけることにより、センシングデータ群を管理したり、教師データを選択したりすることを好適に、且つ、容易に行うことができる。
(ステップS211)
サーバ30は、図10に示すように、上述のステップS201からステップS209を繰り返し、複数のセンシングデータ群(テキストファイル)502と、各センシングデータ群502に紐づけるメタファイル504とを収集し、DB372を構築する。先に説明したように、DB372中のセンシングデータ群502は、メタファイル504に含まれる情報に基づき、管理することができる。例えば、図11に示すように、各センシングデータ群502は、メタファイル504に含まれる情報に基づき、演奏者(ピアニストA、ピアニストB等)ごとに、演奏を行った時系列順に管理されることができる。なお、本実施形態においては、演奏家ごとにセンシングデータ群502を管理することに限定されるものではなく、曲名ごと、年齢ごと等、様々な条件で管理することができる。
(ステップS213)
サーバ30は、上述のステップS211で構築されたデータベース372に基づき、教師データを作成する。本実施形態においては、当該教師データは、主に2つの方法から作成することができる。
1つ目の方法においては、1つのトライアルで得た各センシングデータ500、又は、各特徴量506をそのまま教師データとして使用する。
2つ目の方法においては、複数の演奏家、又は、複数のトライアルの複数のセンシングデータ500を用いて機械学習することにより、機械学習で得られた結果を教師データとして使用する。
例えば、図12に示すように、サーバ30は、学習部348に、センシングデータ群502と評価値506aを含むメタファイル504とをそれぞれ入力信号及び教師信号として入力する。当該学習部348は、複数のセンシングデータ500と評価値506aとの関係性を、重回帰分析等の多変量解析を行うことにより、機械学習する。そして、学習部348は、上述の機械学習で得た関係性の情報(関係情報)608を、教師データとして出力してもよい。
この際、学習部348が取り扱う複数のセンシングデータ500は、先に説明したように、変換装置20により互いに精度よく同期している。従って、学習部348は、精度よく同期した複数のセンシングデータ500を用いて多変量解析を行うことから、評価値506aと関連性の高いセンシングデータ500を抽出することが可能となり、精度の高い関係情報608を得ることが可能となる。
また、本実施形態においては、センシングデータ500と評価値506aとの関係性を示す関係情報608を教師データとして使用することに限定されるものではない。例えば、サーバ30は、学習部348に、特徴量506と評価値506aとをそれぞれ入力信号及び教師信号として入力する。当該学習部348は、図13に示すように、特徴量506と評価値506aとの関係性を、重回帰分析等の多変量解析を行うことにより、機械学習する。そして、学習部348は、上述の機械学習で得た関係性の情報(関係情報)608を、教師データとして出力してもよい。
このように、本実施形態においては、複数の演奏者又は複数のトライアルのセンシングデータの集合知を教師データとして用いることにより、パフォーマンスの質が高い演奏者と低い演奏者に特徴的な傾向がみられるセンシングデータ500又は特徴量506の項目を抽出することができる。なお、上述の関係情報608は、この後のステップで比較を行う際の教師データとして使用されるだけでなく、比較のために、複数の教師データから1つ又は複数の教師データを選択する際に参照されてもよい。
なお、機械学習を行う際、各トライアルのセンシングの時間幅は必ずしも一致していないため、サーバ30は、各トライアルのセンシングデータの時間幅を、例えば、鍵盤を打鍵したタイミング等を基準にして、揃えることが好ましい。
(2.6.2 比較データの作成の詳細)
次に、上述の図6のステップS300である、比較データの作成の詳細は、図14に示される。図14は、本実施形態に係る比較データの作成のフローチャートである。図14に示すように、比較データの作成は、ステップS301からステップS309までの複数のステップが含まれている。なお、図14のステップS301からステップS309は、図7のステップS201、ステップS203、ステップS207、ステップS209、ステップS213にそれぞれ対応するため、ここでは詳細な説明を省略する。
(2.6.3 比較の詳細)
次に、上述の図6のステップS400である、比較の詳細を、図15から図17を参照して説明する。図15は、本実施形態に係る比較のフローチャートであり、図16及び図17は、比較の一例を説明するための説明図である。図15に示すように、本実施形態に係る比較は、ステップS401からステップS411までの複数のステップが含まれている。以下に、これら各ステップの詳細を説明する。
(ステップS401)
まずは、サーバ30は、教師データの選択として、被指導者が演奏した課題(楽曲、フレーズ、スケール、アルペジオ、和音等)もしくはその一部を含むセンシングデータ群502をDB372から選択する。この際、サーバ30は、メタファイル504に含まれる演奏に関する属性情報に基づき選択を行うことができる。この際、複数のセンシングデータ群502がDB372に存在する場合には、サーバ30は、これら複数のセンシングデータ群502のリストを作成し、ユーザに対して表示することが好ましい。そして、ユーザは、上記リストから、比較したいセンシングデータ群502を選択する。この際、ユーザは、被指導者以外の演奏家の演奏に係るセンシングデータ群502を選択してもよく、被指導者の過去の演奏に係るセンシングデータ群502を選択してもよい。
また、複数のセンシングデータ群502がDB372に存在する場合には、サーバ30は、被指導者の属性情報(性別、年齢、体格、筋力、柔軟性、俊敏性等)等に応じて、当該属性情報に近い演奏家の属性情報を持つセンシングデータ群502を抽出して、ユーザに推薦してもよい。もしくは、サーバ30は、被指導者のトライアルにおけるセンシングに関する属性情報(センサ種類、サンプリング周波数、チャネル数等)等に応じて、当該属性情報に近いセンシングに関する属性情報を持つセンシングデータ群502を抽出して、ユーザに推薦してもよい。さらに、サーバ30は、被指導者のトライアルの属性情報(コンクール名、コンクールの段階等)やユーザが所望するトライアルの属性情報(観客動員数、ファン数、観客の評価情報、閲覧数等)に応じて、これら属性情報に近いトライアルの属性情報を持つセンシングデータ群502を抽出して、ユーザに推薦してもよい。加えて、サーバ30は、ユーザが所望する感性評価、演奏に対する評価値506aに応じて、センシングデータ群502を抽出して、ユーザに推薦してもよい。本実施形態においては、このようにすることで、ユーザの選択肢を減らし、ユーザが容易にセンシングデータ群502を選択することができる。
(ステップS403)
次に、ユーザは、所望のパフォーマンスの状態(例えば、有名ピアニストのようにすばやく弾く等)を実現するために、身体運動のどのような部分及び動作の特徴量506(例えば、筋の使い方、身体の動き等)を比較するかを選択する。すなわち、ユーザは、上述のステップS401で選択したセンシングデータ群502から、教師データとして用いる1つ又は複数のセンシングデータ500、特徴量506、又は、関係情報608を選択する。この際、教師データの候補となり得るデータは、センシングデータ群502内に膨大に存在する可能性があることから、サーバ30により、好適な教師データを抽出して、ユーザに推薦してもよく、もしくは、好適な教師データを自動的に選択してもよい。
例えば、サーバ30は、ステップS401で選択されたセンシングデータ群502内の各センシングデータ500と、当該センシングデータ500と同一項目の被指導者のセンシングデータ500との差分を算出する。そして、サーバ30は、差分が大きなセンシングデータ500を、教師データとしてユーザに推薦する。また、例えば、サーバ30は、関係情報608を参照して、ユーザが所望する演奏の状態(評価値506a)と関係性が高いと推定されるセンシングデータ500を教師データとして自動的に選択してもよい。本実施形態においては、このようにすることで、ユーザの選択肢を減らし、ユーザが容易に教師データを選択することができる。
(ステップS405)
次に、ユーザは、後述するステップS411で生成されるフィードバック情報をユーザにフィードバックするのに好適な感覚モダリティ(視覚、聴覚、触覚等)を選択する。本実施形態においては、フィードバック情報は、例えば、表示装置を介して視覚でフィードバックされることもでき、音声出力装置を介して聴覚でフィードバックされることもでき、もしくは、被指導者の身体に装着されたウェアラブル装置(力覚機構)を介して触覚でフィードバックされることができる。さらに、本実施形態においては、複数の感覚モダリティが選択されてもよい。
(ステップS407)
次に、サーバ30は、ステップS403選択した教師データと、当該教師データと同一項目である被指導者のセンシングデータ500(比較データ)との差分を算出する、もしくは、教師データと比較データとを重畳して、比較を行う。例えば、図16に示すように、サーバ30の比較部350は、教師データ600と比較データ602とを比較する。そして、この後のステップS411において、比較結果に基づいて、フィードバック情報610が生成されることとなる。なお、当該ステップS407においては、先に説明したように、選択した教師データ600と比較データ602とを差分を算出してもよく、図17に示すように、教師データ600と比較データ602とを重畳してもよい。
(ステップS409)
次に、サーバ30は、上述のステップS407で得られた教師データと比較データとの差分を空間的に又は時間的に拡大又は縮小することにより、差分の強調又は減弱を行ってもよい。具体的には、本実施形態においては、教師データ600との差分が大きな技能レベルの被指導者には、習得のモチベーションを低下させることを避けるために、差分を所定の縮小率で縮小する。例えば、教師データ600における打鍵力を1とした場合に、被指導者の打鍵力(比較データ)が80%程度不足している場合には、サーバ30は、打鍵力の差分を80%のままで提供するのではなく、差分を20%に縮小(減弱)して提供する。一方、本実施形態においては、教師データ600との差分が小さな技能レベルの被指導者には、より高い技能レベルまで導くために、小さな差分を所定の倍率で拡大して、被指導者が容易に認識できるようにする。例えば、被指導者の打鍵のタイミング(比較データ)が教師データ600と比べて0.01秒速い場合には、サーバ30は、打鍵のタイミングの差分を0.01秒のままで提供するのではなく、差分を0.1秒に拡大(強調)して容易に認識できるようにして提供する。すなわち、本実施形態においては、上述のような差分の処理を行うことにより、被指導者のモチベーションの低下を避けつつ、教師データ600との差分を容易に認識させることができることから、効率的なパフォーマンスの習得支援を実現することができる。なお、本実施形態においては、被指導者の技能レベルの変化に応じて、差分に対する拡大率又は縮小率を段階的に調整してもよい。また、時間的な拡大又は縮小とは、フィードバック情報の提供に関する時間をスローダウン又はスピードアップさせることを意味する。
(ステップS411)
サーバ30は、上述のステップS401からステップS409における処理に従って、ユーザにフィードバックするフィードバック情報610を生成する。
<2.7.まとめ>
以上説明したように、上述した本開示の実施形態によれば、形式が混在するセンシングデータを精度よく同期させて取り扱うことができる、パフォーマンスの習得支援に利用可能な情報処理システム1を提供することができる。
<<3.習得支援モードについて>>
ところで、上述した本開示の実施形態においては、上述の情報処理システム1によって提供されるフィードバックによる習得支援の効果をより高めるために、以下に説明するような習得支援モードを設けることが好ましい。そこで、以下に、図18を参照して、本開示の実施形態に係る習得支援モードについて説明する。図18は、本実施形態に係る習得支援モードのフローチャートである。なお、当該習得支援モードを実行するか否かは、ユーザによって予め選択することができるものとする。
ところで、被指導者の習得に影響を及ぼすフィードバックの要素としては、フィードバック情報610の内容に関わる要素として、比較に用いる教師データ600の項目(どのセンシングデータ500や特徴量506を選択するか)や、比較の方法(教師データ600と比較データ602との差分を算出するのか、これらのデータを重畳するのか)等を挙げることができる。また、フィードバック情報610の出力に関わる要素として、差分の強調又は減弱の程度や、フィードバック情報をフィードバックするのに感覚モダリティ等を挙げることができる。これらの要素は、いずれの要素がどのようであれば習得支援により効果的であるかは、習得しようとするパフォーマンスや、被指導者の特性や状況に応じて異なってくる。そこで、本実施形態に係る取得支援モードにおいては、いずれの要素をどのようにすれば習得支援に効果的であるかをリアルタイムで探索し、より効果の高いフィードバックを提供する。
例えば、所望のパフォーマンスを実現できなかった場合に、その原因となる要素(特徴量)は複数存在することが多い。例えば、演奏中に打鍵ミスをした場合、被指導者の腕のフォームが悪い、筋肉に余分な力が入っていた、打鍵する鍵盤を見るタイミングが遅い等、打鍵ミスの原因となる要素は、複数存在する。そこで、当該学習支援モードで得ることができるアルゴリズムにより、「これを直せば最速で打鍵ミスしなくなる」という要因を選択することが可能である。例えば、アルゴリズムは、複数の要因(特徴量)の中で、比較データと教師データとが最もかけ離れているものを選択する、もしくは、多数の演奏家の経験によって重要だと言われている特徴量を選択する。このようなアルゴリズムを利用することにより、習得支援をより効果的に行うことができる。
例えば、当該習得支援モードにおいては、被指導者に、同じ課題のトライアルを数回程度(例えば、3回から5回)繰り返し行わせ、サーバ30は、センシングデータ群502を取得、解析、及び、フィードバック情報610の提示を繰り返す。
この際、サーバ30は、センシングデータ500から、被指導者の演奏(パフォーマンス)に対する評価値506a(パフォーマンスの状態)を抽出し、前回のトライアルからの評価値506aの変化を算出する。この際、評価値506aの向上が確認されない場合には、サーバ30は、比較に用いる教師データ600の項目、比較の方法、差分の強調又は減弱の程度、感覚モダリティ等を変更し、次回トライアル前にフィードバックを行う。一方、評価値506aが向上していることが確認された場合には、サーバ30は、比較する教師データ600、比較の方法、差分の強調又は減弱の程度、感覚モダリティ等を変更することなく、次回トライアル前にフィードバックを行う。
さらに、このようなトライアルとフィードバックとを繰り返し実施することにより、サーバ30の学習部348は、評価値506aと、教師データ600の項目、比較の方法、差分の強調又は減弱の程度、感覚モダリティとの関係性を機械学習することができる。すなわち、機械学習によって、被指導者が特定のパフォーマンスの状態を向上するために好適な比較する教師データ600の項目、比較の方法、差分の強調又は減弱の程度、感覚モダリティ等を明らかにすることができる。そして、サーバ30は、このような機械学習によって得られた関係性に基づくアルゴリズムを用いて、次回からのフィードバックの際に、好適な教師データ600の項目、比較の方法、差分の強調又は減弱の程度、感覚モダリティを選択したり、ユーザに推薦したりすることができる。また、サーバ30は、このようにして得られたアルゴリズムを、他の被指導者に適用してもよい。例えば、属性情報(名前、性別、年齢、身長、体重、体格、筋力、掌の大きさ等)が類似する被指導者であれば、特定のパフォーマンスの状態を向上するために好適な比較する教師データ600の項目、比較の方法、差分の強調又は減弱の程度、感覚モダリティも類似する傾向を持つと推定されることから、サーバ30は、被指導者の属性情報に基づき、アルゴリズムの適用を判断してもよい。
さらに、当該習得支援モードでは、被指導者の運動機能の向上(筋力、関節可動域、敏捷性、感覚機能)が、特定のパフォーマンスの状態の向上と相関があるとされる場合、サーバ30は、フィードバックとともに、運動機能の向上トレーニングの推奨も行うことが好ましい。例えば、演奏時のリズムが一定に揃わず、リズムが不正確である演奏者ほど、指先の触覚機能が低いことや、指同士を独立に動かす機能が低いことが知られている。そこで、サーバ30は、被指導者が「正確性の向上」というパフォーマンスの向上を目指す場合、被指導者に、運動機能の向上トレーニングとして、指の独立運動訓練や、触覚機能トレーニング(知覚学習訓練)を推奨する。
詳細には、図18に示すように、本実施形態に係る習得支援モードは、ステップS601からステップS609までの複数のステップが含まれている。以下に、これら各ステップの詳細を説明する。
(ステップS601)
フィードバック装置70は、上述の説明と同様に、サーバ30から受信したフィードバック情報610に基づき、被指導者に向けてフィードバックを行う。
(ステップS603)
被指導者は、フィードバックを参考にしながら、前回と同じ課題のトライアルを実行する。サーバ30は、実行したトライアルに係るセンシングデータ群502を取得する。
(ステップS605)
サーバ30は、上述のステップS603で取得したセンシングデータ群502に基づき、被指導者の演奏に対する評価値506aを抽出する。さらに、サーバ30は、前回のトライアルからの評価値506aの変化を算出する。
(ステップS607)
サーバ30は、評価値506aの向上が確認されない場合には、比較する教師データ600の項目、比較の方法、差分の強調又は減弱の程度、感覚モダリティ等の変更を選択する。一方、サーバ30は、評価値506aが向上していることが確認された場合には、比較する教師データ600、比較の方法、差分の強調又は減弱の程度、感覚モダリティ等を変更しないことを選択する。
上述のステップS605及びステップS607の際に、サーバ30は、評価値506aと、教師データ600の項目、比較の方法、差分の強調又は減弱の程度、感覚モダリティとの関係性を機械学習する。サーバ30は、先に説明したように、当該機械学習で得られた関係性に基づくアルゴリズムを用いて、次回のフィードバックを行ってもよい。
(ステップS609)
次に、サーバ30は、上述のステップS607の選択に基づき、フィードバック情報610を生成する。さらに、サーバ30は、被指導者に推奨する運動機能の向上トレーニングを選択する。
<<4.本開示の実施形態の応用例>>
以上、本開示の実施形態について説明した。次に、本開示の実施形態の応用例について、より具体的に説明する。なお、以下に示す応用例は、本開示の実施形態の応用例の一例であって、本開示の実施形態が下記の応用例に限定されるものではない。
本開示の実施形態の応用例の1つとしては、音楽の演奏法の習得以外に、スポーツや、アート(絵画、書道等)や舞台芸術・伝統芸能、各操作シミュレータ(自動車、航空機等)やゲームの技能取得支援を挙げることができる。例えば、テニスラケット等に上述のセンサ装置10を装着することにより、ユーザのテニスのパフォーマンスの向上に必要な技能要素を特定し、ユーザに自動でコーチングする等を行うことができる。
また、本開示の実施形態の応用例の1つとしては、運動機能疾患を罹患した患者の診断の支援や、治療効果の評価、将来的な運動機能疾患の予測支援等を挙げることができる。例えば、音楽療法の現場では、楽器の演奏練習によって、脳卒中後の運動機能や認知機能が回復することが知られているが、そのメカニズムについては明らかになっていない部分が多い。そこで、本実施形態においては、患者の脳活動に関するデータと楽器演奏等の動作に関するデータとを精度よく同期させて取得させることも可能であることから、メカニズムを明らかにする有益な情報を取得することが期待される。
さらに、本実施形態において構築されたDB372は、技能習得のための各種のコーチング方法を開発するためにも有益であることから、単独で、売買の対象となることも可能である。
<<5. ハードウェア構成について>>
図19は、本実施形態に係る情報処理装置900のハードウェア構成の一例を示す説明図である。図19では、情報処理装置900は、上述のサーバ30のハードウェア構成の一例を示している。
情報処理装置900は、例えば、CPU950と、ROM952と、RAM954と、記録媒体956と、入出力インタフェース958とを有する。さらに、情報処理装置900は、力覚デバイス960と、表示デバイス962と、音声出力デバイス964と、通信インタフェース968と、センサ980とを有する。また、情報処理装置900は、例えば、データの伝送路としてのバス970で各構成要素間を接続する。
(CPU950)
CPU950は、例えば、CPU等の演算回路で構成される、1または2以上のプロセッサや、各種処理回路等で構成され、情報処理装置900全体を制御する主制御部340として機能する。
(ROM952及びRAM954)
ROM952は、CPU950が使用するプログラムや演算パラメータ等の制御用データ等を記憶する。RAM954は、例えば、CPU950により実行されるプログラム等を一時的に記憶する。ROM952及びRAM954は、情報処理装置900において、例えば、上述の記憶部370の機能を果たす。
(記録媒体956)
記録媒体956は、上述の記憶部370として機能し、例えば、本実施形態に係る情報処理方法に係るデータや、各種アプリケーション等の様々なデータを記憶する。ここで、記録媒体956としては、例えば、ハードディスク等の磁気記録媒体や、フラッシュメモリ等の不揮発性メモリが挙げられる。また、記録媒体956は、情報処理装置900から着脱可能であってもよい。
(入出力インタフェース958、力覚デバイス960、表示デバイス962及び音声出力デバイス964)
入出力インタフェース958は、例えば、力覚デバイス960、表示デバイス962及び音声出力デバイス964等を接続する。入出力インタフェース958としては、例えば、USB(Universal Serial Bus)端子や、DVI(Digital Visual Interface)端子、HDMI(High-Definition Multimedia Interface)(登録商標)端子、各種処理回路等が挙げられる。
力覚デバイス960は、上述の力覚機構710として機能し、表示デバイス962は、上述した表示部714として機能し、音声出力デバイス964は、上述した音声出力部716として機能する。力覚デバイス960としては、被指導者の身体に装着されるウェアラブルデバイスを挙げることができる。音声出力デバイス964としては、スピーカやヘッドフォンスピーカ等を挙げることができる。また、表示デバイス962としては、例えば、液晶ディスプレイや有機ELディスプレイ(Organic Electro-Luminescence Display)等を挙げることができる。
なお、入出力インタフェース958が、情報処理装置900の外部の操作入力デバイス(例えば、キーボードやマウス等)や外部の表示デバイス等の、外部デバイスと接続することも可能であることは、言うまでもない。
(通信インタフェース968)
通信インタフェース968は、通信部360として機能する情報処理装置900が備える通信手段であり、ネットワーク90を介して(あるいは、直接的に)、外部装置と、無線又は有線で通信を行うための通信部(図示省略)として機能する。ここで、通信インタフェース968としては、例えば、通信アンテナおよびRF(Radio Frequency)回路(無線通信)や、IEEE802.15.1ポートおよび送受信回路(無線通信)、IEEE802.11ポートおよび送受信回路(無線通信)、あるいはLAN(Local Area Network)端子および送受信回路(有線通信)等が挙げられる。
以上、情報処理装置900のハードウェア構成の一例を示した。なお、情報処理装置900のハードウェア構成は、図19に示す構成に限られない。詳細には、上記の各構成要素は、汎用的な部材を用いて構成してもよいし、各構成要素の機能に特化したハードウェアにより構成してもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
例えば、情報処理装置900は、接続されている外部の通信デバイスを介して外部装置等と通信を行う場合や、スタンドアローンで処理を行う構成である場合には、通信インタフェース968を備えていなくてもよい。また、通信インタフェース968は、複数の通信方式によって、1または2以上の外部装置と通信を行うことが可能な構成を有していてもよい。
また、本実施形態に係る情報処理装置は、例えばクラウドコンピューティング等のように、ネットワークへの接続(または各装置間の通信)を前提とした、複数の装置からなるシステムに適用されてもよい。つまり、上述した本実施形態に係る情報処理装置は、例えば、複数の装置により本実施形態に係る情報処理方法に係る処理を行う情報処理システムとして実現することも可能である。
<<6.補足>>
なお、先に説明した本開示の実施形態は、例えば、コンピュータを本実施形態に係る情報処理装置(例えば、サーバ30)として機能させるためのプログラム、及びプログラムが記録された一時的でない有形の媒体を含みうる。また、プログラムをインターネット等の通信回線(無線通信も含む)を介して頒布してもよい。
また、上述した本開示の実施形態の処理における各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。さらに、各ステップの処理方法についても、必ずしも記載された方法に沿って処理されなくてもよく、例えば、他の機能部によって他の方法で処理されていてもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザの動作によるパフォーマンスに係る状態をセンシングする複数のセンサから得られた異なる形式の複数のセンシングデータを変換する変換部と、
前記変換部で変換された前記センシングデータを処理する情報処理部と、
前記情報処理部の処理結果に基づき、前記ユーザに対してフィードバック情報を出力する情報出力部と、
を備え、
前記変換部は、
前記センサからのアナログ形式の前記センシングデータを、デジタル形式に変換して、前記情報処理部に出力するアナログ-デジタル信号変換部と、
前記センサからのデジタル形式の前記センシングデータを、アナログ形式に変換して、前記アナログ-デジタル信号変換部に出力するデジタル-アナログ信号変換部と、
を有する、
情報処理装置。
(2)
前記アナログ-デジタル信号変換部は、前記アナログ形式のセンシングデータを出力する第1のセンサからの前記センシングデータを同期させるための第1の時計機構を有する、上記(1)に記載の情報処理装置。
(3)
前記デジタル形式のセンシングデータを出力する第2のセンサ側に設けられ、前記第2のセンサからの前記センシングデータを同期させるための第2の時計機構をさらに備える、上記(2)に記載の情報処理装置。
(4)
前記情報処理部は、
前記第1の時計機構と前記第2の時計機構とを間の時間差に基づいて、
前記第1のセンサからの前記センシングデータと前記第2のセンサからの前記センシングデータとを同期させる、
上記(3)に記載の情報処理装置。
(5)
前記デジタル-アナログ信号変換部は、前記第2のセンサからの前記センシングデータを、前記アナログ形式に変換して、前記第1のセンサの駆動のためのトリガ信号として前記第1のセンサに出力する、
上記(3)又は(4)に記載の情報処理装置。
(6)
前記第1のセンサは、
前記ユーザの身体に装着された、加速度センサ、ジャイロセンサ、角速度センサ、振動センサ、圧力センサ、生体情報センサ、曲げセンサ、位置センサ、
前記ユーザの動作によって運動する対象物の動きをセンシングする、当該対象物に搭載された圧力センサ又はフォトリフレクタセンサ、
前記ユーザを撮像する撮像装置、及び、
前記パフォーマンスによって生じる音をセンシングする収音装置
のうちの少なくとも1つを含む、上記(3)~(5)のいずれか1つに記載の情報処理装置。
(7)
前記生体情報センサは、前記ユーザの心拍、脈拍、脳波、呼吸、発汗、筋電位、皮膚温度、皮膚電気抵抗、眼球運動、瞳孔径、及び、核磁気共鳴のうちの少なくとも1つをセンシングする、上記(6)に記載の情報処理装置。
(8)
前記対象物は、アコースティック楽器又は電子楽器である、上記(6)に記載の情報処理装置。
(9)
前記第2のセンサは、
前記ユーザに装着された、加速度センサ、ジャイロセンサ、角速度センサ、振動センサ、圧力センサ、曲げセンサ、位置センサ、及び、
前記ユーザが使用する電子楽器、
のうちの少なくとも1つを含む、上記(3)~(8)のいずれか1つに記載の情報処理装置。
(10)
前記デジタル-アナログ信号変換部から出力された前記センシングデータを、前記センシングデータの属性情報と紐づけて格納する記憶部をさらに備える、上記(1)~(9)のいずれか1つに記載の情報処理装置。
(11)
前記属性情報は、前記ユーザに関する属性情報、前記パフォーマンスに関する属性情報、前記パフォーマンスを特徴づける特徴量、前記パフォーマンスに対する評価情報、前記センシングに関する属性情報、及び、前記パフォーマンスに対する感性評価情報のうちの少なくとも1つを含む、上記(10)に記載の情報処理装置。
(12)
前記情報処理部は、前記デジタル-アナログ信号変換部から出力された前記センシングデータを解析して、前記パフォーマンスの状態を特徴づける特徴量を抽出する解析部を有する、上記(11)に記載の情報処理装置。
(13)
前記パフォーマンスに対する感性評価情報は、前記パフォーマンスごとに前記ユーザによって入力される、上記(11)に記載の情報処理装置。
(14)
前記パフォーマンスに対する感性評価情報は、機械学習によってあらかじめ得られた、パフォーマンスに係る状態と感性評価との関係性を参照して、前記パフォーマンスに係る状態に基づいて取得される、上記(11)に記載の情報処理装置。
(15)
前記パフォーマンスに対する評価情報は、トレードオフ関係にある、異なる種類の前記各パフォーマンスに対する評価情報に係る数値による比率を含む、上記(11)に記載の情報処理装置。
(16)
前記情報処理部は、前記記憶部に格納された前記複数のセンシングデータから1つ又は複数の前記センシングデータを教師データとして選択し、選択した教師データと、新たにセンシングした前記ユーザの前記パフォーマンスに係る前記センシングデータである比較データと比較する、比較部を有する、上記(10)~(15)のいずれか1つに記載の情報処理装置。
(17)
前記比較部は、前記教師データと前記比較データの差分を算出する、又は、前記教師データと前記比較データとを重畳することで、比較を行う、上記(16)に記載の情報処理装置。
(18)
前記情報出力部は、強調、又は、減弱する処理を行った前記差分を、フィードバック情報として出力する、上記(17)に記載の情報処理装置。
(19)
前記情報出力部は、前記フィードバック情報を、表示装置、前記ユーザの身体に装着されたウェアラブル装置、及び、音声出力装置のうちの少なくとも1つを介して、出力する、上記(18)に記載の情報処理装置。
(20)
前記情報処理部は、
前記ユーザの前記パフォーマンスの状態の変化に基づいて、
前記教師データとして用いる前記センシングデータ、前記比較部の比較の方法、前記差分に対する処理、及び、前記フィードバック情報を出力する装置のうちの少なくとも1つを変更する、
上記(19)に記載の情報処理装置。
1 情報処理システム
10 センサ装置
20 変換装置
26 演算装置
30 サーバ
70 フィードバック装置
90 ネットワーク
100 センサ部
140、340、740 主制御部
142、342 データ取得部
144、344 処理部
152、352 出力制御部
160、360、760 通信部
200 D/A信号変換部
202 D/Aコンバータ
210 A/D信号変換部
212 A/Dコンバータ
214、272 クロック
260 受信部
270 演算部
300 入力部
310 出力部
346 解析部
348 学習部
350 比較部
370、770 記憶部
372 DB
500 センシングデータ
502 センシングデータ群
504 メタファイル
506 特徴量
506a 評価値
600 教師データ
602 比較データ
608 関係情報
610 フィードバック情報
710 力覚機構
714 表示部
716 音声出力部
900 情報処理装置
950 CPU
952 ROM
954 RAM
956 記録媒体
958 入出力インタフェース
960 力覚デバイス
962 表示デバイス
964 音声出力デバイス
968 通信インタフェース
970 バス
980 センサ

Claims (20)

  1. ユーザの動作によるパフォーマンスに係る状態をセンシングする複数のセンサから得られた異なる形式の複数のセンシングデータを変換する変換部と、
    前記変換部で変換された前記センシングデータを処理する情報処理部と、
    前記情報処理部の処理結果に基づき、前記ユーザに対してフィードバック情報を出力する情報出力部と、
    を備え、
    前記変換部は、
    前記センサからのアナログ形式の前記センシングデータを、デジタル形式に変換して、前記情報処理部に出力するアナログ-デジタル信号変換部と、
    前記センサからのデジタル形式の前記センシングデータを、アナログ形式に変換して、前記アナログ-デジタル信号変換部に出力するデジタル-アナログ信号変換部と、
    を有する、
    情報処理装置。
  2. 前記アナログ-デジタル信号変換部は、前記アナログ形式のセンシングデータを出力する第1のセンサからの前記センシングデータを同期させるための第1の時計機構を有する、請求項1に記載の情報処理装置。
  3. 前記デジタル形式のセンシングデータを出力する第2のセンサ側に設けられ、前記第2のセンサからの前記センシングデータを同期させるための第2の時計機構をさらに備える、請求項2に記載の情報処理装置。
  4. 前記情報処理部は、
    前記第1の時計機構と前記第2の時計機構とを間の時間差に基づいて、
    前記第1のセンサからの前記センシングデータと前記第2のセンサからの前記センシングデータとを同期させる、
    請求項3に記載の情報処理装置。
  5. 前記デジタル-アナログ信号変換部は、前記第2のセンサからの前記センシングデータを、前記アナログ形式に変換して、前記第1のセンサの駆動のためのトリガ信号として前記第1のセンサに出力する、
    請求項3に記載の情報処理装置。
  6. 前記第1のセンサは、
    前記ユーザの身体に装着された、加速度センサ、ジャイロセンサ、角速度センサ、振動センサ、圧力センサ、生体情報センサ、曲げセンサ、位置センサ、
    前記ユーザの動作によって運動する対象物の動きをセンシングする、当該対象物に搭載された圧力センサ又はフォトリフレクタセンサ、
    前記ユーザを撮像する撮像装置、及び、
    前記パフォーマンスによって生じる音をセンシングする収音装置
    のうちの少なくとも1つを含む、請求項3に記載の情報処理装置。
  7. 前記生体情報センサは、前記ユーザの心拍、脈拍、脳波、呼吸、発汗、筋電位、皮膚温度、皮膚電気抵抗、眼球運動、瞳孔径、及び、核磁気共鳴のうちの少なくとも1つをセンシングする、請求項6に記載の情報処理装置。
  8. 前記対象物は、アコースティック楽器又は電子楽器である、請求項6に記載の情報処理装置。
  9. 前記第2のセンサは、
    前記ユーザに装着された、加速度センサ、ジャイロセンサ、角速度センサ、振動センサ、圧力センサ、曲げセンサ、位置センサ、及び、
    前記ユーザが使用する電子楽器、
    のうちの少なくとも1つを含む、請求項3に記載の情報処理装置。
  10. 前記デジタル-アナログ信号変換部から出力された前記センシングデータを、前記センシングデータの属性情報と紐づけて格納する記憶部をさらに備える、請求項1に記載の情報処理装置。
  11. 前記属性情報は、前記ユーザに関する属性情報、前記パフォーマンスに関する属性情報、前記パフォーマンスを特徴づける特徴量、前記パフォーマンスに対する評価情報、前記センシングに関する属性情報、及び、前記パフォーマンスに対する感性評価情報のうちの少なくとも1つを含む、請求項10に記載の情報処理装置。
  12. 前記情報処理部は、前記デジタル-アナログ信号変換部から出力された前記センシングデータを解析して、前記パフォーマンスの状態を特徴づける特徴量を抽出する解析部を有する、請求項11に記載の情報処理装置。
  13. 前記パフォーマンスに対する感性評価情報は、前記パフォーマンスごとに前記ユーザによって入力される、請求項11に記載の情報処理装置。
  14. 前記パフォーマンスに対する感性評価情報は、機械学習によってあらかじめ得られた、パフォーマンスに係る状態と感性評価との関係性を参照して、前記パフォーマンスに係る状態に基づいて取得される、請求項11に記載の情報処理装置。
  15. 前記パフォーマンスに対する評価情報は、トレードオフ関係にある、異なる種類の前記各パフォーマンスに対する評価情報に係る数値による比率を含む、請求項11に記載の情報処理装置。
  16. 前記情報処理部は、前記記憶部に格納された前記複数のセンシングデータから1つ又は複数の前記センシングデータを教師データとして選択し、選択した教師データと、新たにセンシングした前記ユーザの前記パフォーマンスに係る前記センシングデータである比較データと比較する、比較部を有する、請求項10に記載の情報処理装置。
  17. 前記比較部は、前記教師データと前記比較データの差分を算出する、又は、前記教師データと前記比較データとを重畳することで、比較を行う、請求項16に記載の情報処理装置。
  18. 前記情報出力部は、強調、又は、減弱する処理を行った前記差分を、フィードバック情報として出力する、請求項17に記載の情報処理装置。
  19. 前記情報出力部は、前記フィードバック情報を、表示装置、前記ユーザの身体に装着されたウェアラブル装置、及び、音声出力装置のうちの少なくとも1つを介して、出力する、請求項18に記載の情報処理装置。
  20. 前記情報処理部は、
    前記ユーザの前記パフォーマンスの状態の変化に基づいて、
    前記教師データとして用いる前記センシングデータ、前記比較部の比較の方法、前記差分に対する処理、及び、前記フィードバック情報を出力する装置のうちの少なくとも1つを変更する、
    請求項19に記載の情報処理装置。
JP2020550296A 2018-10-05 2019-09-20 情報処理装置 Active JP7367690B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018190061 2018-10-05
JP2018190061 2018-10-05
PCT/JP2019/036945 WO2020071149A1 (ja) 2018-10-05 2019-09-20 情報処理装置

Publications (2)

Publication Number Publication Date
JPWO2020071149A1 JPWO2020071149A1 (ja) 2021-10-07
JP7367690B2 true JP7367690B2 (ja) 2023-10-24

Family

ID=70054851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020550296A Active JP7367690B2 (ja) 2018-10-05 2019-09-20 情報処理装置

Country Status (7)

Country Link
US (1) US20210350773A1 (ja)
EP (1) EP3863001A4 (ja)
JP (1) JP7367690B2 (ja)
KR (1) KR20210070270A (ja)
CN (1) CN112805765B (ja)
DE (1) DE112019004986T5 (ja)
WO (1) WO2020071149A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111433831B (zh) * 2017-12-27 2022-05-17 索尼公司 信息处理装置、信息处理方法和计算机可读存储介质
EP3881910A4 (en) * 2018-11-15 2022-01-12 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
US20210248515A1 (en) * 2020-02-12 2021-08-12 Regents Of The University Of Minnesota Assisted learning with module privacy
KR20230010190A (ko) * 2020-03-31 2023-01-18 에이티에스 오토메이션 툴링 시스템즈 인코포레이티드 핵 해체 장치 및 방법
JP7452409B2 (ja) * 2020-12-25 2024-03-19 トヨタ自動車株式会社 タスクシステム、制御方法及び制御プログラム
WO2023032319A1 (ja) * 2021-08-31 2023-03-09 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理システム
JP2024139528A (ja) * 2023-03-27 2024-10-09 ヤマハ株式会社 教習装置、教習方法および教習プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003217064A (ja) 2002-01-21 2003-07-31 Toyota Motor Corp センサ信号処理装置およびセンサ信号処理方法
US7446694B1 (en) 2007-05-30 2008-11-04 Motorola, Inc. System for synchronization of multi-sensor data
JP2009528909A (ja) 2006-03-03 2009-08-13 フィジオウェイヴ インコーポレイテッド 生理学的モニタリングシステム及び方法
US20110215952A1 (en) 2010-03-02 2011-09-08 Invensense, Inc. Selectable communication interface configurations for motion sensing device
US20160328642A1 (en) 2015-05-06 2016-11-10 Indiana University Research And Technology Corporation Sensor signal processing using an analog neural network
JP2017173589A (ja) 2016-03-24 2017-09-28 ヤマハ株式会社 信号処理装置
WO2019130755A1 (ja) 2017-12-27 2019-07-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129880A (ja) * 1993-10-29 1995-05-19 Sankyo Seiki Mfg Co Ltd センサー認識装置
JP4278068B2 (ja) * 1998-06-04 2009-06-10 株式会社バンダイナムコゲームス ネットワークシステムおよび画像再生成方法
CA2599148A1 (en) * 2005-02-22 2006-08-31 Health-Smart Limited Methods and systems for physiological and psycho-physiological monitoring and uses thereof
JP4520952B2 (ja) * 2006-02-14 2010-08-11 セイコーインスツル株式会社 音楽練習支援機器
JP2009047861A (ja) 2007-08-17 2009-03-05 Sony Corp 演奏支援装置、演奏支援方法及びプログラム
CN103076045B (zh) * 2011-10-25 2016-04-13 上海新世纪机器人有限公司 头部姿态感应装置和方法
TW201336474A (zh) * 2011-12-07 2013-09-16 通路實業集團國際公司 行為追蹤及修正系統
US10606353B2 (en) * 2012-09-14 2020-03-31 Interaxon Inc. Systems and methods for collecting, analyzing, and sharing bio-signal and non-bio-signal data
JP6197366B2 (ja) * 2013-05-23 2017-09-20 ソニー株式会社 情報処理装置及び記憶媒体
WO2016123648A1 (en) * 2015-02-02 2016-08-11 Guided Knowledge Ip Pty Ltd Frameworks, devices and methodologies configured to enable delivery of interactive skills training content, including content with multiple selectable expert knowledge variations
CN104658358A (zh) * 2015-03-12 2015-05-27 广州东呈电子有限公司 音乐教学系统
CN105575219A (zh) * 2016-03-07 2016-05-11 钦赛勇 智能手套
CN107302548A (zh) * 2016-04-14 2017-10-27 中国电信股份有限公司 辅助乐器演奏练习的方法、终端设备、服务器和系统
CN206194191U (zh) * 2016-08-08 2017-05-24 郭颜军 一种乐器演奏评判和反馈装置
CN106371611A (zh) * 2016-09-30 2017-02-01 无锡吾成互联科技有限公司 一种钢琴弹奏教学辅助装置
CN207732965U (zh) * 2017-11-28 2018-08-14 江西创成微电子有限公司 一种音频处理装置
CN108320613A (zh) * 2018-01-22 2018-07-24 佛山杰致信息科技有限公司 一种交互式音乐教学系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003217064A (ja) 2002-01-21 2003-07-31 Toyota Motor Corp センサ信号処理装置およびセンサ信号処理方法
JP2009528909A (ja) 2006-03-03 2009-08-13 フィジオウェイヴ インコーポレイテッド 生理学的モニタリングシステム及び方法
US7446694B1 (en) 2007-05-30 2008-11-04 Motorola, Inc. System for synchronization of multi-sensor data
US20110215952A1 (en) 2010-03-02 2011-09-08 Invensense, Inc. Selectable communication interface configurations for motion sensing device
US20160328642A1 (en) 2015-05-06 2016-11-10 Indiana University Research And Technology Corporation Sensor signal processing using an analog neural network
JP2017173589A (ja) 2016-03-24 2017-09-28 ヤマハ株式会社 信号処理装置
WO2019130755A1 (ja) 2017-12-27 2019-07-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
DE112019004986T5 (de) 2021-07-01
CN112805765A (zh) 2021-05-14
JPWO2020071149A1 (ja) 2021-10-07
US20210350773A1 (en) 2021-11-11
CN112805765B (zh) 2023-11-07
EP3863001A1 (en) 2021-08-11
KR20210070270A (ko) 2021-06-14
EP3863001A4 (en) 2021-12-15
WO2020071149A1 (ja) 2020-04-09

Similar Documents

Publication Publication Date Title
JP7367690B2 (ja) 情報処理装置
JP7238794B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7468356B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20220398937A1 (en) Information processing device, information processing method, and program
Kranz et al. The mobile fitness coach: Towards individualized skill assessment using personalized mobile devices
EP1729711B1 (en) Rehabilitation with music
Gonzalez-Sanchez et al. Characterizing movement fluency in musical performance: Toward a generic measure for technology enhanced learning
Melero et al. Upbeat: Augmented Reality‐Guided Dancing for Prosthetic Rehabilitation of Upper Limb Amputees
MacRitchie The art and science behind piano touch: A review connecting multi-disciplinary literature
WO2017037342A1 (en) System for teaching a user to play a musical instrument from musical notation via virtual exercises and a method thereof
JP6748076B2 (ja) 心肺適応能評価
US20190082995A1 (en) Systems and methods for providing biometric related to performance of a physical movement
Allingham et al. Motor performance in violin bowing: Effects of attentional focus on acoustical, physiological and physical parameters of a sound-producing action
JP4022229B2 (ja) あん摩マッサージ指圧の術法の伝達システム
Buck et al. Expertise-and tempo-related performance differences in unimanual drumming
US20230386155A1 (en) Virtual, augmented or mixed reality instrument teaching system and method
EP4332957A2 (en) Virtual, augmented or mixed reality instrument teaching system and method
Karolus Proficiency-aware systems: designing for user skill and expertise
Nown Creating a real-time movement sonification system for hemiparetic upper limb rehabilitation for survivors of stroke
Blewett Design and analysis of gesture-controlled musical instrument interfaces in extended reality
Hossain et al. Playing Virtual Musical Drums by MEMS 3D Accelerometer Sensor Data and Machine Learning
Kydd Biometric and Biomechanical Sensing for Violin Performance Analysis
Lo et al. Deep Violin: Deep Learning-Based Violin Bowing Training System
CN112489541A (zh) 医疗训练的多媒体辅助系统
Siang et al. A study on potential of integrating multimodal interaction into musical conducting education

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230925

R151 Written notification of patent or utility model registration

Ref document number: 7367690

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151