JP2023154236A - 情報処理システム、情報処理方法およびプログラム - Google Patents

情報処理システム、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2023154236A
JP2023154236A JP2022063427A JP2022063427A JP2023154236A JP 2023154236 A JP2023154236 A JP 2023154236A JP 2022063427 A JP2022063427 A JP 2022063427A JP 2022063427 A JP2022063427 A JP 2022063427A JP 2023154236 A JP2023154236 A JP 2023154236A
Authority
JP
Japan
Prior art keywords
image
keyboard
performance
information processing
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022063427A
Other languages
English (en)
Inventor
健一 田中
Kenichi Tanaka
善政 磯崎
Yoshimasa Isozaki
陽貴 大川
Haruki Okawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2022063427A priority Critical patent/JP2023154236A/ja
Priority to US18/187,336 priority patent/US20230326357A1/en
Priority to CN202310327288.2A priority patent/CN116893735A/zh
Publication of JP2023154236A publication Critical patent/JP2023154236A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • G10G1/02Chord or note indicators, fixed or adjustable, for keyboard of fingerboards
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0016Means for indicating which keys, frets or strings are to be actuated, e.g. using lights or leds
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/375Tempo or beat alterations; Music timing control
    • G10H2210/385Speed change, i.e. variations from preestablished tempo, tempo change, e.g. faster or slower, accelerando or ritardando, without change in pitch
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/441Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
    • G10H2220/455Camera input, e.g. analyzing pictures from a video camera and using the analysis results as control data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Educational Technology (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

Figure 2023154236000001
【課題】他の演奏者による演奏を視覚的に参照しながら鍵盤楽器を演奏することを可能にする。
【解決手段】情報処理システム100は、現実空間の鍵盤楽器10の鍵盤を含む観測画像を撮像装置21から取得する画像取得部41と、演奏動作を実行する参照演奏者の手指を含む動画である参照画像を、参照演奏者の手指が観測画像における鍵盤に重なるように、表示装置22に表示する表示制御部42とを具備する。
【選択図】図5

Description

本開示は、鍵盤楽器の演奏を支援する技術に関する。
鍵盤楽器等の楽器の演奏を支援するための各種の技術が従来から提案されている。例えば特許文献1には、鍵盤楽器を演奏する利用者の手指の画像を解析することで、手指の姿勢に関する時系列情報を推定する技術が開示されている。
国際公開第2021/157691号
例えば鍵盤楽器の演奏を練習する場面では、練習者の近傍に指導者が所在する状況が好適である。しかし、練習者の近傍に指導者が常に所在することは現実的には困難である。なお、以上の説明においては練習者による鍵盤楽器の練習を想定したが、複数の利用者が鍵盤楽器等を連弾する場面等においても同様の問題が発生する。以上の事情を考慮して、本開示のひとつの態様は、他の演奏者による演奏を視覚的に参照しながら鍵盤楽器を演奏することが可能な技術の提供を目的とする。
以上の課題を解決するために、本開示のひとつの態様に係る情報処理システムは、現実空間の鍵盤楽器の鍵盤を含む観測画像を撮像装置から取得する画像取得部と、演奏動作を実行する参照演奏者の手指を含む動画である参照画像を、前記参照演奏者の手指が前記観測画像における前記鍵盤に重なるように、表示装置に表示する表示制御部とを具備する。
本開示のひとつの態様に係る情報処理方法は、現実空間の鍵盤楽器の鍵盤を含む観測画像を撮像装置から取得することと、演奏動作を実行する参照演奏者の手指を含む動画である参照画像を、前記参照演奏者の手指が前記観測画像における前記鍵盤に重なるように、表示装置に表示することとを含む。
本開示のひとつの態様に係るプログラムは、現実空間の鍵盤楽器の鍵盤を含む観測画像を撮像装置から取得する画像取得部、および、演奏動作を実行する参照演奏者の手指を含む動画である参照画像を、前記参照演奏者の手指が前記観測画像における前記鍵盤に重なるように、表示装置に表示する表示制御部、としてコンピュータシステムを機能させる。
演奏システムの構成図である。 映像システムの構成を例示するブロック図である。 情報処理システムの動作の説明図である。 情報処理システムの構成を例示するブロック図である。 情報処理システムの機能的な構成を例示するブロック図である。 画像生成処理のフローチャートである。 制御処理のフローチャートである。 第2実施形態における観測画像の模式図である。 第4実施形態における画像生成処理のフローチャートである。 第5実施形態における画像生成処理のフローチャートである。 第6実施形態における演奏システムの構成を例示するブロック図である。 第6実施形態における情報処理システムの機能的な構成を例示するブロック図である。
A:第1実施形態
図1は、第1実施形態における演奏システム100の構成を例示するブロック図である。演奏システム100は、利用者Uによる鍵盤楽器10の演奏を支援するコンピュータシステムである。利用者Uは、演奏システム100を利用して鍵盤楽器10の演奏を練習する。演奏システム100は、鍵盤楽器10と映像システム20と情報処理システム30とを具備する。鍵盤楽器10および映像システム20の各々は、有線または無線により情報処理システム30と通信可能である。
鍵盤楽器10は、利用者Uが所在する現実空間に設置された電子楽器であり、鍵盤Bxと筐体11とを具備する。鍵盤Bxは、相異なる音高に対応する複数の鍵Kx(白鍵および黒鍵)で構成される。利用者Uは、鍵盤楽器10の各鍵Kxを順次に操作することで特定の楽曲(以下「目標楽曲」という)を演奏する。鍵盤楽器10は、利用者Uによる演奏に並行して、当該演奏を表す演奏データPを情報処理システム30に供給する。演奏データPは、利用者Uが演奏した音符を表すデータである。利用者Uによる鍵盤Bxの操作毎(例えば押鍵毎)に、演奏データPが鍵盤楽器10から順次に出力される。例えば、演奏データPは、利用者Uが操作した鍵Kxに対応する音高と押鍵の強度とを指定する。演奏データPは、例えばMIDI(Musical Instrument Digital Interface)規格に準拠したイベントデータである。
映像システム20は、利用者Uの頭部に装着される映像機器(HMD:Head Mounted Display)である。例えばゴーグル型またはメガネ型のHMDが、映像システム20として利用される。
図2は、映像システム20の構成を例示するブロック図である。映像システム20は、撮像装置21と表示装置22とを具備する。すなわち、撮像装置21と表示装置22とは利用者Uの頭部に装着される。したがって、撮像装置21および表示装置22の各々の位置および方向は、利用者Uの頭部の動作に応じて変化する。
撮像装置21は、現実空間内の所定の範囲を撮像する。具体的には、撮像装置21は、利用者Uの頭部の前方(すなわち視線の方向)に位置する所定の範囲を撮像する。鍵盤楽器10を演奏する利用者Uは、当該利用者Uの手指Hxと鍵盤Bxとを視認する。したがって、撮像装置21は、図3に例示される通り、利用者Uの左右の手指Hxと鍵盤楽器10の鍵盤Bxとを含む動画(以下「観測画像」という)Xを撮像する。撮像装置21が撮像する範囲は、利用者Uの頭部の動作に応じて変化する。撮像装置21は、利用者Uによる鍵盤楽器10の演奏に並行して、観測画像Xを表す観測画像データDxを生成する。撮像装置21は、例えば、撮影レンズ等の光学系と、光学系からの入射光を受光する撮像素子と、撮像素子による受光量に応じた観測画像データDxを生成する処理回路とを具備する。撮像装置21は、例えば鍵盤Bxの白鍵および黒鍵と利用者Uの手指Hxとの境界が明確になるように露出を自動的に調整する。
図2の表示装置22は、情報処理システム30による制御のもとで各種の画像を表示する。例えば、液晶表示パネルまたは有機EL(Electroluminescence)パネル等の各種の表示パネルが、表示装置22として利用される。表示装置22は、利用者Uの両眼の前方に設置される。第1実施形態の表示装置22は、現実空間からの到来光が透過しない非透過型の表示パネルである。
第1実施形態の表示装置22は、図3の案内画像Zを表示する。案内画像Zは、観測画像Xと参照画像Yとを含む動画である。参照画像Yは、演奏動作を実行する仮想的な演奏者(以下「参照演奏者」という)の手指Hyと、参照演奏者が演奏する鍵盤Byとを含む立体動画である。参照演奏者は、利用者Uに演奏を指導する仮想的な指導者である。なお、利用者Uと連弾する他の演奏者を参照演奏者としてもよい。鍵盤Byは、現実空間の鍵盤Bxと同様に、横方向に配列された複数の鍵Kyを含む。参照画像Yは、参照演奏者が鍵盤Byを手指Hyにより操作することで目標楽曲を演奏する様子を表す動画である。すなわち、参照画像Yは、目標楽曲に関する模範的な運指を表す。
案内画像Zにおいて、参照画像Yは、観測画像Xの鍵盤Bxに重なるように表示される。すなわち、参照画像Yにおける参照演奏者の手指Hyと鍵盤Byとが、観測画像Xにおける鍵盤Bxに重なるように、案内画像Zが表示装置22に表示される。具体的には、参照画像Yにおける手指Hyおよび鍵盤Byのサイズおよび方向は、観測画像Xの鍵盤Bxのサイズおよび方向に応じて設定される。例えば、鍵盤Byの各鍵Kyと観測画像Xの鍵盤Bxの各鍵Kxとが同等のサイズとなるように、参照画像Yが拡大または縮小される。また、鍵盤Byの表面と観測画像Xの鍵盤Bxの表面とが相互に平行となるように、参照画像Yにおける手指Hyおよび鍵盤Byの角度が制御される。したがって、利用者Uは、参照演奏者が恰も現実空間に存在するかのような感覚で鍵盤楽器10を演奏できる。
図4は、情報処理システム30の構成を例示するブロック図である。情報処理システム30は、映像システム20を制御するためのコンピュータシステムである。具体的には、情報処理システム30は、案内画像Zを表示装置22に表示する。
情報処理システム30は、制御装置31と記憶装置32と操作装置33と放音装置34とを具備する。情報処理システム30は、例えばスマートフォンまたはタブレット端末等の可搬型の情報装置、またはパーソナルコンピュータ等の可搬型または据置型の情報装置により実現される。なお、情報処理システム30は、単体の装置として実現されるほか、相互に別体で構成された複数の装置でも実現される。また、情報処理システム30は、鍵盤楽器10または映像システム20に搭載されてもよい。
制御装置31は、情報処理システム30の動作を制御する単数または複数のプロセッサである。具体的には、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、SPU(Sound Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、またはASIC(Application Specific Integrated Circuit)等の1種類以上のプロセッサにより、制御装置31が構成される。
記憶装置32は、制御装置31が実行するプログラムと、制御装置31が使用する各種のデータとを記憶する単数または複数のメモリである。例えば半導体記録媒体および磁気記録媒体等の公知の記録媒体、または複数種の記録媒体の組合せが、記憶装置32として利用される。なお、例えば、情報処理システム30に対して着脱される可搬型の記録媒体、または、制御装置31が通信網を介してアクセス可能な記録媒体(例えばクラウドストレージ)が、記憶装置32として利用されてもよい。
第1実施形態の記憶装置32は、楽曲データMと参照画像データDyとを複数の楽曲の各々について記憶する。各楽曲の楽曲データMは、当該楽曲の模範的または標準的な演奏を表すデータである。具体的には、各楽曲の楽曲データMは、当該楽曲を構成する音符の時系列を指定する時系列データである。例えばMIDI規格に準拠した音楽ファイルが楽曲データMとして例示される。
各楽曲の参照画像データDyは、当該楽曲の参照画像Yを表す動画データである。すなわち、各楽曲の参照画像Yは、参照演奏者が当該楽曲を演奏する様子を表す立体動画である。各楽曲の参照画像Yは、当該楽曲に関する運指を表す動画とも表現される。
参照画像データDyは、任意の形式の3DCG(3 Dimensional Computer Graphics)データである。例えば、参照演奏者の手指Hyと鍵盤Byとを点群で表現する点群データが参照画像データDyとして利用される。また、手指Hyおよび鍵盤Byの骨格または関節を表すスケルトンデータが参照画像データDyとして利用されてもよい。例えば、現実の演奏者による楽曲の演奏に並行して手指Hyと鍵盤Byとを複数の方向から撮像した結果に応じて、参照画像データDyが生成される。したがって、参照画像Yにおける鍵盤Byの複数の鍵Kyの各々は、参照演奏者による演奏に連動して変位する。すなわち、参照画像Yを視認した利用者Uは、参照演奏者による押鍵で鍵Kyが変位する様子を確認できる。
操作装置33は、利用者Uによる操作を受付ける入力機器である。例えば、利用者Uは、操作装置33を操作することで複数の楽曲から目標楽曲を選択する。例えば、利用者Uが操作する操作子、または、利用者Uによる接触を検知するタッチパネルが、操作装置33として利用される。なお、情報処理システム30とは別体の操作装置33が、情報処理システム30に対して有線または無線により接続されてもよい。
放音装置34は、制御装置31による制御のもとで音響を放射する。放音装置34は、例えばスピーカまたはヘッドホンである。例えば、利用者Uによる演奏動作に応じた楽音の波形を表す音響信号Aが放音装置34に供給される。なお、音響信号Aをデジタルからアナログに変換するD/A変換器と、音響信号Aを増幅する増幅器とについては、便宜的に図示が省略されている。また、情報処理システム30とは別体の放音装置34を、情報処理システム30に対して有線または無線により接続してもよい。
図5は、情報処理システム30の機能的な構成を例示するブロック図である。制御装置31は、記憶装置32に記憶されたプログラムを実行することで、案内画像Zを表示装置22に表示するための複数の機能(画像取得部41,表示制御部42,基準特定部43,音源処理部44,演奏解析部45)を実現する。
画像取得部41は、観測画像Xを撮像装置21から取得する。具体的には、画像取得部41は、撮像装置21が生成する観測画像データDxを映像システム20から受信する。
表示制御部42は、案内画像Zを表示装置22に表示する。具体的には、表示制御部42は、案内画像Zを表す案内画像データDzを表示装置22に出力することで、当該案内画像Zを表示装置22に表示する。表示制御部42は、画像取得部41が取得した観測画像Xと記憶装置32に記憶された目標楽曲の参照画像Yとを合成することで案内画像Zを生成する。
前述の通り、表示制御部42は、参照演奏者の手指Hyと鍵盤Byとが観測画像Xの鍵盤Bxに重なるように、参照画像Yを観測画像Xに合成することで、案内画像Zを生成する。参照画像Yにおける手指Hyおよび鍵盤Byのサイズおよび方向は、観測画像Xの鍵盤Bxのサイズおよび方向に応じて設定される。具体的には、表示制御部42は、鍵盤Byの各鍵Kyと観測画像Xの鍵盤Bxの各鍵Kxとが同等のサイズとなるように、参照画像Yを拡大または縮小する。また、表示制御部42は、鍵盤Byの表面と観測画像Xの鍵盤Bxの表面とが相互に平行となるように、参照画像Yにおける手指Hyおよび鍵盤Byの角度を制御する。
基準特定部43は、観測画像Xにおいて参照画像Yの基準となる位置(以下「基準位置」という)Rを特定する。観測画像Xにおいて基準位置Rに対応する位置に参照画像Yが配置されることで案内画像Zが生成される。すなわち、基準位置Rに対して所定の位置関係となるように参照画像Yが観測画像Xに合成される。
基準特定部43は、観測画像Xの解析により基準位置Rを特定する。具体的には、図3に例示される通り、基準特定部43は、観測画像Xにおける鍵盤Bxの端部12を検出し、当該端部12の位置を基準位置Rとして特定する。鍵盤Bxの左側の端部12および右側の端部12の一方または双方が検出される。鍵盤Bxの端部12の検出には、公知の物体検出技術が任意に採用される。例えば、深層ニューラルネットワーク等の学習済モデルを利用した物体検出処理が、基準特定部43による端部12の検出(すなわち基準位置Rの特定)に利用される。なお、鍵盤楽器10の端部12と、鍵盤楽器10の筐体11のうち鍵盤Bxの両側に位置する部分とは、色彩または材質等の光学特性が顕著に相違する。したがって、観測画像Xから当該鍵盤Bxの端部12を正確かつ容易に検出できる。
図5の音源処理部44は、鍵盤Bxに対する利用者Uの操作に応じた音響信号Aを生成する。前述の通り、利用者Uが操作した鍵Kxに対応する音高を指定する演奏データPが、鍵盤楽器10から情報処理システム30に供給される。音源処理部44は、演奏データPが指定する音高に対応する音響信号Aを生成するMIDI音源である。すなわち、音響信号Aは、利用者Uが操作した1以上の鍵Kxに対応する音高の楽音波形を表す信号である。なお、第1実施形態においては制御装置31が実現するソフトウェア音源を音源処理部44として例示するが、音響信号Aの生成に専用されるハードウェア音源が音源処理部44として利用されてもよい。
演奏解析部45は、利用者Uによる鍵盤楽器10の演奏を解析する。第1実施形態の演奏解析部45は、鍵盤楽器10から供給される演奏データPを利用して利用者Uによる演奏を解析する。第1実施形態の演奏解析部45は、演奏ポイントQ1と演奏速度Q2と操作位置Q3とを特定する。演奏解析部45による解析は、所定の周期で反復される。
演奏ポイントQ1は、目標楽曲内において利用者Uが演奏している時間軸上の時点である。演奏ポイントQ1の特定には公知の技術が任意に採用される。例えば、演奏解析部45は、鍵盤楽器10から供給される演奏データPの時系列と目標楽曲の楽曲データMとを相互に対比することで、演奏ポイントQ1を特定する。また、演奏速度Q2は、利用者Uが目標楽曲を演奏する速度(テンポ)である。演奏解析部45は、演奏ポイントQ1の時間的な変化から演奏速度Q2を特定する。例えば、単位時間内における演奏ポイントQ1の移動量が演奏速度Q2として算定される。
操作位置Q3は、鍵盤楽器10の鍵盤Bxのうち利用者Uが演奏している空間的な位置である。前述の通り、演奏データPは、利用者Uが演奏した音高を指定する。演奏解析部45は、演奏データPが指定する音高を操作位置Q3として特定する。
表示制御部42は、基準特定部43が特定した基準位置Rと演奏解析部45による解析結果(Q1~Q3)とを利用して案内画像Zを生成する。図6は、表示制御部42が案内画像Zを生成する処理(以下「画像生成処理」という)S5のフローチャートである。
画像生成処理S5が開始されると、表示制御部42は、演奏ポイントQ1および演奏速度Q2に応じて参照画像Yの再生を制御する(S51)。表示制御部42は、目標楽曲の参照画像Yのうち演奏ポイントQ1に対応する部分を、記憶装置32から順次に取得する。例えば、演奏ポイントQ1が目標楽曲の特定の音符を演奏した時点である場合、表示制御部42は、参照画像Yのうち参照演奏者が当該音符を演奏した時点の画像を取得する。また、表示制御部42は、参照画像Yの再生速度を演奏速度Q2に応じて制御する。例えば、演奏速度Q2が高いほど参照画像Yの再生速度は上昇する。すなわち、第1実施形態の表示制御部42は、利用者Uによる目標楽曲の演奏に連動して参照画像Yの再生を進行する。具体的には、表示制御部42は、利用者Uによる目標楽曲の演奏と参照画像Yの再生とが相互に同期するように、参照画像Yの再生を制御する。
表示制御部42は、操作位置Q3と基準位置Rとに応じて観測画像Xに対する参照画像Yの位置を設定する(S52)。具体的には、表示制御部42は、基準位置R(すなわち鍵盤Bxの端部12)を基準として鍵盤Bx内の操作位置Q3を特定し、当該操作位置Q3に対して所定の関係にある位置を、参照画像Yの位置として特定する。例えば、表示制御部42は、鍵盤Bxのうち操作位置Q3を含む所定の範囲に対して高音側または低音側の範囲内に、参照画像Yを配置する。操作位置Q3を含む所定の範囲は、例えば操作位置Q3を中心として高音側および低音側の1オクターブにわたる範囲である。したがって、例えば利用者Uが演奏する音高(操作位置Q3)に対して1オクターブだけ高音側または低音側の位置に、参照画像Yが配置される。以上の説明から理解される通り、観測画像Xにおける利用者U自身の手指Hxに重ならないように、参照画像Yの位置が設定される。したがって、利用者Uは、鍵盤楽器10を演奏しながら参照画像Yを確認し易い。
表示制御部42は、観測画像Xに参照画像Yを合成することで案内画像Zを生成する(S53)。具体的には、参照画像Yのうち演奏ポイントQ1および演奏速度Q2に対応する部分が、観測画像Xのうち操作位置Q3と基準位置Rとに応じて設定した位置に合成される。表示制御部42は、観測画像Xにおける鍵盤Bxに重なるように参照画像Yのサイズおよび角度を制御する。
観測画像Xにおける鍵盤Bxの位置または角度は、利用者Uの頭部の動作に応じて変化する。参照画像Yは、観測画像Xにおける鍵盤Bxに重なるように配置されるから、表示装置22が表示する参照演奏者の手指Hyおよび鍵盤Byの位置および角度も、利用者Uの頭部の動作に応じて変化する。以上の説明から理解される通り、利用者Uは、頭部の位置および方向を適宜に変更することで、参照演奏者の手指Hyおよび鍵盤Byを所望の位置および角度から確認できる。また、前述の通り、参照画像Yにおける鍵盤Byの各鍵Kyは、参照演奏者による演奏動作に連動して変位する。したがって、表示装置22が表示する案内画像Zにおいても、鍵盤Byの各鍵Kyは手指Hyの演奏動作に応じて変位する。以上の構成によれば、参照演奏者が実際に鍵盤楽器10の鍵盤Bxを操作しているような感覚で、利用者Uは参照演奏者の手指Hyを視覚的に参照できる。
図7は、制御装置31が実行する処理(以下「制御処理」という)のフローチャートである。以下に例示する制御処理が、所定の周期で反復される。
制御処理が開始されると、制御装置31(画像取得部41)は、観測画像Xを取得する(S1)。基準特定部43は、観測画像Xを解析することで基準位置Rを特定する(S2)。制御装置31(音源処理部44)は、鍵盤楽器10から供給される演奏データPに応じた音響信号Aを生成する(S3)。制御装置31(演奏解析部45)は、利用者Uによる鍵盤楽器10の演奏を解析することで、操作位置Q3と演奏ポイントQ1と演奏速度Q2とを特定する(S4)。以上に例示した各処理(S1~S4)の順序は任意に変更されてよい。
制御装置31(表示制御部42)は、図6に例示した画像生成処理S5を実行することで案内画像Zを生成する。すなわち、前述の通り、観測画像Xと参照画像Yとの合成により案内画像Zが生成される。制御装置31(表示制御部42)は、案内画像Zを表す案内画像データDzを表示装置22に出力することで、表示装置22に案内画像Zを表示する(S6)。
以上に説明した通り、第1実施形態によれば、観測画像Xにおける鍵盤Bxに重なるように参照画像Yにおける参照演奏者の手指Hyが表示される。したがって、利用者Uは、鍵盤楽器10の鍵盤Bxに重ねて表示された参照演奏者の手指Hyを視覚的に参照しながら当該鍵盤楽器10を演奏する、という有効な顧客体験を享受できる。第1実施形態においては特に、利用者Uの頭部の位置および角度に応じて撮像装置21および表示装置22の位置および角度が変化する。したがって、利用者Uの頭部の動作(例えば移動または回転)に連動して、表示装置22に表示される参照画像Yにおける鍵盤Byの位置および角度が変化する。したがって、利用者は、参照演奏者が恰も現実空間に存在するかのような感覚で鍵盤楽器10を演奏するという顧客体験を享受できる。
また、第1実施形態においては、観測画像Xのうち鍵盤楽器10の基準位置Rに対応する位置に参照画像Yが表示される。したがって、現実空間の鍵盤楽器10に対して適切な位置に、参照演奏者の手指Hyを配置できる。
第1実施形態においては、演奏ポイントQ1および演奏速度Q2に応じて参照画像Yの再生が制御される。すなわち、利用者Uによる楽曲の演奏に連動して参照画像Yの再生が進行する。したがって、利用者Uは、参照演奏者と協調して鍵盤楽器10を演奏しているような感覚で目標楽曲を演奏できる。
B:第2実施形態
第2実施形態を説明する。なお、以下に例示する各態様において機能が第1実施形態と同様である要素については、第1実施形態の説明と同様の符号を流用して各々の詳細な説明を適宜に省略する。第1実施形態においては、観測画像Xにおける鍵盤Bxの端部12を基準位置Rとして特定した。第2実施形態および第3実施形態は、基準位置Rの特定の方法が第1実施形態とは相違する。基準位置Rの特定以外の構成および動作は第1実施形態と同様である。
図8は、第2実施形態における観測画像Xの模式図である。第2実施形態の鍵盤楽器10には標章13が付加される。図8においては星型の標章13が例示されている。標章13は、鍵盤楽器10の外装に形成される。例えば、鍵盤楽器10の筐体11における横方向の中央部に標章13が形成される。標章13は、鍵盤楽器10の商品名または提供者(製造者または販売者)を視覚的に識別するための図形または記号等の標識である。標章13は、典型的には商標である。標章13は、例えば筐体11に対する塗装または印刷により形成される。また、標章13が表面に形成された板状部材が筐体11に固定された形態、または標章13の形状に成形された板状部材が筐体11に固定された形態も想定される。
基準特定部43は、観測画像Xの解析により基準位置Rを特定する(S2)。第2実施形態の基準特定部43は、観測画像Xにおける鍵盤楽器10の標章13を検出し、当該標章13の位置を基準位置Rとして特定する。標章13の検出には、公知の物体検出処理が任意に採用される。例えば、深層ニューラルネットワーク等の学習済モデルを利用した物体検出処理が、基準特定部43による標章13の検出(すなわち基準位置Rの特定)に利用される。基準位置Rを基準として観測画像Xに対する参照画像Yの位置を設定する処理(S52)は、第1実施形態と同様である。
第2実施形態においても第1実施形態と同様の効果が実現される。なお、鍵盤楽器10の標章13は鍵盤楽器10の特定の位置に形成される場合が多い。鍵盤楽器10の標章13の位置を基準位置Rとして特定する第2実施形態によれば、例えば鍵盤Bxの端部12を検出できない状況でも、基準位置Rを適切に特定できる。例えば、鍵盤Bxの端部12が撮像装置21による撮像範囲の外側にある場合(観測画像Xに端部12が含まれない場合)でも、基準位置Rを特定できる。
C:第3実施形態
第3実施形態の基準特定部43は、鍵盤楽器10の鍵盤Bxのうち予め決定された特定の鍵(以下「特定鍵」という)Kxの位置を基準位置Rとして特定する。
利用者Uは、案内画像Zの表示に先立ち、鍵盤Bxの特定鍵Kxを操作する。基準特定部43は、観測画像Xの解析により基準位置Rを特定する(S2)。第3実施形態の基準特定部43は、観測画像Xを解析することで、当該観測画像Xにおいて利用者Uが操作した鍵Kx(すなわち特定鍵Kx)を検出し、当該鍵Kxの位置を基準位置Rとして特定する。例えば、観測画像Xの複数の鍵Kxのうち利用者Uによる操作で階調が変化した鍵Kxが特定鍵Kxとして検出される。基準位置Rを基準として観測画像Xに対する参照画像Yの位置を設定する処理(S52)は、第1実施形態と同様である。
第3実施形態においても第1実施形態と同様の効果が実現される。また、第3実施形態においては、利用者Uが操作した特定鍵Kxの位置が基準位置Rとして特定される。したがって、鍵盤楽器10の端部12または標章13を検出できない状態でも、基準位置Rを適切に特定できる。例えば、鍵盤楽器10の端部12および標章13が撮像装置21による撮像範囲の外側にある場合でも、基準位置Rを特定することが可能である
D:第4実施形態
第4実施形態においては、演奏解析部45および表示制御部42の動作が第1実施形態とは相違する。第4実施形態の演奏解析部45は、第1実施形態と同様の情報(Q1~Q3)を生成するほか、利用者Uが鍵盤楽器10を演奏しているか否かを判定する。具体的には、演奏解析部45は、鍵盤楽器10から演奏データPが供給されている場合には鍵盤楽器10が演奏されていると判定し、鍵盤楽器10から演奏データPが供給されていない場合には鍵盤楽器10が演奏されていないと判定する。なお、演奏解析部45による判定の方法は以上の例示に限定されない。例えば、演奏解析部45は、観測画像Xの解析により鍵盤楽器10に対する演奏の有無を判定してもよい。
表示制御部42は、第1実施形態と同様に、観測画像Xと参照画像Yとの合成により案内画像Zを生成する。第4実施形態の表示制御部42は、案内画像Zの生成において、参照画像Yに関する透過パラメータαの数値を制御する。透過パラメータαは、参照画像Yの背後の要素が当該参照画像Yを透過する度合に関する指標(アルファ値)である。第4実施形態の透過パラメータαは透明度である。すなわち、透過パラメータαの数値が大きいほど、参照画像Yの背後の要素が当該参照画像Yを透過する度合は高い。例えば、透過パラメータαが0%に設定された場合、参照画像Yは不透明な画像として表示される。他方、透過パラメータαが50%に設定された場合、参照画像Yは半透明な画像として表示される。参照画像Yが半透明で表示された場合、利用者Uは、観測画像Xのうち参照画像Yの背後に位置する部分を視認できる。
表示制御部42は、鍵盤楽器10に対する演奏の有無に応じて透過パラメータαの数値を制御する。図9は、第4実施形態における画像生成処理S5のフローチャートである。参照画像Yの再生を制御する処理(S51)と参照画像Yの位置を制御する処理(S52)とは、第1実施形態と同様である。
制御装置31(演奏解析部45)は、鍵盤楽器10が演奏されているか否かを判定する(S54)。鍵盤楽器10が演奏されていない場合(S54:NO)、制御装置31(表示制御部42)は、透過パラメータαを数値α1に設定する(S55)。他方、鍵盤楽器10が演奏されている場合(S54:YES)、制御装置31(表示制御部42)は、透過パラメータαを数値α2に設定する(S56)。制御装置31(表示制御部42)は、以上の処理により設定された透過パラメータαのもとで参照画像Yを観測画像Xに合成することで、案内画像Zを生成する(S53)。画像生成処理S5以外の動作は第1実施形態と同様である。
透過パラメータαの数値α2は、数値α1と比較して透過の度合が高いことを意味する。前述の通り、第4実施形態の透過パラメータαは透明度であるから、数値α2は、数値α1よりも大きい数値に設定される。例えば、数値α2は50%(半透明)に設定され、数値α1は0%(不透明)に設定される。以上の通り、鍵盤楽器10が演奏されていない場合には参照画像Yが不透明(α=α1)で表示され、鍵盤楽器10が演奏されている場合には参照画像Yが半透明(α=α2)で表示される。すなわち、利用者Uが鍵盤楽器10を演奏している状態では、鍵盤楽器10が演奏されていない場合と比較して、参照画像Yの透過の度合が高い。なお、数値α1は「第1値」の一例であり、数値α2は「第2値」の一例である。
第4実施形態においても第1実施形態と同様の効果が実現される。第4実施形態においては特に、参照画像Yの透過パラメータαの数値が制御される。したがって、透過パラメータαの数値が固定された構成と比較して、参照画像Yを優先的に視認する使用形態と、利用者U自身の手指Hxを優先的に視認する使用形態とを切替可能である。
例えば、第4実施形態においては、利用者Uが鍵盤楽器10を演奏している場合に、透過パラメータαが、数値α1よりも透過の度合が高い数値α2に設定される。したがって、透過パラメータαが数値α1に固定された構成(参照画像Yが常に不透明で表示される構成)と比較して、利用者Uは自身の手指Hxを優先的に視認できる。他方、利用者Uが鍵盤楽器10を演奏していない場合には、透過パラメータαが、数値α2よりも透過の度合が低い数値α1に設定される。したがって、透過パラメータαが数値α2に固定された構成(参照画像Yが常に半透明で表示される構成)と比較して、利用者Uは参照画像Yを容易に視認できる。なお、第2実施形態または第3実施形態は、第4実施形態にも同様に適用される。
E:第5実施形態
第5実施形態においても第4実施形態と同様に、参照画像Yに適用される透過パラメータαの数値が可変に制御される。第4実施形態においては、鍵盤楽器10に対する演奏の有無に応じて透過パラメータαを制御したが、第5実施形態においては、動作モードに応じて透過パラメータαを制御する。第5実施形態の透過パラメータαは、第4実施形態と同様に透明度である。すなわち、透過パラメータαの数値が大きいほど、参照画像Yの背後の要素が当該参照画像Yを透過する度合は高い。
表示制御部42は、第1動作モードおよび第2動作モードの何れかを動作モードとして設定する。第1動作モードは、参照画像Yの視認を優先する参照モードであり、第2動作モードは、利用者Uの手指Hxの視認を優先する練習モードである。例えば、表示制御部42は、操作装置33に対する利用者Uからの指示に応じて動作モードを設定する。例えば、動作モードの切替が利用者Uから指示されるたびに、表示制御部42は、動作モードを第1動作モードおよび第2動作モードの一方から他方に変更する。
図10は、第5実施形態における画像生成処理S5のフローチャートである。参照画像Yの再生を制御する処理(S51)と参照画像Yの位置を制御する処理(S52)とは、第1実施形態と同様である。
制御装置31(表示制御部42)は、動作モードが第1動作モードであるか否かを判定する(S57)。動作モードが第1動作モードである場合(S57:YES)、制御装置31(表示制御部42)は、透過パラメータαを数値α1に設定する(S58)。他方、動作モードが第2動作モードである場合(S57:NO)、制御装置31(表示制御部42)は、透過パラメータαを数値α2に設定する(S59)。制御装置31(表示制御部42)は、以上の処理により設定された透過パラメータαのもとで参照画像Yを観測画像Xに合成することで、案内画像Zを生成する(S53)。画像生成処理S5以外の動作は第1実施形態と同様である。
第4実施形態と同様に、透過パラメータαの数値α2は、数値α1と比較して透過の度合が高いことを意味する。具体的には、数値α2は、数値α1よりも大きい数値に設定される。例えば、数値α2は50%(半透明)に設定され、数値α1は0%(不透明)に設定される。以上の通り、第1動作モードにおいては参照画像Yが不透明(α=α1)で表示され、第2動作モードにおいては参照画像Yが半透明(α=α2)で表示される。すなわち、第1動作モードでは、第2動作モードと比較して、参照画像Yの透過の度合が高い。なお、数値α1は「第1値」の一例であり、数値α2は「第2値」の一例である。
第5実施形態においても第1実施形態と同様の効果が実現される。第5実施形態においては特に、参照画像Yの透過パラメータαの数値が制御される。したがって、第4実施形態と同様に、参照画像Yを優先的に視認する使用形態と、利用者U自身の手指Hxを優先的に視認する使用形態とを切替可能である。
例えば、第5実施形態においては、第2動作モードにおいて、透過パラメータαが、数値α1よりも透過の度合が高い数値α2に設定される。したがって、透過パラメータαが数値α1に固定された構成(参照画像Yが常に不透明で表示される構成)と比較して、利用者Uは自身の手指Hxを優先的に視認できる。他方、第1動作モードにおいては、透過パラメータαが、数値α2よりも透過の度合が低い数値α1に設定される。したがって、透過パラメータαが数値α2に固定された構成(参照画像Yが常に半透明で表示される構成)と比較して、利用者Uは参照画像Yを容易に視認できる。なお、第2実施形態または第3実施形態は、第5実施形態にも同様に適用される。
F:第6実施形態
図11は、第6実施形態における演奏システム100の構成を例示するブロック図である。第6実施形態の演奏システム100における情報処理システム30は、第1実施形態と同様の要素(制御装置31,記憶装置32,操作装置33,放音装置34)に加えて通信装置35を具備する。通信装置35は、例えばインターネット等の通信網200を介して外部装置と通信する。なお、通信装置35と通信網200との間の通信は有線および無線の何れでもよい。また、情報処理システム30とは別体の通信装置35を、情報処理システム30に対して有線または無線により接続してもよい。
図11の収録システム60は、参照画像Yを収録するコンピュータシステムであり、鍵盤楽器10の演奏を指導者Tが利用者Uに指導するために使用される。指導者Tは、参照演奏者に相当する。すなわち、第6実施形態の参照画像Yは、指導者Tが鍵盤楽器63を演奏する様子を表す動画である。鍵盤楽器63は、例えば鍵盤Byを具備する自然楽器または電子楽器である。収録システム60は、撮像装置61と通信装置62とを具備する。
撮像装置61は、指導者Tが鍵盤楽器63を演奏する様子を撮像する。すなわち、撮像装置61は、指導者Tの左右の手指Hyと鍵盤楽器63の鍵盤Byとを含む参照画像Yを撮像する。通信装置62は、例えばスマートフォンまたはタブレット端末等の可搬型の情報装置、またはパーソナルコンピュータ等の可搬型または据置型の情報装置である。撮像装置61は、通信装置62に搭載されてもよい。
通信装置62は、参照画像Yを表す参照画像データDyを情報処理システム30に送信する。参照画像データDyは、指導者T(参照演奏者)による演奏動作を表す動画データである。例えば、第1実施形態と同様に、指導者Tの手指Hyと鍵盤Byとを表す点群データまたはスケルトンデータが、参照画像データDyとして例示される。指導者Tによる鍵盤楽器63の演奏に並行して参照画像データDyが収録システム60から演奏システム100に送信される。参照画像データDyは、通信網200を経由して情報処理システム30の通信装置35により受信される。
図12は、第6実施形態における情報処理システム30の機能的な構成を例示するブロック図である。第6実施形態の制御装置31は、第1実施形態と同様の要素(画像取得部41,表示制御部42,基準特定部43,音源処理部44,演奏解析部45)に加えて受信制御部46として機能する。受信制御部46は、収録システム60から送信された参照画像データDyを通信装置35により受信する。
第1実施形態の表示制御部42は、記憶装置32に記憶された参照画像データDyの参照画像Yを観測画像Xに合成することで、案内画像Zを生成する。第6実施形態の表示制御部42は、受信制御部46が取得した参照画像データDyの参照画像Yを観測画像Xに合成することで、案内画像Zを生成する(S5)。すなわち、表示制御部42は、参照画像データDyが表す参照画像Yを表示装置22に表示する。以上の通り、第6実施形態の案内画像Zは、利用者Uが鍵盤楽器10を演奏する様子を表す観測画像Xと、指導者Tが鍵盤楽器63を演奏する様子を表す参照画像Yとで構成される。指導者Tによる鍵盤楽器63の演奏に並行して実時間的に、当該演奏の参照画像Yを含む案内画像Zが表示装置22に表示される。
第6実施形態においても第1実施形態と同様の効果が実現される。また、第6実施形態においては、指導者T(参照演奏者)による演奏動作の撮像に並行して、利用者Uが使用する表示装置22に当該演奏動作の参照画像Yを表示できる。したがって、利用者Uは、実際には遠隔に所在する指導者Tが恰も近傍に存在するかのような感覚で、鍵盤楽器10を演奏できる。
G:変形例
以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。前述の実施形態および以下に例示する変形例から任意に選択された複数の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
(1)前述の各形態においては、非透過型の表示パネルを表示装置22として例示したが、現実空間からの到来光が透過する透過型の表示パネルが、表示装置22として利用されてもよい。透過型の表示装置22が利用される形態では、観測画像Xを表示装置22に表示することは必須ではない。すなわち、表示制御部42は、参照画像Yを案内画像Zとして表示装置22に表示する。利用者Uは、現実空間からの透過光により鍵盤楽器10の鍵盤Bxを視認しながら、当該鍵盤Bxに重なる参照画像Yを視認できる。透過型の表示装置22が利用される形態においても、参照画像Yの基準位置Rを特定するために観測画像Xが利用される。以上の説明から理解される通り、観測画像Xの表示は省略されてよい。表示装置22は、拡張現実(AR:Augmented Reality)または複合現実(MR:Mixed Reality)により参照画像Yを表示する。
(2)第4実施形態および第5実施形態においては、透過パラメータαが透明度である場合を例示したが、透過パラメータαが不透明度である形態も想定される。透過パラメータαが不透明度である形態では、透過パラメータαの数値が大きいほど、参照画像Yの背後の要素が当該参照画像Yを透過する度合は低い。以上の形態においても、第4実施形態と同様に、鍵盤楽器10が演奏されていない場合に透過パラメータαが数値α1に設定され、鍵盤楽器10が演奏されている場合に透過パラメータαが数値α2に設定される。また、第5実施形態と同様に、第1動作モードにおいて透過パラメータαが数値α1に設定され、第2動作モードにおいて透過パラメータαが数値α2に設定される。ただし、透過パラメータαが不透明度である場合、数値α2は数値α1よりも小さい数値に設定される。例えば、数値α2は50%(半透明)に設定され、数値α1は100%(不透明)に設定される。以上の例示から理解される通り、透過パラメータαが透明度および不透明度の何れであっても、数値α2は、数値α1と比較して透過の度合が高い数値として包括的に表現される。透過パラメータαの数値の大小と参照画像Yの透過度の高低との関係は任意である。
(3)前述の各形態においては、演奏データPを出力可能な電子楽器を鍵盤楽器10として例示したが、演奏データPを出力しない自然楽器が、鍵盤楽器10として利用されてもよい。自然楽器の鍵盤楽器10から放射される楽音をマイクロホンにより収音することで音響信号Aが生成される。演奏解析部45は、音響信号Aを利用して利用者Uによる鍵盤楽器10の演奏を解析する。例えば、演奏解析部45は、音響信号Aの解析により演奏データPの時系列を生成し、演奏データPの時系列と目標楽曲の楽曲データMとを相互に対比することで、演奏ポイントQ1を特定する。演奏速度Q2および操作位置Q3も同様に、音響信号Aの解析により特定される。
(4)前述の各形態においては、演奏解析部45が演奏データPを利用して利用者Uによる演奏を解析する形態を例示したが、演奏解析部45は、観測画像Xを利用して利用者Uによる演奏を解析してもよい。例えば、演奏解析部45は、観測画像Xを解析することで操作位置Q3を特定する。例えば、演奏解析部45は、観測画像Xから利用者Uの手指Hxを検出し、基準位置Rに対する当該手指Hxの位置関係に応じて操作位置Q3を特定する。
(5)前述の各形態においては、撮像装置21および表示装置22が利用者Uの頭部に装着される形態を例示したが、撮像装置21および表示装置22が利用者Uの頭部に装着されることは必須ではない。例えば、撮像装置21および表示装置22の一方または双方が鍵盤楽器10の近傍に設置された形態も想定される。ただし、撮像装置21および表示装置22が利用者Uの頭部に装着される形態においては、利用者Uの頭部の位置および角度に応じて撮像装置21および表示装置22の位置および角度が変化する。すなわち、利用者Uの頭部の動作に連動して、表示装置22に表示される観測画像Xおよび参照画像Yが変化する。したがって、利用者Uは、参照演奏者が恰も現実空間に存在するかのような感覚で鍵盤楽器10を演奏できる。
(6)前述の各形態においては、参照演奏者(指導者T)の手指Hyが表示装置22に表示される形態を例示したが、参照演奏者の上半身または全身が参照画像Yとして表示装置22に表示されてもよい。また、前述の各形態においては、参照画像Yが参照演奏者の手指Hyと鍵盤Byとを含む形態を例示したが、鍵盤Byは参照画像Yから省略されてよい。
(7)前述の各形態においては、利用者Uと参照演奏者とが共通の目標楽曲を演奏する場合を想定したが、利用者Uによる演奏内容と参照演奏者による演奏内容とは相違してもよい。例えば、目標楽曲の複数の演奏パートのうち第1パートを利用者Uが演奏し、第2パートを参照演奏者が演奏してもよい。第1パートおよび第2パートの各々は、目標楽曲の1以上の演奏パートである。
(8)例えばスマートフォンまたはタブレット端末等の端末装置との間で通信するサーバ装置により、情報処理システム30が実現されてもよい。撮像装置21は、端末装置に搭載または接続される。端末装置は、撮像装置21が生成する観測画像データDxと鍵盤楽器10が生成する演奏データPとを情報処理システム30に送信する。情報処理システム30は、前述の各形態と同様に、観測画像データDxと演奏データPとから案内画像データDzを生成し、当該案内画像データDzを端末装置に送信する。端末装置は、案内画像データDzが表す案内画像Zを表示装置22に表示する。表示装置22は、例えば端末装置に搭載されてもよい。
(9)前述の各形態に係る情報処理システム30の機能は、前述の通り、制御装置31を構成する単数または複数のプロセッサと、記憶装置32に記憶されたプログラムとの協働により実現される。以上に例示したプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体も包含される。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体も除外されない。また、配信装置が通信網を介してプログラムを配信する構成では、当該配信装置においてプログラムを記憶する記録媒体が、前述の非一過性の記録媒体に相当する。
H:付記
以上に例示した形態から、例えば以下の構成が把握される。
本開示のひとつの態様(態様1)に係る情報処理システムは、現実空間の鍵盤楽器の鍵盤を含む観測画像を撮像装置から取得する画像取得部と、演奏動作を実行する参照演奏者の手指を含む動画である参照画像を、前記参照演奏者の手指が前記観測画像における前記鍵盤に重なるように、表示装置に表示する表示制御部とを具備する。以上の構成によれば、観測画像における鍵盤に重なるように、参照画像における参照演奏者の手指が表示される。したがって、利用者は、鍵盤楽器の鍵盤に重ねて表示された参照演奏者の手指を視覚的に参照しながら、当該鍵盤楽器を演奏できる。
態様1の具体例(態様2)において、前記撮像装置および前記表示装置は、前記利用者の頭部に装着される。以上の態様においては、利用者の頭部の位置および角度に応じて撮像装置および表示装置の位置および角度が変化する。すなわち、利用者の頭部の動作に連動して、表示装置に表示される参照画像における鍵盤の位置および角度が変化する。したがって、利用者は、参照演奏者が恰も現実空間に存在するかのような感覚で鍵盤楽器を演奏できる。
態様1または態様2の具体例(態様3)において、前記参照画像は、前記参照演奏者が演奏する参照鍵盤を含み、前記参照鍵盤は、前記参照演奏者による演奏動作に応じて変位する複数の鍵を含み、前記表示制御部は、前記観測画像における前記鍵盤に前記参照鍵盤が重なるように、前記参照画像を前記表示装置に表示する。以上の態様によれば、参照演奏者による演奏動作に応じて各鍵が変位する参照鍵盤が、現実空間内の鍵盤に重ねて表示される。したがって、参照演奏者が実際に鍵盤を操作しているような感覚で、利用者は参照演奏者の手指を視覚的に参照できる。
態様1から態様3の何れかの具体例(態様4)において、前記観測画像における前記鍵盤楽器に対する基準位置を、前記観測画像の解析により特定する基準特定部、をさらに具備し、前記表示制御部は、前記基準位置に対応する位置に前記参照画像を表示する。以上の態様によれば、鍵盤楽器に対する基準位置に対応する位置に参照画像が表示される。したがって、現実空間の鍵盤楽器に対して適切な位置に、参照演奏者の手指を配置できる。
態様4の具体例(態様5)において、前記基準特定部は、前記観測画像における前記鍵盤の端部を検出し、当該端部の位置を前記基準位置として特定する。鍵盤楽器の端部(左端または右端)と、鍵盤楽器において鍵盤の両側に位置する部品(拍子木または腕木)とは、色彩等の光学特性が顕著に相違する。したがって、鍵盤の画像から当該鍵盤の端部は正確かつ容易に検出される。すなわち、鍵盤の端部の位置を基準位置として特定する構成によれば、基準位置を正確かつ容易に特定できる。
態様4の具体例(態様6)において、前記基準特定部は、前記観測画像における前記鍵盤楽器の標章を検出し、当該標章の位置を前記基準位置として特定する。鍵盤楽器の商標等の標章は鍵盤楽器の特定の位置(例えば横方向における筐体の中央部)に表示される場合が多い。したがって、鍵盤楽器の標章の位置を基準位置として特定する構成によれば、例えば鍵盤の端部を検出できない状態でも、基準位置を適切に特定できる。
態様4の具体例(態様7)において、前記基準特定部は、前記観測画像における前記鍵盤の複数の鍵のうち操作された鍵を検出し、当該鍵の位置を前記基準位置として特定する。以上の態様によれば、利用者が操作した鍵の位置が基準位置として特定される。したがって、鍵盤楽器の端部または標章を検出できない状態でも、基準位置を適切に特定できる。
態様1から態様7の何れかの具体例(態様8)において、前記表示制御部は、前記参照画像の透過パラメータの数値を制御する。以上の態様においては、参照画像の透過パラメータの数値が制御される。したがって、参照画像の透過パラメータの数値が固定された構成と比較して、参照演奏者の手指を優先的に視認する使用形態と、利用者自身を優先的に視認する使用形態とを切替可能である。
態様8の具体例(態様9)において、前記鍵盤楽器が演奏されているか否かを判定する演奏解析部をさらに具備し、前記表示制御部は、前記鍵盤楽器が演奏されていないと判定された場合に、前記透過パラメータを第1値に設定し、前記鍵盤楽器が演奏されていると判定された場合に、前記透過パラメータを、前記第1値と比較して透過の度合が高い第2値に設定する。以上の態様においては、利用者が鍵盤楽器を演奏している場合に、透過パラメータが、第1値よりも透過の度合が高い第2値に設定される。したがって、透過パラメータが第1値に固定された構成と比較して、利用者は自身の手指を優先的に視認できる。他方、利用者が鍵盤楽器を演奏していない場合には、透過パラメータが、第2値よりも透過の度合が低い第1値に設定される。したがって、透過パラメータが第2値に固定された構成と比較して、利用者は参照画像を容易に視認できる。
態様8の具体例(態様10)において、前記表示制御部は、第1動作モードにおいて、前記透過パラメータを第1値に設定し、第2動作モードにおいて、前記透過パラメータを、前記第1値と比較して透過の度合が高い第2値に設定する。以上の態様においては、第2動作モードにおいて、透過パラメータが、第1値よりも透過の度合が高い第2値に設定される。したがって、透過パラメータが第1値に固定された構成と比較して、利用者は自身の手指を優先的に視認できる。他方、第1動作モードにおいては、透過パラメータが、第2値よりも透過の度合が低い第1値に設定される。したがって、透過パラメータが第2値に固定された構成と比較して、利用者は参照画像を容易に視認できる。
態様1から態様10の何れかの具体例(態様11)において、前記鍵盤楽器の前記鍵盤における操作位置を特定する演奏解析部をさらに具備し、前記表示制御部は、前記鍵盤のうち前記操作位置を含む範囲に対して高音側または低音側の範囲内に、前記参照画像を表示する。以上の態様によれば、利用者による操作位置に対して高音側または低音側の範囲内に参照画像が表示される。すなわち、利用者の手指に重複しない状態で参照画像が表示される。したがって、利用者は、鍵盤楽器を演奏しながら参照画像を確認し易い。
態様1から態様11の何れかの具体例(態様12)において、楽曲内における演奏ポイントを特定する演奏解析部をさらに具備し、前記表示制御部は、前記楽曲に対応する前記参照画像のうち前記演奏ポイントに対応する部分を前記表示装置に表示する。以上の態様によれば、利用者による楽曲の演奏に連動して参照画像の再生が進行する。したがって、利用者は、参照演奏者と協調して鍵盤楽器を演奏しているような感覚で楽曲を演奏できる。
態様12の具体例(態様13)において、前記演奏解析部は、演奏速度をさらに特定し、前記表示制御部は、前記参照画像の再生速度を前記演奏速度に応じて制御する。以上の態様によれば、利用者による楽曲の演奏に連動して参照画像の再生が進行する。したがって、利用者は、参照演奏者と協調して鍵盤楽器を演奏しているような感覚で楽曲を演奏できる。
態様1から態様13の何れかの具体例(態様14)において、前記参照演奏者による演奏動作を表す動画データを通信装置により受信する受信制御部をさらに具備し、前記表示制御部は、前記動画データが表す前記参照画像を前記表示装置に表示する。以上の態様によれば、参照演奏者による演奏動作の撮像に並行して、利用者が使用する表示装置に当該演奏動作の参照画像を表示できる。したがって、利用者は、実際には遠隔に所在する参照演奏者が恰も近傍に存在するかのような感覚で、鍵盤楽器を演奏できる。
本開示のひとつの態様に係る情報処理方法は、現実空間の鍵盤楽器の鍵盤を含む観測画像を撮像装置から取得することと、演奏動作を実行する参照演奏者の手指を含む動画である参照画像を、前記参照演奏者の手指が前記観測画像における前記鍵盤に重なるように、表示装置に表示することと、を含む。
本開示のひとつの態様に係るプログラムは、現実空間の鍵盤楽器の鍵盤を含む観測画像を撮像装置から取得する画像取得部、および、演奏動作を実行する参照演奏者の手指を含む動画である参照画像を、前記参照演奏者の手指が前記観測画像における前記鍵盤に重なるように、表示装置に表示する表示制御部、としてコンピュータシステムを機能させる。
100…演奏システム、10…鍵盤楽器、20…映像システム、21…撮像装置、22…表示装置、30…情報処理システム、31…制御装置、32…記憶装置、33…操作装置、34…放音装置、35…通信装置、41…画像取得部、42…表示制御部、43…基準特定部、44…音源処理部、45…演奏解析部、46…受信制御部、60…収録システム、61…撮像装置、62…通信装置、63…鍵盤楽器、200…通信網。

Claims (16)

  1. 現実空間の鍵盤楽器の鍵盤を含む観測画像を撮像装置から取得する画像取得部と、
    演奏動作を実行する参照演奏者の手指を含む動画である参照画像を、前記参照演奏者の手指が前記観測画像における前記鍵盤に重なるように、表示装置に表示する表示制御部と
    を具備する情報処理システム。
  2. 前記撮像装置および前記表示装置は、利用者の頭部に装着される
    請求項1の情報処理システム。
  3. 前記参照画像は、前記参照演奏者が演奏する参照鍵盤を含み、
    前記参照鍵盤は、前記参照演奏者による演奏動作に応じて変位する複数の鍵を含み、
    前記表示制御部は、前記観測画像における前記鍵盤に前記参照鍵盤が重なるように、前記参照画像を前記表示装置に表示する
    請求項1の情報処理システム。
  4. 前記観測画像における前記鍵盤楽器に対する基準位置を、前記観測画像の解析により特定する基準特定部、をさらに具備し、
    前記表示制御部は、前記基準位置に対応する位置に前記参照画像を表示する
    請求項1の情報処理システム。
  5. 前記基準特定部は、前記観測画像における前記鍵盤の端部を検出し、当該端部の位置を前記基準位置として特定する
    請求項4の情報処理システム。
  6. 前記基準特定部は、前記観測画像における前記鍵盤楽器の標章を検出し、当該標章の位置を前記基準位置として特定する
    請求項4の情報処理システム。
  7. 前記基準特定部は、前記観測画像における前記鍵盤の複数の鍵のうち操作された鍵を検出し、当該鍵の位置を前記基準位置として特定する
    請求項4の情報処理システム。
  8. 前記表示制御部は、前記参照画像の透過パラメータの数値を制御する
    請求項1の情報処理システム。
  9. 前記鍵盤楽器が演奏されているか否かを判定する演奏解析部をさらに具備し、
    前記表示制御部は、
    前記鍵盤楽器が演奏されていないと判定された場合に、前記透過パラメータを第1値に設定し、
    前記鍵盤楽器が演奏されていると判定された場合に、前記透過パラメータを、前記第1値と比較して透過の度合が高い第2値に設定する
    請求項8の情報処理システム。
  10. 前記表示制御部は、
    第1動作モードにおいて、前記透過パラメータを第1値に設定し、
    第2動作モードにおいて、前記透過パラメータを、前記第1値と比較して透過の度合が高い第2値に設定する
    請求項8の情報処理システム。
  11. 前記鍵盤楽器の前記鍵盤における操作位置を特定する演奏解析部をさらに具備し、
    前記表示制御部は、前記鍵盤のうち前記操作位置を含む範囲に対して高音側または低音側の範囲内に、前記参照画像を表示する
    請求項1の情報処理システム。
  12. 楽曲内における演奏ポイントを特定する演奏解析部をさらに具備し、
    前記表示制御部は、前記楽曲に対応する前記参照画像のうち前記演奏ポイントに対応する部分を前記表示装置に表示する
    請求項1の情報処理システム。
  13. 前記演奏解析部は、演奏速度をさらに特定し、
    前記表示制御部は、前記参照画像の再生速度を前記演奏速度に応じて制御する
    請求項12の情報処理システム。
  14. 前記参照演奏者による演奏動作を表す動画データを通信装置により受信する受信制御部をさらに具備し、
    前記表示制御部は、前記動画データが表す前記参照画像を前記表示装置に表示する
    請求項1の情報処理システム。
  15. 現実空間の鍵盤楽器の鍵盤を含む観測画像を撮像装置から取得することと、
    演奏動作を実行する参照演奏者の手指を含む動画である参照画像を、前記参照演奏者の手指が前記観測画像における前記鍵盤に重なるように、表示装置に表示することと
    を含む、コンピュータシステムにより実現される情報処理方法。
  16. 現実空間の鍵盤楽器の鍵盤を含む観測画像を撮像装置から取得する画像取得部、および、
    演奏動作を実行する参照演奏者の手指を含む動画である参照画像を、前記参照演奏者の手指が前記観測画像における前記鍵盤に重なるように、表示装置に表示する表示制御部、
    としてコンピュータシステムを機能させるプログラム。
JP2022063427A 2022-04-06 2022-04-06 情報処理システム、情報処理方法およびプログラム Pending JP2023154236A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022063427A JP2023154236A (ja) 2022-04-06 2022-04-06 情報処理システム、情報処理方法およびプログラム
US18/187,336 US20230326357A1 (en) 2022-04-06 2023-03-21 Information processing system and computer system implemented method of processing information
CN202310327288.2A CN116893735A (zh) 2022-04-06 2023-03-30 信息处理系统、信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022063427A JP2023154236A (ja) 2022-04-06 2022-04-06 情報処理システム、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2023154236A true JP2023154236A (ja) 2023-10-19

Family

ID=88239642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022063427A Pending JP2023154236A (ja) 2022-04-06 2022-04-06 情報処理システム、情報処理方法およびプログラム

Country Status (3)

Country Link
US (1) US20230326357A1 (ja)
JP (1) JP2023154236A (ja)
CN (1) CN116893735A (ja)

Also Published As

Publication number Publication date
US20230326357A1 (en) 2023-10-12
CN116893735A (zh) 2023-10-17

Similar Documents

Publication Publication Date Title
CN111052223B (zh) 播放控制方法、播放控制装置及记录介质
US20150103019A1 (en) Methods and Devices and Systems for Positioning Input Devices and Creating Control
JP6699677B2 (ja) 情報処理方法、情報処理装置およびプログラム
JP2013152482A (ja) 出力を生成するシステムおよび方法
CN106981282A (zh) 一种钢琴演奏琴键提示方法及系统
WO2009007512A1 (en) A gesture-controlled music synthesis system
CA3076944A1 (en) Techniques for controlling the expressive behavior of virtual instruments and related systems and methods
US7504572B2 (en) Sound generating method
KR20120034486A (ko) 음악교습에 사용되는 건반장치
Zlatintsi et al. A web-based real-time kinect application for gestural interaction with virtual musical instruments
JP6217275B2 (ja) 曲データ表示装置、曲データ表示方法及びプログラム
JP6070652B2 (ja) リファレンス表示装置およびプログラム
JP2023154236A (ja) 情報処理システム、情報処理方法およびプログラム
Fonteles et al. User experience in a kinect-based conducting system for visualization of musical structure
JP6836877B2 (ja) 吹奏楽器の練習支援装置及び練習支援方法
US20130106689A1 (en) Methods of operating systems having optical input devices
JP7458127B2 (ja) 処理システム、音響システム及びプログラム
WO2023181570A1 (ja) 情報処理方法、情報処理システムおよびプログラム
JP2008165098A (ja) 電子楽器
JP7338669B2 (ja) 情報処理装置、情報処理方法、演奏データ表示システム、およびプログラム
Zaveri et al. Aero Drums-Augmented Virtual Drums
WO2016017623A1 (ja) リファレンス表示装置、リファレンス表示方法およびプログラム
JP6102397B2 (ja) 演奏表示装置、演奏表示方法及びプログラム
WO2023181571A1 (ja) データ出力方法、プログラム、データ出力装置および電子楽器
JP7326776B2 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230404