JP7327434B2 - プログラム、方法、情報処理装置、および演奏データ表示システム - Google Patents

プログラム、方法、情報処理装置、および演奏データ表示システム Download PDF

Info

Publication number
JP7327434B2
JP7327434B2 JP2021050017A JP2021050017A JP7327434B2 JP 7327434 B2 JP7327434 B2 JP 7327434B2 JP 2021050017 A JP2021050017 A JP 2021050017A JP 2021050017 A JP2021050017 A JP 2021050017A JP 7327434 B2 JP7327434 B2 JP 7327434B2
Authority
JP
Japan
Prior art keywords
performance
sound
detected
technique
velocity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021050017A
Other languages
English (en)
Other versions
JP2022148366A (ja
Inventor
滋 加福
広子 奥田
雅行 広浜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2021050017A priority Critical patent/JP7327434B2/ja
Priority to CN202210275194.0A priority patent/CN115132154A/zh
Priority to US17/700,692 priority patent/US20220310046A1/en
Publication of JP2022148366A publication Critical patent/JP2022148366A/ja
Application granted granted Critical
Publication of JP7327434B2 publication Critical patent/JP7327434B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/368Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • G10H1/04Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation
    • G10H1/053Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation during execution only
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/051Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or detection of onsets of musical sounds or notes, i.e. note attack timings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/095Inter-note articulation aspects, e.g. legato or staccato
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Description

本発明は、プログラム、方法、情報処理装置、および演奏データ表示システムに関する。
デジタルキーボードをはじめとする電子楽器は、プロセッサおよびメモリを備え、いわば鍵盤付きの組込みコンピュータといえる。USB(Universal Serial Bus)等のインタフェースでタブレット等の情報処理装置に接続し、多様な拡張機能を利用できる機種も知られている。例えば、電子楽器を演奏して発生するMIDI(Musical Instrument Digital Interface)データを解析し、演奏とともに変化する動画像や、演奏の内容を反映する静止画像(絵)を作成して表示する技術が開発されている(例えば、特許文献1を参照)。
楽器の練習は大変で、途中で飽きてしまって断念する人も多い。自分の演奏を録音し、どの部分が弾けなかったかを確認するというのはある程度弾けるようになってからの話であり、その前にあきらめてしまう人が多い。上級者だけでなく、楽器演奏の入り口に立っている人達に練習の意欲を高めてもらうためにも、音楽演奏を可視化して、視覚的な効果を利用する技術に注目が集まっている。
特開2019-101168号公報
"Music Tapestry",[online],[令和3年3月8日検索],インターネット,<URL:https://news.mynavi.jp/article/20190724-casio_music_tapestry/>
特許文献1の技術では、演奏することによって発生する演奏データを解析して、一つ一つの音の強さ(ベロシティ)、曲全体または一部の調性、楽曲中の任意の区間におけるコードの情報などを取得し、解析結果に応じた画像を作成する。しかし、調性や個々のコードネームなどはいわば静的な情報であり、楽曲の躍動感を絵に表現することは難しい場合があった。音の強さは考慮されるにせよ、時間的なダイナミクスの変化、音列の時系列的な流れや前後関係などから把握される情感を映像表現に反映することは難しかった。
そこで、演奏者の披露した、例えばグリッサンド等の演奏技法や、フォルティッシモ、ピアニッシモなどの演奏表現を視覚表現に反映させることができれば、演奏することがさらに楽しくなることが期待される。また、練習意欲が高まったり、他者に披露することが楽しみになったりすることも期待される。
そこで本発明の目的は、音楽を可視化する技術の表現力を向上させ、これにより、演奏することの楽しさをさらに高めたプログラム、方法、情報処理装置、および演奏データ表示システムを提供することにある。
本上記目的を達成するために、本発明の一実施形態であるプログラムは、情報処理装置に、演奏に伴って発生する演奏データに基づいて音列の時系列的な特徴を抽出する解析処理と、抽出された前記特徴から演奏技法を検出する検出処理と、検出された前記演奏技法に対応する画像データを出力する出力処理と、を実行させる命令を含み、前記解析処理は、第1音のベロシティから、前記第1音より時間的に前の第2音のベロシティを減算したベロシティ差を抽出し、前記検出処理は、前記ベロシティ差が既定の閾値以上である場合に、ベロシティ突出音を検出する。
本上記目的を達成するために、本発明の一実施形態であるプログラムは、情報処理装置に、演奏に伴って発生する演奏データに基づいて音列の時系列的な特徴を抽出させ、抽出された前記特徴から演奏技法を検出させ、検出された前記演奏技法に対応する画像データを出力させ、複数の演奏技法が検出された場合に、複数の演奏技法が検出された場合に優先される演奏技法を登録したテーブルに登録された演奏技法を選択させる
本発明によれば、演奏技法を映像表現に反映することができるので、演奏することの楽しさをさらに高めることが可能になる。
図1は、実施形態に係わる演奏データ表示システムの一例を示す模式図である。 図2は、実施形態に係るデジタルキーボード1の一例を示すブロック図である。 図3は、情報処理装置3の一例を示す機能ブロック図である。 図4は、情報処理装置3の処理手順の一例を示すフローチャートである。 図5は、一つの譜例を示す図である。 図6は、図5の譜例から作成された第1画像の例を示す図である。 図7は、図5の譜例から作成された第2画像の例を示す図である。 図8は、ステップS3における演奏技法認識処理の処理手順の一例を示すフローチャートである。 図9は、複数の演奏技法が認識された場合に、いずれを優先するかの設定の例を示す図である。 図10は、グリッサンド検出処理における処理手順の一例を示すフローチャートである。 図11は、グリッサンドが検出された場合の表現の一例を示す図である。 図12は、レガート検出処理における処理手順の一例を示すフローチャートである。 図13は、レガートが検出された場合の表現の一例を示す図である。 図14は、トリル検出処理における処理手順の一例を示すフローチャートである。 図15は、トリルが検出された場合の表現の一例を示す図である。 図16は、ベロシティ突出音検出処理における処理手順の一例を示すフローチャートである。 図17は、ベロシティ突出音が検出された場合の表現の一例を示す図である。
以下、図面を参照して、本発明の実施の形態について説明する。
<構成>
図1は、実施形態に係わる演奏データ表示システムの一例を示す模式図である。図1に示される演奏データ表示システムは、ユーザ(演奏者)の演奏に合わせてリアルタイムに画像(絵)を描画する。この種の演奏データ表示システムは、ユーザの演奏を演奏データ(例えばMIDIデータ)として出力できる電子楽器等から取得した演奏データを解析し、その結果をもとに画像を生成する。
図1において、演奏データ表示システムは、電子楽器と、情報処理装置と、ディスプレイ装置と、を含む。
電子楽器は、ユーザの演奏から演奏データ(例えばMIDIデータ)を生成し、演奏データを情報処理装置に出力する。情報処理装置は、受信した演奏データを解析し、画像データを生成する。情報処理装置は、例えば、タブレットやPC(パーソナルコンピュータ)である。ディスプレイ装置は、情報処理装置により生成された画像を表示する。
図2は、実施形態に係るデジタルキーボード1の一例を示すブロック図である。デジタルキーボード1は、USBインタフェース(I/F)11、RAM(Random Access Memory)12、ROM(Read Only Memory)13、表示部14、表示コントローラ15、LED(Light Emitthing Diode)コントローラ16、鍵盤17、操作部18、キースキャナ19、MIDIインタフェース(I/F)20、システムバス21、CPU(Central Processing Unit)22、タイマ23、音源24、デジタル/アナログ(D/A)コンバータ25、ミキサ26、D/Aコンバータ27、音声合成LSI28、および、アンプ29を備える。ここで、音源24、および音声合成LSI28は、例えばDSP(Digital Signal Processor)として実現される。
CPU22、音源24、音声合成LSI28、USBインタフェース11、RAM12、ROM13、表示コントローラ15、LEDコントローラ16、キースキャナ19、およびMIDIインタフェース20は、システムバス21に接続される。
CPU22は、デジタルキーボード1を制御するプロセッサである。すなわちCPU22は、ROM13に記憶されたプログラムを、ワーキングメモリとしてのRAM12に読み出し、実行して、デジタルキーボード1の各種の機能を実現する。CPU22は、タイマ23から供給されるクロックに従って動作する。クロックは、例えば自動演奏、自動伴奏のシーケンスを制御するために用いられる。
ROM13は、プログラム、各種設定データ、自動伴奏データ等を記憶する。自動伴奏データは、予めプリセットされたリズムパターン、コード進行、ベースパターン、あるいはオブリガード等のメロディデータ等を含んでよい。メロディデータは、各音の音高情報、各音の発音タイミング情報等を含んでよい。
各音の発音タイミングは、各発音間の間隔時間でもよく、自動演奏曲の開始時からの経過時間であっても良い。時間の単位にはtickが用いられることが多い。tickは、一般的なシーケンサで用いられる、曲のテンポを基準とする単位である。例えば、シーケンサの分解能が480であれば、4分音符の時間の1/480が1tickとなる。
自動伴奏データは、ROM13に限らず、図示しない情報記憶装置や情報記憶媒体に記憶されていても良い。自動伴奏データのフォーマットは、MIDI用のファイルフォーマットに準拠してもよい。
表示コントローラ15は、表示部14の表示状態を制御するIC(Integated Circuit)である。LEDコントローラ16は、例えばICである。LEDコントローラ16は、CPU22からの指示により鍵盤17の鍵を光らせて、演奏者の演奏をナビゲートする。
キースキャナ19は、鍵盤17の押鍵/離鍵状態、操作部18のスイッチ操作状態を定常的に監視する。そして、キースキャナ19は、鍵盤17、操作部18の状態をCPU22に伝える。
MIDIインタフェース20は、MIDI装置4等の外部装置からのMIDIメッセージ(演奏データ等)を入力したり、MIDIメッセージを外部装置に出力したりする。デジタルキーボード1は、例えばUSB(Universal Serial Bus)等のインタフェースを用いて、外部装置とMIDIメッセージやMIDIデータファイルを授受することが可能である。受信されたMIDIメッセージは、CPU22経由で音源24に渡される。音源24は、MIDIメッセージで指定された音色、音量(ベロシティ)、タイミング等に従って音を鳴らす。
音源24は、例えばGM(General MIDI)規格に準拠する、いわゆるGM音源である。この種の音源は、MIDIメッセージとしてのプログラムチェンジを与えれば音色を変更できるし、コントロールチェンジを与えれば既定のエフェクトを制御することができる。
音源24は、例えば同時に最大で256ボイスを発音する能力を有する。音源24は、例えば波形ROM(図示せず)から楽音波形データを読み出し、デジタル楽音波形データとしてD/Aコンバータ211に出力される。D/Aコンバータ211は、デジタル楽音波形データをアナログ楽音波形信号に変換する。
音声合成LSI28は、CPU22から、歌詞のテキストデータと音高に関する情報を歌声データとして与えられると、それに対応する歌声の音声データを合成し、D/Aコンバータ25に出力する。D/Aコンバータ25は、音声データをアナログ音声波形信号に変換する。
ミキサ26は、アナログ楽音波形信号、およびアナログ音声波形信号をミックスし、出力信号を生成する。この出力信号はアンプ29で増幅され、スピーカ、あるいはヘッドフォンアウトなどの出力端子から出力される。
情報処理装置3が、USBインタフェース11経由でシステムバス21に接続される。情報処理装置3は、デジタルキーボード1が演奏されることで発生したMIDIデータ(演奏データ)を、USBインタフェース11経由で取得することができる。
さらに、図示しない記憶メディア等も、USBインタフェース11経由でシステムバス21に接続されても良い。記憶メディアとしては、例えば、USBメモリ、フレキシブルディスクドライブ(FDD)、ハードディスクドライブ(HDD)、CD-ROMドライブ及び光磁気ディスク(MO)ドライブ等が挙げられる。ROM106にプログラムが記憶されていない場合には、記憶メディアにプログラムを記憶させておき、それをRAM105に読み込むことにより、ROM106にプログラムを記憶している場合と同様の動作をCPU111に実行させることができる。
図3は、情報処理装置3の一例を示す機能ブロック図である。図3において、情報処理装置3は、操作部31、表示部32、通信部33、音出力部34、制御部36(CPU)、および、メモリ35を備える。操作部31、表示部32、通信部33、音出力部34、制御部36及びメモリ35)は、バス37で通信可能に接続され、各部間で必要なデータがバス37を介して授受される。
操作部31は、例えば、電源のON/OFFを行うための電源スイッチ等のスイッチ類を含む。表示部32は、タッチパネル付きの液晶モニタを有し、画像を表示する。表示部32はタッチパネル機能も有するので、操作部31の一端を担うことができる。
通信部33は、他の機器等との間で通信を行うための無線ユニットや有線ユニットを備える。実施形態では、例えばUSBケーブル等を介してデジタルキーボード1に有線接続され、これにより情報処理装置3は、デジタルキーボード1との間で各種のディジタルデータを授受することができる。
音出力部34は、スピーカーやイヤホンジャック等を備え、アナログの音声や楽音を再生出力したり、オーディオ信号を出力する。
制御部36は、CPU等のプロセッサを備え、情報処理装置3の制御を司る。制御部36のCPUは、メモリ35に記憶されている制御プログラムやインストールされたアプリケーションに従って、各種の処理等を実行する。
メモリ35は、ROM40およびRAM50を備える。
ROM40は、例えば、制御部36が実行するプログラム41、各種データ、テーブル等を記憶する。
RAM50は、プログラム41を動作させる上で必要なデータを記憶する。またRAM50は、制御部36が作成するデータ、デジタルキーボード1から送られたMIDIデータ、及び、アプリケーションを展開させるための一時記憶領域等としても機能する。実施形態においては、RAM50は、MIDIデータとしての演奏データ50aと、キャラクタデータ50bと、演奏データ50aに由来する第1画像データ50c、および、第2画像データ50dを記憶する。
キャラクタデータ50bは、花、虫、動物、リボンなどの、親しみやすいキャラクタの画像データである。演奏の音楽的調和の如何によっては、枯れた葉っぱなどのネガティブイメージなキャラクタが表示されることもある。
第1画像データ50cは、演奏中にリアルタイムで表示される動画像(第1画像)の画像データであり、演奏データ50aの解析結果に応じたキャラクタデータ50bを適切なタイミングで背景に配置して、生成される。第2画像データ50dは、演奏が終わってから表示される静止画(第2画像)の画像データである。
ところで、実施形態において、プログラム41は、音楽解析ルーチン41a、演奏技法検出ルーチン70b、画像作成ルーチン41c、および、出力制御ルーチン41dを備える。
音楽解析ルーチン41aは、入力された演奏データ50aを解析して、演奏された、あるいは演奏途中の曲の調性、コード、拍、拍子などを取得する。演奏データ50aに音名情報そのもの、あるいはコード種別情報が含まれていない場合でも、例えばノートナンバー情報から音名を取得することができるし、音名の一群からコード種別情報を取得することができる。なお、調性やコード種別等を判定するための手法は、特に限定されるものではないが、例えば、特許第3211839号明細書等に開示された手法を用いることができる。
また、音楽解析ルーチン41aは、演奏データ50aを解析して、演奏された音列の時系列的な特徴を、制御部36に抽出させる。すなわち音楽解析ルーチン41aは、演奏データ50aを解析して音列の時系列的な特徴を抽出する。
演奏技法検出ルーチン41bは、音楽解析ルーチン41aにより抽出された特徴から、演奏技法を検出する。例えば、時系列に並べた音列の音程が滑らかに(例えば半音または全音ずつ)変化していて、音列同士の時間間隔が非常に短いという特徴が抽出されたとする。この場合には「グリッサンド」で演奏されたと判定することができる。時間に対して音列が高い音から低い音へと並んでいるか、またはその逆か、ということも判定でき、その結果からグリッサンドの方向を判定することもできる。
画像作成ルーチン41cは、演奏データ50aに基づいて、例えば特許文献1に開示される技術を利用して、第1画像データ50c、および第2画像データ50dを作成する。また、画像作成ルーチン41cは、演奏技法検出ルーチン41bにより検出された演奏技法を反映させた第1画像データ50cを作成する。つまり画像作成ルーチン41cは、リアルタイム動画に演奏技法を反映させる。結果として、演奏終了後の静止画にも、検出された演奏技法が反映されることになる。
出力制御ルーチン41dは、画像作成ルーチン41cで生成された画像データを、表示装置としての表示部32に出力し、表示させる。
<作用>
次に、上記構成における作用を説明する。以下では、情報処理装置3がデジタルキーボード1に、通信可能に接続されているとして説明する。また、画像を表示部32に表示させるためのアプリケーションが情報処理装置3で起動されているとする。
図4は、情報処理装置3の処理手順の一例を示すフローチャートである。図4において、情報処理装置3の制御部36(CPU)は、デジタルキーボード1からの演奏データの送信を待ち受ける(ステップS1)。ここで、演奏データの入力が無ければ(ステップS1でNo)、制御部36は、演奏データなしで所定の時間が経過したか否かを判定する(ステップS7)。ステップS7でNoであれば、処理手順は再びステップS1に戻る。
ステップS1で演奏データの入力があれば(ステップS1でYes)、制御部36は、演奏判定処理を実行する(ステップS2)。ステップS2において制御部36は、取得した演奏データに基づき、例えば、演奏されている曲の調(例えば、ハ長調~ロ短調の24種類)の判定、コード種別(例えば、Major、minor、sus4、aug、dim、7th等)の判定、拍などを判定する。ここで得られた判定結果は、第1画像に反映される。
図5は、一つの譜例を示す図である。例えば図5のような演奏が行われると、図6に示されるように、ドレミファ…の順に、花(1)、葉(2)、てんとう虫(3)、蝶々(4)、のキャラクターが次々に配置され、第1画像となる。演奏が終わると、図7に示されるように各キャラクターがらせん状の軌道の上に配置され、第2画像になる。
図4に戻って説明を続ける。次に、制御部36は次に、演奏技法認識処理を行う(ステップS3)。演奏技法が認識されなければ(ステップS4でNo)、制御部36は、その時点で得られている判定結果に応じた第1画像を生成出力する(ステップS5)。一方、演奏技法が認識されれば(ステップS4でYes)、制御部36は、その演奏技法を反映させた第1画像を生成出力する(ステップS6)。なお、ステップS3、ステップS6の処理についてはのちに詳しく説明する。
演奏中はステップS1~ステップS7の処理が繰り返され、やがて演奏が終わるとステップS7でYesになり、第2画像が生成出力されて一連の処理は終了する。
図8は、ステップS3における演奏技法認識処理の処理手順の一例を示すフローチャートである。演奏技法認識処理においては、例えば、グリッサンド検出処理(ステップS31)、レガート検出処理(ステップS32)、トリル検出処理(ステップS33)、前打音検出処理(ステップS34)、ターン検出処理(ステップS35)、長音検出処理(ステップS36)、スタッカート検出処理(ステップS37)、ベロシティ突出音検出処理(ステップS38)、クレッシェンド/デクレッシェンド検出処理(ステップS39)、シンコペーション検出処理(ステップS3a)、跳躍検出処理(ステップS3b)、および、ノンレガート検出処理(ステップS3c)が実行される。すなわち、演奏技法認識処理が呼び出されるたびに、ステップS31~3cにおいて、リアルタイムで入力されている演奏がそれぞれの演奏技法に該当するか否かが判定される。
なお、実施形態においては「演奏技法」の用語を「演奏表現」とほぼ同義として、より広い解釈で用いることとする。つまり図8に示される演奏表現は、いずれも「演奏技法」であるとして説明する。
図9は、複数の演奏技法が検出された場合に、いずれを優先するかの設定の例を示す図である。例えば、レガートとスタッカートが同時に検出されることはない(図中、ドットのハッチングで示す)が、グリッサンドとスタッカートが同時に検出されてしまうことはあるかもしれない。そのような場合には、例えばグリッサンドを優先して選択するように予め設定し、図9のようなテーブルに登録しておくことが好ましい。
このほかにも、図9によれば、トリルとグリッサンドが検出されればグリッサンドが優先される。また、ノンレガートとグリッサンドのセットでも、グリッサンドが優先される。もちろん、これは1例であり、いずれを優先するかは工場出荷時やユーザの設定により自由に変更できる。例えば、グリッサンドが得意で多用する演奏者に対しては、グリッサンドを優先するように設定すればよい。
また、図9において、長音とスタッカートが同時に検出されることはないこと、および、長音とグリッサンド、トリル、前打音、およびターンが同時に検出されることはないことが示される。このように、同時に検出されることの無いであろう技法を予め登録しておくことで、プロセスタイムの短縮の効果がある。つまり、例えばグリッサンドが検出された段階で図8の残りの手順をスキップし、ただちにステップS4(図4)に戻るようにすれば、処理に要する時間を短縮できる。なお、図9のテーブルは、予めメモリ35(図3)のROM40またはRAM50に記憶される。
<グリッサンド>
図10は、グリッサンド検出処理(ステップS31)における処理手順の一例を示すフローチャートである。図10において、制御部36は、フラグ変数glissにFalseを代入するとともに、変数としての、現ノートのグリッサンド値に0を代入して初期化処理を行う(ステップS11)。なお、現ノートとは、現在注目している音(note)であって、つまりその時点で発音されている音である。
次に、制御部36は、((0<(現ノートとその1個前のノートとの音高差)<4)∧(現ノートとその1個前のノートとの時間差>100))が真であるか否かを判定する(ステップS12)。ここで、音高差は(後の音の音高‐前の音の音高)であり、∧は論理積(and)を意味し、時間差の単位は例えばtickである。真であれば(ステップS12でYes)、制御部36は、glissにTrueを代入して、音程間隔を表す変数Ichiに1を代入し、ステップS18にジャンプする(ステップS13)。
ステップS12で偽であれば(No)、現ノートから2個前のノートについて同様の判定が行われる。すなわち制御部36は、((0<(現ノートとその2個前のノートとの音高差)<4)∧(現ノートとその2個前のノートとの時間差>100))が真であるか否かを判定する(ステップS14)。真であれば(Yes)、制御部36は、glissにTrueを代入し、変数Ichiに2を代入してステップS18にジャンプする(ステップS15)。
ステップS14でも偽であれば(No)、現ノートから3個前のノートについて同様の判定が行われる。すなわち制御部36は、((0<(現ノートとその3個前のノートとの音高差)<4)∧(現ノートとその3個前のノートとの時間差>100))が真であるか否かを判定する(ステップS16)。真であれば(Yes)、制御部36は、glissにTrueを代入し、変数Ichiに3を代入してステップS18にジャンプする(ステップS17)。
ステップS18では、制御部36は、フラグ変数glissの真偽を判定する。ステップS18でYes、つまりgliss == Trueであれば、制御部36は、現ノートのグリッサンド値 = Ichi個前のノートのグリッサンド値+1とする(ステップS19)。すなわち現ノートのグリッサンド値は、何個のノートが繋がっているかを表わす値となる。ステップS18の判定条件が偽、つまりNoであれば、現ノートのグリッサンド値は0となる。
ステップS12~ステップS16で、3個前までの音までを判定している理由は、次のとおりである。つまり、ピアノなどの鍵盤楽器では両手で演奏されるのが通常であるため、左手で和音や単音メロディー、右手でグリッサンドが同時に演奏される場合があり得る。現ノートが右手グリッサンドのふたつ目以降の音、1個前のノートが左手で演奏された音の場合、音高差が4以上となるので、右手はグリッサンド演奏しているにも関わらずグリッサンド値が増えない。そのため1個前の音だけでなく、3個前までの音までを判定している。以降の他の演奏技法検出処理でも、左手と右手の演奏が混在している演奏データを想定している。
次に、制御部36は、現ノートのグリッサンド値が既定の閾値th(例えば5)以上であるか否かを判定し(ステップS20)、Yesであれば、グリッサンドが弾かれたことを認識判断する(ステップS21)。
以上の手順により、上向きのグリッサンドを検出することができる。上向きのグリッサンドとは低音から高音へのグリッサンドである。ちなみに下向きのグリッサンドを判定するためには、ステップS12、S14,S16において、音高差を(前の音の音高‐後の音の音高)で計算すればよい。
以上の手順において、音楽解析ルーチン41aは、演奏データ50aを解析して、演奏された音列の互いの音高差と、当該音列同士の時間間隔とを抽出する。そして、演奏技法検出ルーチン41bは、抽出された音高差が既定の値以下で、時間間隔が既定の閾値以下である場合に、グリッサンドを検出する。
図11は、グリッサンドが検出された場合の表現の一例を示す図である。この図は、連続画像の一つ一つのフレームをコマ送りで並べたものである。図10において、数字(1)~(20)の順に視線をす早く動かすと、画面の中心部付近に花びらがバッと散るのがわかる。グリッサンドの駆け抜けるような感じが、花びらがばっと舞うことで表現される。高音から低音へのグリッサンドでは、花びらが右から左へ、低音から高音のグリッサンドでは、花びらが左から右へと舞うようにしてもよい。
<レガート>
図12は、レガート検出処理(ステップS32)における処理手順の一例を示すフローチャートである。図12において、制御部36は、現ノートよりも時系列で過去に遡った個数を示す変数nに1を代入して初期化し(ステップS41)、ループに入った直後に変数nが10に達したか否かを判定する(ステップS42)。nが10であれば終了するが、Nが10未満であれば、制御部36は、現ノートとn個前のノートが1オクターブ以上離れているか否かを判定する(ステップS43)。ステップS43でYesであれば、制御部36はnをインクリメントして(ステップS47)、処理手順はステップS42に戻る。
ステップS43でNoであれば、制御部36は、現ノートの開始時刻とn個前のノートの終了時刻とが重なっていないかを判定する(ステップS44)。重なっていない(Yes)ならば、音を切って演奏されていて、制御部36はnをインクリメントして(ステップS47)、処理手順はステップS42に戻る。
ステップS44でNoであれば、音は重なっている。そこで制御部36は、現ノートの開始時刻とn個前のノートの終了時刻とが重なっている期間の長さが既定の閾値L以上であるか否かを判定する(ステップS45)。ステップS45でYesならば、制御部36はnをインクリメントして(ステップS47)、処理手順はステップS42に戻る。ステップS45でNoならば、制御部46はレガートを検出し、n個前のノートと現ノートとの関係をレガートとする(ステップS46)。
以上の手順において、音楽解析ルーチン41aは、演奏データ50aを解析して、第1音の持続期間に第2音が発音された場合に、第1音と第2音との同時発音期間を抽出する。そして、演奏技法検出ルーチン41bは、同時発音期間が既定の閾値以上である場合に、レガートを検出する。
図13は、レガートが検出された場合の表現の一例を示す図である。図13(a)のように、例えば花のキャラクターで表現された音に対してレガートで弾かれたノートは、図13(b)のように、スラーのような、弓状のキャラクターで繋げて表現される。例えば虹のようなキャラクターで表現すれば、美的、芸術的な表現になる。弱い音のレガートなら虹を薄くし、強い音のレガートなら虹を濃くするといった意匠も、効果的である。
<トリル>
図14は、トリル検出処理(ステップS33)における処理手順の一例を示すフローチャートである。図14において、制御部36は、変数としての、現ノートのトリル値に0を代入して初期化処理を行う(ステップS51)。なお、現ノートとは、現在注目している音(note)であって、つまりその時点で発音されている音である。また、現ノートから1個前のノートをpre_noteと表し、現ノートから2個前のノートをpre2_noteと表す。
次に、制御部36は、(現ノートのゲートタイム≦100)の真偽を判定し(ステップS52)、Yesであれば、現ノートとその1個前の音(pre_note)がレガートの関係にあるか否かを判定する(ステップS53)。ここでYesであれば、制御部36はさらに、pre_noteとその1個前の音、つまりpre2_noteとがレガートの関係にあるか否かを判定する(ステップS54)。ここでもYesであれば、制御部36はさらに、pre_noteとpre2_noteとの音高が同じか、そうでないかを判定する(ステップS55)。ステップS55で、pre_noteの音高とpre2_noteの音高が同じであれば(Yes)、制御部36は、現ノートのトリル値が既定の閾値thよりも大きいか否かを判定する(ステップS56)。
ステップS56でYesであれば、制御部36はトリルで演奏されていることを認識し(ステップS57)、フラグ変数TrillにTrueを代入してトリル検出処理を抜ける。一方、ステップS56でNoであれば、制御部36はpre_noteを現ノートにし(現ノート = pre_note)、pre2_noteをpre_noteにし(pre_note = pre2_note)、pre2_noteの1個前のノートをpre_2noteにする(pre2_note = pre2_noteの1個前のノート)とともに、トリル値をインクリメントして(ステップS58)、処理手順はステップS52に戻る。なお、ステップS52、S53、S54、S55でNoであれば、制御部36はフラグ変数TrillにFalseを代入し、(ステップS59)トリルではないと判定してトリル検出処理を抜ける。
以上の手順において、音楽解析ルーチン41aは、演奏データ50aを解析して、ゲートタイムが既定の閾値以下の第1音(現ノート)に対して、第1音と第1音よりも1個前の第2音(pre_note)との同時発音期間である第1同時発音期間を抽出する。また、音楽解析ルーチン41aは、第2音(pre_note)と第2音よりも1個前の第3音(pre2_note)との同時発音期間である第2同時発音期間を抽出する。そして、演奏技法検出ルーチン41bは、第1同時発音期間、および第2同時発音期間が既定の閾値よりも短く、現ノートの音高とpre2_noteの音高とが同じである場合に、トリルを検出する。
図15は、トリルが検出された場合の表現の一例を示す図である。例えばドレドレドレ~の音程差でトリルが演奏されたとき、図15(a)のキャラクターの周りに図15(b)のような小さなキャラクターが次々に表れて、主音を装飾する効果が表現される。トリルの長さで装飾数(小キャラクターの数)を変更すると、さらに効果的な表現になる。
<ベロシティ突出音>
図16は、ベロシティ突出音検出処理(ステップS38)における処理手順の一例を示すフローチャートである。図16において、制御部36は、現ノートよりも時系列で過去に遡った個数を示す変数nに1を代入して初期化し(ステップS61)、ループに入った直後に変数nが10に達したか否かを判定する(ステップS62)。nが10であれば、ベロシティ突出音が判定される(ステップS63)。つまり急激に大きな音が演奏されたことが判定される。
nが10未満であれば、制御部36は、現ノートのベロシティがn個前のノートよりも、例えば閾値20以上大きいか否かを判定する(ステップS64)。ステップS64でNoであれば処理は終了するが、Yesであれば、制御部36はnをインクリメントして(ステップS65)、処理手順はステップS62に戻る。
以上の手順において、音楽解析ルーチン41aは、第1音のベロシティを当該第1音より時間的に前の第2音のベロシティから減算したベロシティ差を抽出する。そして、演奏技法検出ルーチン41bは、抽出されたベロシティ差が既定の閾値以上である場合に、ベロシティ突出音を検出する。
図17は、ベロシティ突出音が検出された場合の表現の一例を示す図である。例えば図17(a)のキャラクターで表現される音にベロシティ突出音が検出されると、図17(b)のように、同じキャラクターが同じサイズで複数、表示される。ベロシティ差の値に応じてキャラクターの数を変化させても良い。
以上、いくつかの演奏技法の抽出方法を具体的に例示した。これらの例示の内容を知った当業者であれば、その他の演奏技法についても、演奏時の音列の時系列的な特徴から演奏技法を抽出することは容易に実現できる。
<効果>
以上説明したように、実施形態では、演奏で生じる演奏データを解析し、演奏時の音列の時系列的な特徴を抽出する。そして、その特徴に基づいて演奏技法を判定、認識するようにした。さらに、演奏技法に応じた動画像(第1画像)を生成し、リアルタイムで表示するようにした。このようにすることで、演奏技法に合った視覚的表現をリアルタイムで生成し、描画することが可能になり、音楽演奏を視覚的に表現することの楽しさをさらに高めることが可能になる。
これらのことから実施形態によれば、演奏技法を映像表現に反映させ、さらに豊かな表現で音楽を可視化することが可能になる。これにより、演奏することの楽しさや、練習する意欲の向上を促すプログラム、方法、情報処理装置、および演奏データ表示システムを提供することができる。すなわち、本発明によれば、演奏技法を映像表現に反映できるので、演奏することの楽しさをさらに高めることが可能になる。
なお、本発明は、具体的な実施形態に限定されるものではない。例えば実施形態では、情報処理装置3として、デジタルキーボード1とは別体の、タブレット型の携帯端末を想定した。これに限らず、デスクトップ型、またはノート型のコンピュータを用いても良い。あるいは、デジタルキーボード1自体が情報処理装置の機能を兼ね備えていてもよい。
また、実施形態では、グリッサンド、レガート、トリル、およびベロシティ突出音について取り上げたが、これらに限定されるものではない。つまり図8に示されるように、前打音、ターン、長音、スタッカート、クレッシェンド/デクレッシェンド、跳躍、およびノンレガートについても、音列の時系列的な特徴を抽出することで認識することが可能である。さらに、リズム表現であるシンコペーションについても、音楽解析で取得される拍、拍子などの知見に基づけば、認識することができるし、それぞれの演奏技法にマッチする映像表現を描画することが可能である。
また、本発明の技術的範囲には、本発明の目的が達成される範囲での様々な変形や改良などが含まれるものであり、そのことは当業者にとって特許請求の範囲の記載から明らかである。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲のとおりである。
<請求項1>
情報処理装置に、
演奏に伴って発生する演奏データに基づいて音列の時系列的な特徴を抽出する解析処理と、
抽出された前記特徴から演奏技法を検出する検出処理と、
検出された前記演奏技法に対応する画像データを出力する出力処理と、
を実行させる命令を含む、プログラム。
<請求項2>
前記解析処理は、前記音列の互いの音高差と、当該音列同士の時間間隔とを抽出し、
前記検出処理は、前記音高差が既定の値以下で、前記時間間隔が既定の閾値以下である場合に、グリッサンドを検出する、請求項1に記載のプログラム。
<請求項3>
前記解析処理は、第1音の持続期間に第2音が発音された場合に、前記第1音と前記第2音との同時発音期間を抽出し、
前記検出処理は、同時発音期間が既定の閾値より短い場合に、レガートを検出する、請求項1に記載のプログラム。
<請求項4>、
前記解析処理は、ゲートタイムが既定の閾値以下の第1音に対して、前記第1音と前記第1音よりも1個前の第2音との同時発音期間である第1同時発音期間と、前記第2音と前記第2音よりも1個前の第3音との同時発音期間である第2同時発音期間とを抽出し、
前記検出処理は、前記第1同時発音期間および前記第2同時発音期間が既定の閾値よりも短く、前記第1音の音高と前記第3音の音高とが同じである場合に、トリルを検出する、請求項1に記載のプログラム。
<請求項5>
前記解析処理は、第1音のベロシティから、前記第1音より時間的に前の第2音のベロシティを減算したベロシティ差を抽出し、
前記検出処理は、前記ベロシティ差が既定の閾値以上である場合に、ベロシティ突出音を検出する、請求項1に記載のプログラム。
<請求項6>
複数の演奏技法が検出された場合に優先される演奏技法を登録したテーブルを記憶する記憶部をさらに具備し、
前記検出処理は、複数の演奏技法が検出された場合に、前記テーブルに登録された演奏技法を選択する、請求項1に記載のプログラム。
<請求項7>
情報処理装置に、
演奏に伴って発生する演奏データに基づいて音列の時系列的な特徴を抽出させ、
抽出された前記特徴から演奏技法を検出させ、
検出された前記演奏技法に対応する画像データを出力させる、方法。
<請求項8>
表示装置と、
プロセッサと、を具備し、
前記プロセッサが、
演奏に伴って発生する演奏データに基づいて音列の時系列的な特徴を抽出し、
抽出された前記特徴から演奏技法を検出し、
検出された前記演奏技法に対応する画像データを出力する、情報処理装置。
<請求項9>
電子楽器と、表示装置とを具備し、
前記電子楽器は、
ユーザによる演奏操作に応じて演奏データを生成するとともに、生成された前記演奏データを前記表示装置に出力し、
前記表示装置は、
入力される前記演奏データを解析して音列の時系列的な特徴を抽出し、
抽出された前記特徴から演奏技法を検出し、
検出された前記演奏技法に対応する画像データを前記表示装置に出力する、
演奏データ表示システム。
1…デジタルキーボード、3…情報処理装置、4…MIDI装置、11…USBインタフェース、12…RAM、13…ROM、14…表示部、15…表示コントローラ、16…LEDコントローラ、17…鍵盤、18…操作部、19…キースキャナ、20…MIDIインタフェース、21…システムバス、22…CPU、23…タイマ、24…音源、25,27…D/Aコンバータ、26…ミキサ、28…音声合成LSI、29…アンプ、31…操作部、32…表示部、33…通信部、34…音出力部、35…メモリ、36…制御部、37…バス、40…ROM、41…プログラム、41a…音楽解析ルーチン、41b…演奏技法検出ルーチン、41c…画像作成ルーチン、41d…出力制御ルーチン、46…制御部、50…RAM、50a…演奏データ、50b…キャラクタデータ、50c…画像データ、50d…画像データ、70b…演奏技法検出ルーチン、105…RAM、106…ROM、111…CPU、211…D/Aコンバータ。

Claims (9)

  1. 情報処理装置に、
    演奏に伴って発生する演奏データに基づいて音列の時系列的な特徴を抽出する解析処理と、
    抽出された前記特徴から演奏技法を検出する検出処理と、
    検出された前記演奏技法に対応する画像データを出力する出力処理と、
    を実行させる命令を含
    前記解析処理は、第1音のベロシティから、前記第1音より時間的に前の第2音のベロシティを減算したベロシティ差を抽出し、
    前記検出処理は、前記ベロシティ差が既定の閾値以上である場合に、ベロシティ突出音を検出する、プログラム。
  2. 情報処理装置に、
    演奏に伴って発生する演奏データに基づいて音列の時系列的な特徴を抽出する解析処理と、
    抽出された前記特徴から演奏技法を検出する検出処理と、
    検出された前記演奏技法に対応する画像データを出力する出力処理と、
    を実行させる命令を含み、
    前記検出処理は、複数の演奏技法が検出された場合に、複数の演奏技法が検出された場合に優先される演奏技法を登録したテーブルに登録された演奏技法を選択する、プログラム。
  3. 前記解析処理は、前記音列の互いの音高差と、当該音列同士の時間間隔とを抽出し、
    前記検出処理は、前記音高差が既定の値以下で、前記時間間隔が既定の閾値以下である場合に、グリッサンドを検出する、請求項1又は2に記載のプログラム。
  4. 前記解析処理は、第1音の持続期間に第2音が発音された場合に、前記第1音と前記第2音との同時発音期間を抽出し、
    前記検出処理は、同時発音期間が既定の閾値より短い場合に、レガートを検出する、請求項1又は2に記載のプログラム。
  5. 前記解析処理は、ゲートタイムが既定の閾値以下の第1音に対して、前記第1音と前記第1音よりも1個前の第2音との同時発音期間である第1同時発音期間と、前記第2音と前記第2音よりも1個前の第3音との同時発音期間である第2同時発音期間とを抽出し、
    前記検出処理は、前記第1同時発音期間および前記第2同時発音期間が既定の閾値よりも短く、前記第1音の音高と前記第3音の音高とが同じである場合に、トリルを検出する、請求項1又は2に記載のプログラム。
  6. 情報処理装置に、
    演奏に伴って発生する演奏データに基づいて音列の時系列的な特徴を抽出させ、
    抽出された前記特徴から演奏技法を検出させ、
    検出された前記演奏技法に対応する画像データを出力させ、
    複数の演奏技法が検出された場合に、複数の演奏技法が検出された場合に優先される演奏技法を登録したテーブルに登録された演奏技法を選択させる、方法。
  7. 情報処理装置に、
    演奏に伴って発生する演奏データに基づいて音列の時系列的な特徴を抽出させ、
    抽出された前記特徴から演奏技法を検出させ、
    検出された前記演奏技法に対応する画像データを出力させ、
    第1音のベロシティから、前記第1音より時間的に前の第2音のベロシティを減算したベロシティ差を抽出させ、前記ベロシティ差が既定の閾値以上である場合に、ベロシティ突出音を検出させる、方法。
  8. 表示装置と、
    プロセッサと、を具備し、
    前記プロセッサが、
    演奏に伴って発生する演奏データに基づいて音列の時系列的な特徴を抽出し、
    抽出された前記特徴から演奏技法を検出し、
    検出された前記演奏技法に対応する画像データを出力
    複数の演奏技法が検出された場合に、複数の演奏技法が検出された場合に優先される演奏技法を登録したテーブルに登録された演奏技法を選択する、情報処理装置。
  9. 電子楽器と、表示装置とを具備し、
    前記電子楽器は、
    ユーザによる演奏操作に応じて演奏データを生成するとともに、生成された前記演奏データを前記表示装置に出力し、
    前記表示装置は、
    入力される前記演奏データを解析して音列の時系列的な特徴を抽出し、
    抽出された前記特徴から演奏技法を検出し、
    検出された前記演奏技法に対応する画像データを前記表示装置に出力
    複数の演奏技法が検出された場合に、複数の演奏技法が検出された場合に優先される演奏技法を登録したテーブルに登録された演奏技法を選択する、
    演奏データ表示システム。
JP2021050017A 2021-03-24 2021-03-24 プログラム、方法、情報処理装置、および演奏データ表示システム Active JP7327434B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021050017A JP7327434B2 (ja) 2021-03-24 2021-03-24 プログラム、方法、情報処理装置、および演奏データ表示システム
CN202210275194.0A CN115132154A (zh) 2021-03-24 2022-03-21 信息处理方法、信息处理装置、演奏数据显示系统及记录介质
US17/700,692 US20220310046A1 (en) 2021-03-24 2022-03-22 Methods, information processing device, performance data display system, and storage media for electronic musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021050017A JP7327434B2 (ja) 2021-03-24 2021-03-24 プログラム、方法、情報処理装置、および演奏データ表示システム

Publications (2)

Publication Number Publication Date
JP2022148366A JP2022148366A (ja) 2022-10-06
JP7327434B2 true JP7327434B2 (ja) 2023-08-16

Family

ID=83363575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021050017A Active JP7327434B2 (ja) 2021-03-24 2021-03-24 プログラム、方法、情報処理装置、および演奏データ表示システム

Country Status (3)

Country Link
US (1) US20220310046A1 (ja)
JP (1) JP7327434B2 (ja)
CN (1) CN115132154A (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013445A (ja) 2009-07-02 2011-01-20 Korg Inc 電子楽器

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5990999U (ja) * 1982-12-09 1984-06-20 ヤマハ株式会社 電子楽器
JP3203734B2 (ja) * 1992-02-07 2001-08-27 ヤマハ株式会社 演奏支援装置
JP3582359B2 (ja) * 1998-05-20 2004-10-27 ヤマハ株式会社 楽譜割付け装置及び楽譜割付けプログラムを記録したコンピュータで読み取り可能な記録媒体

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013445A (ja) 2009-07-02 2011-01-20 Korg Inc 電子楽器

Also Published As

Publication number Publication date
JP2022148366A (ja) 2022-10-06
CN115132154A (zh) 2022-09-30
US20220310046A1 (en) 2022-09-29

Similar Documents

Publication Publication Date Title
JP3675287B2 (ja) 演奏データ作成装置
JP3407626B2 (ja) 演奏練習装置、演奏練習方法及び記録媒体
KR100664677B1 (ko) 휴대용 단말기에서의 음악 컨텐츠 생성 방법
JP3900188B2 (ja) 演奏データ作成装置
JP3266149B2 (ja) 演奏ガイド装置
JP3915807B2 (ja) 奏法自動判定装置及びプログラム
JP5292702B2 (ja) 楽音信号生成装置及びカラオケ装置
JP7327434B2 (ja) プログラム、方法、情報処理装置、および演奏データ表示システム
Müller et al. Music representations
JPH11338480A (ja) カラオケ装置
JP7331887B2 (ja) プログラム、方法、情報処理装置、および画像表示システム
JP3900187B2 (ja) 演奏データ作成装置
JP2007248880A (ja) 演奏制御装置、およびプログラム
JP6582517B2 (ja) 制御装置およびプログラム
JP7425558B2 (ja) コード検出装置及びコード検出プログラム
JP2002297139A (ja) 演奏データ変更処理装置
JP7263998B2 (ja) 電子楽器、制御方法およびプログラム
JP7456149B2 (ja) プログラム、電子機器、方法、および演奏データ表示システム
US20230035440A1 (en) Electronic device, electronic musical instrument, and method therefor
JP7276292B2 (ja) 電子楽器、電子楽器の制御方法、及びプログラム
JP3870948B2 (ja) 表情付け処理装置および表情付け用コンピュータプログラム
Slatkin Eight Symphonic Masterworks of the Twentieth Century: A Study Guide for Conductors
JP6578725B2 (ja) 制御用端末装置、合成歌唱生成装置
JP2024015391A (ja) 自動演奏装置、電子楽器、方法およびプログラム
Werry AQA AoS2: Pop music

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220105

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230717

R150 Certificate of patent or registration of utility model

Ref document number: 7327434

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150