JP2023142748A - データ出力方法、プログラム、データ出力装置および電子楽器 - Google Patents

データ出力方法、プログラム、データ出力装置および電子楽器 Download PDF

Info

Publication number
JP2023142748A
JP2023142748A JP2022049805A JP2022049805A JP2023142748A JP 2023142748 A JP2023142748 A JP 2023142748A JP 2022049805 A JP2022049805 A JP 2022049805A JP 2022049805 A JP2022049805 A JP 2022049805A JP 2023142748 A JP2023142748 A JP 2023142748A
Authority
JP
Japan
Prior art keywords
data
performance
sound
data output
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022049805A
Other languages
English (en)
Inventor
克己 石川
Katsumi Ishikawa
琢哉 藤島
Takuya Fujishima
拓真 竹本
Takuma TAKEMOTO
吉就 中村
Yoshinari Nakamura
黎 西山
Rei NISHIYAMA
義一 野藤
Yoshikazu NOFUJI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2022049805A priority Critical patent/JP2023142748A/ja
Priority to CN202280093455.5A priority patent/CN118786478A/zh
Priority to PCT/JP2022/048175 priority patent/WO2023181571A1/ja
Publication of JP2023142748A publication Critical patent/JP2023142748A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

【課題】ユーザの演奏に追従した自動処理において、ユーザに与える臨場感を高めること【解決手段】一実施形態におけるデータ出力方法は、演奏操作によって生成される演奏データを取得することと、演奏データに基づいて所定の楽譜における楽譜演奏位置を特定することと、楽譜演奏位置に基づいて第1データを再生することと、第1データに対応して設定された第1仮想位置に応じた第1位置情報を当該第1データに付与することと、第1位置情報が付与された第1データを含む再生データを出力することと、を含む。【選択図】図7

Description

本発明はデータを出力する技術に関する。
所定の楽曲についてユーザによる演奏によって得られた音データを解析することによって、その楽曲における楽譜上の演奏位置を特定する技術が提案されている。この技術を自動演奏に適用することによって、ユーザによる演奏に追従した自動演奏を実現する技術も提案されている(例えば、特許文献1)。
特開2017-207615号公報
ユーザの演奏に自動演奏を追従させることによって、一人で演奏していたとしても複数人で演奏している感覚を得ることができる。ユーザに対して、より臨場感を高めることが求められている。
本発明の目的の一つは、ユーザの演奏に追従した自動処理において、ユーザに与える臨場感を高めることにある。
一実施形態によれば、演奏操作によって生成される演奏データを取得することと、前記演奏データに基づいて所定の楽譜における楽譜演奏位置を特定することと、前記楽譜演奏位置に基づいて第1データを再生することと、前記第1データに対応して設定された第1仮想位置に応じた第1位置情報を当該第1データに付与することと、前記第1位置情報が付与された前記第1データを含む再生データを出力することと、を含む、データ出力方法が提供される。
本発明によれば、ユーザの演奏に追従した自動処理において、ユーザに与える臨場感を高めることができる。
第1実施形態におけるシステム構成を説明するための図である。 第1実施形態における電子楽器の構成を説明する図である。 第1実施形態におけるデータ出力装置の構成を説明する図である。 第1実施形態における位置制御データを説明する図である。 第1実施形態における位置情報および方向情報を説明する図である。 第1実施形態における演奏追従機能を実現する構成を説明する図である。 第1実施形態におけるデータ出力方法を説明する図である。 第2実施形態における演奏追従機能を実現する構成を説明する図である。
以下、本発明の一実施形態について、図面を参照しながら詳細に説明する。以下に示す実施形態は一例であって、本発明はこれらの実施形態に限定して解釈されるものではない。以下に説明する複数の実施形態で参照する図面において、同一部分または同様な機能を有する部分には同一の符号または類似の符号(数字の後にA、Bなど付しただけの符号)を付し、その繰り返しの説明は省略する場合がある。図面は、説明を明確にするために、構成の一部が図面から省略されたりして、模式的に説明される場合がある。
<第1実施形態>
[概要]
本発明の一実施形態におけるデータ出力装置は、所定の楽曲について、ユーザによる電子楽器への演奏に追従してその楽曲に対応する自動演奏を実現する。自動演奏の対象となる楽器は、様々に設定される。ユーザが演奏する電子楽器が電子ピアノである場合には、自動演奏の対象となる楽器は、ピアノパート以外の楽器、例えば、ボーカル、ベース、ドラム、ギター、ホーンセクション等が想定される。この例では、データ出力装置は、自動演奏によって得られる再生音と、楽器の演奏者を模した画像(以下、演奏者画像という場合がある)と、をユーザに提供する。このデータ出力装置によれば、ユーザに対して、他の演奏者と一緒に演奏を行っている感覚を与えることができる。以下、データ出力装置およびデータ出力装置を含むシステムについて説明する。
[システム構成]
図1は、第1実施形態におけるシステム構成を説明するための図である。図1に示すシステムは、インターネット等のネットワークNWを介して接続されたデータ出力装置10およびデータ管理サーバ90を含む。この例では、データ出力装置10には、ヘッドマウントディスプレイ60(以下、HMD60という場合がある)および電子楽器80が接続されている。データ出力装置10は、この例では、スマートフォン、タブレットパソコン、ラップトップパソコンまたはデスクトップパソコンなどのコンピュータである。電子楽器80は、この例では、電子ピアノなどの電子鍵盤装置である。
データ出力装置10は、上述したようにユーザが電子楽器80を用いて所定の楽曲を演奏した場合に、この演奏に追従した自動演奏を実行して、自動演奏に基づくデータを出力するための機能(以下、演奏追従機能という)を有する。データ出力装置10についての詳細説明は、後述される。
データ管理サーバ90は、制御部91、記憶部92および通信部98を含む。制御部91は、CPUなどのプロセッサおよびRAM等の記憶装置を含む。制御部91は、記憶部92に記憶されたプログラムを、CPUを用いて実行することによって、プログラムに記述された命令にしたがった処理を行う。記憶部92は、不揮発性メモリ、ハードディスクドライブなどの記憶装置を含む。通信部98は、ネットワークNWに接続して、他の装置と通信するための通信モジュールを含む。データ管理サーバ90は、データ出力装置10に対して、楽曲データを提供する。楽曲データは、自動演奏に関連するデータであり、詳細については後述される。データ出力装置10に対して楽曲データが他の方法で提供される場合には、データ管理サーバ90は、存在しなくてもよい。
HMD60は、この例では、制御部61、表示部63、挙動センサ64、放音部67、撮像部68およびインターフェース69を含む。制御部61は、CPU、RAMおよびROMを含み、HMD60における各構成を制御する。インターフェース69は、データ出力装置10と接続するための接続端子を含む。挙動センサ64は、例えば、加速度センサ、ジャイロセンサ等を含み、HMD60の挙動、例えば、HMD60の向きの変化などを測定するセンサである。この例では、挙動センサ64による測定結果は、データ出力装置10に提供される。これによって、データ出力装置10がHMD60の動きを認識することができる。言い換えると、データ出力装置10は、HMD60を装着したユーザの動き(頭の動き等)を認識することができる。ユーザは、頭を動かすことでHMD60を介してデータ出力装置10に指示を入力することができる。HMD60に操作部が設けられていれば、ユーザは操作部を介してデータ出力装置10に指示を入力することもできる。
撮像部68は、イメージセンサを含み、HMD60の前方、すなわち、HMD60を装着したユーザの前方側を撮像して、撮像データを生成する。表示部63は、動画データに応じた画像を表示するディスプレイを含む。動画データは、例えば、データ出力装置10から提供される再生データに含まれる。ディスプレイは、眼鏡状の形態を有している。ディスプレイが半透過型であることによって、装着したユーザが外部を視認できるようにしてもよい。ディスプレイが非透過型である場合には、撮像部68によって撮像された領域が動画データに重畳してディスプレイに表示されるようにしてもよい。これにより、ユーザは、ディスプレイを介して、HMD60の外側を視認することができる。放音部67は、例えば、ヘッドホン等であって、音データに応じた音信号を空気振動に変換して、HMD60を装着したユーザに対して音を提供する振動子を含む。音データは、例えば、データ出力装置10から提供される再生データに含まれる。
[電子楽器]
図2は、第1実施形態における電子楽器の構成を説明する図である。電子楽器80は、この例では、電子ピアノなどの電子鍵盤装置であって、演奏操作子84、音源部85、スピーカ87およびインターフェース89を含む。演奏操作子84は、複数の鍵を含み、各鍵への操作に応じた信号を音源部85に出力する。
音源部85は、DSP(Digital Signal Processor)を含み、操作信号に応じて音波形信号を含む音データを生成する。操作信号は、演奏操作子84から出力される信号に対応する。音源部85は、操作信号を、音の発生(以下、発音という)の制御をするための所定のフォーマット形式のシーケンスデータ(以下、操作データという)に変換してインターフェース89に出力する。所定のフォーマット形式はこの例ではMIDI形式である。これによって、電子楽器80は、演奏操作子84への演奏操作に対応する操作データをデータ出力装置10に送信することができる。操作データは、発音の内容を規定する情報であり、例えば、ノートオン、ノートオフ、ノートナンバなどの発音制御情報として順次出力される。音源部85は、音データをインターフェース89に提供するとともに、または、インターフェース89に提供する代わりにスピーカ87に提供することもできる。
スピーカ87は、音源部85から提供される音データに応じた音波形信号を空気振動に変換してユーザに提供することができる。スピーカ87は、インターフェース89を介してデータ出力装置10から音データが提供されてもよい。インターフェース89は、無線または有線によって外部装置とデータの送受信をするためのモジュールを含む。この例では、インターフェース89は、データ出力装置10と有線で接続して、音源部85において生成された操作データおよび音データをデータ出力装置10に対して送信する。これらのデータは、データ出力装置10から受信されてもよい。
[データ出力装置]
図3は、第1実施形態におけるデータ出力装置の構成を説明する図である。データ出力装置10は、制御部11、記憶部12、表示部13、操作部14、スピーカ17、通信部18およびインターフェース19を含む。制御部11は、CPUなどのプロセッサおよびRAM等の記憶装置を備えるコンピュータの一例である。制御部11は、記憶部12に記憶されたプログラム12aを、CPU(プロセッサ)を用いて実行し、様々な処理を実行するための機能をデータ出力装置10において実現させる。データ出力装置10において実現される機能は、後述する演奏追従機能を含む。
記憶部12は、不揮発性メモリ、ハードディスクドライブなどの記憶装置である。記憶部12は、制御部11において実行されるプログラム12aおよびこのプログラム12aを実行するときに必要となる楽曲データ12bなどの各種データを記憶する。プログラム12aは、データ管理サーバ90または他のサーバからネットワークNW経由でダウンロードされ、記憶部12に記憶されることによって、データ出力装置10にインストールされる。プログラム12aは、非一過性のコンピュータに読み取り可能な記録媒体(例えば、磁気記録媒体、光記録媒体、光磁気記録媒体、半導体メモリ等)に記録した状態で提供されてもよい。この場合、データ出力装置10は、この記録媒体を読み取る装置を備えていればよい。記憶部12も記録媒体の一例といえる。
楽曲データ12bについても同様に、データ管理サーバ90または他のサーバからネットワークNW経由でダウンロードされ、記憶部12に記憶されてもよいし、非一過性のコンピュータに読み取り可能な記録媒体に記録した状態で提供されてもよい。楽曲データ12bは、楽曲毎に記憶部12に記憶されるデータであって、設定データ120、背景データ127および楽譜データ129を含む。楽曲データ12bの詳細については後述する。
表示部13は、制御部11の制御に応じて様々な画面を表示する表示領域を有するディスプレイである。操作部14は、ユーザの操作に応じた信号を制御部11に出力する操作装置である。スピーカ17は、制御部11から供給される音データを増幅して出力することによって、音を発生する。通信部18は、制御部11の制御により、ネットワークNWと接続して、ネットワークNWに接続されたデータ管理サーバ90など他の装置と通信をするための通信モジュールである。インターフェース19は、赤外線通信、近距離無線通信などの無線通信または有線通信によって外部装置と通信するためのモジュールを含む。外部装置は、この例では、電子楽器80およびHMD60を含む。インターフェース19は、ネットワークNWを介さずに通信するために用いられる。
[楽曲データ]
続いて、楽曲データ12bについて説明する。楽曲データ12bは、楽曲毎に記憶部12に記憶されるデータであって、設定データ120、背景データ127および楽譜データ129を含む。楽曲データ12bは、この例では、ユーザの演奏に追従して、所定のライブパフォーマンスを再現するためのデータを含む。このライブパフォーマンスを再現するためのデータは、ライブパフォーマンスが行われた会場の形態、複数の楽器(演奏パート)、各演奏パートの演奏者、演奏者の位置など、に関する情報を含む。複数の演奏パートのうちいずれかが、ユーザの演奏パートとして特定されている。この例では、4つの演奏パート(ボーカルパート、ピアノパート、ベースパート、ドラムパート)が規定されている。4つの演奏パートのうち、ユーザの演奏パートは、ピアノパートとして特定される。
楽譜データ129は、ユーザの演奏パートの楽譜に対応するデータである。楽譜データ129は、この例では、楽曲におけるピアノパートの楽譜を示すデータであって、例えば、MIDI形式等の所定のフォーマットで記述されたデータである。すなわち、楽譜データ129は、時刻情報と、時刻情報に関連付けられた発音制御情報と、を含む。発音制御情報は、各時刻における発音の内容を規定する情報であり、例えば、ノートオン、ノートオフ、ノートナンバなどタイミング情報と音高情報とを含む情報によって示される。発音制御情報は、さらに文字情報を含むことで、ボーカルパートにおける歌唱音についても発音に含めることもできる。時刻情報は、例えば、曲の開始を基準とした再生タイミングを示す情報であり、デルタタイム、テンポなどの情報によって示される。時刻情報は、データ上の位置を識別するための情報ということもできる。楽譜データ129は、楽音制御情報を時系列に規定するデータであるということもできる。
背景データ127は、ライブパフォーマンスが行われた会場の形態に対応するデータであって、ステージの構造、客席の構造、部屋の構造などを示すデータを含む。例えば、背景データ127は、それぞれの構造の位置を特定する座標データおよび会場内の空間を再現するための画像データを含む。座標データは、所定の仮想空間における座標として定義される。背景データ127は、仮想空間において会場を模した背景画像を形成するためのデータを含むということもできる。
設定データ120は、楽曲における各演奏パートに対応する。そのため、楽曲データ12bは、複数の設定データ120を含む場合がある。この例では、楽譜データに関連するピアノパートとは異なる3つのパートに対応する設定データ120が楽曲データ12bに含まれている。3つのパートは、具体的には、ボーカルパート、ベースパート、ドラムパートである。言い換えると、設定データ120は、各パートの演奏者に対応して存在する。演奏者以外の設定データが存在してもよく、例えば、観客に対応した設定データ120が楽曲データ12bに含まれていてもよい。観客であっても、ライブパフォーマンスが行われているときの動き、歓声などがあるから、1つの演奏パートに相当するものとして扱うことも可能である。
設定データ120は、発音制御データ121、動画制御データ123および位置制御データ125を含む。発音制御データ121は、演奏パートに対応する音データを再生するためのデータであって、例えば、MIDI形式等の所定のフォーマットで記述されたデータである。すなわち、発音制御データ121は、楽譜データ129と同様に、時刻情報と発音制御情報とを含む。この例では、発音制御データ121と楽譜データ129とは、演奏パートが異なること以外は同様なデータである。発音制御データ121は、楽音制御情報を時系列に規定するデータであるということもできる。
動画制御データ123は、動画データを再生するためのデータであって、時刻情報と、時刻情報に関連付けられた画像制御情報を含む。画像制御情報は、各時刻における演奏者画像を規定する。演奏者画像は、上述したように、演奏パートに対応する演奏者を模した画像である。この例では、再生される動画データは、演奏パートに関する演奏をする演奏者に対応する演奏者画像を含む。動画制御データ123は、画像制御情報を時系列に規定するデータであるということもできる。
図4は、第1実施形態における位置制御データを説明する図である。位置制御データ125は、演奏パートに対応する演奏者の位置を示す情報(以下、位置情報という)および演奏者の方向(演奏者の正面方向)を示す情報(以下、方向情報という)を含む。位置制御データ125では、位置情報と方向情報とは時刻情報に関連付けられている。位置情報は、背景データ127において利用される仮想空間における座標として定義される。方向情報は、この仮想空間における所定の方向を基準とした角度で定義される。図4に示すように、時刻情報がt1、t2、・・・と進んでいくと、位置情報がP1、P2、・・・と変化していき、方向情報がD1、D2・・・と変化していく。位置制御データ125は、位置情報および方向情報を時系列に規定するデータであるということもできる。
図5は、第1実施形態における位置情報および方向情報を説明する図である。上述したように、この例では、3つの演奏パートと観客に対応して4つの設定データ120が存在する。したがって、位置制御データ125についても3つの演奏パートと観客に対応して存在する。図5は、所定の仮想空間を上方から見た例である。図5において、会場の壁面RMとステージSTとは背景データ127によって規定される。各設定データに対応した演奏者には、位置制御データに規定される位置情報に応じた仮想位置および方向情報に応じた仮想方向が設定される。
ボーカルパートの演奏者の仮想位置および仮想方向は、位置情報C1pおよび方向情報C1dに設定されている。ベースパートの演奏者の仮想位置および仮想方向は、位置情報C2pおよび方向情報C2dに設定されている。ドラムパートの演奏者の仮想位置および仮想方向は、位置情報C3pおよび方向情報C3dに設定されている。観客の仮想位置および仮想方向は、位置情報C4pおよび方向情報C4dに設定されている。ここでは、各演奏者は、ステージST上に位置する。観客はステージST以外の領域(観客席)に位置する。図5に示す例は、特定の時刻における状況である。したがって、時系列にしたがって、演奏者および観客の仮想位置および仮想方向が変化することもある。
図5においては、ユーザに対応するピアノパートの演奏者の仮想位置および仮想方向は、位置情報Ppおよび方向情報Pdに設定されている。この仮想位置および仮想方向は、上述したHMD60の動き(挙動センサ64の測定結果)に応じて変化する。例えば、HMD60を装着したユーザが頭の向きを変えると、頭の向きに対応して方向情報Pdが変化する。HMD60を装着したユーザが移動すると、ユーザの移動に対応して位置情報Ppが変化する。位置情報Ppおよび方向情報Pdは、操作部14への操作、ユーザの指示の入力によって、変化するようにしてもよい。位置情報Ppおよび方向情報Pdの初期値は、楽曲データ12bにおいて予め設定されていればよい。
後述するように、HMD60を介してユーザに動画が提供されると、ユーザは、図5に示す位置および向き(位置情報Pp、方向情報Pd)で仮想空間に配置された他の演奏者を視認することができる。例えば、ドラムパートの演奏者(位置情報C3p、方向情報C3d)は、正面方向に対して左側の前方(ベクトルV3により示される位置)において、右側を向いて演奏している演奏者画像として、ユーザに視認される。
[演奏追従機能]
続いて、制御部11がプログラム12aを実行することによって実現される演奏追従機能について説明する。
図6は、第1実施形態における演奏追従機能を実現する構成を説明する図である。演奏追従機能100は、演奏データ取得部110、演奏音取得部119、演奏位置特定部130、信号処理部150、基準値取得部164およびデータ出力部190を含む。演奏追従機能100を実現する構成がプログラムの実行によって実現される場合に限らず、少なくとも一部の構成がハードウエアによって実現されてもよい。
演奏データ取得部110は、演奏データを取得する。この例では、演奏データは、電子楽器80から提供される操作データに対応する。演奏音取得部119は、電子楽器80から提供される演奏音に対応する音データ(演奏音データ)を取得する。基準値取得部164は、ユーザの演奏パートに対応する基準値を取得する。基準値は、基準位置と基準方向とを含む。基準位置は、上述した位置情報Ppに対応する。基準方向は、方向情報Pdに対応する。上述したように、制御部11は、HMD60の動き(挙動センサ64の測定結果)に応じて、位置情報Ppおよび方向情報Pdを予め設定された初期値から変化させる。基準値は、予め設定されていてもよい。基準値のうち基準位置および基準方向の少なくとも一方は、位置制御データ125と同様に、時刻情報に対応付けられていてもよい。この場合には、基準値取得部164は、後述する楽譜演奏位置と時刻情報との対応関係に基づいて、時刻情報に対応付けられた基準値を取得すればよい。
演奏位置特定部130は、楽譜データ129を参照して、演奏データ取得部110によって順次取得される演奏データに対応する楽譜演奏位置を特定する。演奏位置特定部130は、演奏データにおける発音制御情報の履歴(すなわち、操作データを取得したタイミングに相当する時刻情報と発音制御情報との組)と楽譜データ129における時刻情報と発音制御情報との組を比較して、所定のマッチング処理によって互いの対応関係を解析する。所定のマッチング処理は、例えば、DPマッチング、隠れマルコフモデル、機械学習を用いたマッチング等、統計的推定モデルを用いた公知のマッチング処理が例示される。演奏が開始されてから所定時間は予め設定された速度で楽譜演奏位置が特定されてもよい。
演奏位置特定部130は、この対応関係から、電子楽器80における演奏に対応する楽譜演奏位置を特定する。楽譜演奏位置は、楽譜データ129における楽譜において現在演奏されている位置を示し、例えば、楽譜データ129における時刻情報として特定される。演奏位置特定部130は、電子楽器80への演奏に伴って順次演奏データを取得して、取得した演奏データに対応する楽譜演奏位置を順次特定する。演奏位置特定部130は、特定した楽譜演奏位置を信号処理部150に提供する。
信号処理部150は、データ生成部170-1、・・・170-n(それぞれを特に区別しない場合はデータ生成部170という)を含む。データ生成部170は、設定データ120に対応して設定される。上述した例のように、楽曲データ12bにおいて、3つの演奏パート(ボーカルパート、ベースパート、ドラムパート)および観客に対応する4つの設定データ120が含まれる場合には、信号処理部150は4つのデータ生成部170(170-1~170-4)を含む。このように、データ生成部170と設定データ120とは、演奏パートを介して関連付けられている。
データ生成部170は、再生部171および付与部173を含む。再生部171は、関連付けられた設定データ120のうち発音制御データ121および動画制御データ123を取得する。付与部173は、関連付けられた設定データ120のうち位置制御データ125を取得する。
再生部171は、演奏位置特定部130から提供される楽譜演奏位置に基づいて、音データおよび動画データを再生する。再生部171は、発音制御データ121を参照して、楽譜演奏位置によって特定される時刻情報に対応する発音制御情報を読み出して、音データを再生する。再生部171は、発音制御データ121に基づいて音データを再生する音源部を有するということもできる。この音データは、関連付けられた演奏パートの演奏音に対応したデータである。ボーカルパートの場合には、音データは、少なくとも文字情報と音高情報とを用いて生成される歌唱音に対応したデータであってもよい。再生部171は、動画制御データ123を参照して、楽譜演奏位置によって特定される時刻情報に対応する画像制御情報を読み出して、動画データを再生する。この動画データは、関連付けられた演奏パートの演奏者の画像、すなわち演奏者画像に対応したデータである。
付与部173は、再生部171において再生された音データおよび動画データに対して、位置情報および方向情報を付与する。付与部173は、位置制御データ125を参照して、楽譜演奏位置によって特定される時刻情報に対応する位置情報および方向情報を読み出す。付与部173は、基準値取得部164によって取得された基準値、すなわち、読み出した位置情報および方向情報を、位置情報Ppおよび方向情報Pdを用いて修正する。具体的には、付与部173は、読み出した位置情報および方向情報を、位置情報Ppおよび方向情報Pdを基準とした座標系で表される相対情報に変換する。付与部173は、修正した位置情報および方向情報、すなわち相対情報を、音データおよび動画データに付与する。
図5に示す例では、ユーザに対応するピアノパートの演奏者の仮想位置および仮想方向が基準値となる。したがって、各演奏パートの演奏者および観客に関する相対情報のうち、位置情報に関する部分はベクトルV1~V4で表される情報を含む。相対情報のうち、方向情報に関する部分は、方向情報Pdに対する方向情報C1d、C2d、C3d、C4dの方向(以下相対方向という)に対応する。
音データに対して相対情報を付与することは、音データに含まれる左チャンネル(Lch)および右チャンネル(Rch)の音信号に対して、仮想空間における所定の位置に音像が定位するように信号処理を施すことに相当する。所定の位置は、相対情報に含まれるベクトルによって規定される位置である。図5に示す例であれば、例えばドラムパートの演奏音は、ベクトルV3で規定される位置に定位する。このとき、HRTF(Head related transfer function)の技術を用いるなど、所定のフィルタ処理を実行してもよい。付与部173は、背景データ127を参照して、音信号に対して部屋の構造等による残響音を加えるように信号処理を施してもよい。このとき、付与部173は、音像から相対情報に含まれる相対方向に向けて音が出力されるように指向性を付与してもよい。
動画データに対して相対情報を付与することは、動画データに含まれる演奏者画像に仮想空間における所定の位置に配置かつ所定の方向に向くように、画像処理を施すことに相当する。所定の位置は、上述の音像が定位する位置である。所定の方向は、相対情報に含まれる相対方向に対応する。図5に示す例であれば、例えばドラムパートの演奏者画像は、ベクトルV3で規定される位置において右側(より正確には、右手前)を向くように、HMD60を装着したユーザに視認される。
この例では、データ生成部170-1は、ボーカルパートに関して位置情報が付与された動画データおよび音データを出力する。データ生成部170-2は、ベースパートに関して位置情報が付与された動画データおよび音データを出力する。データ生成部170-3は、ドラムパートに関して位置情報が付与された動画データおよび音データを出力する。データ生成部170-4は、観客に関して位置情報が付与された動画データおよび音データを出力する。
データ出力部190は、データ生成部170-1、・・・170-nから出力された動画データおよび音データを合成して、再生データとして出力する。この再生データがHMD60に供給されることによって、HMD60を装着したユーザは、ボーカルパート、ベースパートおよびドラムパートの演奏者画像を、それぞれに対応した位置に視認することができ、それぞれの位置から、それぞれに対応した演奏音を聴取することができる。したがって、ユーザに与える臨場感が向上する。さらに、この例では、ユーザは、観客を視認することもでき、観客の歓声等についても聴取することができる。このとき、再生データに含まれる動画データおよび音データがユーザの演奏に追従するから、ユーザの演奏の速度に応じて、各演奏パートの音の進行および演奏者画像の動きが変化する。言い換えると、ユーザの演奏する楽器の周辺において、その演奏に追従した演奏および歌唱等が、仮想的な環境で実現される。その結果、ユーザは、一人で演奏していたとしても複数人で演奏している感覚を得ることができる。したがって、ユーザに対して高い臨場感を与えるという顧客体験が提供される。
データ出力部190は、背景データ127を参照して、仮想空間における会場を模した背景画像を動画データに含めてもよい。これにより、ユーザは、図5に示すような位置関係で配置された演奏者画像がステージST上で演奏している状況を視認することができる。データ出力部190は、演奏音取得部119によって取得された演奏音データをさらに合成した再生データを出力してもよい。これにより、ユーザによる演奏音についても、HMD60を介して聴取することができる。以上が演奏追従機能についての説明である。
[データ出力方法]
続いて、演奏追従機能100において実行されるデータ出力方法について説明する。ここで説明するデータ出力方法は、プログラム12aが実行されると開始される。
図7は、第1実施形態におけるデータ出力方法を説明する図である。制御部11は、順次提供される演奏データを取得し(ステップS101)、楽譜演奏位置を特定する(ステップS103)。制御部11は、楽譜演奏位置に基づいて動画データおよび音データを再生し(ステップS105)、再生した動画データおよび音データに位置情報を付与し(ステップS107)、再生データとして出力する(ステップS109)。処理を終了する指示が入力されるまで(ステップS111;No)、制御部11はステップS101からステップS109の処理を繰り返し、処理を終了する指示が入力されると(ステップS111;Yes)、制御部11は処理を終了する。
<第2実施形態>
第1実施形態では、動画データおよび音データが1人のユーザの演奏に追従して再生される例を説明したが、複数人のユーザの演奏に追従して再生されてもよい。第2実施形態では2人のユーザの演奏に追従して動画データおよび音データが再生される例について説明する。
図8は、第2実施形態における演奏追従機能を実現する構成を説明する図である。第2実施形態における演奏追従機能100Aは、第1実施形態における2つの演奏追従機能100が並行しつつ、背景データ127、楽譜データ129および演奏位置特定部130が双方において共用された構成を有する。2つの演奏追従機能100は、第1ユーザおよび第2ユーザに対応して設けられている。
演奏データ取得部110A-1は、第1ユーザに関する第1演奏データを取得する。第1演奏データは、例えば、第1ユーザが演奏する電子楽器80から出力された操作データである。演奏データ取得部110A-2は、第2ユーザに関する第2演奏データを取得する。第2演奏データは、例えば、第2ユーザが演奏する電子楽器80から出力された操作データである。
演奏位置特定部130Aは、第1演奏データおよび第2演奏データのいずれかにおける発音制御情報の履歴と楽譜データ129における発音制御情報とを比較することによって、楽譜演奏位置を特定する。第1演奏データおよび第2演奏データのいずれを選択するかは、第1演奏データおよび第2演奏データに基づいて決定される。例えば、演奏位置特定部130Aは、第1演奏データに関するマッチング処理と、第2演奏データに関するマッチング処理との双方の演算を実行し、演算精度が高い方によって特定された楽譜演奏位置を採用する。演算精度は、例えば、演算結果においてマッチングの誤差を示す指標が用いられればよい。
別の例として、演奏位置特定部130Aは、楽譜演奏位置によって特定される楽曲中の位置によって第1演奏データから得られる楽譜演奏位置を採用するか、第2演奏データから得られる楽譜演奏位置を採用するかを決定する。この場合には、楽譜データ129において、楽曲の演奏対象期間が複数の期間に分割され、各期間に対して演奏パートに優先順位が設定されていればよい。演奏位置特定部130Aは、楽譜データ129を参照して、優先順位の高い方の演奏パートに対応する演奏データを用いて楽譜演奏位置を特定する。
信号処理部150A-1、150A-2は、第1実施形態における信号処理部150と同様の機能を有し、それぞれ第1ユーザと第2ユーザとに対応する。信号処理部150A-1は、演奏位置特定部130Aにおいて特定された楽譜演奏位置、および基準値取得部164A-1において取得される第1ユーザに関する基準値を用いて、動画データおよび音データを再生する。信号処理部150A-1のうち、第2ユーザの演奏パートに関するデータ生成部170は、存在しても存在しなくてもよい。第2ユーザの演奏パートに関するデータ生成部170は、音データの再生を行わなくてもよく、動画データの再生を行ってもよい。動画データの再生においては、位置制御データ125を用いる代わりに、基準値取得部164A-2において取得される第2ユーザに関する基準値を用いてもよい。
信号処理部150A-2は、演奏位置特定部130Aにおいて特定された楽譜演奏位置、および基準値取得部164A-2において取得される第2ユーザに関する基準値を用いて、動画データおよび音データを再生する。信号処理部150A-2のうち、第1ユーザの演奏パートに関するデータ生成部170は、存在しても存在しなくてもよい。第1ユーザの演奏パートに関するデータ生成部170は、音データの再生を行わなくてもよく、動画データの再生を行ってもよい。動画データの再生においては、位置制御データ125を用いる代わりに、基準値取得部164A-1において取得される第1ユーザに関する基準値を用いてもよい。
データ出力部190A-1は、信号処理部150A-1から出力された動画データおよび音データを合成して、再生データとして出力する。この再生データは、第1ユーザのHMD60に提供される。データ出力部190A-1は、背景データ127を参照して、仮想空間における会場を模した背景画像を動画データに含めてもよい。データ出力部190A-1は、演奏音取得部119A-1、119A-2によって取得された演奏音データをさらに合成した再生データを出力してもよい。演奏音取得部119A-1によって取得された音データは、例えば、第1ユーザが演奏する電子楽器80から出力された音データである。演奏音取得部119A-2によって取得された音データは、例えば、第2ユーザが演奏する電子楽器80から出力された音データである。第1ユーザの基準値に対する第2ユーザの基準値に対応する相対情報、または、第2ユーザの演奏パートに関する動画データに付与された相対情報が、演奏音取得部119A-2によって取得された音データに付与されて、所定の位置に音像が定位するようにしてもよい。
データ出力部190A-2は、信号処理部150A-2から出力された動画データおよび音データを合成して、再生データとして出力する。この再生データは、第1ユーザのHMD60に提供される。データ出力部190A-2は、背景データ127を参照して、仮想空間における会場を模した背景画像を動画データに含めてもよい。データ出力部190A-2は、演奏音取得部119A-1、119A-2によって取得された演奏音データをさらに合成した再生データを出力してもよい。第2ユーザの基準値に対する第1ユーザの基準値に対応する相対情報、または、第1ユーザの演奏パートに関する動画データに付与された相対情報が、演奏音取得部119A-1によって取得された音データに付与されて、所定の位置に音像が定位するようにしてもよい。
このように、第2実施形態における演奏追従機能100Aによれば、2つの演奏パートがユーザによって演奏される場合にも、ユーザに対して与える臨場感を高めることができる。
<変形例>
本発明は上述した実施形態に限定されるものではなく、他の様々な変形例が含まれる。例えば、上述した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。以下、一部の変形例について説明する。第1実施形態を変形した例として説明するが、他の実施形態を変形する例としても適用することができる。複数の変形例を組み合わせて各実施形態に適用することもできる。
(1)再生データに含まれる動画データと音データとは、HMD60に提供される場合に限らず、例えば、据え置き型のディスプレイに提供されてもよい。動画データと音データとが異なる装置に提供されてもよい。例えば、動画データがHMD60に提供され、音データがHMD60とは異なるスピーカ装置に提供されてもよい。このスピーカ装置は、例えば、電子楽器80におけるスピーカ87であってもよい。スピーカ装置に提供される場合には、付与部173において提供されるスピーカ装置を想定した信号処理が施されてもよい。例えば、電子楽器80のスピーカ87であれば、LchのスピーカユニットとRchのスピーカユニットとは電子楽器80に固定され、演奏者の耳の位置も概ね推測される。このような場合には、2つのスピーカユニットと演奏者の右耳および左耳の推定位置とから、クロストークキャンセル技術を用いて音像の定位をするように信号処理が音データに施されるようにすればよい。このとき、電子楽器80が設置された部屋の形状を取得して、その部屋の形状による音場をキャンセルするように、信号処理が音データに施されてもよい。部屋の形状は、音の反射を利用する方法、撮像を利用する方法など、公知の方法によって取得されればよい。
(2)再生データに含まれる動画データと音データとの少なくとも一方は、存在しなくてもよい。すなわち、動画データと音データとの少なくとも一方が自動処理としてユーザの演奏に追従してもよい。
(3)付与部173は、動画データと音データとの少なくとも一方に対しては、位置情報および方向情報を付与しなくてもよい。
(4)データ出力装置10の機能と電子楽器80の機能とが1つの装置に含まれていてもよい。例えば、データ出力装置10が電子楽器80の機能として組み込まれていてもよい。電子楽器80の一部の構成がデータ出力装置10に含まれていてもよいし、データ出力装置10の一部の構成が電子楽器80に含まれていてもよい。例えば、電子楽器80の演奏操作子84以外の構成がデータ出力装置10に含まれていてもよい。この場合には、データ出力装置10は、取得した操作データから音源部を用いて音データを生成してもよい。
(5)楽譜データ129は、設定データ120と同じ形式で楽曲データ12bに含まれていてもよい。この場合には、ユーザの演奏パートをデータ出力装置10に設定することで、その演奏パートに対応する設定データ120に含まれる発音制御データ121を楽譜データ129として用いてもよい。
(6)位置情報および方向情報は、仮想空間における仮想位置および仮想方向として決められているが、仮想平面における仮想位置および仮想方向として決められもよく、仮想領域において規定される情報として決められていればよい。
(7)設定データ120における位置制御データ125は、方向情報を含まなくてもよいし、時刻情報を含まなくてもよい。
(8)付与部173は、音データに対して付与する位置情報を位置制御データ125に基づいて変化させなくてもよい。例えば、初期値のまま固定してもよい。このようにすると、特定のスピーカから発音している状況(音像が固定されている状況)を想定しつつ、演奏者画像は移動することができる。これによって、演奏者画像の位置とは異なる位置に音像が定位することもある。位置制御データ125に含まれる情報が動画データ用と音データ用とに区別して設けられることで、演奏者画像と音像とを別々の位置に制御できるようにしてもよい。
(9)再生データに含まれる動画データは、静止画データであってもよい。
(10)演奏データ取得部110によって取得される演奏データは、操作データではなく音データ(演奏音データ)であってもよい。演奏データが音データである場合には、演奏位置特定部130は、演奏データである音データと、楽譜データ129に基づいて生成される音データとを比較して公知のマッチング処理をする。この処理によって演奏位置特定部130は、順次取得される演奏データに対応する楽譜演奏位置を特定すればよい。楽譜データ129が音データであってもよい。この場合には、音データの各部に時刻情報が対応付けられる。
(11)楽曲データ12bに含まれる発音制御データ121は、音データであってもよい。この場合には、音データの各部に時刻情報が対応付けられる。ボーカルパートの音データである場合には、音データには歌唱音が含まれる。再生部171が楽譜演奏位置に基づいて、この音データを読み出すときには、楽譜演奏位置と時刻情報との関係に基づいて音データを読み出し、読み出し速度に応じて音高を調整してもよい。音高の調整は、例えば、所定の読み出し速度で音データを読み出したときの音高になるように調整してもよい。
(12)制御部11は、データ出力部190から出力される再生データを記録媒体等に記録してもよい。制御部11は、再生データを出力するための記録用データを生成して、記録媒体に記録すればよい。記録媒体は、記憶部12であってもよいし、外部装置として接続されるコンピュータに読み取り可能な記録媒体であってもよい。記録用データは、ネットワークNWを介して接続されるサーバ装置に送信されてもよい。例えば、記録用データは、データ管理サーバ90に送信されて、記憶部92に記憶されてもよい。記録用データは、動画データおよび音データを含む形態であってもよいし、設定データ120と楽譜演奏位置の時系列情報とを含む形態であってもよい。後者の場合は、信号処理部150およびデータ出力部190に相当する機能によって、記録用データから再生データが生成されるようにしてもよい。
(13)演奏位置特定部130は、楽曲の一部の期間において、演奏データ取得部110によって取得された演奏データとは関係なく楽譜演奏位置を特定してもよい。この場合には、楽譜データ129は、楽曲の一部の期間において特定されるべき楽譜演奏位置の進行速度が規定されていてもよい。演奏位置特定部130は、この期間においては、規定された進行速度で楽譜演奏位置が変更されるように特定すればよい。
(14)楽曲データ12bに含まれる設定データ120のうち、演奏追従機能100において使用可能な設定データ120が、ユーザによって制限されてもよい。この場合には、データ出力装置10は、ユーザIDの入力を前提として演奏追従機能100を実現するようにしてもよい。制限される設定データ120は、ユーザIDによって変更されてもよい。例えば、ユーザIDが特定のIDである場合は、ボーカルパートに関する設定データ120を演奏追従機能100において使用できないように、制御部11が制御すればよい。IDと制限されるデータとの関係は、データ管理サーバ90において登録されてもよい。この場合には、データ管理サーバ90は、データ出力装置10に楽曲データ12bを提供するときに、使用できない設定データ120が楽曲データ12bに含まれないようにしてもよい。
以上が変形例に関する説明である。
以上のとおり、本発明の一実施形態によれば、演奏操作によって生成される演奏データを取得することと、前記演奏データに基づいて所定の楽譜における楽譜演奏位置を特定することと、前記楽譜演奏位置に基づいて第1データを再生することと、前記第1データに対応して設定された第1仮想位置に応じた第1位置情報を当該第1データに付与することと、前記第1位置情報が付与された前記第1データを含む再生データを出力することと、を含む、データ出力方法が提供される。
前記第1仮想位置は、さらに前記楽譜演奏位置に対応して設定されてもよい。
前記第1データは音データを含んでもよい。
前記音データは、歌唱音を含んでもよい。
前記歌唱音は、文字情報と音高情報とに基づいて生成されてもよい。
前記第1データに前記第1位置情報を付与することは、前記音データに音像を定位させるための信号処理を施すことを含んでもよい。
前記第1データは動画データを含んでもよい。
前記第1仮想位置に応じた前記第1位置情報は、設定される基準位置および基準方向に対する前記第1仮想位置の相対情報を含んでもよい。
ユーザから入力された指示に基づいて前記基準位置および前記基準方向の少なくとも一方を変更することを含んでもよい。
前記基準位置および前記基準方向の少なくとも一方は、前記楽譜演奏位置に対応して設定されてもよい。
前記第1データに対応して設定された第1仮想方向に応じた第1方向情報を当該第1データに付与することを含んでもよい。
前記楽譜演奏位置に基づいて第2データを再生することと、前記第2データに対応して設定された第2仮想位置に応じた第2位置情報を当該第2データに付与することと、を含んでもよい。前記再生データは、前記第1位置情報が付与された前記第1データおよび前記第2位置情報が付与された前記第2データを含んでもよい。
前記再生データは、前記演奏操作に対応した演奏音データを含んでもよい。
前記再生データを出力するための記録用データを生成することを含んでもよい。
前記演奏データを取得することは、少なくとも第1パートの演奏操作によって生成される第1演奏データと第2パートの演奏操作によって生成される第2演奏データとを取得することを含んでもよい。前記第1演奏データおよび前記第2演奏データのいずれか一方を、前記第1演奏データおよび前記第2演奏データに基づいて選択することをさらに含んでもよい。前記楽譜演奏位置は、選択された前記第1演奏データまたは前記第2演奏データに基づいて特定されてもよい。
前記演奏データは、前記演奏操作に応じた演奏音データを含んでもよい。
前記演奏データは、前記演奏操作に応じた操作データを含んでもよい。
上記のいずれかに記載のデータ出力方法を、プロセッサに実行させるためのプログラムが提供されてもよい。
上記記載のプログラムを実行するためのプロセッサを含む、データ出力装置が提供されてもよい。
前記演奏操作に応じて音データを生成する音源部を含んでもよい。
上記記載のデータ出力装置と、前記演奏操作を入力するための演奏操作子と、を含む、電子楽器が提供されてもよい。
10:データ出力装置、11:制御部、12:記憶部、12a:プログラム、12b:楽曲データ、13:表示部、14:操作部、17:スピーカ、18:通信部、19:インターフェース、60:ヘッドマウントディスプレイ、61:制御部、63:表示部、64:挙動センサ、67:放音部、68:撮像部、69:インターフェース、80:電子楽器、84:演奏操作子、85:音源部、87:スピーカ、89:インターフェース、90:データ管理サーバ、91:制御部、92:記憶部、98:通信部、100,100A:演奏追従機能、110,110A-1,110A-2:演奏データ取得部、119,119A-1,119A-2:演奏音取得部、120:設定データ、121:発音制御データ、123:動画制御データ、125:位置制御データ、127:背景データ、129:楽譜データ、130,130A:演奏位置特定部、150,150A-1,150A-2:信号処理部、164,164A-1,164A-2:基準値取得部、170:データ生成部、171:再生部、173:付与部、190,190A-1,190A-2:データ出力部

Claims (19)

  1. 演奏操作によって生成される演奏データを取得することと、
    前記演奏データに基づいて所定の楽譜における楽譜演奏位置を特定することと、
    前記楽譜演奏位置に基づいて第1データを再生することと、
    前記第1データに対応して設定された第1仮想位置に応じた第1位置情報を当該第1データに付与することと、
    前記第1位置情報が付与された前記第1データを含む再生データを出力することと、
    を含む、データ出力方法。
  2. 前記第1仮想位置は、さらに前記楽譜演奏位置に対応して設定されている、請求項1に記載のデータ出力方法。
  3. 前記第1データは音データを含む、請求項1または請求項2に記載のデータ出力方法。
  4. 前記音データは、歌唱音を含む、請求項3に記載のデータ出力方法。
  5. 前記歌唱音は、文字情報と音高情報とに基づいて生成される、請求項4に記載のデータ出力方法。
  6. 前記第1データに前記第1位置情報を付与することは、前記音データに音像を定位させるための信号処理を施すことを含む、請求項3から請求項5のいずれかに記載のデータ出力方法。
  7. 前記第1データは動画データを含む、請求項1から請求項6のいずれかに記載のデータ出力方法。
  8. 前記第1仮想位置に応じた前記第1位置情報は、設定される基準位置および基準方向に対する前記第1仮想位置の相対情報を含む、
    請求項1から請求項7のいずれかに記載のデータ出力方法。
  9. ユーザから入力された指示に基づいて前記基準位置および前記基準方向の少なくとも一方を変更することを含む、請求項8に記載のデータ出力方法。
  10. 前記基準位置および前記基準方向の少なくとも一方は、前記楽譜演奏位置に対応して設定されている、請求項8に記載のデータ出力方法。
  11. 前記第1データに対応して設定された第1仮想方向に応じた第1方向情報を当該第1データに付与することを含む、請求項1から請求項10のいずれかに記載のデータ出力方法。
  12. 前記楽譜演奏位置に基づいて第2データを再生することと、
    前記第2データに対応して設定された第2仮想位置に応じた第2位置情報を当該第2データに付与することと、
    を含み、
    前記再生データは、前記第1位置情報が付与された前記第1データおよび前記第2位置情報が付与された前記第2データを含む、
    請求項1から請求項11のいずれかに記載のデータ出力方法。
  13. 前記再生データは、前記演奏操作に対応した演奏音データを含む、請求項1から請求項12のいずれかに記載のデータ出力方法。
  14. 前記再生データを出力するための記録用データを生成することを含む、請求項1から請求項13のいずれかに記載のデータ出力方法。
  15. 前記演奏データを取得することは、少なくとも第1演奏パートの演奏操作によって生成される第1演奏データと第2演奏パートの演奏操作によって生成される第2演奏データとを取得することを含み、
    前記第1演奏データおよび前記第2演奏データのいずれか一方を、前記第1演奏データおよび前記第2演奏データに基づいて選択することをさらに含み、
    前記楽譜演奏位置は、選択された前記第1演奏データまたは前記第2演奏データに基づいて特定される、請求項1から請求項14のいずれかに記載のデータ出力方法。
  16. 前記演奏データは、前記演奏操作に応じた操作データを含む、請求項1から請求項15のいずれかに記載のデータ出力方法。
  17. 請求項1から請求項16のいずれかに記載のデータ出力方法を、プロセッサに実行させるためのプログラム。
  18. 請求項17に記載のプログラムを実行する制御部と、
    前記演奏操作に応じて音データを生成する音源部と、
    を含む、データ出力装置。
  19. 請求項18に記載のデータ出力装置と、
    前記演奏操作を入力するための演奏操作子と、
    を含む、電子楽器。
JP2022049805A 2022-03-25 2022-03-25 データ出力方法、プログラム、データ出力装置および電子楽器 Pending JP2023142748A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022049805A JP2023142748A (ja) 2022-03-25 2022-03-25 データ出力方法、プログラム、データ出力装置および電子楽器
CN202280093455.5A CN118786478A (zh) 2022-03-25 2022-12-27 数据输出方法、程序、数据输出装置以及电子乐器
PCT/JP2022/048175 WO2023181571A1 (ja) 2022-03-25 2022-12-27 データ出力方法、プログラム、データ出力装置および電子楽器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022049805A JP2023142748A (ja) 2022-03-25 2022-03-25 データ出力方法、プログラム、データ出力装置および電子楽器

Publications (1)

Publication Number Publication Date
JP2023142748A true JP2023142748A (ja) 2023-10-05

Family

ID=88100915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022049805A Pending JP2023142748A (ja) 2022-03-25 2022-03-25 データ出力方法、プログラム、データ出力装置および電子楽器

Country Status (3)

Country Link
JP (1) JP2023142748A (ja)
CN (1) CN118786478A (ja)
WO (1) WO2023181571A1 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3577777B2 (ja) * 1995-04-25 2004-10-13 ヤマハ株式会社 カラオケ装置
JP3603599B2 (ja) * 1998-06-08 2004-12-22 ヤマハ株式会社 演奏システムの視覚的表示方法および演奏システムの視覚的表示プログラムが記録されたコンピュータ読み取り可能な記録媒体
JP5748078B2 (ja) * 2013-07-26 2015-07-15 ブラザー工業株式会社 楽曲演奏装置及び楽曲演奏プログラム
JP6467887B2 (ja) * 2014-11-21 2019-02-13 ヤマハ株式会社 情報提供装置および情報提供方法
JP7383943B2 (ja) * 2019-09-06 2023-11-21 ヤマハ株式会社 制御システム、制御方法、及びプログラム

Also Published As

Publication number Publication date
WO2023181571A1 (ja) 2023-09-28
CN118786478A (zh) 2024-10-15

Similar Documents

Publication Publication Date Title
US10924875B2 (en) Augmented reality platform for navigable, immersive audio experience
US5822438A (en) Sound-image position control apparatus
JP4304845B2 (ja) 音声信号処理方法及び音声信号処理装置
GB2543275A (en) Distributed audio capture and mixing
US9967693B1 (en) Advanced binaural sound imaging
JPH09500747A (ja) 音響制御されるコンピュータ生成バーチャル環境
US8887051B2 (en) Positioning a virtual sound capturing device in a three dimensional interface
US20070160216A1 (en) Acoustic synthesis and spatialization method
JP7192786B2 (ja) 信号処理装置および方法、並びにプログラム
CN110915240B (zh) 向用户提供交互式音乐创作的方法
GB2582991A (en) Audio generation system and method
US20220386062A1 (en) Stereophonic audio rearrangement based on decomposed tracks
JP7243026B2 (ja) 演奏解析方法、演奏解析装置およびプログラム
JP2007041164A (ja) 音声信号処理方法、音場再現システム
JP2024042045A (ja) 情報処理装置および方法、プログラム、並びに情報処理システム
EP3255905A1 (en) Distributed audio mixing
WO2023181571A1 (ja) データ出力方法、プログラム、データ出力装置および電子楽器
CN108735193B (zh) 共鸣音控制装置和共鸣音的定位控制方法
Einbond Mapping the Klangdom Live: Cartographies for piano with two performers and electronics
CA3044260A1 (en) Augmented reality platform for navigable, immersive audio experience
JP7458127B2 (ja) 処理システム、音響システム及びプログラム
WO2024185736A1 (ja) 音データ生成方法
JP2002354598A (ja) 音声空間情報付加装置および方法、記録媒体、並びにプログラム
JP6634857B2 (ja) 楽曲演奏装置、楽曲演奏用プログラム及び楽曲演奏方法
WO2023195333A1 (ja) 制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240930