JP2006267226A - 楽音制御装置 - Google Patents

楽音制御装置 Download PDF

Info

Publication number
JP2006267226A
JP2006267226A JP2005082069A JP2005082069A JP2006267226A JP 2006267226 A JP2006267226 A JP 2006267226A JP 2005082069 A JP2005082069 A JP 2005082069A JP 2005082069 A JP2005082069 A JP 2005082069A JP 2006267226 A JP2006267226 A JP 2006267226A
Authority
JP
Japan
Prior art keywords
musical
musical sound
space
user
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005082069A
Other languages
English (en)
Inventor
Takahiro Hara
貴洋 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2005082069A priority Critical patent/JP2006267226A/ja
Publication of JP2006267226A publication Critical patent/JP2006267226A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereophonic Arrangements (AREA)
  • Stereophonic System (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】ライブパフォーマンスに利用したり、複数ユーザが連携して操作することができ、感覚的な操作で楽音パラメータを制御することができる楽音制御システムの提供。
【解決手段】このシステムでは、3D投影装置PRにより3次元空間SpにオブジェクトA,Bを表示し、オブジェクトA,Bに割り当てられた楽音がスピーカSK1〜SK4から発生される(1)。ユーザUsにより或るオブジェクトAを移動する操作が検出器DTLにより検出されると、このオブジェクトAは当該操作に応じて移動される(2a)。各オブジェクトA,Bに対応してスピーカSK1〜SK4から発生される楽音は、各オブジェクト位置Pa,Pbに定位され(2b)、ユーザUsの位置PuとオブジェクトAの位置Paに応じて当該オブジェクトAに対応する楽音の音量が制御される(2c)。他システムのオブジェクトを表示し合い他システムユーザと連携することもできる。
【選択図】図3

Description

この発明は、仮想空間を利用して楽音要素を制御して楽曲の制作や編集を行うことができる楽音制御システムに関する。
タッチパネル上に発音源に対応したアイコンを表示し、アイコンの位置を移動操作することで各アイコンに対応付けられた発音源の定位を制御することができる音処理装置は、特許文献1により知られている。しかしながら、この音処理装置では、タッチパネル上での2次元表示であり、ライブなどのパフォーマンスには応用できないので面白みに欠け、アイコンの移動操作を音楽制作に使うことはできない。また、単一のタッチパネルでの楽音制御を行うものであり、他のユーザと連携した楽音制御を行うこともできない。
特許第3089421号公報
この発明は、このような不都合に鑑み、ライブパフォーマンスに利用したり、複数ユーザが連携して操作することができ、感覚的な操作で楽音の定位や音量その他の楽音パラメータを制御することができる楽音制御システムを提供することを目的とする。
この発明の1つの特徴に従うと、3次元空間(Sp)にオブジェクト(A,B)を表示する表示手段(12)と、表示手段(12)により3次元空間(Sp)に表示されているオブジェクト(A,B)に割り当てられた楽音要素に対応する楽音を発生する楽音発生手段(14,15)と、3次元空間(Sp)に表示されているオブジェクト(A,B)に対するユーザ操作を検出する検出手段(13;DTL,DTR)と、検出手段(13)により検出された第1のユーザ操作に応じて、対応するオブジェクトを移動させる表示制御手段(11,12;図3(2a))と、3次元空間(Sp)に表示されているオブジェクト(A,B)の位置(Pa,Pb)に応じて、楽音発生手段(14,15)により当該オブジェクト(A,B)に対応して発生される楽音の定位及び音量を制御する楽音制御手段(11,14,15;図3(2b),(2c))とを具備する楽音制御装置〔請求項1〕が提供される。
この発明の別の特徴に従うと、3次元又は2次元空間(Sp1)にオブジェクト(A1,B1)を表示する表示手段(12)と、表示手段(12)により3次元又は2次元空間(Sp1)に表示されているオブジェクト(A1,B1)に割り当てられた楽音要素に対応する楽音を発生する楽音発生手段(14,15)と、3次元空間(Sp1)に表示されているオブジェクト(A1,B1)に対するユーザ操作を検出する検出手段(13;DTL,DTR)と、検出手段(13)により検出された第1のユーザ操作に応じて、対応するオブジェクトを移動させる表示制御手段(11,12;図3(2a))と、3次元又は2次元空間(Sp)に表示されているオブジェクト(A1,B1)の位置(Pa1,Pb1)に応じて、楽音発生手段(14,15)により当該オブジェクト(A1,B1)に対応して発生される楽音の定位及び音量を制御する楽音制御手段(11,14,15;図3(2b),(2c))と、ネットワーク(CN)を介して、他の楽音制御装置(SY2)の3次元又は2次元空間(Sp2)に表示されているオブジェクト(A2,B2)及び該オブジェクトに割り当てられた楽音要素を含むオブジェクト情報(図2下段)を取得する取得手段(11)と、取得手段(11)により取得されたオブジェクト情報に基づいて、表示手段(12)にオブジェクト(A2,B2)を表示させ、このオブジェクト(A2,B2)に割り当てられた楽音要素に対応する楽音を楽音発生手段(14,15)に発生させる連係制御手段(11)とを具備する楽音制御装置(SY1)〔請求項2〕が提供される。
これらの楽音制御装置における楽音制御手段(11,14,15)は、表示手段(12)により3次元又は2次元空間(Sp;Sp1)に表示されているオブジェクト(A,B;A1,B1)に対して検出手段(13)により検出された第2のユーザ操作に応じて、楽音発生手段(14,15)により当該オブジェクト(A,B;A1,B1)に対応して発生される楽音の他のパラメータを制御する〔請求項3〕ように構成することができる。
これらの楽音制御装置は、さらに、表示手段(12)により3次元又は2次元空間(Sp;Sp1)に表示されたオブジェクトの位置に関する履歴情報(図2参照)を再生可能に記録する記録再生手段〔請求項4〕ように構成することができる。
別の特徴による楽音制御装置(Sy1)は、この楽音制御装置(SY1)及び他の楽音制御装置(SY2)の3次元又は2次元空間(Sp1,Sp2)は、互いに重なり合う部分を持つ夫々独立した座標系([x1,y1(,z1)],[x2,y2(,z2)])を有し、連係制御手段(11)は、表示手段(12)に対して、他の楽音制御装置(SY2)からのオブジェクト情報(図2下段)に基づくオブジェクト(A2)を両座標系の相対的な位置関係に応じた位置に表示させ、楽音制御手段(11,14,15)は、当該オブジェクト(A2)の表示位置に応じて、対応する楽音の定位及び音量を制御する〔請求項5〕ように構成することができる。なお、上記した括弧書きは実施例の参照記号・用語乃至参照箇所を表わす。
この発明の1つの特徴による楽音制御装置では、3次元空間に表示されたオブジェクトに割り当てた楽音要素を発音し、オブジェクトに対する所定のユーザ操作を検出すると、この操作に応じてオブジェクトを移動し、オブジェクトの位置に応じて楽音要素の定位と音量を制御する。従って、この発明によれば、3次元空間における感覚的な操作で楽音生成用オブジェクトを制御することができ、ライブパフォーマンスへの応用が可能となる。
また、この発明の別つの特徴による楽音制御装置では、2次元又は3次元空間に表示されたオブジェクトに割り当てた楽音要素を発音し、オブジェクトに対する所定のユーザ操作を検出すると、この操作に応じてオブジェクトを移動し、オブジェクトの位置に応じて楽音要素の定位と音量を制御すると共に、ネットワークを介して他の楽音制御装置のオブジェクト及び楽音要素を含むオブジェクト情報を取得し、このオブジェクト情報に基づき他システムのオブジェクトを表示して発音する。従って、この発明によれば、他の楽音制御装置ユーザと連携した楽音制御が可能となる。
この発明の楽音制御装置によると、さらに、オブジェクトへの操作に応じて該オブジェクトに割り当てられた他のパラメータ(楽音要素の定位と音量以外)を制御するようにしているので、楽音制御の幅を広げることができる。また、各オブジェクトの位置情報や位置移動情報を含む履歴情報を記録し再生することができるようにしているので、楽曲制作への応用が可能となる。
この発明の連携制御が可能な楽音制御装置では、各楽音制御装置の2次元又は3次元空間は、その一部が重なり合う独立した座標系を有し、各座標系の相対位置に応じて、他の楽音制御装置からのオブジェクトの表示位置を決定し、その楽音要素の定位と音量を制御することによって、各座標系の相対位置に応じた複雑な楽音制御が可能となる。
〔システムの概要〕
図1は、この発明の一実施例による楽音制御システムの全体的な構成を表わすシステム構成図を示す。この楽音制御システムは、夫々がユーザ(操作者)毎に制御可能な複数の個別楽音制御システムSY1,SY2,SY3,…で構成される。これらの楽音制御システムSY1,SY2,SY3,…は、それぞれ、オブジェクト制御装置11,21,31,…を備え、これらのオブジェクト制御装置11,21,31,…は、通信ネットワークCNを通じて通信可能に接続される。なお、以下の説明では、個別の楽音制御システムSY1を中心にしてより具体的な構成や動作を述べるが、他の個別楽音制御システムSY2,SY3,…についても、同様の構成を有し同様の動作を行うことができる。
楽音制御システムSY1は、上述したオブジェクト制御装置11の外に、3次元又は2次元(3D/2D)表示装置12、位置動作検出装置13、楽音データ処理装置14、3次元(3D)音響装置15及び記録再生装置16を備え、これらの装置12〜16はオブジェクト制御装置11に接続される。オブジェクト制御装置11及び楽音処理装置14は、この楽音制御システムSY1の中心的な制御要素であり、それぞれ個別のコンピュータで構成してもよいし、共通する1台のコンピュータで構成してもよい。
オブジェクト制御装置11は、複数のオブジェクトの機能や位置に関する各種情報を管理し、1乃至複数のオブジェクトの位置指令情報を含むオブジェクト表示制御情報を3D/2D表示装置12に出力して3次元又は2次元(3D/2D)空間の所定位置に当該オブジェクトを3次元又は2次元(3D/2D)表示させる。ここで、オブジェクトとは、3D/2D空間内に位置することができる視覚的な物体をいい、例えば、光の投影などによる仮想的な表示により表現することができる。各オブジェクトは、色彩や形状などの表示態様によって互いに識別可能であり、その中心から一定距離の映像認識範囲を有する。位置動作検出装置13は、3D/2D空間内におけるユーザの位置や操作点(ユーザの手などの身体部位)の位置及び動作などを検出し、オブジェクト制御装置11に入力する。
オブジェクト制御装置11は、また、3D/2D空間内に表示されている各オブジェクトの位置、同空間内におけるユーザの位置や動作などを表わす位置及び動作情報と、オブジェクト管理部により各オブジェクトに予め割り当てられている楽音生成機能に基づいて楽音制御情報を生成し、楽音処理装置14に送ると共に、各オブジェクトやユーザの位置などの情報に基づく音場制御信号を3D音響装置15に出力する。
楽音処理装置14は、楽音制御情報に従ってオブジェクトに割り当てられた楽音生成機能に対応する楽音信号を生成して3D音響装置15に入力する。3D音響装置15は、この楽音信号を音場制御信号により3次元音響信号に変換し、複数のスピーカを通じて楽音信号に対応する楽音を発生しその音像をオブジェクト位置に定位させる。
また、記録再生装置16は、オブジェクト制御装置11からの各オブジェクトの位置に関する履歴情報を記録し、記録されたこれらの情報は、必要に応じて、オブジェクト制御装置11に読出して再生し、3D/2D表示装置12と楽音処理装置14及び3D音響装置15とを通じてオブジェクト映像と楽音を再現することができる。
〔オブジェクト管理の概要〕
この発明の一実施例による楽音制御システムでは、3D/2D空間上にリズム音や音楽フレーズなどに対応したオブジェクトを配置・表示し、これらのオブジェクトをユーザ(操作者)の操作により動かし、操作に対応したリズム音や音楽フレーズの音源(=発音源:Sound Source)を仮想空間内のオブジェクト位置に定位させるように制御することができ、このようなオブジェクトは、各楽音制御システムのオブジェクト制御装置内に構成されるオブジェクト管理部により管理される。図2は、この発明の一実施例による楽音制御システムにおけるオブジェクト管理の概要を説明するための図である。
各楽音制御システムSY1(SY2,…)のオブジェクト制御装置11(21,…)は、夫々のシステムの3D/2D空間内に複数のオブジェクトA,B,…を定義してオブジェクト管理部で管理することができる。これらのオブジェクトは、操作者の指示に従い、楽音生成に関する任意所定の機能(楽音生成機能)を割り当てて空間内の任意の位置に配置し任意に操作することができる。例えば、オブジェクトAには、ドラムのリズム音を発生する源となる音源としての機能が割り当てられ、オブジェクトBには、ピアノの演奏パターン音を発生する音源の機能が割り当てられ、何れも音源オブジェクトと呼ばれる。
また、各オブジェクトA,Bには、3D/2D空間内の位置座標Pa[Xa,Ya(,Za)],Pb[Xb,Yb(,Zb)]が与えられ、発音や表示のパラメータとして用いられる。すなわち、3D/2D表示装置12は、与えられたオブジェクト位置Pa,PbにオブジェクトA,Bを夫々識別可能な所定の態様で3D/2D表示する。また、音源オブジェクトA,Bについては、3D音響装置15により、割り当てられたリズム音や演奏パターン音が発生され、各オブジェクト位置Pa,Pbにその発音源を定位させる。
オブジェクトC(図示せず)以下についても、同様に、他の楽音生成機能が割り当てられて位置座標が付与され、所要の発音及び表示パラメータとして機能する。なお、オブジェクトは、オブジェクトA,Bのような音源オブジェクトに限定されず、他の楽音生成機能には、例えば、エコー、リバーブ、ディストーションなどのエフェクト機能を割り当てることができる。エフェクト機能が割り当てられたオブジェクトは、効果オブジェクトと呼ばれ、音源オブジェクトに対応して発音される楽音を修飾するための楽音パラメータとして用いられ、独立して音位を生成させる機能を有しない。例えば、効果オブジェクトEには、3D/2D空間内の位置座標Pe[Xe,Ye(,Ze)]が与えられ、音源オブジェクトA,Bと同様に表示パラメータとして用いられるが、エコー効果を付与する楽音パラメータとして機能させるには、音源オブジェクトと結合する操作を行う必要がある。
或る楽音制御システム(自システム)が他の楽音制御システム(他システム)と連係する場合には、自システムのオブジェクト制御装置は、自システムのオブジェクトA,B,…,E,…だけでなく、他システムの3D/2D空間内におけるユーザ(操作者)やオブジェクトの機能や位置に関する情報をオブジェクト情報として取り込み、自システムの3D/2D空間内におけるオブジェクトとして管理することができる。
例えば、オブジェクトJは、他システムのユーザ機能(「他ユーザ」)が割り当てられ、ユーザオブジェクトと呼ばれる。ユーザオブジェクトJは、他システムにおけるユーザの位置座標を自システムの3D/2D空間座標系上に座標変換したオブジェクト位置Pj[Xj,Yj(,Zj)]が与えられ、表示パラメータとして機能させる。つまり、ユーザオブジェクト位置Pjが自システムの3D/2D空間内にある場合は、3D/2D表示装置12に、この位置PjにユーザオブジェクトJが所定の態様で3D/2D表示させる。
また、図示を省略したが、自システムのオブジェクトA,B,…,E,…と同様に、他システムにおいて楽音生成機能が割り当てられた音源及び効果オブジェクトについても、自システムの3D/2D空間座標系上に座標変換したオブジェクト位置が与えられる。この場合も、座標変換後のオブジェクト位置が自システムの3D/2D空間内に存在するときに限って、3D/2D表示装置12により、当該オブジェクト位置に当該オブジェクトを所定の態様で3D/2D表示させ、3D音響装置15には、割り当てられた楽音生成機能に対応する楽音を発生させることができる。
〔3D空間における楽音制御〕
この発明による楽音制御は、3D空間上にオブジェクトを配置(表示)し、この空間内に位置するユーザの操作に対応して音源をオブジェクト位置に定位させる3D空間楽音制御系上でのライブパフォーマンスに好適に実施することができる。図3は、この発明の一実施例による3D空間を用いた楽音制御システムの動作を説明するための図である。
図3(1)は、各楽音制御システムSY1(SY2,…)におけるユーザ毎の3D空間楽音制御をイメージ的に示している。3D表示装置12は、出力部である3D投影装置PRにより、予め定められた楽音制御空間座標系[x,y,z ]を有する3D空間Spの所定位置Pa,Pbに、オブジェクトA,Bの映像を投影する。3D音響装置15は、出力部であるスピーカSP1〜SP4〔例えば、5.1chスピーカ。但し、図3(1)では4つのスピーカのみを代表的に図示した。〕により、3D空間Spに3D音場空間を実現する。
このシステムでは、3D投影装置PRによる3D空間Spへの投影によって複数のオブジェクトが互いに識別可能に表現され、オブジェクトが音源オブジェクトの場合には、対応する楽音(パターンを含む)を持つ。図3(1)の例では、オブジェクトとして音源オブジェクトA,Bが表示されており、既述したように、例えば、オブジェクトAに、ドラムのリズム音を発音する音源の機能が割り当てられ、オブジェクトBには、ピアノの演奏パターン音を発音する音源の機能が割り当てられる。
ユーザ(操作者)Usは、3D空間Sp[x,y,z ]内の任意のユーザ位置Puに位置することができ、3D空間Sp内に表示されているオブジェクトを操作することができる。位置動作検出装置13は、ユーザUs自身の位置を代表する部位に装着されたユーザ位置検出器DTUや、グローブのような形態でユーザUsの左手乃至右手に装着された操作位置及び動作検出器DTR,DTL、送信器などを備える。ここで、ユーザ位置検出器DTUはユーザ位置座標Pu[Xu,Yu,Zu]を検出し、操作位置及び動作検出器DTR,DTLは、ユーザUsの左手及び右手の位置座標Pr[Xr,Yr,Zr],Pl[Xl,Yl,Zl]と、左手及び右手の特定動作を検出する。この特定動作は、握っている、開いている等、予め定められた特定の手のしぐさをいう。そして、検出器DTU;DTR,DTLで検出された位置情報や操作情報は、送信器を通じてオブジェクト制御装置11に出力され、オブジェクト制御装置11は、ユーザUsの左手乃至右手に着けられた操作位置及び動作検出器DTR,DTLから現在の左手乃至右手座標情報Pr,Pl及び特定動作情報を取得する。
(a)手の特定動作とオブジェクトへの操作
オブジェクト制御装置11は、ユーザUsの左手乃至右手座標Pr,Plが、現在表示されているオブジェクトA,Bの映像認識範囲(以下、単に「範囲」という)内に有るか否かを判定する。例えば、オブジェクトAの範囲内に有る場合は、当該オブジェクトAを操作していると認識する。この場合、さらに、操作位置及び動作検出器DTR,DTLからの動作情報から、当該オブジェクトAの範囲内で、どのような特定動作を行っているかを判定することにより、オブジェクトAに対してどのような操作を行おうとしているかを認識する。このように、手に装着した検出器DTR,DTLで認識可能な特定動作を対応させることで、ユーザの手で複数種類のオブジェクト操作を自由に行うことができる。
例えば、操作位置及び動作検出器DTLによって、オブジェクトA上で左手を握る動作が検出されたときには「オブジェクトを握る」という特定動作であると判定され、その後「オブジェクトを握る」特定動作を維持しつつ左手を動かすと、左手の位置Plに従って当該オブジェクトAを移動させていると認識される。また、検出器DTLによりオブジェクトA上で左手を広げる動作が検出されたときには「オブジェクトを放す」という特定動作であると判定され、当該オブジェクトAを移動させた後「オブジェクトを放す」特定動作を行うと、移動後の左手の位置まで当該オブジェクトAを移動させたと認識される。
すなわち、図3(2a)に示すように、ユーザUsがオブジェクトAの位置(映像認識範囲を含む)Par[Xar,Yar,Zar ]にて左手で「オブジェクトを握る」動作を行い、この動作を維持しつつ、左手を位置Pas[Xas,Yas,Zas ]まで動かして「オブジェクトを放す」動作を行うと、当該オブジェクトAは位置Parから位置Pasまで移動される。このように、握る動作でオブジェクトをつかんでユーザUsの周りの好きな位置に移動し、ユーザの好きな位置で手を広げる動作をして、オブジェクトの所望配置を行うことができる。この場合、オブジェクト制御装置11は、ユーザUrの左手位置PlがオブジェクトAの移動開始位置Parに一致し「オブジェクトを握る」動作を検出(判定)すると、以後、移動終了位置Pasで「オブジェクトを放す」動作を検出(判定)するまで、3D表示装置12を制御して、オブジェクトAの位置がユーザUrの左手位置Plに追従するように、オブジェクトAの映像を移動させる。
(b)手の特定動作とオブジェクトの生成及び消滅
なお、3D空間Spには、オブジェクト制御装置11により、初期設定により予め定められた所定のオブジェクトを表示することができるが、特定動作(例えば、手の握り開き回数や両手を重ねる動作)に基づいて、オブジェクト管理部(11)にて予め対応付けられたオブジェクトを3D空間Sp内に新たに生成させたり、消滅させることができる。
例えば、ユーザUsが、オブジェクトを配置したい配置希望位置で、手を握った状態から大きく開くと(1開動作)、オブジェクト制御装置11は、「握り開き」という特定動作を検出し、3D表示装置12(PR)により、オブジェクトAの映像を配置希望位置に3D表示して、オブジェクトAを新たに生成させる。また、配置希望位置で手を開いた後素早く握り再び開くと(2開動作)、オブジェクトBを生成し、更に、もう一度素早い握り開きを行うと(3開動作)、オブジェクトCを生成させる。また、ユーザUsが、3D空間Sp内に現在表示されているオブジェクトA上で左手及び右手を重ねると、オブジェクト制御装置11は、「両手を重ねる」という特定動作を検出し、3D表示装置12を制御して当該オブジェクトAを空間Sp内から消滅させる。
(c)音源オブジェクトと音源の対応
複数のオブジェクトには、オブジェクトA,Bのように、予め用意されている楽音要素(楽音パターンを含む)の音源機能が割り当てられた音源オブジェクトがあり、音源オブジェクトが3D空間Sp内に表示されているときには、当該音源オブジェクトに対して特定動作(例えば、指を鳴らす動作)に基づいて、当該オブジェクトに予め対応付けられた楽音を発生させたり、停止させたりすることができる。
例えば、ユーザUsが、左手乃至右手をオブジェクトA上に置いて指を鳴らすと、オブジェクト制御装置11は、「指を鳴らす」という特定動作を検出し、スピーカシステムSK1〜SK4を含む3D音響装置12を制御して、オブジェクトAに対応付けられたリズム音を所望の音場で発生させることができ、次に、当該オブジェクトA上で再度「指を鳴らす」動作があると、このリズム音の発生を停止させることができる。
この場合、音源オブジェクトに対応する楽音は、常に、オブジェクトの位置に対応する音位及び音量で発生される。すなわち、音位については、図3(2b)に示すように、夫々のオブジェクトA,Bに対応する楽音は、ユーザUsから各オブジェクトA,Bへの相対的な方向から聞こえるように、各音源が定位される。また、音量については、図3(2c)に示すように、オブジェクトAの位置がユーザUsの位置に近いほど、対応する楽音(リズム音)の音量は大きくなるというように、ユーザUs・オブジェクトA間距離の大小に応じて音量が小さく又は大きくなるように制御される。
このように、オブジェクト上にユーザUsの手を重ねることは、当該オブジェクトを選択したことを表わし、音源オブジェクト上での「指をならす」動作で、選択された音源オブジェクトに対応する楽音について発音の開始及び終了を制御することができる。また、前述したように、「オブジェクトを握る」動作でオブジェクトをつかみ、その手を所望位置に動かしてこのオブジェクトを移動することができる。従って、空間Sp内に配置されている発音中の音源オブジェクトを握ったまま移動させることで、対応する音源の音位乃至音量を変化させることができる。例えば、音源オブジェクトをユーザUsの位置から遠ざけると音量は小さくなり、上下左右に動かすと音位が変化する。さらに、このような移動動作を繰り返して或る範囲で音源オブジェクトを往復或いは回転するなどにより、音量や音位が周期的に繰り返し変化する楽音を発生させることができる。また、所望位置に移動した後に「オブジェクトを放す」動作を行うと、この位置にオブジェクトを固定して、以後、音量や音位が一定の楽音を発生させることができる。
(d)音源以外のオブジェクト
3D空間Spに表示されるオブジェクトには、オブジェクトEのように、エコー、リバーブ、ディストーションなどのエフェクト機能が割り当てられた効果オブジェクトがある。効果オブジェクトは、「オブジェクトを握る」動作を行い、音源オブジェクト上に重ねるか或いはユーザUsと音源オブジェクトとの間に配置して「オブジェクトを放す」動作を行うことによって両オブジェクトを結合し、音源オブジェクトの楽音に効果オブジェクトのエフェクトを付与することができる。効果オブジェクトの場合、「指をならす」動作により、対応するエフェクトが能動化或いは不能化される。
音源以外のオブジェクトには、さらに、オブジェクトJのように、自システムSY1が他システムSY2,SY3,…と連係する場合のユーザオブジェクトがある。ユーザオブジェクトは、初期設定により予め定められた他システムとの連係設定条件に従って表示することができるが、特定動作(例えば、握り開き回数や両手を重ねる動作)に基づいて、予め対応付けられたユーザオブジェクトを新たに生成させたり、消滅させることもできる。この場合、ユーザオブジェクトが生成される位置は、他システムとの連係設定条件で定められた座標関係に依存する。
(e)オブジェクトに対するその他の操作
このシステムでは、上述した「オブジェクトを握る」、「オブジェクトを放す」、「握り開き」、「両手を重ねる」、「指をならす」などの操作の外に、選択したオブジェクトに別の任意の感覚的な操作を加えることにより、当該オブジェクトに対応付けられている機能や付与されたエフェクト機能を変化させることができる。
例えば、「オブジェクトをたたく」という特定動作の度に、当該オブジェクトに割り当てられている楽音パターン或いはエフェクト度合いを所定の順序で変更させて行くことができる。また、音源オブジェクトについては、「オブジェクトを投げる」(音源オブジェクトを移動して手を開いた後直ちに人差指以外を閉じる)という特定動作で、それまでの移動方向に向かって発音中の音源オブジェクトを飛んで行かせ、空間Spの周壁に当ると反射して跳ね返らせるなどの動作をさせることも可能である。さらに、「オブジェクトを擦(こす)る」という特定動作で音源オブジェクトの楽音情報にフィルタをかけ、その擦り回数に応じてフィルタ特性の切替えや解除を行うことができる。
(f)オブジェクトへの操作に対応する表示
オブジェクトに対して何らかの操作がなされた場合、オブジェクト制御装置11は、3D表示装置12を制御して、オブジェクトにどのような操作がなされているかを当該オブジェクトの表示状態を視覚的に変更して表現し、オブジェクトの状態を感覚的につかむことができるようにすることが好ましい。
例えば、「指をならす」動作で能動化している(発音やエフェクトが有効となる)オブジェクトをより鮮明に表示したり、「オブジェクトを擦る」動作でフィルタがかかっている音源オブジェクトについては、音源オブジェクトの表示色を変更したり、彩度や色相でフィルタの係り具合を表現する。なお、音源オブジェクトに効果オブジェクトを結合した場合は、両オブジェクトの映像を連結した表示として、音源オブジェクトと共に移動可能とする。この場合、効果オブジェクトの映像部分のみを操作することにより、音源オブジェクトとは独立した特定動作(エフェクト度合いの変更や音源オブジェクトとの結合解除など)を加えることができる。
(g)ユーザ自身の移動
また、空間Sp内でユーザUs自身が場所を移動すると、オブジェクト制御装置11は、ユーザ位置検出器DTUによって検出されたユーザ位置Puと各音源オブジェクトA,Bの位置Pa,Pbに基づいて、各音源オブジェクトとユーザとの相対的な距離及び方向を算出し、ユーザUsの移動に合わせて対応する各音源の音位乃至音量を変化させる。このように、空間Sp内をユーザUsが自由に移動することで、任意の位置Puから楽曲を鑑賞することができる。
〔他システムとの連係〕
この発明の一実施例による楽音制御システムにおいては、ネットワークで繋がっている複数の個別的な楽音制御システムを結合して複数のユーザ(操作者)が連係して楽音制御を行うように、同様のシステムを利用しているユーザのネットワーク接続によりシステムを拡張することができる。図4は、この発明の一実施例による複数の3D空間楽音制御システムを連係したシステムの動作説明図である。複数の個別的な楽音制御システムSY1,SY2,…の夫々は、通信ネットワークCNで繋がっている他の任意のシステムと連係することができるが、以下においては、説明を簡単にするため、第1及び第2の3D空間楽音制御システムSY1,SY2が連係する場合について述べる。なお、構成要素の参照記号には同様の記号を使用し、参照記号の添字“1”,“2”は、第1及び第2システムSY1,SY2の夫々に対応することを表わす。
互いに連係する第1及び第2システムSY1;SY2の夫々は、図3の例と同様に、夫々のUs1;Us2と夫々のオブジェクトA1,B1;A2,B2を有する夫々の3D空間Sp1;Sp2を備えており、少なくとも互いに重なり合う部分〔共通空間(Spc)という〕を持つ独立した座標系を有している(図示せず)。両システムSY1;SY2は、通信ネットワークCnを通じて両オブジェクト制御装置11;21間でオブジェクト情報を交信することで共通空間を仮想的に共有し、各システムのユーザUs1;Us2は、共通空間に表示される他のシステムのオブジェクトを操作することができる。この場合、他システムユーザUs2;Us1も、各システムSY1;SY2の3D空間Sp1,Sp2内に、ユーザオブジェクトJ2;J1として操作可能に仮想的に表現することができる。各システムSY1;SY2では、他システム音源オブジェクトA2,B2;A1,B1による楽音の聞こえ方(音量/音位)は、これらオブジェクトとユーザUs1;Us2との位置関係で決定され、各ユーザ位置Pu1;Pu2に依存して聞く楽音が変化する。
両システムSY1;SY2は、ネットワークCNで互いに接続された際、各システムのユーザUs1;Us2が同一の空間Sp1=Sp2を共有するか互いに異なる独自の空間Sp1;Sp2を持つかにより、次の(1),(2)のような楽音制御空間を構成する。
(1)同一のシステム空間を共有する場合
互いに連係するシステムが同一空間を共有する場合は、連係する全てのシステムのユーザが同じ空間で同じオブジェクトの配置を見て操作することができる。図4(1)は、第1及び第2システムSY1,SY2が同一の3D空間Sp1,Sp2を共有する場合に、第1システムSY1における3D空間Sp1における楽音制御のイメージを示す。
両システムSY1,SY2がネットワーク接続により連係すると、第1システムにおいては、図4(1)に示すように、他システムSY2のユーザUs2は、他システムSY2の空間Sp2内におけるユーザ位置Pu2と同一座標の位置にユーザオブジェクトJ2で表現され、自システムSY1のユーザUs1と仮想的な位置関係を持つ。つまり、自システムSY1とネットワークCN越しの相手側システムSY2は、同一の3D空間座標系Sp1[x1,y1,z1]=Sp2[x2,y2,z2]=共通空間Spcを共有し、3D表示装置12により、自システムSY1の音源オブジェクトA1,B1や効果オブジェクト(図示せず)等と共に、相手側システムSY2のユーザオブジェクトJ2や音源オブジェクトA2,B2、効果オブジェクト(図示せず)等が自システム空間Sp1に仮想的に表示される。
音源オブジェクトA1,B1,A2,B2に対応する楽音は、これら音源オブジェクトA1〜B2とユーザUs1との位置関係によって決定される音量乃至音位で発音される。従って、他システムSY2の音源オブジェクトA2,B2に対応する楽音は、他システムSY2のユーザUs2が聞く楽音とは、音量乃至音位が変化する。また、他システムSY2からのユーザオブジェクトJ2や音源オブジェクトA2,B2等は、ユーザUs1により、自システムSY1の音源オブジェクトA1,B1等と同様に、位置を変化させる等の操作をすることができる。このため、他システムSY2でそのユーザUs2がオブジェクトを操作したときには、両システムSY1,SY2での操作が重畳して表われ、例えば、ユーザUs1がオブジェクト位置を移動したときは、他システムSY2のユーザUs2からみると、自身で移動させたように見える。また、ユーザオブジェクトJ2を移動させることにより、他システムSY2からの音源オブジェクトA2,B2等を自システム空間Sp1外に出して楽音制御対象から外すことができる(或いは、外れることがある)。
なお、第2システムSY2の3D空間Sp2においては(図示省略)、図4(1)のユーザUs1の位置に他システムSY1のユーザオブジェクトJ1が表示され、ユーザオブジェクトJ2の位置に自システムSY2のユーザUs2が位置し、他のオブジェクトA1〜B2は、図4(1)と同様である。
(2)夫々異なるシステム空間を持つ場合
互いに連係するシステムが夫々異なるシステム空間を持つ場合は、ユーザは、自システムのオブジェクトと、両システムの共通空間Spcにある他システムのオブジェクトの配置を見て操作することができる。図4(2)は、第1及び第2システムSY1,SY2が夫々異なる3D空間Sp1,Sp2を持つ場合に、第1システムSY1の3D空間Sp1(実線)における楽音制御のイメージを表わし、一点鎖線は共通空間Spcを示す。
この場合、夫々のシステムSY1,SY2のユーザUs1,Us2は夫々互いに異なる独自の座標空間Sp1[x1,y1,z1],Sp2[x2,y2,z2]を持っており、夫々の空間Sp1,Sp2の重なり方は、夫々のユーザUs1,Us2により、連係条件として自由に設定することができる。従って、例えば、第1システムSY1においては、他システムSY2の空間Sp2内のオブジェクトJ2,A2,B2,…を、設定された連係条件に従って自システム空間Sp1上の座標上に座標変換する。そして、図4(2)の実線及び一点鎖線内に示されるように、空間Sp1とオーバラップした共通空間Spcに存在する特定のオブジェクトJ2,B2のみを配置・表示し(A2は非表示)他システムSY2と相互に共有し、その操作によって対応する楽音を制御することができる。また、第2システムSY2の3D空間Sp2においては(図示省略)、図4(2)の破線内のオブジェクトが表示され、ユーザUs1の位置に他システムSY1のユーザオブジェクトJ1が表示される。
つまり、夫々別のシステムで操作をしているユーザ同士が、ネットワーク接続により、共通する空間Spcに位置する特定オブジェクトを操作可能として、連係した楽音制御を実現するというイメージである。夫々のシステム空間Sp1,Sp2で夫々のオブジェクトを(1)の場合と同じ位置に配置したとしても、各システム空間においては、他システムのオブジェクトが、自身の空間座標系に座標変換した位置に基いて配置されるので、両空間Sp1,Sp2の重なり方に応じて各ユーザとオブジェクトの相対的位置関係が大きく異なったものとなり、オーバラップしていない非共通空間に配置される他システムの音源オブジェクトに対応する楽音は、聞くことができず、また、制御対象から外される。
なお、このように夫々異なるシステム空間を持つ場合には、例えば、次のような「音のキャッチボール」を実現するシステムを構成することができる。すなわち、他システムSY2で或る音源オブジェクトA2に対して「オブジェクトを投げる」特定動作を行い、投げられた音源オブジェクトA2が自システムSY1に飛んできたときに、自システムSY1でこれに「オブジェクトを受け取る」特定動作を行うと、自システムSY1自身の音源オブジェクトに追加することができるが、「オブジェクトを受け取る」動作がないと、そのまま、別の接続システムSY3の方に飛んで行ってしまう。
〔2D空間における楽音制御〕
この発明による楽音制御システムは2D空間即ち平面上に構成することも可能である。この場合、2D仮想空間上にオブジェクトを配置し、空間内に位置するユーザの操作に対応して音源をオブジェクト位置に定位させる2D空間楽音制御系を連係することにより、複数ユーザが連携した楽音制御を簡単に実現することができる。図5は、この発明の一実施例による複数の2D空間楽音制御係を連係した楽音制御システムの説明図である。
この2D空間楽音制御システムでは、図5(1)に示すように、「タッチパネル」と通称され、画面表示機能及び座標検出機能を有するパネル装置PNが、楽音制御システムSY1(SY2,…)における2D表示装置12の表示端末及び位置動作検出装置13の検出端末に用いられる。タッチパネルPNの4隅には仮想スピーカ位置sk1〜sk4が設定され、タッチパネルPNの画面には、実際にスピーカSK1〜SK4を備えた図3の3D空間と同様の音響(演奏)空間を平面的に模擬した2D仮想空間Spが構成される。
この2D仮想空間Spには、アイコン画像などによりオブジェクトA,Bが表示され、このシステムのユーザは、自身の手又はタッチペンなど(操作点という)で画面に操作を加えることによって、図3の場合と同様に、オブジェクトA,Bを任意に操作することができる。例えば、(a)項で説明した態様と同様に、2D空間Spに表示されているオブジェクトAに操作点が触れると「オブジェクトをつかむ」操作であると判定され、以後、操作点を触れたまま画面上で動かすことにより、オブジェクトAを移動(ドラッグ)し、パネルから操作点を離すと「オブジェクトを放す」操作であると判定されてオブジェクトAをその位置に固定することができる。
このシステムのユーザの位置は、パネル上の2D空間Spの中心位置(原点)Poに対応させるか、或いは、ユーザ自身の画面操作によって任意の位置Puに設定することができ、何れの場合も、各位置Po,Puが画面上に他のオブジェクトと識別可能に表示される。なお、前者の場合、現実のユーザは、実際にスピーカSK1〜SK4が配備される現実の音響空間の中心に固定して位置すればよい。また、後者の場合には、現実の音響空間内において、設定された画面上のユーザ位置Puの移動に従って現実のユーザ位置をパネルPNと共に移動させる必要があるがあるが、(g)項の説明と同様の効果が得られる。
なお、音源オブジェクトA,Bに対応して発生される楽音の定位や音量については、(c)項の説明と同様の制御が現実の音響空間で実現される。また、音源以外のオブジェクトも(d)項と同様の態様に表示され、空間が3Dから2Dに変更されてるだけである。オブジェクトに対する他の操作や表示態様についても、(b),(e),(f)項で説明した操作及び表示方法に対応する画面上での操作及び表示態様を適宜適用すればよい。
この2D空間楽音制御システムSY1は、他の同様の2D空間楽音制御システムSY2と簡単に連係することができ、この場合には、図5(2a)のような2D空間が構成される(ユーザ位置Pu1,Pu2は任意位置に設定されるとする)。両システムSY1;SY2が同一のシステム空間を共有する(原点Po1;Po2、座標軸x1,y1;x2,y2及びスケールが全て一致)場合には、各システム空間Sp1,Sp2では、図5(2a)に示すようなイメージで楽音制御がなされる。これは、図4(1)の場合に対応し、空間が3Dから2Dに変更されるだけで、既述した(1)の説明と同様の動作を呈する。
両システムが夫々の独自のシステム空間を持つ場合には、自システム空間Sp1では、図5(2b)の実線及び一点鎖線(共通空間Spc)で示されるようなイメージで楽音制御がなされ、これは、図4(2)の場合に対応する。一方、他システム空間Sp2は破線及び一点鎖線内のオブジェクトを表示する構成となり、相手システムユーザの位置(Pu1)にユーザオブジェクトJ1が表示される(図示せず)。各システム空間Sp1,Sp2での動作は、空間が3Dから2Dに変更されるだけで、(2)項の説明と同様である。
〔種々の実施態様〕
以上、図面を参照しつつこの発明の好適な実施の一形態について説明したが、これは単なる一例であって、この発明は、発明の精神を逸脱しない範囲で種々の変更が可能である。例えば、3次元オブジェクトの表示方法や3次元音場の制御方法は、どのようなものでもよい。また、表示するオブジェクトの大きさ、形状、色等(表示形態)は、どのようなものでもよいが、割り当てられる楽音要素に関連した表示形態(例えば、ピアノ音の音源ならばピアノあるいはそれに類似した画像を表示する等)とするのが好ましい。さらに、連係システム間では、スケールや各座標軸(x,y,z)の角度が異なっていてもよい。
また、単一の広大なシステム空間を持つサーバに対して複数の楽音制御システムが接続するという構成を採ることも可能である。この場合、各楽音制御システムには、広大なシステム空間の少なくとも一部分が視覚的に表示され、各ユーザはこのシステム空間内を自由に移動し、他のユーザのシステム空間と自身のシステム空間とがオーバラップした共有空間内にあるオブジェクトを操作することで、複数のユーザで連係した楽音制御を行うことができる。
また、ライブパフォーマンスに適用する場合、オブジェクトを操作する3D空間をステージとし、3D音響空間を観客席の空間としてもよい。
この発明の一実施例による楽音制御システムの全体的な構成図である。 この発明の一実施例による楽音制御システムにおけるオブジェクト管理を説明ふるための図である。 この発明の一実施例による3D空間楽音制御システムの動作説明図である。 この発明の一実施例による複数の3D空間楽音制御システムを連係したシステムの動作を説明するための図である。 この発明の一実施例による複数の2D仮想空間楽音制御系が連係する楽音制御システムを説明するための図である。
符号の説明
SY1,SY2,SY3 ユーザ毎の楽音制御システム、
Us;Us1,Us2 ユーザ(操作者)、
A,B;A1,B1;A2,B2;J1,J2 オブジェクト、
Pu;Pu1,Pu2 ユーザ位置、
Pa,Pb;Pa1,Pb1;Pa2,Pb2;Pj1,Pj2 オブジェクト位置、
Sp;Sp1,Sp2 ユーザ毎の楽音制御空間、
Spc 共通空間、
x,y,z;x1,y1,z1;x2,y2,z2 ユーザ毎の楽音制御空間座標系、
PR 3D映像投影装置、
DTU;DTR,DTL ユーザ位置検出器並びに操作位置及び動作検出器、
SK1〜SK4 スピーカ(システム)、
PN スピーカ仮想位置sk1〜sk4が4隅に設定されたタッチパネル、
Po;Po1,Po2 ユーザ毎の2D空間(タッチパネル)の中央位置(原点)。

Claims (5)

  1. 3次元空間にオブジェクトを表示する表示手段と、
    上記表示手段により3次元空間に表示されているオブジェクトに割り当てられた楽音要素に対応する楽音を発生する楽音発生手段と、
    上記3次元空間に表示されているオブジェクトに対するユーザ操作を検出する検出手段と、
    上記検出手段により検出された第1のユーザ操作に応じて、対応するオブジェクトを移動させる表示制御手段と、
    上記3次元空間に表示されているオブジェクトの位置に応じて、上記楽音発生手段により当該オブジェクトに対応して発生される楽音の定位及び音量を制御する楽音制御手段と
    を具備することを特徴とする楽音制御装置。
  2. 3次元又は2次元空間にオブジェクトを表示する表示手段と、
    上記表示手段により3次元又は2次元空間に表示されているオブジェクトに割り当てられた楽音要素に対応する楽音を発生する楽音発生手段と、
    上記3次元又は2次元空間に表示されているオブジェクトに対するユーザ操作を検出する検出手段と、
    上記検出手段により検出された第1のユーザ操作に応じて、対応するオブジェクトを移動させる表示制御手段と、
    上記3次元又は2次元空間に表示されているオブジェクトの位置に応じて、上記楽音発生手段により当該オブジェクトに対応して発生される楽音の定位及び音量を制御する楽音制御手段と、
    ネットワークを介して、他の楽音制御装置の3次元又は2次元空間に表示されているオブジェクト及び該オブジェクトに割り当てられた楽音要素を含むオブジェクト情報を取得する取得手段と、
    上記取得手段により取得されたオブジェクト情報に基づいて、上記表示手段にオブジェクトを表示させ、このオブジェクトに割り当てられた楽音要素に対応する楽音を上記楽音発生手段に発生させる連係制御手段と
    を具備することを特徴とする楽音制御装置。
  3. 前記楽音制御手段は、前記表示手段により3次元又は2次元空間に表示されているオブジェクトに対して前記検出手段により検出された第2のユーザ操作に応じて、前記楽音発生手段により当該オブジェクトに対応して発生される楽音の他のパラメータを制御することを特徴とする請求項1又は2に記載の楽音制御装置。
  4. さらに、
    前記表示手段により3次元又は2次元空間に表示されたオブジェクトの位置に関する履歴情報を再生可能に記録する記録再生手段
    を具備することを特徴とする請求項1〜3の何れか1項に記載の楽音制御装置。
  5. この楽音制御装置及び他の楽音制御装置の3次元又は2次元空間は、互いに重なり合う部分を持つ夫々独立した座標系を有し、
    前記連係制御手段は、前記表示手段に対して、他の楽音制御装置からのオブジェクト情報に基づくオブジェクトを両座標系の相対的な位置関係に応じた位置に表示させ、
    前記楽音制御手段は、当該オブジェクトの表示位置に応じて、対応する楽音の定位及び音量を制御する
    ことを特徴とする請求項2〜4の何れか1項に記載の楽音制御装置。
JP2005082069A 2005-03-22 2005-03-22 楽音制御装置 Pending JP2006267226A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005082069A JP2006267226A (ja) 2005-03-22 2005-03-22 楽音制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005082069A JP2006267226A (ja) 2005-03-22 2005-03-22 楽音制御装置

Publications (1)

Publication Number Publication Date
JP2006267226A true JP2006267226A (ja) 2006-10-05

Family

ID=37203324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005082069A Pending JP2006267226A (ja) 2005-03-22 2005-03-22 楽音制御装置

Country Status (1)

Country Link
JP (1) JP2006267226A (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008131515A (ja) * 2006-11-22 2008-06-05 Sharp Corp 情報処理装置、情報処理方法およびプログラム
JP2009300893A (ja) * 2008-06-16 2009-12-24 Yamaha Corp 電子音楽装置
JP2009300892A (ja) * 2008-06-16 2009-12-24 Yamaha Corp 電子音楽装置
JP2010066602A (ja) * 2008-09-11 2010-03-25 Yamaha Corp 電子音楽装置及びプログラム
JP2010066655A (ja) * 2008-09-12 2010-03-25 Yamaha Corp 電子音楽装置及びプログラム
KR20110111136A (ko) * 2010-04-02 2011-10-10 엘지전자 주식회사 음향 설정에 대응하는 3d 오브젝트를 제공하는 영상표시장치 및 그 동작 제어방법
JP2012168552A (ja) * 2007-02-16 2012-09-06 Electronics & Telecommunications Research Inst オブジェクト基盤オーディオサービスのための多重オブジェクトオーディオコンテンツファイルの生成、編集、および再生方法と、オーディオプリセット生成方法
WO2015037388A1 (ja) * 2013-09-12 2015-03-19 ヤマハ株式会社 ユーザインタフェース装置、音響制御装置、音響システム、音響制御方法及びプログラム
JP2015159580A (ja) * 2015-04-06 2015-09-03 ヤマハ株式会社 音響処理装置および情報処理装置
US9674611B2 (en) 2010-08-30 2017-06-06 Yamaha Corporation Information processor, audio processor, audio processing system, program, and video game program
US9774980B2 (en) 2010-08-30 2017-09-26 Yamaha Corporation Information processor, audio processor, audio processing system and program
JP2020144574A (ja) * 2019-03-06 2020-09-10 Kddi株式会社 画像に応じて音オブジェクトを混合するプログラム、装置及び方法
JP2020537770A (ja) * 2017-10-12 2020-12-24 デイヴィッド ウェクスラーDavid Wexler 電子ボディパーカッション
JP7236774B1 (ja) 2022-02-23 2023-03-10 充宏 前田 情報処理システム、情報処理方法及びプログラム

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008131515A (ja) * 2006-11-22 2008-06-05 Sharp Corp 情報処理装置、情報処理方法およびプログラム
JP2012168552A (ja) * 2007-02-16 2012-09-06 Electronics & Telecommunications Research Inst オブジェクト基盤オーディオサービスのための多重オブジェクトオーディオコンテンツファイルの生成、編集、および再生方法と、オーディオプリセット生成方法
JP2009300893A (ja) * 2008-06-16 2009-12-24 Yamaha Corp 電子音楽装置
JP2009300892A (ja) * 2008-06-16 2009-12-24 Yamaha Corp 電子音楽装置
JP2010066602A (ja) * 2008-09-11 2010-03-25 Yamaha Corp 電子音楽装置及びプログラム
JP2010066655A (ja) * 2008-09-12 2010-03-25 Yamaha Corp 電子音楽装置及びプログラム
KR101661956B1 (ko) * 2010-04-02 2016-10-04 엘지전자 주식회사 음향 설정에 대응하는 3d 오브젝트를 제공하는 영상표시장치 및 그 동작 제어방법
KR20110111136A (ko) * 2010-04-02 2011-10-10 엘지전자 주식회사 음향 설정에 대응하는 3d 오브젝트를 제공하는 영상표시장치 및 그 동작 제어방법
US9774980B2 (en) 2010-08-30 2017-09-26 Yamaha Corporation Information processor, audio processor, audio processing system and program
US9674611B2 (en) 2010-08-30 2017-06-06 Yamaha Corporation Information processor, audio processor, audio processing system, program, and video game program
JP2015080188A (ja) * 2013-09-12 2015-04-23 ヤマハ株式会社 ユーザインタフェース装置及び音響制御装置
US9674634B2 (en) 2013-09-12 2017-06-06 Yamaha Corporation User interface device, sound control apparatus, sound system, sound control method, and program
WO2015037388A1 (ja) * 2013-09-12 2015-03-19 ヤマハ株式会社 ユーザインタフェース装置、音響制御装置、音響システム、音響制御方法及びプログラム
JP2015159580A (ja) * 2015-04-06 2015-09-03 ヤマハ株式会社 音響処理装置および情報処理装置
JP2020537770A (ja) * 2017-10-12 2020-12-24 デイヴィッド ウェクスラーDavid Wexler 電子ボディパーカッション
JP7296393B2 (ja) 2017-10-12 2023-06-22 ウェクスラー デイヴィッド 電子ボディパーカッション
JP2020144574A (ja) * 2019-03-06 2020-09-10 Kddi株式会社 画像に応じて音オブジェクトを混合するプログラム、装置及び方法
JP7116424B2 (ja) 2019-03-06 2022-08-10 Kddi株式会社 画像に応じて音オブジェクトを混合するプログラム、装置及び方法
JP7236774B1 (ja) 2022-02-23 2023-03-10 充宏 前田 情報処理システム、情報処理方法及びプログラム
JP2023122609A (ja) * 2022-02-23 2023-09-04 充宏 前田 情報処理システム、情報処理方法及びプログラム

Similar Documents

Publication Publication Date Title
JP2006267226A (ja) 楽音制御装置
JP7406602B2 (ja) オーディオファイルの頭部姿勢ミキシング
JP6925589B2 (ja) Vrシーンでのキャラクターシミュレーション方法及び端末装置
CN110337318B (zh) 混合现实装置中的虚拟和真实对象记录
JP7384971B2 (ja) 複合現実表示システム
US20240205630A1 (en) Dual listener positions for mixed reality
JP2009505207A (ja) 対話型娯楽システム及びその動作方法
KR20150141156A (ko) 오디오 트랙들을 통해 햅틱 효과들을 제공하는 햅틱 디바이스들 및 방법들
JP6569726B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6067905B1 (ja) ロボット制御プログラム生成システム
US10672171B2 (en) System and method for dynamic content generation in a virtual space
EP3312718A1 (en) Changing spatial audio fields
KR20190080734A (ko) 직관적 햅틱 설계
CN107918481A (zh) 基于手势识别的人机交互方法与系统
Pressing Some perspectives on performed sound and music in virtual environments
JP5206151B2 (ja) 音声入力ロボット、遠隔会議支援システム、遠隔会議支援方法
Grani et al. Spatial sound and multimodal interaction in immersive environments
WO2021156112A1 (en) Virtual scene
Bau et al. The A20: Musical Metaphors for Interface Design.
Wu The Expressionist: a gestural mapping instrument for voice and multimedia enrichment
WO2024111646A1 (ja) 立体音響生成装置、立体音響再生装置、立体音響生成方法、立体音響生成プログラム、および、記録媒体
JP2020091438A (ja) 音声生成プログラム、および音声生成装置
JP7462097B1 (ja) 仮想体験システムおよびプログラム
von Coler et al. User-Defined Mappings for Spatial Sound Synthesis.
KR102314025B1 (ko) 미디어 서버 및 컴퓨터 프로그램 제품