JP4665811B2 - Performance equipment - Google Patents

Performance equipment Download PDF

Info

Publication number
JP4665811B2
JP4665811B2 JP2006085157A JP2006085157A JP4665811B2 JP 4665811 B2 JP4665811 B2 JP 4665811B2 JP 2006085157 A JP2006085157 A JP 2006085157A JP 2006085157 A JP2006085157 A JP 2006085157A JP 4665811 B2 JP4665811 B2 JP 4665811B2
Authority
JP
Japan
Prior art keywords
posture
performance
user
musical instrument
musical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006085157A
Other languages
Japanese (ja)
Other versions
JP2007264026A (en
Inventor
治 大島
賢一 西田
吉就 中村
信弥 櫻田
敦史 深田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2006085157A priority Critical patent/JP4665811B2/en
Publication of JP2007264026A publication Critical patent/JP2007264026A/en
Application granted granted Critical
Publication of JP4665811B2 publication Critical patent/JP4665811B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、演奏装置に関する。   The present invention relates to a performance device.

楽器演奏を楽しむ場合、当然、その楽器本体が必要であり、複数種類の楽器演奏を体験してみたい場合は、それぞれの種類の楽器本体を用意する必要がある。   Of course, to enjoy playing a musical instrument, it is necessary to have the instrument body. To experience a plurality of types of musical instrument performance, it is necessary to prepare each type of instrument body.

全ての楽器を用意することは、個人ユーザには非現実的であるので、例えば、鍵盤を有する電子楽器等では、さまざまな楽器の音色を用意している。また例えば、動画等を利用した仮想楽器演奏システムがある。このような仮想楽器演奏システムでは、例えば、ビデオカメラで撮影したユーザの映像を仮想楽器の映像と合成して画面に表示するとともに、ユーザの動作を検出して該検出した動きにあわせて楽音を生成するものがある。(例えば特許文献1参照)   Since it is unrealistic for an individual user to prepare all musical instruments, for example, electronic musical instruments having a keyboard have various musical instrument tones. Further, for example, there is a virtual musical instrument performance system using a moving image or the like. In such a virtual musical instrument performance system, for example, a user's video shot by a video camera is combined with a virtual musical instrument video and displayed on the screen, and a user's action is detected and a musical tone is played in accordance with the detected movement. There is something to generate. (For example, see Patent Document 1)

特開2001-041038号公報JP 2001-041038 A

通常の多音色を備えた電子楽器では、さまざまな楽器の音色を楽しむことはできるが、自然楽器の演奏方法等を体験することはできない。   An electronic musical instrument with ordinary multi-tone colors can enjoy the timbre of various musical instruments, but cannot experience the playing method of natural musical instruments.

また、上述したような従来の仮想楽器演奏システムでは、視覚的には仮想楽器の演奏を楽しめたが、画面小で仮想的に演奏を体験するだけなので、楽器の形態や触感等の実際の自然楽器を演奏する感覚を得ることはできない。   Moreover, in the conventional virtual musical instrument performance system as described above, although the virtual instrument performance can be visually enjoyed, it is only possible to experience the performance virtually on a small screen, so that the actual nature of the instrument form, touch, etc. You can't get a sense of playing an instrument.

本発明の目的は、実際の楽器がなくてもその演奏を体験することができる演奏装置を提供することである。   The objective of this invention is providing the performance apparatus which can experience the performance, even if there is no actual musical instrument.

また、本発明の他の目的は、さまざまな種類の自然楽器の演奏を簡単に体験できる演奏装置を提供することである。   Another object of the present invention is to provide a performance device that allows the user to easily experience various types of natural musical instruments.

本発明の一観点によれば、演奏装置は、複数の楽器演奏姿勢データと自動演奏データとを記憶する記憶手段と、ユーザの姿勢を取得する姿勢取得手段と、前記取得した姿勢と前記楽器演奏姿勢データとを比較する姿勢照合手段と、前記姿勢照合手段による比較結果に基づいて楽器種類を特定する楽器種類決定手段と、前記自動演奏データに基づき、前記ユーザの身体に対して、物理的圧力を加えることにより、前記ユーザの動作や姿勢が前記特定した楽器種類の演奏に相応しいものとなるように前記ユーザの姿勢又は動作を矯正する触感付与手段と、前記自動演奏データに基づき、楽音を生成する楽音生成手段とを有する。
According to an aspect of the present invention, a performance device includes a storage unit that stores a plurality of musical instrument performance posture data and automatic performance data, a posture acquisition unit that acquires a posture of a user, the acquired posture, and the musical instrument performance. Posture collating means for comparing posture data, instrument type determining means for specifying a musical instrument type based on a comparison result by the posture collating means , and physical pressure on the user's body based on the automatic performance data To generate a musical tone based on the automatic performance data and tactile sensation imparting means for correcting the user's posture or movement so that the user's movement or posture is appropriate for the performance of the specified musical instrument type. And a musical sound generating means.

本発明によれば、実際の楽器がなくてもその演奏を体験することができる演奏装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the performance apparatus which can experience the performance, even if there is no actual musical instrument can be provided.

また、本発明によれば、さまざまな種類の自然楽器の演奏を簡単に体験できる演奏装置を提供することができる。   In addition, according to the present invention, it is possible to provide a performance device that can easily experience various types of natural musical instruments.

図1は、本発明の実施例による演奏装置1のハードウェア構成を表すブロック図である。   FIG. 1 is a block diagram showing a hardware configuration of a performance apparatus 1 according to an embodiment of the present invention.

演奏装置1のバス6には、RAM7、ROM8、CPU9、外部記憶装置15、検出回路11、表示回路13、MIDIインターフェイス16、音源回路18、効果回路19、通信インターフェイス(I/F)21、客観カメラ30、(ユーザ)視点カメラ35、センサインターフェイス31、駆動制御回路41が接続される。   A bus 6 of the performance device 1 includes a RAM 7, a ROM 8, a CPU 9, an external storage device 15, a detection circuit 11, a display circuit 13, a MIDI interface 16, a sound source circuit 18, an effect circuit 19, a communication interface (I / F) 21, an objective. A camera 30, a (user) viewpoint camera 35, a sensor interface 31, and a drive control circuit 41 are connected.

RAM7は、バッファ領域、フラグ、レジスタ、各種パラメータ等を記憶するCPU9のワーキングエリアを有する。   The RAM 7 has a working area for the CPU 9 that stores a buffer area, flags, registers, various parameters, and the like.

ROM8には、各種パラメータ及び制御プログラム、又は本実施例を実現するためのプログラム等を記憶することができる。この場合、プログラム等を重ねて、外部記憶装置15に記憶する必要は無い。   The ROM 8 can store various parameters and control programs, or a program for realizing the present embodiment. In this case, it is not necessary to store programs or the like in the external storage device 15 in an overlapping manner.

CPU9は、ROM8又は、外部記憶装置15に記憶されている制御プログラム等に従い、演算又は制御を行う。タイマ10は、CPU9に接続されており、基本クロック信号、割り込み処理タイミング等をCPU9に供給する。   The CPU 9 performs calculation or control according to a control program or the like stored in the ROM 8 or the external storage device 15. The timer 10 is connected to the CPU 9 and supplies a basic clock signal, interrupt processing timing, and the like to the CPU 9.

ユーザは、検出回路11に接続される設定操作子12を用いて、各種入力及び設定、選択をすることができる。設定操作子12は、例えば、文字入力用キーボード、マウス、スイッチ、パッド、フェーダ、スライダ、ロータリーエンコーダ、ジョイスティック、ジョグシャトル等、ユーザの入力に応じた信号を出力できるものならどのようなものでもよい。また、設定操作子12は、マウス等の他の操作子を用いて操作するディスプレイ14上に表示されるソフトスイッチ等でもよい。   The user can perform various inputs, settings, and selections using the setting operator 12 connected to the detection circuit 11. The setting operator 12 may be any device that can output a signal corresponding to a user input, such as a character input keyboard, mouse, switch, pad, fader, slider, rotary encoder, joystick, jog shuttle, and the like. . The setting operator 12 may be a soft switch or the like displayed on the display 14 that is operated using another operator such as a mouse.

表示回路13は、ディスプレイ14に接続され、各種情報をディスプレイ14に表示することができる。ユーザは、このディスプレイ14に表示される情報を参照して、各種入力及び設定を行う。また、ディスプレイ14は、外部の表示装置を接続することにより構成してもよい。   The display circuit 13 is connected to the display 14 and can display various information on the display 14. The user makes various inputs and settings with reference to information displayed on the display 14. The display 14 may be configured by connecting an external display device.

外部記憶装置15には、図3に示す演奏データMD、楽器演奏姿勢データベース(DB)151、楽器演奏操作データベース(DB)152、映像データベース(DB)153が記憶されている。外部記憶装置15は、外部記憶装置用のインターフェイスを含み、そのインターフェイスを介してバス6に接続される。外部記憶装置15は、例えばフレキシブルディスク又はフロッピー(登録商標)ディスクドライブ(FDD)、ハードディスクドライブ(HDD)、光磁気ディスク(MO)ドライブ、CD−ROM(コンパクトディスク−リードオンリィメモリ)ドライブ、DVD(Digital Versatile Disc)ドライブ、半導体メモリ等である。   The external storage device 15 stores performance data MD, a musical instrument performance posture database (DB) 151, a musical instrument performance operation database (DB) 152, and a video database (DB) 153 shown in FIG. The external storage device 15 includes an interface for an external storage device, and is connected to the bus 6 via the interface. The external storage device 15 is, for example, a flexible disk or floppy (registered trademark) disk drive (FDD), hard disk drive (HDD), magneto-optical disk (MO) drive, CD-ROM (compact disk-read only memory) drive, DVD ( Digital Versatile Disc) drive, semiconductor memory, and the like.

外部記憶装置15として、ハードディスクドライブ(HDD)が接続されている場合には、制御プログラム又は本実施例を実現するためのプログラム等は、外部記憶装置15内のハードディスク(HDD)に記憶させることもできる。ハードディスクからRAM7に制御プログラム等を読み出すことにより、ROM8に制御プログラム等を記憶させている場合と同様の動作をCPU9にさせることができる。このようにすると、制御プログラム等の追加やバージョンアップ等が容易に行える。   When a hard disk drive (HDD) is connected as the external storage device 15, the control program or the program for realizing the present embodiment may be stored in the hard disk (HDD) in the external storage device 15. it can. By reading the control program or the like from the hard disk into the RAM 7, the CPU 9 can be operated in the same manner as when the control program or the like is stored in the ROM 8. In this way, it is possible to easily add or upgrade a control program or the like.

また、ハードディスクドライブに加えて、CD−ROMドライブが接続されている場合には、制御プログラム又は本実施例を実現するためのプログラム等をCD−ROMに記憶させることもできる。CD−ROMからハードディスクに制御プログラムや本実施例を実現するためのプログラム等をコピーすることができる。制御プログラム等の新規インストールやバージョンアップを容易に行うことができる。   When a CD-ROM drive is connected in addition to the hard disk drive, a control program or a program for realizing the present embodiment can be stored in the CD-ROM. A control program, a program for realizing the present embodiment, and the like can be copied from the CD-ROM to the hard disk. New installation and version upgrade of control programs and the like can be easily performed.

MIDIインターフェイス(MIDI I/F)16は、MIDI機器17、その他の楽器、音響機器、コンピュータ等に接続できるものであり、少なくともMIDI信号を送受信できるものである。MIDIインターフェイス16は、専用のMIDIインターフェイスに限らず、RS−232C、IEEE1394(アイトリプルイー1394)等の汎用のインターフェイスを用いて構成してもよい。この場合、MIDIメッセージ以外のデータをも同時に送受信するようにしてもよい。なお、USBインターフェイス30をMIDIインターフェイス16として用いても良い。   The MIDI interface (MIDI I / F) 16 can be connected to a MIDI device 17, other musical instruments, audio devices, computers, and the like, and can transmit and receive at least MIDI signals. The MIDI interface 16 is not limited to a dedicated MIDI interface, and may be configured by using a general-purpose interface such as RS-232C, IEEE 1394 (eye triple 1394). In this case, data other than MIDI messages may be transmitted and received simultaneously. Note that the USB interface 30 may be used as the MIDI interface 16.

MIDI機器17は、MIDIインターフェイス16に接続される音響機器及び楽器等である。MIDI機器17の形態は鍵盤楽器に限らず、弦楽器タイプ、管楽器タイプ、打楽器タイプ等の形態でもよい。また、音源装置、自動演奏装置等を1つの電子楽器本体に内蔵したものに限らず、それぞれが別体の装置であり、MIDIや各種ネットワーク等の通信方法用いて各装置を接続するものであってもよい。   The MIDI device 17 is an acoustic device, a musical instrument or the like connected to the MIDI interface 16. The form of the MIDI device 17 is not limited to a keyboard instrument, and may be a string instrument type, a wind instrument type, a percussion instrument type, or the like. In addition, the sound source device, the automatic performance device, and the like are not limited to those built in one electronic musical instrument body, but each is a separate device, and each device is connected using a communication method such as MIDI or various networks. May be.

音源回路18は、外部記憶装置15、ROM8又はRAM7等に記録された伴奏パターンデータ、演奏データ若しくは演奏操作子22又はMIDIインターフェイス16に接続されたMIDI機器17等から供給される演奏信号、MIDI信号等に応じて楽音信号を生成し、効果回路19を介して、サウンドシステム20に供給する。   The tone generator circuit 18 is an accompaniment pattern data recorded in the external storage device 15, ROM 8, RAM 7, etc., performance data or performance signals supplied from the performance operator 22, MIDI equipment 17 connected to the MIDI interface 16, etc. A musical sound signal is generated according to the above and supplied to the sound system 20 via the effect circuit 19.

効果回路19は、音源回路18から供給される楽音信号に対して、各種音楽的効果を付与する。サウンドシステム20は、D/A変換器及びスピーカを含み、供給されるデジタル形式の楽音信号をアナログ形式に変換し、発音する。   The effect circuit 19 gives various musical effects to the musical sound signal supplied from the sound source circuit 18. The sound system 20 includes a D / A converter and a speaker, converts a digital musical tone signal supplied to an analog format and generates a sound.

通信インターフェイス21は、LAN(ローカルエリアネットワーク)及びインターネット等の通信ネットワーク3に接続可能であり、該通信ネットワーク3を介して、サーバ2及び他の電子楽器と相互に接続可能である。   The communication interface 21 can be connected to a communication network 3 such as a LAN (local area network) and the Internet, and can be connected to the server 2 and other electronic musical instruments via the communication network 3.

なお、通信インターフェイス21及び通信ネットワーク3は、有線のものに限らず無線でもよい。また双方を備えていてもよい。また、通信インターフェイス21は、内蔵のものでも良いし、PCカード等の着脱可能なものでも良い。   The communication interface 21 and the communication network 3 are not limited to wired ones and may be wireless. Moreover, you may provide both. The communication interface 21 may be a built-in one or a detachable one such as a PC card.

客観カメラ30は、ユーザの姿勢や動作を取得(撮影)するための動画撮影用の撮像装置である。なお、本明細書において「姿勢」とは、ユーザの身体全体の構えのみならず手指の構えも含む。   The objective camera 30 is an imaging device for capturing a moving image for acquiring (capturing) the posture and motion of the user. In this specification, “posture” includes not only the posture of the user's body but also the posture of the finger.

視点カメラ35は、ユーザの視点から見た映像を取得(撮影)するための動画撮影用の撮像装置である。視点カメラ35は、ディスプレイ(HMD)14に表示される仮想空間と実空間との位置合わせを行うために、客観カメラ30により映像とあわせて用いるための映像を取得する。   The viewpoint camera 35 is an imaging device for capturing a moving image for acquiring (capturing) a video viewed from the user's viewpoint. The viewpoint camera 35 acquires an image to be used together with the image by the objective camera 30 in order to align the virtual space displayed on the display (HMD) 14 and the real space.

センサI/F31は、複数のセンサ32を接続するためのインターフェイスである。センサ32は、ユーザの身体に装着して、ユーザの姿勢や動作を取得(検出)するためのセンサ群であり、例えば、圧力センサ、加速度センサ、位置センサ、方向センサ等のいずれか又は全部の組み合わせからなる。
駆動制御回路41は、CPU9からの指示を受けて、複数の駆動部42を制御する。駆動部(触感付与装置)42は、ユーザの身体に対して、圧力等を加えることにより触感を与えるアクチュエータ及び、ユーザの関節等の可動部分に対して、強制力を加えてユーザの身体の動きを制限し、又はユーザに特定の動作を強制するためのハプティック機能を有する装置である。また、触感の一つとして熱を与えるもの(加熱及び冷却を含む)を駆動部42として追加しても良い。
The sensor I / F 31 is an interface for connecting a plurality of sensors 32. The sensor 32 is a sensor group that is attached to the user's body and acquires (detects) the posture and motion of the user. For example, any or all of a pressure sensor, an acceleration sensor, a position sensor, a direction sensor, and the like. Composed of a combination.
The drive control circuit 41 receives instructions from the CPU 9 and controls the plurality of drive units 42. The drive unit (tactile sensation imparting device) 42 applies a forcing force to an actuator that gives a tactile sensation by applying pressure or the like to the user's body and a movable part such as a user's joint, and moves the user's body. Or a device having a haptic function for forcing a user to perform a specific action. Moreover, you may add as the drive part 42 what gives heat (including heating and cooling) as one of tactile sensations.

例えば、ユーザが仮想楽器の演奏操作子を操作する場合に、演奏操作子に触れたと判断される空間座標にユーザの指が位置する場合は、当該ユーザの指に対して圧力を加えることにより、楽器への触感を与え、当該操作子を押下する場合には、徐々に圧力を高めると共に、ユーザの指の動きを制限することにより、操作子の重みを体感させる。また、演奏操作子を限界まで押下したときは、それ以上のユーザの動きを制限する。また、仮想楽器の筐体に対しては、ユーザの動きを強制的に停止させる。   For example, when the user operates the performance operator of the virtual musical instrument and the user's finger is positioned at the spatial coordinates determined to have touched the performance operator, by applying pressure to the user's finger, When a touch is given to the musical instrument and the operator is pressed, the pressure is gradually increased and the movement of the user's finger is restricted so that the weight of the operator is experienced. Further, when the performance operator is pressed down to the limit, further movement of the user is restricted. Further, the movement of the user is forcibly stopped with respect to the housing of the virtual musical instrument.

なお、ユーザの動作の制限及び動作の強制は、例えば、2本以上のワイヤを用いて、1本を関節の内側、他方を関節の外側に配置し、それらを緊張及び弛緩させることにより行う。   Note that the user's movement is restricted and forced, for example, by using two or more wires, placing one on the inside of the joint and the other on the outside of the joint, and tensioning and relaxing them.

図2は、本発明の実施例による姿勢取得装置33及び触感付与装置42の使用例を表す概略図である。   FIG. 2 is a schematic diagram illustrating a usage example of the posture acquisition device 33 and the tactile sensation imparting device 42 according to the embodiment of the present invention.

それぞれのセンサ32及び駆動部42は、共に図に示すように、ユーザの身体の関節部に対応して、当該関節部及びその周辺を覆うように装着される。なお、センサ32は、一つの関節に対応して、複数種類のセンサが設けられているものとする。また、駆動部42も、一つの関節に対応して、圧力を与えるもの、及び、動作を制限・強制するものが配置される。また、圧力や熱を加える駆動部42は、関節及びその周辺に限らず、ユーザが仮想楽器に触れると考えられる身体部位に装着されることが好ましく、特に指先に装着することが好ましい。   As shown in the drawing, each sensor 32 and the drive unit 42 are mounted so as to cover the joint part and its periphery corresponding to the joint part of the user's body. The sensor 32 is provided with a plurality of types of sensors corresponding to one joint. Also, the drive unit 42 is arranged corresponding to one joint so as to apply pressure and to restrict / force the operation. Further, the drive unit 42 that applies pressure and heat is not limited to the joint and its surroundings, but is preferably mounted on a body part that is considered to be touched by the user on the virtual musical instrument, particularly preferably on the fingertip.

また、ユーザの手には、多数のセンサ32及び駆動部42を装着することが必要であることから、本実施例では、多数のセンサ32及び駆動部42を備えるグローブ(手袋)状のアタッチメント43を装着している。   In addition, since it is necessary to attach a large number of sensors 32 and driving units 42 to the user's hand, in this embodiment, a glove-like attachment 43 including a large number of sensors 32 and driving units 42 is provided. Wearing.

客観カメラ30は、ユーザの上半身又は、全身を撮影可能な場所に設置される。なお、カメラ30で撮影した映像を元にユーザの姿勢を判別することを容易にするために、例えば、ユーザの各関節部に識別装置を取り付けるようにしても良い。   The objective camera 30 is installed in a place where the user's upper body or whole body can be photographed. In order to easily determine the user's posture based on the video captured by the camera 30, for example, an identification device may be attached to each joint portion of the user.

HMD(ヘッドマウントディスプレイ)14は、ユーザの視界に装着される表示装置であり、仮想楽器及びそれを操作するユーザの身体を含む仮想空間が合成されて表示される。HMD14には、例えば、図2(B)に示すような自然楽器(この例では、トランペット)の画像や、自然楽器に限らず、図2(C)に示すような電子楽器の画像が表示される。また、背景もあわせて表示するようにしてもよい。その場合、背景は、カメラ30又はカメラ35で撮影した実際の背景でも良いし、その他の場所の映像でも良い。   The HMD (head mounted display) 14 is a display device that is worn in the user's field of view, and displays a synthesized virtual space including the virtual musical instrument and the user's body that operates the virtual musical instrument. For example, an image of a natural musical instrument (in this example, a trumpet) as shown in FIG. 2B or an image of an electronic musical instrument as shown in FIG. The The background may also be displayed. In this case, the background may be an actual background photographed by the camera 30 or the camera 35 or an image of another place.

また、HMD14で表示される映像をユーザの視線に応じて切り替えるために、HMD14にセンサ32(例えば、方向センサ、位置センサ)を取り付けることが好ましい。なお、図2(A)では、トランペットの画像のみを例としてあげたが、HMD14に表示される自然楽器は、ホルン、トロンボーン、クラリネット、フルート、サックス等の管楽器、バイオリン、チェロ、ギター、マンドリン等の弦楽器、ピアノ、オルガン、ハープシコード等の鍵盤楽器(打弦楽器を含む)、ドラムセット、ラテンパーカッション等の打楽器等、どのようなものでもよい。   Moreover, in order to switch the image displayed on the HMD 14 according to the user's line of sight, it is preferable to attach a sensor 32 (for example, a direction sensor or a position sensor) to the HMD 14. In FIG. 2A, only the trumpet image is taken as an example, but natural instruments displayed on the HMD 14 are wind instruments such as horn, trombone, clarinet, flute, saxophone, violin, cello, guitar, mandolin. String instruments such as piano, organ, harpsichord and other keyboard instruments (including percussion instruments), drum sets, percussion instruments such as Latin percussion, etc. may be used.

さらに、HMD14で表示される仮想空間の映像と、実空間の位置あわせの精度を高めるために、ユーザの視点からの映像を撮影する視点カメラ35をHMD14に取り付けることが好ましい。   Furthermore, in order to increase the accuracy of the alignment of the virtual space image displayed on the HMD 14 and the real space, it is preferable to attach a viewpoint camera 35 that captures the image from the user's viewpoint to the HMD 14.

ヘッドホン20は、ユーザが仮想楽器を演奏した場合の楽音を発音するためのサウンドシステムである。なお、このヘッドホン20から発音される楽音に対して、HRTF(頭部伝達関数)理論を応用した音響効果を施すことにより、仮想楽器の位置やユーザの向いている方向等にあわせて楽音を変化させることが好ましい。   The headphone 20 is a sound system for generating a musical sound when a user plays a virtual musical instrument. The musical sound generated from the headphones 20 is subjected to an acoustic effect applying HRTF (head transfer function) theory to change the musical sound according to the position of the virtual instrument, the direction of the user, and the like. It is preferable to make it.

なお、姿勢取得装置33及び触感付与装置42は、この図2での装着例に限らず、ユーザの姿勢や動作を取得でき、また、ユーザに対して触感を付与したり動作を制限・強制したりできる形態であれば、どのようなものでも良い。また、図2の例では、上半身のみを示したが、全身に適用しても良い。さらに、グローブ状のアタッチメント43のみを装着する等、一部の装置を組み合わせて装着するようにしてもよい。   Note that the posture acquisition device 33 and the tactile sensation imparting device 42 are not limited to the example of wearing in FIG. 2, and can acquire the user's posture and motion. Any form can be used as long as it can be used. In the example of FIG. 2, only the upper body is shown, but it may be applied to the whole body. Furthermore, you may make it mount | wear with combining some apparatuses, such as mounting | wearing only the glove-shaped attachment 43. FIG.

図3は、本発明の実施例による演奏装置1の機能ブロック図である。   FIG. 3 is a functional block diagram of the performance device 1 according to the embodiment of the present invention.

外部記憶装置15には、複数の演奏データMD、楽器演奏姿勢データベース(DB)151、楽器演奏操作データベース(DB)152、映像データベース(DB)153が記憶されている。   The external storage device 15 stores a plurality of performance data MD, a musical instrument performance posture database (DB) 151, a musical instrument performance operation database (DB) 152, and a video database (DB) 153.

演奏データMDは、例えば、SMF形式のMIDIデータ等の自動演奏データである。   The performance data MD is, for example, automatic performance data such as SMF format MIDI data.

楽器演奏姿勢データベース(DB)151は、各種楽器を演奏する際の演奏者の姿勢(楽器演奏姿勢データ)を記憶するデータベースである。楽器演奏姿勢データは、カメラ30からのユーザの姿勢を撮影した映像と比較して、ユーザが演奏しようとしている楽器種類を判別するためのデータであり、各楽器種類ごとの一般的な演奏姿勢を、カメラ30からの映像と比較可能な形態で記憶したデータである。例えば、各種楽器の演奏者による一般的な演奏姿勢(バイオリンを弾く姿勢、トランペットを吹く姿勢等)を比較演奏姿勢映像として記憶している。また、各種楽器の演奏を行う場合に想定されるセンサ群32のセンサ出力値を記憶するようにしてもよい。   The musical instrument performance posture database (DB) 151 is a database that stores the posture of the performer (musical instrument performance posture data) when playing various musical instruments. The musical instrument performance posture data is data for discriminating the type of musical instrument that the user is trying to perform as compared with the video obtained by photographing the user's posture from the camera 30, and the general performance posture for each musical instrument type. , Data stored in a form comparable to the video from the camera 30. For example, general performance postures (such as a violin playing posture and a trumpet blowing posture) by players of various musical instruments are stored as comparative performance posture images. Moreover, you may make it memorize | store the sensor output value of the sensor group 32 assumed when performing various musical instruments.

楽器演奏操作データベース(DB)152は、楽器演奏姿勢データベース(DB)151に記憶されている楽器種類に対応して、各楽器の演奏操作時の演奏者の姿勢(楽器演奏操作データ)を複数記憶するデータベースである。楽器演奏操作データは、センサ群32からのセンサ出力及びカメラ30からのユーザの演奏操作映像とを比較して、ユーザの意図する演奏操作を検出すると共に、後述する自動演奏モード時に、駆動部42に対して、ユーザが理想的な演奏操作姿勢をとるように制御するためのデータである。例えば、所定の楽器に対する所定の演奏操作を行った場合に想定されるセンサ群32のセンサ出力値を記憶すると共に、当該演奏操作を行った場合の一般的な演奏者の姿勢を映像として記憶する。   The musical instrument performance operation database (DB) 152 stores a plurality of player attitudes (musical instrument performance operation data) at the time of performance operation of each musical instrument corresponding to the musical instrument type stored in the musical instrument performance attitude database (DB) 151. Database. The musical instrument performance operation data is compared with the sensor output from the sensor group 32 and the user's performance operation image from the camera 30 to detect the performance operation intended by the user, and in the automatic performance mode described later, the drive unit 42 On the other hand, it is data for controlling the user to take an ideal performance operation posture. For example, the sensor output value of the sensor group 32 assumed when a predetermined performance operation is performed on a predetermined musical instrument is stored, and a general player's posture when the performance operation is performed is stored as an image. .

映像データベース(DB)153は、HMD14に表示するための各種映像を記憶するデータベースである。このデータベースに記憶する映像には少なくとも、楽器演奏姿勢データベース(DB)151、楽器演奏操作データベース(DB)152に記憶される楽器種類と同一の楽器の様々な角度からの実際の映像又はコンピューターグラフィック映像を含む。また、楽器映像と合成して表示するための演奏者の身体(特に手指)の映像を記憶することもできる。さらに、背景となる映像も記憶することができる。なお、一つの楽器種類について一つの楽器に関する映像を記憶しても良いし、複数の楽器の映像を記憶するようにしてもよい。また、実際に存在する楽器に限らず、現存しない古い楽器や架空の楽器の映像を記憶するようにしても良い。その場合には、当該楽器に関するデータを楽器演奏姿勢データベース(DB)151、楽器演奏操作データベース(DB)にも記憶する必要がある。
姿勢照合部92は、カメラ30で撮影されるユーザの姿勢映像を取得して、該取得した映像と一致もしくは近似する楽器演奏姿勢データが楽器演奏姿勢データベース(DB)151内に記憶されているか否かを判断する。
The video database (DB) 153 is a database that stores various videos to be displayed on the HMD 14. The images stored in the database include at least actual images or computer graphic images from various angles of the same musical instrument type stored in the musical instrument performance posture database (DB) 151 and the musical instrument performance operation database (DB) 152. including. It is also possible to store an image of the performer's body (particularly the fingers) to be displayed in combination with the instrument image. In addition, a background video can be stored. Note that an image related to one musical instrument may be stored for one instrument type, or an image of a plurality of musical instruments may be stored. In addition, not only the musical instruments that actually exist, but also images of old musical instruments and imaginary musical instruments that do not exist may be stored. In that case, it is necessary to store data relating to the musical instrument in the musical instrument performance posture database (DB) 151 and the musical instrument performance operation database (DB).
The posture collation unit 92 acquires the posture image of the user photographed by the camera 30, and whether or not the musical instrument performance posture data that matches or approximates the acquired video is stored in the musical instrument performance posture database (DB) 151. Determine whether.

楽器種類決定部91は、姿勢照合部92での照合(判断)結果に基づき、楽器種類を特定する。例えば、姿勢照合部92において、取得した映像と一致もしくは近似するデータがある場合は、当該データと同一の楽器を演奏するものとして、ユーザの演奏しようとしている楽器を特定して、姿勢検出部90に楽器種類を指示する。また、同時に楽音生成部180で生成する楽音の音色を決定すると共に、映像生成部130で用いる楽器映像の種類を特定する。なお、楽器種類の特定は、カメラ30からの映像に加えてセンサ群32からのセンサ出力を考慮して決定してもよい。また、センサ群32からのセンサ出力のみから決定するようにしてもよい。その場合は、楽器演奏姿勢データとして、各種楽器を演奏する場合に想定されるセンサ出力値を予め記憶しておく。   The instrument type determination unit 91 specifies the instrument type based on the collation (judgment) result in the posture collation unit 92. For example, if there is data that matches or approximates the acquired video in the posture collation unit 92, the posture detection unit 90 identifies the musical instrument that the user intends to play, assuming that the same musical instrument as the data is played. Instruct the instrument type. At the same time, the tone color of the musical tone generated by the musical tone generator 180 is determined, and the type of instrument video used by the video generator 130 is specified. The specification of the musical instrument type may be determined in consideration of the sensor output from the sensor group 32 in addition to the video from the camera 30. Further, it may be determined only from the sensor output from the sensor group 32. In that case, sensor output values assumed when playing various musical instruments are stored in advance as musical instrument performance attitude data.

姿勢検出部90は、センサ群32からのセンサ出力及びカメラ30からのユーザの演奏操作映像を取得して、楽器種類決定部91において決定された楽器種類に基づき、取得したセンサ群32からのセンサ出力及びカメラ30からのユーザの演奏操作映像と一致もしくは近似する楽器演奏操作データが楽器演奏操作データベース(DB)152内に記憶されているか否かを判断する。一致もしくは近似するデータがある場合は、当該データと同一の演奏操作をしているものとして、ユーザの意図する演奏操作を特定する。特定された演奏操作は、楽器種類決定部91で決定した楽器種類情報と共に演奏操作情報として駆動制御部910、楽音生成部180及び映像生成部130に送られる。なお、後述する自動演奏モードにおいては、演奏データMDから理想的な演奏姿勢を算出して、演奏操作情報として出力する。   The posture detection unit 90 acquires the sensor output from the sensor group 32 and the user's performance operation video from the camera 30, and based on the instrument type determined by the instrument type determination unit 91, the acquired sensor from the sensor group 32 It is determined whether or not musical instrument performance operation data that matches or approximates the output and the user's performance operation video from the camera 30 is stored in the musical instrument performance operation database (DB) 152. If there is data that matches or approximates, the performance operation intended by the user is identified as performing the same performance operation as that data. The specified performance operation is sent to the drive control unit 910, the tone generation unit 180, and the video generation unit 130 as performance operation information together with the instrument type information determined by the instrument type determination unit 91. In an automatic performance mode to be described later, an ideal performance posture is calculated from the performance data MD and output as performance operation information.

駆動制御部910は、楽器種類決定部91で決定した楽器種類情報と姿勢検出部90で決定した演奏操作情報に基づき、駆動部42を制御する。例えば、ユーザが演奏操作子に触れたと判断される空間座標にユーザの指が位置する場合は、当該ユーザの指に対して圧力を加えることにより、楽器への触感を与えるように制御し、当該操作子を押下する場合には、徐々に圧力を高めると共に、ユーザの指の動きを制限することにより、操作子の重みを体感させるように制御する。また、演奏操作子を限界まで押下したときは、それ以上のユーザの動きを制限するように制御し、仮想楽器の筐体に対しては、ユーザの動きを強制的に停止させるように制御する。なお、後述する自動演奏モードにおいては、ユーザが理想的な演奏姿勢を取るように各駆動部42を制御する。   The drive control unit 910 controls the drive unit 42 based on the instrument type information determined by the instrument type determination unit 91 and the performance operation information determined by the posture detection unit 90. For example, when the user's finger is positioned at a spatial coordinate determined that the user has touched the performance operator, the pressure is applied to the user's finger to control the instrument so that it feels tactile. When the operator is pressed, the pressure is gradually increased and the movement of the user's finger is restricted to control the weight of the operator. Further, when the performance operator is pressed down to the limit, control is performed so as to restrict further user movement, and for the virtual musical instrument housing, control is performed so as to forcibly stop the user movement. . In the automatic performance mode described later, each drive unit 42 is controlled so that the user takes an ideal performance posture.

楽音生成部180は、楽器種類決定部91で決定した楽器種類情報において特定される音色で、当該楽器を姿勢検出部90で決定した演奏操作情報において特定される演奏操作をした場合の楽音(所定の音高及び所定の音長で所定の効果付与がされた楽音)を生成する。なお、後述する自動演奏モードにおいては、演奏データに基づいて楽音を生成する。なお、演奏データをもともとのテンポで再生しても良いし、ユーザの演奏操作をトリガとして、再生タイミングを決定して自動演奏を行ってもよい。ここで生成した楽音は例えば、ヘッドホン30から発音される。   The musical tone generation unit 180 uses the tone color specified in the musical instrument type information determined by the musical instrument type determination unit 91, and the musical tone (predetermined when the musical instrument is performed in the performance operation information determined by the posture detection unit 90). (Music tone with a predetermined effect applied) with a predetermined pitch and a predetermined pitch. In an automatic performance mode, which will be described later, a musical tone is generated based on performance data. The performance data may be reproduced at the original tempo, or automatic performance may be performed by determining the reproduction timing using a user's performance operation as a trigger. The musical sound generated here is generated from the headphones 30, for example.

映像生成部130は、楽器種類決定部91で決定した楽器種類情報において特定される楽器を用いて、姿勢検出部90で決定した演奏操作情報において特定される演奏操作をした場合の映像を映像データベース153の映像を用いて生成する。このとき、客観カメラ3及び視点カメラ35により取得した映像を用いて、生成した仮想空間の映像と、実空間との位置合わせを行う。生成した映像はHMD14によってユーザに提示される。   The video generation unit 130 uses a musical instrument specified in the musical instrument type information determined by the musical instrument type determination unit 91 to display a video when a performance operation specified in the performance operation information determined by the posture detection unit 90 is performed in a video database. It is generated using 153 images. At this time, using the images acquired by the objective camera 3 and the viewpoint camera 35, the generated virtual space image and the real space are aligned. The generated video is presented to the user by the HMD 14.

図4は、本発明の実施例による演奏処理を表すフローチャートである。なお、この処理の開始前に、必要に応じて、予め自動演奏データが選択されているものとする。また、後述するステップSA7で特定する楽器種類も、必要に応じて、初期設定としてユーザが設定できるものとする。   FIG. 4 is a flowchart showing performance processing according to the embodiment of the present invention. It is assumed that automatic performance data is selected in advance as necessary before the start of this process. In addition, it is assumed that the user can set the instrument type specified in step SA7, which will be described later, as an initial setting as necessary.

ステップSA1で、処理を開始し、ステップSA2で、各種フラグ、レジスタ、バッファ等の初期化を行う。   In step SA1, processing is started. In step SA2, various flags, registers, buffers, etc. are initialized.

ステップSA3では、図1のカメラ30(及びカメラ35)からユーザの姿勢映像を取得する。ステップSA4では、ステップSA3で取得したカメラ映像と演奏姿勢データとを比較・照合する。すなわち、取得した映像と一致もしくは近似する楽器演奏姿勢データを楽器演奏姿勢データベース(DB)151内から抽出する。なお、楽器演奏姿勢データベース(DB)151内に記憶されている映像のいずれとも一致もしくは近似しない場合は、ステップSA3に戻り再度カメラ画像を取得する。   In step SA3, the posture image of the user is acquired from the camera 30 (and the camera 35) in FIG. In step SA4, the camera image acquired in step SA3 and the performance attitude data are compared and verified. That is, musical instrument performance posture data that matches or approximates the acquired video is extracted from the musical instrument performance posture database (DB) 151. If none of the images stored in the musical instrument performance posture database (DB) 151 matches or approximates, the process returns to step SA3 to acquire a camera image again.

ステップSA5では、図1のセンサ群32からのセンサ出力を取得する。ステップSA6では、ステップSA5で取得したセンサ出力と一致もしくは近似する楽器演奏姿勢データを楽器演奏姿勢データベース(DB)151内から抽出する。なお、楽器演奏姿勢データベース(DB)151内に記憶されているセンサ出力値のいずれとも一致もしくは近似しない場合は、ステップSA5に戻り再度センサ出力値を取得するか、ステップSA3に戻り再度カメラ画像を取得し、以降の処理を繰り返すようにしてもよい。   In step SA5, the sensor output from the sensor group 32 of FIG. 1 is acquired. In step SA6, musical instrument performance posture data that matches or approximates the sensor output acquired in step SA5 is extracted from the musical instrument performance posture database (DB) 151. If none of the sensor output values stored in the musical instrument performance posture database (DB) 151 matches or approximates, the process returns to step SA5 to acquire the sensor output value again, or returns to step SA3 and captures the camera image again. It is also possible to acquire and repeat the subsequent processing.

ステップSA7では、ステップSA4及びステップSA6で抽出した楽器演奏姿勢データに基づき、ユーザが演奏を意図している楽器を特定する。なお、ステップSA4及びステップSA6で抽出した楽器演奏姿勢データが一致しない場合は、予め設定したいずれかの結果を優先するようにしてもよいし、現在設定されている楽器種類と同一のものを優先しても良い。   In step SA7, the musical instrument that the user intends to play is specified based on the musical instrument performance posture data extracted in steps SA4 and SA6. If the musical instrument performance attitude data extracted in step SA4 and step SA6 do not match, either one of the preset results may be given priority, or the same instrument type currently set may be given priority. You may do it.

ステップSA8では、ステップSA7で特定した楽器が、現在設定されている楽器と同一か否かを判断する。同一である場合は、YESの矢印で示すステップSA10に進み、同一ではない場合、すなわち、ユーザが新たに違う楽器の演奏に対応する姿勢をとったと判断される場合は、NOの矢印で示すステップSA9に進み、ステップSA7で特定した楽器種類に基づき、音色を設定する。   In step SA8, it is determined whether or not the instrument specified in step SA7 is the same as the currently set instrument. If they are the same, the process proceeds to step SA10 indicated by a YES arrow. If they are not the same, that is, if it is determined that the user has newly taken a posture corresponding to the performance of a different instrument, the step indicated by the NO arrow Proceeding to SA9, a timbre is set based on the musical instrument type specified in step SA7.

ステップSA10では、現在のモードが自動モードであるか否かを判断する。自動モードである場合は、YESの矢印で示すステップSA13に進み、自動モードでない場合は、NOの矢印で示すステップSA11に進む。なお、自動モードとは、自動演奏データに基づき、楽音を生成すると共に、ユーザの姿勢や動作を矯正または制限するものである。   In step SA10, it is determined whether or not the current mode is the automatic mode. If it is in the automatic mode, the process proceeds to step SA13 indicated by an arrow of YES, and if it is not the automatic mode, the process proceeds to step SA11 indicated by an arrow of NO. The automatic mode is for generating a musical sound based on automatic performance data and correcting or restricting the posture and operation of the user.

ステップSA11では、ステップSA7で特定した楽器種類の形状を想定して、ユーザの動作や姿勢に規制を加えるように、駆動部42を制御する。   In step SA11, assuming the shape of the musical instrument type specified in step SA7, the drive unit 42 is controlled so as to restrict the user's movement and posture.

ステップSA12では、ステップSA3で取得したカメラ映像及びステップSA5で取得したセンサ出力に基づき、音高値等の楽音生成パラメータを決定する。例えば、取得したセンサ群32からのセンサ出力及びカメラ30からのユーザの演奏操作映像と一致もしくは近似する楽器演奏操作データを楽器演奏操作データベース(DB)152から抽出し、当該データに表される演奏操作に対応する楽音生成パラメータを生成する。なお、取得したセンサ群32からのセンサ出力及びカメラ30からのユーザの演奏操作映像と一致もしくは近似する楽器演奏操作データが無い場合は、演奏操作が無かったものとみなす。その後、ステップSA16に進む。   In step SA12, a tone generation parameter such as a pitch value is determined based on the camera image acquired in step SA3 and the sensor output acquired in step SA5. For example, musical instrument performance operation data that matches or approximates the acquired sensor output from the sensor group 32 and the user's performance operation video from the camera 30 is extracted from the musical instrument performance operation database (DB) 152 and the performance represented by the data is displayed. A tone generation parameter corresponding to the operation is generated. Note that if there is no musical instrument performance operation data that matches or approximates the acquired sensor output from the sensor group 32 and the user's performance operation video from the camera 30, it is considered that there was no performance operation. Thereafter, the process proceeds to Step SA16.

ステップSA13では、外部記憶装置15等に記憶されている自動演奏データを読み出す。なお、自動演奏データは、複数の自動演奏データの中から予め選択されているものとする。自動演奏データに複数のパート(トラック)が存在する場合は、ステップSA7で特定された楽器種類に対応するパートをユーザが演奏するものとして設定するか、ユーザに演奏するパートを予め選択させる。また、ユーザが演奏するパートについては、自動演奏で発音させないようにもできるし、発音させるようにもできる。また、いわゆるエニーキープレイに設定することもできる。この場合は、ユーザの演奏操作は、自動演奏を進めるタイミングを決定するものとして判断される。
ステップSA14では、ステップSA7で特定した楽器種類の形状を想定し、ステップSA13で読み出した自動演奏データに基づき、ユーザの動作や姿勢が当該楽器演奏に相応しいものとなるように、ユーザの姿勢や動作を矯正するために駆動部42を制御する。
In step SA13, automatic performance data stored in the external storage device 15 is read. Note that the automatic performance data is selected in advance from a plurality of automatic performance data. If there are a plurality of parts (tracks) in the automatic performance data, the part corresponding to the musical instrument type specified in step SA7 is set to be played by the user, or the part to be played is selected in advance by the user. Also, the part played by the user can be prevented from being pronounced by automatic performance or can be pronounced. Also, so-called any key play can be set. In this case, the user's performance operation is determined as determining the timing for proceeding with the automatic performance.
In step SA14, assuming the shape of the instrument type specified in step SA7, based on the automatic performance data read in step SA13, the user's posture and movement are set so that the user's movement and posture are appropriate for the musical instrument performance. The drive unit 42 is controlled to correct the above.

ステップSA15では、ステップSA13で読み出した自動演奏データに基づき、音高値等の楽音生成パラメータを決定する。   In step SA15, a musical tone generation parameter such as a pitch value is determined based on the automatic performance data read in step SA13.

ステップSA16では、ステップSA12又はステップSA15で決定された楽音生成パラメータに基づき発音処理を行う。   In step SA16, sound generation processing is performed based on the musical tone generation parameters determined in step SA12 or step SA15.

ステップSA17では、ステップSA7で決定した楽器種類、ステップSA12で決定した演奏操作(自動モードの場合は、自動演奏データに基づき決定する演奏操作)に基づき、仮想楽器、身体(手指)、背景画像等を含む映像を生成して、HMD14に表示する。なお、このとき、HMD14に設けられる方向センサ及び位置センサのセンサ出力に応じて、ユーザの視点を想定した画像を生成するようにしてもよい。また、客観カメラ30及び視点カメラ35により取得した映像を元に、HMD14に表示する仮想空間の映像と、実空間との位置合わせを行う。この位置合わせにより、ユーザは、仮想空間内のオブジェクト(仮想楽器等)に対して、実空間から手を出すことが可能となる。   In step SA17, based on the instrument type determined in step SA7 and the performance operation determined in step SA12 (in the automatic mode, the performance operation determined based on the automatic performance data), the virtual instrument, the body (finger), the background image, etc. Is generated and displayed on the HMD 14. At this time, an image assuming the user's viewpoint may be generated according to the sensor outputs of the direction sensor and the position sensor provided in the HMD 14. Further, based on the video acquired by the objective camera 30 and the viewpoint camera 35, the virtual space video displayed on the HMD 14 and the real space are aligned. By this alignment, the user can put out a hand from the real space with respect to an object (virtual instrument or the like) in the virtual space.

ステップSA18では、ユーザによる終了指示を検出する。終了指示を検出した場合は、YESの矢印で示すステップSA19に進み演奏処理を終了する。終了指示を検出しない場合は、NOの矢印で示すステップSA3に戻り、以降の処理を繰り返す。   In step SA18, an end instruction by the user is detected. If an end instruction is detected, the process proceeds to step SA19 indicated by the YES arrow, and the performance process ends. If the end instruction is not detected, the process returns to step SA3 indicated by the NO arrow, and the subsequent processing is repeated.

以上、本発明の実施例によれば、仮想楽器の映像をユーザの視界に表示するとともに、当該仮想楽器の触感をユーザに与えることができる。また、仮想楽器の筐体に対してのユーザの動作を制限することで、ユーザに楽器の演奏操作を仮想体験させることができる。   As described above, according to the embodiment of the present invention, the video of the virtual musical instrument can be displayed in the user's field of view and the tactile sensation of the virtual musical instrument can be given to the user. In addition, by restricting the user's operation with respect to the housing of the virtual musical instrument, the user can virtually experience the musical instrument performance operation.

また、本発明の実施例によれば、ユーザの姿勢を取得して、該取得した姿勢に基づき、楽器種類を特定して、楽音生成における音色を指定することができる。よって、簡単に仮想楽器の持ち替え(切り替え)及び音色の切り替えを行うことができる。   Further, according to the embodiment of the present invention, it is possible to acquire the user's posture, specify the musical instrument type based on the acquired posture, and specify the tone color in the tone generation. Therefore, it is possible to easily switch (switch) the virtual musical instrument and switch the timbre.

さらに、本発明の実施例によれば、自動演奏データに基づき、楽音を発生させるとともに、当該自動演奏データに即した演奏に適した演奏操作をユーザに行わせることができる。よって、演奏操作方法を知らないユーザに当該楽器の演奏操作をユーザに体験させることができる。   Furthermore, according to the embodiment of the present invention, a musical sound can be generated based on the automatic performance data, and a user can perform a performance operation suitable for performance according to the automatic performance data. Therefore, the user who does not know the performance operation method can let the user experience the performance operation of the musical instrument.

以上実施例に沿って本発明を説明したが、本発明はこれらに制限されるものではない。例えば、種々の変更、改良、組み合わせ等が可能なことは当業者に自明であろう。   Although the present invention has been described with reference to the embodiments, the present invention is not limited thereto. It will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made.

本発明の実施例による演奏装置1のハードウェア構成を表すブロック図である。It is a block diagram showing the hardware constitutions of the performance apparatus 1 by the Example of this invention. 本発明の実施例による姿勢取得装置33及び触感付与装置42の使用例を表す概略図である。It is the schematic showing the usage example of the attitude | position acquisition apparatus 33 and the tactile sensation provision apparatus 42 by the Example of this invention. 本発明の実施例による演奏装置1の機能ブロック図である。It is a functional block diagram of the performance apparatus 1 by the Example of this invention. 本発明の実施例による演奏処理を表すフローチャートである。It is a flowchart showing the performance process by the Example of this invention.

符号の説明Explanation of symbols

1…電子音楽装置、2…サーバ、3…通信ネットワーク、6…バス、7…RAM、8…ROM、9…CPU、10…タイマ、11…検出回路、12…設定操作子、13…表示回路、14…ディスプレイ(HMD)、15…外部記憶装置、16…MIDI I/F、17…MIDI機器、18…音源回路、19…効果回路、20…サウンドシステム(ヘッドホン)、21…通信I/F、22…演奏操作子、30…カメラ、31…センサI/F、32…センサ、33…姿勢取得装置、41…駆動御回路、42…駆動部(アクチュエータ)、43…アタッチメント、90…姿勢検出部、91…楽器種類決定部、92…姿勢照合部、130…映像生成部、151…楽器演奏姿勢DB、152…楽器演奏操作DB、153…映像DB、180…楽音生成部、410…駆動制御部 DESCRIPTION OF SYMBOLS 1 ... Electronic music apparatus, 2 ... Server, 3 ... Communication network, 6 ... Bus, 7 ... RAM, 8 ... ROM, 9 ... CPU, 10 ... Timer, 11 ... Detection circuit, 12 ... Setting operation element, 13 ... Display circuit , 14 ... Display (HMD), 15 ... External storage device, 16 ... MIDI I / F, 17 ... MIDI device, 18 ... Sound source circuit, 19 ... Effect circuit, 20 ... Sound system (headphone), 21 ... Communication I / F , 22 ... Performance operator, 30 ... Camera, 31 ... Sensor I / F, 32 ... Sensor, 33 ... Attitude acquisition device, 41 ... Drive control circuit, 42 ... Drive unit (actuator), 43 ... Attachment, 90 ... Attitude detection 91: Musical instrument type determination unit, 92 ... Posture collation unit, 130 ... Video generation unit, 151 ... Musical instrument performance posture DB, 152 ... Musical instrument performance operation DB, 153 ... Video DB, 180 ... Music generation , 410 ... drive control unit

Claims (2)

複数の楽器演奏姿勢データと自動演奏データとを記憶する記憶手段と、
ユーザの姿勢を取得する姿勢取得手段と、
前記取得した姿勢と前記楽器演奏姿勢データとを比較する姿勢照合手段と、
前記姿勢照合手段による比較結果に基づいて楽器種類を特定する楽器種類決定手段と、
前記自動演奏データに基づき、前記ユーザの身体に対して、物理的圧力を加えることにより、前記ユーザの動作や姿勢が前記特定した楽器種類の演奏に相応しいものとなるように前記ユーザの姿勢又は動作を矯正する触感付与手段と、
前記自動演奏データに基づき、楽音を生成する楽音生成手段と
を有する演奏装置。
Storage means for storing a plurality of musical instrument performance posture data and automatic performance data;
Posture acquisition means for acquiring the posture of the user;
Posture collation means for comparing the acquired posture and the musical instrument performance posture data;
Instrument type determination means for specifying the instrument type based on the comparison result by the posture verification means;
Based on the automatic performance data, by applying physical pressure to the user's body, the user's posture or movement is made suitable for the performance of the specified musical instrument type. A tactile sensation imparting means for correcting
A musical performance device comprising musical tone generation means for generating musical sounds based on the automatic performance data .
複数の楽器演奏姿勢データと自動演奏データとを記憶する記憶手段を有するコンピュータで実行するプログラムであって、
ユーザの姿勢を取得する姿勢取得手順と、
前記取得した姿勢と前記楽器演奏姿勢データとを比較する姿勢照合手順と、
前記姿勢照合手順による比較結果に基づいて楽器種類を特定する楽器種類決定手順と、
前記自動演奏データに基づき、前記ユーザの身体に対して、物理的圧力を加えることにより、前記ユーザの動作や姿勢が前記特定した楽器種類の演奏に相応しいものとなるように前記ユーザの姿勢又は動作を矯正する触感付与手順と、
前記自動演奏データに基づき、楽音を生成する楽音生成手順と
を有する演奏処理をコンピュータに実行させるためのプログラム。
A program executed by a computer having storage means for storing a plurality of musical instrument performance posture data and automatic performance data,
A posture acquisition procedure for acquiring the user's posture;
A posture verification procedure for comparing the acquired posture and the musical instrument performance posture data;
An instrument type determination procedure for specifying an instrument type based on a comparison result by the posture verification procedure;
Based on the automatic performance data, by applying physical pressure to the user's body, the user's posture or movement is made suitable for the performance of the specified musical instrument type. Tactile sensation imparting procedure to correct ,
A program for causing a computer to execute a performance process having a musical sound generation procedure for generating a musical sound based on the automatic performance data .
JP2006085157A 2006-03-27 2006-03-27 Performance equipment Active JP4665811B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006085157A JP4665811B2 (en) 2006-03-27 2006-03-27 Performance equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006085157A JP4665811B2 (en) 2006-03-27 2006-03-27 Performance equipment

Publications (2)

Publication Number Publication Date
JP2007264026A JP2007264026A (en) 2007-10-11
JP4665811B2 true JP4665811B2 (en) 2011-04-06

Family

ID=38637120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006085157A Active JP4665811B2 (en) 2006-03-27 2006-03-27 Performance equipment

Country Status (1)

Country Link
JP (1) JP4665811B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105989826A (en) * 2015-02-12 2016-10-05 成都瑟曼伽科技有限公司 Fingerboard plucked musical instrument equipment capable of generating digital music scores and networking

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101161351B1 (en) * 2011-11-24 2012-06-29 이춘우 Apparatus for training rhythmical sense by interlocking sound of instrument
JP6451926B2 (en) * 2014-07-09 2019-01-16 カシオ計算機株式会社 Musical sound generation instruction device, musical sound generation instruction method, program, and electronic musical instrument
JP6504032B2 (en) * 2015-11-18 2019-04-24 富士通株式会社 Touch feeling providing apparatus and touch feeling providing system
JP6419932B1 (en) * 2017-11-28 2018-11-07 株式会社コロプラ Program for supporting performance of musical instrument in virtual space, method executed by computer to support selection of musical instrument, and information processing apparatus
JP2019101413A (en) * 2018-10-09 2019-06-24 株式会社コロプラ Program for assisting in performing musical instrument in virtual space, computer-implemented method for assisting in selecting musical instrument, and information processor

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4857724A (en) * 1971-11-03 1973-08-14
JPH04111013A (en) * 1990-08-30 1992-04-13 Seiko Epson Corp Virtual input device
JPH06175653A (en) * 1992-12-01 1994-06-24 Yamaha Corp Musical sound control signal generating device
JPH09120464A (en) * 1995-08-21 1997-05-06 Matsushita Electric Ind Co Ltd Rehabilitation support device
JPH09237087A (en) * 1996-02-29 1997-09-09 Kawai Musical Instr Mfg Co Ltd Electronic musical instrument
JP2000020054A (en) * 1998-07-06 2000-01-21 Yamaha Corp Karaoke sing-along machine
JP2001165268A (en) * 1999-12-08 2001-06-19 Sony Corp Wire driving device and force tactile sense presentation device using the wire driving device
JP2003337653A (en) * 2002-05-20 2003-11-28 Seiko Epson Corp Tactile sense and force sense presenting device, and tactile sense and force sense presenting system
JP2004109758A (en) * 2002-09-20 2004-04-08 Yamaha Corp Musical instrument performance assisting apparatus
JP2004252149A (en) * 2003-02-20 2004-09-09 Yamaha Corp Virtual percussion instrument playing system
JP2005165194A (en) * 2003-12-05 2005-06-23 Nippon Hoso Kyokai <Nhk> Music data converter and music data conversion program
JP2006053167A (en) * 2004-07-14 2006-02-23 Rarugo:Kk Electronic musical instrument device and playing method of virtual musical instrument and program for performance processing of virtual musical instrument and recording medium recored with its program

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4857724A (en) * 1971-11-03 1973-08-14
JPH04111013A (en) * 1990-08-30 1992-04-13 Seiko Epson Corp Virtual input device
JPH06175653A (en) * 1992-12-01 1994-06-24 Yamaha Corp Musical sound control signal generating device
JPH09120464A (en) * 1995-08-21 1997-05-06 Matsushita Electric Ind Co Ltd Rehabilitation support device
JPH09237087A (en) * 1996-02-29 1997-09-09 Kawai Musical Instr Mfg Co Ltd Electronic musical instrument
JP2000020054A (en) * 1998-07-06 2000-01-21 Yamaha Corp Karaoke sing-along machine
JP2001165268A (en) * 1999-12-08 2001-06-19 Sony Corp Wire driving device and force tactile sense presentation device using the wire driving device
JP2003337653A (en) * 2002-05-20 2003-11-28 Seiko Epson Corp Tactile sense and force sense presenting device, and tactile sense and force sense presenting system
JP2004109758A (en) * 2002-09-20 2004-04-08 Yamaha Corp Musical instrument performance assisting apparatus
JP2004252149A (en) * 2003-02-20 2004-09-09 Yamaha Corp Virtual percussion instrument playing system
JP2005165194A (en) * 2003-12-05 2005-06-23 Nippon Hoso Kyokai <Nhk> Music data converter and music data conversion program
JP2006053167A (en) * 2004-07-14 2006-02-23 Rarugo:Kk Electronic musical instrument device and playing method of virtual musical instrument and program for performance processing of virtual musical instrument and recording medium recored with its program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105989826A (en) * 2015-02-12 2016-10-05 成都瑟曼伽科技有限公司 Fingerboard plucked musical instrument equipment capable of generating digital music scores and networking

Also Published As

Publication number Publication date
JP2007264026A (en) 2007-10-11

Similar Documents

Publication Publication Date Title
US20210248986A1 (en) Stick Controller
CN103235642B (en) Virtual musical instrument system that a kind of 6 dimension sense organs are mutual and its implementation
US8609972B2 (en) Performance apparatus and electronic musical instrument operable in plural operation modes determined based on movement operation of performance apparatus
US8586853B2 (en) Performance apparatus and electronic musical instrument
JP4665811B2 (en) Performance equipment
Odowichuk et al. Sensor fusion: Towards a fully expressive 3d music control interface
JP2013190690A (en) Musical performance device and program
US7504572B2 (en) Sound generating method
JP4882443B2 (en) Performance equipment
JP5549698B2 (en) Performance device, method and program
De Laubier The meta-instrument
WO2019156091A1 (en) Information processing method
JP4586525B2 (en) Virtual drum device
Bongers Tactual display of sound properties in electronic musical instruments
US10805475B2 (en) Resonance sound signal generation device, resonance sound signal generation method, non-transitory computer readable medium storing resonance sound signal generation program and electronic musical apparatus
JP2009229680A (en) Sound generation system
JP4835016B2 (en) Note information display device and program
TWI743472B (en) Virtual electronic instrument system and operating method thereof
JP2017102415A (en) Performance system
JP2008008946A (en) Musical sound controller and program
JP4337288B2 (en) Performance operation display device and program
JP7432127B2 (en) Information processing method, information processing system and program
WO2023243293A1 (en) Performance motion estimation method and performance motion estimation device
JP2002366142A (en) Music playing support device
WO2006090528A1 (en) Music sound generation method and device thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100518

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101227

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4665811

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150