WO2022255052A1 - 打楽器システム - Google Patents

打楽器システム Download PDF

Info

Publication number
WO2022255052A1
WO2022255052A1 PCT/JP2022/019949 JP2022019949W WO2022255052A1 WO 2022255052 A1 WO2022255052 A1 WO 2022255052A1 JP 2022019949 W JP2022019949 W JP 2022019949W WO 2022255052 A1 WO2022255052 A1 WO 2022255052A1
Authority
WO
WIPO (PCT)
Prior art keywords
hitting
hit
cymbal
stick
percussion instrument
Prior art date
Application number
PCT/JP2022/019949
Other languages
English (en)
French (fr)
Inventor
眞 細川
崇 坂本
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Publication of WO2022255052A1 publication Critical patent/WO2022255052A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments

Definitions

  • Acoustic percussion instruments produce live sounds when struck. With an acoustic percussion instrument, the timbre of the sound produced changes according to the position (region) where the object to be hit is struck, that is, sounds with a variety of timbres are produced. However, with conventional electronic percussion instruments, even if the position at which the object to be hit is changed, the timbre of the generated sample sound cannot be changed. In an electronic percussion instrument, if a plurality of sensors are provided for the same object to be struck, it is possible to change the timbre of the sample sound generated according to the position at which the object to be struck is struck. However, in this case, the number of component parts increases.
  • an example of an object of one aspect of the present disclosure is to provide a percussion instrument system capable of generating a variety of sounds (for example, sounds with a variety of tones) without increasing the number of parts. It is to be.
  • One aspect of the present disclosure is an acquisition unit that acquires a moving image showing a hit object and an impacting object striking the hit object, and information indicating the relative positions of the hit object and the impacting object based on the moving image. and a control unit that acquires percussion-related information including, and outputs an instruction for producing a sound according to the percussion-related information.
  • FIG. 1 is a diagram showing the appearance of a percussion instrument system according to an embodiment of the present disclosure
  • FIG. 1 is a functional block diagram of a percussion instrument system according to an embodiment of the present disclosure
  • Fig. 2 illustrates a cymbal of a percussion system according to an embodiment of the present disclosure
  • Fig. 3 shows a stick of a percussion instrument system according to an embodiment of the present disclosure
  • FIG. 5 is a diagram showing the essential parts of the drum stick of FIG. 4
  • FIG. 4 is a diagram showing an example of the movement of sticks with respect to cymbals in the percussion instrument system according to an embodiment of the present disclosure
  • FIG. 3 is a diagram showing a data table stored in a storage unit shown in FIG. 2;
  • FIG. 1 is a functional block diagram of a percussion instrument system according to an embodiment of the present disclosure
  • Fig. 2 illustrates a cymbal of a percussion system according
  • a percussion instrument system 1 of this embodiment includes a drum set 10 as an example of a percussion instrument, a camera 11 and a control section 12 . Further, the percussion instrument system 1 further includes a storage section 13 and a sound emitting section 14 .
  • the control unit 12 may be an example of an acquisition unit.
  • the drum set 10 includes a plurality of drums 30 (a snare drum 30A, a bass drum 30B, a tom 30C, and a floor tom 30D in FIG. 1) as hit bodies, and a plurality of cymbals 20 (a crash cymbal 20A and a ride cymbal 20B in FIG. 1). , hi-hat cymbal 20C).
  • the hi-hat cymbal 20C is configured by stacking an upper cymbal and a lower cymbal.
  • the upper and lower cymbals of the crash cymbal 20A, ride cymbal 20B, and hi-hat cymbal 20C all have a cup portion and a bow portion.
  • the drums 30 and cymbals 20 of the drum set 10 illustrated in FIG. 1 are acoustic-type hit bodies that actively emit live sounds when hit. That is, each drum 30 is composed of a cylindrical drum shell 31 and drum pads 32 provided in one or both openings of the drum shell 31 . Therefore, when the drum pad 32 is struck, for example, the drum 30 positively emits a raw sound.
  • Each cymbal 20 is made of a metal material (for example, an alloy of copper, tin, silver, etc.). Therefore, when the cymbal 20 is hit, the cymbal 20 positively emits a live sound.
  • the drum set 10 also includes a stick 40 (strike body) shown in FIG.
  • the stick 40 is a rod-shaped member that hits the drum 30 or the cymbal 20 .
  • the stick 40 has a grip portion 41, a shaft portion 42, a shoulder portion 43, and a tip portion 44 which are arranged in order in its longitudinal direction.
  • the grip part 41 is a part that the player of the drum set 10 holds with his or her hand.
  • the thickness of the grip portion 41 is generally constant.
  • the shaft portion 42, the shoulder portion 43, and the tip portion 44 are all hitting parts for hitting the drum 30 and the cymbal 20.
  • the shaft portion 42 is a portion having a generally constant thickness, similar to the grip portion 41 .
  • the shoulder portion 43 is a portion whose thickness gradually decreases from the shaft portion 42 toward the tip portion 44 (the tip of the stick 40).
  • the tip portion 44 is a portion that is formed in a spherical or elliptical shape that is slightly larger in thickness than the tip of the shoulder portion 43 .
  • the stick 40 may be made of wood, resin material, or the like.
  • the stick 40 of this embodiment is provided with a marker 50 as shown in FIG.
  • the marker 50 is provided at a portion of the stick 40 where the drum 30 or the cymbal 20 is hit (hit portion).
  • markers 50 are provided on shaft portion 42, shoulder portion 43 and tip portion 44, respectively.
  • the marker 50 is preferably formed so as to stand out in the moving image acquired by the camera 11 (so that the position of the marker 50 in the moving image can be easily recognized).
  • the marker 50 is preferably formed to reflect light, for example.
  • the camera 11 acquires moving images of the cymbal 20 .
  • the camera 11 acquires a moving image of the upper area of the cymbal 20 that is hit by the stick 40 in particular.
  • the camera 11 is preferably arranged so as to acquire a moving image of the cymbal 20 from above the cymbal 20, as illustrated in FIG.
  • the camera 11 also acquires a moving image showing a stick 40 (see FIGS. 4 and 5) striking a cymbal 20 as shown in FIG. That is, the camera 11 acquires moving images of the cymbal 20 and its surrounding area so as to capture the movement of the stick 40 hitting the cymbal 20 .
  • the camera 11 is preferably a high-speed camera capable of acquiring a large number of frames per second so that the movement of the stick 40 hitting the cymbal 20 can be captured in detail.
  • the moving images acquired by the camera 11 are two or more types of moving images obtained by shooting the same (single) cymbal 20 and the stick 40 that hits the cymbal 20 from different directions.
  • the two cameras 11 photograph the same cymbal 20 and the stick 40 striking the cymbal 20 from different directions. This makes it possible to acquire two types of moving images in which the same cymbal 20 and the corresponding stick 40 are captured from two different directions.
  • each camera 11 acquires moving images of all the cymbals 20 (crash cymbal 20A, ride cymbal 20B, high hat cymbal 20C) at the same time.
  • all the cymbals 20 are located within the photographing range of the same camera 11 .
  • the control unit 12 shown in FIG. 2 grasps information (hit-related information) that the stick 40 hits the predetermined cymbal 20 based on the moving image acquired by the camera 11 . Further, the control unit 12 outputs an instruction to produce a sound corresponding to the hitting-related information to the sound emitting unit 14 in response to the action of the stick 40 hitting the cymbal 20 .
  • a control unit (acquisition unit) 12 acquires a moving image captured by the camera 11 from the camera 11 .
  • the hitting-related information includes information indicating relative positions between the cymbal 20 and the stick 40 .
  • the relative position between the cymbal 20 and the stick 40 is the relative position between a predetermined hitting portion of the stick 40 that hits the cymbal 20 and a predetermined hitting area of the cymbal 20 that the stick 40 hits.
  • the predetermined striking portion of the stick 40 is one of the shaft portion 42, shoulder portion 43, and tip portion 44 shown in FIGS.
  • the predetermined hitting area of the cymbal 20 is one of a plurality of hitting areas 21A to 21L, as shown in FIG.
  • the plurality of hit areas 21A to 21L are formed in a circular shape or an annular shape centering on the center of the cymbal 20, and are arranged concentrically.
  • the number of hitting areas 21A to 21L of the cymbal 20 in FIG. 3 is twelve.
  • two hitting areas 21A and 21B near the center of the cymbal 20 correspond to the cup portion of the cymbal 20.
  • the ten hitting areas 21C to 21L located outside the cup portion correspond to the bow portion of the cymbal 20.
  • a hit area 21 ⁇ /b>L positioned at the outer peripheral edge of the cymbal 20 also corresponds to the edge of the cymbal 20 .
  • the stick 40 has three types of hitting parts, and the cymbal 20 has 12 types of hitting areas, so there are 36 types of information indicating the relative positions of the cymbal 20 and the stick 40 .
  • the hitting-related information grasped by the control unit 12 based on the video captured by the camera 11 also includes the movement of the stick 40 with respect to the cymbal 20, as illustrated in FIG.
  • the movement of the stick 40 includes the velocity of the predetermined hitting portion (the tip portion 44 in FIG. 6) of the stick 40 toward the cymbal 20 and the incident angle ⁇ s of the predetermined hitting portion of the stick 40 with respect to the cymbal 20 .
  • the movement of the stick 40 may include, for example, a trajectory of a predetermined hitting portion of the stick 40 toward the cymbal 20 (curved trajectory Ps in FIG. 6).
  • the hitting-related information grasped by the control unit 12 based on the moving image acquired by the camera 11 includes the vibration of the cymbal 20 that occurs when the stick 40 hits.
  • the vibration of the cymbal 20 grasped by the control unit 12 includes the length of vibration of the cymbal 20 .
  • the control unit 12 outputs to the sound emitting unit 14 an instruction to produce sounds of different timbres according to the above-described hitting-related information. Specifically, the control unit 12 reads out the tone data corresponding to the grasped percussion-related information from the data table shown in FIG. is output to the sound emitting unit 14 .
  • the control unit 12 may be a processor such as a CPU (Central Processing Unit).
  • the storage unit 13 may be a memory such as ROM (Read Only Memory) or RAM (Random Access Memory).
  • the functions of the control unit 12 may be implemented by the processor executing a program stored in the storage unit 13 .
  • the storage unit 13 stores a data table in which percussion-related information is associated with tone color data.
  • a correspondence table 71 is included in the data table.
  • the relative positions of the cymbals 20 and the sticks 40 are associated with tone color data.
  • there are 36 types of relative positions between the cymbals 20 and the sticks 40 so there are also 36 types of tone color data corresponding to these 36 types of relative positions. Therefore, the timbre data may change according to the relative position.
  • This correspondence table 71 is prepared for each data 72 of the incident angle ⁇ s of the stick 40 with respect to the cymbal 20 (hereinafter referred to as incident angle data 72).
  • the incident angle data 72 may be prepared, for example, for each predetermined range of incident angles ⁇ s (for example, each range of 10 degrees). Therefore, the timbre data may change according to the relative position and the range of the incident angle ⁇ s (or the incident angle ⁇ s).
  • the incident angle data 72 is prepared for each velocity data 73 of the stick 40 toward the cymbal 20 (hereinafter referred to as stick velocity data 73). Therefore, if the speed of the stick 40 changes, the incident angle data 72 to be referred to also changes.
  • the stick speed data 73 may be prepared for each predetermined speed range, for example. Therefore, the timbre data may change according to the relative position, the range of the incident angle ⁇ s (or the incident angle ⁇ s), and the range of the velocity of the stick 40 (or the velocity of the stick 40).
  • the control unit 12 can output to the sound emitting unit 14 an instruction to produce a sound including tone color data corresponding to the hitting-related information.
  • control unit 12 outputs to the sound emitting unit 14 an instruction to produce a sound with a different volume depending on the speed of a predetermined hitting portion of the stick 40 toward the cymbal 20 among the grasped hitting-related information.
  • control unit 12 reads volume data corresponding to the speed of the stick 40 from a volume data table stored in advance in the storage unit 13, and issues an instruction to produce a sound including the volume data. Output to the unit 14 .
  • the volume data table stored in the storage unit 13 may be a correspondence table in which the velocity of the stick 40 and volume data are associated with each other.
  • control unit 12 determines the length of the sound to be generated (data including the length of vibration) of the cymbal 20 that occurs when the stick 40 hits the cymbal 20 (data including the length of vibration) among the grasped hitting-related information. Sustain) information is output to the sound emitting unit 14 . Specifically, the control unit 12 outputs an instruction to continue producing sound to the sound emitting unit 14 until the vibration of the cymbal 20 stops.
  • control unit 12 of the present embodiment predicts the hitting-related information when the stick 40 hits the cymbal 20 based on the hitting-related information immediately before the stick 40 hits the cymbal 20 . Further, the control unit 12 outputs to the sound emitting unit 14 an instruction to produce a sound corresponding to the predicted impact-related information. Specifically, based on the movement and position of the stick 40 obtained by referring to the video captured by the camera 11, the control unit 12 controls the timing (time) at which the stick 40 reaches and strikes the cymbal 20, The relative position between the stick 40 and the cymbal 20, and the incident angle ⁇ s and velocity of the stick 40 are predicted.
  • control unit 12 reads out the timbre data and sound volume data corresponding to the information of the predicted “relative position”, “incident angle ⁇ s”, and “velocity” from the storage unit 13, and controls the sound emitting unit 14 at the predicted “timing”.
  • a sound generation instruction including the tone color data and the volume data is output to the sound emitting unit 14 so that the sound is emitted from the sound emitting unit 14 .
  • the sound emitting unit 14 is, for example, a speaker that emits sound in response to a sound production instruction including tone color data and volume data output from the control unit 12 .
  • the camera 11 acquires moving images of the cymbal 20 and the stick 40 hitting the camera 11 .
  • the control unit 12 grasps the hitting-related information including the relative positions of the cymbal 20 and the stick 40 based on the moving image acquired by the camera 11, and controls the hitting-related information according to the action of the stick 40 hitting the cymbal 20.
  • An instruction to produce a sound corresponding to the information is output to the sound emitting unit 14 .
  • sounds with different timbres can be generated according to the relative positions of the stick 40 and the cymbal 20 . That is, sounds with various timbres can be generated.
  • the camera 11 for photographing the stick 40 and the cymbal 20 can be prepared in order to generate sounds of various timbres, sounds of various timbres can be generated without increasing the number of parts.
  • the relative positions of the stick 40 and the cymbal 20 are set such that, among the plurality of hitting regions of the cymbal 20, the predetermined hitting region hit by the stick 40 and the plurality of hitting regions of the stick 40. It is a position relative to a predetermined hitting portion where the cymbal 20 is hit among the hitting portions. As a result, it is possible to generate sounds with different timbres depending on the hitting area of the cymbal 20 hit by the stick 40 and the hit part of the stick 40 hitting the cymbal 20 .
  • control unit 12 refers to the movement of the stick 40 ascertained based on the moving image acquired by the camera 11 in addition to the relative positions of the stick 40 and the cymbal 20, thereby determining the sound. is output to the sound emitting unit 14. This increases the number of types of information (hit-related information) that the control unit 12 refers to when instructing the production of sounds, so that sounds with a wider variety of timbres can be generated.
  • the control unit 12 grasps the vibration of the cymbal 20 struck by the stick 40 based on the moving image acquired by the camera 11, and refers to the vibration information of the cymbal 20. , and outputs information on the length of sound (sustain) to the sound emitting unit 14 .
  • the percussion instrument system 1 can output a sound that is closer to the sound (raw sound) produced by an acoustic drum.
  • the control unit 12 predicts the hitting-related information when the stick 40 hits the cymbal 20 based on the hitting-related information immediately before the stick 40 hits the cymbal 20, An instruction for producing a sound corresponding to the predicted hitting-related information is output. It takes a predetermined processing time until the control unit 12 grasps the hitting-related information based on the moving image output from the camera 11 and outputs an instruction to produce a sound. Therefore, by having the control unit 12 output an instruction to produce a sound based on the impact-related information immediately before the stick 40 contacts the cymbal 20, the instruction from the control unit 12 is output at the moment when the stick 40 reaches the cymbal 20. Based on this, sound can be output from the sound emitting unit 14 . As a result, the user (performer) of the percussion instrument system 1 can be suppressed or prevented from feeling a sense of incongruity about his/her performance.
  • the timing at which the control unit 12 outputs an instruction to produce a sound based on the percussion-related information is determined. timing
  • the timing at which the sound is output from the sound emitting unit 14 can be adjusted more appropriately for each user.
  • the learned performance data of a plurality of users may be collected and used to improve the software of the percussion instrument system 1 .
  • the moving images acquired by the camera 11 are moving images of the predetermined cymbal 20 and the stick 40 for striking the cymbal 20 from different directions.
  • the control unit 12 can grasp the relative position between the cymbal 20 and the stick 40 in the three-dimensional space and the movement of the stick 40 in the three-dimensional space.
  • the control unit 12 can grasp the hitting-related information such as the relative position and the movement of the stick 40 with higher accuracy, so that it is possible to generate sounds with a wider variety of tones.
  • the stick 40 is provided with the marker 50 .
  • the control unit 12 can grasp the position of the stick 40 with high accuracy based on the video captured by the camera 11 . Therefore, the relative position between the cymbal 20 and the stick 40 and the movement of the stick 40 can be grasped more accurately.
  • the markers 50 are provided on the plurality of striking parts (the shaft portion 42, the shoulder portion 43, and the tip portion 44) of the stick 40, respectively. Thereby, the relative positions of the cymbal 20 and each hitting portion of the stick 40 and the movement of each hitting portion of the stick 40 can be accurately grasped.
  • Acoustic cymbals which actively produce live sounds when struck, produce a wide variety of tones depending on the manner in which they are struck (the area of the cymbal being struck, the part of the stick that strikes the cymbal, etc.). Change. Therefore, using the percussion instrument system 1 that outputs sounds of various tones as the cymbals 20 as in the present embodiment has the advantage of being able to output sounds close to the raw sounds of acoustic cymbals.
  • control unit 12 may output an instruction to produce a sound to the sound emitting unit 14 according to the hitting-related information at the moment when the stick 40 hits the cymbal 20, for example.
  • three or more cameras 11 may acquire moving images of the same cymbal 20 and corresponding stick 40 from different directions.
  • the control unit 12 can grasp the relative position between the cymbal 20 and the stick 40 and the movement of the stick 40 in the three-dimensional space with higher accuracy.
  • the number of cameras 11 that acquire two or more types of moving images from the same cymbal 20 and corresponding stick 40 from different directions may be, for example, one. Even if the number of the cameras 11 is one, by using a mirror, it is possible to acquire two or more kinds of moving images from the same cymbal 20 and the corresponding stick 40 from different directions at the same time. Therefore, even if the number of cameras 11 is one, the control unit 12 can control the relative positions of the cymbal 20 and the stick 40 in the three-dimensional space and the position of the stick based on two or more types of moving images acquired by one camera 11 . 40 movements can be grasped.
  • the camera 11 may acquire only one type of moving image from, for example, the same cymbal 20 and the corresponding stick 40 from one predetermined direction.
  • the control unit 12 grasps the relative positions of the cymbal 20 and the stick 40 and the movement of the stick 40 on the two-dimensional plane based on one moving image acquired by the camera 11 . Therefore, compared to the case where the control unit 12 grasps the relative position between the cymbal 20 and the stick 40 and the movement of the stick 40 in the three-dimensional space, the accuracy of grasping these relative positions and the movement of the stick 40 is low.
  • the processing time required for the control unit 12 to grasp the relative position and the movement of the stick 40 based on the moving image acquired by the camera 11 can be shortened.
  • the control unit 12 outputs a sound production instruction to the sound emitting unit 14 based on the moving image acquired by the camera 11 . Therefore, even if the control unit 12 outputs an instruction to produce a sound to the sound emitting unit 14 based on the hitting-related information at the moment when the stick 40 hits the cymbal 20, for example, the moment the stick 40 hits the cymbal 20 , the time difference between the timing at which the sound corresponding to the hit is emitted from the sound emitting unit 14 can be reduced. As a result, it is possible to prevent the user of the percussion instrument system from having a sense of incongruity about his or her performance.
  • the multiple hit areas in the same cymbal 20 may be only three areas, for example, the cup portion, the bow portion and the edge.
  • the relative positions of the cymbal 20 and the stick 40 grasped by the control unit 12 based on the moving image acquired by the camera 11 are, for example, the predetermined hitting area of the stick 40 and the cymbal 20 hit by the stick 40 . , or a relative position between the cymbal 20 and a predetermined hitting portion of the stick 40 that hits the cymbal 20 .
  • the control unit 12 can grasp the relative positions of the cymbal 20 and the stick 40 in a short time. That is, the information processing time in the control unit 12 can be shortened.
  • the hit body in the present disclosure is not limited to the cymbal 20, and may be the drum 30, for example.
  • the camera 11 may acquire moving images of the stick 40 and the drum pad 32 of the drum 30 struck by the stick 40, for example.
  • the hit object in the present disclosure may be, for example, a silent type hit object that does not actively emit live sound even when hit.
  • the cymbal 20 as the hit body in the drum set 10 may be made of any material such as a highly rigid resin material (eg, polypropylene (PP) or polyamide (PA)).
  • the drum 30 as the hit body in the drum set 10 may be made of, for example, a rubber pad or a mesh pad.
  • the percussion instrument system of the present disclosure may not include the storage unit 13 and the sound emitting unit 14, for example.
  • the storage unit 13 and the sound emitting unit 14 may be configured as external devices separate from the percussion system, and may be connected to the percussion system by wire or wirelessly.
  • the present disclosure may be applied to percussion instrument systems.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

打楽器システムは、被打撃体及び前記被打撃体を打撃する打撃体を映す動画を取得する取得部と、前記動画に基づいて前記被打撃体と前記打撃体との相対位置を示す情報を含む打撃関連情報を取得し、前記打撃関連情報に応じた音の発音の指示を出力する制御部と、を備える。

Description

打楽器システム
 本開示は、打楽器システムに関する。
 この出願は、2021年6月3日に出願された日本国特願2021-093855号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 従来の電子ドラム等の電子打楽器では、被打撃体(打楽器)に設けられたセンサにより被打撃体の打撃を検出した際に、打撃の検出をトリガーとして予め用意された音(サンプル音)を発生させる(例えば特許文献1参照)。
日本国特開2017-161858号公報 日本国特許第3750635号公報 日本国特開2015-210350号公報 中国特許出願公開第108269563号明細書
 アコースティック打楽器では、打撃することで生の音が発生する。アコースティック打楽器では、被打撃体を打撃する位置(領域)に応じて発生する音の音色が変わる、すなわち多彩な音色の音が発生する。しかしながら、従来の電子打楽器では、被打撃体を打撃する位置を変えても、発生するサンプル音の音色を変えることができない。
 電子打楽器において同一の被打撃体に複数のセンサを設ければ、被打撃体を打撃する位置に応じて発生するサンプル音の音色を変えることもできる。しかしながら、この場合には、構成部品点数が多くなってしまう。
 以上の事情を考慮して、本開示のひとつの態様の目的の一例は、部品点数を増やすことなく、多彩な音(例えば、多彩な音色の音)を発生させることが可能な打楽器システムを提供することである。
 本開示の一態様は、被打撃体及び前記被打撃体を打撃する打撃体を映す動画を取得する取得部と、前記動画に基づいて前記被打撃体と前記打撃体との相対位置を示す情報を含む打撃関連情報を取得し、前記打撃関連情報に応じた音の発音の指示を出力する制御部と、を備える打楽器システムである。
 本開示によれば、部品点数を増やすことなく、多彩な音色の音を発生させることが可能な打楽器システムを提供することができる。
本開示の一実施形態に係る打楽器システムの外観を示す図である。 本開示の一実施形態に係る打楽器システムの機能ブロック図である。 本開示の一実施形態に係る打楽器システムのシンバルを示す図である。 本開示の一実施形態に係る打楽器システムのスティックを示す図である。 図4のドラムスティックの要部を示す図である。 本開示の一実施形態に係る打楽器システムにおいて、シンバルに対するスティックの動きの一例を示す図である。 図2の記憶部に格納されるデータテーブルを示す図である。
 以下、図1~7を参照して本開示の一実施形態について説明する。
 図1、2に示すように、本実施形態の打楽器システム1は、打楽器の一例であるドラムセット10と、カメラ11と、制御部12と、を備える。また、打楽器システム1は、記憶部13と、放音部14と、をさらに備える。制御部12は取得部の一例であってもよい。
 ドラムセット10は、被打撃体としての複数のドラム30(図1ではスネアドラム30A、バスドラム30B、タム30C、フロアタム30D)、及び、複数のシンバル20(図1ではクラッシュシンバル20A、ライドシンバル20B、ハイハットシンバル20C)を含む。ハイハットシンバル20Cは、上部シンバルと下部シンバルとを重ねて構成される。クラッシュシンバル20A、ライドシンバル20B、及びハイハットシンバル20Cの上部シンバルと下部シンバルは、いずれもカップ部とボウ部とを有する。
 図1に例示するドラムセット10のドラム30及びシンバル20は、いずれも打撃されることで生の音を積極的に放出するアコースティックタイプの被打撃体である。すなわち、各ドラム30は、筒状のドラムシェル31と、ドラムシェル31の一方あるいは両方の開口に設けられたドラムパッド32とにより構成されている。このため、例えばドラムパッド32を打撃した際には、ドラム30から生の音が積極的に放出される。また、各シンバル20は、金属材料(例えば銅、錫、銀の合金など)で形成されている。このため、シンバル20を打撃した際には、シンバル20から生の音が積極的に放出される。
 ドラムセット10は、図4に示すスティック40(打撃体)も備える。スティック40は、ドラム30やシンバル20を打撃する棒状の部材である。スティック40は、その長手方向に順番に並ぶグリップ部41と、シャフト部42と、ショルダー部43と、チップ部44とを有する。グリップ部41は、ドラムセット10の演奏者が自身の手で握る部分である。グリップ部41の太さは概ね一定である。
 シャフト部42、ショルダー部43及びチップ部44は、いずれもドラム30やシンバル20を打撃する打撃部位である。シャフト部42は、グリップ部41と同様に太さが概ね一定である部位である。ショルダー部43は、シャフト部42からチップ部44(スティック40の先端)に向かって太さが徐々に小さくなる部位である。チップ部44は、ショルダー部43の先端における太さよりも若干大きい球状あるいは楕円球状等の形状に形成される部位である。スティック40は、木材で形成されてもよいし、樹脂材料等で形成されてもよい。
 本実施形態のスティック40には、図5に示すように、マーカー50が設けられている。マーカー50は、スティック40のうちドラム30やシンバル20を打撃する部位(打撃部位)に設けられている。図5においては、マーカー50が、シャフト部42、ショルダー部43及びチップ部44にそれぞれ設けられている。マーカー50は、カメラ11が取得した動画において目立つように(動画におけるマーカー50の位置を把握しやすいように)形成されていることが好ましい。マーカー50は、例えば、光を反射するように形成されていることが好ましい。
 図1に示すように、カメラ11は、シンバル20の動画を取得する。カメラ11は、シンバル20のうち特にスティック40によって打撃される上側の領域の動画を取得する。このため、カメラ11は、図1に例示するように、シンバル20の上側からシンバル20の動画を取得するように配置されるとよい。
 カメラ11は、図6に示すようなシンバル20を打撃するスティック40(図4,5参照)とを映す動画も取得する。すなわち、カメラ11は、シンバル20を打撃するスティック40の動きを捉えるように、シンバル20及びその周囲の領域の動画を取得する。カメラ11は、シンバル20を打撃するスティック40の動きを詳細に捉えることができるように、一秒あたりに多くのコマ数を取得できる高速度カメラであることが好ましい。
 本実施形態において、カメラ11が取得する動画は、同一(単一)のシンバル20及びそのシンバル20を打撃するスティック40を、互いに異なる方向から撮影することにより得られる2種類以上の動画である。本実施形態においては、2つのカメラ11が、同一のシンバル20及びそのシンバル20を打撃するスティック40を互いに異なる方向から撮影する。これにより、同一のシンバル20及びこれに対応するスティック40を互いに異なる2つの方向から捉えた2種類の動画を取得することができる。
 また、本実施形態において、各カメラ11は、全てのシンバル20(クラッシュシンバル20A、ライドシンバル20B、ハイハットシンバル20C)の動画を同時に取得する。言い換えれば、全てのシンバル20は同一のカメラ11の撮影範囲内に収まるように位置している。
 図2に示す制御部12は、カメラ11が取得した動画に基づいて、スティック40が所定のシンバル20を打撃する情報(打撃関連情報)を把握する。また、制御部12は、スティック40がシンバル20を打撃する動作に応じて、打撃関連情報に応じた音の発音の指示を放音部14に出力する。制御部(取得部)12は、カメラ11から、カメラ11が撮影した動画を取得する。
 打撃関連情報には、シンバル20とスティック40との相対位置を示す情報が含まれる。シンバル20とスティック40との相対位置は、シンバル20に当たるスティック40の所定の打撃部位と、スティック40が当たるシンバル20の所定の被打撃領域との相対的な位置である。
 スティック40の所定の打撃部位は、図4,5で示したシャフト部42、ショルダー部43、チップ部44の三つのうちの一つである。
 シンバル20の所定の被打撃領域は、図3に示すように、複数の被打撃領域21A~21Lのうちの一つである。複数の被打撃領域21A~21Lは、シンバル20の中央を中心とする円形状あるいは円環状に形成され、同心円状に配置されている。図3におけるシンバル20の被打撃領域21A~21Lの数は、12個である。シンバル20の複数の被打撃領域21A~21Lのうち、シンバル20の中央に近い2個の被打撃領域21A,21Bは、シンバル20のカップ部に対応している。カップ部の外側に位置する10個の被打撃領域21C~21Lは、シンバル20のボウ部に対応している。シンバル20の外周縁に位置する被打撃領域21Lは、シンバル20のエッジにも対応している。
 上記したようにスティック40の打撃部位には3種類あり、シンバル20の被打撃領域には12種類あるため、シンバル20とスティック40との相対位置を示す情報は36種類ある。
 また、カメラ11が取得した動画に基づいて制御部12が把握する打撃関連情報には、図6に例示するように、シンバル20に対するスティック40の動きも含まれる。スティック40の動きには、シンバル20に向かうスティック40の所定の打撃部位(図6においてチップ部44)の速度や、シンバル20に対するスティック40の所定の打撃部位の入射角度θsが含まれる。スティック40の動きには、例えばシンバル20に向かうスティック40の所定の打撃部位の軌道(図6において曲線状の軌道Ps)が含まれてもよい。
 また、カメラ11が取得した動画に基づいて制御部12が把握する打撃関連情報には、スティック40によって打撃された際に発生するシンバル20の振動が含まれる。制御部12が把握するシンバル20の振動は、シンバル20の振動の長さを含む。
 制御部12は、上記した打撃関連情報に応じて異なる音色の音の発音の指示を放音部14に出力する。具体的に、制御部12は、把握した打撃関連情報に対応する音色のデータを、予め記憶部13に記憶された図7に示すデータテーブルから読み出し、その音色のデータを含む音の発音の指示を放音部14に出力する。制御部12は、CPU(Central Processing Unit)等のプロセッサであってもよい。記憶部13は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリであってもよい。プロセッサが、記憶部13に記憶されているプログラムを実行することにより、制御部12の機能が実現されてもよい。
 記憶部13には、図7に示すように、打撃関連情報と音色のデータとを対応付けたデータテーブルが格納されている。
 データテーブルには、対応表71が含まれている。対応表71では、シンバル20とスティック40との相対位置と音色のデータとが対応付けられている。本実施形態では、シンバル20とスティック40との相対位置が36種類あるため、これら36種類の相対位置にそれぞれ対応する音色のデータも36種類ある。よって、相対位置に応じて、音色のデータが変ってもよい。
 この対応表71は、シンバル20に対するスティック40の入射角度θsのデータ72(以下、入射角度データ72と呼ぶ。)毎に用意されている。このため、スティック40の入射角度θsが変われば、参照する対応表71も変わる。入射角度データ72は、例えば所定の入射角度θsの範囲毎(例えば10度の範囲毎)に用意されてもよい。よって、相対位置および入射角度θsの範囲(または入射角度θs)に応じて、音色のデータが変ってもよい。
 また、入射角度データ72は、シンバル20に向かうスティック40の速度のデータ73(以下、スティック速度データ73と呼ぶ。)毎に用意されている。このため、スティック40の速度が変われば、参照する入射角度データ72も変わる。スティック速度データ73は、例えば所定の速度の範囲毎に用意されてもよい。よって、相対位置、入射角度θsの範囲(または入射角度θs)、およびスティック40の速度の範囲(またはスティック40の速度)に応じて、音色のデータが変わってもよい。
 制御部12は、上記したデータテーブルを活用することで、打撃関連情報に対応する音色のデータを含む音の発音の指示を放音部14に出力することができる。
 また、制御部12は、把握した打撃関連情報のうちシンバル20に向かうスティック40の所定の打撃部位の速度に応じて異なる音量の音の発音の指示を放音部14に出力する。具体的に、制御部12は、スティック40の速度に対応する音量のデータを、予め記憶部13に記憶された音量のデータテーブルから読み出し、その音量のデータを含む音の発音の指示を放音部14に出力する。記憶部13に記憶される音量のデータテーブルは、スティック40の速度と音量のデータとを対応付けた対応表であってもよい。
 また、制御部12は、把握した打撃関連情報のうちスティック40によって打撃された際に発生するシンバル20の振動のデータ(振動の長さを含むデータ)に応じて、発音する音の長さ(サスティーン)の情報を放音部14に出力する。具体的に、制御部12は、シンバル20の振動が停止するまで、音の発音を持続する指示を放音部14に出力する。
 また、本実施形態の制御部12は、スティック40がシンバル20を打撃する直前における打撃関連情報に基づいて、スティック40がシンバル20を打撃したときの打撃関連情報を予測する。また、制御部12は、予測した打撃関連情報に応じた音の発音の指示を放音部14に出力する。
 具体的に、制御部12は、カメラ11が取得した動画を参照して得られるスティック40の動き及び位置に基づいて、スティック40がシンバル20に到達して打撃するタイミング(時刻)、そのタイミングにおけるスティック40とシンバル20との相対位置、並びに、スティック40の入射角度θs及び速度を予測する。そして、制御部12は、予測した「相対位置」、「入射角度θs」、「速度」の情報に応じた音色データや音量データを記憶部13から読み出し、予測した「タイミング」で放音部14から音が放音されるように、これら音色のデータ、音量のデータを含む音の発音の指示を放音部14に出力する。
 放音部14は、例えば、制御部12から出力された音色のデータ及び音量のデータを含む音の発音の指示に応じて音を放音するスピーカである。
 以上説明したように、本実施形態の打楽器システム1では、カメラ11がシンバル20及びカメラ11を打撃するスティック40の動画を取得する。そして、制御部12は、カメラ11が取得した動画に基づいてシンバル20とスティック40との相対位置を含む打撃関連情報を把握し、スティック40がシンバル20を打撃する動作に応じて、その打撃関連情報に応じた音の発音の指示を放音部14に出力する。これにより、スティック40とシンバル20との相対位置に応じて異なる音色の音を発生させることができる。すなわち、多彩な音色の音を発生させることができる。また、多彩な音色の音を発生させるために、スティック40及びシンバル20を撮影するカメラ11を用意すればよいため、部品点数を増やすことなく、多彩な音色の音を発生させることができる。
 また、本実施形態の打楽器システム1では、スティック40とシンバル20との相対位置が、シンバル20の複数の被打撃領域のうちスティック40で打撃される所定の被打撃領域と、スティック40の複数の打撃部位のうちシンバル20を打撃する所定の打撃部位との相対的な位置である。これにより、スティック40で打撃されるシンバル20の被打撃領域やシンバル20を打撃するスティック40の打撃部位に応じて異なる音色の音を発生させることができる。
 また、本実施形態の打楽器システム1では、制御部12は、スティック40とシンバル20との相対位置に加え、カメラ11が取得した動画に基づいて把握されるスティック40の動きも参照して、音の発音の指示を放音部14に出力する。これにより、制御部12による音の発音の指示に際して参照する情報(打撃関連情報)の種類が増えるため、より多彩な音色の音を発生させることができる。
 また、本実施形態の打楽器システム1では、制御部12は、スティック40によって打撃されたシンバル20の振動をカメラ11が取得した動画に基づいて把握し、そのシンバル20の振動の情報を参照して、発音の長さ(サスティーン)の情報を放音部14に出力する。これにより、打楽器システム1では、アコースティックドラムで発生する音(生の音)により近い音を出力することが可能となる。
 また、本実施形態の打楽器システム1では、制御部12は、スティック40がシンバル20を打撃する直前における打撃関連情報に基づいて、スティック40がシンバル20を打撃したときの打撃関連情報を予測し、予測した打撃関連情報に応じた音の発音の指示を出力する。
 制御部12が、カメラ11から出力された動画に基づいて、打撃関連情報を把握して音の発音の指示を出力するまでには所定の処理時間を要する。そこで、スティック40がシンバル20に接触する直前の打撃関連情報に基づいて制御部12が音の発音の指示を出力することで、スティック40がシンバル20に到達した瞬間に、制御部12の指示に基づいて放音部14から音を出力することができる。これにより、打楽器システム1のユーザ(演奏者)が、自身の演奏について違和感を覚えることを抑制又は防止することができる。
 スティック40の動き(特に速度)を打楽器システム1のユーザ毎に学習することで、制御部12が打撃関連情報に基づいて音の発音の指示を出力するタイミング(放音部14から音を出力させるタイミング)をユーザ毎に適切に処理してもよい。この場合には、ユーザ毎に、放音部14から音を出力するタイミングを打撃する瞬間により適切に合わせることができる。
 また、学習した複数のユーザの演奏データを収集して、打楽器システム1のソフトウェアの改良に利用してもよい。
 また、本実施形態の打楽器システム1において、カメラ11が取得する動画は、所定のシンバル20及びそのシンバル20を打撃するスティック40を、互いに異なる方向から取得する動画である。これにより、制御部12は、三次元空間におけるシンバル20とスティック40との相対位置や、三次元空間におけるスティック40の動きを把握することができる。これにより、制御部12は、これら相対位置やスティック40の動きなどの打撃関連情報をより高い精度で把握することができるため、さらに多彩な音色の音を発生させることが可能となる。
 また、本実施形態の打楽器システム1では、スティック40にマーカー50が設けられている。これにより、制御部12は、カメラ11が取得した動画に基づいて、スティック40の位置を高い精度で把握することができる。したがって、シンバル20とスティック40との相対位置や、スティック40の動きをより正確に把握することができる。
 また、本実施形態では、マーカー50が、スティック40の複数の打撃部位(シャフト部42、ショルダー部43、チップ部44)にそれぞれ設けられている。これにより、シンバル20とスティック40の各打撃部位との相対位置や、スティック40の各打撃部位の動きを正確に把握することができる。
 打撃されることで生の音を積極的に発生するアコースティックなシンバルでは、打撃される態様(打撃されるシンバルの領域、シンバルを打撃するスティックの部位など)に応じて、発生する音色が多彩に変化する。このため、多彩な音色の音を出力する打楽器システム1を本実施形態のようにシンバル20に活用することは、アコースティックなシンバルの生の音に近い音を出力することができるという利点がある。
 以上、本開示について詳細に説明した。本発明は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲において種々の変更を加えることが可能である。
 本開示において、制御部12は、例えばスティック40がシンバル20を打撃する瞬間における打撃関連情報に応じて、音の発音の指示を放音部14に出力してもよい。
 本開示においては、例えば3つ以上のカメラ11が、同一のシンバル20及びこれに対応するスティック40を互いに異なる方向から動画を取得してもよい。この場合には、制御部12は、三次元空間におけるシンバル20とスティック40との相対位置やスティック40の動きをより高い精度で把握することができる。
 また、同一のシンバル20及びこれに対応するスティック40を互いに異なる方向から2種類以上の動画を取得するカメラ11の数は、例えば1つであってもよい。カメラ11の数が1つであっても、鏡を利用することで、同一のシンバル20及びこれに対応するスティック40を互いに異なる複数の方向から2種類以上の動画を同時に取得することができる。したがって、カメラ11の数が1つであっても、制御部12は、1つのカメラ11が取得した2種類以上の動画に基づいて、三次元空間におけるシンバル20とスティック40との相対位置やスティック40の動きを把握することができる。
 また、本開示において、カメラ11は、例えば同一のシンバル20及びこれに対応するスティック40を所定の一方向から1種類の動画だけを取得してもよい。この場合、制御部12は、カメラ11が取得した1つの動画に基づいて二次元平面におけるシンバル20とスティック40との相対位置やスティック40の動きを把握することになる。このため、制御部12が三次元空間におけるシンバル20とスティック40との相対位置やスティック40の動きを把握する場合と比較して、これら相対位置やスティック40の動きを把握する精度は低くなる。ただし、制御部12が、カメラ11が取得した動画に基づいて相対位置やスティック40の動きを把握するために要する処理時間を短縮できる、という利点がある。
 これにより、制御部12が、カメラ11が取得した動画に基づいて音の発音の指示を放音部14に出力するまでの時間を短縮することができる。したがって、制御部12が、例えばスティック40がシンバル20を打撃した瞬間における打撃関連情報に基づいて、音の発音の指示を放音部14に出力しても、スティック40がシンバル20を打撃した瞬間と、その打撃に応じた音が放音部14から放音されるタイミングとの時間差を小さくすることができる。その結果として、打楽器システムのユーザが、自身の演奏について違和感を覚えることを抑制することができる。
 本開示において、同一のシンバル20における複数の被打撃領域は、例えばカップ部、ボウ部及びエッジの3つの領域だけであってもよい。
 本開示では、カメラ11が取得した動画に基づいて、制御部12が把握するシンバル20とスティック40との相対位置は、例えば、スティック40とそのスティック40が当たるシンバル20の所定の被打撃領域との相対的な位置であってもよいし、シンバル20に当たるスティック40の所定の打撃部位と、シンバル20との相対的な位置であってもよい。これらの構成であっても上記実施形態と同様の効果を奏する。また、これらの構成では、制御部12は、シンバル20とスティック40との相対位置を短時間で把握することができる。すなわち、制御部12における情報の処理時間を短くすることができる。
 本開示における被打撃体は、シンバル20に限らず、例えばドラム30であってもよい。この場合、カメラ11は、例えばスティック40及びそのスティック40によって打撃されるドラム30のドラムパッド32の動画を取得すればよい。
 本開示における被打撃体は、例えば打撃されても生の音を積極的に放出しないサイレントタイプの被打撃体であってもよい。すなわち、ドラムセット10における被打撃体としてのシンバル20は、例えば剛性が高い樹脂材料(例えばポリプロピレン(PP)やポリアミド(PA))など任意の材料によって形成されてもよい。また、ドラムセット10における被打撃体としてのドラム30は、例えばゴムパッドやメッシュパッドなどによって構成されてよい。
 本開示の打楽器システムは、例えば記憶部13や放音部14を含まなくてもよい。記憶部13や放音部14は、例えば、打楽器システムとは別個の外部機器として構成され、打楽器システムに有線又は無線で接続されてもよい。
 本開示は、打楽器システムに適用してもよい。
1…打楽器システム
11…カメラ
12…制御部(取得部)
13…記憶部
14…放音部
20…シンバル(被打撃体)
21A~21L…被打撃領域
30…ドラム(被打撃体)
40…スティック(打撃体)
42…シャフト部(打撃部位)
43…ショルダー部(打撃部位)
44…チップ部(打撃部位)
50…マーカー

Claims (13)

  1.  被打撃体及び前記被打撃体を打撃する打撃体を映す動画を取得する取得部と、
     前記動画に基づいて前記被打撃体と前記打撃体との相対位置を示す情報を含む打撃関連情報を取得し、前記打撃関連情報に応じた音の発音の指示を出力する制御部と、を備える打楽器システム。
  2.  前記制御部は、前記打撃体が前記被打撃体を打撃する動作に応じて前記指示を出力する請求項1に記載の打楽器システム。
  3.  前記制御部は、前記打撃関連情報に応じて異なる音色の前記音の発音の指示を出力する請求項1または2に記載の打楽器システム。
  4.  前記打撃関連情報は、前記被打撃体に対する前記打撃体の動きに関連する情報を含む請求項1から請求項3のいずれか一項に記載の打楽器システム。
  5.  前記制御部は、前記打撃体が前記被打撃体を打撃する直前における前記打撃関連情報に基づいて、前記打撃体が前記被打撃体を打撃したときの前記打撃関連情報を予測し、予測した前記打撃関連情報に応じた前記音の発音の指示を出力する請求項4に記載の打楽器システム。
  6.  前記動画は、前記打撃体及び前記被打撃体を互いに異なる方向から取得した2以上の動画を含む請求項1から請求項5のいずれか一項に記載の打楽器システム。
  7.  前記打撃関連情報は、前記打撃体によって打撃された際に発生する前記被打撃体の振動に関する情報を含む請求項1から請求項6のいずれか一項に記載の打楽器システム。
  8.  前記打撃体をさらに含む請求項1から請求項7のいずれか一項に記載の打楽器システム。
  9.  前記打撃体に、マーカーが設けられている請求項8に記載の打楽器システム。
  10.  前記被打撃体は、複数の被打撃領域を有し、
     前記相対位置は、複数の前記被打撃領域のうち前記被打撃体によって打撃される所定の被打撃領域と、前記所定の被打撃領域を打撃する前記打撃体と、の相対的な位置である請求項8又は請求項9に記載の打楽器システム。
  11.  前記被打撃体をさらに含む請求項1から請求項10のいずれか一項に記載の打楽器システム。
  12.  前記被打撃体は、シンバルである請求項11に記載の打楽器システム。
  13.  前記動画を撮影するカメラをさらに備える請求項1から請求項12のいずれか一項に記載の打楽器システム。
PCT/JP2022/019949 2021-06-03 2022-05-11 打楽器システム WO2022255052A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021093855 2021-06-03
JP2021-093855 2021-06-03

Publications (1)

Publication Number Publication Date
WO2022255052A1 true WO2022255052A1 (ja) 2022-12-08

Family

ID=84324327

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/019949 WO2022255052A1 (ja) 2021-06-03 2022-05-11 打楽器システム

Country Status (1)

Country Link
WO (1) WO2022255052A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006133529A (ja) * 2004-11-05 2006-05-25 Yamaha Corp 電子打楽器
JP2012173297A (ja) * 2011-02-17 2012-09-10 Yamaha Corp 演奏装置およびプログラム
JP2016024238A (ja) * 2014-07-16 2016-02-08 ローランド株式会社 電子パッド
WO2021060273A1 (ja) * 2019-09-26 2021-04-01 ヤマハ株式会社 発音制御方法および発音制御装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006133529A (ja) * 2004-11-05 2006-05-25 Yamaha Corp 電子打楽器
JP2012173297A (ja) * 2011-02-17 2012-09-10 Yamaha Corp 演奏装置およびプログラム
JP2016024238A (ja) * 2014-07-16 2016-02-08 ローランド株式会社 電子パッド
WO2021060273A1 (ja) * 2019-09-26 2021-04-01 ヤマハ株式会社 発音制御方法および発音制御装置

Similar Documents

Publication Publication Date Title
JP6024136B2 (ja) 演奏装置、演奏方法及びプログラム
US8759659B2 (en) Musical performance device, method for controlling musical performance device and program storage medium
JP6127367B2 (ja) 演奏装置及びプログラム
JP5966465B2 (ja) 演奏装置、プログラム及び演奏方法
US8710345B2 (en) Performance apparatus, a method of controlling the performance apparatus and a program recording medium
JP5573899B2 (ja) 演奏装置
JP5533915B2 (ja) 習熟度判定装置、習熟度判定方法及びプログラム
US9123268B2 (en) Controller, operation method, and storage medium
US9514729B2 (en) Musical instrument, method and recording medium capable of modifying virtual instrument layout information
WO2022255052A1 (ja) 打楽器システム
JP6398291B2 (ja) 演奏装置、演奏方法及びプログラム
KR101746216B1 (ko) 아두이노를 이용한 에어 드럼 연주장치 및 이의 제어 방법
JP5861517B2 (ja) 演奏装置及びプログラム
JP6111526B2 (ja) 楽音発生装置
JP5942627B2 (ja) 演奏装置、方法及びプログラム
JP6094111B2 (ja) 演奏装置、演奏方法及びプログラム
JP2013044889A (ja) 演奏装置
JP6098083B2 (ja) 演奏装置、演奏方法及びプログラム
JP6098082B2 (ja) 演奏装置、演奏方法及びプログラム
JP5935399B2 (ja) 楽音発生装置
JP2014062945A (ja) 演奏装置、演奏方法及びプログラム
JP5974567B2 (ja) 楽音発生装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22815807

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22815807

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP