JP2011239993A - Sound generation control unit - Google Patents

Sound generation control unit Download PDF

Info

Publication number
JP2011239993A
JP2011239993A JP2010115689A JP2010115689A JP2011239993A JP 2011239993 A JP2011239993 A JP 2011239993A JP 2010115689 A JP2010115689 A JP 2010115689A JP 2010115689 A JP2010115689 A JP 2010115689A JP 2011239993 A JP2011239993 A JP 2011239993A
Authority
JP
Japan
Prior art keywords
sound
block
posture
information
sound generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010115689A
Other languages
Japanese (ja)
Inventor
Yoshiki Nishitani
善樹 西谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2010115689A priority Critical patent/JP2011239993A/en
Publication of JP2011239993A publication Critical patent/JP2011239993A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique for generating sound according to a position relationship between objects disposed by a user.SOLUTION: When the user disposes a block on a surface where a body unit is arranged, posture information on the disposed block is transmitted to the body unit from each block. When the body unit receives a sound generation instruction to all of the disposed blocks from the user, the body unit detects a position relationship, such as distance, or the like between the disposed blocks, generates sound assigned to each block, based on the detected position relationship and the posture information transmitted from each block.

Description

本発明は、物体の位置に応じて発音を制御する技術に関する。   The present invention relates to a technique for controlling sound generation according to the position of an object.

下記特許文献1には、サイコロ等の立方体の面のうち、どの面が上面に位置しているかを検出し、検出した面に応じた音声を出力する技術が開示されている。   Patent Document 1 below discloses a technique for detecting which surface is positioned on the upper surface among cube surfaces such as dice and outputting sound corresponding to the detected surface.

特開2001−241906号公報JP 2001-241906 A

上記従来技術の場合、立方体の面の向きに応じた音を出力することができるが、配置された立方体の位置に応じた音を出力することはできない。
本発明は、ユーザによって配置された物体の位置関係に応じた音を発音させる技術を提供する。
In the case of the above prior art, a sound corresponding to the direction of the cube surface can be output, but a sound corresponding to the position of the arranged cube cannot be output.
The present invention provides a technique for generating a sound according to the positional relationship between objects placed by a user.

本発明の請求項1に係る発音制御装置は、配置された配置対象物の位置関係を検出する検出手段と、発音指示を受付ける受付手段と、前記配置対象物の位置関係に対応する音を示す音制御情報を、前記位置関係を示す情報と対応づけて記憶する制御情報記憶手段と、前記受付手段が前記発音指示を受付けると、前記検出手段によって検出された前記位置関係に対応する前記音制御情報を取得し、取得した前記音制御情報に従って発音装置に発音させる発音制御手段とを備えることを特徴とする。   The sound generation control device according to claim 1 of the present invention shows a detecting means for detecting the positional relationship between the arranged objects to be arranged, a receiving means for receiving a sound generation instruction, and a sound corresponding to the positional relationship between the arranged objects. Control information storage means for storing sound control information in association with information indicating the positional relationship, and the sound control corresponding to the positional relationship detected by the detecting means when the receiving means receives the sound generation instruction It is characterized by comprising sound generation control means for acquiring information and causing a sound generation device to sound according to the acquired sound control information.

また、本発明の請求項2に係る発音制御装置において、配置された前記配置対象物の姿勢を検出する姿勢検出手段を備え、前記制御情報記憶手段は、前記配置対象物の姿勢に対応する音を示す姿勢別音情報を記憶し、前記発音制御手段は、前記検出手段によって検出された前記配置対象物の位置関係に対応する前記音制御情報と、前記姿勢検出手段により検出された姿勢に対応する前記姿勢別音情報とに従って前記発音装置に発音させることを特徴とする。   The sound generation control apparatus according to claim 2 of the present invention further includes posture detection means for detecting the posture of the placed arrangement object, and the control information storage means is a sound corresponding to the posture of the arrangement object. The sound control means corresponds to the sound control information corresponding to the positional relationship of the object to be detected detected by the detection means and the attitude detected by the attitude detection means. The sound generation device is caused to generate a sound according to the sound information by posture.

また、本発明の請求項3に係る発音制御装置において、前記配置対象物が配置される位置に対応する音高を示す音高情報を記憶する位置情報記憶手段を備え、前記検出手段は、配置された前記配置対象物の位置を検出し、前記発音制御手段は、前記受付手段が前記発音指示を受付けると、前記検出手段によって検出された前記配置対象物の位置に対応する音高情報を前記位置情報記憶手段から特定し、前記配置対象物の前記位置関係に応じた前記音制御情報に従って、特定した音高情報に基づく音を前記発音装置に発音させることを特徴とする。   The sound generation control device according to claim 3 of the present invention further comprises position information storage means for storing pitch information indicating a pitch corresponding to a position where the placement object is placed, and the detection means includes a placement information storage means. Detecting the position of the placement object, and the sound generation control means, when the reception means accepts the sound generation instruction, the pitch information corresponding to the position of the placement object detected by the detection means The sound generation device is caused to generate a sound based on the specified pitch information in accordance with the sound control information specified from the position information storage means and according to the positional relationship of the placement object.

また、本発明の請求項4に係る発音制御装置において、前記配置対象物に予め割当てられている音を示す割当音情報を前記配置対象物毎に記憶する割当音情報記憶手段を備え、前記発音制御手段は、前記受付手段が前記発音指示を受付けると、配置された各配置対象物に対応する前記割当音情報を前記割当音情報記憶手段から特定し、特定した前記割当音情報に基づく音を予め定められた順序に従って前記発音装置に発音させることを特徴とする。   The sound generation control device according to claim 4 of the present invention further comprises assigned sound information storage means for storing assigned sound information indicating a sound pre-assigned to the placement object for each placement object. When the receiving means receives the sound generation instruction, the control means specifies the assigned sound information corresponding to each placed object to be placed from the assigned sound information storage means, and generates a sound based on the specified assigned sound information. The sound generating device is caused to generate a sound according to a predetermined order.

また、本発明の請求項5に係る発音制御装置は、利用者が把持して配置可能な形状を有する複数の前記配置対象物を備えることを特徴とする。   The sound generation control device according to claim 5 of the present invention is characterized by comprising a plurality of the arrangement objects having a shape that can be held and arranged by a user.

本発明の請求項1及び請求項5に係る発音制御装置によれば、配置対象物の位置関係に応じた音を発音させることができる。   According to the sound generation control device according to claims 1 and 5 of the present invention, it is possible to generate a sound according to the positional relationship between the arrangement objects.

本発明の請求項2に係る発音制御装置によれば、配置対象物の位置関係だけでなく配置対象物が配置された姿勢に応じた音を発音させることができる。   According to the sound generation control device according to the second aspect of the present invention, it is possible to generate a sound corresponding not only to the positional relationship of the arrangement target object but also to the posture in which the arrangement target object is arranged.

本発明の請求項3に係る発音制御装置によれば、配置対象物の位置に対応する音を配置対象物の位置関係に応じて発音させることができる。   According to the sound generation control device according to claim 3 of the present invention, it is possible to generate a sound corresponding to the position of the arrangement target according to the positional relationship of the arrangement target.

本発明の請求項4に係る発音制御装置によれば、配置された配置対象物に割当てられている音を予め定めた順序で発音させることができる。   According to the sound generation control device according to claim 4 of the present invention, sounds assigned to the arranged objects to be arranged can be sounded in a predetermined order.

実施形態1に係る楽音発音装置の構成例を示す図である。It is a figure which shows the structural example of the musical tone sound generation apparatus which concerns on Embodiment 1. FIG. (a)及び(b)は、実施形態1に係るブロックを説明する図である。(A) And (b) is a figure explaining the block which concerns on Embodiment 1. FIG. (a)は、実施形態1に係るブロックの構成例を示すブロック図である。(b)は実施形態1に係る本体装置の構成例を示すブロック図である。FIG. 3A is a block diagram illustrating a configuration example of a block according to the first embodiment. FIG. 2B is a block diagram illustrating a configuration example of a main body device according to the first embodiment. (a)から(d)は、実施形態1に係る本体装置に記憶されている各種テーブルの構成例を表す図である。(A) to (d) is a diagram illustrating a configuration example of various tables stored in the main device according to the first embodiment. 実施形態1に係る楽音発音装置の動作フローを示す図である。It is a figure which shows the operation | movement flow of the musical tone sound generation apparatus which concerns on Embodiment 1. FIG. 実施形態2に係る楽音発音装置の本体装置を示す図である。It is a figure which shows the main body apparatus of the musical tone sound generation apparatus which concerns on Embodiment 2. FIG. 実施形態2に係る本体装置の構成を示すブロック図である。It is a block diagram which shows the structure of the main body apparatus which concerns on Embodiment 2. FIG. (a)から(c)は、実施形態2に係る本体装置に記憶されている各種テーブルの構成例を示す図である。(A) to (c) is a diagram showing a configuration example of various tables stored in the main device according to the second embodiment. 実施形態2に係る本体装置の動作フローを示す図である。FIG. 10 is a diagram illustrating an operation flow of the main body apparatus according to the second embodiment. 実施形態3に係る楽音発音装置を示す図である。It is a figure which shows the musical tone sound generator which concerns on Embodiment 3. FIG. (a)から(d)は、実施形態3に係る楽音発音装置の本体装置において記憶されている各種テーブルの構成例を示す図である。(A)-(d) is a figure which shows the structural example of the various tables memorize | stored in the main body apparatus of the musical tone sound generation apparatus which concerns on Embodiment 3. FIG. 実施形態3に係る本体装置の動作フローを示す図である。FIG. 10 is a diagram illustrating an operation flow of a main body apparatus according to a third embodiment.

<実施形態1>
(概要)
図1は、本発明の実施形態1に係る発音制御装置と発音装置とを含む楽音発音装置の例を示している。図1に示すように、楽音発音装置1は、配置対象物である複数のブロック10a〜10d(以下、ブロックを区別しないときはブロック10と呼ぶ)と本体装置20とから構成されている。ブロック10は、立方体の形状を有し、子供の手で把持可能な大きさで構成されている。また、ブロック10には予め定められた音と色が割当てられている。ブロック10には、割当てられている色と同じ色が塗られ、ブロック10の各面には、図1に示すように、面毎に異なる図柄が描かれている。
本体装置20は、ブロック10が配置される水平な面200(以下、配置面と言う)を有し、ブロック10が配置される領域を除く配置面200上には、後述する操作ボタン20a及び20bが設けられている。
本実施形態に係る楽音発音装置1は、本体装置20の配置面200に配置されたブロック10の面の向き(姿勢)に応じた個々のブロック10の音を、ブロック10間の位置関係に応じた長さで発音するものであり、ブロック10の面の向き(姿勢)、ブロック10間の位置関係を変化させることで異なる音楽を生成して楽しむことができる知育玩具として利用することができる。以下、本実施形態に係る楽音発音装置1の詳細について説明する。
<Embodiment 1>
(Overview)
FIG. 1 shows an example of a musical tone sounding device including a sounding control device and a sounding device according to Embodiment 1 of the present invention. As shown in FIG. 1, the musical tone sound generation device 1 includes a plurality of blocks 10 a to 10 d (hereinafter, referred to as a block 10 when not distinguished from each other) that are objects to be arranged, and a main body device 20. The block 10 has a cubic shape and has a size that can be grasped by a child's hand. A predetermined sound and color are assigned to the block 10. The block 10 is painted with the same color as the assigned color, and on each surface of the block 10, a different pattern is drawn for each surface as shown in FIG.
The main body device 20 has a horizontal surface 200 (hereinafter referred to as an arrangement surface) on which the block 10 is arranged, and operation buttons 20a and 20b to be described later are arranged on the arrangement surface 200 excluding an area where the block 10 is arranged. Is provided.
The musical sound generating device 1 according to the present embodiment is configured to output the sounds of the individual blocks 10 according to the orientation (posture) of the blocks 10 arranged on the arrangement surface 200 of the main body device 20 according to the positional relationship between the blocks 10. It can be used as an educational toy that can generate and enjoy different music by changing the orientation (posture) of the surface of the block 10 and the positional relationship between the blocks 10. Hereinafter, details of the tone generator 1 according to the present embodiment will be described.

(ブロック10の構成)
図2(a)は、本実施形態で用いるブロック10a〜10gを示している。これらのブロックには、ピアノ等の楽器の音色でドレミファソラシの各音が割当てられている。これらの各ブロックは全て同様に構成されているブロック10の内部には電池(図示略)が内蔵されており、ブロック10の表面には、電源のオンオフを切替える電源スイッチ(図示略)が設けられている。図2(b)には、便宜上、図柄を描いていないが、図2(b)はブロック10を示している。図2(b)に示すようにブロック10の内部には、3軸(XYZ軸)の加速度センサ12が設けられており、ブロック10の姿勢に応じた重力加速度を含む加速度が各軸方向について検出される。
(Configuration of block 10)
FIG. 2A shows blocks 10a to 10g used in this embodiment. These blocks are assigned to each sound of Doremi Fasolashi in the tone color of a musical instrument such as a piano. Each of these blocks is configured in the same manner. A battery (not shown) is built in the block 10, and a power switch (not shown) for switching on / off of the power is provided on the surface of the block 10. ing. Although FIG. 2B does not draw a symbol for the sake of convenience, FIG. 2B shows the block 10. As shown in FIG. 2B, a triaxial (XYZ axis) acceleration sensor 12 is provided inside the block 10, and acceleration including gravitational acceleration corresponding to the posture of the block 10 is detected in each axial direction. Is done.

図3(a)は、ブロック10の構成を示すブロック図である。ブロック10は、制御部11、姿勢情報検出部12、通信部13を含んで構成されている。制御部11は、CPU(Central Processing Unit)と、ROM(Read Only Memory)及びRAM(Random Access Memory)のメモリとを含んで構成されている。CPUは、ROMに記憶されている制御プログラムを実行することにより制御部11と接続されている各部を制御する。姿勢情報検出部12は、上述した3軸の加速度センサを有しており、ブロック10aに定義された各軸方向における加速度の値を一定時間毎に(例えば5msec)に検出して出力する。   FIG. 3A is a block diagram showing the configuration of the block 10. The block 10 includes a control unit 11, an attitude information detection unit 12, and a communication unit 13. The control unit 11 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory) memory. The CPU controls each unit connected to the control unit 11 by executing a control program stored in the ROM. The posture information detection unit 12 includes the above-described three-axis acceleration sensor, and detects and outputs an acceleration value in each axis direction defined in the block 10a at regular time intervals (for example, 5 msec).

通信部13は、例えば通信距離が3cm以内の近接無線通信を行うためのアンテナを含む通信手段であり、本体装置20との間の距離が所定通信距離内であるときに通信を確立してデータ通信を行う。本実施形態では、制御部11の制御の下、姿勢検出部12において逐次出力される各軸方向の加速度値と、ブロック10の識別子として予め設定されているブロックIDとを姿勢情報として本体装置20へ送信する。   The communication unit 13 is a communication unit including an antenna for performing close proximity wireless communication with a communication distance of 3 cm or less, for example, and establishes communication when the distance to the main body device 20 is within a predetermined communication distance, and data Communicate. In the present embodiment, under the control of the control unit 11, the body device 20 uses the acceleration value in each axial direction sequentially output from the posture detection unit 12 and a block ID set in advance as an identifier of the block 10 as posture information. Send to.

(本体装置20)
次に本体装置20について説明する。図3(b)は、本体装置20の構成を示すブロック図である。本体装置20は、発音制御装置としての機能を有する制御部21、記憶部22、通信部23、操作部24、位置検出部25と、発音装置としての機能を有する音源部26と音声出力部27を含んで構成されている。制御部21は、CPUと、ROM及びRAMのメモリとを含んで構成されており、RAMをワーキングエリアとしてROMに記憶された制御プログラムを実行することで制御部21と接続された各部を制御する。具体的には、制御部21は、ブロック10から姿勢情報を受信し、受信した姿勢情報に基づいてブロック10の姿勢を検出する姿勢検出手段としての機能と、配置されたブロック10の位置関係を検出する検出手段としての機能と、検出した位置関係と姿勢に応じてブロック10に割当てられている楽音の発音を制御する発音制御手段としての機能を有する。
(Main unit 20)
Next, the main body device 20 will be described. FIG. 3B is a block diagram illustrating a configuration of the main body device 20. The main unit 20 includes a control unit 21 having a function as a sound generation control device, a storage unit 22, a communication unit 23, an operation unit 24, a position detection unit 25, a sound source unit 26 having a function as a sound generation device, and an audio output unit 27. It is comprised including. The control unit 21 includes a CPU and a ROM and a RAM memory, and controls each unit connected to the control unit 21 by executing a control program stored in the ROM using the RAM as a working area. . Specifically, the control unit 21 receives posture information from the block 10, and functions as posture detection means for detecting the posture of the block 10 based on the received posture information and the positional relationship between the arranged blocks 10. It has a function as a detection means for detecting, and a function as a sound generation control means for controlling the sound generation of the musical sound assigned to the block 10 according to the detected positional relationship and posture.

また、記憶部22は、内蔵又は外付けされる不揮発性メモリ等の記憶手段であり、ブロック情報テーブル(割当音情報)、ブロック毎の姿勢別音情報テーブル(姿勢別音情報)、姿勢判定テーブル、ブロック間距離情報テーブル(音制御情報)が記憶されている。ここで、図4(a)は、ブロック情報テーブルの構成例及びデータ例を示している。ブロック情報テーブル410は、各ブロック10を識別するためのブロックIDと、ブロック10に割当てられている色と音高とが対応づけられている。   The storage unit 22 is a storage unit such as a built-in or external nonvolatile memory, and includes a block information table (assigned sound information), a sound information table for each posture (sound information for each posture), and a posture determination table. An inter-block distance information table (sound control information) is stored. Here, FIG. 4A shows a configuration example and data example of the block information table. In the block information table 410, a block ID for identifying each block 10, and a color and a pitch assigned to the block 10 are associated with each other.

また、姿勢別音情報テーブルは、各ブロック10の各面に割当てられている音の情報を記憶する。図4(b)は、一例として、ブロックID“100”に対応する姿勢別音情報テーブルの構成例及びデータ例を示している。この例では、姿勢別音情報テーブル420は、ブロックID“100”のブロック10の姿勢に対応する音、図柄の情報が対応付けられている。姿勢情報は、ブロック10が水平な面に置かれたときに上面となる面を示し、各面には、当該面に描かれている図柄を示す情報が対応づけられている。
この例では、図柄420aが描かれた面1が上面となる姿勢のときに、所定の音高ドを示す楽音が発音される。また、図柄420bが描かれた面2が上面となる姿勢のときは、上記音高ドを半音上げた楽音が発音され、図柄420cが描かれた面3が上面となる姿勢では、上記音高ドを半音下げた楽音が発音される。また、図柄420dが描かれた面4が上面となる姿勢のときは、面1の音高ドを1オクターブ上げた音高ドを示す楽音が発音される。図柄420eが描かれた面5が上面となる姿勢では、面2の音高を更に半音上げた楽音が発音され、図柄420fが描かれた面6が上面となる姿勢では、面3の音高を更に半音下げた楽音が発音される。
Also, the sound information table for each posture stores information on the sound assigned to each surface of each block 10. FIG. 4B shows a configuration example and a data example of the posture-specific sound information table corresponding to the block ID “100” as an example. In this example, the sound information table 420 for each posture is associated with sound and symbol information corresponding to the posture of the block 10 with the block ID “100”. The posture information indicates a surface that is an upper surface when the block 10 is placed on a horizontal surface, and information indicating a symbol drawn on the surface is associated with each surface.
In this example, when the surface 1 on which the pattern 420a is drawn is in an upper surface, a musical sound indicating a predetermined pitch is generated. Also, when the surface 2 on which the symbol 420b is drawn is an upper surface, a musical tone is generated by raising the pitch by a semitone, and when the surface 3 on which the symbol 420c is drawn is an upper surface, the pitch is increased. A tone with a semitone down is produced. When the surface 4 on which the pattern 420d is drawn is in the upper surface, a musical tone indicating the pitch value obtained by raising the pitch value of the surface 1 by one octave is generated. In the posture in which the surface 5 on which the pattern 420e is drawn is the upper surface, a musical tone is generated by further raising the pitch of the surface 2 by a semitone, and in the posture in which the surface 6 on which the pattern 420f is drawn is the upper surface, the pitch of the surface 3 A tone that is further lowered by a semitone is produced.

このように、本実施形態における本体装置20には、ブロック10の姿勢に応じて、ブロック10に割当てられている音を変化させる情報が記憶される。なお、上記姿勢別音情報テーブル420には、説明の便宜上、姿勢に対応する図柄を示す情報が含まれていたが、ブロック10の姿勢毎に音の情報が対応づけられていれば、図柄を示す情報が含まれていなくてもよい。   As described above, the main body device 20 according to the present embodiment stores information for changing the sound assigned to the block 10 according to the posture of the block 10. The posture-specific sound information table 420 includes information indicating a symbol corresponding to the posture for convenience of explanation. However, if the sound information is associated with each posture of the block 10, the symbol is displayed. The information to be indicated may not be included.

次に、姿勢判定テーブルについて説明する。図4(c)は、姿勢判定テーブルの構成例及びデータ例を示している。姿勢判定テーブル430は、ブロック10の姿勢と、当該姿勢を判定する判定条件とが対応づけられている。ブロックの姿勢情報は、上述した姿勢別音情報テーブル420の姿勢と同様であり、ブロック10が水平な面に置かれたときに上面となる面を示し、当該面が上面となる姿勢のときに、加速度センサ12によって1Gの重力加速度が検出される軸の正負の方向が、当該面に対応する軸方向として対応づけられている。   Next, the posture determination table will be described. FIG. 4C shows a configuration example and data example of the posture determination table. In the posture determination table 430, the posture of the block 10 is associated with the determination conditions for determining the posture. The posture information of the block is the same as the posture of the sound information table 420 by posture described above, and indicates the surface that becomes the upper surface when the block 10 is placed on a horizontal surface, and when the surface is the posture that becomes the upper surface. The positive and negative directions of the axis at which 1G gravitational acceleration is detected by the acceleration sensor 12 are associated with each other as the axial direction corresponding to the surface.

次に、ブロック間距離情報テーブルについて説明する。図4(d)は、ブロック間距離情報テーブルの構成例及びデータ例を示している。ブロック間距離情報テーブル440は、配置面200におけるブロック10間の位置関係を表すブロック間距離と、距離に対応する音の長さとが対応づけられて記憶されている。この例では、ブロック10間の距離がd1以上d2未満である場合には16分音符の音の長さ、d2以上d3未満であれば8分音符の音の長さが対応づけられており、ブロック10間の距離が長くなるほど音の長さが長くなるように設定されている。本実施形態では、ブロック10が配置された順に各ブロック10の音を発音する。例えば、最初にブロック10aが配置され、その後ブロック10bが配置された場合において、これらのブロック間の距離dがd2以上d3未満であるときには、ブロック10aの姿勢に対応する音を8分音符の音の長さで発音し、最後に配置されたブロック10bの姿勢に対応する音を基準の音の長さである4分音符の音の長さで発音する。なお、本実施形態では、最後に配置されたブロック10の音の長さは、4分音符の音の長さで発音するように構成するが、例えば、音が割当てられていないブロック10を予め設け、当該ブロック10を最後に配置することで、当該ブロック10の前に配置されたブロック10と当該ブロック10との距離に応じた音の長さに調整できるように構成してもよい。   Next, the inter-block distance information table will be described. FIG. 4D shows a configuration example and data example of the inter-block distance information table. The inter-block distance information table 440 stores an inter-block distance representing a positional relationship between the blocks 10 on the arrangement surface 200 and a sound length corresponding to the distance in association with each other. In this example, when the distance between the blocks 10 is not less than d1 and less than d2, the length of the sound of the sixteenth note is associated, and if it is not less than d2 and less than d3, the length of the sound of the eighth note is associated. The length of the sound is set to be longer as the distance between the blocks 10 is longer. In the present embodiment, the sound of each block 10 is generated in the order in which the blocks 10 are arranged. For example, when the block 10a is first arranged and then the block 10b is arranged, and the distance d between these blocks is not less than d2 and less than d3, the sound corresponding to the posture of the block 10a is the sound of an eighth note. The sound corresponding to the posture of the block 10b arranged last is pronounced with the length of the quarter note, which is the length of the reference sound. In the present embodiment, the sound length of the block 10 arranged last is configured to sound with the length of the sound of a quarter note, but for example, the block 10 to which no sound is assigned is previously stored. It may be configured so that the sound length can be adjusted according to the distance between the block 10 arranged in front of the block 10 and the block 10 by arranging the block 10 last.

図3に戻り、本体装置20の構成の説明を続ける。通信部23は、上述した通信部13と同様、近接無線通信を行うためのアンテナを含む通信手段であり、本体装置20の配置面200に接触したブロック10と無線接続できるように複数のアンテナが設けられている。操作部24は、図1に示す、本体装置20の電源(図示略)のオンオフを切替える操作ボタン20a(以下、電源ボタン20aと言う)と、ユーザから発音指示を受付ける受付手段としての機能を有する操作ボタン20b(以下、発音指示ボタン20bと言う)を有し、ユーザによるボタン操作を示す操作信号を制御部21へ送出する。この発音指示ボタン20bは、ユーザが本体装置20にブロック10を配置し終えたときに、配置されたブロック全体の音の発音を指示する場合に押下される。   Returning to FIG. 3, the description of the configuration of the main device 20 is continued. Similar to the communication unit 13 described above, the communication unit 23 is a communication unit including an antenna for performing close proximity wireless communication, and a plurality of antennas are provided so as to be wirelessly connected to the block 10 in contact with the arrangement surface 200 of the main body device 20. Is provided. The operation unit 24 has an operation button 20a (hereinafter, referred to as a power button 20a) for switching on / off of a power supply (not shown) of the main body device 20 shown in FIG. 1 and a function as a reception unit that receives a sound generation instruction from a user. An operation button 20b (hereinafter referred to as a sound generation instruction button 20b) is provided, and an operation signal indicating a button operation by the user is sent to the control unit 21. The sound generation instruction button 20b is pressed when the user instructs the sound generation of the entire arranged block when the user finishes arranging the block 10 on the main body device 20.

位置検出部25は、ブロック10が配置される本体装置20の配置面200の裏面側に所定間隔毎に設けられた接触センサ(図示略)を有して構成される。位置検出部25は、接触センサによりブロック10が配置されたか否かを検出し、配置されたブロック10の位置を検出する。配置面200上には、予めXY平面が定義されており、ブロック10が配置された位置を示すXY座標が位置検出部25により検出されて制御部21へ送出される。音源部26は、制御部21の制御の下、ブロック10に割当てられている音の楽音信号を生成して出力する。音声出力部27は、音源部26から出力された楽音信号を増幅する増幅部と、増幅された楽音信号の楽音を放音するスピーカを有し、楽音信号を増幅してスピーカから出力する。   The position detection unit 25 is configured to include contact sensors (not shown) provided at predetermined intervals on the rear surface side of the arrangement surface 200 of the main body device 20 where the block 10 is arranged. The position detection unit 25 detects whether or not the block 10 is arranged by the contact sensor, and detects the position of the arranged block 10. An XY plane is defined on the arrangement plane 200 in advance, and XY coordinates indicating the position where the block 10 is arranged are detected by the position detection unit 25 and sent to the control unit 21. The sound source unit 26 generates and outputs a musical tone signal of a sound assigned to the block 10 under the control of the control unit 21. The audio output unit 27 includes an amplification unit that amplifies the musical tone signal output from the sound source unit 26 and a speaker that emits the musical tone of the amplified musical tone signal, and amplifies the musical tone signal and outputs it from the speaker.

(動作)
本実施形態に係る楽音発音装置1の動作について説明する。図5は、本実施形態に係る楽音発音装置1の動作フローを示している。以下の説明において、ブロック10及び本体装置20の電源はオンの状態に設定されているものとする。
(Operation)
The operation of the tone generator 1 according to this embodiment will be described. FIG. 5 shows an operation flow of the musical tone sounding apparatus 1 according to the present embodiment. In the following description, it is assumed that the power of the block 10 and the main body device 20 is set to an on state.

ブロック10の制御部11は、ブロック10の姿勢情報として、姿勢情報検出部12において各軸方向の加速度を所定時間毎に検出する(ステップS11)。制御部11は、ユーザによってブロック10が本体装置20の配置面200に配置されたときに、本体装置20との間で通信を確立し(ステップS12:YES)、姿勢情報検出部12において検出された各軸方向の加速度とブロックIDとを含む姿勢情報を、通信部13を介して本体装置20へ送信する(ステップS13)。なお、制御部11は、本体装置20との間で一定時間内に通信が確立されなければ(ステップS12:NO)、処理を終了する。   The control unit 11 of the block 10 detects the acceleration in each axis direction at predetermined time intervals in the posture information detection unit 12 as the posture information of the block 10 (step S11). When the block 10 is arranged on the arrangement surface 200 of the main body device 20 by the user, the control unit 11 establishes communication with the main body device 20 (step S12: YES), and is detected by the posture information detection unit 12. The attitude information including the acceleration in each axial direction and the block ID is transmitted to the main body device 20 via the communication unit 13 (step S13). If communication is not established with the main unit 20 within a certain time (step S12: NO), the control unit 11 ends the process.

本体装置20の制御部21は、位置検出部25からブロック10の位置を示す座標が出力され、本体装置20の配置面200にブロック10が配置されたと判断する(ステップS20:YES)。また、制御部21は、ブロック10が配置された際に、ブロック10から送信された姿勢情報を受信し(ステップS21)、受信した姿勢情報に含まれているブロックIDを抽出し、配置された順に各ブロック10のブロックIDと座標の情報をRAMに記憶する(ステップS22)。   The control unit 21 of the main device 20 outputs coordinates indicating the position of the block 10 from the position detection unit 25, and determines that the block 10 is arranged on the arrangement surface 200 of the main device 20 (step S20: YES). Further, when the block 10 is arranged, the control unit 21 receives the posture information transmitted from the block 10 (step S21), extracts the block ID included in the received posture information, and arranged. The block ID and coordinate information of each block 10 are stored in the RAM in order (step S22).

また、制御部21は、姿勢情報に含まれている各軸の加速度と、記憶部22内の姿勢判定テーブル430とに基づいて、当該ブロック10の姿勢を判定する(ステップS23)。即ち、制御部21は、各軸について検出された加速度のうち、1Gの重力加速度が検出された軸と方向(正又は負)を特定し、姿勢判定テーブル430において、特定した軸と方向が対応づけられている面を特定する。   Further, the control unit 21 determines the posture of the block 10 based on the acceleration of each axis included in the posture information and the posture determination table 430 in the storage unit 22 (step S23). That is, the control unit 21 identifies the axis and direction (positive or negative) in which 1G gravity acceleration is detected among the accelerations detected for each axis, and the identified axis and direction correspond to each other in the posture determination table 430. Identify the attached face.

制御部21は、ステップS23において記憶したブロックIDに対応するブロック10について判定した姿勢に対応する音を姿勢別音情報テーブル420から特定し、特定した音の長さが一定の長さ(例えば、4分音符に対応する長さ)となるように音源部26において楽音信号を生成する。そして、生成した楽音信号を音声出力部27において増幅し、増幅した楽音信号に基づく楽音を1回だけ発音する(ステップS24)。
なお、制御部21により、各ブロックIDについて特定した音と座標の情報はブロックIDと対応づけてブロック10の姿勢が変化するまでRAMに配置された順序でで順次記憶され、ブロック10の姿勢が変化した場合には、当該ブロック10のブロックIDに対応づけられている音と座標の情報は消去される。
The control unit 21 identifies the sound corresponding to the posture determined for the block 10 corresponding to the block ID stored in step S23 from the posture-specific sound information table 420, and the length of the identified sound is a certain length (for example, A tone signal is generated in the sound source unit 26 so as to have a length corresponding to a quarter note). Then, the generated musical tone signal is amplified by the voice output unit 27, and a musical tone based on the amplified musical tone signal is generated only once (step S24).
The sound and coordinate information specified for each block ID by the control unit 21 are sequentially stored in the order in which they are arranged in the RAM until the posture of the block 10 changes in association with the block ID, and the posture of the block 10 is changed. When changed, the sound and coordinate information associated with the block ID of the block 10 is deleted.

そして、ユーザは、本体装置20の配置面200に所望する順序で各ブロック10を配置し終えた場合に、発音指示ボタン20bを押下する。これにより、制御部21は、操作部24から発音指示を示す操作信号を取得し、ブロック10の配置が完了したと判断する(ステップS25:YES)。制御部21は、RAMに記憶されているブロックIDの座標に基づいて、配置順にブロック10間の距離を検出し、検出した距離に対応する音の長さをブロック間距離情報テーブル440から特定する。制御部21は、ブロックIDに対応づけられた音の情報と特定した音の長さとに基づく楽音信号を音源部26において生成し、音声出力部27において楽音信号を増幅して順次発音する(ステップS26)。この処理により、ユーザが配置したブロック10の順序で、ブロック10間の距離とブロック10の姿勢に応じた楽音が発音される。   Then, when the blocks 10 have been arranged in the desired order on the arrangement surface 200 of the main body device 20, the user presses the sound generation instruction button 20b. Thereby, the control part 21 acquires the operation signal which shows a sound generation instruction from the operation part 24, and judges that arrangement | positioning of the block 10 was completed (step S25: YES). The control unit 21 detects the distance between the blocks 10 in the arrangement order based on the coordinates of the block ID stored in the RAM, and specifies the length of the sound corresponding to the detected distance from the inter-block distance information table 440. . The control unit 21 generates a musical sound signal based on the sound information associated with the block ID and the specified sound length in the sound source unit 26, amplifies the musical sound signal in the audio output unit 27, and sequentially generates the sound (step) S26). By this process, musical sounds corresponding to the distance between the blocks 10 and the posture of the blocks 10 are generated in the order of the blocks 10 arranged by the user.

なお、ステップS20において、制御部21は、位置検出部25からブロック10の位置を示す座標が出力されなければ(ステップS20:NO)、ブロック10が配置されていないと判断し、本体装置20の電源ボタン20aをオフに切替える操作がなされるまで(ステップ27:NO)、ステップS20の処理を行い、電源ボタン20aをオフに切替える操作がなされたときに(ステップS27:YES)、処理を終了する。また、ステップS25において、制御部21は、発音指示ボタン20bが押下されるまで、即ち、ブロック10の配置が完了するまでは(ステップS25:NO)、ステップS20以下の処理を繰り返し行う。   In step S20, if the coordinates indicating the position of the block 10 are not output from the position detection unit 25 (step S20: NO), the control unit 21 determines that the block 10 is not arranged, and the main unit 20 Until the operation to switch off the power button 20a is performed (step 27: NO), the process of step S20 is performed, and when the operation to switch off the power button 20a is performed (step S27: YES), the process is terminated. . In step S25, the control unit 21 repeats the processing from step S20 onward until the sound generation instruction button 20b is pressed, that is, until the arrangement of the block 10 is completed (step S25: NO).

ブロック10の制御部11は、電源スイッチをオフに切替える操作がなされるまで(ステップS14:NO)、ステップS11以下の処理を繰り返し、電源スイッチをオフに切替える操作がなされたときに(ステップS14:YES)、処理を終了する。   The control unit 11 of the block 10 repeats the processing from step S11 onward until an operation for switching off the power switch is performed (step S14: NO), and when an operation for switching off the power switch is performed (step S14: YES), the process ends.

上述した実施形態では、本体装置20に配置されたブロックの姿勢、及びブロック間の距離に応じた楽音が発音されるため、ブロックの位置や姿勢を変化させることで異なるリズムの音楽を簡単に作ることができる。また、ブロック間の距離によって音の長さを変えることができるので、直感的に音の長さを調整することができる。   In the above-described embodiment, musical sounds are generated according to the posture of the blocks arranged in the main body device 20 and the distance between the blocks. Therefore, music with different rhythms can be easily created by changing the position and posture of the blocks. be able to. Moreover, since the length of a sound can be changed according to the distance between blocks, the length of a sound can be adjusted intuitively.

<実施形態2>
本実施形態に係る楽音発音装置は、実施形態1と同様に、ブロック10と本体装置20とで構成されている。図6は、本実施形態に係る本体装置20を上面から見た図である。本実施形態では、本体装置20の配置面200は画像等を表示する表示面として機能し、図6の破線枠内に、予め定められたブロック10の位置や姿勢(ブロック10の上面の図柄)を示す模範画像30を提示する。そして、模範画像30と同様の配置及び姿勢となるようにユーザが配置したブロック10の配置及び姿勢と模範画像30とが一致している場合には、正解を示す音を報知し、一致していない場合には、不正解を示す音を報知する。
なお、本実施形態で用いるブロック10は、実施形態1と同様の図柄が各面に描かれ、ブロック10毎に異なる色が割当てられているが、実施形態1のようにブロック毎に音が割当てられているものではない。また、図6に示すように、本実施形態における本体装置20には、実施形態1と同様の電源ボタン20a及び発音指示ボタン20bに加え、配置面200に表示する模範画像を選択する選択ボタン20cと、選択された模範画像を決定する決定ボタン20dが設けられている。
<Embodiment 2>
The musical tone generating apparatus according to the present embodiment is composed of a block 10 and a main body apparatus 20 as in the first embodiment. FIG. 6 is a view of the main body device 20 according to the present embodiment as viewed from above. In the present embodiment, the arrangement surface 200 of the main body device 20 functions as a display surface for displaying an image and the like, and a predetermined position and posture of the block 10 (design on the upper surface of the block 10) within a broken line frame in FIG. An exemplary image 30 showing is shown. Then, when the arrangement and posture of the block 10 arranged by the user so as to have the same arrangement and posture as the model image 30 and the model image 30 match, a sound indicating a correct answer is notified and matches. If not, a sound indicating an incorrect answer is notified.
The block 10 used in the present embodiment has the same design as that of the first embodiment on each surface, and a different color is assigned to each block 10, but a sound is assigned to each block as in the first embodiment. It is not what has been done. As shown in FIG. 6, the main body device 20 according to the present embodiment includes a selection button 20 c for selecting a model image to be displayed on the arrangement surface 200 in addition to the power button 20 a and the sound generation instruction button 20 b similar to those of the first embodiment. Then, a determination button 20d for determining the selected model image is provided.

(構成)
以下、本実施形態に係る楽音発音装置1の構成について説明する。なお、以下の説明において、実施形態1と同様の構成については、実施形態1と同じ符号を用い、実施形態1と異なる部分について説明を行う。図7は、本実施形態に係る本体装置20の構成を示すブロック図である。
(Constitution)
Hereinafter, the configuration of the musical tone generating device 1 according to the present embodiment will be described. In the following description, the same components as those in the first embodiment are denoted by the same reference numerals as those in the first embodiment, and different parts from the first embodiment will be described. FIG. 7 is a block diagram illustrating a configuration of the main device 20 according to the present embodiment.

図7に示すように、本実施形態では、実施形態1の構成に加えて、表示部28を含んで構成されている。表示部28は、液晶ディスプレイ等の表示装置で構成され、制御部21の制御の下、模範画像等の画像を表示する機能を有すると共に、本体装置20の配置面200としても機能する。   As shown in FIG. 7, in this embodiment, in addition to the structure of Embodiment 1, it is comprised including the display part 28. As shown in FIG. The display unit 28 is configured by a display device such as a liquid crystal display, and has a function of displaying an image such as a model image under the control of the control unit 21 and also functions as the arrangement surface 200 of the main body device 20.

また、記憶部22には、ブロック情報テーブルと、音制御情報として表示制御情報及び報知音情報と、実施形態1と同様の姿勢判定テーブル430が記憶されている。操作部24は、上述の選択ボタン20cと決定ボタン20dを含み、ユーザによるボタン操作を示す操作信号を制御部21へ送出する。なお、本実施形態では、選択ボタン20cを押下する毎に、表示制御情報において予め定義されている模範画像30が表示部28に順次表示され、決定ボタン20dの押下操作により、表示されている模範画像30が比較対象画像として決定される。   The storage unit 22 stores a block information table, display control information and notification sound information as sound control information, and a posture determination table 430 similar to that in the first embodiment. The operation unit 24 includes the selection button 20c and the determination button 20d described above, and sends an operation signal indicating a button operation by the user to the control unit 21. In this embodiment, every time the selection button 20c is pressed, the model images 30 defined in advance in the display control information are sequentially displayed on the display unit 28, and the model images displayed by pressing the enter button 20d are displayed. The image 30 is determined as a comparison target image.

制御部21は、ユーザによる操作部24の操作に応じて、表示部28を介して模範画像30をユーザに提示する処理と、配置面200に配置されたブロック10から姿勢情報を受信して、各ブロック10の位置、姿勢及び色に基づいて、各ブロック10と模範画像30を比較し、比較結果に応じた報知音を発音させる処理を行う。   The control unit 21 receives a process of presenting the model image 30 to the user via the display unit 28 according to the operation of the operation unit 24 by the user, and posture information from the block 10 arranged on the arrangement surface 200. Based on the position, posture, and color of each block 10, each block 10 and the model image 30 are compared, and a process for generating a notification sound according to the comparison result is performed.

ここで、記憶部22に記憶されているブロック情報テーブル、表示制御情報及び報知音情報の詳細について説明する。図8(a)は、本実施形態におけるブロック情報テーブルの構成例及びデータ例を示す図である。ブロック情報テーブル500は、ブロック10に予め定められたブロックIDとブロック10に割当てられている色を示す色情報とが対応づけられており、各ブロック10の表面には当該ブロック10に割当てられている色が塗られている。   Here, details of the block information table, the display control information, and the notification sound information stored in the storage unit 22 will be described. FIG. 8A is a diagram illustrating a configuration example and data example of the block information table in the present embodiment. In the block information table 500, a block ID predetermined for the block 10 and color information indicating a color assigned to the block 10 are associated with each other, and the surface of each block 10 is assigned to the block 10. The color is painted.

図8(b)は、表示制御情報の構成例及びデータ例を示す図である。図8(b)に示すように、表示制御情報510は、模範画像の画像種別、配置するブロック10の色を示す色情報と、各色のブロック10が配置される座標を示す配置情報と、ブロック10の姿勢を示す姿勢情報とが対応づけられている。
配置情報で定義されている座標は、表示部28において予め定義されたXY平面上の座標であり、姿勢情報は、ブロック10が配置されたときの上面となる面を示す情報である。なお、この例の姿勢情報として定義されている面は、実施形態1における面と同様である。例えば、画像種別“1”の場合、赤、青、黄の各ブロック10を示す画像を配置座標に従って配置面200に表示すると、図6に示す模範画像30のように表示される。
FIG. 8B is a diagram illustrating a configuration example and data example of display control information. As shown in FIG. 8B, the display control information 510 includes the image type of the model image, the color information indicating the color of the block 10 to be arranged, the arrangement information indicating the coordinates where the block 10 of each color is arranged, and the block Posture information indicating ten postures is associated.
The coordinates defined by the arrangement information are coordinates on the XY plane defined in advance in the display unit 28, and the posture information is information indicating the surface that is the upper surface when the block 10 is arranged. Note that the surface defined as the posture information in this example is the same as the surface in the first embodiment. For example, in the case of the image type “1”, when an image showing each block 10 of red, blue, and yellow is displayed on the arrangement surface 200 according to the arrangement coordinates, it is displayed as an exemplary image 30 shown in FIG.

次に、報知音情報について説明する。図8(c)は、報知音情報の構成例及びデータ例を示している。報知音情報520は、正解又は不正解を示す報知内容と、報知内容に対応する音種別とが対応づけられている。なお、本実施形態では、正解又は不正解のいずれかを報知する例であるが、例えば、ブロック10の姿勢を除く色と配置だけが一致している場合、又は、ブロック10の配置だけが一致している場合等、模範画像と比較する条件(位置、色、姿勢)の一部が一致する場合には、一致又は不一致の条件に応じた音を報知するようにしてもよい。   Next, the notification sound information will be described. FIG. 8C shows a configuration example and data example of the notification sound information. In the notification sound information 520, notification contents indicating a correct answer or an incorrect answer are associated with sound types corresponding to the notification contents. In the present embodiment, either correct answer or incorrect answer is notified. However, for example, when only the color and the arrangement except the posture of the block 10 match, or only the arrangement of the block 10 is one. When a part of the conditions (position, color, orientation) to be compared with the model image is matched, such as when it is done, a sound according to the matching or mismatching condition may be notified.

(動作)
次に、本実施形態における楽音発音装置1の動作について説明する。本実施形態におけるブロック10は実施形態1と同様である。即ち、ブロック10の制御部11は、姿勢情報検出部12において所定時間毎に検出される加速度の情報とブロックIDを含む姿勢情報を、本体装置20との間の通信距離が所定距離内となったとき、即ち、本体装置20の配置面200にブロック10が配置されたときに本体装置20と接続して送信する。以下、本実施形態における本体装置20の動作について説明する。
(Operation)
Next, the operation of the tone generator 1 in this embodiment will be described. The block 10 in this embodiment is the same as that in the first embodiment. That is, the control unit 11 of the block 10 uses the posture information including the block ID and the acceleration information detected by the posture information detection unit 12 every predetermined time, and the communication distance between the main body device 20 is within the predetermined distance. In other words, when the block 10 is arranged on the arrangement surface 200 of the main apparatus 20, the main apparatus 20 is connected and transmitted. Hereinafter, the operation of the main body device 20 in the present embodiment will be described.

図9は、本実施形態に係る本体装置20の動作フローを示している。ユーザは、本体装置20に設けられている選択ボタン20cを操作し、所望する模範画像を選択する。本体装置20の制御部21は、選択ボタン20cが操作された場合(ステップS31:YES)、記憶部22内の表示制御情報510において定義されている各模範画像に対応する配置情報に従って、表示部28に模範画像を表示する(ステップS32)。ユーザは、配置面200に表示された模範画像を比較対象画像として決定する場合には、決定ボタン20dを押下する。   FIG. 9 shows an operation flow of the main device 20 according to the present embodiment. The user operates a selection button 20c provided on the main device 20, and selects a desired model image. When the selection button 20c is operated (step S31: YES), the control unit 21 of the main body device 20 displays the display unit according to the arrangement information corresponding to each model image defined in the display control information 510 in the storage unit 22. The model image is displayed in 28 (step S32). When determining the model image displayed on the arrangement surface 200 as a comparison target image, the user presses the determination button 20d.

操作部24は決定ボタン20dが押下されると、決定ボタンの押下を示す操作信号を制御部21へ送出する。制御部21は、操作部24からの当該操作信号により、決定ボタン20dが押下されたと判断すると(ステップS33:YES)、表示部28において表示中の模範画像を比較対象画像とし、所定時間が経過するまで表示を続ける(ステップS34:NO)。また、制御部21は、所定時間が経過したときに(ステップS34:YES)、表示中の模範画像の表示を終了する(ステップS35)。   When the determination button 20d is pressed, the operation unit 24 sends an operation signal indicating the pressing of the determination button to the control unit 21. When the control unit 21 determines that the determination button 20d is pressed by the operation signal from the operation unit 24 (step S33: YES), the model image being displayed on the display unit 28 is set as a comparison target image, and a predetermined time has elapsed. The display is continued until it is done (step S34: NO). Moreover, the control part 21 complete | finishes the display of the model image being displayed, when predetermined time passes (step S34: YES) (step S35).

ユーザは、配置面200における模範画像の表示が消えた後、模範画像で示されたブロック10の配置となるようにブロック10を配置し、ブロック10を全て配置し終えたときに、発音指示ボタン20bを押下する。   After the display of the model image on the layout surface 200 disappears, the user arranges the block 10 so that the arrangement of the block 10 indicated by the model image is completed, and when all the blocks 10 have been arranged, the sound generation instruction button Press 20b.

制御部21は、配置面200に配置されたブロック10の座標が位置検出部25から送出され 、ブロック10が配置されたと判断する(ステップS36:YES)。また、制御部21は、ブロック10が配置された際に、ブロック10から姿勢情報を受信し、受信した姿勢情報からブロック10の色と姿勢を特定し、特定した色及び姿勢と、検出されたブロック10の座標をRAMに記憶する(ステップS37)。即ち、制御部21は、受信した姿勢情報からブロックIDを抽出し、当該ブロックIDに対応する色をブロック情報テーブル500から特定する。制御部21は、姿勢情報から加速度の情報を抽出し、1Gの重力加速度が検出された軸方向を特定し、記憶部22内の姿勢判定テーブル430に基づいて、特定した軸方向に対応する姿勢を特定する。また、制御部21は、配置されたブロック10について特定した色及び姿勢を当該ブロック10が配置された座標と対応づけた配置座標情報をRAMに記憶する。   The control unit 21 determines that the block 10 is arranged when the coordinates of the block 10 arranged on the arrangement surface 200 are transmitted from the position detection unit 25 (step S36: YES). In addition, when the block 10 is arranged, the control unit 21 receives posture information from the block 10, specifies the color and posture of the block 10 from the received posture information, and detects the specified color and posture. The coordinates of the block 10 are stored in the RAM (step S37). That is, the control unit 21 extracts a block ID from the received posture information and specifies a color corresponding to the block ID from the block information table 500. The control unit 21 extracts acceleration information from the posture information, identifies the axial direction in which 1G gravitational acceleration is detected, and based on the posture determination table 430 in the storage unit 22, the posture corresponding to the identified axial direction. Is identified. Further, the control unit 21 stores, in the RAM, arrangement coordinate information in which the color and posture specified for the arranged block 10 are associated with the coordinates where the block 10 is arranged.

なお、ブロック10の位置がユーザによって変更された場合には、位置検出部25において当該位置にブロック10が配置されていないことを示す検出結果が制御部21に送出され、制御部21は、RAMに記憶されている当該位置に対応する配置座標情報を消去する。   When the position of the block 10 is changed by the user, the position detection unit 25 sends a detection result indicating that the block 10 is not arranged at the position to the control unit 21. The arrangement coordinate information corresponding to the position stored in is deleted.

制御部21は、ユーザによって発音指示ボタン20bが押下されるまでは、ブロック10の配置が完了していないと判断して(ステップS38:NO)、ステップS36及びS37の処理を繰り返し行う。そして、ユーザによって発音指示ボタン20bが押下され、操作部24から発音指示を示す操作信号が制御部21に送出されたときに、制御部21は、ブロック10の配置が完了したと判断する(ステップS38:YES)。制御部21は、RAMに記憶されている各ブロックの配置座標情報における座標と、記憶部22内の表示制御情報における比較対象画像の配置情報とを読み出して、配置座標情報の座標に基づくブロック10の配置と模範画像の配置とが一致するか否か判断する(ステップS39)。   The control unit 21 determines that the arrangement of the block 10 is not completed until the sound generation instruction button 20b is pressed by the user (step S38: NO), and repeats the processes of steps S36 and S37. Then, when the sound generation instruction button 20b is pressed by the user and an operation signal indicating a sound generation instruction is sent from the operation unit 24 to the control unit 21, the control unit 21 determines that the arrangement of the block 10 is completed (Step S1). S38: YES). The control unit 21 reads the coordinates in the arrangement coordinate information of each block stored in the RAM and the arrangement information of the comparison target image in the display control information in the storage unit 22, and the block 10 based on the coordinates of the arrangement coordinate information. It is determined whether or not the arrangement of the image and the arrangement of the model image match (step S39).

即ち、制御部21は、配置座標情報の座標に基づくXY平面上の形状と比較対象画像の配置情報に基づくXY平面上の形状とが一致するか否か判断する。形状が一致する場合、配置座標情報の座標を比較対象画像の座標に投影し、配置座標情報の各座標に配置されたブロック10の色と比較対象画像の各座標におけるブロックの色とが一致するか否か判断する。そして、制御部21は、配置座標情報の各座標に配置されたブロック10の色が全て一致していると判断した場合には、配置座標情報の各座標に配置されたブロック10の姿勢と比較対象画像の各座標におけるブロック10の姿勢とが一致しているか否か判断する。このように、制御部21は、ブロック10が配置された形状、各ブロック10の色及び姿勢の各判定条件が比較対象画像と一致しているか否か判断し、全て判定条件を満たしている場合に、比較対象画像と配置されたブロック10の色及び姿勢を含む配置が一致していると判断する。   That is, the control unit 21 determines whether or not the shape on the XY plane based on the coordinates of the arrangement coordinate information matches the shape on the XY plane based on the arrangement information of the comparison target image. When the shapes match, the coordinates of the arrangement coordinate information are projected onto the coordinates of the comparison target image, and the color of the block 10 arranged at each coordinate of the arrangement coordinate information matches the color of the block at each coordinate of the comparison target image. Determine whether or not. When the control unit 21 determines that all the colors of the blocks 10 arranged at the respective coordinates of the arrangement coordinate information match, it is compared with the posture of the block 10 arranged at each of the coordinates of the arrangement coordinate information. It is determined whether or not the posture of the block 10 at each coordinate of the target image matches. As described above, the control unit 21 determines whether or not the determination condition of the shape in which the block 10 is arranged, the color and posture of each block 10 match the comparison target image, and all the determination conditions are satisfied. In addition, it is determined that the arrangement including the comparison target image and the arrangement and the color of the block 10 are matched.

次に、制御部21は、ステップS39において比較対象画像と一致していると判断した場合(ステップS39:YES)、記憶部22内の報知音情報520を参照し、正解を示す音種別「音1」に対応する楽音信号を音源部26において生成し、生成した楽音信号を音声出力部27において増幅して発音する(ステップS40)。   Next, when the control unit 21 determines in step S39 that the image matches the comparison target image (step S39: YES), the control unit 21 refers to the notification sound information 520 in the storage unit 22 and refers to the sound type “sound indicating the correct answer”. The tone signal corresponding to “1” is generated in the sound source unit 26, and the generated tone signal is amplified and sounded in the voice output unit 27 (step S40).

また、制御部21は、ステップS39において比較対象画像と一致していないと判断した場合(ステップS39:NO)、報知音情報520を参照して、不正解を示す音種別「音2」に対応する楽音信号を音源部26において生成し、生成した楽音信号を音声出力部27において増幅して発音する(ステップS41)。   If the control unit 21 determines in step S39 that the image does not match the comparison target image (step S39: NO), the control unit 21 refers to the notification sound information 520 and corresponds to the sound type “sound 2” indicating an incorrect answer. A tone signal to be generated is generated in the sound source unit 26, and the generated tone signal is amplified and sounded in the voice output unit 27 (step S41).

なお、ステップS31において、選択ボタン20cが操作されなかった場合(ステップS31:NO)、ステップS33において、決定ボタン20dの押下操作がなされるまで(ステップS33:NO)、又は、ステップS36において、位置検出部25においてブロック10の座標が検出されなかった場合(ステップS36:NO)、制御部21は、ユーザによって電源ボタン12が押下されるまで(ステップS42:NO)、ステップS31以下の処理を行い、ユーザによって電源ボタン12が押下されたときに(ステップS42:YES)、処理を終了する。   If the selection button 20c is not operated in step S31 (step S31: NO), the determination button 20d is pressed in step S33 (step S33: NO), or the position is determined in step S36. When the coordinates of the block 10 are not detected by the detection unit 25 (step S36: NO), the control unit 21 performs the processing from step S31 onward until the user presses the power button 12 (step S42: NO). When the power button 12 is pressed by the user (step S42: YES), the process ends.

上述の実施形態2に係る楽音発音装置1は、予め設定された模範画像となるようにユーザが本体装置20において配置したブロック10の配置(色と姿勢を含む)が模範画像と一致しているか否かを判定し、判定結果を報知することができるので、ユーザの記憶力や観察力等の判断に用いることができる。   In the musical tone generating device 1 according to the second embodiment described above, is the arrangement (including color and posture) of the blocks 10 arranged by the user in the main body device 20 so as to be a preset exemplary image coincide with the exemplary image? Since it is possible to determine whether or not and notify the determination result, it can be used to determine the memory ability, observation ability, etc. of the user.

<実施形態3>
本実施形態に係る楽音発音装置1は、実施形態2と同様の本体装置20とブロック10とで構成されている。本実施形態では、図10に示すように、本体装置20の配置面200に五線譜とト音記号とを示す画像300(以下、五線譜画像と言う)を表示し、五線譜画像300上に置かれたブロック10a〜10dの位置、色、姿勢に応じた音を発音させる。即ち、本実施形態に係る楽音発音装置1は、五線譜画像300上に配置されたブロック10を音符と見なし、五線譜上のブロック10で指示された音をブロック10の姿勢に応じて発音させるものである。
<Embodiment 3>
A musical tone sounding apparatus 1 according to the present embodiment includes a main body device 20 and a block 10 similar to those in the second embodiment. In the present embodiment, as shown in FIG. 10, an image 300 (hereinafter referred to as a staff score image) showing a staff score and a treble clef is displayed on the arrangement surface 200 of the main device 20, and is placed on the staff score image 300. Sounds corresponding to the positions, colors, and postures of the blocks 10a to 10d are generated. That is, the musical sound generating apparatus 1 according to the present embodiment regards the block 10 arranged on the staff score image 300 as a musical note, and generates the sound instructed by the block 10 on the staff notation according to the posture of the block 10. is there.

以下、本実施形態に係る楽音発音装置1の詳細について、上述の実施形態2と異なる部分について説明する。なお、以下の説明において、実施形態2と同様の構成については実施形態2と同じ符号を用いるものとする。図11は、本体装置20に記憶されているデータを示す図である。本実施形態に係る記憶部22は、音色情報テーブル610(図11(a))、ブロック情報テーブル620(図11(b))、姿勢情報テーブル630(図11(c))、音情報テーブル(音高情報)640(図11(d))が記憶されている。   Hereinafter, the details of the musical tone generating apparatus 1 according to the present embodiment will be described with respect to the differences from the above-described second embodiment. In the following description, the same reference numerals as those in the second embodiment are used for the same configurations as those in the second embodiment. FIG. 11 is a diagram illustrating data stored in the main device 20. The storage unit 22 according to the present embodiment includes a timbre information table 610 (FIG. 11A), a block information table 620 (FIG. 11B), an attitude information table 630 (FIG. 11C), and a sound information table ( (Pitch information) 640 (FIG. 11D) is stored.

音色情報テーブル610は、ブロック10の色に対応する音色が定義されており、図11(a)に示すように、ブロック10の色を示すブロック色と音色とが対応づけられている。本実施形態における本体装置20は、五線譜画像300上に配置されるブロック10の色に応じて音色を変えて発音する。例えば、赤のブロック10だけを配置した場合には、ピアノの音色に対応する音が発音され、青のブロック10だけを配置した場合には、オルガンの音色に対応する音が発音され、赤と緑のブロック10を配置した場合には、ピアノとフルートの各音色に対応する音が同時に発音される。
なお、配置されたブロック10の色の組み合わせが、音色情報テーブル610に定義されていない色の組み合わせである場合には、予め定められた音色の音を発音させるようにしてもよいし、発音させないようにしてもよい。
The timbre information table 610 defines a timbre corresponding to the color of the block 10, and the block color indicating the color of the block 10 and the timbre are associated with each other as shown in FIG. The main body device 20 according to the present embodiment generates a sound by changing the timbre according to the color of the block 10 arranged on the musical score image 300. For example, when only the red block 10 is arranged, a sound corresponding to the tone of the piano is generated, and when only the blue block 10 is arranged, a sound corresponding to the tone of the organ is pronounced. When the green block 10 is arranged, sounds corresponding to the tone colors of the piano and the flute are simultaneously generated.
When the color combination of the arranged blocks 10 is a color combination that is not defined in the timbre information table 610, a sound of a predetermined timbre may be generated or not generated. You may do it.

ブロック情報テーブル620は、各ブロック10に塗られている色がブロックIDと対応づけられている。また、姿勢情報テーブル630は、ブロック10の姿勢に対応する音が定義されており、ブロック10の姿勢情報と発音態様とが対応づけられている。姿勢情報には、実施形態2と同様、ブロック10の面が定義されており、発音態様は、各面が上面となるときの姿勢に応じた音の長さ、音高、音の強弱等を示す情報が定義されている。   In the block information table 620, the color applied to each block 10 is associated with the block ID. In the posture information table 630, a sound corresponding to the posture of the block 10 is defined, and the posture information of the block 10 and the sounding manner are associated with each other. In the posture information, the surface of the block 10 is defined as in the second embodiment, and the sound generation mode indicates the sound length, pitch, sound intensity, etc. according to the posture when each surface is the upper surface. The information to be shown is defined.

例えば、ブロック10の面1を上面とする姿勢で五線譜画像300上に配置した場合には、五線譜上の位置に応じた音(以下、指示音と言う)が四分音符の長さで発音される。面2を上面とする姿勢で配置した場合には、四分音符の長さで指示音を半音上げた音が発音され、面3を上面とする姿勢で配置した場合には、四分音符の長さで指示音を半音下げた音が発音される。また、面4を上面とする姿勢で配置した場合には、指示音が8分音符の長さで発音され、面5を上面とする姿勢で配置した場合には、指示音をフォルテシモで四分音符の長さで演奏した場合の音が発音され、面6を上面とする姿勢で配置した場合には、指示音をピアニシモで4分音符の長さで演奏した場合の音が発音される。本実施形態では、上記姿勢情報テーブル630に基づき、ブロック10の姿勢に応じて、五線譜上で指示された指示音の発音態様を変化させる。なお、この姿勢情報テーブル630は、全てのブロック10に共通して用いられる。   For example, in the case where the face 10 of the block 10 is placed on the staff score image 300 in a posture with the top face, a sound corresponding to a position on the staff (hereinafter referred to as an instruction sound) is generated with a quarter note length. The When placed in a posture with the surface 2 as the top surface, a sound is generated by raising the instruction sound by a semitone with the length of the quarter note, and when placed in a posture with the surface 3 as the top surface, A sound with a semitone lower than the instruction sound is produced. In addition, when the face 4 is arranged in a posture with the top face, the instruction sound is pronounced in the length of an eighth note, and when the face 5 is placed in a posture with the top face, the instruction sound is quartered with fortissimo. When a note is played with the length of a note, the sound is generated. When the face 6 is arranged in a posture with the top face, the sound when the instruction sound is played with the length of a quarter note by pianissimo is generated. In the present embodiment, based on the posture information table 630, the sounding mode of the instruction sound designated on the staff is changed according to the posture of the block 10. The posture information table 630 is used in common for all the blocks 10.

音情報テーブル640は、五線譜画像300上における座標と音が定義されており、五線譜画像300が表示されている座標を示すX座標とY座標、X座標及びY座標に対応する音情報が対応づけられている。この場合、各音に対応する五線譜画像300のX座標の範囲は同じであり、各音に応じてY座標の範囲が異なる。例えば、X座標がX1〜Xnの範囲で、Y座標がY2以上Y3未満の位置にブロック10が配置された場合には、レの音が特定される。   In the sound information table 640, coordinates and sound on the staff score image 300 are defined, and sound information corresponding to the X coordinate, the Y coordinate, the X coordinate, and the Y coordinate indicating the coordinates at which the staff score image 300 is displayed is associated. It has been. In this case, the range of the X coordinate of the musical score image 300 corresponding to each sound is the same, and the range of the Y coordinate differs depending on each sound. For example, when the block 10 is arranged at a position where the X coordinate is in the range of X1 to Xn and the Y coordinate is greater than or equal to Y2 and less than Y3, the sound is identified.

(動作)
次に、本実施形態に係る楽音発音装置1の動作について説明する。なお、ブロック10の動作フローは実施形態1と同様である。ブロック10の制御部11は、姿勢情報検出部12において所定時間毎に検出される加速度の情報とブロックIDを含む姿勢情報を、本体装置20との間の通信距離が所定距離内となったとき、即ち、本体装置20の配置面200にブロック10が配置されたときに本体装置20と接続して送信する。以下、本実施形態における本体装置20の動作について説明する。
(Operation)
Next, the operation of the tone generator 1 according to this embodiment will be described. The operation flow of the block 10 is the same as that of the first embodiment. When the communication distance between the control unit 11 of the block 10 and the main body device 20 is within the predetermined distance, the acceleration information detected every predetermined time by the posture information detection unit 12 and the posture information including the block ID That is, when the block 10 is arranged on the arrangement surface 200 of the main body device 20, it is connected to the main body device 20 and transmitted. Hereinafter, the operation of the main body device 20 in the present embodiment will be described.

図12は、本実施形態における楽音発音装置1の動作フローを示す図である。本体装置20の制御部21は、ユーザによって電源ボタン20aが押下されると(ステップS50:YES)、表示部28において予め定められた五線譜画像300を所定位置に表示する(ステップS51)。   FIG. 12 is a diagram showing an operation flow of the musical tone sounding apparatus 1 in the present embodiment. When the power button 20a is pressed by the user (step S50: YES), the control unit 21 of the main device 20 displays a predetermined musical score image 300 on the display unit 28 at a predetermined position (step S51).

ユーザは、本体装置20に表示された五線譜画像300上に、ブロック10を所望する位置に順次配置していく。制御部21は、位置検出部25から五線譜画像300の領域内の座標が送出され、ブロック10が五線譜画像300上に配置されたと判断する(ステップS52:YES)。制御部21は、ブロック10が配置された際にブロック10から姿勢情報を受信して、配置されたブロック10の色と姿勢を検出し、検出した色と姿勢と位置とを対応づけた配置座標情報をブロック10毎にRAMに記憶する(ステップS53)。   The user sequentially arranges the blocks 10 at desired positions on the musical score image 300 displayed on the main device 20. The control unit 21 determines that the coordinates in the region of the staff score image 300 are sent from the position detection unit 25 and that the block 10 is arranged on the staff score image 300 (step S52: YES). The control unit 21 receives attitude information from the block 10 when the block 10 is arranged, detects the color and attitude of the arranged block 10, and arranges coordinates where the detected color, attitude, and position are associated with each other. Information is stored in the RAM for each block 10 (step S53).

即ち、制御部21は、ブロック10から受信した姿勢情報からブロックIDを抽出し、当該ブロックIDに対応する色をブロック情報テーブル620から特定する。そして、姿勢情報から加速度の情報を抽出し、1Gの重力加速度が検出された軸方向を特定し、記憶部22内の姿勢判定テーブル430に基づいて、特定した軸方向に対応する姿勢を特定する。そして、制御部21は、配置されたブロック10について特定した色及び姿勢を位置検出部25において検出された座標と対応づけた配置座標情報をRAMに記憶する。制御部21は、RAMに配置座標情報を記憶する毎に、音色情報テーブル610、ブロック情報テーブル620、姿勢情報テーブル630、音情報テーブル640に基づいて、当該配置座標情報に応じた楽音信号を音源部26において生成し、生成した楽音信号を音声出力部27で増幅して1回だけ発音する(ステップS54)。   That is, the control unit 21 extracts a block ID from the posture information received from the block 10 and specifies a color corresponding to the block ID from the block information table 620. Then, acceleration information is extracted from the posture information, the axial direction in which the 1G gravitational acceleration is detected is specified, and the posture corresponding to the specified axial direction is specified based on the posture determination table 430 in the storage unit 22. . And the control part 21 memorize | stores the arrangement | positioning coordinate information which matched the color and attitude | position identified about the arrange | positioned block 10 with the coordinate detected in the position detection part 25 in RAM. Whenever the arrangement coordinate information is stored in the RAM, the control unit 21 generates a tone signal corresponding to the arrangement coordinate information based on the tone color information table 610, the block information table 620, the posture information table 630, and the sound information table 640. The musical tone signal generated by the unit 26 is amplified by the voice output unit 27 and is generated only once (step S54).

ユーザは、ブロック10を配置し終えると、発音指示ボタン20bを押下する。この操作により、操作部24から発音指示を示す操作信号が制御部21に送出され、制御部21は、ブロック10の配置が完了したと判断する(ステップS55:YES)。そして、制御部21は、RAMに記憶された各配置座標情報を読み出し、各配置座標情報における色の情報から配置されたブロック10の色の組み合わせを特定する。また、特定した色の組み合わせに対応する音色を記憶部22内の音色情報テーブル610から特定する。   When the user finishes arranging the block 10, the user presses the sound generation instruction button 20b. By this operation, an operation signal indicating a sound generation instruction is sent from the operation unit 24 to the control unit 21, and the control unit 21 determines that the arrangement of the block 10 is completed (step S55: YES). And the control part 21 reads each arrangement | positioning coordinate information memorize | stored in RAM, and specifies the combination of the color of the block 10 arrange | positioned from the color information in each arrangement | positioning coordinate information. Further, the timbre corresponding to the identified combination of colors is identified from the timbre information table 610 in the storage unit 22.

制御部21は、各配置座標情報におけるX座標の値が小さい順に、各配置座標情報のY座標に対応する音を記憶部22内の音情報テーブル640から特定すると共に、各配置座標情報における各ブロック10の姿勢に対応する発音態様を記憶部22内の姿勢情報テーブル630から特定する。そして、制御部21は、特定した音色と音と発音態様に基づく楽音信号を音源部26において生成し、生成した楽音信号を音声出力部27において増幅して発音する(ステップS56)。これにより、五線譜画像300上に配置されたブロック10の位置、姿勢、色に応じた音が発音される。   The control unit 21 specifies the sound corresponding to the Y coordinate of each arrangement coordinate information from the sound information table 640 in the storage unit 22 in ascending order of the X coordinate value in each arrangement coordinate information, The sound generation mode corresponding to the posture of the block 10 is specified from the posture information table 630 in the storage unit 22. Then, the control unit 21 generates a musical tone signal based on the specified tone color, sound, and sound generation mode in the sound source unit 26, and amplifies the generated musical tone signal in the voice output unit 27 to generate a sound (step S56). Thereby, a sound corresponding to the position, posture, and color of the block 10 arranged on the staff score image 300 is generated.

制御部21は、電源ボタン20aにより電源をオフに切替える操作がユーザによってなされるまで(ステップS57:NO)、ステップS52〜S56の処理を行い、電源をオフに切替える操作がユーザによってなされたときに(ステップS57:YES)、処理を終了する。   The control unit 21 performs the processes of steps S52 to S56 until the user performs an operation to switch off the power by the power button 20a (step S57: NO), and when the user performs an operation to switch off the power. (Step S57: YES), the process is terminated.

なお、ステップS50において、ユーザによって電源ボタン20aをオンにする操作がなされなければ(ステップS50:NO)、制御部21は、電源がオンにされるまで待機する。また、ステップS52において、位置検出部25において五線譜画像300における座標が検出されなければ、ブロック10が五線譜画像300上に配置されていないと判断し(ステップS52:NO)、ステップS57の処理を行う。また、ステップS55において、操作部24から発音指示を示す操作信号が制御部21に送出されなければ、制御部21は、ブロック10の配置が完了していないと判断して(ステップS55:NO)、ステップS52〜S54の処理を行う。   In step S50, if the user does not perform an operation to turn on the power button 20a (step S50: NO), the control unit 21 waits until the power is turned on. In step S52, if the position detection unit 25 does not detect the coordinates in the staff score image 300, it is determined that the block 10 is not arranged on the staff score image 300 (step S52: NO), and the process of step S57 is performed. . In step S55, if an operation signal indicating a sound generation instruction is not sent from the operation unit 24 to the control unit 21, the control unit 21 determines that the arrangement of the block 10 is not completed (step S55: NO). Steps S52 to S54 are performed.

上述した実施形態3では、五線譜画像300の上に配置されたブロック10の位置、姿勢、色に応じた楽音が発音されるので、ユーザは、所望する色のブロック10を組み合わせることで異なる音色の音楽を作成することができる。また、五線譜画像300の上にブロック10を配置するので、音符と音との関係を直感的に理解することができる。なお、実施形態3では、発音指示ボタン20bが押下された際に、五線譜画像300上に配置された各ブロック10に基づく楽音を1回だけ発音する例であったが、五線譜画像300上に配置された各ブロック10について特定された音色と音と発音態様をRAM又は記憶部22に記憶しておくことで、発音指示ボタン20bがユーザによって繰り返し押下された場合に、記憶している音色と音と音情報に基づく楽音を繰り返し発音させることができる。   In the third embodiment described above, since the musical sound corresponding to the position, posture, and color of the block 10 arranged on the musical score image 300 is generated, the user can combine different colored blocks 10 by combining the blocks 10 of the desired color. Music can be created. In addition, since the block 10 is arranged on the musical score image 300, the relationship between the note and the sound can be intuitively understood. In the third embodiment, when the sound generation instruction button 20 b is pressed, the musical sound based on each block 10 arranged on the staff notation image 300 is generated only once. However, it is arranged on the staff notation image 300. By storing the timbre, sound, and sound generation mode specified for each block 10 in the RAM or the storage unit 22, when the sound generation instruction button 20b is repeatedly pressed by the user, the stored timbre and sound are stored. Musical sound based on the sound information can be repeatedly pronounced.

<変形例>
本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよく、各変形例を組み合わせて実施してもよい。以下、本発明に係る実施形態の変形例について説明する。
<Modification>
Although the embodiments of the present invention have been described, the present invention is not limited to the above-described embodiments, and can be implemented in various other forms. For example, the above-described embodiment may be modified as follows to implement the present invention, or may be implemented in combination with each modification. Hereinafter, modifications of the embodiment according to the present invention will be described.

(1)上述の実施形態1及び2では、ブロック10を本体装置20の配置面200に配置させる例であったが、配置面200に配置されたブロック10の上に他のブロック10を積み上げるようにしてもよい。この場合には、各ブロック10間でも近接無線通信を行うように構成する。例えば、配置面200に配置されたブロック10aの上にブロック10bが積まれた場合において、ブロック10bと本体装置20との間は近接無線通信できない距離であるとする。このとき、ブロック10aとブロック10bとの間で各ブロックのブロックIDと加速度を含む姿勢情報を送受信し、ブロック10aがブロック10bの姿勢情報を本体装置20に送信する。本体装置20は、ブロック10aから受信したブロック10bの姿勢情報を、ブロック10aの2段目に配置されたブロック10bの姿勢情報であることを示す情報と共に、ブロック10aのブロックIDと対応づけてRAMに記憶する。これにより、立体的にブロック10が配置された場合であっても、本体装置20において、ブロック10間の位置関係を特定することができる。また、立体的なブロック10の位置関係に応じて各ブロック10の音を変化させる音制御情報(音の長さや音色等)を予め定義するよう構成することで、本体装置20において配置されたブロック10の立体的な配置に応じた音を音制御情報に従って発音させることができる。
なお、上記の構成では、ブロック10aと近接するように他のブロック10cが配置面200に配置されると、ブロック10aとブロック10cとの間で近接無線通信を行い、各ブロックのブロックIDがブロック間で送受信され、本体装置20へ各々の姿勢情報が送信される。この場合、本体装置20の位置検出部25においてブロック10aとブロック10cの位置が検出され、各々のブロックの姿勢情報も本体装置20に送信される。本体装置20は、ブロック10aからブロック10aの姿勢情報を受信した後、ブロック10cのブロックIDを含む姿勢情報をブロック10aから受信する。また、本体装置20は、ブロック10cからブロック10cの姿勢情報を受信した後、ブロック10aのブロックIDを含む姿勢情報をブロック10cから受信する。従って、この場合、本体装置20は、ブロック10a及びブロック10cの姿勢情報を当該ブロックだけなく他のブロックからも受信する。
このように、本体装置20が、一のブロック10に対する複数の姿勢情報を受信した場合には、当該一のブロック10が位置検出部25で検出されたブロックであれば、当該一のブロック10から送信された姿勢情報を本体装置20において記憶するように構成することで、一のブロック10に対する姿勢情報を一意に特定することができる。
なお、実施形態1では、ブロック10を平面に配置する例であったが、ブロック10を取り外し可能な立体形状の物体に取り付けることにより、ブロック10を立体的に配置するようにしてもよい。
(1) In the first and second embodiments described above, the block 10 is arranged on the arrangement surface 200 of the main body device 20, but another block 10 is stacked on the block 10 arranged on the arrangement surface 200. It may be. In this case, close proximity wireless communication is performed between the blocks 10. For example, when the block 10b is stacked on the block 10a arranged on the arrangement surface 200, it is assumed that the distance between the block 10b and the main body device 20 is a distance where close proximity wireless communication is not possible. At this time, posture information including the block ID and acceleration of each block is transmitted and received between the block 10a and the block 10b, and the block 10a transmits the posture information of the block 10b to the main body device 20. The main body device 20 associates the posture information of the block 10b received from the block 10a with the block ID of the block 10a together with the information indicating that it is the posture information of the block 10b arranged in the second stage of the block 10a. To remember. Thereby, even if it is a case where the block 10 is arrange | positioned three-dimensionally, in the main body apparatus 20, the positional relationship between the blocks 10 can be specified. In addition, the sound control information (sound length, tone color, etc.) for changing the sound of each block 10 according to the positional relationship of the three-dimensional block 10 is configured in advance so as to be arranged in the main body device 20. Sounds corresponding to the three-dimensional arrangement can be generated according to the sound control information.
In the above configuration, when another block 10c is arranged on the arrangement surface 200 so as to be close to the block 10a, close proximity wireless communication is performed between the block 10a and the block 10c, and the block ID of each block is the block ID. Each posture information is transmitted to the main body device 20. In this case, the position detection unit 25 of the main body device 20 detects the positions of the blocks 10 a and 10 c, and the posture information of each block is also transmitted to the main body device 20. After receiving the posture information of the block 10a from the block 10a, the main body device 20 receives the posture information including the block ID of the block 10c from the block 10a. Further, after receiving the posture information of the block 10c from the block 10c, the main body device 20 receives the posture information including the block ID of the block 10a from the block 10c. Therefore, in this case, the main body device 20 receives the posture information of the block 10a and the block 10c not only from the block but also from other blocks.
Thus, when the main body device 20 receives a plurality of posture information for one block 10, if the one block 10 is a block detected by the position detection unit 25, the main device 20 starts from the one block 10. By configuring the main body device 20 to store the transmitted posture information, the posture information for one block 10 can be uniquely specified.
In the first embodiment, the blocks 10 are arranged on a plane. However, the blocks 10 may be arranged three-dimensionally by attaching the blocks 10 to a removable three-dimensional object.

(2)また、実施形態1では、配置されたブロック10の姿勢に応じた音を、ブロック10間の位置関係、つまり距離に応じて変化させて発音させる例であったが、配置されたブロック10同士の面の向きに応じて変化させてもよい。ブロック10の面の向きは、例えば、配置面200のY軸正方向を正面とした場合の各ブロック10の上面、底面、右側面、左側面、正面、背面を特定し、隣り合うブロック10の面の組み合わせに応じて、音色、音の強弱等の発音態様を変化させるようにしてもよい。なお。この場合には、予め、ブロック10の面の組み合わせに応じて変化させる制御内容を記憶しておくように構成する。また、ブロック10間の位置関係として、ブロック10間の距離と面の向きの組み合わせに応じて各ブロック10の姿勢に応じた音を発音させてもよい。 (2) In the first embodiment, the sound corresponding to the posture of the arranged blocks 10 is generated according to the positional relationship between the blocks 10, that is, the sound is changed according to the distance. You may change according to the direction of 10 surfaces. The direction of the surface of the block 10 specifies the top surface, the bottom surface, the right side surface, the left side surface, the front surface, and the back surface of each block 10 when the positive direction of the Y axis of the arrangement surface 200 is the front surface. Depending on the combination of faces, the sound generation mode such as tone color and sound intensity may be changed. Note that. In this case, the control contents to be changed according to the combination of the surfaces of the block 10 are stored in advance. Further, as the positional relationship between the blocks 10, a sound corresponding to the posture of each block 10 may be generated according to the combination of the distance between the blocks 10 and the orientation of the surface.

(3)また、実施形態1では、ブロック10の位置関係に応じた音を発音する例として、配置順序が直前のブロック10との距離に応じた音の長さで各ブロック10の音を発音する例を用いたが、ブロック10の位置関係に応じて音を発音させる態様はこれに限らない。例えば、配置順が前後の各ブロック10の向かい合う面に応じて各ブロック10の音の発音を行うようにしてもよい。例えば、配置面200のY軸正方向を正面とした場合の各ブロック10の上面、底面、右側面、左側面、正面、背面を特定し、ブロック10の向かい合う面の組合わせに応じて、各ブロック10の音の発音態様を変えて発音する。
なお、配置順に関わらず、配置されたブロック10から一定の距離範囲内に配置されている他のブロック10と向かい合う面や距離に応じてブロック10の発音を制御するようにしてもよい。この場合、複数のブロック10が各々一定の距離範囲内にある場合には、ブロック10間の距離が最大又は最小のブロック10と向かい合う面や距離に応じた発音態様で発音させてもよい。また、複数のブロック10のうち、向かい合う面が一致しているブロック10との距離や当該向かい合う面の組み合わせに応じた発音態様で発音させてもよい。
(3) In the first embodiment, as an example of generating a sound corresponding to the positional relationship of the blocks 10, the sound of each block 10 is generated with a sound length corresponding to the distance from the immediately preceding block 10 in the arrangement order. Although the example to perform was used, the aspect which produces a sound according to the positional relationship of the block 10 is not restricted to this. For example, the sound of each block 10 may be generated according to the opposing surfaces of the blocks 10 in the arrangement order. For example, the top surface, the bottom surface, the right side surface, the left side surface, the front surface, and the back surface of each block 10 when the positive direction of the Y axis of the arrangement surface 200 is the front surface are specified, and according to the combination of the facing surfaces of the block 10, A sound is generated by changing the sound generation mode of the block 10.
It should be noted that the sound generation of the block 10 may be controlled according to the face or distance facing the other block 10 arranged within a certain distance range from the arranged block 10 regardless of the arrangement order. In this case, when the plurality of blocks 10 are each within a certain distance range, the sound may be generated in a sound generation manner corresponding to the surface or distance facing the block 10 having the maximum or minimum distance between the blocks 10. Moreover, you may make it sound in the sounding aspect according to the distance with the block 10 with which the opposing surface corresponds among several blocks 10, and the combination of the said opposing surface.

また、特定のブロック10を基準ブロックとして設定し、基準ブロックと他のブロック10との間の距離や面の向きに応じた発音態様で他のブロック10の音を発音させるようにしてもよい。この場合には、基準ブロックとの距離や向かい合う面の組み合わせに応じて他のブロック10の音に関する発音態様を示す制御情報を本体装置20において記憶させておくように構成する。   Alternatively, a specific block 10 may be set as a reference block, and the sound of the other block 10 may be sounded in a sounding manner according to the distance between the reference block and the other block 10 or the orientation of the surface. In this case, the main body device 20 is configured to store control information indicating a sound generation mode related to the sound of the other block 10 in accordance with the distance from the reference block and the combination of the facing surfaces.

また、例えば、3つのブロック10が三角形状となる位置関係で配置された場合には、トライアングルの楽音を3/4拍子で発音させるなど、ブロック10が配置される形状に応じて定められた音を示す音制御情報を本体装置20において予め記憶しておき、配置面200に配置されたブロック10の座標に基づく形状に対応する音制御情報に従って発音させるようにしてもよい。即ち、ブロック10間の位置関係を特定するための条件と位置関係に応じた楽音や発音態様等の発音に関する音制御情報が予め設定されていればよい。   Also, for example, when the three blocks 10 are arranged in a triangular positional relationship, a sound determined according to the shape in which the blocks 10 are arranged, such as generating a triangle musical sound with a 3/4 time signature. May be stored in the main body device 20 in advance, and sound may be generated according to the sound control information corresponding to the shape based on the coordinates of the blocks 10 arranged on the arrangement surface 200. That is, it is only necessary to set in advance sound control information related to sound generation such as a musical sound and a sound generation mode according to the conditions for specifying the positional relationship between the blocks 10 and the positional relationship.

(4)また、上述した実施形態1では、ブロック10間の位置関係を示す距離を本体装置20において検出する例について述べたが、各ブロック10に距離センサ等の距離検出手段と、ブロック10間で近接無線通信を行う通信手段を設け、ブロック10が他のブロック10との距離、つまり、位置関係を検出して他のブロック10のブロックIDと距離とを本体装置20に送信するようにしてもよい。 (4) In the above-described first embodiment, the example in which the main body device 20 detects the distance indicating the positional relationship between the blocks 10 has been described. However, each block 10 includes a distance detection unit such as a distance sensor and the block 10. Is provided with a communication means for performing close proximity wireless communication so that the block 10 detects the distance to the other block 10, that is, the positional relationship, and transmits the block ID and distance of the other block 10 to the main body device 20. Also good.

(5)また、実施形態1では、各ブロック10からの姿勢情報に基づく楽音信号を本体装置20における音源部26において生成して音声出力部27から出力する例であったが、本体装置20を設けず、各ブロック10において、当該ブロック10の姿勢に対応する楽音を生成して発音する音源部と音声出力部が設けられていてもよい。なお、この場合には、机などの水平な面に配置されたブロック全体の音を発音する指示を受付けるための発音指示スイッチを特定のブロック10に設け、発音指示スイッチが押下されたときに、当該特定のブロック10から他のブロック10へ順に発音指示を送信するようにする。この場合、例えば、ブロック10間の距離の大小関係に応じて発音を指示する順序を決定してもよいし、予め発音するブロック10の順序を定めた条件に従って発音指示を送信するようにしてもよい。 (5) In the first embodiment, a musical sound signal based on the posture information from each block 10 is generated in the sound source unit 26 in the main body device 20 and output from the audio output unit 27. Without providing, each block 10 may be provided with a sound source unit and a sound output unit that generate and generate a musical sound corresponding to the posture of the block 10. In this case, a sound generation instruction switch for accepting an instruction to generate the sound of the entire block arranged on a horizontal surface such as a desk is provided in the specific block 10, and when the sound generation instruction switch is pressed, Sound generation instructions are transmitted from the specific block 10 to other blocks 10 in order. In this case, for example, the order in which sound generation is instructed may be determined according to the distance relationship between the blocks 10, or the sound generation instruction may be transmitted in accordance with conditions that predetermine the order of the blocks 10 to be sounded. Good.

(6)また、実施形態1では、ブロック10が本体装置20に配置された順に各ブロック10の楽音を発音させるように構成したが、本体装置20の配置面200において予め定めた座標位置(例えば、原点)から特定の方向(配置面200のX軸方向又はY軸方向)に配置されているブロック10の順に発音するようにしてもよいし、配置された全てのブロック10の楽音を同時に発音してもよい。 (6) In the first embodiment, the musical sounds of the blocks 10 are generated in the order in which the blocks 10 are arranged on the main body device 20. However, the coordinate position (for example, a predetermined position on the arrangement surface 200 of the main body device 20 (for example, , Origin) may be sounded in the order of the blocks 10 arranged in a specific direction (X-axis direction or Y-axis direction of the arrangement surface 200), or the musical sounds of all the arranged blocks 10 may be sounded simultaneously. May be.

(7)上述した実施形態1に係るブロック10の各面には、特定の1音が定義されている例であったが、例えば、ドミソ等の和音を構成する複数の音データや、小節単位又はフレーズ単位の楽音データ、母音、子音、音節、単語等の音声データ、拍手、波、滝、雷、動物の鳴き声等の音データが各面に対応づけられていてもよい。 (7) In each of the surfaces of the block 10 according to the first embodiment described above, an example is defined in which one specific sound is defined. For example, a plurality of sound data constituting chords such as domiso, and bar units Or sound data such as musical sound data in units of phrases, voice data such as vowels, consonants, syllables, words, etc., sound data such as applause, waves, waterfalls, thunder, animal calls may be associated with each surface.

(8)また、上述した実施形態1では、ブロック10の姿勢に応じた音の情報が姿勢別音情報テーブルに予め定義されている例であったが、ブロック10の姿勢に応じた音の長さや音高等を求めるための予め定められた演算式を用い、配置されたブロック10の姿勢に対応する音を計算により決定するように構成してもよい。 (8) In the first embodiment described above, the sound information corresponding to the posture of the block 10 is an example pre-defined in the sound information table for each posture. You may comprise so that the sound corresponding to the attitude | position of the arrange | positioned block 10 may be determined by calculation using the predetermined arithmetic expression for calculating | requiring a sheath pitch.

(9)上述した実施形態2に係る楽音発音装置1は、正解又は不正解を音で報知する例であったが、各ブロック10の中にLED等の発光手段や、ブロック10を振動させるバイブレータ等の振動手段を設け、配置されているブロック10を光らせたり、振動させる等の方法で正解又は不正解を報知するようにしてもよい。また、実施形態1及び3の場合には、ブロック10に対応する楽音を発音するタイミングで、ブロック10を光らせたり、振動させたりしてもよい。 (9) The musical tone generating apparatus 1 according to the second embodiment described above is an example in which a correct answer or an incorrect answer is notified by sound, but a light emitting means such as an LED or a vibrator that vibrates the block 10 in each block 10. For example, a correct or incorrect answer may be notified by a method such as illuminating or vibrating the arranged block 10. In the case of the first and third embodiments, the block 10 may be lit or vibrated at the timing of generating a musical sound corresponding to the block 10.

(10)また、上述した実施形態2では、模範画像をユーザに提示する例であったが、ユーザが比較対象となるブロック10の配置情報を生成してもよい。この場合には、ユーザは、まず、本体装置20の配置面200にブロック10を配置し、本体装置20は、配置されたブロック10の位置座標と姿勢情報とを検出し、ブロックIDと対応づけて模範配置情報として記憶しておく。その後、ユーザによって配置されたブロック10の位置及び姿勢が、模範配置情報と一致するか否かを判断し、一致する場合には正解を報知し、不一致の場合には不正解を報知するようにする。 (10) In the second embodiment described above, the model image is presented to the user. However, the user may generate the arrangement information of the block 10 to be compared. In this case, the user first arranges the block 10 on the arrangement surface 200 of the main body device 20, and the main body device 20 detects the position coordinates and posture information of the arranged block 10 and associates them with the block ID. And stored as model arrangement information. Thereafter, it is determined whether or not the position and orientation of the block 10 arranged by the user matches the model arrangement information. If they match, the correct answer is notified, and if they do not match, the incorrect answer is notified. To do.

(11)また、上述の実施形態3では、五線譜画像300上に配置されたブロック10の姿勢に応じて、配置された位置に対応する音の長さ等を変化させる例であったが、配置されたブロック10の位置関係(距離や面の向き)や予め定められた基準位置又は基準ブロックとのブロック10との位置関係に応じて音の長さ等の発音態様を変化させるようにしてもよい。
つまり、ブロック10間の位置関係に応じて発音態様を変化させる場合には、五線譜画像300上の隣り合うブロック10のX座標が大きい方のブロック10との距離や向かい合う面に応じて音の長さや音色等を変化させてもよい。この場合には、ブロック10間の距離や向かい合う面の組合せ毎に音の長さや音色等の発音態様を定義した音制御情報を本体装置20において記憶するように構成する。
また、予め定められた基準位置又は基準ブロックとの位置関係に応じて発音態様を変化させる場合には、基準位置又は基準ブロックからの距離に応じた音の長さや音色等の音制御情報を本体装置20に記憶するように構成する。
(11) In the third embodiment described above, the sound length corresponding to the arranged position is changed according to the posture of the block 10 arranged on the musical score image 300. Depending on the positional relationship (distance and orientation of the surface) of the block 10 and the predetermined reference position or the positional relationship with the block 10 relative to the reference block, the sound generation mode such as the sound length may be changed. Good.
That is, when changing the sound generation mode according to the positional relationship between the blocks 10, the length of the sound depends on the distance from the block 10 having the larger X coordinate of the adjacent block 10 on the staff image 300 and the facing surface. The sheath tone may be changed. In this case, the main body device 20 is configured to store sound control information defining a sound generation mode such as a sound length and a timbre for each combination of distances between the blocks 10 and facing surfaces.
In addition, when changing the sound generation mode according to the predetermined reference position or the positional relationship with the reference block, the sound control information such as the sound length and tone color according to the distance from the reference position or the reference block is stored in the main body. The device 20 is configured to be stored.

(12)上述の実施形態3では、五線譜画像200上の位置に対応する音高が音情報テーブル640において予め定義されている例であったが、五線譜画像200上の位置座標に対応する音高を求めるための予め定義された演算式を用いて、ブロック10が配置された位置座標に応じた音高を計算によって決定するように構成してもよい。 (12) In the above-described third embodiment, the pitch corresponding to the position on the musical score image 200 is an example that is defined in advance in the sound information table 640. However, the pitch corresponding to the position coordinate on the musical score image 200 is used. The pitch according to the position coordinate where the block 10 is arranged may be determined by calculation using a pre-defined arithmetic expression for obtaining.

(13)また、実施形態3では、五線譜画像300を本体装置20に表示する例であったが、五線譜画像300は本体装置20の配置面200に予め描かれていてもよい。 (13) In the third embodiment, the staff score image 300 is displayed on the main device 20. However, the staff score image 300 may be drawn on the arrangement surface 200 of the main device 20 in advance.

(14)また、上述した実施形態及び変形例において、音制御情報は予め設定されて記憶されている例であったが、例えば、ブロック10間の距離等の位置関係に応じて音の長さや音量等を求めるための予め定義された演算式を用い、計算によって音制御情報を決定するように構成してもよい。 (14) In the above-described embodiment and modification, the sound control information is an example that is set and stored in advance. For example, the sound length or You may comprise so that sound control information may be determined by calculation using the calculation formula defined beforehand for calculating | requiring a volume etc.

(15)また、実施形態1〜3では、配置対象物として立方体状のブロック10を例にして説明したが、配置対象物は立方体状のブロック10に限らず、多面体、球体、円柱等の形状であってもよい。 (15) In the first to third embodiments, the cubic block 10 is described as an example of the arrangement target. However, the arrangement target is not limited to the cubic block 10 and may be a polyhedron, a sphere, a cylinder, or the like. It may be.

(16)また、実施形態1〜3では、本体装置20においてブロック10の配置に応じた音を発音させる例であったが、本体装置20と有線又は無線接続された音源部及び音声出力部を有する発音装置に対して、配置されたブロック10の姿勢やブロック10間の位置関係に応じた音の発音を指示するようにしてもよい。 (16) In the first to third embodiments, the main unit 20 generates sound according to the arrangement of the block 10. However, the sound source unit and the audio output unit that are wired or wirelessly connected to the main unit 20 are provided. You may make it instruct | indicate the pronunciation of the sound according to the attitude | position of the block 10 arrange | positioned, and the positional relationship between the blocks 10 with respect to the sound generator which has.

(17)上述した実施形態及び変形例における楽音発音装置によって実行されるプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどのコンピュータが読取可能な記録媒体に記憶した状態で提供し得る。また、インターネットなどの通信手段を用いて楽音再生装置にダウンロードさせることも可能である。 (17) The program executed by the musical tone generating apparatus in the above-described embodiments and modifications is a magnetic recording medium (magnetic tape, magnetic disk, etc.), an optical recording medium (optical disk, etc.), a magneto-optical recording medium, a semiconductor memory, etc. It may be provided in a state stored in a computer-readable recording medium. It is also possible to download the musical sound reproducing apparatus using a communication means such as the Internet.

1…楽音発音装置、10…ブロック、11,21…制御部、12…姿勢検出部、13,23…通信部、20…本体装置、22…記憶部、24…操作部、25…位置検出部、26…音源部、27…音声出力部、28…表示部 DESCRIPTION OF SYMBOLS 1 ... Musical sound generating apparatus, 10 ... Block, 11, 21 ... Control part, 12 ... Attitude detection part, 13, 23 ... Communication part, 20 ... Main body apparatus, 22 ... Memory | storage part, 24 ... Operation part, 25 ... Position detection part , 26 ... sound source section, 27 ... audio output section, 28 ... display section

Claims (5)

配置された配置対象物の位置関係を検出する検出手段と、
発音指示を受付ける受付手段と、
前記配置対象物の位置関係に対応する音を示す音制御情報を、前記位置関係を示す情報と対応づけて記憶する制御情報記憶手段と、
前記受付手段が前記発音指示を受付けると、前記検出手段によって検出された前記位置関係に対応する前記音制御情報を取得し、取得した前記音制御情報に従って発音装置に発音させる発音制御手段と
を備えることを特徴とする発音制御装置。
Detecting means for detecting a positional relationship between the arranged objects to be arranged;
A reception means for receiving pronunciation instructions;
Control information storage means for storing sound control information indicating a sound corresponding to the positional relationship of the placement object in association with the information indicating the positional relationship;
Sound receiving control means for acquiring sound control information corresponding to the positional relationship detected by the detecting means when the receiving means accepts the sound generation instruction, and causing a sound generating device to sound according to the acquired sound control information. A pronunciation control device characterized by that.
配置された前記配置対象物の姿勢を検出する姿勢検出手段を備え、
前記制御情報記憶手段は、前記配置対象物の姿勢に対応する音を示す姿勢別音情報を記憶し、
前記発音制御手段は、前記検出手段によって検出された前記配置対象物の位置関係に対応する前記音制御情報と、前記姿勢検出手段により検出された姿勢に対応する前記姿勢別音情報とに従って前記発音装置に発音させることを特徴とする請求項1に記載の発音制御装置。
Comprising a posture detecting means for detecting the posture of the arranged arrangement object,
The control information storage means stores sound information by posture indicating a sound corresponding to the posture of the arrangement target object,
The sound generation control unit is configured to generate the sound according to the sound control information corresponding to the positional relationship of the placement object detected by the detection unit and the posture-specific sound information corresponding to the posture detected by the posture detection unit. The sound generation control device according to claim 1, wherein the sound generation is performed by the device.
前記配置対象物が配置される位置に対応する音高を示す音高情報を記憶する位置情報記憶手段を備え、
前記検出手段は、配置された前記配置対象物の位置を検出し、
前記発音制御手段は、前記受付手段が前記発音指示を受付けると、前記検出手段によって検出された前記配置対象物の位置に対応する音高情報を前記位置情報記憶手段から特定し、前記配置対象物の前記位置関係に応じた前記音制御情報に従って、特定した音高情報に基づく音を前記発音装置に発音させることを特徴とする請求項1に記載の発音制御装置。
Comprising position information storage means for storing pitch information indicating a pitch corresponding to a position where the placement object is placed;
The detection means detects the position of the placed arrangement object,
When the reception means receives the sound generation instruction, the sound generation control means specifies pitch information corresponding to the position of the placement object detected by the detection means from the position information storage means, and the placement object The sound generation control device according to claim 1, wherein the sound generation device is caused to generate a sound based on the specified pitch information according to the sound control information corresponding to the positional relationship.
前記配置対象物に予め割当てられている音を示す割当音情報を前記配置対象物毎に記憶する割当音情報記憶手段を備え、
前記発音制御手段は、前記受付手段が前記発音指示を受付けると、配置された各配置対象物に対応する前記割当音情報を前記割当音情報記憶手段から特定し、特定した前記割当音情報に基づく音を予め定められた順序に従って前記発音装置に発音させることを特徴とする請求項1又は請求項2に記載の発音制御装置。
Assigned sound information storage means for storing assigned sound information indicating a sound pre-assigned to the placement object for each placement object;
The sound generation control means, when the receiving means accepts the sound generation instruction, specifies the assigned sound information corresponding to each placed arrangement object from the assigned sound information storage means, and based on the specified assigned sound information The sound generation control device according to claim 1, wherein the sound generation device is caused to sound according to a predetermined order.
利用者が把持して配置可能な形状を有する複数の前記配置対象物を備えることを特徴とする請求項1〜請求項4のいずれか一項に記載の発音制御装置。   The sound generation control device according to any one of claims 1 to 4, further comprising a plurality of the placement objects having a shape that can be held and placed by a user.
JP2010115689A 2010-05-19 2010-05-19 Sound generation control unit Pending JP2011239993A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010115689A JP2011239993A (en) 2010-05-19 2010-05-19 Sound generation control unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010115689A JP2011239993A (en) 2010-05-19 2010-05-19 Sound generation control unit

Publications (1)

Publication Number Publication Date
JP2011239993A true JP2011239993A (en) 2011-12-01

Family

ID=45407287

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010115689A Pending JP2011239993A (en) 2010-05-19 2010-05-19 Sound generation control unit

Country Status (1)

Country Link
JP (1) JP2011239993A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015506807A (en) * 2012-02-17 2015-03-05 テクノロジー ワン インコーポレイテッドTechnology One, Inc. Board assembly used with toy pieces
JP2015514468A (en) * 2012-03-29 2015-05-21 ヒューマン リーグ カンパニー,リミテッド Music educational block toys
JP2016049386A (en) * 2014-09-02 2016-04-11 ブルネエズ株式会社 Sound toy
JP2017509011A (en) * 2013-03-12 2017-03-30 シィ, ヅェンSHI, Zheng System and method for learning, composing and playing music with physical objects
JP2018042214A (en) * 2016-09-09 2018-03-15 株式会社Where Electronic device
KR101928424B1 (en) * 2017-09-29 2018-12-12 주식회사 디에이치이비즈 Realistic block play apparatus using principles of sound combination and control method thereof
JP2019507389A (en) * 2015-12-23 2019-03-14 ハーモニクス ミュージック システムズ,インコーポレイテッド Apparatus, system and method for generating music
JP2020185119A (en) * 2019-05-13 2020-11-19 M&Tプロジェクトパートナーズ株式会社 toy

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015506807A (en) * 2012-02-17 2015-03-05 テクノロジー ワン インコーポレイテッドTechnology One, Inc. Board assembly used with toy pieces
JP2015514468A (en) * 2012-03-29 2015-05-21 ヒューマン リーグ カンパニー,リミテッド Music educational block toys
JP2017509011A (en) * 2013-03-12 2017-03-30 シィ, ヅェンSHI, Zheng System and method for learning, composing and playing music with physical objects
JP2016049386A (en) * 2014-09-02 2016-04-11 ブルネエズ株式会社 Sound toy
JP2019507389A (en) * 2015-12-23 2019-03-14 ハーモニクス ミュージック システムズ,インコーポレイテッド Apparatus, system and method for generating music
JP2018042214A (en) * 2016-09-09 2018-03-15 株式会社Where Electronic device
KR101928424B1 (en) * 2017-09-29 2018-12-12 주식회사 디에이치이비즈 Realistic block play apparatus using principles of sound combination and control method thereof
WO2019066405A1 (en) * 2017-09-29 2019-04-04 주식회사 디에이치이비즈 Realistic block-game educational device using sound combination principles, and control method of same
CN110520917A (en) * 2017-09-29 2019-11-29 Dh伊贝姿有限公司 Use the real square game instructional device and its control method of voice combination principle
JP2020185119A (en) * 2019-05-13 2020-11-19 M&Tプロジェクトパートナーズ株式会社 toy

Similar Documents

Publication Publication Date Title
JP2011239993A (en) Sound generation control unit
US8586853B2 (en) Performance apparatus and electronic musical instrument
US8664508B2 (en) Musical performance device, method for controlling musical performance device and program storage medium
JP5966465B2 (en) Performance device, program, and performance method
JP3179769B2 (en) Signal generator
JP4195232B2 (en) Musical instrument
US8445771B2 (en) Performance apparatus and electronic musical instrument
US20080250914A1 (en) System, method and software for detecting signals generated by one or more sensors and translating those signals into auditory, visual or kinesthetic expression
JP2006065331A (en) Apparatus and method for controlling music play in mobile communication terminal
JP2001070652A (en) Game machine
WO2018159830A1 (en) Playing support device and method
JP3654143B2 (en) Time-series data read control device, performance control device, video reproduction control device, time-series data read control method, performance control method, and video reproduction control method
JP3799190B2 (en) Music conductor game device
JP2006337483A (en) Electronic musical instrument
KR101113412B1 (en) Touching type musical instrument combined with light and image
JP4131279B2 (en) Ensemble parameter display device
JP2004233853A (en) Music learning toy
JP5147351B2 (en) Music performance program, music performance device, music performance system, and music performance method
JP5402253B2 (en) Operation evaluation apparatus and program
CN110889994A (en) Musical instrument played according to prompt signal
JP2013195625A (en) Musical sound generating device
JP2002301262A (en) Game device using music, its computer program and program storage medium
CN211529386U (en) Musical instrument played according to prompt signal
JP6098081B2 (en) Performance device, performance method and program
WO2023157186A1 (en) Information processing device, information processing method, and program