JP4537982B2 - Motor body control system, motor body and program thereof - Google Patents

Motor body control system, motor body and program thereof Download PDF

Info

Publication number
JP4537982B2
JP4537982B2 JP2006218718A JP2006218718A JP4537982B2 JP 4537982 B2 JP4537982 B2 JP 4537982B2 JP 2006218718 A JP2006218718 A JP 2006218718A JP 2006218718 A JP2006218718 A JP 2006218718A JP 4537982 B2 JP4537982 B2 JP 4537982B2
Authority
JP
Japan
Prior art keywords
sound
information
drive
driving
performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2006218718A
Other languages
Japanese (ja)
Other versions
JP2006297158A (en
Inventor
浩 中荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Co Ltd
Original Assignee
Bandai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Co Ltd filed Critical Bandai Co Ltd
Priority to JP2006218718A priority Critical patent/JP4537982B2/en
Publication of JP2006297158A publication Critical patent/JP2006297158A/en
Application granted granted Critical
Publication of JP4537982B2 publication Critical patent/JP4537982B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

本発明は運動体制御システム、運動体及びそのプログラムに関し、特に広く利用されているMIDI(Musical Instrument Digital Interface)データを人形等の運動体を駆動する為の駆動データとして利用し、運動体を制御する運動体制御システム、運動体及びそのプログラムに関する。   The present invention relates to a moving body control system, a moving body, and a program thereof, and particularly uses MIDI (Musical Instrument Digital Interface) data that is widely used as drive data for driving a moving body such as a doll, thereby controlling the moving body. The present invention relates to a moving body control system, a moving body, and a program thereof.

近年、デジタル化の波は音楽の世界にも波及しており、デジタルの演奏データによる楽器の演奏が行われている。この技術の代表的なものとして、MIDI(Musical Instrument Digital Interfaceの頭文字)がある。このMIDIは、楽器同士を接続しその音楽情報をデジタル信号によって伝達するためのインターフェースを意味し、
演奏状態を他の楽器に伝達するための標準となるハードウェアおよびソフトウェアフォーマットである。
In recent years, the wave of digitization has spread to the world of music, and musical instruments are played using digital performance data. A representative example of this technology is MIDI (acronym for Musical Instrument Digital Interface). MIDI means an interface for connecting musical instruments and transmitting music information by digital signals.
A standard hardware and software format for transmitting performance status to other musical instruments.

更に、MIDIで用いられるMIDIデータは、実際の音をデジタル信号に変換したオーディオ信号とは異なり、音そのもののデータではなく、 楽器の演奏情報である。例えば、キーボードでいえば、鍵盤を押す・離す、ペダルを踏む・離す、音色を変えるといった動作をそれぞれ符号化したものである。   Further, MIDI data used in MIDI is not musical sound data but musical instrument performance information, unlike an audio signal obtained by converting actual sound into a digital signal. For example, in the case of a keyboard, it encodes actions such as pressing and releasing the keyboard, pressing and releasing the pedal, and changing the tone.

MIDIデータは、複数のパート別に独立したコントロールをするためのチャンネルメッセージと、
MIDIシステム全体をコントロールするためのシステムメッセージに大別できる。
MIDI data consists of channel messages for independent control of multiple parts,
It can be broadly divided into system messages for controlling the entire MIDI system.

チャンネルメッセージでは最大16パートをコントロールするため、MIDIチャンネルという概念が用いられている。
さらに、チャンネルメッセージはノート(音符)情報などのボイスメッセージとボイスメッセージの受信状態を設定するモードメッセージに区別される。
Since the channel message controls up to 16 parts, the concept of MIDI channel is used.
Furthermore, the channel message is classified into a voice message such as note information and a mode message for setting the reception state of the voice message.

ボイスメッセージには、ノートオン・オフ(音を出す・止める)、プログラムチェンジ(音色切替)、ピッチベンド等がある。   Voice messages include note on / off (sound on / off), program change (tone switching), pitch bend, and the like.

奏情報の中でもっとも基本的な、例えば、「鍵盤を押す(ノートオン)」「鍵盤を離す(ノートオフ)」といった動作はノートオンメッセージとノートオフメッセージで行われる。   Among the performance information, the most basic operations such as “press the key (note on)” and “release the key (note off)” are performed by a note on message and a note off message.

ノートオンメッセージは、ステータスバイトにつづき、2バイト分のデータバイトで構成される。尚、ステータスバイトは通常、先頭の9がこのメッセージがノートオンメッセージであることを示し、次に任意のチャンネル番号が入る。   The note-on message is composed of two data bytes following the status byte. The status byte usually indicates that the first 9 indicates that this message is a note-on message, and then an arbitrary channel number is entered.

2バイトで構成されるデータバイトの1バイト目は音階をあらわすノート番号である。このノート番号は音階を数字で表現したもので、ピアノの中央のC(ド)を番号60として、半音ごとに1つづ増減していき、一番低い音が0、一番高い音が127となる。また、2バイト目は音の強さを示すベロシティである。この2バイト目のデータバイトのベロシティとは、鍵盤を押す速さ(楽器を鳴らす速さ)をその音の強さとみなして、その値をあらわしたパラメータである。   The first byte of the data bytes composed of 2 bytes is a note number representing a musical scale. This note number is a numerical representation of the scale, with C (do) in the center of the piano being number 60, and increasing and decreasing one by one for each semitone, with the lowest note being 0 and the highest note being 127. Become. The second byte is a velocity indicating the strength of the sound. The velocity of the second data byte is a parameter that represents the value of the speed at which the keyboard is pressed (the speed at which the instrument is played) is regarded as the strength of the sound.

また、ノートオフメッセージは、通常、ステータスバイトの先頭の8がノートオフメッセージであることを示し、次に任意のチャンネル番号が入る。   The note-off message normally indicates that the first 8 of the status byte is a note-off message, and then an arbitrary channel number is entered.

このようにMIDIデータは、MIDIチャンネル情報、音色情報、音階情報、音長情報及び音強情報と言った演奏に必要な音符情報が、規格に基づいて符号化されたものである。   Thus, MIDI data is obtained by encoding musical note information such as MIDI channel information, tone color information, scale information, tone length information, and tone strength information based on a standard.

一方、従来、複数の人形からなり、所定の演奏を行う玩具が知られている。これらの演奏人形は、予め人形内に記憶されている演奏情報に基づいて、人形が駆動し、演奏を行うものである。   On the other hand, conventionally, a toy composed of a plurality of dolls and performing a predetermined performance is known. These performance dolls are driven by the dolls based on performance information stored in advance in the dolls.

しかしながら、従来の演奏人形は、演奏するメロディと動作との同期が難しく、動きも不自然であった。これは、人形を駆動するデータと、メロディのデータとを別個に作成するからである。   However, in the conventional performance doll, it is difficult to synchronize the melody to be played and the movement, and the movement is unnatural. This is because data for driving a doll and melody data are created separately.

また、従来の演奏人形では、演奏する曲を決定し、この曲のスコアを元に駆動するデータとメロディのデータとを、独自のフォーマットで作成するため、作成のコストが高いものとなり、また、新しい演奏曲の追加も簡単にはできなかった。   In addition, in the conventional performance doll, the music to be played is determined, and the data to be driven and the data of the melody are created in a unique format based on the score of this song, so the cost of creation is high, It was not easy to add new performances.

一方、MIDIデータは、上述したように代表的な規格であり、MIDIデータで作成された曲が多く提供されており、また、作成も容易である。   On the other hand, the MIDI data is a typical standard as described above, and many songs created by the MIDI data are provided and can be easily created.

そこで、本発明は上記問題点に鑑みて作成されたものであって、その目的はMIDIデータから得られた演奏データを、演奏人形を駆動する駆動データとして用いることにより、メロディと同期が取れ、自然な動作を行うことができる運動体の駆動制御を行う運動体制御システム、運動体及びそのプログラムを提供することにある。   Therefore, the present invention was created in view of the above problems, and its purpose is to synchronize with the melody by using performance data obtained from MIDI data as drive data for driving a performance doll. It is an object of the present invention to provide a moving body control system, a moving body, and a program thereof that perform drive control of the moving body that can perform a natural motion.

上記課題を解決する第1の発明は、MIDIデータから得られた少なくとも音長情報を含む演奏データに基づいて、駆動箇所を駆動する複数の駆動手段及びメロディ・駆動制御部を有する運動体の駆動を前記メロディ・駆動制御部に制御させるための制御プログラムであって、供給された演奏データの音長情報による音の長さよりも短い時間に定められた駆動時間、前記駆動手段の駆動を制御する駆動制御信号を生成する処理を、前記メロディ・駆動制御部に実行させることを特徴とする。 According to a first aspect of the present invention for solving the above-mentioned problems, a moving body having a plurality of driving means for driving a driving portion and a melody / drive control unit based on performance data including at least sound length information obtained from MIDI data. Is a control program for controlling the melody / drive control unit to control the drive of the drive means for a drive time that is set to a time shorter than the sound length based on the sound length information of the supplied performance data. The melody / drive control unit is caused to execute processing for generating a drive control signal.

上記課題を解決する第2の発明は、前記駆動時間が供給される演奏データの音長情報毎に設定されていることを特徴とする。 A second invention that solves the above-described problem is characterized in that it is set for each sound length information of performance data to which the driving time is supplied.

上記課題を解決する第3の発明は、MIDIデータから得られた少なくとも音強情報を含む演奏データに基づいて、駆動箇所を駆動する複数の駆動手段及びメロディ・駆動制御部を有する運動体の駆動を前記メロディ・駆動制御部に制御させるための制御プログラムであって、音強情報毎に設定されており、該音強情報による音の強さに比例して長くなるように定められた駆動時間に基づいて、供給された演奏データの音強情報に対応する前記駆動時間、前記駆動手段の駆動を制御する駆動制御信号を生成する処理を、前記メロディ・駆動制御部に実行させることを特徴とする。 According to a third aspect of the present invention for solving the above-described problems, a moving body having a plurality of driving means and a melody / driving control unit for driving a driving portion based on performance data including at least tone intensity information obtained from MIDI data. Is a control program for controlling the melody / drive control unit, and is set for each sound intensity information, and the drive time is determined to be longer in proportion to the sound intensity based on the sound intensity information. And the melody / drive control unit is configured to execute a process of generating a drive control signal for controlling the drive time and the drive of the drive means corresponding to the tone intensity information of the supplied performance data. To do.

上記課題を解決する第4の発明は、MIDIデータから得られた少なくとも音長情報及び音強情報を含む演奏データに基づいて、駆動箇所を駆動する複数の駆動手段及びメロディ・駆動制御部を有する運動体の駆動を前記メロディ・駆動制御部に制御させるための制御プログラムであって、供給された演奏データの音長情報による音の長さよりも短い時間に定められた駆動時間、前記駆動手段のうち前記音長情報により駆動される駆動手段の駆動を制御する駆動制御信号を生成する処理と、音強情報毎に設定されており、該音強情報による音の強さに比例して長くなるように定められた駆動時間に基づいて、供給された演奏データの音強情報に対応する前記駆動時間、前記駆動手段のうち前記音強情報により駆動される駆動手段の駆動を制御する駆動制御信号を生成する処理と、前記演奏データの音長情報に対応して生成された駆動制御信号を、前記音長情報により駆動される駆動手段に供給する処理と、前記演奏データの音強情報に対応して生成された駆動制御信号を、前記音強情報により駆動される駆動手段に供給する処理とを前記メロディ・駆動制御部に実行させることを特徴とする。 A fourth invention for solving the above-described problems has a plurality of drive means and a melody / drive control unit for driving a drive location based on performance data including at least tone length information and tone strength information obtained from MIDI data. A control program for causing the melody / drive control unit to control the driving of a moving body, wherein the driving time is set to a time shorter than the length of the sound according to the sound length information of the supplied performance data. Of these, a process for generating a drive control signal for controlling the driving of the driving means driven by the sound length information and the sound intensity information are set and become longer in proportion to the sound intensity by the sound intensity information. based as the determined driving time, the driving time corresponding to the sound strength information supplied performance data, controls the drive of the drive means driven by said sound strong information of said drive means That the process of generating a drive control signal, said tone length drive control signal generated in response to information of the performance data, and the process for supplying the driving means driven by said tone duration information, the sound of the performance data The melody / drive control unit executes a process of supplying a drive control signal generated corresponding to the strong information to the driving means driven by the strong sound information .

上記課題を解決する第5の発明は、前記供給された演奏データの音長情報による音の長さよりも短い時間に定められた駆動時間が供給される演奏データの音長情報毎に設定されていることを特徴とする。 According to a fifth aspect of the present invention for solving the above-mentioned problem, a driving time set to a time shorter than a sound length according to the sound length information of the supplied performance data is set for each sound length information of the performance data supplied. It is characterized by being.

上記課題を解決する第6の発明は、上記第又は第の発明において、前記音長情報毎に予め定められた駆動時間は、10ms以上であることを特徴とする。
A sixth invention for solving the above-mentioned problems is characterized in that, in the second or fifth invention, the driving time predetermined for each sound length information is 10 ms or more.

上記課題を解決する第7の発明は、上記第3又は第4の発明において、前記音強情報毎に予め定められた駆動時間は、5ms以上であることを特徴とする。 A seventh invention for solving the above-mentioned problems is characterized in that, in the third or fourth invention, the driving time predetermined for each sound intensity information is 5 ms or more.

本発明は、MIDIデータから得られた情報に基づいて、演奏人形を駆動する駆動制御信号を生成しているので、演奏人形の動きをメロディと一致したリアルなものとすることができる。   In the present invention, since the drive control signal for driving the performance doll is generated based on the information obtained from the MIDI data, it is possible to make the movement of the performance doll realistic with the melody.

また、本発明は、新たな演奏人形や、演奏データを追加できるような構成としたので、演奏や動作にバリエーションが増えると言う効果がある。   In addition, since the present invention is configured such that new performance dolls and performance data can be added, there is an effect that variations in performance and operation increase.

本発明は、上述したMIDIデータから得られた演奏データを用いて各演奏人形の動作を制御することを特徴とする。以下、本発明の実施の形態を説明する。   The present invention is characterized in that the performance of each performance doll is controlled using performance data obtained from the above-described MIDI data. Embodiments of the present invention will be described below.

本発明の第1の実施の形態を説明する。   A first embodiment of the present invention will be described.

図1は本発明の演奏人形システム本体Aのブロック図である。   FIG. 1 is a block diagram of the performance doll system main body A of the present invention.

図1中、1は演奏データが格納された記憶部、2は演奏データを各演奏人形に供給する制御部、3はアルトサックスの演奏を行う演奏人形、4はアコースティックピアノを演奏する演奏人形、5はベースの演奏を行う演奏人形である。   In FIG. 1, 1 is a storage unit for storing performance data, 2 is a control unit for supplying performance data to each performance doll, 3 is a performance doll for performing an alto saxophone, 4 is a performance doll for playing an acoustic piano, Reference numeral 5 denotes a performance doll that performs a bass performance.

記憶部1は、オリジナルのMIDIデータから得られたMIDIチャンネル情報、音色情報、音階(音の高さ)情報、音長(音の長さ)情報及び音強(音の強さ)情報から成る演奏データが格納されている。この演奏データは、オリジナルのMIDIデータから、MIDIチャンネル情報、音色情報、音階(音の高さ)情報、音長(音の長さ)情報及び音強(音の強さ)情報から成る音符情報を抽出し、この抽出したデータのフォーマット等を変更することにより、制御部2及び各演奏人形3〜5の制御部を構成するマイコン等がデータ処理を行うことができるようにしたものである。これは、MIDIデータ形式そのもののデータを処理することが出来るCPU等は、コストの面から適切なものでないからである。但し、変換された演奏データは、MIDIデータの情報を反映したものであり、MIDIデータが示す音符情報と実質変わりはない。   The storage unit 1 includes MIDI channel information, tone color information, scale (pitch) information, tone length (sound length) information, and tone strength (sound strength) information obtained from original MIDI data. Performance data is stored. This performance data is note information comprising original MIDI data, MIDI channel information, tone color information, scale (pitch) information, tone length (sound length) information, and tone strength (sound strength) information. And the microcomputer or the like constituting the control unit 2 and the control units of the performance dolls 3 to 5 can perform data processing by changing the format and the like of the extracted data. This is because a CPU or the like that can process data in the MIDI data format itself is not appropriate in terms of cost. However, the converted performance data reflects the information of the MIDI data, and is not substantially different from the note information indicated by the MIDI data.

尚、制御部2及び各演奏人形3〜5の制御部が、MIDIデータを処理可能なものであれば、オリジナルのMIDIデータから抽出したMIDIデータ形式のMIDIチャンネル情報、音色情報、音階(音の高さ)情報、音長(音の長さ)情報及び音強(音の強さ)情報を、そのまま記憶部1に格納してもかまわない。   If the control unit 2 and the control units of the performance dolls 3 to 5 are capable of processing MIDI data, MIDI channel information, timbre information, tone scale (sound scale of the MIDI data format extracted from the original MIDI data) The height information, the sound length (sound length) information, and the sound strength (sound strength) information may be stored in the storage unit 1 as they are.

ここで、演奏データの一例を、図2を用いて説明する。   Here, an example of performance data will be described with reference to FIG.

図2で示される演奏データは、図3に示されるスコアで示されるものである。   The performance data shown in FIG. 2 is indicated by the score shown in FIG.

演奏データの項目は、上述したようにMIDIチャンネル情報、音色情報、音階(音の高さ)情報、音長(音の長さ)情報及び音強(音の強さ)情報である。図2で示される演奏データは、MIDIチャンネル情報は“1”であり、音色情報は“アルトサックス”である。   As described above, the performance data items are MIDI channel information, tone color information, scale (pitch) information, tone length (sound length) information, and tone strength (sound strength) information. In the performance data shown in FIG. 2, the MIDI channel information is “1”, and the timbre information is “Alto Saxophone”.

また、図3に示されるスコアの1番目の音は“四分音符”であり、これに対応する音階(音の高さ)情報は“C4”であり、音長(音の長さ)情報は“0.5秒”である。尚、音長(音の長さ)情報については、全体の速さが120であるので、四分音符を、60/120=0.5秒とした。また、音強(音の強さ)情報はスコアには表現されないが、MIDIデータには音強(音の強さ)情報が含まれており、ここでは、音強(音の強さ)情報を“5”とした。   Also, the first note of the score shown in FIG. 3 is a “quarter note”, the corresponding scale (pitch) information is “C4”, and the sound length (sound length) information. Is “0.5 seconds”. Regarding the sound length (sound length) information, since the overall speed is 120, the quarter note is set to 60/120 = 0.5 seconds. In addition, sound strength (sound strength) information is not expressed in the score, but MIDI data includes sound strength (sound strength) information. Here, sound strength (sound strength) information is included. Was set to “5”.

同様に、図3に示されるスコアの2番目の音は“八分音符”であり、これに対応する音階(音の高さ)情報は“E4”であり、音長(音の長さ)情報は“0.25秒”である。また、音強(音の強さ)情報は“3”である。   Similarly, the second note of the score shown in FIG. 3 is “eighth note”, and the corresponding scale (pitch) information is “E4”, and the tone length (sound length). The information is “0.25 seconds”. The sound intensity (sound intensity) information is “3”.

同様に、図3に示されるスコアの3番目の音は“八分音符”であり、これに対応する音階(音の高さ)情報は“G4”であり、音長(音の長さ)情報は“0.25秒”である。また、音強(音の強さ)情報は“3”である。   Similarly, the third note of the score shown in FIG. 3 is “eighth note”, the corresponding scale (pitch) information is “G4”, and the tone length (sound length). The information is “0.25 seconds”. The sound intensity (sound intensity) information is “3”.

同様に、図3に示されるスコアの4番目の音は“二分音符”であり、これに対応する音階(音の高さ)情報は“C5”であり、音長(音の長さ)情報は“1秒”である。また、音強(音の強さ)情報は“8”である。   Similarly, the fourth note of the score shown in FIG. 3 is a “half note”, the corresponding scale (pitch) information is “C5”, and the tone length (sound length) information. Is “1 second”. The sound intensity (sound intensity) information is “8”.

更に、他チャンネルの演奏データの一例を図4に示す。尚、図4に示される演奏データも、図3に示されるスコアで示されるものである。   Furthermore, FIG. 4 shows an example of performance data of other channels. The performance data shown in FIG. 4 is also indicated by the score shown in FIG.

演奏データの項目は、上述したようにMIDIチャンネル情報、音色情報、音階(音の高さ)情報、音長(音の長さ)情報及び音強(音の強さ)情報である。図4で示される演奏データは、MIDIチャンネル情報は“2”であり、音色情報は“アコースティックピアノ”である。   As described above, the performance data items are MIDI channel information, tone color information, scale (pitch) information, tone length (sound length) information, and tone strength (sound strength) information. In the performance data shown in FIG. 4, the MIDI channel information is “2”, and the timbre information is “acoustic piano”.

また、図3に示されるスコアの1番目の音は“四分音符”であり、これに対応する音階(音の高さ)情報は“C4”であり、音長(音の長さ)情報は“0.5秒”である。尚、音長(音の長さ)情報については、全体の速さが120であるので、四分音符を、60/120=0.5秒とした。また、音強(音の強さ)情報はスコアには表現されないが、MIDIデータには音強(音の強さ)情報が含まれており、ここでは、音強(音の強さ)情報を“5”とした。   Also, the first note of the score shown in FIG. 3 is a “quarter note”, the corresponding scale (pitch) information is “C4”, and the sound length (sound length) information. Is “0.5 seconds”. Regarding the sound length (sound length) information, since the overall speed is 120, the quarter note is set to 60/120 = 0.5 seconds. In addition, sound strength (sound strength) information is not expressed in the score, but MIDI data includes sound strength (sound strength) information. Here, sound strength (sound strength) information is included. Was set to “5”.

同様に、図4に示されるスコアの2番目の音は“八分音符”であり、これに対応する音階(音の高さ)情報は“E4”であり、音長(音の長さ)情報は“0.25秒”である。また、音強(音の強さ)情報は“3”である。   Similarly, the second note of the score shown in FIG. 4 is “eighth note”, and the corresponding scale (pitch) information is “E4”, and the tone length (sound length). The information is “0.25 seconds”. The sound intensity (sound intensity) information is “3”.

同様に、図4に示されるスコアの3番目の音は“八分音符”であり、これに対応する音階(音の高さ)情報は“G4”であり、音長(音の長さ)情報は“0.25秒”である。また、音強(音の強さ)情報は“3”である。   Similarly, the third note of the score shown in FIG. 4 is “eighth note”, the corresponding scale (pitch) information is “G4”, and the tone length (sound length). The information is “0.25 seconds”. The sound intensity (sound intensity) information is “3”.

同様に、図4に示されるスコアの4番目の音は“二分音符”であり、これに対応する音階(音の高さ)情報は“C5”であり、音長(音の長さ)情報は“1秒”である。また、音強(音の強さ)情報は“8”である。   Similarly, the fourth sound of the score shown in FIG. 4 is a “half note”, the corresponding scale (pitch) information is “C5”, and the sound length (sound length) information. Is “1 second”. The sound intensity (sound intensity) information is “8”.

以上のような演奏データが記憶部1に格納されている。   The performance data as described above is stored in the storage unit 1.

制御部2は、MIDIチャンネル情報に対応する演奏人形を記憶しており、記憶部1から演奏データを読み出し、演奏データのMIDIチャンネル情報に対応した演奏人形に演奏データを供給する。   The control unit 2 stores a performance doll corresponding to the MIDI channel information, reads performance data from the storage unit 1, and supplies the performance data to the performance doll corresponding to the MIDI channel information of the performance data.

例えば、MIDIチャンネル情報“1”に対応する演奏人形として演奏人形3が記憶されており、MIDIチャンネル情報“2”に対応する演奏人形として演奏人形4が記憶されている。そして、記憶部1から演奏データを読み出し、この演奏データのMIDIチャンネル情報が“1”であるならば、その演奏データを演奏人形3に供給し、MIDIチャンネル情報が“2”であるならば、その演奏データを演奏人形4に供給する。   For example, the performance doll 3 is stored as a performance doll corresponding to the MIDI channel information “1”, and the performance doll 4 is stored as a performance doll corresponding to the MIDI channel information “2”. Then, the performance data is read from the storage unit 1. If the MIDI channel information of the performance data is “1”, the performance data is supplied to the performance doll 3, and if the MIDI channel information is “2”, The performance data is supplied to the performance doll 4.

次に、演奏人形3〜5について説明する。   Next, performance dolls 3 to 5 will be described.

各演奏人形は、演奏人形を動作(駆動)させる複数の駆動部10と、メロディが出力されるスピーカー11と、駆動部10及びスピーカー11を制御するメロディ・駆動制御部12とを有する。   Each performance doll includes a plurality of drive units 10 that operate (drive) the performance doll, a speaker 11 that outputs a melody, and a melody / drive control unit 12 that controls the drive unit 10 and the speaker 11.

駆動部11は、演奏人形の胴体や、腕等を駆動させる。この駆動部11は、演奏人形毎に異なる動力を持っており、例えば、アルトサックスの演奏を行う演奏人形3では、両手を駆動するソレノイド111と、胴体を駆動するモーター112とを有する。また、アコースティックピアノを演奏する演奏人形4では、左手を駆動するソレノイド150と、右手を駆動するソレノイド151と、右足及び頭を駆動するソレノイド152とを有する。これらの駆動の制御は、メロディ・駆動制御部12からの駆動制御信号により行われる。   The drive unit 11 drives the body and arms of the performance doll. The drive unit 11 has different power for each performance doll. For example, the performance doll 3 performing an alto saxophone has a solenoid 111 that drives both hands and a motor 112 that drives the trunk. The performance doll 4 that plays an acoustic piano includes a solenoid 150 that drives the left hand, a solenoid 151 that drives the right hand, and a solenoid 152 that drives the right foot and head. These drive controls are performed by drive control signals from the melody / drive controller 12.

ここで、駆動部10の詳細を、アルトサックスの演奏を行う演奏人形3を例にして説明する。   Here, the details of the drive unit 10 will be described using the performance doll 3 performing an alto saxophone as an example.

図5は演奏人形3の胴体を駆動するモーター112が格納されたギヤ部113を説明する為の図である。   FIG. 5 is a view for explaining the gear portion 113 in which the motor 112 for driving the trunk of the performance doll 3 is stored.

モーター112は、後述する駆動制御信号の出力時間だけ回転を行う。そして、その回転力はギヤに伝えられ、ギヤに接続されたクランプ114が回転を行うように構成されている。クランプ114上には支柱115が配設されており、クランプ114の回転により、支柱115が昇降するように構成されている。   The motor 112 rotates for an output time of a drive control signal described later. The rotational force is transmitted to the gear, and the clamp 114 connected to the gear is configured to rotate. A support column 115 is disposed on the clamp 114, and the support column 115 is moved up and down by the rotation of the clamp 114.

また、人形胴体本体116は、図6に示される如く、支柱115が挿入される円筒部117と、この円筒部117の両側にそれぞれ設けられた腕柱部118と、円筒部117の上端に設けられ、内部にソレノイド111が格納された回転支柱部119と、人形胴体本体116の外に設けられたアルトサックス120と接続され、水平方向に回動可能であり、且つ、ソレノイド111の吸着により後述するコイルスプリング122から見て反時計回りの方向へ回転可能な回転部121と、その弾性により回転部121をソレノイド111の回転方向と逆の方向に付勢可能なコイルスプリング122とを有する。   Further, as shown in FIG. 6, the doll torso main body 116 is provided at a cylindrical portion 117 into which the support column 115 is inserted, an arm column portion 118 provided on each side of the cylindrical portion 117, and an upper end of the cylindrical portion 117. Are connected to a rotary support column 119 in which a solenoid 111 is housed and an alto saxophone 120 provided outside the doll torso body 116, and can be rotated in the horizontal direction. A rotating part 121 that can be rotated in a counterclockwise direction when viewed from the coil spring 122, and a coil spring 122 that can urge the rotating part 121 in a direction opposite to the rotating direction of the solenoid 111 by its elasticity.

腕柱部118は、人形本体123に回動可能に取り付けられ、人形胴体本体の中空部117に挿入された支柱115が昇降運動を行うことにより、人形本体123が前後方向に傾動を行う。   The arm column 118 is rotatably attached to the doll body 123, and the doll body 123 tilts in the front-rear direction when the column 115 inserted in the hollow portion 117 of the doll torso body moves up and down.

一方、回転部121には磁石が設けられており、駆動制御信号の供給によりソレノイド111に生じる吸着力により、コイルスプリング122から見て反時計回りの方向へコイルスプリング122の弾性に抗して回転するように構成されている。更に、回転部121は、図7に示される如く、アルトサックス120と人形本体123の前方にて固着されており、回転部121の回転によりアルトサックス120が左右に揺動するように構成されている。   On the other hand, the rotating part 121 is provided with a magnet, and rotates against the elasticity of the coil spring 122 in the counterclockwise direction as viewed from the coil spring 122 by the attractive force generated in the solenoid 111 by supplying the drive control signal. Is configured to do. Further, as shown in FIG. 7, the rotating part 121 is fixed in front of the alto saxophone 120 and the doll body 123, and the alto saxophone 120 is configured to swing left and right by the rotation of the rotating part 121. Yes.

また、アルトサックス120は、人形の左右の腕部124に固着されており、更に、左右の腕部124の下部に設けられ垂直下方へ延びる軸126は、人形本体123の腕受け部125に回動可能に取り付けられており、左右の腕部124は、軸126を中心に水平方向に回動可能である。そして、左右の腕部124は、アルトサックス120の左右の揺動と連動して、図7に示される如く、左右に揺動する。   Further, the alto saxophone 120 is fixed to the left and right arm portions 124 of the doll, and a shaft 126 that is provided at the lower portion of the left and right arm portions 124 and extends vertically downward is connected to the arm receiving portion 125 of the doll main body 123. The left and right arm portions 124 are pivotably attached, and are rotatable in the horizontal direction about the shaft 126. The left and right arm portions 124 swing left and right as shown in FIG. 7 in conjunction with the left and right swing of the alto saxophone 120.

メロディ・駆動制御部12は、制御部2から供給された演奏データに基づいて、駆動部10及びスピーカー11を駆動する為の駆動制御信号及びメロディ信号を生成する。   The melody / drive control unit 12 generates a drive control signal and a melody signal for driving the drive unit 10 and the speaker 11 based on the performance data supplied from the control unit 2.

ここで、駆動部10を制御する駆動制御信号の生成について説明する。   Here, generation of a drive control signal for controlling the drive unit 10 will be described.

メロディ・駆動制御部12は、制御部2から演奏データが供給される。この演奏データは、上述したようにMIDIチャンネル情報、音色情報、音階(音の高さ)情報、音長(音の長さ)情報及び音強(音の強さ)情報から成る。演奏データの各情報に基づく駆動制御信号の生成は、演奏人形毎に予め決定されている。   The melody / drive control unit 12 is supplied with performance data from the control unit 2. As described above, this performance data includes MIDI channel information, tone color information, scale (sound pitch) information, tone length (sound length) information, and tone strength (sound strength) information. Generation of the drive control signal based on each piece of performance data is determined in advance for each performance doll.

例えば、アルトサックスの演奏を行う演奏人形3については、MIDIチャンネル情報は、これ以降の情報が自己の演奏人形の為の情報であることを認識する為に用いられる。また、音色情報及び音階(音の高さ)情報は、駆動箇所を特定する為に用いられる。また、音長(音の長さ)情報及び音強(音の強さ)情報は、駆動制御信号の出力時間を決定する為に用いられる。   For example, for a performance doll 3 performing an alto saxophone, the MIDI channel information is used to recognize that the subsequent information is information for the performance doll. Further, the timbre information and the scale (pitch) information are used to specify the driving location. The sound length (sound length) information and sound intensity (sound intensity) information are used to determine the output time of the drive control signal.

図8に、アルトサックスの演奏を行う演奏人形3の駆動制御信号の生成の一例を示す。尚、図8に示される駆動制御信号は、上述した図3に示される演奏データに基づいて生成されたものである。   FIG. 8 shows an example of generation of drive control signals for the performance doll 3 performing the alto saxophone. The drive control signal shown in FIG. 8 is generated based on the performance data shown in FIG. 3 described above.

演奏人形3の駆動箇所は、手(ソレノイド111)と胴体(モーター112)との2箇所である。そこで、音色情報に基づいて、手(ソレノイド111)と胴体(モーター112)との2箇所の駆動場所を特定する。尚、演奏人形3では音階(音の高さ)情報は用いない。   The performance doll 3 is driven at two locations: a hand (solenoid 111) and a torso (motor 112). Therefore, two driving locations of the hand (solenoid 111) and the trunk (motor 112) are specified based on the timbre information. Note that the performance doll 3 does not use musical scale (pitch) information.

次に、各駆動箇所の駆動時間(駆動制御信号の出力時間)であるが、手(ソレノイド111)の駆動箇所については、音強(音の強さ)情報を用いる。音の強さは8段階であるので、音の強さ“1”及び“2”は駆動制御信号の出力時間を“5mS”、音の強さ“3”及び“4”は駆動制御信号の出力時間を“10mS”、音の強さ“5”及び“6”は駆動制御信号の出力時間を“20mS”、音の強さ“7”及び“8”は駆動制御信号の出力時間を“30mS”と予め定めておく。   Next, the driving time (output time of the drive control signal) of each driving location is used. For the driving location of the hand (solenoid 111), sound intensity (sound intensity) information is used. Since the sound intensity is 8 steps, the sound intensity “1” and “2” indicate the output time of the drive control signal “5 mS”, and the sound intensity “3” and “4” indicate the drive control signal. The output time is “10 mS”, the sound intensity “5” and “6” is the drive control signal output time “20 mS”, and the sound intensity “7” and “8” is the drive control signal output time “ 30 mS "is set in advance.

1番目の音では音強(音の強さ)情報は“5”であるので、手(ソレノイド111)の駆動箇所への駆動制御信号の出力時間は“20mS”となる。また、2番目の音では音強(音の強さ)情報は“3”であるので、手(ソレノイド111)の駆動箇所への駆動制御信号の出力時間は“10mS”となる。また、3番目の音では音強(音の強さ)情報は“3”であるので、手(ソレノイド111)の駆動箇所への駆動制御信号の出力時間は“10mS”となる。また、4番目の音では音強(音の強さ)情報は“8”であるので、手(ソレノイド111)の駆動箇所への駆動制御信号の出力時間は“30mS”となる。   In the first sound, the sound intensity (sound intensity) information is “5”, so the output time of the drive control signal to the drive location of the hand (solenoid 111) is “20 mS”. In the second sound, since the sound intensity (sound intensity) information is “3”, the output time of the drive control signal to the drive location of the hand (solenoid 111) is “10 mS”. In the third sound, since the sound intensity (sound intensity) information is “3”, the output time of the drive control signal to the drive location of the hand (solenoid 111) is “10 mS”. In the fourth sound, since the sound intensity (sound intensity) information is “8”, the output time of the drive control signal to the drive location of the hand (solenoid 111) is “30 mS”.

続いて、胴体(モーター112)の駆動箇所については、音長(音の長さ)情報を用いる。胴体(モーター112)の駆動箇所への駆動制御信号の出力時間は、音長(音の長さ)情報の時間と同じに設定するように予め定めておく。1番目の音では音長(音の長さ)情報は“0.5秒”であるので、胴体(モーター112)の駆動箇所への駆動制御信号の出力時間は“0.5秒”となる。また、2番目の音では音長(音の長さ)情報は“0.25秒”であるので、胴体(モーター112)の駆動箇所への駆動制御信号の出力時間は“0.25秒”となる。また、3番目の音では音長(音の長さ)情報は“0.25秒”であるので、胴体(モーター)の駆動箇所への駆動制御信号の出力時間は“0.25秒”となる。また、4番目の音では音長(音の長さ)情報は“1.0秒”であるので、胴体(モーター112)の駆動箇所への駆動制御信号の出力時間は“1.0秒”となる。   Subsequently, sound length (sound length) information is used for the driving portion of the body (motor 112). The output time of the drive control signal to the drive location of the body (motor 112) is determined in advance so as to be set to be the same as the time of the sound length (sound length) information. In the first sound, since the sound length (sound length) information is “0.5 seconds”, the output time of the drive control signal to the drive portion of the body (motor 112) is “0.5 seconds”. . In the second sound, since the sound length (sound length) information is “0.25 seconds”, the output time of the drive control signal to the drive part of the body (motor 112) is “0.25 seconds”. It becomes. In the third sound, since the sound length (sound length) information is “0.25 seconds”, the output time of the drive control signal to the drive part of the body (motor) is “0.25 seconds”. Become. In the fourth sound, since the sound length (sound length) information is “1.0 second”, the output time of the drive control signal to the drive part of the body (motor 112) is “1.0 second”. It becomes.

以上の如く、MIDIデータから得られた情報に基づいて、アルトサックスの演奏を行う演奏人形3の駆動制御信号の生成が行なわれているため、手(ソレノイド111)の駆動箇所と胴体(モーター112)の駆動箇所が駆動することによる演奏人形3の動きと当該MIDIデータのメロディとが一致する。   As described above, since the drive control signal of the performance doll 3 performing the alto saxophone is generated based on the information obtained from the MIDI data, the drive location of the hand (solenoid 111) and the trunk (motor 112) are generated. ), The movement of the performance doll 3 by driving the driving location matches the melody of the MIDI data.

例えば、演奏人形3を図5、図6に示す構成とすれば、手(ソレノイド111)の駆動箇所の駆動、すなわちソレノイド111の励起により生じる演奏人形3の動作は、ソレノイド111が励起されていない状態では人形本体123の正面から見て左側にあるアルトサックス(回転部121が回動していない状態)が駆動制御信号の出力時間分だけ人形本体123の正面から見て右側に移動した状態(ソレノイド111の吸着によりコイルスプリング122の弾性に抗して回転部121が反時計方向に回転している状態)となる動作となり、胴体(モーター)の駆動箇所の駆動、すなわちモーター112の駆動により生じる演奏人形3の動きは、1往復2秒間のサイクル(支柱部115の1回の昇降サイクル)で人形本体123を前後に傾動動作させるものとなる。なお、該傾動動作は一定の振幅で行なわれ1往復2秒間の動作とする。   For example, if the performance doll 3 is configured as shown in FIGS. 5 and 6, the operation of the performance doll 3 caused by driving of the hand (solenoid 111), that is, the excitation of the solenoid 111 is not excited. In the state, the alto sax on the left side when viewed from the front of the doll main body 123 (the state in which the rotating portion 121 is not rotated) is moved to the right when viewed from the front of the doll main body 123 for the output time of the drive control signal ( The rotation of the rotating portion 121 is counterclockwise against the elasticity of the coil spring 122 due to the adsorption of the solenoid 111, and is caused by the driving of the driving part of the body (motor), that is, the driving of the motor 112. The movement of the performance doll 3 tilts the doll main body 123 back and forth in a cycle of 1 reciprocation for 2 seconds (one up and down cycle of the support column 115). The thing to work. The tilting operation is performed with a constant amplitude and is performed for one reciprocation for 2 seconds.

今、人形本体123は前後傾動動作においてもっとも後に傾いた状態にあるものとする。   Now, it is assumed that the doll body 123 is tilted most backward in the forward / backward tilting operation.

このとき、1番目の音の発生と一致して手(ソレノイド)の駆動箇所が20msだけ駆動されることにより、回転部121がソレノイド111に吸着されて反時計方向に回動するため、音の長さ0.5秒の先頭20msの間だけアルトサックス120が人形本体123の正面から見て右側に移動した状態となり、20ms経過後再び定常状態、すなわち人形本体123の正面から見て左側に戻る。また、2番目の音の発生と一致して手(ソレノイド)の駆動箇所が10ms駆動されることにより、1番目の音の場合と同様に音の長さ0.25秒の先頭10msの間だけアルトサックス120が人形本体123の正面から見て右側に移動した状態となり、10ms経過後、再び人形本体123の正面から見て左側に戻る。また、3番目の音の発生と一致して手(ソレノイド)の駆動箇所が10msだけ駆動されることにより、1番目の音の場合と同様に音の長さ0.5秒の先頭10msの間だけアルトサックス120が人形本体123の正面から見て右側に移動した状態となり、10ms経過後、再び人形本体123の正面から見て左側に戻る。また、4番目の音の発生と一致してに手(ソレノイド)の駆動箇所が30msだけ駆動されることにより、1番目の音の場合と同様に音の長さ0.5秒の先頭30msの間だけアルトサックス120が人形本体123の正面から見て右側に移動した状態となり、30ms経過後、再び人形本体123の正面から見て左側に戻る。   At this time, the driving part of the hand (solenoid) is driven for 20 ms in accordance with the generation of the first sound, so that the rotating part 121 is attracted to the solenoid 111 and rotates counterclockwise. The alto saxophone 120 moves to the right when viewed from the front of the doll main body 123 for the first 20 ms of 0.5 seconds in length, and after 20 ms elapses, returns to the left side when viewed from the front of the doll main body 123 again. . In addition, the hand (solenoid) drive point is driven for 10 ms in coincidence with the generation of the second sound, so that only the first 10 ms of the sound length of 0.25 seconds as in the case of the first sound. The alto saxophone 120 is moved to the right when viewed from the front of the doll main body 123, and after 10 ms has passed, returns to the left when viewed from the front of the doll main body 123 again. In addition, when the hand (solenoid) is driven for 10 ms in coincidence with the generation of the third sound, the first 10 ms of the sound length of 0.5 seconds is applied as in the case of the first sound. Only the alto saxophone 120 is moved to the right side when viewed from the front of the doll main body 123, and after 10 ms, returns to the left side when viewed from the front of the doll main body 123 again. In addition, when the hand (solenoid) is driven for 30 ms in coincidence with the generation of the fourth sound, the first 30 ms of the sound length of 0.5 seconds is the same as in the case of the first sound. The alto saxophone 120 is moved to the right side as viewed from the front of the doll main body 123 for a period of time, and after 30 ms, returns to the left side when viewed from the front of the doll main body 123.

このことにより、音の発生と、アルトサックス120が左側から右側に移動し再び左側に戻る動作が一致し、さらに手(ソレノイド)の駆動箇所は音強(音の強さ)情報に応じて駆動制御信号の出力時間が定められていることから、アルトサックス120が右側に移動した状態となっている時間も音の強さに応じて変化する。したがって、音の発生および音の強さと、人形本体123の腕部124およびアルトサックス120の動きが一致する。   As a result, the generation of sound coincides with the movement of the alto saxophone 120 from the left side to the right side and back to the left side, and the hand (solenoid) is driven according to the sound intensity (sound intensity) information. Since the output time of the control signal is determined, the time during which the alto saxophone 120 is moved to the right side also changes according to the sound intensity. Therefore, the generation of sound and the strength of the sound coincide with the movement of the arm portion 124 and the alto saxophone 120 of the doll main body 123.

また、同時に1番目の音の発生と一致して胴体(モーター)の駆動箇所が駆動しはじめ、駆動制御信号の出力時間0.5秒(これは音長(音の長さ)情報と一致している)だけ人形本体123は前方へ傾動する。また、2番目の音の発生と一致して胴体(モーター)の駆動箇所が駆動しはじめ、駆動制御信号の出力時間0.25秒(これは音長(音の長さ)情報と一致している)だけ人形本体123は前方へ傾動する。また、3番目の音の発生と一致して胴体(モーター)の駆動箇所が駆動しはじめ、駆動制御信号の出力時間0.25秒(これは音長(音の長さ)情報と一致している)だけ人形本体123は前方へ傾動する。また、4番目の音の発生と一致して胴体(モーター)の駆動箇所が駆動しはじめ、このとき人形本体123はもっとも前傾している状態のため、駆動制御信号の出力時間1.0秒(これは音長(音の長さ)情報と一致している)だけ後方へ傾動する。このことにより、音の長さと、人形本体123が傾動する動作が一致し、現実のアルトサックス奏者が音の長さに合わせて体を揺らしている動きを表現できる。   At the same time, the driving part of the body (motor) starts to drive in coincidence with the generation of the first sound, and the drive control signal output time 0.5 seconds (this matches the sound length (sound length) information) The doll body 123 tilts forward. Also, the body (motor) drive part begins to drive in accordance with the second sound generation, and the drive control signal output time 0.25 seconds (this matches the sound length (sound length) information) The doll body 123 tilts forward. Also, the body (motor) drive part begins to drive in accordance with the third sound generation, and the drive control signal output time 0.25 seconds (this matches the sound length (sound length) information) The doll body 123 tilts forward. Also, the driving position of the body (motor) starts to drive in coincidence with the generation of the fourth sound, and at this time, the doll body 123 is most tilted forward, so the output time of the drive control signal is 1.0 second. Tilt backwards (which is consistent with the sound length (sound length) information). As a result, the length of the sound coincides with the movement of the doll body 123 tilting, and the movement of the actual alto saxophone player shaking the body according to the length of the sound can be expressed.

尚、上記の例では音の長さと駆動制御信号の出力時間を等しいものとしたため、1番目から4番目の音に対応した各々の傾動動作は連結されて途切れのない一連の動きとなるが、駆動制御信号の出力時間を音の長さに対し調整(例えば出力時間=音の長さ−10ms)して、各音の終了直前に傾動動作を停止させても良い。このことにより、音の変化と傾動動作の停止が一致し、より演奏人形3の動作はメロディと一致したものとなるのでリアルである。   In the above example, since the sound length is equal to the output time of the drive control signal, the tilting operations corresponding to the first to fourth sounds are connected to form a series of uninterrupted movements. The tilting operation may be stopped immediately before the end of each sound by adjusting the output time of the drive control signal with respect to the sound length (for example, output time = sound length−10 ms). As a result, the change of the sound and the stop of the tilting operation coincide with each other, and the operation of the performance doll 3 becomes more consistent with the melody, which is realistic.

また、1音符に対して1サイクルの傾動動作を割り当てるようにしても良い。例えば、1番目の音の発生と一致して胴体(モーター)の駆動箇所が駆動しはじめ、駆動制御信号の出力時間0.5秒(これは音長(音の長さ)情報と一致している)の半分の時間、すなわち0.25秒で演奏人形3の上体部分が下体部分に対しもっとも前傾している状態となり、その後の0.25秒で元のもっとも後に傾いた状態となるように制御しても良い。このようにすることにより、演奏人形の動作が1音符毎に対応していることが明確となり、リアルなものとなる。   Further, one cycle of tilting motion may be assigned to one note. For example, the driving part of the body (motor) starts to drive in accordance with the generation of the first sound, and the output time of the drive control signal is 0.5 seconds (this corresponds to the sound length (sound length) information) The upper part of the performance doll 3 is tilted most forward with respect to the lower part in 0.25 seconds, that is, 0.25 seconds thereafter, and the original most tilted state in the subsequent 0.25 seconds. You may control as follows. By doing so, it becomes clear that the operation of the performance doll corresponds to each note, and it becomes realistic.

次に、アコースティックピアノを演奏する演奏人形4の駆動制御信号の生成について説明する。図9に、アコースティックピアノを演奏する演奏人形4の駆動制御信号の生成の一例を示す。尚、図9に示される駆動制御信号は、上述した図4に示される演奏データに基づいて生成されたものである。   Next, generation of a drive control signal for the performance doll 4 playing an acoustic piano will be described. FIG. 9 shows an example of generation of a drive control signal for the performance doll 4 playing an acoustic piano. The drive control signal shown in FIG. 9 is generated based on the performance data shown in FIG. 4 described above.

演奏人形4の駆動箇所は、左手(ソレノイド)と、右手(ソレノイド)と、右足及び頭(ソレノイド)との3箇所である。そこで、音色情報に基づいて、駆動箇所として右足及び頭(ソレノイド)の箇所を特定する。続いて、音階(音の高さ)情報により、左手(ソレノイド)又は右手(ソレノイド)のいずれを駆動箇所とするかを決定する。本実施の形態では、音階(音の高さ)情報が“C5”以上(C5より高い音)の場合は右手(ソレノイド)を駆動箇所とし、“C5”より低い音の場合は左手(ソレノイド)を駆動箇所とするように予め決定しておく。   The performance doll 4 is driven at three locations: a left hand (solenoid), a right hand (solenoid), a right foot and a head (solenoid). Therefore, the right foot and the head (solenoid) are specified as the driving points based on the timbre information. Subsequently, it is determined which one of the left hand (solenoid) and the right hand (solenoid) is to be used as the driving location based on the scale (pitch) information. In the present embodiment, when the scale (pitch) information is “C5” or higher (sound higher than C5), the right hand (solenoid) is used as the driving position, and when the sound is lower than “C5”, the left hand (solenoid) is used. Is determined in advance so as to be a driving location.

これらに従うと、1番目の音では音階(音の高さ)情報が“C4”であるので、左手(ソレノイド)を駆動箇所とする。また、2番目の音では音階(音の高さ)情報が“E4”であるので、左手(ソレノイド)を駆動箇所とする。また、3番目の音では音階(音の高さ)情報が“G4”であるので、左手(ソレノイド)を駆動箇所とする。また、4番目の音では音階(音の高さ)情報が“C5”であるので、右手(ソレノイド)を駆動箇所とする。   According to these, since the scale (pitch) information is “C4” in the first sound, the left hand (solenoid) is used as the driving location. In the second sound, the scale (pitch) information is “E4”, so the left hand (solenoid) is used as the drive location. In the third sound, the scale (pitch) information is “G4”, so the left hand (solenoid) is used as the drive location. In the fourth sound, since the scale (pitch) information is “C5”, the right hand (solenoid) is used as the driving location.

次に、各駆動箇所の駆動時間(駆動制御信号の出力時間)であるが、左手(ソレノイド)又は右手(ソレノイド)の駆動箇所については、音強(音の強さ)情報を用いる。音の強さは8段階であるので、音の強さ“1”及び“2”は駆動制御信号の出力時間を“10mS”、音の強さ“3”及び“4”は駆動制御信号の出力時間を“15mS”、音の強さ“5”及び“6”は駆動制御信号の出力時間を“25mS”、音の強さ“7”及び“8”は駆動制御信号の出力時間を“35mS”と予め定めておく。   Next, the drive time (output time of the drive control signal) of each drive location is used. For the drive location of the left hand (solenoid) or the right hand (solenoid), sound intensity (sound intensity) information is used. Since the sound intensity is 8 levels, the sound intensity “1” and “2” indicate the output time of the drive control signal “10 mS”, and the sound intensity “3” and “4” indicate the drive control signal. The output time is “15 mS”, the sound intensity “5” and “6” is the drive control signal output time “25 mS”, the sound intensity “7” and “8” is the drive control signal output time “ 35 mS "is set in advance.

1番目の音では音強(音の強さ)情報は“5”であるので、左手(ソレノイド)の駆動箇所への駆動制御信号の出力時間は“25mS”となる。また、2番目の音では音強(音の強さ)情報は“3”であるので、左手(ソレノイド)の駆動箇所への駆動制御信号の出力時間は“15mS”となる。また、3番目の音では音強(音の強さ)情報は“3”であるので、左手(ソレノイド)の駆動箇所への駆動制御信号の出力時間は“15mS”となる。また、4番目の音では音強(音の強さ)情報は“8”であるので、右手(ソレノイド)の駆動箇所への駆動制御信号の出力時間は“35mS”となる。   Since the sound intensity (sound intensity) information of the first sound is “5”, the output time of the drive control signal to the drive position of the left hand (solenoid) is “25 mS”. In the second sound, since the sound intensity (sound intensity) information is “3”, the output time of the drive control signal to the drive position of the left hand (solenoid) is “15 mS”. In the third sound, since the sound intensity (sound intensity) information is “3”, the output time of the drive control signal to the drive position of the left hand (solenoid) is “15 mS”. In the fourth sound, since the sound intensity (sound intensity) information is “8”, the output time of the drive control signal to the drive position of the right hand (solenoid) is “35 mS”.

続いて、右足及び頭(ソレノイド)の駆動箇所については、情報にかかわらず、駆動時間を一定の“20mS”とするように予め設定しておく。すなわち、右足及び頭(ソレノイド)の駆動箇所の駆動制御信号の出力時間は、1音符あたり“20mS”であり、また音の発生と同時に駆動される。このことにより、音の発生と右足および頭の駆動が一致する。   Subsequently, the driving positions of the right foot and the head (solenoid) are set in advance so that the driving time is a constant “20 mS” regardless of the information. In other words, the output time of the drive control signal at the drive point of the right foot and the head (solenoid) is “20 mS” per note and is driven simultaneously with the generation of the sound. As a result, the generation of sound coincides with the driving of the right foot and head.

以上の如く、MIDIデータから得られた情報に基づいて、アコースティックピアノの演奏を行う演奏人形4の駆動制御信号の生成が行なわれているため、左手(ソレノイド)及び右手(ソレノイド)の駆動箇所と、胴体(モーター)の駆動箇所とが駆動することによる演奏人形4の動きと、当該MIDIデータのメロディとが一致する。   As described above, since the drive control signal of the performance doll 4 that plays the acoustic piano is generated based on the information obtained from the MIDI data, the drive positions of the left hand (solenoid) and the right hand (solenoid) are The movement of the performance doll 4 driven by the driving part of the trunk (motor) coincides with the melody of the MIDI data.

具体的に説明すると、例えば、演奏人形4の左手(ソレノイド)又は右手(ソレノイド)の駆動箇所の駆動制御による動作は、ソレノイドが励起されていない状態では、演奏人形4の左手又は右手がアコースティックピアノの鍵盤から離れている(ノートオフ)状態であり、ソレノイドの励起により、駆動制御信号の出力時間分だけ、アコースティックピアノの鍵盤を押した(ノートオン)状態とする。   Specifically, for example, the operation by the drive control of the left hand (solenoid) or right hand (solenoid) driving position of the performance doll 4 is performed when the left hand or the right hand of the performance doll 4 is an acoustic piano when the solenoid is not excited. In this state, the keyboard of the acoustic piano is pressed (note-on) for the output time of the drive control signal by excitation of the solenoid.

また、演奏人形4の右足及び頭(ソレノイド)の駆動箇所の駆動、すなわちソレノイドの励起による右足及び頭の動きについては、上述したように情報に関わらず、制御信号の駆動時間が一定の“20mS”である。そこで、右足については“20mS”で1往復の昇降動作を行わせ、頭については1往復“20mS”で前方に傾く傾動動作を行わせる。   In addition, regarding the driving of the right foot and head (solenoid) of the performance doll 4, that is, the movement of the right foot and head due to excitation of the solenoid, the control signal drive time is constant “20 mS regardless of the information as described above. ". Therefore, the right foot is moved up and down by one reciprocation at “20 mS”, and the head is tilted forward by one reciprocation at “20 mS”.

今、演奏人形4の左手及び右手はアコースティックピアノの鍵盤から離れている(ノートオフ)状態にあり、右足は接地した状態にあり、頭は正面を向いた状態にあるもとする。   Now, it is assumed that the left hand and the right hand of the performance doll 4 are separated from the acoustic piano keyboard (note-off), the right foot is grounded, and the head is facing the front.

このとき、1番目の音の発生と一致して左手(ソレノイド)の駆動箇所が25msだけ駆動されることにより、音の長さ0.5秒の先頭25msの間だけ、演奏人形4の左手が鍵盤を押した(ノートオン)状態となり、25ms経過後再び定常状態、すなわち演奏人形4左手が鍵盤から離れている(ノートオフ)状態に戻る。また、2番目の音の発生と一致して左手(ソレノイド)の駆動箇所が15ms駆動されることにより、音の長さ0.25秒の先頭15msの間だけ、演奏人形4の左手が鍵盤を押した(ノートオン)状態となり、15ms経過後再び定常状態、すなわち演奏人形4の左手が鍵盤から離れている(ノートオフ)状態に戻る。また、3番目の音の発生と一致してに左手(ソレノイド)の駆動箇所が15msだけ駆動されることにより、音の長さ0.25秒の先頭15msの間だけ、演奏人形4の左手が鍵盤を押した(ノートオン)状態となり、15ms経過後再び定常状態、すなわち演奏人形4の左手が鍵盤から離れている(ノートオフ)状態に戻る。また、4番目の音の発生と一致してに右手(ソレノイド)の駆動箇所が35msだけ駆動されることにより、音の長さ1秒の先頭35msの間だけ、演奏人形4の右手が鍵盤を押した(ノートオン)状態となり、35ms経過後再び定常状態、すなわち演奏人形4の右手が鍵盤から離れている(ノートオフ)状態に戻る。   At this time, the left hand (solenoid) is driven for 25 ms in coincidence with the generation of the first sound, so that the left hand of the performance doll 4 is moved for the first 25 ms of the sound length of 0.5 seconds. The keyboard is pressed (note-on), and after 25 ms, it returns to the steady state, that is, the performance doll 4 left hand is separated from the keyboard (note-off). Also, the left hand (solenoid) drive point is driven for 15 ms in coincidence with the second sound generation, so that the left hand of the performance doll 4 plays the keyboard for the first 15 ms of the sound length of 0.25 seconds. It is in the pressed (note-on) state, and after 15 ms, it returns to the steady state, that is, the state where the left hand of the performance doll 4 is away from the keyboard (note-off). Also, the left hand (solenoid) is driven for 15 ms in coincidence with the generation of the third sound, so that the left hand of the performance doll 4 is moved for the first 15 ms of the sound length of 0.25 seconds. The keyboard is pressed (note-on), and after 15 ms, it returns to the steady state, that is, the left hand of the performance doll 4 is separated from the keyboard (note-off). In addition, the right hand (solenoid) is driven for 35 ms in coincidence with the generation of the fourth sound, so that the right hand of the playing doll 4 plays the keyboard only for the first 35 ms of the sound length of 1 second. The state is pressed (note-on), and after 35 ms has elapsed, the state returns to the steady state, that is, the right hand of the performance doll 4 is separated from the keyboard (note-off).

このことにより、音の発生と、鍵盤の押離動作(ノートオン・オフの動作)とが一致し、現実のアコースティックピアノ奏者の鍵盤の押離動作(ノートオン・オフの動作)を表現することができる。更に音階の高さにより、左手と右手とを区別して動作されるので、現実のアコースティックピアノ奏者が、音階により左手と右手とを区別して鍵盤の押離動作(ノートオン・オフの動作)行っている様子を演出することができる。   As a result, the sound generation coincides with the key press-and-release operation (note-on / off operation), and represents the keyboard-release operation (note-on / off operation) of an actual acoustic piano player. Can do. Furthermore, because the left hand and right hand are distinguished from each other depending on the height of the scale, the actual acoustic piano player distinguishes the left hand from the right hand according to the scale and performs the keyboard pressing action (note-on / off action). You can produce a state of being.

また、同時に1番目の音の発生と一致して右足及び頭(ソレノイド)の駆動箇所が駆動しはじめ、1番目の音の発生と一致して右足及び頭(ソレノイド)の駆動箇所が20msだけ駆動されることにより、音の長さ0.5秒の先頭20ms間で、右足が接地状態から離地状態、そして再び接地状態となり、頭は下体部分に対し前方へ傾動して再び元の正立状態となる。また、2番目の音の発生と一致して右足及び頭(ソレノイド)の駆動箇所が20msだけ駆動されることにより、音の長さ0.25秒の先頭20ms間で、右足が接地状態から離地状態、そして再び接地状態となり、頭は下体部分に対し前方へ傾動して再び元の正立状態となる。また、3番目の音の発生と一致して右足及び頭(ソレノイド)の駆動箇所が20msだけ駆動されることにより、音の長さ0.25秒の先頭20ms間で、右足が接地状態から離地状態、そして再び接地状態となり、頭は下体部分に対し前方へ傾動して再び元の正立状態となる。また、4番目の音の発生と一致して右足及び頭(ソレノイド)の駆動箇所が20msだけ駆動されることにより、音の長さ1秒の先頭20ms間で、右足が接地状態から離地状態、そして再び接地状態となり、頭は下体部分に対し前方へ傾動して再び元の正立状態となる。   At the same time, the right foot and head (solenoid) drive location starts to drive in coincidence with the first sound generation, and the right foot and head (solenoid) drive location drives for 20 ms in coincidence with the first sound generation. As a result, the right foot is changed from the grounded state to the grounded state and again in the grounded state for the first 20 ms of the sound length of 0.5 seconds, and the head is tilted forward with respect to the lower body part and is again in the original upright state It becomes a state. Also, the right foot and head (solenoid) are driven for 20 ms in coincidence with the occurrence of the second sound, so that the right foot is released from the ground during the first 20 ms of the sound length of 0.25 seconds. The ground state and the grounding state are established again, and the head tilts forward with respect to the lower body part to return to the original upright state again. The right foot and the head (solenoid) are driven for 20 ms in coincidence with the generation of the third sound, so that the right foot is released from the grounded state for the first 20 ms of the sound length of 0.25 seconds. The ground state and the grounding state are established again, and the head tilts forward with respect to the lower body part to return to the original upright state again. In addition, the right foot and head (solenoid) are driven for 20 ms in coincidence with the generation of the fourth sound, so that the right foot is in the ground-off state during the first 20 ms of the sound length of 1 second. Then, the grounding state is established again, and the head is tilted forward with respect to the lower body part and again becomes the original upright state.

また、このことにより、音の発生と、アコースティックピアノの奏者人形4の右足及び頭の駆動が一致し、現実のアコースティックピアノ奏者が鍵盤を押す際に足を踏み、頭を揺らす動作を演出することができる。   In addition, due to this, the generation of sound and the right foot and head drive of the acoustic piano player doll 4 coincide with each other, and when an actual acoustic piano player presses the keyboard, the foot is stepped and the head is shaken. Can do.

以上の説明では、アルトサックスの演奏人形3と、アコースティックピアノの奏者人形4との駆動制御信号の生成の一例を説明したが、同様にベースの演奏を行う演奏人形5についても同様な方法で駆動制御信号の生成が行なわれる。   In the above description, an example of generation of drive control signals for the alto saxophone performance doll 3 and the acoustic piano player doll 4 has been described, but the performance doll 5 performing the bass performance is also driven in the same manner. A control signal is generated.

一方、メロディ・駆動制御部12は、演奏データの音階(音の高さ)情報、音長(音の長さ)情報及び音強(音の強さ)情報に基づいて、メロディ制御信号を作成し、スピーカー11に出力する。尚、メロディの作成については、公知の技術であるので、詳細は省略する。   On the other hand, the melody / drive control unit 12 creates a melody control signal based on the scale (sound pitch) information, tone length (sound length) information, and tone strength (sound strength) information of the performance data. And output to the speaker 11. Since the creation of the melody is a well-known technique, the details are omitted.

次に、上述の構成における動作を説明する。   Next, the operation in the above configuration will be described.

図10は本実施の形態の動作フローチャートである。   FIG. 10 is an operation flowchart of the present embodiment.

演奏の開始が指示されると(Step 100)、制御部2は記録部1から演奏データを読み出す(Step 101)。読み出された演奏データのMIDIチャンネル情報から各演奏データの供給先(演奏人形)を判断し(Step 102)、演奏データを対応する演奏人形に供給する(Step 103)。   When the start of performance is instructed (Step 100), the control unit 2 reads performance data from the recording unit 1 (Step 101). The supply destination (performance doll) of each performance data is determined from the MIDI channel information of the read performance data (Step 102), and the performance data is supplied to the corresponding performance doll (Step 103).

各演奏人形側では、メロディ・駆動制御部12が、演奏データの音色情報及び音階(音の高さ)情報から、演奏人形の駆動箇所を判断する(Step 104)。また、演奏データの音長(音の長さ)情報及び音強(音の強さ)情報から、駆動制御信号の出力時間を決定する(Step 105)。そして、決定した出力時間、駆動制御信号を対応する駆動箇所に出力する(Step 106)。   On each performance doll side, the melody / drive control unit 12 determines the drive location of the performance doll from the tone color information and the scale (pitch) information of the performance data (Step 104). Further, the output time of the drive control signal is determined from the sound length (sound length) information and sound intensity (sound intensity) information of the performance data (Step 105). Then, the determined output time and drive control signal are output to the corresponding drive location (Step 106).

一方、演奏データの音階(音の高さ)情報、演奏データの音長(音の長さ)情報及び音強(音の強さ)情報から、メロディ信号を生成し、スピーカー11に出力する(Step 107)。   On the other hand, a melody signal is generated from the scale (sound pitch) information of the performance data, the sound length (sound length) information and the sound strength (sound strength) information of the performance data, and output to the speaker 11 ( Step 107).

そして、上記のステップが繰り返されて演奏動作が行われる(Step 108)。   Then, the above steps are repeated to perform a performance operation (Step 108).

上述したように、本発明ではMIDIデータから得られた情報に基づいて、演奏人形を駆動する駆動制御信号を生成しているので、演奏人形の動きをメロディと一致したリアルなものとすることができる。   As described above, in the present invention, since the drive control signal for driving the performance doll is generated based on the information obtained from the MIDI data, it is possible to make the movement of the performance doll realistic with the melody. it can.

尚、制御部2及びメロディ・駆動制御部12をCPU、ICチップ等で構成し、プログラムで動作するように構成しても良い。   Note that the control unit 2 and the melody / drive control unit 12 may be configured by a CPU, an IC chip, or the like and operated by a program.

第2の実施の形態を説明する。   A second embodiment will be described.

図11は第2の実施の形態のブロック図である。   FIG. 11 is a block diagram of the second embodiment.

第2の実施の形態は、第1の実施の形態の構成に加え、システム本体Aに他の演奏人形20を接続する接続部21を設け、システム本体Aの演奏人形と共に他の演奏人形も演奏することができるようにしたことを特徴とする。   In the second embodiment, in addition to the configuration of the first embodiment, a connection portion 21 for connecting another performance doll 20 to the system main body A is provided, and other performance dolls are played together with the performance doll of the system main body A. It is characterized by being able to do.

以下、第1の実施の形態と異なる構成について説明する。   Hereinafter, a configuration different from that of the first embodiment will be described.

まず、記憶部1には、演奏人形3〜5以外に新たに接続(追加)される演奏人形20の為の演奏データが追加・格納されている。この演奏データは、上述した演奏データと同様なものであるが、新たに追加された演奏人形20を識別する為にMIDIチャンネル情報に新たなチャンネルが追加されている。例えば、演奏人形3〜5を識別するMIDIチャンネル情報が“1〜3”であるならば、新たに追加された演奏人形20を識別するMIDIチャンネル情報は“4”である。   First, performance data for the performance doll 20 newly connected (added) other than the performance dolls 3 to 5 is added and stored in the storage unit 1. This performance data is the same as the performance data described above, but a new channel is added to the MIDI channel information in order to identify the newly added performance doll 20. For example, if the MIDI channel information for identifying the performance dolls 3 to 5 is “1 to 3”, the MIDI channel information for identifying the newly added performance doll 20 is “4”.

また、制御部2は、演奏データのMIDIチャンネル情報が演奏人形20のものであるならば、その演奏データを演奏人形20に供給するように構成されている。   The control unit 2 is configured to supply the performance data to the performance doll 20 if the MIDI channel information of the performance data is that of the performance doll 20.

演奏人形20の構成は、接続部21と接続する為の接続部22が設けられている以外は、上述した演奏人形3〜5と同様の構成である。   The configuration of the performance doll 20 is the same as that of the performance dolls 3 to 5 described above, except that the connection portion 22 for connecting to the connection portion 21 is provided.

以上のように新たな演奏人形を追加できるような構成とすれば、演奏や動作にバリエーションが増える。   As described above, if the configuration is such that a new performance doll can be added, variations in performance and operation increase.

第3の実施の形態を説明する。   A third embodiment will be described.

図12は第3の実施の形態のブロック図である。   FIG. 12 is a block diagram of the third embodiment.

第3の実施の形態は、第1の実施の形態の構成に加え、新たな演奏データを追加する為、記憶部1に格納されている演奏データとは異なる演奏データが格納された記憶媒体30を接続する為の接続部31を設けたことを特徴とする。   In the third embodiment, in addition to the configuration of the first embodiment, in order to add new performance data, a storage medium 30 in which performance data different from the performance data stored in the storage unit 1 is stored. The connection part 31 for connecting is provided.

記憶媒体30は、不揮発性のフラッシュメモリや、ROMカートリッジ等、演奏データが格納することが出来るものであれば、種類は問わない。   The storage medium 30 may be of any type as long as performance data can be stored, such as a non-volatile flash memory or a ROM cartridge.

制御部2では、記録媒体30が接続部31に接続されると、記録部1に代えて記録媒体30より、演奏データを読み出す。読み出した後の処理は、上述した実施の形態と同様である。   In the control unit 2, when the recording medium 30 is connected to the connection unit 31, performance data is read from the recording medium 30 instead of the recording unit 1. The processing after reading is the same as in the above-described embodiment.

このような構成にすれば、新たな演奏データを追加することができ、演奏のバリエーションが増える。   With such a configuration, new performance data can be added, and performance variations increase.

第4の実施の形態を説明する。   A fourth embodiment will be described.

図13は第4の実施の形態のブロック図である。   FIG. 13 is a block diagram of the fourth embodiment.

第4の実施の形態は、第1の実施の形態の構成に加え、オリジナルのMIDIデータから、演奏人形を駆動させるために必要な演奏データを抽出し、演奏データを生成する演奏データ生成部40を設けたことを特徴とする。   In the fourth embodiment, in addition to the configuration of the first embodiment, performance data generation unit 40 that extracts performance data necessary for driving a performance doll from original MIDI data and generates performance data. Is provided.

現在、MIDIデータによる音楽は種々提供されており、入手することも容易である。そして、この提供されているMIDIデータを用いて、演奏人形を動作させれば、より有効である。   Currently, various music based on MIDI data is provided and can be easily obtained. It is more effective if the performance doll is operated using the provided MIDI data.

しかしながら、オリジナルのMIDIデータは、従来技術で説明したように種々の情報を含んでおり、演奏人形を駆動する為に必要な情報は、MIDIチャンネル情報や、音符情報である。   However, the original MIDI data includes various information as described in the prior art, and information necessary for driving the performance doll is MIDI channel information and note information.

そこで、オリジナルのMIDIデータから必要な情報だけを抽出し、演奏データを生成する演奏データ生成部40を設けた。   Therefore, a performance data generation unit 40 for extracting only necessary information from the original MIDI data and generating performance data is provided.

本実施の形態では、演奏データ生成部40は、オリジナルのMIDIデータから、MIDIチャンネル情報、音色情報、音階情報、音長情報及び音強情報を抽出する。そして、制御部2及び各演奏人形3〜5の制御部を構成するマイコン等がデータ処理を行うことができるように抽出した情報を変換するように構成されている。そして、生成された演奏データは、上述した第3の実施の形態の記録媒体30のようなものに格納されて用いられる。   In the present embodiment, the performance data generation unit 40 extracts MIDI channel information, tone color information, scale information, tone length information, and tone strength information from original MIDI data. And the microcomputer etc. which comprise the control part 2 and the control part of each performance doll 3-5 are comprised so that the extracted information may be converted so that data processing can be performed. The generated performance data is stored and used in the recording medium 30 of the third embodiment described above.

以上で、本発明の実施の形態の説明を終わる。   This is the end of the description of the embodiment of the present invention.

尚、上述した第1の実施の形態、第2の実施の形態、第3の実施の形態及び第4の実施の形態を適時に組み合わせて使用することも可能である。   Note that the first embodiment, the second embodiment, the third embodiment, and the fourth embodiment described above may be used in combination in a timely manner.

図1は本発明の演奏人形システム本体Aのブロック図である。FIG. 1 is a block diagram of the performance doll system main body A of the present invention. 図2は演奏データの一例を示した図である。FIG. 2 is a diagram showing an example of performance data. 図3は演奏データの元となるスコアを示した図である。FIG. 3 is a diagram showing the score that is the basis of the performance data. 図4は演奏データの一例を示した図である。FIG. 4 is a diagram showing an example of performance data. 図5は駆動部10の構成を説明する為の図である。FIG. 5 is a diagram for explaining the configuration of the drive unit 10. 図6は駆動部10の構成を説明する為の図である。FIG. 6 is a diagram for explaining the configuration of the drive unit 10. 図7は駆動部10の構成を説明する為の図である。FIG. 7 is a diagram for explaining the configuration of the driving unit 10. 図8は演奏人形3の駆動制御信号の生成の一例を示した図である。FIG. 8 is a diagram showing an example of generation of drive control signals for the performance doll 3. 図9は演奏人形4の駆動制御信号の生成の一例を示した図である。FIG. 9 is a diagram showing an example of generation of drive control signals for the performance doll 4. 図10は第1の実施の形態の動作フローチャートである。FIG. 10 is an operation flowchart of the first embodiment. 図11は第2の実施の形態のブロック図である。FIG. 11 is a block diagram of the second embodiment. 図12は第3の実施の形態のブロック図である。FIG. 12 is a block diagram of the third embodiment. 図13は第4の実施の形態のブロック図である。FIG. 13 is a block diagram of the fourth embodiment.

符号の説明Explanation of symbols

1 記憶部
2 制御部
3,4,5 演奏人形
10 駆動部
11 スピーカー
12 メロディ・駆動制御部
DESCRIPTION OF SYMBOLS 1 Memory | storage part 2 Control part 3, 4, 5 Performance doll 10 Drive part 11 Speaker 12 Melody and drive control part

Claims (7)

MIDIデータから得られた少なくとも音長情報を含む演奏データに基づいて、駆動箇所を駆動する複数の駆動手段及びメロディ・駆動制御部を有する運動体の駆動を前記メロディ・駆動制御部に制御させるための制御プログラムであって、
供給された演奏データの音長情報による音の長さよりも短い時間に定められた駆動時間、前記駆動手段の駆動を制御する駆動制御信号を生成する処理を、前記メロディ・駆動制御部に実行させることを特徴とする運動体の制御プログラム。
Based on the performance data including at least tone length information obtained from the MIDI data, the driver of the moving body having a plurality of drive means and the melody and drive control unit for driving the driving portion in order to control the melody drive controller a control program,
Causing the melody / drive control unit to execute a process of generating a drive control signal for controlling the drive of the drive means for a drive time that is set to a time shorter than the length of the sound according to the sound length information of the supplied performance data A control program for a moving body.
前記駆動時間は、供給される演奏データの音長情報毎に設定されていることを特徴とする請求項1に記載の運動体の制御プログラム。   The said drive time is set for every sound length information of the performance data supplied, The control program of the moving body of Claim 1 characterized by the above-mentioned. MIDIデータから得られた少なくとも音強情報を含む演奏データに基づいて、駆動箇所を駆動する複数の駆動手段及びメロディ・駆動制御部を有する運動体の駆動を前記メロディ・駆動制御部に制御させるための制御プログラムであって、
音強情報毎に設定されており、該音強情報による音の強さに比例して長くなるように定められた駆動時間に基づいて、供給された演奏データの音強情報に対応する前記駆動時間、前記駆動手段の駆動を制御する駆動制御信号を生成する処理を、前記メロディ・駆動制御部に実行させることを特徴とする運動体の制御プログラム。
In order to cause the melody / drive control unit to control driving of a moving body having a plurality of drive means for driving a drive location and a melody / drive control unit based on performance data including at least tone intensity information obtained from MIDI data a control program,
The driving corresponding to the tone strength information of the supplied performance data is set for each tone strength information and based on a driving time that is set to be longer in proportion to the strength of the sound based on the tone strength information. A control program for a moving body that causes the melody / drive control unit to execute a process of generating a drive control signal for controlling the drive of the drive means for a time.
MIDIデータから得られた少なくとも音長情報及び音強情報を含む演奏データに基づいて、駆動箇所を駆動する複数の駆動手段及びメロディ・駆動制御部を有する運動体の駆動を前記メロディ・駆動制御部に制御させるための制御プログラムであって、
供給された演奏データの音長情報による音の長さよりも短い時間に定められた駆動時間、前記駆動手段のうち前記音長情報により駆動される駆動手段の駆動を制御する駆動制御信号を生成する処理と、
音強情報毎に設定されており、該音強情報による音の強さに比例して長くなるように定められた駆動時間に基づいて、供給された演奏データの音強情報に対応する前記駆動時間、前記駆動手段のうち前記音強情報により駆動される駆動手段の駆動を制御する駆動制御信号を生成する処理と、
前記演奏データの音長情報に対応して生成された駆動制御信号を、前記音長情報により駆動される駆動手段に供給する処理と、
前記演奏データの音強情報に対応して生成された駆動制御信号を、前記音強情報により駆動される駆動手段に供給する処理と
を前記メロディ・駆動制御部に実行させることを特徴とする運動体の制御プログラム。
Based on performance data including at least the tone length information and tone strength information obtained from the MIDI data, the melody / drive control unit drives the moving body having a plurality of drive means for driving the drive location and the melody / drive control unit. a control program for causing the control to,
A drive control signal for controlling the drive of the drive means driven by the sound length information among the drive means is generated for a drive time that is set to a time shorter than the sound length by the sound length information of the supplied performance data. Processing,
The driving corresponding to the tone strength information of the supplied performance data is set for each tone strength information and based on a driving time that is set to be longer in proportion to the strength of the sound based on the tone strength information. Time, a process of generating a drive control signal for controlling driving of the driving means driven by the sound intensity information among the driving means ;
A process of supplying a drive control signal generated corresponding to the sound length information of the performance data to a driving means driven by the sound length information ;
The melody / drive control unit executes a process of supplying a drive control signal generated corresponding to the sound intensity information of the performance data to a drive means driven by the sound intensity information. Body control program.
前記供給された演奏データの音長情報による音の長さよりも短い時間に定められた駆動時間は、供給される演奏データの音長情報毎に設定されていることを特徴とする請求項4に記載の運動体の制御プログラム。 5. The driving time set to a time shorter than the length of sound according to the sound length information of the supplied performance data is set for each sound length information of the supplied performance data. The control program of the described moving body. 前記音長情報毎に予め定められた駆動時間は、10ms以上であることを特徴とする請求項又は請求項に記載の運動体の制御プログラム。 Predetermined operating time, the moving body control program according to claim 2 or claim 5, characterized in that at least 10ms for each of the tone length information. 前記音強情報毎に予め定められた駆動時間は、5ms以上であることを特徴とする請求項3又は請求項4に記載の運動体の制御プログラム。   5. The moving body control program according to claim 3, wherein a predetermined driving time for each sound intensity information is 5 ms or more.
JP2006218718A 2006-08-10 2006-08-10 Motor body control system, motor body and program thereof Expired - Lifetime JP4537982B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006218718A JP4537982B2 (en) 2006-08-10 2006-08-10 Motor body control system, motor body and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006218718A JP4537982B2 (en) 2006-08-10 2006-08-10 Motor body control system, motor body and program thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002257139A Division JP3860519B2 (en) 2002-09-02 2002-09-02 Motor body control system, motor body and program thereof

Publications (2)

Publication Number Publication Date
JP2006297158A JP2006297158A (en) 2006-11-02
JP4537982B2 true JP4537982B2 (en) 2010-09-08

Family

ID=37465902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006218718A Expired - Lifetime JP4537982B2 (en) 2006-08-10 2006-08-10 Motor body control system, motor body and program thereof

Country Status (1)

Country Link
JP (1) JP4537982B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06182683A (en) * 1992-12-18 1994-07-05 Koichi Wada Midi robot control device and method
JPH06269573A (en) * 1993-03-16 1994-09-27 Sankyo Seiki Mfg Co Ltd Doll operating device
JP2522132B2 (en) * 1991-11-26 1996-08-07 ヤマハ株式会社 Performance information synchronization type moving body controller
JPH0994355A (en) * 1995-09-29 1997-04-08 Victor Co Of Japan Ltd Playing operation toy
JP2725528B2 (en) * 1992-05-29 1998-03-11 日本ビクター株式会社 Performance toys
JP2001239485A (en) * 1999-12-24 2001-09-04 Nippon Telegr & Teleph Corp <Ntt> Music response robot, voice response robot, and communication/broadcasting merged robot system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2522132B2 (en) * 1991-11-26 1996-08-07 ヤマハ株式会社 Performance information synchronization type moving body controller
JP2725528B2 (en) * 1992-05-29 1998-03-11 日本ビクター株式会社 Performance toys
JPH06182683A (en) * 1992-12-18 1994-07-05 Koichi Wada Midi robot control device and method
JPH06269573A (en) * 1993-03-16 1994-09-27 Sankyo Seiki Mfg Co Ltd Doll operating device
JPH0994355A (en) * 1995-09-29 1997-04-08 Victor Co Of Japan Ltd Playing operation toy
JP2001239485A (en) * 1999-12-24 2001-09-04 Nippon Telegr & Teleph Corp <Ntt> Music response robot, voice response robot, and communication/broadcasting merged robot system

Also Published As

Publication number Publication date
JP2006297158A (en) 2006-11-02

Similar Documents

Publication Publication Date Title
JP4501725B2 (en) Keyboard instrument
JP4321476B2 (en) Electronic musical instruments
US8912419B2 (en) Synchronized multiple device audio playback and interaction
JPH11513811A (en) Real-time music creation system
JP2001195054A (en) Musical instrument
JP2006011364A (en) Electronic hi-hat cymbal
JP4702160B2 (en) Musical sound synthesizer and program
JP2009168911A (en) Keyboard instrument, piano, and automatic player piano
JP2003076365A (en) Musical sound controller
JP4489442B2 (en) Keyboard device
JP4496993B2 (en) Music control device
JP2006163435A (en) Musical sound controller
JP3860519B2 (en) Motor body control system, motor body and program thereof
JP4537982B2 (en) Motor body control system, motor body and program thereof
JP3972619B2 (en) Sound generator
JP3551569B2 (en) Automatic performance keyboard instrument
JP2006251376A (en) Musical sound controller
JP2725528B2 (en) Performance toys
JP3891410B2 (en) Performance equipment
JP4506147B2 (en) Performance playback device and performance playback control program
JP2002358080A (en) Playing control method, playing controller and musical tone generator
JPH09244647A (en) Electronic musical instrument
JP3719129B2 (en) Music signal synthesis method, music signal synthesis apparatus and recording medium
JP4254656B2 (en) Automatic performance device and program
Aikin Software synthesizers: the definitive guide to virtual musical instruments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100609

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100618

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130625

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4537982

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160625

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term