JP2008117075A - Device, method and program for generating locus data - Google Patents

Device, method and program for generating locus data Download PDF

Info

Publication number
JP2008117075A
JP2008117075A JP2006298149A JP2006298149A JP2008117075A JP 2008117075 A JP2008117075 A JP 2008117075A JP 2006298149 A JP2006298149 A JP 2006298149A JP 2006298149 A JP2006298149 A JP 2006298149A JP 2008117075 A JP2008117075 A JP 2008117075A
Authority
JP
Japan
Prior art keywords
trajectory
data
music
unit
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006298149A
Other languages
Japanese (ja)
Inventor
Ryushin Tei
龍震 鄭
Toru Sasaki
徹 佐々木
Nobuhiko Oguchi
伸彦 大口
Atsushi Ishihara
厚志 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006298149A priority Critical patent/JP2008117075A/en
Publication of JP2008117075A publication Critical patent/JP2008117075A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To obtain a locus for moving a movement object in time to the music. <P>SOLUTION: A device for generating locus data sets compressed music data to reproduce when an ellipsoid-shaped housing 20 of a music robot device 11 moves, shows a desired locus to move the housing 20 with generation of locus data by associating reproduction time information of the set music data with locus of movement of the housing 20 drawn by a user, may easily generate the locus data to move the housing 20 in synchronization with the reproduction of the music data and easily obtain the locus to move the housing 20 in time to the music. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は軌跡データ生成装置、軌跡データ生成方法及び軌跡データ生成プログラムに関し、例えば音楽に合わせて音楽ロボット装置を動かすための軌跡を示す軌跡データを生成するパーソナルコンピュータに適用して好適なものである。   The present invention relates to a trajectory data generation device, a trajectory data generation method, and a trajectory data generation program, and is suitable for application to, for example, a personal computer that generates trajectory data indicating a trajectory for moving a music robot device in accordance with music. .

従来のロボット装置は、人の手の動きをカメラで撮像し、その結果得られる撮像画像を画像処理して当該手の動きの軌跡を検出している。またロボット装置は、このようにして検出した人の手の動きの軌跡を、自己の手を動かす際に描く軌跡にサイズ変換して、当該自己の手の動きの軌跡を得ている。さらにロボット装置は、このようにして得た自己の手の動きの軌跡を、当該手の平均移動速度と共に動作パターンとして、平均移動速度の異なる種々の動作パターンを記憶している。そしてロボット装置は、音楽データに基づく音楽の種々のリズムをそれぞれ異なる平均移動速度の範囲と対応付けている。   A conventional robot apparatus captures the movement of a human hand with a camera, and detects the locus of the movement of the hand by performing image processing on a captured image obtained as a result. Further, the robot apparatus converts the size of the human hand movement locus thus detected into a locus drawn when the user's hand is moved to obtain the movement locus of the user's hand. Furthermore, the robot apparatus stores various movement patterns having different average movement speeds, using the movement trajectory of the hand of the user as described above as movement patterns together with the average movement speed of the hand. The robot apparatus associates various rhythms of music based on music data with different ranges of average moving speeds.

この状態でロボット装置は、音楽データを再生処理したとき、かかる音楽データに基づく音楽のリズムを抽出すると共に、当該抽出したリズムに対応する平均移動速度の範囲を決定する。そしてロボット装置は、その決定した平均移動速度の範囲に合う動作パターンを選択し、当該選択した動作パターンで自己の手を動かすことにより、音楽を出力しながらあたかもダンスを踊っているかのように動作していた(例えば、特許文献1参照)。
特開2005−231012公報(第1頁、第15頁、第16頁)
In this state, when the music apparatus reproduces the music data, the robot apparatus extracts a music rhythm based on the music data, and determines an average moving speed range corresponding to the extracted rhythm. Then, the robot device selects an action pattern that fits the range of the determined average moving speed, and moves its hand with the selected action pattern to operate as if dancing while outputting music. (For example, refer to Patent Document 1).
JP-A-2005-231012 (first page, page 15, page 16)

ところが、かかる構成のロボット装置は、自己の手の動きの軌跡を得るときに音楽データを何ら利用せず、音楽データを再生するときに音楽のリズムに対応する平均移動速度の範囲に合う動作パターンとして、自己の手の動きの軌跡を選択している。このためロボット装置は、音楽データに基づく音楽に合わせて自己の手を動かすための所望の軌跡を得ているとは言い難い問題があった。   However, the robot apparatus configured as described above does not use any music data when obtaining the movement trajectory of its own hand, and when the music data is reproduced, the operation pattern fits the range of the average moving speed corresponding to the music rhythm As for the movement trajectory of one's own hand. For this reason, the robot apparatus has a problem that it is difficult to say that it has obtained a desired locus for moving its hand in accordance with music based on music data.

本発明は以上の点を考慮してなされたもので、音楽に合わせて動き対象を動かすための軌跡を容易に得ることのできる軌跡データ生成装置、軌跡データ生成方法及び軌跡データ生成プログラムを提案しようとするものである。   The present invention has been made in consideration of the above points, and proposes a trajectory data generation device, trajectory data generation method, and trajectory data generation program capable of easily obtaining a trajectory for moving a moving object in accordance with music. It is what.

かかる課題を解決するため本発明においては、データ設定部により、動き対象が動くときに再生する音楽データを設定し、軌跡データ生成部により、ユーザによって描かれた動き対象の動きの軌跡に対し、その設定した音楽データの再生時間情報を関連付けて軌跡データを生成するようにした。   In order to solve such a problem, in the present invention, the data setting unit sets music data to be reproduced when the movement target moves, and the locus data generation unit sets the movement locus of the movement target drawn by the user. The locus data is generated by associating the set reproduction time information of the music data.

従って本発明では、動き対象を動かすための所望の軌跡を示し、かつ音楽データの再生に同期して動き対象を動かすための軌跡データを容易に生成することができる。   Therefore, in the present invention, it is possible to easily generate trajectory data for indicating a desired trajectory for moving the moving object and for moving the moving object in synchronization with the reproduction of the music data.

本発明によれば、データ設定部により、動き対象が動くときに再生する音楽データを設定し、軌跡データ生成部により、ユーザによって描かれた動き対象の動きの軌跡に対し、その設定した音楽データの再生時間情報を関連付けて軌跡データを生成するようにしたことにより、動き対象を動かすための所望の軌跡を示し、かつ音楽データの再生に同期して動き対象を動かすための軌跡データを容易に生成することができ、かくして音楽に合わせて動き対象を動かすための軌跡を容易に得ることのできる軌跡データ生成装置、軌跡データ生成方法及び軌跡データ生成プログラムを実現することができる。   According to the present invention, the music data to be reproduced when the movement target moves is set by the data setting unit, and the set music data is set for the movement track of the movement target drawn by the user by the track data generation unit. By generating the trajectory data in association with the reproduction time information, the trajectory data for showing the desired trajectory for moving the movement target and moving the movement target in synchronization with the reproduction of the music data can be easily obtained. Thus, a trajectory data generation device, a trajectory data generation method, and a trajectory data generation program that can easily generate a trajectory for moving a moving object in accordance with music can be realized.

以下図面について、本発明の一実施の形態を詳述する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

(1)軌跡データ生成装置の概要
図1において、1は全体として本発明による軌跡データ生成装置の構成の概要を示す。かかる軌跡データ生成装置1においてデータ設定部2は、動き対象が動くときに再生する音楽データを設定する。また軌跡データ生成装置1において入力部3は、動き対象の動きの軌跡を描いて入力するために用いられる。さらに軌跡データ生成装置1において軌跡データ生成部4は、入力部3を介して入力された軌跡に対し、データ設定部2により設定された音楽データの再生時間情報を関連付けて軌跡データを生成する。かかる構成により軌跡データ生成装置1は、動き対象を動かすための所望の軌跡を示し、かつ音楽データの再生に同期して動き対象を動かすための軌跡データを容易に生成することができる。よって軌跡データ生成装置1は、音楽に合わせて動き対象を動かすための軌跡を容易に得ることができる。
(1) Outline of Trajectory Data Generation Device In FIG. 1, 1 shows an outline of the configuration of a trajectory data generation device according to the present invention as a whole. In the trajectory data generation device 1, the data setting unit 2 sets music data to be reproduced when the movement target moves. In the trajectory data generation device 1, the input unit 3 is used for drawing and inputting a trajectory of a movement target. Further, in the trajectory data generation device 1, the trajectory data generation unit 4 generates trajectory data by associating the trajectory input via the input unit 3 with the reproduction time information of the music data set by the data setting unit 2. With this configuration, the trajectory data generation device 1 can easily generate trajectory data for indicating a desired trajectory for moving the movement target and for moving the movement target in synchronization with the reproduction of the music data. Therefore, the trajectory data generation device 1 can easily obtain a trajectory for moving the movement target in accordance with music.

(2)音楽再生システムの構成
図2において、10は全体として本発明を適用した音楽再生システムを示す。かかる音楽再生システム10は、音楽ロボット装置11とパーソナルコンピュータ12とを、例えば、近距離無線通信技術であるBlue toothに準拠して無線接続し得るようになされている。
(2) Configuration of Music Playback System In FIG. 2, reference numeral 10 denotes a music playback system to which the present invention is applied as a whole. The music playback system 10 is configured to be able to wirelessly connect the music robot apparatus 11 and the personal computer 12 in accordance with, for example, Bluetooth, which is a short-range wireless communication technology.

図3(A)及び(B)並びに図4に示すように、音楽ロボット装置11は、例えば全体として略楕円体状の装置筺体(以下、これを楕円体状筐体と呼ぶ)20を有している。かかる楕円体状筐体20は、その中央の略樽型形状の部分でなる筐体中央部21の互いに対向する一対の端部のうち、一方の端部(以下、これを右側端部と呼ぶ)側に略円錐台形状の部分でなる第1の筐体回動部(以下、これを右側回動部と呼ぶ)22が設けられている。また楕円体状筐体20は、筐体中央部21の他方の端部(以下、これを左側端部と呼ぶ)側に、略円錐台形状の部分でなる第2の筐体回動部(以下、これを左側回動部と呼ぶ)23が設けられている。   As shown in FIGS. 3A and 3B and FIG. 4, the music robot apparatus 11 has, for example, a substantially ellipsoidal apparatus housing (hereinafter referred to as an ellipsoidal casing) 20 as a whole. ing. The ellipsoidal casing 20 has one end portion (hereinafter referred to as a right end portion) of a pair of opposite end portions of the casing central portion 21 that is a substantially barrel-shaped portion at the center thereof. ) Side is provided with a first housing rotation part (hereinafter referred to as a right rotation part) 22 formed of a substantially frustoconical portion. The ellipsoidal casing 20 has a second casing rotating portion (a substantially truncated cone-shaped portion) on the other end (hereinafter referred to as the left end) of the casing central portion 21. Hereinafter, this is referred to as a left-side turning part) 23.

さらに楕円体状筐体20は、右側回動部22の右側に、キャップ形状の部分でなる第1の筐体開閉部(以下、これを右側開閉部と呼ぶ)24が設けられている。さらにまた楕円体状筐体20は、左側回動部23の左側に、キャップ形状の部分でなる第2の筐体開閉部(以下、これを左側開閉部と呼ぶ)25が設けられている。   Further, the ellipsoidal casing 20 is provided with a first casing opening / closing section (hereinafter referred to as a right opening / closing section) 24 formed of a cap-shaped portion on the right side of the right rotation section 22. Furthermore, the ellipsoidal casing 20 is provided with a second casing opening / closing section (hereinafter referred to as a left opening / closing section) 25 formed of a cap-shaped portion on the left side of the left rotation section 23.

そして楕円体状筐体20の中心点P1から当該楕円体状筐体20表面の最も遠い右側及び左側の両頂点P2、P3を直線で結ぶ線分(すなわち、楕円体の長軸)を水平回動軸線L1とすると、右側回動部22は、筐体中央部21の右側端部に対し、当該水平回動軸線L1を中心にして軸回り一方向D1及びこれとは逆の軸回り他方向に回動可能に枢支されている。また左側回動部23は、筐体中央部21の左側端部に対し、水平回動軸線L1を中心にして軸回り一方向D1及び軸回り他方向に回動可能に枢支されている。   Then, a line segment (that is, the major axis of the ellipsoid) that connects the vertices P2 and P3 on the farthest right and left sides of the surface of the ellipsoidal casing 20 with a straight line from the center point P1 of the ellipsoidal casing 20 is rotated horizontally. Assuming the movement axis L1, the right rotation part 22 is in one direction D1 around the axis around the horizontal rotation axis L1 and the other direction around the opposite axis with respect to the right end of the housing central part 21. It is pivotally supported by. Further, the left rotation part 23 is pivotally supported with respect to the left end of the housing central part 21 so as to be rotatable around one axis D1 around the axis and in the other direction around the axis around the horizontal rotation axis L1.

さらに図5に示すように、右側開閉部24は、右側回動部22に対し、当該右側回動部22の右側縁部22Aの所定位置に設けられたヒンジ部26を介して所定角度範囲で開閉可能に取り付けられている。因みに右側開閉部24は、右側回動部22の右側縁部22Aに対し開口縁部24Aを当接させる位置から、右側縁部22Aと開口縁部24Aとの開き角度が略90度等となる位置までの所定角度範囲内で任意の角度に開くようになされている。   Further, as shown in FIG. 5, the right opening / closing part 24 has a predetermined angle range with respect to the right rotation part 22 via a hinge part 26 provided at a predetermined position of the right edge part 22 </ b> A of the right rotation part 22. It is attached so that it can be opened and closed. Incidentally, the opening angle between the right edge 22A and the opening edge 24A is approximately 90 degrees from the position where the opening edge 24A comes into contact with the right edge 22A of the right rotation part 22 in the right opening / closing part 24. It opens at an arbitrary angle within a predetermined angle range up to the position.

一方、左側開閉部25は、左側回動部23に対し、当該左側回動部23の左側縁部23Aの所定位置に設けられたヒンジ部27を介して所定角度範囲で開閉可能に取り付けられている。因みに左側開閉部25は、左側回動部23の左側縁部23Aに対し開口縁部25Aを当接させる位置から、左側縁部23Aと開口縁部25Aとの開き角度が略90度等となる位置までの所定角度範囲で任意の角度に開くようになされている。   On the other hand, the left opening / closing part 25 is attached to the left rotation part 23 so as to be openable and closable within a predetermined angle range via a hinge part 27 provided at a predetermined position of the left edge 23A of the left rotation part 23. Yes. Incidentally, the opening angle between the left edge 23A and the opening edge 25A is approximately 90 degrees from the position where the opening edge 25A comes into contact with the left edge 23A of the left rotation part 23. It opens to an arbitrary angle within a predetermined angle range up to the position.

さらに右側回動部22は、筒状に形成されており、内部にステレオ用の一対の第1及び第2のスピーカ28及び29のうち右チャンネル用の第1のスピーカ(以下、これを右スピーカと呼ぶ)28が円形の振動板の正面のみを右側縁部22Aの開口から露出させて収納されている。ここで右側開閉部24は、左側開閉部25とは独立して開閉し得るようになされている。そして右側開閉部24は、ヒンジ部26を介して回転して、開口縁部24Aを右側回動部22の右側縁部22Aに当接させて閉じた場合、右スピーカ28の振動板を外部から隠すことができる。また右側開閉部24は、ヒンジ部26を介して回転して、開口縁部24Aを右側回動部22の右側縁部22Aから離間させるように開いた場合、右スピーカ28の振動板を外部に露出させ得るようになされている。   Further, the right rotation part 22 is formed in a cylindrical shape, and the first speaker for the right channel (hereinafter referred to as the right speaker) of the pair of first and second speakers 28 and 29 for stereo. 28) is stored with only the front surface of the circular diaphragm exposed from the opening of the right edge 22A. Here, the right opening / closing part 24 can be opened / closed independently of the left opening / closing part 25. When the right opening / closing part 24 rotates via the hinge part 26 and closes the opening edge 24A in contact with the right edge 22A of the right rotation part 22, the diaphragm of the right speaker 28 is externally applied. Can be hidden. When the right opening / closing part 24 rotates via the hinge part 26 and opens the opening edge part 24A so as to be separated from the right edge part 22A of the right rotation part 22, the diaphragm of the right speaker 28 is exposed to the outside. It can be exposed.

一方、左側回動部23も、筒状に形成されており、内部に右スピーカ28と同様構成及び同様形状の左チャンネル用の第2のスピーカ(以下、これを左スピーカと呼ぶ)29が円形の振動板の正面のみを左側縁部23Aの開口から露出させて収納されている。従って左側開閉部25は、ヒンジ部27を介して回転して、開口縁部25Aを左側回動部23の左側縁部23Aに当接させて閉じた場合、左スピーカ29の振動板を外部から隠すことができる。また左側開閉部25は、ヒンジ部27を介して回転して、開口縁部25Aを左側回動部23の左側縁部23Aから離間させるように開いた場合、左スピーカ29の振動板の正面を外部に露出させ得るようになされている。   On the other hand, the left rotation part 23 is also formed in a cylindrical shape, and a second speaker 29 for the left channel (hereinafter referred to as a left speaker) having the same configuration and shape as the right speaker 28 is circular. Only the front surface of the diaphragm is exposed from the opening of the left edge 23A and stored. Accordingly, when the left opening / closing part 25 rotates through the hinge part 27 and closes the opening edge part 25A in contact with the left edge part 23A of the left rotation part 23, the diaphragm of the left speaker 29 is externally applied. Can be hidden. Further, when the left opening / closing part 25 rotates via the hinge part 27 and opens the opening edge part 25 </ b> A so as to be separated from the left edge part 23 </ b> A of the left rotation part 23, the front side of the diaphragm of the left speaker 29 is It can be exposed to the outside.

また図6に示すように、右側回動部22は、左側回動部23とは独立して回動し得るようになされている。そして右側回動部22は、右側開閉部24の開閉動作からも独立して回動し得るようになされている。また左側回動部23も、左側開閉部25の開閉動作とは独立して回動し得るようになされている。   Further, as shown in FIG. 6, the right rotation unit 22 can rotate independently of the left rotation unit 23. The right rotation unit 22 can rotate independently of the opening / closing operation of the right opening / closing unit 24. Further, the left-side turning part 23 can also turn independently of the opening / closing operation of the left-side opening / closing part 25.

これに加えて図3(A)及び(B)並びに図4に示すように、筐体中央部21の右側端部には、当該筐体中央部21の最大外径よりも大きい所定外径を有する円環形状の右側車輪30が水平回動軸線L1を中心にして軸回り一方向D1及び軸回り他方向に回動可能に枢支されている。また筐体中央部21の左側端部には、右側車輪30と同様形状及び同様外形の左側車輪31が水平回動軸線L1を中心にして軸回り一方向D1及び軸回り他方向に回動可能に枢支されている。かかる右側車輪30は、左側車輪31と共に回転して楕円体状筐体20を自走させるためのものであり、当該左側車輪31とは独立して回動し得るようになされている。   In addition to this, as shown in FIGS. 3A and 3B and FIG. 4, the right end portion of the housing central portion 21 has a predetermined outer diameter larger than the maximum outer diameter of the housing central portion 21. An annular right wheel 30 having an annular shape is pivotally supported around a horizontal rotation axis L1 so as to be rotatable in one direction D1 around the axis and in the other direction around the axis. Further, a left wheel 31 having the same shape and the same outer shape as the right wheel 30 can be rotated around the horizontal rotation axis L1 in one direction D1 around the axis and in the other direction around the axis at the left end of the housing central portion 21. It is pivotally supported by. The right wheel 30 is for rotating together with the left wheel 31 to make the ellipsoidal housing 20 self-propelled, and can rotate independently of the left wheel 31.

そして筐体中央部21内には、内壁所定位置にバッテリ等でなる重り32が固定されている。また筐体中央部21は、楕円体状筐体20の中心点P1から右側端部(すなわち、右側車輪30)までの距離と、当該楕円体状筐体20の中心点P1から左側端部(すなわち、左側車輪31)までの距離とが等しい所定距離に選定されている。さらに右側回動部22及び左側回動部23は、互いに同じ形状でなり、互いの幅が等しい所定幅に選定されている。さらに右側開閉部24及び左側開閉部25も、互いに同じ形状でなり、それぞれ開口縁部24A及び25Aから表面の頂点P2及びP3までの幅が等しい所定幅に選定されている。すなわち楕円体状筐体20は、当該楕円体状筐体20の中心P1を通り、水平回動軸線L1を垂線とする仮想平面(図示せず)に対し左右が面対称に形成されている。   A weight 32 made of a battery or the like is fixed at a predetermined position on the inner wall within the housing central portion 21. In addition, the housing central portion 21 includes a distance from the center point P1 of the ellipsoidal housing 20 to the right end portion (that is, the right wheel 30) and a left end portion (from the center point P1 of the ellipsoidal housing 20). That is, a predetermined distance equal to the distance to the left wheel 31) is selected. Furthermore, the right rotation part 22 and the left rotation part 23 have the same shape and are selected to have a predetermined width that is equal to each other. Further, the right opening / closing part 24 and the left opening / closing part 25 have the same shape, and the widths from the opening edges 24A and 25A to the apexes P2 and P3 on the surface are selected to be equal to each other. That is, the ellipsoidal casing 20 is formed symmetrically with respect to a virtual plane (not shown) passing through the center P1 of the ellipsoidal casing 20 and having the horizontal rotation axis L1 as a perpendicular.

このため楕円体状筐体20は、机の天板や床等(以下、これらをまとめて床と呼ぶ)に載上される場合、筐体中央部21の最大外形部分の外周面を当該床の表面から僅かに離間させ、かつ水平回動軸線L1を床の表面と平行にした姿勢で右側車輪30及び左側車輪31により支持される。これに加えて楕円体状筐体20は、筐体中央部21内の重り32により当該筐体中央部21の重心が中心点P1から内壁寄りにずれているため、床に載上された場合、当該重り32を鉛直下側に位置させた(すなわち、重り32部分でなる重心を床の表面に極力近づけた)姿勢(以下、これを基準姿勢と呼ぶ)となる。   For this reason, when the ellipsoidal casing 20 is placed on a table top or a floor of a desk (hereinafter collectively referred to as a floor), the outer peripheral surface of the maximum outer shape portion of the casing central portion 21 is the floor. Is supported by the right wheel 30 and the left wheel 31 in a posture in which the horizontal rotation axis L1 is parallel to the floor surface. In addition, the ellipsoidal housing 20 is placed on the floor because the center of gravity of the housing central portion 21 is shifted from the center point P1 toward the inner wall by the weight 32 in the housing central portion 21. The weight 32 is positioned vertically downward (that is, the center of gravity formed by the weight 32 is as close as possible to the floor surface) (hereinafter referred to as a reference posture).

そして筐体中央部21内の重り32は、重さが比較的重く選定されている。従って楕円体状筐体20は、右側車輪30及び左側車輪31によって支持された状態で床に載上された場合、右側開閉部24及び左側開閉部25がそれぞれ独立して任意の角度に開かれても、右側及び左側等に傾くことなく基準姿勢を維持することができる。また楕円体状筐体20は、右側開閉部24及び左側開閉部25がそれぞれ独立して開かれた状態で右側回動部22及び左側回動部23がそれぞれ独立して回転しても、右側及び左側等に傾くことなく基準姿勢を維持することができる。   The weight 32 in the housing central portion 21 is selected to be relatively heavy. Therefore, when the ellipsoidal housing 20 is placed on the floor while being supported by the right wheel 30 and the left wheel 31, the right opening part 24 and the left opening part 25 are independently opened at an arbitrary angle. However, the reference posture can be maintained without tilting to the right side or the left side. Further, the ellipsoidal housing 20 is not affected even when the right rotation part 22 and the left rotation part 23 rotate independently with the right opening part 24 and the left opening part 25 opened independently. In addition, the reference posture can be maintained without tilting to the left side or the like.

これに加えて楕円体状筐体20は、床の上を右側車輪30及び左側車輪31の回転により自走する場合も、筐体中央部21内の重り32により当該筐体中央部21の重心が中心点P1から内壁寄りにずれているため、当該筐体中央部21が水平回動軸線L1を中心にして軸回り一方向D1及び軸回り他方向に回転することを抑制し得るようになされている。さらに楕円体状筐体20は、重り32が比較的重いため、自走する際に右側開閉部24及び左側開閉部25がそれぞれ独立して任意の角度に開かれても、右側及び左側等にほとんど傾くことなく基準姿勢をほぼ維持することができる。また楕円体状筐体20は、自走する際に右側開閉部24及び左側開閉部25がそれぞれ独立して開かれた状態で右側回動部22及び左側回動部23がそれぞれ独立して回転しても、右側及び左側等にほとんど傾くことなく基準姿勢をほぼ維持することができる。   In addition to this, even when the ellipsoidal casing 20 is self-propelled on the floor by the rotation of the right wheel 30 and the left wheel 31, the center of gravity of the casing central part 21 is caused by the weight 32 in the casing central part 21. Is shifted from the center point P1 toward the inner wall, so that the casing central portion 21 can be prevented from rotating in one direction D1 around the axis and in the other direction around the axis about the horizontal rotation axis L1. ing. Further, the weight of the ellipsoidal casing 20 is relatively heavy, so that when the right opening / closing part 24 and the left opening / closing part 25 are independently opened at an arbitrary angle during self-running, the right and left sides etc. The reference posture can be maintained almost without tilting. In addition, when the ellipsoidal casing 20 is self-propelled, the right rotation unit 22 and the left rotation unit 23 are independently rotated with the right opening unit 24 and the left opening unit 25 being independently opened. Even in such a case, the reference posture can be substantially maintained with little inclination to the right side and the left side.

ところで筐体中央部21の表面には、基準姿勢で上側となる位置に、指や手等が接触したことを検知するための接触検知センサ33が設けられている。かかる接触検知センサ33は、例えば、筐体中央部21の表面における指先大の領域に接触した指や手等を検知するようになされている。また右側車輪30の右側には、光を発する環状の右側発光部34が設けられている。さらに左側車輪31の左側にも、右側発光部34と同様構成の光を発する環状の左側発光部35が設けられている。そして右側発光部34及び左側発光部35は、それぞれ全体や一部分、また発光色等のように発光状態を可変して発光し得るようになされている。   By the way, a contact detection sensor 33 for detecting that a finger, a hand, or the like is in contact with the upper surface of the reference posture is provided on the surface of the housing central portion 21. The contact detection sensor 33 is configured to detect, for example, a finger or a hand that is in contact with a fingertip-sized region on the surface of the housing central portion 21. On the right side of the right wheel 30, an annular right light emitting unit 34 that emits light is provided. Further, an annular left side light emitting unit 35 that emits light having the same configuration as that of the right side light emitting unit 34 is provided on the left side of the left wheel 31. The right side light emitting unit 34 and the left side light emitting unit 35 are configured to be able to emit light by varying the light emission state, such as the whole, a part, or the emission color.

次いで図7を用いて、パーソナルコンピュータ12の回路構成について説明する。かかるパーソナルコンピュータ12は、例えばマイクロコンピュータ構成の制御部40が、キーボードやマウス等でなる入力部41に対するユーザ操作に応じて種々の命令が入力されると、当該制御部40の内部メモリ(図示せず)、又はハードディスクドライブでなる記憶部42に予め記憶されている基本プログラムやアプリケーションプログラム、動きデータ生成プログラム等の各種プログラムを読み出す。そして制御部40は、これら各種プログラムに従って全体を制御すると共に、所定の演算処理や、入力部41を介して入力される種々の命令に応じた各種処理を実行する。   Next, the circuit configuration of the personal computer 12 will be described with reference to FIG. For example, when a control unit 40 having a microcomputer configuration receives various commands in response to a user operation on an input unit 41 such as a keyboard or a mouse, the personal computer 12 has an internal memory (not shown). 2), or various programs such as a basic program, an application program, and a motion data generation program stored in advance in the storage unit 42 composed of a hard disk drive. The control unit 40 controls the whole in accordance with these various programs, and executes predetermined arithmetic processing and various processings according to various commands input via the input unit 41.

これにより制御部40は、ユーザにより入力部41を介して、CD(Compact Disc)等のメディアに記録された音楽データを録音するための操作命令が入力されると、パーソナルコンピュータ12に装填されたメディアから音楽データを読み出すと共に、当該読み出した音楽データを圧縮符号化することにより圧縮音楽データを生成し、これを記憶部42に送出して記憶する。   Thus, the control unit 40 is loaded into the personal computer 12 when an operation command for recording music data recorded on a medium such as a CD (Compact Disc) is input by the user via the input unit 41. The music data is read from the medium, and the music data thus read is compression-encoded to generate compressed music data, which is sent to the storage unit 42 for storage.

また制御部40は、ユーザにより入力部41を介して、所望の音楽データを配信要求するための操作命令が入力されると、これに応じてネットワーク通信処理部43を介してネットワーク上の音楽提供サーバ(図示せず)にアクセスし所望の音楽データをダウンロード要求する。その結果、制御部40は、音楽提供サーバから返信される、圧縮音楽データ(すなわち、所望の音楽データが圧縮符号化されて生成されているものである)をネットワーク通信処理部43によって受信する。そして制御部40は、記憶部42に対し、音楽提供サーバにより配信された圧縮音楽データを記憶する。このようにして制御部40は、記憶部42に対し、多数の圧縮音楽データを記憶し得るようになされている。   Further, when an operation command for requesting distribution of desired music data is input by the user via the input unit 41, the control unit 40 provides music on the network via the network communication processing unit 43 accordingly. A server (not shown) is accessed to request download of desired music data. As a result, the control unit 40 receives the compressed music data (that is, the data generated by compression encoding the desired music data) returned from the music providing server by the network communication processing unit 43. Then, the control unit 40 stores the compressed music data distributed by the music providing server in the storage unit 42. Thus, the control unit 40 can store a large number of compressed music data in the storage unit 42.

そして制御部40は、ユーザにより入力部41を介して記憶部42内の圧縮音楽データが指定され、かつ当該指定された圧縮音楽データを再生するように要求する操作命令が入力されると、これに応じて記憶部42から、当該指定された圧縮音楽データを読み出す。また制御部42は、その記憶部42から読み出した圧縮音楽データに対し復号等の再生処理を施して元の音楽データを生成し、これをデジタルアナログ変換器やアンプ、スピーカ等でなる出力部44に送出する。これにより制御部40は、出力部44から、記憶部42に記憶していた圧縮音楽データに基づく音楽を出力してユーザに聴かせることができる。   When the compressed music data in the storage unit 42 is designated by the user via the input unit 41 and an operation command for requesting the reproduction of the designated compressed music data is input by the user, the control unit 40 In response, the designated compressed music data is read from the storage unit 42. Further, the control unit 42 performs reproduction processing such as decoding on the compressed music data read from the storage unit 42 to generate original music data, which is output by an output unit 44 including a digital / analog converter, an amplifier, a speaker, and the like. To send. Accordingly, the control unit 40 can output music based on the compressed music data stored in the storage unit 42 from the output unit 44 and allow the user to listen to the music.

さらに記憶部42は、ユーザにより入力部41を介してメディアから音楽データを再生するように要求する操作命令が入力されると、パーソナルコンピュータ12に装填されたメディアから音楽データを読み出して出力部44に送出する。これにより制御部40は、出力部44から、メディアに記録された音楽データに基づく音楽を出力してユーザに聴かせることもできる。   Further, the storage unit 42 reads out music data from the medium loaded in the personal computer 12 and outputs the output unit 44 when a user inputs an operation command for requesting reproduction of music data from the medium via the input unit 41. To send. As a result, the control unit 40 can also output music based on the music data recorded on the medium from the output unit 44 to listen to the user.

さらに制御部40は、各種プログラムの実行結果(例えば、音楽データの取得、録音及び再生等)に応じた表示用データを生成して、表示制御部やディスプレイでなる表示部45に送出する。これにより制御部40は、表示部45において表示用データに基づき、音楽データの取得、録音及び再生等に関する各種画面を表示して、ユーザに視認させることができる。   Further, the control unit 40 generates display data according to the execution results of various programs (for example, acquisition, recording and playback of music data), and sends them to the display unit 45 including a display control unit and a display. Thereby, the control unit 40 can display various screens related to the acquisition, recording, reproduction, and the like of the music data based on the display data on the display unit 45 so that the user can visually recognize the screen.

さらにまた制御部40は、通信部46を介して音楽ロボット装置11と無線通信し得るようになされている。そして制御部40は、ユーザにより入力部41を介して、音楽ロボット装置11に記憶保持させる圧縮音楽データが指定され、かつ当該指定された圧縮音楽データを音楽ロボット装置11へ送信するように要求する操作命令が入力されると、記憶部42から、その指定された圧縮音楽データを読み出す。そして制御部40は、このとき記憶部42から読み出した圧縮音楽データをそのまま通信部46を介して音楽ロボット装置11に送信する。これにより制御部40は、音楽ロボット装置11に対し圧縮音楽データを供給して記憶保持させることができる。   Furthermore, the control unit 40 can wirelessly communicate with the music robot apparatus 11 via the communication unit 46. Then, the control unit 40 requests that the compressed music data to be stored and held in the music robot apparatus 11 is specified by the user via the input unit 41 and that the specified compressed music data is transmitted to the music robot apparatus 11. When an operation command is input, the designated compressed music data is read from the storage unit 42. Then, the control unit 40 transmits the compressed music data read from the storage unit 42 at this time to the music robot apparatus 11 via the communication unit 46 as it is. As a result, the control unit 40 can supply the compressed music data to the music robot apparatus 11 and store it.

また制御部40は、ユーザにより入力部41を介して圧縮音楽データが指定され、かつ当該指定された圧縮音楽データを音楽ロボット装置11で再生するように要求する操作命令が入力されると、記憶部42から、その指定された圧縮音楽データを読み出す。このとき制御部40は、記憶部42から読み出している圧縮音楽データを再生処理しながら元の音楽データとしてストリーミング方式で通信部46を介して音楽ロボット装置11に送信する。このようにして制御部40は、記憶部42に記憶保持している圧縮音楽データを元の音楽データとして音楽ロボット装置11に供給し得るようになされている。   Further, when the compressed music data is designated by the user via the input unit 41 and an operation command for requesting the music robot apparatus 11 to reproduce the designated compressed music data is input, the control unit 40 stores the compressed music data. The designated compressed music data is read from the unit 42. At this time, the control unit 40 transmits the compressed music data read from the storage unit 42 to the music robot apparatus 11 via the communication unit 46 in a streaming manner as the original music data while performing reproduction processing. In this way, the control unit 40 can supply the compressed music data stored in the storage unit 42 to the music robot apparatus 11 as original music data.

さらに制御部40は、記憶部42に対し、音楽ロボット装置11に設けられた可動部としての右側回動部22、左側回動部23、右側開閉部24、左側開閉部25、右側車輪30及び左側車輪31それぞれを予め選定された数秒のような所定時間(以下、これを動き実行時間と呼ぶ)に、所望の動きパターンで動かすための動きパターンデータを記憶している。この動きパターンデータは、右側回動部22、左側回動部23、右側開閉部24、左側開閉部25、右側車輪30、左側車輪31毎に複数種類用意されている。   Furthermore, the control unit 40 has a right rotating unit 22, a left rotating unit 23, a right opening / closing unit 24, a left opening / closing unit 25, a right wheel 30 Motion pattern data for moving each left wheel 31 in a desired motion pattern for a predetermined time such as several seconds selected in advance (hereinafter referred to as motion execution time) is stored. A plurality of types of movement pattern data are prepared for each of the right rotation unit 22, the left rotation unit 23, the right opening / closing unit 24, the left opening / closing unit 25, the right wheel 30, and the left wheel 31.

この場合、右側回動部22に対応する複数種類の動きパターンデータは、それぞれ1つの動きパターンに応じた当該右側回動部22の動きの開始から終了までの回転方向や回転角度、回転速度、回転方向の反転等を、動き実行時間の時間軸に沿って示すように生成されている。また左側回動部23に対応する複数種類の動きパターンデータも同様に、それぞれ1つの動きパターンに応じた当該左側回動部23の動きの開始から終了までの回転方向や回転角度、回転速度、回転方向の反転等を、動き実行時間の時間軸に沿って示すように生成されている。因みに右側回動部22や左側回動部23に対応する動きパターンとしては、例えば比較的遅く所定方向(すなわち、軸回り一方向D1及び軸回り他方向)へ回転するように動く動きパターンや、比較的速く所定方向へ回転するように動く動きパターン、回転方向をすばやく何度も反転させるように動く動きパターン等がある。   In this case, the plurality of types of movement pattern data corresponding to the right-side rotation unit 22 includes the rotation direction and rotation angle from the start to the end of the movement of the right-side rotation unit 22 corresponding to one movement pattern, the rotation speed, The reversal of the rotation direction or the like is generated along the time axis of the motion execution time. Similarly, the plurality of types of movement pattern data corresponding to the left rotation unit 23 are also the rotation direction, rotation angle, rotation speed from the start to the end of the movement of the left rotation unit 23 corresponding to one movement pattern, The reversal of the rotation direction or the like is generated along the time axis of the motion execution time. Incidentally, as a movement pattern corresponding to the right rotation part 22 and the left rotation part 23, for example, a movement pattern that moves relatively slowly in a predetermined direction (that is, one direction around the axis D1 and the other direction around the axis) There are a movement pattern that moves so as to rotate in a predetermined direction relatively quickly, a movement pattern that moves so as to quickly and repeatedly reverse the rotation direction, and the like.

右側開閉部24に対応する複数種類の動きパターンデータは、それぞれ1つの動きパターンに応じた当該右側開閉部24の動きの開始から終了までの開閉方向や開閉角度、開閉速度、開閉回数等を、動き実行時間の時間軸に沿って示すように生成されている。また左側開閉部25に対応する複数種類の動きパターンデータも同様に、それぞれ1つの動きパターンに応じた当該左側開閉部25の動きの開始から終了までの開閉方向や開閉角度、開閉速度、開閉回数等を、動き実行時間の時間軸に沿って示すように生成されている。因みに右側開閉部24や左側開閉部25に対応する動きパターンとしては、例えば比較的遅く開く又は閉じるように動く動きパターンや、比較的速く開く又は閉じるように動く動きパターン、開閉方向をすばやく何度も反転させるように動く動きパターン等がある。   The plurality of types of movement pattern data corresponding to the right opening / closing unit 24 includes the opening / closing direction, opening / closing angle, opening / closing speed, opening / closing frequency, etc. from the start to the end of the movement of the right opening / closing unit 24 corresponding to one movement pattern. It is generated as shown along the time axis of the motion execution time. Similarly, a plurality of types of movement pattern data corresponding to the left side opening / closing unit 25 are also the opening / closing direction, opening / closing angle, opening / closing speed, and number of times of opening / closing of the left side opening / closing unit 25 corresponding to one movement pattern. Are generated along the time axis of the motion execution time. Incidentally, as the movement pattern corresponding to the right opening / closing part 24 and the left opening / closing part 25, for example, a movement pattern that moves relatively slowly opens or closes, a movement pattern that moves relatively quickly opens or closes, and the opening / closing direction quickly and repeatedly. There is also a movement pattern that moves so as to reverse.

右側車輪30に対応する複数種類の動きパターンデータは、それぞれ1つの動きパターンに応じた当該右側車輪30の動きの開始から終了までの回転方向や回転角度、回転速度、回転数等を、動き実行時間の時間軸に沿って示すように生成されている。また左側車輪31に対応する複数種類の動きパターンデータも同様に、それぞれ1つの動きパターンに応じた当該左側車輪31の動きの開始から終了までの回転方向や回転角度、回転速度、回転数等を、動き実行時間の時間軸に沿って示すように生成されている。因みに右側車輪30や左側車輪31に対応する動きパターンとしては、例えば比較的遅く所定方向(すなわち、軸回り一方向D1及び軸回り他方向)へ回転するように動く動きパターンや、比較的速く所定方向へ回転するように動く動きパターン、回転方向をすばやく何度も反転させるように動く動きパターン等がある。   A plurality of types of movement pattern data corresponding to the right wheel 30 are used to execute the rotation direction, rotation angle, rotation speed, rotation speed, etc. from the start to the end of the movement of the right wheel 30 corresponding to one movement pattern. It is generated as shown along the time axis of time. Similarly, the plurality of types of movement pattern data corresponding to the left wheel 31 also indicate the rotation direction, rotation angle, rotation speed, rotation speed, etc. from the start to the end of the movement of the left wheel 31 corresponding to each movement pattern. , As shown along the time axis of the motion execution time. Incidentally, as a motion pattern corresponding to the right wheel 30 and the left wheel 31, for example, a motion pattern that moves relatively slowly in a predetermined direction (that is, one direction around the axis D1 and the other direction around the axis), or a relatively fast predetermined pattern. There are a movement pattern that moves so as to rotate in a direction, a movement pattern that moves so as to quickly reverse the rotation direction, and the like.

この実施の形態の場合、音楽ロボット装置11に設けられた可動部としての右側回動部22、左側回動部23、右側開閉部24、左側開閉部25、右側車輪30及び左側車輪31は、それぞれ個別にモータによって駆動される。そして動きパターンデータは、右側回動部22、左側回動部23、右側開閉部24、左側開閉部25、右側車輪30、左側車輪31毎のモータの出力軸を回転させる回転方向及び回転速度を指示する指示値を有し、当該モータの駆動にそのまま用いることが可能なデータである。   In the case of this embodiment, the right rotation part 22, the left rotation part 23, the right opening / closing part 24, the left opening / closing part 25, the right wheel 30 and the left wheel 31 as movable parts provided in the music robot apparatus 11 are: Each is individually driven by a motor. The movement pattern data includes a rotation direction and a rotation speed for rotating the output shaft of the motor for each of the right rotation unit 22, the left rotation unit 23, the right opening / closing unit 24, the left opening / closing unit 25, the right wheel 30, and the left wheel 31. This is data that has an instruction value to instruct and can be used as it is for driving the motor.

実際に制御部40は、図8に示すように記憶部42において動きパターンデータ管理用のデータベース(以下、これを動きパターンデータベースと呼ぶ)MDBを構築している。そして制御部40は、右側回動部22、左側回動部23、右側開閉部24、左側開閉部25、右側車輪30、左側車輪31毎の複数種類の動きパターンデータを、テンポの速い音楽やテンポの遅い音楽、朝の時間帯に合う音楽等のように音楽の種々の特徴に応じて分類して(すなわち、音楽のテンポのような種々の特徴それぞれに合う動きパターン同士をまとめるようにして)動きパターンデータベースMDBに登録している。   Actually, the control unit 40 constructs a database for motion pattern data management (hereinafter referred to as a motion pattern database) MDB in the storage unit 42 as shown in FIG. Then, the control unit 40 converts a plurality of types of movement pattern data for each of the right rotation unit 22, the left rotation unit 23, the right opening / closing unit 24, the left opening / closing unit 25, the right wheel 30, and the left wheel 31 into fast-tempo music, Categorize according to various characteristics of music such as slow-tempo music, music that fits in the morning time zone, etc. ) It is registered in the motion pattern database MDB.

また制御部40は、音楽ロボット装置11に設けられた発光部としての右側発光部34や左側発光部35それぞれを動き実行時間に、所望の発光パターンで発光させるための複数種類の発光パターンデータも、音楽のテンポのような種々の特徴に応じて分類して(すなわち、音楽のテンポのような種々の特徴それぞれに合う発光パターン同士をまとめるようにして)動きパターンデータベースMDBに登録している。   The control unit 40 also includes a plurality of types of light emission pattern data for causing each of the right light emitting unit 34 and the left light emitting unit 35 as light emitting units provided in the music robot apparatus 11 to emit light in a desired light emission pattern during the movement execution time. They are classified according to various characteristics such as music tempo (that is, light emission patterns suitable for various characteristics such as music tempo are grouped together) and registered in the motion pattern database MDB.

右側発光部34に対応する複数種類の発光パターンデータは、それぞれ1つの発光パターンに応じた当該右側発光部34の発光の開始から終了までの発光状態の変化を動き実行時間の時間軸に沿って示すように生成されている。また左側発光部35に対応する複数種類の発光パターンデータも同様に、それぞれ1つの発光パターンに応じた当該左側発光部35の発光の開始から終了までの発光状態の変化を動き実行時間の時間軸に沿って示すように生成されている。因みに右側発光部34や左側発光部35に対応する発光パターンとしては、例えば環全体を1つの発光色で所定時間継続して発光させる発光パターンや、環全体を順次発光色を切り替えて発光させる発光パターン、環を部分的に発光させる発光パターン等がある。   The plurality of types of light emission pattern data corresponding to the right light emitting unit 34 change the light emission state from the start to the end of light emission of the right light emitting unit 34 corresponding to one light emission pattern, and move along the time axis of execution time. Has been generated as shown. Similarly, a plurality of types of light emission pattern data corresponding to the left side light emitting unit 35 similarly change the light emission state from the start to the end of light emission of the left side light emitting unit 35 corresponding to one light emission pattern, and the time axis of the execution time. It is generated as shown along. Incidentally, as a light emission pattern corresponding to the right side light emitting unit 34 or the left side light emitting unit 35, for example, a light emission pattern in which the entire ring continuously emits light with a single emission color for a predetermined time, or a light emission in which the entire ring is sequentially changed in emission color to emit light. There are a pattern, a light emission pattern for partially emitting light from the ring, and the like.

そして制御部40は、例えばユーザにより入力部41を介して圧縮音楽データが指定され、かつ当該指定された圧縮音楽データに基づく音楽の出力に合わせて音楽ロボット装置11全体を動かす動きデータ(以下、これをロボット動きデータと呼ぶ)を自動で生成するように要求する操作命令が入力されると、動きデータ生成処理を実行する。これにより制御部40は、かかる動きパターンデータや発光パターンデータを用いてロボット動きデータを生成し得るようになされている。実際に制御部40は、動きデータ生成処理を実行する場合、その動きデータ生成処理と同時並行に、このとき記憶部42から読み出した圧縮音楽データを再生処理しながら、その結果得られる元の音楽データを分析する分析処理も実行している。そして制御部40は、かかる分析処理としては、音楽データにおいて音楽のビートに相当する位置(以下、これをビート位置と呼ぶ)を検出するビート検出処理と、当該音楽の特徴を解析する特徴解析処理とを同時並行で実行している。   Then, the control unit 40, for example, designates compressed music data via the input unit 41 by the user and moves the music robot apparatus 11 as a whole according to the music output based on the designated compressed music data (hereinafter, referred to as “motion data”). When an operation command for requesting automatic generation of this (referred to as robot motion data) is input, motion data generation processing is executed. Thereby, the control unit 40 can generate robot motion data using the motion pattern data and the light emission pattern data. Actually, when executing the motion data generation process, the control unit 40 reproduces the compressed music data read from the storage unit 42 at the same time as the motion data generation process, and obtains the original music obtained as a result. Analytical processing to analyze the data is also executed. The control unit 40 includes, as such analysis processing, beat detection processing for detecting a position corresponding to a beat of music in music data (hereinafter referred to as a beat position), and feature analysis processing for analyzing characteristics of the music. Are running concurrently.

制御部40は、ロボット動きデータを生成する場合、ビート検出処理において、音楽データの順次(すなわち、音楽データの先頭から後尾にかけて)所定の単位処理部分(例えば、1秒分の音楽に相当する部分)から所定周波数帯域毎のエネルギーを抽出しながら、当該単位処理部分毎に各周波数帯域のエネルギーの総和を求める。また制御部40は、単位処理部分毎のエネルギーの総和をもとに、音楽の再生時間軸に沿ってエネルギーの総和が著しく大きい位置を当該音楽のビートに相当するビート位置として順次検出する。そして制御部40は、音楽データの先頭から後尾に渡り、所定数毎のビート位置を区切り位置とした例えば音楽の小節(すなわち、1/2小節や1小節、2小節等)に相当する区間(以下、これを曲調区間と呼ぶ)を順次特定する。   When the robot motion data is generated, the control unit 40 performs a predetermined unit processing part (for example, a part corresponding to music for one second) in the beat detection process in order of music data (that is, from the head to the tail of the music data). ), The energy sum of each frequency band is obtained for each unit processing portion. Further, the control unit 40 sequentially detects a position where the total energy is remarkably large along the music reproduction time axis as a beat position corresponding to the beat of the music, based on the total energy for each unit processing portion. Then, the control unit 40 extends from the beginning to the end of the music data, for example, a section corresponding to a musical measure (that is, 1/2 measure, 1 measure, 2 measures, etc.) with a predetermined number of beat positions as delimiters ( Hereinafter, this is referred to as a music tone section).

また制御部40は、特徴解析処理において、音楽データの順次(すなわち、音楽データの先頭から後尾にかけて)単位処理部分から1オクターブの12音階それぞれに相当する周波数帯域毎のエネルギーを抽出しながら、音楽データの曲調区間毎にこれら周波数帯域毎のエネルギーをもとにして、音楽の演奏に利用されている楽器やコード等の種々の情報(以下、これを区間情報と呼ぶ)を検出する。さらに制御部40は、かかる音楽データの曲調区間毎に、その検出した区間情報をもとに音楽の特徴(以下、これを区間特徴と呼ぶ)を解析する。   In the feature analysis process, the control unit 40 extracts the energy for each frequency band corresponding to each of the 12 scales of one octave from the unit processing portion of the music data sequentially (that is, from the head to the tail of the music data). Based on the energy of each frequency band for each music tone section, various information (hereinafter referred to as section information) such as musical instruments and chords used for music performance is detected. Further, the control unit 40 analyzes a music feature (hereinafter referred to as a section feature) based on the detected section information for each music tone section of the music data.

さらに制御部40は、ビート検出処理及び特徴解析処理により音楽データの曲調区間を特定すると共に、その曲調区間について区間特徴を解析する毎に、動きデータ生成処理において、当該音楽データの曲調区間を再生する間(すなわち、音楽データの曲調区間に相当する音楽の所定区間部分が出力される間)、可動部を動かすための動きパターンや発光部を発光させるための発光パターンを設定する。すなわち図9に示すように、制御部40は、音楽データの曲調区間KB1乃至KB6を特定すると、記憶部42内の動きパターンデータベースMDBから、その曲調区間KB1乃至KB6の区間特徴に対応する例えば右側回動部22の複数種類の動きパターンデータの中の、1つの動きパターンデータを無作為に選択して読み出す。   Furthermore, the control unit 40 specifies the music tone section of the music data by the beat detection process and the feature analysis process, and reproduces the music section of the music data in the motion data generation process every time the section feature is analyzed for the music section. During this period (that is, while a predetermined section of music corresponding to the music tone section of the music data is output), a movement pattern for moving the movable portion and a light emission pattern for causing the light emitting portion to emit light are set. That is, as shown in FIG. 9, when the control unit 40 identifies the music intervals KB1 to KB6 of the music data, for example, the right side corresponding to the segment features of the music intervals KB1 to KB6 from the motion pattern database MDB in the storage unit 42. One motion pattern data among a plurality of types of motion pattern data of the rotation unit 22 is randomly selected and read.

そして制御部40は、音楽データの曲調区間KB1乃至KB6に対し、その読み出した1つの動きパターンデータを割り当てる。すなわち、制御部40は、かかる曲調区間KB1乃至KB6を再生する間、右側回動部22を駆動制御するための動きパターンデータを、このとき記憶部42内の動きパターンデータベースMDBから読み出した1つの動きパターンデータに設定する。これにより制御部40は、音楽データの曲調区間KB1乃至KB6に相当する音楽の所定区間部分が出力されるときに右側回動部22を動かす動きパターンを設定する。   Then, the control unit 40 assigns the read one motion pattern data to the music tone intervals KB1 to KB6 of the music data. That is, the control unit 40 reads the motion pattern data for driving and controlling the right-side rotation unit 22 from the motion pattern database MDB in the storage unit 42 while reproducing the music tone sections KB1 to KB6. Set motion pattern data. Accordingly, the control unit 40 sets a movement pattern for moving the right rotation unit 22 when a predetermined section of music corresponding to the music tone sections KB1 to KB6 of the music data is output.

また制御部40は、同様にして音楽データの曲調区間KB1乃至KB6に対し、区間特徴に基づき左側回動部23、右側開閉部24、左側開閉部25、右側車輪30、左側車輪31毎の1つの動きパターンデータも選択して割り当てる。すなわち、制御部40は、かかる曲調区間KB1乃至KB6を再生する間、左側回動部23や右側開閉部24、左側開閉部25、右側車輪30、左側車輪31それぞれを駆動制御するための動きパターンデータを、記憶部42内の動きパターンデータベースMDBから読み出した動きパターンデータに設定する。これにより制御部40は、音楽データの曲調区間KB1乃至KB6に相当する音楽の所定区間部分が出力されるときに左側回動部23、右側開閉部24、左側開閉部25、右側車輪30及び左側車輪31それぞれを動かす動きパターンも設定する。   Similarly, the control unit 40 applies one to each of the music tone sections KB1 to KB6 based on the section characteristics, for each of the left rotation section 23, right opening / closing section 24, left opening / closing section 25, right wheel 30, and left wheel 31. One motion pattern data is also selected and assigned. That is, the control unit 40 drives and controls each of the left rotation unit 23, the right opening / closing unit 24, the left opening / closing unit 25, the right wheel 30, and the left wheel 31 while reproducing the music tone sections KB1 to KB6. The data is set to the motion pattern data read from the motion pattern database MDB in the storage unit 42. As a result, the control unit 40 outputs the left rotation unit 23, the right opening / closing unit 24, the left opening / closing unit 25, the right wheel 30 and the left side when the predetermined music section corresponding to the music tone sections KB1 to KB6 is output. A movement pattern for moving each of the wheels 31 is also set.

さらに制御部40は、同様にして音楽データの曲調区間KB1乃至KB6に対し、区間特徴に基づき右側発光部34、左側発光部35毎の1つの発光パターンも選択して割り当てる。すなわち、制御部40は、かかる曲調区間KB1乃至KB6を再生する間、右側発光部34や左側発光部35それぞれを制御するための発光パターンデータを、記憶部42内の動きパターンデータベースMDBから読み出した発光パターンデータに設定する。これにより制御部40は、音楽データの曲調区間KB1乃至KB6に相当する音楽の所定区間部分が出力されるときに右側発光部34及び左側発光部35それぞれを発光させる発光パターンを設定する。   Further, similarly, the control unit 40 selects and assigns one light emission pattern for each of the right light emitting unit 34 and the left light emitting unit 35 to the music tone sections KB1 to KB6 based on the section characteristics. That is, the control unit 40 reads the light emission pattern data for controlling the right light emitting unit 34 and the left light emitting unit 35 from the motion pattern database MDB in the storage unit 42 while reproducing the music tone sections KB1 to KB6. Set to flash pattern data. Thus, the control unit 40 sets a light emission pattern for causing the right light emitting unit 34 and the left light emitting unit 35 to emit light when a predetermined music section corresponding to the music tone sections KB1 to KB6 of the music data is output.

因みに制御部40は、動き実行時間の間、右側回動部22、左側回動部23、右側開閉部24、左側開閉部25、右側車輪30及び左側車輪31を全く動かさないようにするために、例えば動き実行時間の時間軸に沿って「0」の指示値を示す動きパターンデータ(以下、これを特に動き停止パターンデータと呼ぶ)も記憶部42に記憶している。また制御部40は、動き実行時間の間、右側発光部34や左側発光部35を全く発光させないようにするために、例えば動き実行時間の時間軸に沿って「0」の制御値を示す発光パターンデータ(以下、これを特に発光停止パターンデータと呼ぶ)も記憶部42に記憶している。   Incidentally, the control unit 40 prevents the right rotation unit 22, the left rotation unit 23, the right opening / closing unit 24, the left opening / closing unit 25, the right wheel 30 and the left wheel 31 from moving during the movement execution time. For example, motion pattern data indicating an instruction value of “0” along the time axis of motion execution time (hereinafter, this is particularly referred to as motion stop pattern data) is also stored in the storage unit 42. Further, the control unit 40 emits light indicating a control value of “0” along the time axis of the motion execution time, for example, so that the right light-emitting unit 34 and the left light-emitting unit 35 do not emit light during the motion execution time. Pattern data (hereinafter, specifically referred to as light emission stop pattern data) is also stored in the storage unit 42.

そして制御部40は、特徴解析処理により音楽データの曲調区間KB1乃至KB6に相当する音楽の所定区間部分が間奏に相当する部分であることを検出したとき等には、その曲調区間KB1乃至KB6に対し、右側回動部22や左側回動部23、右側開閉部24、左側開閉部25、右側車輪30、左側車輪31の少なくとも1つの動きパターンデータとして動き停止パターンデータを割り当てることもできる。また制御部40は、このような場合、音楽データの曲調区間KB1乃至KB6に対し、右側発光部34や左側発光部35の少なくとも1つの発光パターンデータとして発光停止パターンデータを割り当てることもできる。   When the control unit 40 detects that the predetermined section of music corresponding to the music intervals KB1 to KB6 of the music data is a portion corresponding to an interlude by the feature analysis process, the control section 40 selects the music intervals KB1 to KB6. On the other hand, the movement stop pattern data can be assigned as at least one movement pattern data of the right rotation part 22, the left rotation part 23, the right opening / closing part 24, the left opening / closing part 25, the right wheel 30, and the left wheel 31. In such a case, the control unit 40 can also assign light emission stop pattern data as at least one light emission pattern data of the right light emitting unit 34 or the left light emitting unit 35 to the music tone intervals KB1 to KB6.

すなわち、制御部40は、音楽データの曲調区間KB1乃至KB6に対応する区間特徴に応じて、当該曲調区間KB1乃至KB6に相当する音楽の所定区間部分が出力されるときに右側回動部22、左側回動部23、右側開閉部24、左側開閉部25、右側車輪30及び左側車輪31を全く動かさないように設定することができる。また制御部40は、音楽データの曲調区間KB1乃至KB6に対応する区間特徴に応じて、当該曲調区間KB1乃至KB6に相当する音楽の所定区間部分が出力されるときに右側発光部34及び左側発光部35を全く発光させないように設定することもできる。   That is, the control unit 40 is configured to output the right rotation unit 22 when a predetermined section of music corresponding to the music sections KB1 to KB6 is output according to the section characteristics corresponding to the music sections KB1 to KB6 of the music data. It can be set so that the left rotation part 23, the right opening / closing part 24, the left opening / closing part 25, the right wheel 30 and the left wheel 31 are not moved at all. Further, the control unit 40 outputs the right light emitting unit 34 and the left light emitting unit 34 when the predetermined music section corresponding to the music sections KB1 to KB6 is output according to the section features corresponding to the music sections KB1 to KB6 of the music data. It can also be set so that the part 35 does not emit light at all.

さらに制御部40は、音楽データの複数の曲調区間KB1乃至KB6の中で、区間情報として同一のコードが使用されていることを検出した少なくとも2つの曲調区間KB1乃至KB6に対しては、右側回動部22、左側回動部23、右側開閉部24、左側開閉部25、右側車輪30及び左側車輪31の少なくとも1つについて同一の動きパターンデータを割り当てるようにしている。さらに制御部40は、区間情報として同一のコードが使用されていることを検出した少なくとも2つの曲調区間KB1乃至KB6に対しては、右側発光部34及び左側発光部35の少なくとも1つについて同一の発光パターンデータを割り当てるようにしている。   Further, the control unit 40 performs the right rotation for at least two music intervals KB1 to KB6 that detect that the same chord is used as the interval information among the plurality of music intervals KB1 to KB6 of the music data. The same movement pattern data is assigned to at least one of the moving part 22, the left turning part 23, the right opening / closing part 24, the left opening / closing part 25, the right wheel 30 and the left wheel 31. Further, the control unit 40 is the same for at least one of the right side light emitting unit 34 and the left side light emitting unit 35 for at least two music tone sections KB1 to KB6 that detect that the same code is used as the section information. The light emission pattern data is assigned.

さらに制御部40は、音楽データの曲調区間KB1乃至KB6に対し動きパターンデータ及び発光パターンデータを割り当てる場合、当該曲調区間KB1乃至KB6に付加されているタイムコード(すなわち、音楽データに対し再生時間軸に沿って付加されているタイムコード)に基づき、その曲調区間KB1乃至KB6が実際に音楽の所定区間部分として出力されるときの再生時間(以下、これを区間再生時間と呼ぶ)を検出する。そして制御部40は、曲調区間KB1乃至KB6の区間再生時間と動き実行時間とを比較する。その結果、制御部40は、区間再生時間と動き実行時間とが一致していると、曲調区間KB1乃至KB6に対し動きパターンデータ及び発光パターンデータをそのまま割り当てる。   Further, when the control unit 40 assigns motion pattern data and light emission pattern data to the musical tone intervals KB1 to KB6 of the music data, the time code added to the musical tone intervals KB1 to KB6 (that is, the reproduction time axis for the music data). Based on the time code), the playback time (hereinafter referred to as the section playback time) when the music tone sections KB1 to KB6 are actually output as the predetermined section of music is detected. Then, the control unit 40 compares the section playback time and the motion execution time of the music sections KB1 to KB6. As a result, when the section reproduction time and the motion execution time match, the control unit 40 assigns the motion pattern data and the light emission pattern data to the music tone sections KB1 to KB6 as they are.

これに対して制御部40は、区間再生時間が動き実行時間よりも短いと、その動き実行時間を区間再生時間に合わせるように動きパターンデータ及び発光パターンデータを動き実行時間の時間軸に沿って圧縮するように加工して曲調区間KB1乃至KB6に割り当てる。すなわち、制御部40は、このような場合、本来の動きパターンが示す動きを、これよりもすばやい動きの動きパターンに加工し、また本来の発光パターンが示す発光状態を、これよりもすばやく変化する発光状態の発光パターンに加工している。   In contrast, when the section playback time is shorter than the motion execution time, the control unit 40 moves the motion pattern data and the light emission pattern data along the time axis of the motion execution time so that the motion execution time matches the section playback time. It is processed so as to be compressed and assigned to the music tone sections KB1 to KB6. That is, in such a case, the control unit 40 processes the movement indicated by the original movement pattern into a movement pattern that is faster than this, and changes the light emission state indicated by the original light emission pattern more quickly than this. The light emission pattern is processed into a light emission state.

また制御部40は、区間再生時間が動き実行時間よりも長いと、その動き実行時間を区間再生時間に合わせるように動きパターンデータ及び発光パターンデータを動き実行時間の時間軸に沿って伸張するように加工して曲調区間KB1乃至KB6に割り当てる。すなわち、制御部40は、このような場合、本来の動きパターンが示す動きを、これよりもゆっくり動く動きパターンに加工し、また本来の発光パターンが示す発光の変化を、これよりもゆっくり変化する発光パターンに加工している。因みに制御部40は、動き停止パターンデータや発光停止パターンデータについても、同様に音楽データの曲調区間KB1乃至KB6に対し適宜加工して割り当てている。   In addition, when the section playback time is longer than the motion execution time, the control unit 40 extends the motion pattern data and the light emission pattern data along the time axis of the motion execution time so that the motion execution time matches the section playback time. To be assigned to the music tone sections KB1 to KB6. That is, in such a case, the control unit 40 processes the movement indicated by the original movement pattern into a movement pattern that moves more slowly than this, and changes the emission change indicated by the original emission pattern more slowly than this. It is processed into a light emission pattern. Incidentally, the control unit 40 similarly processes and assigns the motion stop pattern data and the light emission stop pattern data as appropriate to the music tone sections KB1 to KB6 of the music data.

従って制御部40は、音楽データの先頭から後尾の全ての曲調区間KB1乃至KB6に対し、それぞれ動きパターンデータや動き停止パターンデータ、発光パターンデータや発光停止パターンデータを時間的に間を空けることなく連続的に割り当てている。そして制御部40は、音楽データの先頭から後尾までの全ての曲調区間KB1乃至KB6に対しそれぞれ動きパターンデータや動き停止パターンデータ、発光パターンデータや発光停止パターンデータを割り当てると、当該全ての曲調区間KB1乃至KB6に割り当てて音楽の再生時間軸に沿って並ぶ、例えば右側回動部22の動きパターンデータや動き停止パターンデータのデータ列を当該右側回動部22に対する動きデータとする。このようにして制御部40は、1つの音楽データに基づく音楽が出力されている間、右側回動部22を動かすための動きデータを得る。   Therefore, the control unit 40 does not time out the motion pattern data, the motion stop pattern data, the light emission pattern data, and the light emission stop pattern data for all the music tone sections KB1 to KB6 from the beginning to the tail of the music data. Assigned continuously. When the control unit 40 assigns the motion pattern data, the motion stop pattern data, the light emission pattern data, and the light emission stop pattern data to all the music interval KB1 to KB6 from the beginning to the tail of the music data, all the music intervals For example, a data string of motion pattern data and motion stop pattern data of the right rotation unit 22 that is allocated to KB1 to KB6 and arranged along the music playback time axis is used as motion data for the right rotation unit 22. In this way, the control unit 40 obtains motion data for moving the right rotation unit 22 while music based on one music data is being output.

また制御部40は、同様にして、音楽データの全ての曲調区間KB1乃至KB6に割り当てて音楽の再生時間軸に沿って並ぶ、左側回動部23、右側開閉部24、左側開閉部25、右側車輪30及び左側車輪31それぞれの動きパターンデータや動き停止パターンデータのデータ列も、当該左側回動部23、右側開閉部24、左側開閉部25、右側車輪30及び左側車輪31の動きデータとする。このようにして制御部40は、1つの音楽データに基づく音楽が出力されている間、左側回動部23、右側開閉部24、左側開閉部25、右側車輪30及び左側車輪31それぞれを動かすための動きデータを得る。   Similarly, the control unit 40 assigns to all the musical tone intervals KB1 to KB6 of the music data and arranges them along the music playback time axis, the left rotation unit 23, the right opening / closing unit 24, the left opening / closing unit 25, the right side. The data patterns of the movement pattern data and the movement stop pattern data of the wheel 30 and the left wheel 31 are also used as the movement data of the left rotation unit 23, the right opening / closing unit 24, the left opening / closing unit 25, the right wheel 30 and the left wheel 31. . In this way, the control unit 40 moves each of the left rotation unit 23, the right opening / closing unit 24, the left opening / closing unit 25, the right wheel 30 and the left wheel 31 while music based on one music data is being output. Get motion data.

さらに制御部40は、同様にして、音楽データの全ての曲調区間KB1乃至KB6に割り当てて音楽の再生時間軸に沿って並ぶ、右側発光部34及び左側発光部35それぞれの発光パターンデータや発光停止パターンデータのデータ列を当該右側発光部34及び左側発光部35の発光データとする。これにより制御部40は、1つの音楽データに基づく音楽が出力されている間、右側発光部34及び左側発光部35それぞれを発光させるための発光データを得る。そして制御部40は、これら右側回動部22、左側回動部23、右側開閉部24、左側開閉部25、右側車輪30、左側車輪31毎の動きデータと、右側発光部34、左側発光部35毎の発光データとをまとめて、1つ音楽データに基づく音楽に合わせて音楽ロボット装置11全体を動かすロボット動きデータとする。   Further, similarly, the control unit 40 assigns all the musical tone intervals KB1 to KB6 of the music data and arranges the light emission pattern data and light emission stop of each of the right light emitting unit 34 and the left light emitting unit 35 arranged along the music reproduction time axis. A data string of pattern data is used as light emission data of the right light emitting unit 34 and the left light emitting unit 35. Accordingly, the control unit 40 obtains light emission data for causing the right light emitting unit 34 and the left light emitting unit 35 to emit light while music based on one music data is being output. And the control part 40 is the right rotation part 22, the left rotation part 23, the right opening / closing part 24, the left opening / closing part 25, the right wheel 30, the movement data for every left wheel 31, the right light emitting part 34, the left light emitting part. The light emission data for each of the 35 are collectively used as robot motion data for moving the entire music robot apparatus 11 in accordance with music based on one music data.

このようにして制御部40は、圧縮音楽データに対応するロボット動きデータを生成し得るようになされている。実際に制御部40は、例えばユーザにより入力部41を介して、音楽ロボット装置11に再生させる音楽の圧縮音楽データが指定され、かつ当該指定された圧縮音楽データを用いてロボット動きデータを自動で生成するように要求する要求命令が入力されると、記憶部42から指定された圧縮音楽データを読み出す。そして制御部40は、記憶部42から読み出している圧縮音楽データを再生処理しながら、その結果得られる音楽データを用いてロボット動きデータを生成する。   In this way, the control unit 40 can generate robot motion data corresponding to the compressed music data. Actually, for example, the control unit 40 automatically designates compressed music data of music to be reproduced by the music robot apparatus 11 by the user via the input unit 41, and automatically uses the designated compressed music data to automatically transmit the robot motion data. When a request command for requesting generation is input, the specified compressed music data is read from the storage unit 42. Then, the control unit 40 reproduces the compressed music data read from the storage unit 42 and generates robot motion data using the music data obtained as a result.

この際、制御部40は、例えば音楽データを用いてロボット動きデータをその先頭から途中の所定部分まで生成すると、当該途中まで生成したロボット動きデータを先頭から所定単位毎に分割して通信部46から音楽ロボット装置11へ送信し始める。因みに制御部40は、ロボット動きデータを所定部分まで生成して音楽ロボット装置11への送信を開始すると、引き続きロボット動きデータの残りの部分を生成しながら、音楽ロボット装置11への送信を継続する。   At this time, for example, when the robot motion data is generated from the head to a predetermined part in the middle using music data, the control unit 40 divides the robot motion data generated up to the middle into predetermined units from the head to communicate with the communication unit 46. To start transmission to the music robot device 11. Incidentally, when the control unit 40 generates robot motion data up to a predetermined portion and starts transmission to the music robot device 11, the control unit 40 continues to generate the robot motion data while continuing to generate the remaining portion of the robot motion data. .

そして制御部40は、すでに音楽ロボット装置11に対しロボット動きデータの送信を開始している状態で、ユーザにより入力部41を介して音楽ロボット装置11へ音楽データを送信するように要求する操作命令が入力されると、これに応じて記憶部42から読み出している圧縮音楽データを再生処理して元の音楽データとしてストリーミング方式で通信部46を介して音楽ロボット装置11へ送信する。このようにして制御部40は、音楽ロボット装置11に対し音楽データと共にロボット動きデータを供給し得るようになされている。   Then, the control unit 40 has already started transmission of the robot motion data to the music robot apparatus 11, and an operation command that requests the user to transmit music data to the music robot apparatus 11 via the input unit 41. In response to this, the compressed music data read from the storage unit 42 is reproduced and transmitted to the music robot apparatus 11 via the communication unit 46 in a streaming manner as original music data. In this way, the control unit 40 can supply the robot movement data together with the music data to the music robot apparatus 11.

因みに制御部40は、音楽ロボット装置11へロボット動きデータの先頭の所定単位部分を送信すると、その後は、音楽ロボット装置11から残りの所定単位部分が要求される毎に、これに応じてロボット動きデータを順次所定単位部分に分割して送信している。従って制御部40は、音楽ロボット装置11に対し圧縮音楽データや音楽データと共にロボット動きデータを供給する場合、通信負荷が増大することを回避している。   Incidentally, when the control unit 40 transmits the predetermined unit portion at the head of the robot motion data to the music robot device 11, thereafter, every time the remaining predetermined unit portion is requested from the music robot device 11, the robot motion is responded accordingly. Data is sequentially divided into predetermined unit parts and transmitted. Therefore, when supplying the robot motion data together with the compressed music data and the music data to the music robot apparatus 11, the control unit 40 avoids an increase in communication load.

また制御部40は、音楽ロボット装置11に対しロボット動きデータを送信し終えると、例えばユーザ設定に応じて、記憶部42に対し当該ロボット動きデータを圧縮音楽データと対応付けて記憶することができる。また制御部40は、この際、例えばユーザ設定に応じて、ロボット動きデータを、音楽ロボット装置11に送信し終えた時点で破棄することもできる。そして制御部40は、記憶部42にロボット動きデータを記憶していると、音楽ロボット装置11に対し、そのロボット動きデータを供給するとき、改めてロボット動きデータを生成しなくても、記憶部42からそのロボット動きデータを読み出して通信部46から音楽ロボット装置11に送信することもできる。   Further, when the control unit 40 finishes transmitting the robot motion data to the music robot device 11, for example, according to the user setting, the control unit 40 can store the robot motion data in association with the compressed music data in the storage unit 42. . In this case, the control unit 40 can also discard the robot movement data at the time when transmission of the robot movement data to the music robot apparatus 11 is completed, for example, according to user settings. When the robot motion data is stored in the storage unit 42, the control unit 40 can supply the robot motion data to the music robot device 11 without generating the robot motion data again. The robot movement data can be read out from the communication unit 46 and transmitted to the music robot apparatus 11.

さらに制御部40は、例えばユーザにより入力部41を介して、単に圧縮音楽データが指定され、当該指定された圧縮音楽データを用いて自動でロボット動きデータを生成するように要求する操作命令が入力されたときには、これに応じてロボット動きデータを生成する。そして制御部40は、記憶部42に対し、そのロボット動きデータを圧縮音楽データに対応付けて記憶することもできる。   Further, the control unit 40 receives, for example, an operation command for requesting to automatically generate the robot motion data using the specified compressed music data by simply specifying the compressed music data via the input unit 41 by the user. When it is done, robot motion data is generated accordingly. The control unit 40 can also store the robot motion data in the storage unit 42 in association with the compressed music data.

次いで図10を用いて、音楽ロボット装置11の回路構成について説明する。かかる音楽ロボット装置11は、当該音楽ロボット装置11全体を統括的に制御する、マイクロコンピュータ構成の主制御部50を有している。また音楽ロボット装置11は、可動部51としての右側回動部22、左側回動部23、右側開閉部24、左側開閉部25、右側車輪30、左側車輪31それぞれを、駆動部52を介して駆動制御し、発光部53としての右側発光部34及び左側発光部35を制御する、マイクロコンピュータ構成の駆動制御部54も有している。   Next, the circuit configuration of the music robot apparatus 11 will be described with reference to FIG. The music robot apparatus 11 includes a main controller 50 having a microcomputer configuration that controls the music robot apparatus 11 as a whole. In addition, the music robot apparatus 11 includes a right rotating unit 22, a left rotating unit 23, a right opening / closing unit 24, a left opening / closing unit 25, a right wheel 30, and a left wheel 31 as the movable unit 51 via a driving unit 52. A drive control unit 54 having a microcomputer configuration is also provided, which controls driving and controls the right side light emitting unit 34 and the left side light emitting unit 35 as the light emitting unit 53.

ここで駆動部52は、右側回動部22、左側回動部23、右側開閉部24、左側開閉部25、右側車輪30、左側車輪31をそれぞれ個別に駆動する6個のモータと、これらモータの出力軸の回転を検出するためのロータリエンコーダ等でなる6個の回転検出センサとを有している。従って駆動制御部54は、上述したロボット動きデータに基づいて駆動部52の個々のモータをそれぞれ制御することにより、当該個々のモータにより対応する右側回動部22、左側回動部23、右側開閉部24、左側開閉部25、右側車輪30、左側車輪31を駆動する。   Here, the drive unit 52 includes six motors that individually drive the right rotation unit 22, the left rotation unit 23, the right opening / closing unit 24, the left opening / closing unit 25, the right wheel 30, and the left wheel 31, and these motors. And six rotation detection sensors composed of a rotary encoder or the like for detecting the rotation of the output shaft. Accordingly, the drive control unit 54 controls the individual motors of the drive unit 52 based on the above-described robot movement data, so that the right rotation unit 22, the left rotation unit 23, and the right open / close corresponding to the individual motors. The unit 24, the left opening / closing part 25, the right wheel 30, and the left wheel 31 are driven.

さらに音楽ロボット装置11は、入力部55として、上述した接触検知センサ33と共に、例えば筐体中央部21に収納され楕円体状筐体20に生じる加速度を検出する加速度センサ56を有している。この場合、接触検知センサ33は、ユーザの指等が接触すると、当該指等が接触している間だけ接触検知信号を駆動制御部54に送出する。そして駆動制御部54は、接触検知センサ33から接触検知信号が与えられると、その接触検知信号に基づいて、接触検知センサ33に対する指等の接触状態(例えば、指先で軽くたたくような単独の接触や2回以上の連続的な接触、また指等が接触したままの状態等)を判別している。   Furthermore, the music robot apparatus 11 includes, as the input unit 55, an acceleration sensor 56 that detects acceleration generated in the ellipsoidal housing 20, for example, housed in the housing central portion 21 together with the contact detection sensor 33 described above. In this case, when the user's finger or the like touches, the contact detection sensor 33 sends a contact detection signal to the drive control unit 54 only while the finger or the like is in contact. Then, when a contact detection signal is given from the contact detection sensor 33, the drive control unit 54 is in contact with the contact detection sensor 33 based on the contact detection signal (for example, a single contact that is lightly tapped with a fingertip). Or two or more continuous contacts, or a state in which a finger or the like remains in contact).

また図11に示すように、加速度センサ56は、例えば常時、楕円体状筐体20に生じる互いに直交する3軸(X軸、Y軸及びZ軸)それぞれの加速度を、X軸検出加速度値、Y軸検出加速度値及びZ軸検出加速度値として検出し、これらを加速度検出信号として駆動制御部54に送出している。因みに加速度検出用の3軸のうちX軸は、楕円体状筐体20の水平回動軸線L1と並行又は一致する軸であり、楕円体状筐体20に対する左右方向と並行な軸でもある。またZ軸は、楕円体状筐体20が基準姿勢の際の鉛直方向と並行な軸であり、楕円体状筐体20に対する上下方向と並行な軸でもある。さらにY軸は、水平回動軸線L1、及び楕円体状筐体20が基準姿勢の際の鉛直方向とそれぞれ直交する軸であり、楕円体状筐体20に対する前後方向と並行な軸でもある。   Further, as shown in FIG. 11, the acceleration sensor 56 always uses, for example, accelerations of the three axes (X axis, Y axis, and Z axis) perpendicular to each other generated in the ellipsoidal casing 20 as X axis detection acceleration values, Detected as a Y-axis detected acceleration value and a Z-axis detected acceleration value, these are sent to the drive control unit 54 as an acceleration detection signal. Incidentally, among the three axes for detecting acceleration, the X axis is an axis parallel or coincident with the horizontal rotation axis L1 of the ellipsoidal casing 20, and is also an axis parallel to the left-right direction with respect to the ellipsoidal casing 20. The Z axis is an axis parallel to the vertical direction when the ellipsoidal casing 20 is in the reference posture, and is also an axis parallel to the vertical direction with respect to the ellipsoidal casing 20. Further, the Y axis is an axis orthogonal to the horizontal rotation axis L1 and the vertical direction when the ellipsoidal casing 20 is in the reference posture, and is also an axis parallel to the front-rear direction with respect to the ellipsoidal casing 20.

駆動制御部54は、楕円体状筐体20がほぼ水平な床に載上され全ての可動部を動作させずに静止させた状態のときの3軸(X軸、Y軸及びZ軸)それぞれの加速度をX軸基準加速度値、Y軸基準加速度値及びZ軸基準加速度値(以下、これらをまとめて基準加速度値と呼ぶ)として例えば内部のメモリに予め記憶している。そして駆動制御部54は、加速度センサ56から加速度検出信号が与えられると、その加速度検出信号と基準加速度値とに基づいて、楕円体状筐体20の状態(床の上に置かれて静止している状態や床の上で動いている状態、ユーザにより手で持たれて所定方向へ振り動かされている状態等)を判別している。   The drive control unit 54 has three axes (X-axis, Y-axis, and Z-axis) when the ellipsoidal casing 20 is placed on a substantially horizontal floor and is stationary without operating all the movable parts. Are stored in advance in, for example, an internal memory as an X-axis reference acceleration value, a Y-axis reference acceleration value, and a Z-axis reference acceleration value (hereinafter collectively referred to as a reference acceleration value). Then, when an acceleration detection signal is given from the acceleration sensor 56, the drive control unit 54 is placed on the floor of the ellipsoidal casing 20 (based on the acceleration detection signal and the reference acceleration value, and stops stationary). And the like are moving on the floor, held by the user and swung in a predetermined direction).

このようにして駆動制御部54は、入力部55から接触検知信号や加速度検出信号が入力されると、そのときの接触検知センサ33に対する指等の接触状態と楕円体状筐体20の状態との組み合せに応じて、ユーザによる音楽ロボット装置11への命令の入力の有無を判別すると共に、命令が入力されたときには、その命令の種類を判別している。そして駆動制御部54は、ユーザにより命令が入力されると、どのような命令が入力されたかを主制御部50へ通知している。因みに音楽ロボット装置11は、接触検知センサ33に対する指等の接触状態と楕円体状筐体20の状態との組み合せにより、圧縮音楽データの再生開始命令や、再生する圧縮音楽データの選択命令等のように種々の命令を入力させ得るようになされている。   In this way, when the contact detection signal or the acceleration detection signal is input from the input unit 55, the drive control unit 54 determines the contact state of the finger or the like to the contact detection sensor 33 and the state of the ellipsoidal housing 20 at that time. In accordance with the combination, the presence / absence of an instruction input to the music robot apparatus 11 by the user is determined, and when the instruction is input, the type of the instruction is determined. Then, when a command is input by the user, the drive control unit 54 notifies the main control unit 50 of what command has been input. By the way, the music robot apparatus 11 can generate a compressed music data reproduction start command, a compressed music data selection command to be reproduced, or the like by combining the contact state of a finger or the like with the contact detection sensor 33 and the state of the ellipsoidal housing 20. In this way, various commands can be input.

主制御部50は、駆動制御部54から種々の命令の入力が通知されると、内部メモリ又は記憶部57に予め記憶している基本プログラムやアプリケーションプログラム、動きデータ生成プログラム等の各種プログラムに従って各種処理を実行する。また主制御部50は、通信部58を介してパーソナルコンピュータ12と無線通信することで、当該パーソナルコンピュータ12を主体とし自己を従属的に機能させるようにして各種処理を実行し得るようにもなされている。   When the input of various commands is notified from the drive control unit 54, the main control unit 50 performs various operations according to various programs such as a basic program, an application program, and a motion data generation program stored in the internal memory or the storage unit 57 in advance. Execute the process. In addition, the main control unit 50 can perform various processes by wirelessly communicating with the personal computer 12 via the communication unit 58 so that the personal computer 12 serves as a main body and functions independently. ing.

これにより主制御部50は、パーソナルコンピュータ12から送信された記憶保持用の圧縮音楽データを通信部58によって受信すると、かかる圧縮音楽データを記憶部57に記憶する。また主制御部50は、記憶部57に対し、図8について上述した動きパターンデータベースMDBと同一のもの、又はその動きパターンデータベースMDBに登録している動きパターンデータや発光パターンデータを、音楽の特徴に応じた分類毎に少しずつ減らした動きパターンデータベースを記憶している。   Thus, when the main control unit 50 receives the compressed music data for storage holding transmitted from the personal computer 12 by the communication unit 58, the main control unit 50 stores the compressed music data in the storage unit 57. Also, the main control unit 50 stores the same motion pattern database MDB as described above with reference to FIG. 8 with respect to the storage unit 57, or the motion pattern data and light emission pattern data registered in the motion pattern database MDB. It stores a motion pattern database that is slightly reduced for each classification according to the.

そして主制御部50は、例えば音楽ロボット装置11が床の上に置かれた状態で、ユーザにより記憶部57内の圧縮音楽データを再生するように命令されると、当該記憶部57から圧縮音楽データを読み出して再生処理しながら、その結果得られる元の音楽データを、デジタルアナログ変換器やアンプ、右スピーカ28及び左スピーカ29等でなる出力部59に送出する。これにより主制御部50は、音楽データに基づく音楽を右スピーカ28及び左スピーカ29から出力してユーザに聴かせることができる。   When the main control unit 50 is instructed to reproduce the compressed music data in the storage unit 57 by the user with the music robot device 11 placed on the floor, for example, the main control unit 50 receives the compressed music from the storage unit 57. While reading and reproducing the data, the original music data obtained as a result is sent to an output unit 59 including a digital-analog converter, an amplifier, the right speaker 28, the left speaker 29, and the like. As a result, the main control unit 50 can output music based on the music data from the right speaker 28 and the left speaker 29 and allow the user to listen to the music.

また主制御部50は、このように音楽ロボット装置11が床の上に置かれた状態で、記憶部57から圧縮音楽データを読み出して再生処理するときには、かかる再生処理と並行して、当該圧縮音楽データを再生処理しながら得られる元の音楽データの分析処理と、ロボット動きデータを生成する動きデータ生成処理も実行している。実際に主制御部50は、記憶部57から圧縮音楽データを読み出して再生処理を開始すると、その結果得られる音楽データの分析処理としてビート検出処理と特徴解析処理とを同時並行に実行している。   The main control unit 50 reads the compressed music data from the storage unit 57 and performs the reproduction process in a state where the music robot apparatus 11 is placed on the floor as described above, in parallel with the reproduction process. Analysis processing of original music data obtained while reproducing music data and motion data generation processing for generating robot motion data are also executed. When the main control unit 50 actually reads the compressed music data from the storage unit 57 and starts the reproduction process, the main control unit 50 simultaneously performs beat detection processing and feature analysis processing as analysis processing of the music data obtained as a result. .

主制御部50は、圧縮音楽データの再生処理を実行している間、ビート検出処理において、音楽データの所定の単位処理部分毎に音量レベルを検出しながら、当該検出した音量レベルを、予め設定された比較的大きい閾値と比較する。そして主制御部50は、その比較結果に基づき、音楽データにおいて音量レベルが閾値以上の位置を音楽のビートに相当するビート位置として順次検出する。これにより主制御部50は、音楽データの先頭から後尾に渡り、所定数毎のビート位置を区切り位置とした小節(すなわち、1/2小節や1小節、2小節等)に相当する曲調区間を順次特定する。また主制御部50は、この際、特徴解析処理において、音楽データの曲調区間毎に複数回検出した音量レベルをもとにして当該曲調区間の区間特徴を解析する。   While executing the reproduction processing of the compressed music data, the main control unit 50 sets the detected volume level in advance while detecting the volume level for each predetermined unit processing portion of the music data in the beat detection processing. Compare with the relatively large threshold value. Based on the comparison result, the main control unit 50 sequentially detects positions where the volume level is equal to or higher than the threshold value in the music data as beat positions corresponding to music beats. As a result, the main control unit 50 extends a music tone interval corresponding to a measure (ie, 1/2 measure, 1 measure, 2 measures, etc.) from the beginning to the end of the music data, with the beat position for each predetermined number as the break position. Identify sequentially. At this time, the main control unit 50 analyzes the section feature of the music section based on the volume level detected a plurality of times for each music section of the music data in the feature analysis process.

さらに主制御部50は、動きデータ生成処理において、音楽データの先頭から後尾への曲調区間に対し、上述したパーソナルコンピュータ12の場合と同様にして、動きパターンデータや動き停止パターンデータ、発光パターンデータや発光停止パターンデータを割り当てるようにする。すなわち、主制御部50は、音楽データの曲調区間を再生する間(すなわち、音楽データの曲調区間に相当する音楽の所定区間部分が出力される間)、可動部51(すなわち、右側回動部22、左側回動部23、右側開閉部24、左側開閉部25、右側車輪30及び左側車輪31)を駆動制御するための動きパターンデータを、記憶部57内の動きパターンデータベースから読み出した動きパターンデータに設定する。また主制御部50は、かかる曲調区間を再生する間、発光部53(すなわち、右側発光部34及び左側発光部35)を制御するための発光パターンデータを、記憶部57内の動きパターンデータベースから読み出した発光パターンデータに設定する。   Furthermore, in the motion data generation process, the main control unit 50 performs motion pattern data, motion stop pattern data, and light emission pattern data for the musical tone interval from the beginning to the rear of the music data, as in the case of the personal computer 12 described above. And flash stop pattern data are assigned. That is, the main control unit 50 plays the movable unit 51 (that is, the right-side rotation unit) while the music data is playing the music section (that is, while a predetermined section of music corresponding to the music section is output). 22, the movement pattern data read from the movement pattern database in the storage unit 57 for driving and controlling the left rotation unit 23, the right opening / closing unit 24, the left opening / closing unit 25, the right wheel 30 and the left wheel 31). Set to data. Further, the main control unit 50 obtains light emission pattern data for controlling the light emitting unit 53 (that is, the right light emitting unit 34 and the left light emitting unit 35) from the motion pattern database in the storage unit 57 while reproducing the music tone section. The read light emission pattern data is set.

そして主制御部50は、音楽データの先頭から後尾にかけて順次1つの曲調区間に対し、可動部51及び発光部53の動きパターンデータや動き停止パターンデータ、発光パターンデータや発光停止パターンデータを割り当てる毎に、当該1つの曲調区間に割り当てた動きパターンデータや動き停止パターンデータを、可動部51(すなわち、右側回動部22、左側回動部23、右側開閉部24、左側開閉部25、右側車輪30、左側車輪31)を音楽の所定区間部分を出力する間に動かす(又は動きを停止させる)ための動きデータとする。また主制御部50は、1つの曲調区間に割り当てた発光パターンデータや発光停止パターンデータを、発光部53(すなわち、右側発光部34、左側発光部35)を音楽の所定区間部分を出力する間に発光させる(又は発光を停止させる)ための発光データとする。   Then, the main control unit 50 assigns motion pattern data, motion stop pattern data, light emission pattern data, and light emission stop pattern data of the movable unit 51 and the light emitting unit 53 sequentially to one music interval from the head to the tail of the music data. In addition, the motion pattern data and the motion stop pattern data assigned to the one music tone section are transferred to the movable portion 51 (that is, the right rotation portion 22, the left rotation portion 23, the right opening / closing portion 24, the left opening / closing portion 25, the right wheel). 30, the left wheel 31) is used as movement data for moving (or stopping the movement) while outputting a predetermined section of music. Further, the main control unit 50 outputs the light emission pattern data and light emission stop pattern data assigned to one music tone interval, while the light emission unit 53 (that is, the right light emission unit 34 and the left light emission unit 35) outputs a predetermined section of music. The light emission data is used to cause the light to be emitted (or to stop the light emission).

さらに主制御部50は、音楽データの1つの曲調区間に割り当てた全ての動きデータ及び発光データをまとめて、当該1つの曲調区間に相当する音楽の所定区間部分を出力する間に音楽ロボット装置11全体を動かすためのロボット動きデータとする。このようにして主制御部50は、音楽データの順次1つの曲調区間に対応するロボット動きデータを生成し、かかるロボット動きデータを音楽の再生時間軸に沿った並びを維持して駆動制御部54に送出する。   Furthermore, the main control unit 50 collects all the motion data and the light emission data assigned to one music section of the music data, and outputs the predetermined section portion of music corresponding to the one music section, while the music robot apparatus 11 The robot motion data for moving the whole is used. In this way, the main control unit 50 generates robot motion data corresponding to one music tone section in order of the music data, and maintains the arrangement of the robot motion data along the music reproduction time axis to drive control unit 54. To send.

これにより駆動制御部54は、主制御部50から与えられたロボット動きデータに含まれる右側回動部22、左側回動部23、右側開閉部24、左側開閉部25、右側車輪30及び左側車輪31それぞれの動きデータに基づいて駆動部52を制御して、対応する右側回動部22、左側回動部23、右側開閉部24、左側開閉部25、右側車輪30及び左側車輪31を駆動する。また駆動制御部54は、かかるロボット動きデータに含まれる右側発光部34及び左側発光部35それぞれの発光データに基づいて、対応する右側発光部34及び左側発光部35を制御する。   Thereby, the drive control unit 54 includes the right rotation unit 22, the left rotation unit 23, the right opening / closing unit 24, the left opening / closing unit 25, the right wheel 30 and the left wheel included in the robot motion data given from the main control unit 50. 31, the driving unit 52 is controlled based on the respective movement data to drive the corresponding right side rotating unit 22, left side rotating unit 23, right side opening / closing unit 24, left side opening / closing unit 25, right wheel 30 and left wheel 31. . Further, the drive control unit 54 controls the right light emitting unit 34 and the left light emitting unit 35 corresponding to each of the right light emitting unit 34 and the left light emitting unit 35 included in the robot motion data.

このようにして駆動制御部54は、音楽データの順次1つの曲調区間に相当する音楽の所定区間部分が出力される間、動きデータに基づいて右側回動部22、左側回動部23、右側開閉部24、左側開閉部25、右側車輪30及び左側車輪31をそれぞれ所望の動きパターンで動かし又は動きを停止させる。また駆動制御部54は、音楽データの順次1つの曲調区間に相当する音楽の所定区間部分が出力される間、発光データに基づいて右側発光部34及び左側発光部35をそれぞれ所望の発光パターンで発光させ又は発光を停止させる。   In this way, the drive control unit 54 outputs the right rotation unit 22, the left rotation unit 23, and the right side based on the motion data while a predetermined section of music corresponding to one music interval is sequentially output. The opening / closing part 24, the left opening / closing part 25, the right wheel 30 and the left wheel 31 are moved in a desired movement pattern or stopped. Further, the drive control unit 54 sets the right light emitting unit 34 and the left light emitting unit 35 in a desired light emission pattern based on the light emission data while a predetermined music music portion corresponding to one music tone sequence of music data is output in sequence. Light emission or stop light emission.

ところで主制御部50は、音楽データに対する分析処理としてビート検出処理及び特徴解析処理を実行する場合、上述したパーソナルコンピュータ12のように音楽データに対し複雑な処理を何ら施すことなく、音楽データの音量レベルを検出するような簡易な処理によりビート位置を検出し、また区間特徴を解析している。従って主制御部50は、パーソナルコンピュータ12に比べて、ロボット動きデータを、処理負荷の増加を抑えてかつ比較的短時間に生成している。   By the way, when performing the beat detection process and the characteristic analysis process as the analysis process for the music data, the main control unit 50 performs the volume of the music data without performing any complicated process on the music data as in the personal computer 12 described above. The beat position is detected by simple processing that detects the level, and the section feature is analyzed. Therefore, the main control unit 50 generates the robot motion data in a relatively short time while suppressing an increase in processing load as compared with the personal computer 12.

しかしながら主制御部50は、記憶部57から読み出した圧縮音楽データを再生処理して、出力部59へ送出する音楽データを生成している。そして主制御部50は、その再生処理により得た音楽データをさらに用いて分析処理と共に動きデータ生成処理を実行することで、駆動制御部54へ送出するロボット動きデータを生成している。すなわち、主制御部50は、記憶部57から圧縮音楽データを読み出したとき、出力部59へ送出する音楽データの先頭部分を得た時点から、僅かながら時間的に遅れて、駆動制御部54へ送出する先頭のロボット動きデータを得ている。   However, the main control unit 50 reproduces the compressed music data read from the storage unit 57 and generates music data to be sent to the output unit 59. The main control unit 50 generates robot motion data to be sent to the drive control unit 54 by further executing analysis data and motion data generation processing using the music data obtained by the reproduction processing. That is, when the main control unit 50 reads the compressed music data from the storage unit 57, the main control unit 50 slightly delays in time from the time when the head portion of the music data to be sent to the output unit 59 is obtained, and then goes to the drive control unit 54. The top robot movement data to be sent is obtained.

従って主制御部50は、記憶部57から読み出している圧縮音楽データを再生処理しながら、その結果得られる音楽データを一旦、内部のバッファ(以下、これを単にバッファと呼ぶ)に一時記憶している。これにより主制御部50は、出力部59への音楽データの送出開始を遅延させている。また主制御部50は、音楽データの順次1つの曲調区間に対応するロボット動きデータを生成する毎に、かかるロボット動きデータも一旦、バッファに一時記憶している。   Accordingly, the main control unit 50 temporarily stores the music data obtained as a result of the compressed music data read from the storage unit 57 in an internal buffer (hereinafter simply referred to as a buffer). Yes. As a result, the main control unit 50 delays the start of sending music data to the output unit 59. In addition, every time the main control unit 50 generates robot motion data corresponding to one music tone interval in the music data, the robot control data is temporarily stored in the buffer.

このようにして主制御部50は、出力部59への音楽データの送出開始を予め設定された所定の遅延時間だけ遅延させると共に、当該出力部59への音楽データの送出開始の遅延に合わせて駆動制御部54へのロボット動きデータの送出開始も遅延させている。因みに、かかる遅延時間は、例えばバッファに対する音楽データの一時記憶の開始時点から、バッファに所定個数分の曲調区間に対応するロボット動きデータを一時記憶し得る時点までの所定時間に選定されている。   In this way, the main control unit 50 delays the start of sending music data to the output unit 59 by a predetermined delay time set in advance, and matches the delay of the start of sending music data to the output unit 59. The transmission start of the robot motion data to the drive control unit 54 is also delayed. Incidentally, the delay time is selected, for example, as a predetermined time from the start of temporary storage of music data to the buffer to the time when robot motion data corresponding to a predetermined number of music tone intervals can be temporarily stored in the buffer.

そして主制御部50は、バッファに対する音楽データの一時記憶の開始時点から遅延時間に達したタイミングで当該バッファから音楽データを読み出して出力部59への送出を開始すると共に、そのバッファからロボット動きデータも読み出すようにして駆動制御部54への送出を開始する。このようにして主制御部50は、出力部59(すなわち、右スピーカ28及び左スピーカ29)からの音楽の出力タイミングを制御すると共に、駆動制御部54に対しロボット動きデータに基づく可動部51の駆動制御及び発光部53の制御の開始タイミングも制御する。   The main control unit 50 reads out the music data from the buffer and starts sending it to the output unit 59 at the timing when the delay time is reached from the start of the temporary storage of the music data in the buffer, and the robot motion data from the buffer. Also, reading to the drive control unit 54 is started. In this way, the main control unit 50 controls the output timing of music from the output unit 59 (that is, the right speaker 28 and the left speaker 29), and also controls the drive control unit 54 of the movable unit 51 based on the robot motion data. The start timing of drive control and control of the light emitting unit 53 is also controlled.

これにより主制御部50は、出力部59からの音楽の出力開始に同期させて、可動部51の駆動制御と発光部53の制御とを同時に開始させている。従って主制御部50は、出力部59から1曲の音楽を出力している間、当該音楽の曲調に同期させて可動部51を順次所定の動きパターンで動かし、また発光部53を順次所定の発光パターンで発光させ得るようになされている。かくして主制御部50は、記憶部57に圧縮音楽データとして記憶していた音楽をユーザに聴かせながら、その音楽に合わせて、あたかも音楽ロボット装置11全体を踊っているかのように動かしてユーザに見せることができる。   As a result, the main control unit 50 starts driving control of the movable unit 51 and control of the light emitting unit 53 simultaneously in synchronization with the start of music output from the output unit 59. Accordingly, the main control unit 50 sequentially moves the movable unit 51 in a predetermined movement pattern in synchronization with the music tone while outputting one piece of music from the output unit 59, and sequentially moves the light emitting unit 53 to a predetermined number. It can be made to emit light with a light emission pattern. Thus, the main control unit 50 allows the user to listen to the music stored as the compressed music data in the storage unit 57 and moves the music robot device 11 as if it is dancing to the user according to the music. Can show.

また主制御部50は、パーソナルコンピュータ12から音楽データと共にロボット動きデータが供給される場合、まずパーソナルコンピュータ12から送信されるロボット動きデータの先頭の所定単位部分を通信部58によって受信してバッファに一時記憶する。また主制御部50は、引き続きパーソナルコンピュータ12から音楽データがストリーミング方式で送信されると、通信部58によりその音楽データを受信しながら、特には遅延させずに出力部59へ送出する。そして主制御部50は、通信部58により受信している音楽データの出力部59への送出を開始したタイミングで、バッファからロボット動きデータの所定単位部分を読み出すようにして駆動制御部54への送出を開始する。   When the robot motion data is supplied together with the music data from the personal computer 12, the main control unit 50 first receives the predetermined unit portion of the head of the robot motion data transmitted from the personal computer 12 by the communication unit 58 and stores it in the buffer. Memorize temporarily. Further, when the music data is continuously transmitted from the personal computer 12 by the streaming method, the main control unit 50 receives the music data by the communication unit 58 and sends it out to the output unit 59 without any particular delay. The main control unit 50 reads the predetermined unit portion of the robot motion data from the buffer at the timing when transmission of the music data received by the communication unit 58 to the output unit 59 is started, and sends it to the drive control unit 54. Start sending.

このようにして主制御部50は、パーソナルコンピュータ12から音楽データと共にロボット動きデータが供給されたときには、出力部59からの音楽の出力タイミングに合わせて、駆動制御部54に対するロボット動きデータに基づく可動部51の駆動制御及び発光部53の制御の開始タイミングを制御する。これにより主制御部50は、出力部59からの音楽の出力開始に同期させて、駆動制御部54に対し可動部51の駆動制御及び発光部53の制御を開始させている。   In this way, when the robot motion data is supplied together with the music data from the personal computer 12, the main control unit 50 is movable based on the robot motion data for the drive control unit 54 in accordance with the music output timing from the output unit 59. The start timing of the drive control of the unit 51 and the control of the light emitting unit 53 is controlled. Accordingly, the main control unit 50 causes the drive control unit 54 to start driving control of the movable unit 51 and control of the light emitting unit 53 in synchronization with the start of music output from the output unit 59.

因みに主制御部50は、バッファに一時記憶していたロボット動きデータの所定単位部分をある程度、駆動制御部54へ送出し終えると、通信部58を介してパーソナルコンピュータ12に対し、ロボット動きデータの次の所定単位部分を要求する。そして主制御部50は、かかる要求に応じてパーソナルコンピュータ12からロボット動きデータの次の所定単位部分が送信されると、これを通信部58により受信してバッファに一時記憶する。   Incidentally, when the main control unit 50 finishes sending the predetermined unit portion of the robot motion data temporarily stored in the buffer to the drive control unit 54 to some extent, the main control unit 50 sends the robot motion data to the personal computer 12 via the communication unit 58. Request the next predetermined unit part. When the next predetermined unit portion of the robot motion data is transmitted from the personal computer 12 in response to such a request, the main control unit 50 receives this by the communication unit 58 and temporarily stores it in the buffer.

これにより主制御部50は、バッファからロボット動きデータの先に取得していた所定単位部分を全て読み出して駆動制御部54へ送出し終えると、引き続きバッファからロボット動きデータの次に取得した所定単位部分を読み出し始めて駆動制御部54へ送出する。このようにして主制御部50は、音楽の出力時にパーソナルコンピュータ12から供給されるロボット動きデータを利用するときには、バッファに一時記憶しているロボット動きデータの所定単位部分をある程度、駆動制御部54へ送出し終える毎に、パーソナルコンピュータ12からロボット動きデータの次の所定単位部分を取得する。   As a result, when the main control unit 50 has read out all the predetermined unit portions previously acquired from the robot movement data from the buffer and sent them to the drive control unit 54, the main control unit 50 continues to acquire the predetermined unit next to the robot movement data from the buffer. The part is read out and sent to the drive control unit 54. In this way, when using the robot motion data supplied from the personal computer 12 at the time of music output, the main control unit 50 stores the predetermined unit portion of the robot motion data temporarily stored in the buffer to some extent. Each time the data is sent out, the next predetermined unit portion of the robot motion data is obtained from the personal computer 12.

従って主制御部50は、圧縮音楽データを再生処理しながら出力部59から音楽を出力している間は、駆動制御部54に対しロボット動きデータをとぎれることなく送出して可動部51を連続的に駆動制御させると共に発光部53も連続的に制御させる。よって主制御部50は、このときも音楽ロボット装置11全体をあたかも音楽に合わせて踊っているかのように動かすことができる。   Therefore, the main control unit 50 sends the robot movement data to the drive control unit 54 without interruption while continuously outputting the music from the output unit 59 while reproducing the compressed music data. And the light emitting unit 53 is also continuously controlled. Therefore, the main controller 50 can also move the entire music robot apparatus 11 as if dancing to music.

かかる構成に加えてパーソナルコンピュータ12の場合、制御部40は、上述したようにロボット動きデータとして全ての可動部51の動きデータを自動的に生成することもできるが、全て又は1部の可動部51の動きデータを半自動的に生成し、また手動で生成することもできるようになされている。例えば制御部40は、ユーザに対し、床の上で音楽ロボット装置11の楕円体状筐体20を動かす(すなわち、走行させる)ときに中心点P1がたどる軌跡を描かせ、当該描かれた軌跡をもとに右側車輪30及び左側車輪31の動きデータを半自動的に生成し得るようになされている。   In addition to such a configuration, in the case of the personal computer 12, the control unit 40 can automatically generate the motion data of all the movable units 51 as the robot motion data as described above. 51 motion data can be generated semi-automatically or manually. For example, the control unit 40 causes the user to draw a trajectory that the center point P1 follows when the ellipsoidal housing 20 of the music robot apparatus 11 is moved (that is, travels) on the floor, and the drawn trajectory is drawn. The motion data of the right wheel 30 and the left wheel 31 can be generated semi-automatically based on the above.

また制御部40は、床の上で楕円体状筐体20を動かすときに中心部P1にたどらせる複数種類の軌跡のパターン(以下、これを軌跡パターンと呼ぶ)や、可動部51を動かすための複数種類の基本的な動きパターン(以下、これを基本動きパターンと呼ぶ)を予め登録している。そして制御部40は、ユーザに対し軌跡パターンや基本動きパターンを任意に選択させ、当該選択された軌跡パターンや基本動きパターンを利用して特定の可動部51の動きデータを半自動的に生成することもできる。   Further, the control unit 40 moves a plurality of types of trajectory patterns (hereinafter referred to as trajectory patterns) to be traced to the central portion P1 when the ellipsoidal casing 20 is moved on the floor, and the movable unit 51 is moved. A plurality of types of basic motion patterns (hereinafter referred to as basic motion patterns) are registered in advance. Then, the control unit 40 allows the user to arbitrarily select a trajectory pattern or a basic motion pattern, and generates motion data of a specific movable unit 51 semi-automatically using the selected trajectory pattern or basic motion pattern. You can also.

実際に制御部40は、ユーザにより入力部41を介して、音楽ロボット装置11全体を動かすときに再生する圧縮音楽データが選択されると、当該選択された圧縮音楽データ固有の識別情報を内部のメモリ又は記憶部42に記憶する。これにより制御部40は、ユーザにより選択された圧縮音楽データを、音楽ロボット装置11全体を動かすときに再生するものとして設定する。そして制御部40は、音楽ロボット装置11全体を動かすときに再生する圧縮音楽データを設定すると、記憶部42に予め記憶している動きデータ生成画面データを読み出して表示部45に送出する。これにより制御部40は、表示部45において動きデータ生成画面データに基づく図12に示すような動きデータ生成画面70を表示する。   Actually, when the compressed music data to be reproduced when the user moves the entire music robot apparatus 11 is selected by the user via the input unit 41, the control unit 40 selects the identification information unique to the selected compressed music data inside. Store in the memory or storage unit 42. Accordingly, the control unit 40 sets the compressed music data selected by the user as being reproduced when the music robot apparatus 11 is moved as a whole. Then, when setting the compressed music data to be played back when the music robot apparatus 11 is moved as a whole, the control unit 40 reads out the motion data generation screen data stored in advance in the storage unit 42 and sends it to the display unit 45. Thereby, the control unit 40 displays the motion data generation screen 70 as shown in FIG. 12 based on the motion data generation screen data on the display unit 45.

この場合、動きデータ生成画面70は、画面上側に、ユーザにより描かれる軌跡を表示するための例えば円形の軌跡表示領域71が設けられている。また画面上側には、予め登録されている複数の軌跡パターンや基本動きパターンを選択させるためのパターン選択部72も設けられている。そしてパターン選択部72内には、複数種類の軌跡パターンや基本動きパターンを示す図形等が描かれた複数種類の表示子(以下、これをパターンアイコンと呼ぶ)73A乃至73Dが表示されている。   In this case, the motion data generation screen 70 is provided with, for example, a circular trajectory display area 71 for displaying a trajectory drawn by the user on the upper side of the screen. A pattern selection unit 72 for selecting a plurality of pre-registered trajectory patterns and basic motion patterns is also provided on the upper side of the screen. In the pattern selection unit 72, a plurality of types of display elements (hereinafter referred to as pattern icons) 73A to 73D on which a plurality of types of trajectory patterns and figures indicating basic motion patterns are drawn are displayed.

因みにパターン選択部72の下側には、当該パターン選択部72内でパターンアイコン73A乃至73Dを画面上下方向に移動させる上下スクロール操作部72Aが設けられている。またパターン選択部72の右側には、当該パターン選択部72内でパターンアイコン73A乃至73Dを画面左右後方に移動させる左右スクロール操作部72Bが設けられている。従って制御部40は、ユーザにより入力部41を介して動きデータ生成画面70上で上下スクロール操作部72Aや左右スクロール操作部72Bが操作されると、パターン選択部72内にそれまで表示していたパターンアイコン73A乃至73Dに替えて、それまで表示し得なかった他のパターンアイコン73A乃至73Dを表示する。このようにして制御部40は、パターン選択部72内に種々のパターンアイコン73A乃至73Dを表示して、ユーザに対し選択可能な複数の軌跡パターンや基本動きパターンを提示し得るようになされている。   Incidentally, on the lower side of the pattern selection unit 72, an up / down scroll operation unit 72A for moving the pattern icons 73A to 73D in the vertical direction of the screen in the pattern selection unit 72 is provided. Further, on the right side of the pattern selection unit 72, a left / right scroll operation unit 72B for moving the pattern icons 73A to 73D to the left and right of the screen in the pattern selection unit 72 is provided. Therefore, when the user operates the up / down scroll operation unit 72A or the left / right scroll operation unit 72B on the motion data generation screen 70 via the input unit 41, the control unit 40 has displayed the pattern selection unit 72 so far. Instead of the pattern icons 73A to 73D, other pattern icons 73A to 73D that could not be displayed are displayed. In this way, the control unit 40 can display various pattern icons 73A to 73D in the pattern selection unit 72 and present a plurality of selectable trajectory patterns and basic motion patterns to the user. .

また動きデータ生成画面70の画面上側には、画面左右方向に長い帯状の設定音楽通知領域74が設けられている。かかる設定音楽通知領域74の中央部には、音楽ロボット装置11全体を動かすとき再生するように設定された圧縮音楽データ(以下、これを再生設定音楽データと呼ぶ)に基づく音楽のアーティスト名及び音楽タイトルが表示されている。また設定音楽通知領域74には、再生設定音楽データの再生開始命令を入力するための再生開始ボタン75と再生停止命令を入力するための再生停止ボタン76と、音量を調節する音量調節部77とが設けられている。これに加えて設定音楽通知領域74には、ロボット動きデータを自動で生成することを選択させるためのオートボタン78が設けられている。また設定音楽通知領域74には、ロボット動きデータを手動又は半自動で生成することを選択させるためのマニュアルボタン79も設けられている。   Further, on the upper side of the motion data generation screen 70, a band-shaped set music notification area 74 that is long in the horizontal direction of the screen is provided. In the central part of the set music notification area 74, the artist name and music of music based on compressed music data (hereinafter referred to as playback set music data) set to be played when the entire music robot apparatus 11 is moved. The title is displayed. In the set music notification area 74, a playback start button 75 for inputting a playback start command for playback set music data, a playback stop button 76 for inputting a playback stop command, and a volume control unit 77 for adjusting the volume. Is provided. In addition, the setting music notification area 74 is provided with an auto button 78 for selecting to automatically generate robot motion data. The set music notification area 74 is also provided with a manual button 79 for selecting to generate robot motion data manually or semi-automatically.

さらに動きデータ生成画面70は、設定音楽通知領域74の下側に、それぞれ画面左右方向に長い帯状でなり、音楽の再生時間軸に沿った所定間隔の目盛りにより再生設定音楽データの再生時間を通知するための再生時間通知部80と、再生設定音楽データの再生時間軸に沿って変化する音量レベルのレベル波形画像を表示するレベル波形表示部81とが順次設けられている。さらにまた動きデータ生成画面70は、レベル波形表示部81の下側にデータ提示部82が設けられている。そしてデータ提示部82内には、それぞれ画面左右方向に長い帯状でなり、右側回動部22、左側回動部23、右側開閉部24、左側開閉部25、右側車輪30、左側車輪31毎の動きデータを提示する動きデータ提示欄82A乃至82Cと、右側発光部34、左側発光部35毎の発光データを提示する発光データ提示欄とが順次設けられ、これらのうちの一部が表示されている。   Further, the motion data generation screen 70 is formed in a strip shape that is long in the horizontal direction of the screen below the set music notification area 74, and notifies the playback time of the playback set music data by a scale at predetermined intervals along the music playback time axis. A playback time notifying unit 80 and a level waveform display unit 81 for displaying a level waveform image of a volume level that changes along the playback time axis of the playback setting music data are sequentially provided. Furthermore, the motion data generation screen 70 is provided with a data presentation unit 82 below the level waveform display unit 81. In the data presentation unit 82, each of the screens has a strip shape that is long in the left-right direction of the screen. The right rotation unit 22, the left rotation unit 23, the right opening / closing unit 24, the left opening / closing unit 25, the right wheel 30, and the left wheel 31 Motion data presentation fields 82A to 82C for presenting motion data, and a light emission data presentation field for presenting light emission data for each of the right side light emitting unit 34 and the left side light emitting unit 35 are sequentially provided, and some of these are displayed. Yes.

因みにデータ提示部82の左側には、当該データ提示部82内で動きデータ提示欄82A乃至82C及び発光データ提示欄を画面上下方向に移動させる上下スクロール操作部83が設けられている。従って制御部40は、ユーザにより入力部41を介して動きデータ生成画面70上で上下スクロール操作部83が操作されると、データ提示部82内にそれまで表示していた動きデータ提示欄82A乃至82C及び発光データ提示欄に替えて、それまで表示し得なかった他の動きデータ提示欄82A乃至82C及び発光データ提示欄を表示する。これにより制御部40は、データ提示部82内に動きデータ提示欄82A乃至82C及び発光データ提示欄を表示し得るようになされている。   Incidentally, on the left side of the data presentation unit 82, there is provided a vertical scroll operation unit 83 that moves the movement data presentation columns 82A to 82C and the light emission data presentation column in the data presentation unit 82 in the vertical direction of the screen. Therefore, when the user operates the up / down scroll operation unit 83 on the motion data generation screen 70 via the input unit 41, the control unit 40 displays the motion data presentation columns 82A to 82A that have been displayed in the data presentation unit 82 until then. Instead of 82C and the light emission data presentation field, other motion data presentation fields 82A to 82C and the light emission data presentation field that could not be displayed until then are displayed. Thus, the control unit 40 can display the movement data presentation columns 82A to 82C and the light emission data presentation column in the data presentation unit 82.

またデータ提示部82の下側には、再生設定音楽データの再生時間に同期させて、再生時間通知部80及びレベル波形表示部81と共に当該データ提示部82内の動きデータ提示欄82A乃至82C及び発光データ提示欄を画面左右方向に移動させる左右スクロール操作部84が設けられている。従って制御部40は、ユーザにより入力部41を介して動きデータ生成画面70上で左右スクロール操作部84が操作されると、動きデータ生成画面70内で再生時間通知部80及びレベル波形表示部81のそれまで表示していた所定部分に替えて、それまで表示し得なかった他の部分を表示する。   Also, below the data presentation unit 82, in synchronization with the reproduction time of the reproduction set music data, together with the reproduction time notification unit 80 and the level waveform display unit 81, motion data presentation columns 82A to 82C in the data presentation unit 82 and A left-right scroll operation unit 84 for moving the light emission data presentation field in the left-right direction of the screen is provided. Therefore, when the left / right scroll operation unit 84 is operated on the motion data generation screen 70 by the user via the input unit 41, the control unit 40 displays the playback time notification unit 80 and the level waveform display unit 81 in the motion data generation screen 70. In place of the predetermined part that has been displayed, other parts that could not be displayed are displayed.

また制御部40は、このときデータ提示部82内にそれまで表示していた動きデータ提示欄82A乃至82C及び発光データ提示欄の所定部分に替えて、それまで表示し得なかった他の部分も表示する。これにより制御部40は、動きデータ生成画面70内で再生時間通知部80及びレベル波形表示部81の全体と共に、データ提示部82内の動きデータ提示欄82A乃至82C及び発光データ提示欄の全体を見せることができるようになされている。   In addition, the control unit 40 replaces the predetermined portions of the motion data presentation columns 82A to 82C and the light emission data presentation column that have been displayed in the data presentation unit 82 at this time, and other portions that could not be displayed until then. indicate. As a result, the control unit 40 displays the whole of the reproduction time notification unit 80 and the level waveform display unit 81 in the movement data generation screen 70 as well as the entire movement data presentation columns 82A to 82C and the light emission data presentation column in the data presentation unit 82. It can be shown.

制御部40は、表示部45において動きデータ生成画面70を表示した状態で、例えばユーザにより入力部41としてのマウスが机の上等で動かされると、これに応じて動きデータ生成画面70上で指示子(以下、これをカーソルと呼ぶ)を移動させる。そして制御部40は、ユーザによりマウスを介してオートボタン78が押下操作されると、これに応じてオートモードに移行する。これにより制御部40は、上述と同様に再生設定音楽データの分析処理と動きデータ生成処理とを同時並行で実行してロボット動きデータを自動的に生成する。そして図13に示すように、制御部40は、動きデータ生成画面70内で、再生設定音楽データ全体の再生時間に応じて、再生時間通知部80と、レベル波形表示部81と、データ提示部82内の動きデータ提示欄82A乃至82C及び発光パターン提示欄との画面左右方向に沿った長さを合わせる。   When the motion data generation screen 70 is displayed on the display unit 45 and the mouse as the input unit 41 is moved on the desk or the like by the user, the control unit 40 displays the motion data generation screen 70 on the motion data generation screen 70 accordingly. An indicator (hereinafter referred to as a cursor) is moved. When the user presses down the auto button 78 via the mouse, the control unit 40 shifts to the auto mode accordingly. As a result, the control unit 40 automatically generates the robot motion data by simultaneously executing the reproduction setting music data analysis processing and the motion data generation processing in the same manner as described above. Then, as shown in FIG. 13, the control unit 40, within the motion data generation screen 70, according to the playback time of the entire playback set music data, a playback time notification unit 80, a level waveform display unit 81, and a data presentation unit The lengths of the motion data presentation fields 82A to 82C and the light emission pattern presentation field in the screen 82 in the horizontal direction of the screen are matched.

この際、制御部40は、再生設定音楽データの分析処理により音量レベルを検出しており、動きデータ生成画面70においてレベル波形表示部81内に当該再生設定音楽データの再生時間軸に沿って変化する音量レベルのレベル波形画像90を表示する。また制御部40は、動きデータ生成画面70においてデータ提示部82の動きデータ提示欄82A乃至82C内に、それぞれ対応する可動部51の動きデータの指示値を示す(すなわち、再生設定音楽データの再生時間軸に沿って変化する指示値を示す)指示値波形画像91A乃至91Cを表示する。さらに制御部40は、動きデータ生成画面70においてデータ提示部82の発光データ提示欄内に、それぞれ対応する発光部53の発光データの制御値を示す(すなわち、再生設定音楽データの再生時間軸に沿って変化する制御値を示す)制御値波形画像も表示する。   At this time, the control unit 40 detects the volume level by the analysis processing of the reproduction setting music data, and changes along the reproduction time axis of the reproduction setting music data in the level waveform display unit 81 in the motion data generation screen 70. A level waveform image 90 of the volume level to be displayed is displayed. Further, the control unit 40 indicates the instruction value of the corresponding movement data of the movable unit 51 in the movement data presentation fields 82A to 82C of the data presentation unit 82 on the movement data generation screen 70 (that is, reproduction of the reproduction setting music data). The indicated value waveform images 91A to 91C (indicating indicated values that change along the time axis) are displayed. Further, the control unit 40 indicates the control value of the light emission data of the corresponding light emission unit 53 in the light emission data presentation field of the data presentation unit 82 on the motion data generation screen 70 (that is, on the reproduction time axis of the reproduction setting music data). A control value waveform image (indicating the control value that varies along the way) is also displayed.

因みに制御部40は、このとき動きデータ生成画面70において、再生時間通知部80からレベル波形表示部81及びデータ提示部82の動きデータ提示欄82A乃至82C及び発光データ提示欄に渡って画面上下方向と平行な、再生設定音楽データの曲調区間の境界(すなわち、曲調区間の区切り位置でもあるビート位置)を示す直線の線画92を表示する。このようにして制御部40は、ロボット動きデータを自動的に生成したときには、動きデータ生成画面70を介して、再生設定音楽データの音量レベルをレベル波形画像90として提示し得る。また制御部40は、動きデータ生成画面70を介して、ロボット動きデータを構成する可動部51の動きデータ及び発光部53の発光データも指示値波形画像91A乃至91C、及び制御値波形画像としてユーザに提示し得るようになされている。   Incidentally, at this time, the control unit 40 in the motion data generation screen 70 moves from the playback time notification unit 80 to the level waveform display unit 81, the motion data presentation columns 82A to 82C of the data presentation unit 82, and the light emission data presentation column. A straight line drawing 92 indicating the boundary of the music tone section of the reproduction setting music data (that is, the beat position which is also the break position of the music tone section) is displayed. When the robot motion data is automatically generated in this way, the control unit 40 can present the volume level of the reproduction setting music data as the level waveform image 90 via the motion data generation screen 70. Further, the control unit 40 transmits the motion data of the movable unit 51 and the light emission data of the light emitting unit 53 constituting the robot motion data via the motion data generation screen 70 as the instruction value waveform images 91A to 91C and the control value waveform image. To be able to present.

また図14に示すように、制御部40は、表示部45において動きデータ生成画面70を表示した状態で、ユーザによりマウスを介してマニュアルボタン79が押下操作されると、マニュアルモードに移行する。このとき制御部40は、動きデータ生成画面70内で、再生設定音楽データ全体の再生時間に応じて、再生時間通知部80と、レベル波形表示部81と、データ提示部82内の動きデータ提示欄82A乃至82C及び発光パターン提示欄との画面左右方向に沿った長さを合わせる。そして制御部40は、再生設定音楽データの音量レベルを検出し、動きデータ生成画面70においてレベル波形表示部81内に当該再生設定音楽データの再生時間軸に沿って変化する音量レベルのレベル波形画像90を表示する。   As shown in FIG. 14, the control unit 40 shifts to the manual mode when the user presses the manual button 79 via the mouse while the motion data generation screen 70 is displayed on the display unit 45. At this time, the control unit 40 presents the motion data in the motion data generation screen 70 according to the playback time of the entire playback set music data, the playback time notification unit 80, the level waveform display unit 81, and the motion data presentation in the data presentation unit 82. The lengths of the columns 82A to 82C and the light emission pattern presentation column along the horizontal direction of the screen are matched. Then, the control unit 40 detects the volume level of the playback setting music data, and the level waveform image of the volume level that changes along the playback time axis of the playback setting music data in the level waveform display unit 81 on the motion data generation screen 70. 90 is displayed.

この状態で制御部40は、例えばユーザによりマウスを介してデータ提示部82の動きデータ提示欄82A乃至82C内で、再生時間軸に沿った任意の位置が指示され、入力部41としてのキーボードを介して数値が入力されると、その数値を当該指示された位置における指示値とする。そして制御部40は、このとき動きデータ提示欄82A乃至82C内で指示された任意の位置で、その指示値を示す点を表示する。因みに制御部40は、例えば動きデータ提示欄82A乃至82C内には画面上下方向に沿って上側ほど指示値の値が大きくなるように、その指示値を示す点を表示している。このようにして制御部40は、ユーザにより可動部51としての右側回動部22、左側回動部23、右側開閉部24、左側開閉部25、右側車輪30及び左側車輪31に対応するモータの指示値が再生時間軸を沿って順次入力されると、動きデータ提示欄82A乃至82C内に、その入力された指示値を示す点を再生時間軸に沿って順番に線で結んだ指示値波形画像94を表示する。   In this state, the control unit 40 is instructed by the user, for example, via the mouse, in any of the motion data presentation fields 82A to 82C of the data presentation unit 82, along the playback time axis, and uses the keyboard as the input unit 41. When a numerical value is input via the digital camera, the numerical value is set as an indicated value at the indicated position. At this time, the control unit 40 displays a point indicating the indicated value at an arbitrary position indicated in the motion data presentation columns 82A to 82C. For example, the control unit 40 displays points indicating the instruction values in the motion data presentation fields 82A to 82C so that the instruction values increase in the upper direction along the vertical direction of the screen. In this way, the control unit 40 allows the user to adjust the right rotation unit 22, the left rotation unit 23, the right opening / closing unit 24, the left opening / closing unit 25, the right wheel 30, and the left wheel 31 as the movable unit 51. When the instruction value is sequentially input along the reproduction time axis, an instruction value waveform in which points indicating the input instruction values are sequentially connected along the reproduction time axis in the motion data presentation fields 82A to 82C. An image 94 is displayed.

また制御部40は、例えばユーザによりマウスを介してデータ提示部82の発光データ提示欄内で、再生時間軸に沿った任意の位置が指示され、入力部41としてのキーボードを介して数値が入力されると、その数値を当該指示された位置における制御値とする。そして制御部40は、このとき発光データ提示欄内で指示された任意の位置で、その制御値を示す点を表示する。因みに制御部40は、例えば発光データ提示欄には画面上下方向に沿って上側ほど制御値の値が大きくなるように、その制御値を示す点を表示している。このようにして制御部40は、ユーザにより発光部53としての右側発光部34及び左側発光部35に対する制御値が再生時間軸を沿って順次入力されると、発光データ提示欄内に、その入力された制御値を示す点を再生時間軸に沿って順番に線で結んだ制御値波形画像を表示する。   In addition, the control unit 40 is instructed by the user to specify an arbitrary position along the reproduction time axis in the light emission data presentation field of the data presentation unit 82 via the mouse, and a numerical value is input via the keyboard as the input unit 41. Then, the numerical value is set as a control value at the instructed position. And the control part 40 displays the point which shows the control value in the arbitrary positions instruct | indicated in the light emission data presentation column at this time. Incidentally, for example, the control unit 40 displays a point indicating the control value in the emission data presentation field so that the control value increases toward the upper side in the vertical direction of the screen. In this way, when the control values for the right light emitting unit 34 and the left light emitting unit 35 as the light emitting unit 53 are sequentially input along the reproduction time axis by the user, the control unit 40 inputs the control values in the light emission data presentation field. A control value waveform image in which the points indicating the control values are connected with lines in order along the reproduction time axis is displayed.

そして制御部40は、このように動きデータ生成画面70においてユーザにより可動部51の動きデータと、発光部53の発光データとが生成された後、入力部41を介して、これらの内容を確定する操作命令が入力されると、これら動きデータ及び発光データをまとめてロボット動きデータとし、再生設定音楽データに対応付けて記憶部42に記憶する。このようにして制御部40は、ユーザに対しロボット動きデータを構成する全ての動きデータ及び発光データを手動で生成させることができる。   Then, after the movement data of the movable unit 51 and the light emission data of the light emitting unit 53 are generated by the user on the movement data generation screen 70 in this way, the control unit 40 confirms these contents via the input unit 41. When the operation command is input, the movement data and the light emission data are collected as robot movement data, and stored in the storage unit 42 in association with the reproduction setting music data. In this manner, the control unit 40 can manually generate all the motion data and light emission data constituting the robot motion data.

さらに制御部40は、マニュアルモードにおいて、ユーザにより例えば円形の第1の領域内でマウスを用いて軌跡を描くように要求されると、当該マウスの左ボタンに対するダブルクリック等により机の上等で、軌跡を描くための原点を決定するように指示する。そして制御部40は、ユーザにより机の上等で原点が決定されると、その原点を中心にした例えば半径が30〔cm〕の円形の第1の領域内でマウスを動かして楕円体状筐体20を動かすための軌跡を描くように指示する。   Further, in the manual mode, when the control unit 40 is requested by the user to draw a locus using the mouse in the circular first area, the control unit 40 can be moved on the desk or the like by double-clicking the left button of the mouse. Instruct to determine the origin for drawing the trajectory. Then, when the origin is determined on the desk or the like by the user, the control unit 40 moves the mouse within a circular first area centered on the origin and has a radius of, for example, 30 [cm] to move the ellipsoidal housing. Instructs to draw a trajectory for moving the body 20.

これにより制御部40は、ユーザによりマウスが当該マウスの左ボタンを押したまま机の上等で動かされると、当該左ボタンが押されている間にマウスから入力される移動方向及び移動量に基づき所定時間間隔(以下、これをサンプリング間隔と呼ぶ)で、第1の領域内においてマウスの順次変化する位置を示す点(すなわち、ユーザにより描かれている軌跡を形成する点であり、以下、これを軌跡形成点と呼ぶ)の座標(以下、これを実座標と呼ぶ)を検出する。因みにサンプリング間隔は、ユーザにより軌跡が比較的ゆっくり描かれたときでも、隣接する軌跡形成点同士の間の距離がある程度離れるような所定の時間間隔に選定されている。   As a result, when the user moves the mouse on the desk or the like while pressing the left button of the mouse, the control unit 40 changes the moving direction and moving amount input from the mouse while the left button is pressed. Based on a predetermined time interval (hereinafter referred to as a sampling interval), a point indicating a sequentially changing position of the mouse in the first region (that is, a point forming a locus drawn by the user, The coordinates (hereinafter referred to as real coordinates) of the locus forming points are detected. Incidentally, the sampling interval is selected to be a predetermined time interval such that the distance between adjacent locus forming points is separated to some extent even when the locus is drawn relatively slowly by the user.

また制御部40は、マウスの左ボタンの押下が開始された時点を軌跡の描画開始時点として、その軌跡が描かれている時間(以下、これを描画時間と呼ぶ)を計時する。そして制御部40は、上述のようにサンプリング間隔で軌跡形成点の実座標を検出する毎に、当該検出した実座標に対し、描画開始時点からその検出時点までに軌跡を描くために要した描画時間を対応付けて、その軌跡を示す軌跡情報を生成する。因みに制御部40は、ユーザによりマウスを用いて軌跡が描かれている間は、軌跡形成点の実座標を順次検出し、かつ当該検出した実座標に描画時間を対応付けるようにして軌跡情報を更新している。   The control unit 40 measures the time (hereinafter referred to as the drawing time) during which the locus is drawn, with the time when the left button of the mouse is started being pressed as the drawing start time of the locus. Then, whenever the control unit 40 detects the actual coordinates of the locus forming point at the sampling interval as described above, the drawing required for drawing the locus from the drawing start time to the detection time is performed on the detected actual coordinates. Trajectory information indicating the trajectory is generated in association with the time. Incidentally, while the locus is drawn by the user using the mouse, the control unit 40 sequentially detects the actual coordinates of the locus forming point and updates the locus information so as to associate the drawing time with the detected actual coordinates. is doing.

ところで制御部40は、ユーザにより第1の領域内で描かれた軌跡を、動きデータ生成画面70内の軌跡表示領域71内に表示するようにしている。ただし軌跡表示領域71は、第1の領域の大きさに比べて、半径が数〔cm〕の円形のように比較的小さく形成されている。このため制御部40は、ユーザにより描かれた軌跡を形成する軌跡形成点の実座標を検出する毎に、当該検出した実座標に対し、第1の領域と軌跡表示領域71との大きさの比率(すなわち、軌跡表示領域71の半径を第1の領域の半径で除算した結果)を乗算する。これにより制御部40は、ユーザにより机の上等で描かれた軌跡の大きさを軌跡表示領域71の大きさに合わせるように縮小した場合の、軌跡表示領域71の中心を原点とした軌跡形成点に対応する点(以下、これを軌跡対応点と呼ぶ)の座標(以下、これを表示用座標と呼ぶ)を算出する。   By the way, the control unit 40 displays the trajectory drawn in the first area by the user in the trajectory display area 71 in the motion data generation screen 70. However, the trajectory display area 71 is formed to be relatively small compared to the size of the first area, such as a circle having a radius of several [cm]. For this reason, every time the control unit 40 detects the actual coordinates of the locus forming point that forms the locus drawn by the user, the size of the first area and the locus display area 71 with respect to the detected actual coordinates. The ratio (that is, the result of dividing the radius of the locus display area 71 by the radius of the first area) is multiplied. Thereby, the control unit 40 forms a locus with the center of the locus display area 71 as the origin when the size of the locus drawn on the desk or the like by the user is reduced to match the size of the locus display area 71. The coordinates (hereinafter referred to as display coordinates) of the points corresponding to the points (hereinafter referred to as trajectory corresponding points) are calculated.

そして図15に示すように、制御部40は、軌跡表示領域71内に、ユーザにより机の上等で描かれている軌跡を表示用に縮小した表示軌跡96として(すなわち、表示用座標の示す軌跡対応点を順次結んだ線画として)表示する。また図16に示すように制御部40は、このとき例えば軌跡表示領域71内で表示軌跡96の始点に音楽ロボット装置11の外観形状を示すマーク97を表示する。また制御部40は、ユーザにより描かれている軌跡上の複数の軌跡形成点のうち所定間隔の軌跡形成点を、当該軌跡を加工する際の基点とする軌跡加工点に設定する。そして制御部40は、軌跡加工点に対応する表示軌跡96の軌跡対応点に、軌跡の加工用の所定のマーク(以下、これを軌跡加工点マークと呼ぶ)98を重ねて表示する。因みに制御部40は、例えば事前のユーザ設定に応じて、複数の軌跡形成点のうち、上述したサンプリング間隔よりも長い予め選定された所定時間間隔で検出していた軌跡形成点を軌跡加工点に設定することもできるし、複数の軌跡形成点のうち、予め選定された所定距離間隔の軌跡形成点を軌跡加工点に設定することもできる。   Then, as shown in FIG. 15, the control unit 40 displays a trajectory drawn on the desk or the like by the user as a display trajectory 96 that is reduced for display in the trajectory display area 71 (that is, the display coordinates are indicated). (As a line drawing connecting the locus corresponding points sequentially). Further, as shown in FIG. 16, the control unit 40 displays a mark 97 indicating the appearance shape of the music robot apparatus 11 at the start point of the display locus 96 in the locus display area 71 at this time, for example. Further, the control unit 40 sets a trajectory forming point at a predetermined interval among a plurality of trajectory forming points on the trajectory drawn by the user as a trajectory processing point as a base point when the trajectory is processed. Then, the control unit 40 displays a predetermined mark 98 for locus processing (hereinafter referred to as a locus processing point mark) superimposed on the locus corresponding point of the display locus 96 corresponding to the locus machining point. Incidentally, the control unit 40 uses, as a locus processing point, a locus forming point detected at a predetermined time interval longer than the above-described sampling interval among a plurality of locus forming points, for example, according to a user setting in advance. It is also possible to set a trajectory forming point at a predetermined distance interval selected in advance from among a plurality of trajectory forming points.

このため制御部40は、所定時間間隔で選定した軌跡形成点を軌跡加工点に設定する場合、ユーザによりマウスが動かされる速度に応じて、表示軌跡96において当該マウスの比較的速い動きに対応する部分では、隣接する軌跡加工点マーク98同士を比較的離して表示する。また制御部40は、表示軌跡96においてマウスの比較的遅い動きに対応する部分では、隣接する軌跡加工点マーク98同士を比較的近づけて表示する。一方、制御部40は、所定距離間隔で選定した軌跡形成点を軌跡加工点に設定する場合、ユーザによりマウスが動かされる速度には何ら左右されず、表示軌跡96上に複数の軌跡加工点マーク98を等間隔で表示する。   For this reason, when setting the locus forming point selected at predetermined time intervals as the locus processing point, the control unit 40 responds to a relatively fast movement of the mouse in the display locus 96 according to the speed at which the user moves the mouse. In the portion, the adjacent locus processing point marks 98 are displayed relatively apart from each other. Further, the control unit 40 displays the adjacent locus processing point marks 98 relatively close to each other in the portion corresponding to the relatively slow movement of the mouse in the display locus 96. On the other hand, when setting the locus forming points selected at predetermined distance intervals as the locus machining points, the control unit 40 is not affected by the speed at which the user moves the mouse, and a plurality of locus machining point marks are displayed on the display locus 96. 98 are displayed at equal intervals.

これに加えて図17に示すように、制御部40は、ユーザにより描かれている軌跡に対し軌跡形成点毎の接線TA1乃至TA3を検出する。また制御部40は、軌跡の始点から終点へかけて順次検出した接線TA1乃至TA3の傾きに基づき、当該軌跡のたどる方向がある程度の角度で変化するときの基点となる軌跡形成点を軌跡の変極点として検出する。そして図16に示すように、制御部40は、変極点に対応する表示軌跡96の軌跡対応点(以下、これを特に変極対応点と呼ぶ)に、変極点を示す所定のマーク(以下、これを変極点マークと呼ぶ)99を重ねて表示する。   In addition to this, as shown in FIG. 17, the control unit 40 detects tangents TA <b> 1 to TA <b> 3 for each locus forming point with respect to the locus drawn by the user. In addition, the control unit 40 changes the trajectory forming point which is a base point when the direction followed by the trajectory changes by a certain angle based on the inclination of the tangents TA1 to TA3 sequentially detected from the start point to the end point of the trajectory. Detect as a pole. Then, as shown in FIG. 16, the control unit 40 sets a predetermined mark (hereinafter, referred to as an inflection point) at a trajectory corresponding point of the display trajectory 96 corresponding to the inflection point (hereinafter, this is particularly referred to as an inflection corresponding point). This is called an inflection point mark) 99 and displayed in an overlapping manner.

また制御部40は、ユーザによりマウスを用いて軌跡が描かれると、このとき動きデータ生成画面70においてデータ提示部82内に、当該軌跡を再生設定音楽データと関連付けるための軌跡提示欄82D(図15)を表示する。この状態で制御部40は、ユーザによりマウスの左ボタンの押下が解除され、軌跡が描き終わると、図18に示すように、当該軌跡の各軌跡形成点を直線状に並べて線で結ぶようにして生成した線画(以下、これを直線変換軌跡と呼ぶ)100を軌跡提示欄82Dに表示する。また制御部40は、このとき直線変換軌跡100の軌跡加工点や変極点上に軌跡加工点マーク98や変極点マーク99も表示する。   In addition, when the locus is drawn by the user using the mouse, the control unit 40, in this case, in the data presentation unit 82 on the motion data generation screen 70, the locus presentation field 82D (see FIG. 15) is displayed. In this state, when the user releases the left mouse button and finishes drawing the trajectory, the control unit 40 arranges the trajectory formation points of the trajectory in a straight line and connects them with lines as shown in FIG. The line drawing generated in this way (hereinafter referred to as a straight line conversion locus) 100 is displayed in the locus presentation field 82D. At this time, the control unit 40 also displays the locus machining point mark 98 and the inflection point mark 99 on the locus machining point and the inflection point of the linear transformation locus 100.

ここで制御部40は、例えば事前のユーザ設定に応じて、ユーザにより軌跡が描かれたときに各軌跡形成点に対応付けた描画時間を何ら変更せずに、当該軌跡の描画開始及び描画時間軸と、再生設定音楽データの再生開始及び再生時間軸とを合わせて直線変換軌跡100を軌跡提示欄82Dに表示することができる。すなわち、制御部40は、このとき各軌跡形成点の位置関係を何ら変更せずに軌跡をそのまま直線に変換し、これを直線変換軌跡100としている。   Here, the control unit 40 does not change the drawing time associated with each locus forming point when the locus is drawn by the user, for example, according to the user setting in advance, and starts drawing and drawing time of the locus. The straight line conversion trajectory 100 can be displayed in the trajectory presentation field 82D by combining the axis with the playback start and playback time axis of the playback setting music data. That is, at this time, the control unit 40 converts the trajectory into a straight line without changing the positional relationship between the trajectory forming points, and uses this as a straight line conversion trajectory 100.

また制御部40は、このとき例えば事前のユーザ設定に応じて、ユーザにより軌跡が描かれたときに各軌跡形成点に対応付けた描画時間を、当該軌跡があたかも一定速度で描かれたときの描画時間となるように変更したうえで、描画開始及び変更した描画時間(以下、これを変更描画時間と呼ぶ)の描画時間軸(以下、これを変更描画時間軸と呼ぶ)と、再生開始及び再生時間軸とを合わせて直線変換軌跡100を軌跡提示欄82Dに表示することもできる。すなわち、制御部40は、このとき各軌跡形成点の位置関係を変更描画時間に応じて適宜変更した軌跡を直線に変換し、これを直線変換軌跡100としている。   Further, at this time, for example, in accordance with a user setting in advance, the control unit 40 indicates the drawing time associated with each locus forming point when the locus is drawn by the user when the locus is drawn at a constant speed. After changing the drawing time, the drawing time axis of the drawing start and the changed drawing time (hereinafter referred to as the changed drawing time axis) (hereinafter referred to as the changed drawing time axis), the reproduction start and The straight line conversion trajectory 100 can also be displayed in the trajectory presentation field 82D along with the reproduction time axis. That is, the control unit 40 converts a locus in which the positional relationship between the locus forming points is changed as appropriate according to the change drawing time into a straight line, and uses this as a straight line conversion locus 100.

このようにして制御部40は、ユーザにより描かれた軌跡を直線変換軌跡100として軌跡提示欄82Dに表示すると、当該軌跡の各軌跡形成点(すなわち、各軌跡形成点の実座標)に対しそれぞれ当該軌跡形成点での描画時間又は変更描画時間と同一の時間を示す、再生設定音楽データの再生時間情報(すなわち、タイムコード)を関連付ける。これにより制御部40は、再生設定音楽データの再生に合わせて楕円体状筐体20を動かすための軌跡を示す軌跡データを生成する。すなわち、制御部40は、再生設定音楽データが再生されたときにその再生時間の経過に合わせて、楕円体状筐体20の中心点P1がたどる軌跡を示すと共に、当該楕円体状筐体20の中心点P1が軌跡の各軌跡形成点を順次通過するときの再生時間も示す軌跡データを生成する。   In this way, when the trajectory drawn by the user is displayed on the trajectory presentation field 82D as the straight line conversion trajectory 100, the control unit 40 respectively corresponds to each trajectory forming point of the trajectory (that is, the actual coordinates of each trajectory forming point). Reproduction time information (that is, time code) of reproduction setting music data indicating the same time as the drawing time or the change drawing time at the locus formation point is associated. Thereby, the control unit 40 generates trajectory data indicating a trajectory for moving the ellipsoidal casing 20 in accordance with the reproduction of the reproduction setting music data. That is, the control unit 40 indicates the locus that the center point P1 of the ellipsoidal casing 20 follows as the playback time of the playback-set music data is reproduced, and also shows the elliptical casing 20. Trajectory data indicating the reproduction time when the center point P1 of the trajectory sequentially passes through the trajectory formation points of the trajectory is generated.

ところで制御部40は、軌跡提示欄82Dに直線変換軌跡100を表示するとき、ユーザにより何ら指示されなければ、上述したように描画開始及び描画時間軸(又は描画開始及び変更描画時間軸)と再生開始及び再生時間軸とを自動的に合わせている。そして制御部40は、軌跡の各軌跡形成点に再生設定音楽データの再生時間情報を関連付けて軌跡データを生成する。しかしながら制御部40は、このときユーザにより例えばマウスを介して再生設定音楽データの再生時間軸に沿って直線変換軌跡100を関連させる部分が指定されると、その指定された部分と関連するように直線変換軌跡100を軌跡提示欄82Dに表示する。そして制御部40は、軌跡の各軌跡形成点に再生設定音楽データの指定部分の再生時間情報を関連付けて軌跡データを生成する。すなわち、制御部40は、このように再生設定音楽データの指定部分に軌跡を関連付けると、当該再生設定音楽データの指定部分の再生に合わせて楕円体状筐体20を動かすための軌跡データを生成する。   By the way, when the control unit 40 displays the straight line conversion locus 100 in the locus presentation field 82D, if no instruction is given by the user, the drawing start and drawing time axis (or the drawing start and changed drawing time axis) and reproduction are performed as described above. The start and playback time axes are automatically aligned. Then, the control unit 40 associates the reproduction time information of the reproduction setting music data with each locus formation point of the locus to generate locus data. However, at this time, when a part that associates the linear transformation locus 100 is designated along the reproduction time axis of the reproduction setting music data by the user, for example, via the mouse, the control unit 40 is associated with the designated part. The straight line conversion locus 100 is displayed in the locus presentation field 82D. Then, the control unit 40 generates trajectory data by associating each trajectory forming point of the trajectory with the reproduction time information of the designated portion of the reproduction setting music data. That is, when the control unit 40 associates the locus with the designated portion of the reproduction setting music data in this way, the control unit 40 generates locus data for moving the ellipsoidal housing 20 in accordance with the reproduction of the designated portion of the reproduction setting music data. To do.

従って制御部40は、描画開始及び描画時間軸(又は描画開始及び変更描画時間軸)と再生開始及び再生時間軸とを自動的に合わせて生成した軌跡データのデータ長が再生設定音楽データの後尾部分まで到達していないときや、当該再生設定音楽データの指定部分にのみ軌跡を関連付けて軌跡データを生成したときには、ユーザに対し再び軌跡を描かせて再生設定音楽データの残りの部分に関連付けることで、再び軌跡データを生成することもできる。そして制御部40は、再生設定音楽データの部分毎に軌跡を関連付けて軌跡データを生成すると、最終的に、再生設定音楽データの部分毎の軌跡データを再生時間軸に沿って一本に繋げて最終的な軌跡データとする。これにより制御部40は、再生設定音楽データ全体の再生に合わせて楕円体状筐体20を動かすための軌跡データを生成することができる。   Therefore, the control unit 40 determines that the data length of the trajectory data generated by automatically combining the drawing start and drawing time axis (or the drawing start and change drawing time axis) and the reproduction start and reproduction time axis is the tail of the reproduction setting music data. When the track data has not been reached or when the track data is generated by associating the track only with the designated portion of the playback setting music data, the user can draw the track again and associate it with the remaining portion of the playback setting music data. Thus, the trajectory data can be generated again. Then, when the control unit 40 generates the trajectory data by associating the trajectory for each part of the reproduction setting music data, finally, the trajectory data for each part of the reproduction setting music data is connected to one along the reproduction time axis. This is the final trajectory data. Thereby, the control unit 40 can generate trajectory data for moving the ellipsoidal casing 20 in accordance with the reproduction of the entire reproduction setting music data.

また制御部40は、上述したように再生設定音楽データを再生せずにユーザに対し軌跡を描かせることもできるが、動きデータ生成画面70上でユーザによりマウスを介して再生開始ボタン75が押下操作されると、これに応じて再生設定音楽データの再生を開始する。これにより制御部40は、その再生設定音楽データを再生してユーザに音楽を聴かせながら、マウスを用いて軌跡を描かせることもできる。そして制御部40は、このようにしてユーザにより音楽を実際に聴きながら軌跡が描かれたときにも、上述と同様にして軌跡データを生成することができる。つまり、制御部40は、再生設定音楽データを再生しながら、その瞬間、瞬間に描かれている軌跡に対して、その瞬間の再生時間情報を関連付けることで、リアルタイムに軌跡データを生成するようになされている。   The control unit 40 can also cause the user to draw a locus without playing the playback setting music data as described above, but the user presses the playback start button 75 on the motion data generation screen 70 via the mouse. When operated, the reproduction setting music data starts to be reproduced accordingly. Accordingly, the control unit 40 can also draw a locus using the mouse while reproducing the reproduction setting music data and allowing the user to listen to the music. The control unit 40 can generate the trajectory data in the same manner as described above even when the trajectory is drawn while actually listening to music in this way. That is, the control unit 40 generates the trajectory data in real time by associating the playback time information at the moment with the trajectory drawn at the moment while reproducing the playback setting music data. Has been made.

これに加えて制御部40は、このように生成した軌跡データを、ユーザ指示に応じて加工することもできる。ここで制御部40は、軌跡データの加工には、例えば動きデータ生成画面70上でカーソル95が線やマーク、アイコン等の移動対象を指示した(すなわち、カーソル95を合わせた)状態でユーザによりマウスの左ボタンが押されたまま任意の方向に動かされたときに、これに応じて当該左ボタンが押され続けている間、カーソル95の指示している移動対象をマウスの動かされた方向へ移動させる、いわゆるドラッグ操作を利用させている。   In addition to this, the control unit 40 can process the trajectory data generated in this way in accordance with a user instruction. Here, for example, the control unit 40 processes the trajectory data by the user in a state where the cursor 95 indicates a movement target such as a line, a mark, or an icon on the movement data generation screen 70 (that is, the cursor 95 is set). When the left button of the mouse is pressed and moved in an arbitrary direction, the moving object indicated by the cursor 95 is moved in the direction in which the mouse is moved while the left button is being pressed accordingly. So-called drag operation is used.

図19(A)及び(B)に示すように、制御部40は、ユーザにより動きデータ生成画面70の軌跡表示領域71内で表示軌跡96の例えば直線状部分の任意の点がカーソル95で指示された状態でドラッグ操作されると、表示軌跡96の当該カーソル95で指示されている点を含む所定部分の形状を変更する。この場合、制御部40は、例えばカーソル95により指示された点よりも表示軌跡96の始点側及び終点側でそれぞれ最も近い変極対応点を固定し、これら2つの変極対応点間の部分をカーソル95で指示された点の移動に追従させて変形させる。   As shown in FIGS. 19A and 19B, the control unit 40 indicates with the cursor 95 an arbitrary point of a linear portion of the display locus 96 within the locus display area 71 of the motion data generation screen 70 by the user. When a drag operation is performed in this state, the shape of a predetermined portion including the point indicated by the cursor 95 of the display locus 96 is changed. In this case, for example, the control unit 40 fixes the inflection corresponding points closest to the start point and the end point of the display trajectory 96 from the point indicated by the cursor 95, and the portion between these two inflection corresponding points is fixed. It is deformed by following the movement of the point designated by the cursor 95.

また図20(A)及び(B)に示すように、制御部40は、ユーザにより動きデータ生成画面70の軌跡表示領域71内で表示軌跡96の例えば変極対応点がカーソル95で指示された状態でドラッグ操作されると、表示軌跡96において当該カーソル95で指示されている変極対応点を中心とした所定範囲部分の形状を変更する。この場合、制御部40は、例えばカーソル95により指示された変極対応点の移動量に応じて、当該移動量が大きいほど、表示軌跡96において形状を変更する所定範囲部分を広げて、当該所定範囲部分をカーソル95で指示された変極対応点の移動に追従させて変形させる。   As shown in FIGS. 20A and 20B, the control unit 40 indicates that, for example, the inflection corresponding point of the display trajectory 96 is indicated by the cursor 95 in the trajectory display area 71 of the motion data generation screen 70 by the user. When the drag operation is performed in the state, the shape of the predetermined range portion around the inflection corresponding point indicated by the cursor 95 in the display locus 96 is changed. In this case, the control unit 40 expands the predetermined range portion whose shape is changed in the display trajectory 96 as the movement amount increases, for example, according to the movement amount of the inflection point designated by the cursor 95, The range portion is deformed by following the movement of the inflection point designated by the cursor 95.

そして制御部40は、このように表示軌跡96を変形させたときには、その変形部分における軌跡対応点や変極対応点の位置(すなわち、表示用座標)を変更する。そして制御部40は、その軌跡対応点や変極対応点の位置の変更に応じて、軌跡データが示す軌跡において、位置を変更した軌跡対応点や変極対応点に対応する軌跡形成点や変極点の実座標を変更する。このようにして制御部40は、ユーザにより描かれた軌跡の形状と共に軌跡データを加工することができる。ただし制御部40は、このとき軌跡データが示す軌跡の各軌跡形成点(変極点も含む)に関連付けた再生時間情報を何ら変更しない。すなわち、制御部40は、軌跡データにおいて、隣接する2つの軌跡形成点にそれぞれ関連付けた再生時間情報が示す時間間隔を何ら変更してはいない。   Then, when the display track 96 is deformed in this way, the control unit 40 changes the position of the locus corresponding point or the pole corresponding point (that is, the display coordinates) in the deformed portion. Then, in response to the change of the position of the locus corresponding point or the change corresponding point, the control unit 40 changes the locus forming point or the change corresponding to the locus corresponding point or the change corresponding point whose position is changed in the locus indicated by the locus data. Change the actual coordinates of the extreme points. In this manner, the control unit 40 can process the trajectory data together with the shape of the trajectory drawn by the user. However, the control unit 40 does not change any reproduction time information associated with each locus forming point (including the inflection point) of the locus indicated by the locus data at this time. That is, the control unit 40 does not change any time interval indicated by the reproduction time information associated with two adjacent locus forming points in the locus data.

従って制御部40は、実座標の変更に応じて、隣接する2つの軌跡形成点の位置が近づいた場合、一方の軌跡形成点から他方の軌跡形成点へと楕円体状筐体20が動く速度を遅くさせるように、軌跡データを加工している。また制御部40は、実座標の変更に応じて、隣接する2つの軌跡形成点の位置が離れた場合、一方の軌跡形成点から他方の軌跡形成点へと楕円体状筐体20が動く速度を早くさせるように、軌跡データを加工している。   Therefore, when the positions of two adjacent locus forming points approach each other according to the change of the actual coordinates, the control unit 40 moves the ellipsoidal housing 20 from one locus forming point to the other locus forming point. The trajectory data is processed to slow down. In addition, when the positions of two adjacent trajectory forming points are separated in accordance with the change of the real coordinates, the control unit 40 moves the ellipsoidal housing 20 from one trajectory forming point to the other trajectory forming point. The trajectory data is processed to speed up the process.

さらに図21に示すように、制御部40は、ユーザにより例えば動きデータ生成画面70の軌跡提示欄82D内で直線変換軌跡100上の1つの軌跡加工点マーク98や変極点マーク99がカーソル95で指示された状態でドラッグ操作されると、当該カーソル95で指示されている軌跡加工点マーク98や変極点マーク99と共に、これを重ねている軌跡形成点や変極点の位置を直線変換軌跡100に沿って移動させて変更する。因みに制御部40は、ユーザにより変更される1つの軌跡形成点や変極点の位置が、隣りの軌跡形成点や変極点の位置に重なり、又はこれらを超えるような場合、当該位置が重ならないように当該隣りの軌跡形成点や変極点の位置も適宜変更させる。   Further, as shown in FIG. 21, the control unit 40 allows the user to move one trajectory processing point mark 98 or inflection point mark 99 on the straight line conversion trajectory 100 with the cursor 95 in the trajectory presentation field 82D of the motion data generation screen 70 by the user. When the drag operation is performed in the designated state, the locus forming point 98 and the inflection point mark 99 designated by the cursor 95 and the positions of the locus forming point and the inflection point overlaid on the locus conversion point mark 98 are set to the linear conversion locus 100. Move along and change. Incidentally, when the position of one trajectory formation point or inflection point changed by the user overlaps or exceeds the position of the adjacent trajectory formation point or inflection point, the control unit 40 does not overlap the position. The positions of the adjacent locus forming points and inflection points are also changed as appropriate.

そして制御部40は、このように軌跡形成点や変極点の位置が直線変換軌跡100に沿って変更されたときには、これ合わせて軌跡データが示す軌跡において、直線変換軌跡100上で位置が変更された軌跡形成点や変極点の実座標は変更せずに、その軌跡形成点や変極点に関連付けていた再生時間情報を、当該直線変換軌跡100上での位置の変更で新たに対応した再生時間情報に変更する。このようにして制御部40は、軌跡の形状や軌跡形成点の実座標はそのままに、当該軌跡形成点に関連付ける再生時間情報を変更して軌跡データを加工することもできる。   Then, when the position of the trajectory forming point or the inflection point is changed along the straight line conversion trajectory 100 in this way, the position of the control unit 40 is changed on the straight line conversion trajectory 100 in the trajectory indicated by the trajectory data. Without changing the actual coordinates of the trajectory formation point and the inflection point, the reproduction time information associated with the trajectory formation point and the inflection point is newly applied to the reproduction time corresponding to the change of the position on the linear transformation trajectory 100. Change to information. In this way, the control unit 40 can process the trajectory data by changing the reproduction time information associated with the trajectory formation point without changing the shape of the trajectory and the actual coordinates of the trajectory formation point.

この場合、制御部40は、軌跡データが示す軌跡の各軌跡形成点のうち少なくとも1つの軌跡形成点に関連付ける再生時間情報を変更している。すなわち、制御部40は、軌跡データにおいて、隣接する2つの軌跡形成点の何れか一方に関連付ける再生時間情報を変更すると、これら2つの軌跡形成点にそれぞれ関連付けた再生時間情報が示す時間間隔も変更することになる。   In this case, the control unit 40 changes the reproduction time information associated with at least one locus forming point among the locus forming points of the locus indicated by the locus data. That is, when the control unit 40 changes the reproduction time information associated with one of two adjacent locus formation points in the locus data, the time interval indicated by the reproduction time information associated with each of these two locus formation points is also changed. Will do.

従って制御部40は、このような再生時間情報の変更により、隣接する2つの軌跡形成点にそれぞれ関連付けた再生時間情報が示す時間間隔が長くなった場合、一方の軌跡形成点から他方の軌跡形成点へと楕円体状筐体20が動く速度を遅くさせるように、軌跡データを加工している。また制御部40は、隣接する2つの軌跡形成点にそれぞれ関連付けた再生時間情報が示す時間間隔が短くなった場合、一方の軌跡形成点から他方の軌跡形成点へと楕円体状筐体20が動く速度を早くさせるように、軌跡データを加工している。   Accordingly, when the time interval indicated by the reproduction time information associated with two adjacent locus formation points becomes longer due to such a change in reproduction time information, the control unit 40 forms the other locus from one locus formation point. The trajectory data is processed so as to slow down the moving speed of the ellipsoidal housing 20 to the point. In addition, when the time interval indicated by the reproduction time information associated with each of the two adjacent trajectory forming points is shortened, the control unit 40 causes the ellipsoidal casing 20 to move from one trajectory forming point to the other trajectory forming point. The trajectory data is processed to increase the speed of movement.

ところで制御部40は、ユーザに対し、直線変換軌跡100上で変極点マーク99と共に、これが重ねられている軌跡形成点や変極点の位置を移動させることもできるが、ユーザによる自動的な移動要求に応じて、直線変換軌跡100上で変極点マーク99と共に、これが重ねられている変極点の位置を自動的に移動することもできる。この場合、図22に示すように、制御部40は、複数の変極点の中に、再生設定音楽データの曲調区間の境界を中心とした所定時間範囲内の再生時間情報(すなわち、タイムコード)を関連付けた変極点が存在するか否かを検出する。   By the way, the control unit 40 can move the position of the trajectory forming point and the inflection point on the straight line conversion trajectory 100 together with the inflection point mark 99 to the user. Accordingly, the position of the inflection point on which the inflection point mark 99 and the inflection point mark 99 are superimposed can be automatically moved on the straight line conversion locus 100. In this case, as shown in FIG. 22, the control unit 40 reproduces the reproduction time information (that is, the time code) within a predetermined time range centering on the boundary of the music interval of the reproduction setting music data among the plurality of inflection points. It is detected whether there is an inflection point associated with.

その結果、制御部40は、再生設定音楽データの曲調区間の境界を中心とした所定時間範囲内の再生時間情報を関連付けた変極点が存在すると、当該再生時間情報を関連付けた変極点の位置を、直線変換軌跡100に沿って自動的に最寄りの曲調区間の境界位置(すなわち、図22中の線画92の位置)まで移動させて変更する。因みに制御部40は、位置を変更する変極点が隣りの軌跡形成点や変極点の位置に重なり、又はこれらを超えるような場合、変極点が隣りの軌跡形成点や変極点と重ならないように当該隣りの軌跡形成点や変極点の位置も適宜移動させる。   As a result, if there is an inflection point associated with reproduction time information within a predetermined time range centered on the boundary of the music interval of the reproduction setting music data, the control unit 40 determines the position of the inflection point associated with the reproduction time information. Then, the position is automatically moved along the straight line conversion locus 100 to the boundary position of the nearest music tone section (that is, the position of the line drawing 92 in FIG. 22) and changed. Incidentally, when the inflection point whose position is changed overlaps with or exceeds the position of the adjacent locus forming point or inflection point, the inflection point does not overlap with the adjacent locus forming point or inflection point. The positions of the adjacent locus forming points and inflection points are also moved appropriately.

そして制御部40は、このように変極点の位置を直線変換軌跡100に沿って変更したときには、これに合わせて軌跡データが示す軌跡において、直線変換軌跡100上で位置を変更した変極点や軌跡形成点の実座標は変更せずに、その変極点や軌跡形成点に関連付けていた再生時間情報を当該直線変換軌跡100上での位置の移動で新たに対応した再生時間情報(すなわち、曲調区間の境界位置の再生時間情報等)に変更する。このようにして制御部40は、再生設定音楽データの曲調区間の境界位置に、軌跡の変極点の位置を合わせるように軌跡データを加工することができる。すなわち、制御部40は、再生設定音楽データが再生されたとき、楕円体状筐体20が曲調に同期して動く方向を変えるように軌跡データを加工している。   Then, when the position of the inflection point is changed along the straight line conversion trajectory 100 in this way, the control unit 40 changes the position on the straight line conversion trajectory 100 in the trajectory indicated by the trajectory data according to this change. Without changing the actual coordinates of the formation point, the reproduction time information newly associated with the movement of the position on the linear transformation locus 100 (ie, the tone interval) For example, playback time information at the boundary position. In this way, the control unit 40 can process the trajectory data so that the position of the inflection point of the trajectory is aligned with the boundary position of the musical tone interval of the reproduction setting music data. That is, the control unit 40 processes the trajectory data so as to change the direction in which the ellipsoidal casing 20 moves in synchronization with the music tone when the reproduction setting music data is reproduced.

さらにまた制御部40は、上述した複数種類の軌跡パターンをそれぞれ軌跡の形状を示す軌跡形状情報として登録している。因みに軌跡パターンとしては、楕円体状筐体20を例えばサイン波を描くように動かすための軌跡パターン(以下、これを特にサインパターンと呼ぶ)や、当該楕円体状筐体20をジグザグに動かすための軌跡パターン(以下、これをジグザグパターンと呼ぶ)がある。   Furthermore, the control unit 40 registers the above-described plural types of trajectory patterns as trajectory shape information indicating the trajectory shape. Incidentally, as the trajectory pattern, for example, a trajectory pattern for moving the ellipsoidal casing 20 to draw a sine wave (hereinafter, this is particularly referred to as a sine pattern), or for moving the ellipsoidal casing 20 in a zigzag manner. Trajectory pattern (hereinafter referred to as a zigzag pattern).

また軌跡パターンとしては、例えば右側車輪30及び左側車輪31を互いに逆方向へ同一速度で回転させて楕円体状筐体20を、中心点P1を中心にしてその場で回転させるように動かすための軌跡パターンや、当該楕円体状筐体20を八の字を描くように動かすための軌跡パターンがある。さらに軌跡パターンとしては、楕円体状筐体20を円を描くように動かすための軌跡パターンや、当該楕円体状筐体20を楕円を描くように動かすための軌跡パターン、楕円体状筐体20を真直ぐ動かすための軌跡パターン等もある。   Further, as the trajectory pattern, for example, the right wheel 30 and the left wheel 31 are rotated in the opposite directions at the same speed to move the ellipsoidal housing 20 so as to rotate on the spot around the center point P1. There are a trajectory pattern and a trajectory pattern for moving the ellipsoidal casing 20 so as to draw a figure of eight. Further, as the trajectory pattern, a trajectory pattern for moving the ellipsoidal casing 20 to draw a circle, a trajectory pattern for moving the ellipsoidal casing 20 to draw an ellipse, and the ellipsoidal casing 20 There is also a trajectory pattern for moving the object straight.

そして制御部40は、これら複数種類の軌跡パターンをユーザに対し任意に選択させ得るものの、例えば図23に示すように、ユーザによりサインパターンが選択されたときには、そのサインパターンの周期(時間)T1、振幅(距離)A1、パターン進行方向D1を適宜入力させるようになされている。また制御部40は、例えば図24に示すように、ユーザによりジグザグパターンが選択されたときには、そのジグザグパターンの1つのパターンに対する周期(時間)T2及び振幅(距離)T2と、パターン進行方向D2、1つのパターンの繰返回数Nを適宜入力させるようになされている。すなわち、制御部40は、ユーザにより軌跡パターンが選択されると、当該選択された軌跡パターンで予め入力するように設定された入力項目についてユーザに対し任意に数値を入力させるようになされている。   The control unit 40 can allow the user to arbitrarily select the plurality of types of trajectory patterns. However, as shown in FIG. 23, for example, when a sign pattern is selected by the user, the cycle (time) T1 of the sign pattern. The amplitude (distance) A1 and the pattern traveling direction D1 are appropriately input. For example, as shown in FIG. 24, when a zigzag pattern is selected by the user, the control unit 40 has a cycle (time) T2 and amplitude (distance) T2 for one pattern of the zigzag pattern, and a pattern traveling direction D2. The number of repetitions N of one pattern is appropriately input. That is, when a trajectory pattern is selected by the user, the control unit 40 allows the user to arbitrarily input numerical values for input items that are set in advance to be input with the selected trajectory pattern.

また制御部40は、ユーザにより描かれた軌跡を加工するための加工内容を示す加工情報を記憶部42に予め記憶している。また制御部40は、上述した軌跡パターンや基本動きパターンの他に、このような加工内容をイメージさせる絵柄の表示子(以下、これを加工アイコンと呼ぶ)も予め登録している。そして制御部40は、ユーザに対し動きデータ生成画面70のパターン選択部72内で加工アイコンも選択させ得るようになされている。因みに軌跡を加工するための加工内容としては、当該軌跡をたどる楕円体状筐体20の速度を加速させるためのものや、これとは逆に軌跡をたどる楕円体状筐体20の速度を減速させるためのもの等がある。   In addition, the control unit 40 stores processing information indicating processing content for processing the locus drawn by the user in the storage unit 42 in advance. In addition to the above-described trajectory pattern and basic motion pattern, the control unit 40 also registers in advance a picture indicator (hereinafter referred to as a processing icon) that makes such processing content look like. The control unit 40 can also allow the user to select a processing icon in the pattern selection unit 72 of the motion data generation screen 70. Incidentally, as processing contents for processing the trajectory, the processing contents for accelerating the speed of the ellipsoidal casing 20 that follows the trajectory, and conversely, the speed of the ellipsoidal casing 20 that traces the trajectory is reduced. There are things to do.

そして図25に示すように、制御部40は、ユーザにより動きデータ生成画面70のパターン選択部72内で所望のパターンアイコン73A(例えば、ジグザグパターンを示すパターンアイコン73Aである)がカーソル95で指示された状態でドラッグ操作されると、当該カーソル95で指示されているパターンアイコン73Aを移動させて軌跡表示領域71内の表示軌跡96の所望位置に貼り付けさせることができる。この場合、制御部40は、ユーザに対し、そのパターンアイコン73Aが示す軌跡パターンで予め設定されている入力項目について任意に数値を入力させる。これにより制御部40は、このとき表示軌跡96においてパターンアイコン73Aが重ねられている部分の形状を、当該パターンアイコン73Aが示す軌跡パターン(すなわち、軌跡の形状)に変更する。すなわち、制御部40は、表示軌跡96においてパターンアイコン73Aが重ねられている部分の複数の軌跡対応点の位置(すなわち、表示用座標)を、当該パターンアイコン73Aが示す軌跡パターン(すなわち、軌跡の形状)に応じて変更する。   Then, as shown in FIG. 25, the control unit 40 designates a desired pattern icon 73A (for example, a pattern icon 73A indicating a zigzag pattern) with the cursor 95 in the pattern selection unit 72 of the motion data generation screen 70 by the user. When the drag operation is performed in this state, the pattern icon 73A indicated by the cursor 95 can be moved and pasted to a desired position of the display locus 96 in the locus display area 71. In this case, the control unit 40 causes the user to arbitrarily input numerical values for the input items set in advance in the locus pattern indicated by the pattern icon 73A. Thereby, the control unit 40 changes the shape of the portion where the pattern icon 73A is overlapped in the display locus 96 to the locus pattern (that is, the shape of the locus) indicated by the pattern icon 73A. That is, the control unit 40 indicates the positions of the plurality of locus corresponding points (that is, display coordinates) in the portion where the pattern icon 73A is superimposed on the display locus 96, and the locus pattern (that is, the locus of the locus) indicated by the pattern icon 73A. Change according to shape.

因みに制御部40は、例えばユーザにより表示軌跡96に貼り付けられたパターンアイコン73Aの任意の縁がカーソル95で指示された状態でドラッグ操作されると、これに応じてパターンアイコン73Aをドラッグ操作の方向へ引き伸ばし又は縮める。これにより制御部40は、表示軌跡96に対しパターンアイコン73Aを重ねる部分を任意に選定させて当該パターンアイコン73Aが示す軌跡パターン(すなわち、軌跡の形状)に変更する部分を自由に選定させることができる。   For example, when the user performs a drag operation in a state where an arbitrary edge of the pattern icon 73A pasted on the display locus 96 is instructed by the cursor 95 by the user, the control unit 40 performs the drag operation on the pattern icon 73A. Stretch or shrink in the direction. Accordingly, the control unit 40 can arbitrarily select a portion where the pattern icon 73A is superimposed on the display locus 96 and freely select a portion to be changed to the locus pattern (that is, the shape of the locus) indicated by the pattern icon 73A. it can.

また制御部40は、このように表示軌跡96にパターンアイコン73Aが貼り付けられた場合に、そのパターンアイコン73Aが示す軌跡パターンに対し予めパターン進行方向D2を入力させるように設定されていると、当該表示軌跡96においてパターンアイコン73Aの重ねられている部分の各軌跡対応点の表示用座標に基づき、その部分が描かれた方向(以下、これを描画方向と呼ぶ)を検出する。そして制御部40は、その検出した描画方向を軌跡パターンのパターン進行方向D2に設定する。   In addition, when the pattern icon 73A is pasted on the display locus 96 in this way, the control unit 40 is set so that the pattern traveling direction D2 is input in advance for the locus pattern indicated by the pattern icon 73A. Based on the display coordinates of each locus corresponding point of the portion where the pattern icon 73A is overlapped in the display locus 96, the direction in which the portion is drawn (hereinafter referred to as the drawing direction) is detected. Then, the control unit 40 sets the detected drawing direction as the pattern traveling direction D2 of the locus pattern.

さらに制御部40は、このように表示軌跡96にパターンアイコン73Aが貼り付けられた場合に、そのパターンアイコン73Aが示す軌跡パターンに対し予め周期T2を入力させるように設定されていると、当該表示軌跡96においてパターンアイコン73Aの重ねられている部分の各軌跡対応点にそれぞれ対応する軌跡形成点を検出する。また制御部40は、その検出した各軌跡形成点に関連付けている再生時間情報に基づき、楕円体状筐体20が、これら検出した各軌跡形成点を順次たどるときに要する時間を検出する。そして制御部40は、その検出した時間を軌跡パターンの周期T2に設定する。これにより制御部40は、ユーザに対し、パターン進行方向D2を正確に判別させて入力させ、また周期T2を正確に判別させて入力させるような煩雑なことを何ら行わせることなく、表示軌跡96においてパターンアイコン73Aの重ねられた部分を、ユーザによりあたかも最初から軌跡パターン(軌跡の形状)で描かれていたように、何ら違和感無く変更することができる。   Further, when the pattern icon 73A is pasted on the display locus 96 as described above, the control unit 40 is configured to input the cycle T2 in advance for the locus pattern indicated by the pattern icon 73A. In the locus 96, locus forming points corresponding to the locus corresponding points of the portion where the pattern icon 73A is overlaid are detected. Further, the control unit 40 detects the time required for the ellipsoidal casing 20 to sequentially follow the detected locus formation points based on the reproduction time information associated with the detected locus formation points. And the control part 40 sets the detected time to the period T2 of a locus | trajectory pattern. As a result, the control unit 40 causes the user to accurately determine and input the pattern traveling direction D2, and to display the display trajectory 96 without causing any complicated operations such as accurately determining and inputting the period T2. The pattern icon 73A can be changed without any sense of incongruity as if it was drawn by the user as a trajectory pattern (trajectory shape) from the beginning.

そして制御部40は、このように表示軌跡96の変形に応じて軌跡対応点の位置(すなわち、表示用座標)が変更されたときには、上述と同様に軌跡データが示す軌跡において、その位置の変わった軌跡対応点に対応する軌跡形成点の実座標を変更する。このようにして制御部40は、ユーザにより描かれた軌跡の形状を変形させるようにして軌跡データを加工することができる。   When the position of the locus corresponding point (that is, the display coordinates) is changed in accordance with the deformation of the display locus 96 as described above, the control unit 40 changes the position in the locus indicated by the locus data as described above. The actual coordinates of the trajectory forming point corresponding to the trajectory corresponding point are changed. In this way, the control unit 40 can process the trajectory data so as to change the shape of the trajectory drawn by the user.

また図26に示すように、制御部40は、ユーザにより動きデータ生成画面70のパターン選択部72内で例えば加速用の加工アイコン105Aがカーソル95で指示された状態でドラッグ操作されると、当該カーソル95で指示されている加工アイコン105Aを移動させて軌跡提示欄82D内の直線変換軌跡100の所望位置に貼り付けさせることができる。この場合、制御部40は、直線変換軌跡100の加工アイコン105Aが重ねられている部分において順次隣り合う2つの軌跡形成点間の距離をわずかずつ短くするように、直線変換軌跡100に沿ってこれら複数の軌跡形成点の位置を変更する。   As shown in FIG. 26, when the control unit 40 is dragged by the user in the pattern selection unit 72 of the motion data generation screen 70, for example, in a state where the acceleration processing icon 105A is instructed by the cursor 95, the control unit 40 The processing icon 105A instructed by the cursor 95 can be moved and pasted at a desired position on the linear transformation locus 100 in the locus presentation field 82D. In this case, the control unit 40 moves along the straight line conversion locus 100 so that the distance between two adjacent locus formation points in the portion where the processing icons 105A of the straight line conversion locus 100 are superimposed is slightly shortened. Change the position of a plurality of trajectory forming points.

また制御部40は、ユーザにより動きデータ生成画面70のパターン選択部72内で例えば減速用の加工アイコン105Bがカーソル95で指示された状態でドラッグ操作されると、当該カーソル95で指示されている加工アイコン105Bも移動させて軌跡提示欄82D内の直線変換軌跡100の所望位置に貼り付けさせることができる。そして制御部40は、このとき直線変換軌跡100の加工アイコン105Bが重ねられている部分において順次隣り合う2つの軌跡形成点間の距離をわずかずつ長くするように、直線変換軌跡100に沿ってこれら複数の軌跡形成点の位置を変更する。   The control unit 40 is instructed by the cursor 95 when the user performs a drag operation in the pattern selection unit 72 of the motion data generation screen 70 in a state where the processing icon 105B for deceleration is instructed by the cursor 95, for example. The processing icon 105B can also be moved and pasted at a desired position on the straight line conversion locus 100 in the locus presentation field 82D. Then, at this time, the control unit 40 makes these along the linear transformation trajectory 100 so that the distance between two trajectory forming points adjacent to each other in the portion where the processing icons 105B of the linear transformation trajectory 100 are overlapped is slightly increased. Change the position of a plurality of trajectory forming points.

因みに制御部40は、例えばユーザにより直線変換軌跡100に貼り付けられた加工アイコン105A及び105Bの左右の縁がカーソル95で指示された状態でドラッグ操作されると、これに応じて加工アイコン105A及び105Bをドラッグ操作の方向へ引き伸ばし又は縮める。これにより制御部40は、直線変換軌跡100において加工アイコン105A及び105Bが重ねられる部分を任意に選定させて、楕円体状筐体20の加速用及び減速用に各軌跡形成点の位置を変更する部分を自由に選定させることができる。   For example, when the left and right edges of the processing icons 105A and 105B pasted on the straight line conversion locus 100 are dragged by the user with the cursor 95 instructed by the user, the control unit 40 responds accordingly. 105B is stretched or contracted in the direction of the drag operation. Accordingly, the control unit 40 arbitrarily selects a portion where the machining icons 105A and 105B are overlapped in the linear transformation locus 100, and changes the position of each locus formation point for acceleration and deceleration of the ellipsoidal casing 20. The part can be freely selected.

そして制御部40は、このように加工アイコン105A及び105Bにより各軌跡形成点の位置を変更したときには、これ合わせて軌跡データが示す軌跡において、直線変換軌跡100上で位置が変更された軌跡形成点の実座標は変更せずに、その軌跡形成点に関連付けていた再生時間情報を当該直線変換軌跡100上での位置の移動で新たに対応した再生時間情報に変更する。このようにして制御部40は、軌跡の形状や軌跡形成点の実座標はそのままに、当該軌跡形成点に関連付ける再生時間情報を変更して軌跡データを加工することもできる。   Then, when the position of each locus forming point is changed by the processing icons 105A and 105B as described above, the control unit 40 changes the locus on the straight line conversion locus 100 in the locus indicated by the locus data. The reproduction time information associated with the trajectory formation point is changed to the newly corresponding reproduction time information by moving the position on the straight line conversion trajectory 100 without changing the actual coordinates. In this way, the control unit 40 can process the trajectory data by changing the reproduction time information associated with the trajectory formation point without changing the shape of the trajectory and the actual coordinates of the trajectory formation point.

ここで制御部40は、記憶部42に対し右側車輪30及び左側車輪31に関する車輪情報を予め記憶している。この場合、車輪情報は、右側車輪30の中心点と、楕円体状筐体20の中心点P1との距離、左側車輪31の中心点と楕円体状筐体20の中心点P1との距離、右側車輪30及び左側車輪31の半径等の種々の情報を含んでいる。そして制御部40は、ユーザにより入力部41を介して、軌跡データの内容が確定(すなわち、軌跡データを加工しないまま又は加工した後に確定)されると、記憶部42から車輪情報を読み出す。   Here, the control unit 40 stores wheel information related to the right wheel 30 and the left wheel 31 in advance in the storage unit 42. In this case, the wheel information includes the distance between the center point of the right wheel 30 and the center point P1 of the ellipsoidal housing 20, the distance between the center point of the left wheel 31 and the center point P1 of the ellipsoidal housing 20, Various information such as the radius of the right wheel 30 and the left wheel 31 is included. Then, when the content of the trajectory data is confirmed by the user via the input unit 41 (that is, the trajectory data is confirmed without being processed or after being processed), the control unit 40 reads the wheel information from the storage unit 42.

これにより制御部40は、軌跡データ(すなわち、ユーザにより描かれた軌跡を形成する各軌跡形成点の実座標、及び各軌跡形成点に関連付けた再生時間情報)と、車輪情報とに基づいて、ユーザにより描かれた軌跡に沿って楕円体状筐体20を動かすときの右側車輪30及び左側車輪31の動きデータを生成する。そして図27に示すように、制御部40は、動きデータ生成画面70においてデータ提示部82の右側車輪30に対応する動きデータ提示欄82E内に、当該右側車輪30用に生成した動きデータを指示値波形画像106として表示する。また制御部40は、動きデータ生成画面70においてデータ提示部82の左側車輪31に対応する動きデータ提示欄82F内に、当該左側車輪31用に生成した動きデータを指示値波形画像107として表示する。このようにして制御部40は、ユーザにより第1の領域内で描かれた楕円体状筐体20を動かすための軌跡をもとに右側車輪30及び左側車輪31を駆動制御する動きデータを生成することができる。   Thereby, the control unit 40 is based on the trajectory data (that is, the real coordinates of each trajectory forming point that forms the trajectory drawn by the user and the reproduction time information associated with each trajectory forming point) and the wheel information. Movement data of the right wheel 30 and the left wheel 31 when the ellipsoidal casing 20 is moved along the locus drawn by the user is generated. Then, as shown in FIG. 27, the control unit 40 indicates the motion data generated for the right wheel 30 in the motion data presentation field 82E corresponding to the right wheel 30 of the data presentation unit 82 on the motion data generation screen 70. A value waveform image 106 is displayed. Further, the control unit 40 displays the motion data generated for the left wheel 31 as the indicated value waveform image 107 in the motion data presentation field 82F corresponding to the left wheel 31 of the data presentation unit 82 on the motion data generation screen 70. . In this way, the control unit 40 generates motion data for driving and controlling the right wheel 30 and the left wheel 31 based on the trajectory for moving the ellipsoidal casing 20 drawn in the first region by the user. can do.

また図28に示すように、制御部40は、マニュアルモードにおいてユーザにより軌跡が描かれなくとも、動きデータ生成画面70のパターン選択部72内で軌跡パターン用の所望のパターンアイコン73C及び73Dがカーソル95で指示された状態でドラッグ操作されると、当該カーソル95で指示されているパターンアイコン73C及び73Dを移動させてデータ提示部82の軌跡提示欄82D内の所望位置に貼り付けさせることができる。この場合、制御部40は、ユーザに対し、そのパターンアイコン73C及び73Dが示す軌跡パターンで予め設定されている入力項目について任意に数値を入力させる。   As shown in FIG. 28, the control unit 40 displays the desired pattern icons 73C and 73D for the locus pattern in the pattern selection unit 72 of the motion data generation screen 70 even if the locus is not drawn by the user in the manual mode. When the drag operation is performed in the state instructed in 95, the pattern icons 73C and 73D instructed by the cursor 95 can be moved and pasted at a desired position in the trajectory presentation field 82D of the data presentation unit 82. . In this case, the control unit 40 causes the user to arbitrarily input numerical values for the input items set in advance in the locus pattern indicated by the pattern icons 73C and 73D.

また制御部40は、このときユーザにより入力項目としての周期(及びパターンの繰返回数)が入力されると、これに応じて対応するパターンアイコン73C及び73Dが示す軌跡パターンを描くように楕円体状筐体20が動くときに要する時間(すなわち、周期、又は周期とパターンの繰返回数との乗算結果)を検出する。そして制御部40は、軌跡提示欄82D内で対応するパターンアイコン73C及び73Dを、その検出した時間に応じた長さ(すなわち、再生時間通知部80内の再生時間軸に沿った目盛りを利用して、その検出した時間分の長さ)となるように画面左右方向に沿って引き伸ばし又は縮める。このようにして制御部40は、ユーザによるパターンアイコン73C及び73Dの貼り付け及び入力項目の入力が終了すると、これらパターンアイコン73C及び73Dが示す軌跡パターン(軌跡の形状)と、入力項目についてユーザにより入力された種々の数値とに基づき、例えば第1の領域内で楕円体状筐体20を動かすための軌跡と共に、当該軌跡を形成する複数の軌跡形成点の実座標を生成する。   In addition, when the period (and the number of pattern repetitions) as an input item is input by the user at this time, the control unit 40 draws a locus pattern indicated by the corresponding pattern icons 73C and 73D accordingly. The time required for moving the casing 20 (that is, the period or the result of multiplying the period and the number of pattern repetitions) is detected. Then, the control unit 40 uses the lengths corresponding to the detected times of the corresponding pattern icons 73C and 73D in the trajectory presentation column 82D (that is, using a scale along the reproduction time axis in the reproduction time notification unit 80). The length of the detected time) is stretched or shrunk along the horizontal direction of the screen. In this manner, when the user finishes pasting the pattern icons 73C and 73D and inputting the input items, the control unit 40 determines the trajectory pattern (trajectory shape) indicated by the pattern icons 73C and 73D and the input items by the user. Based on the input various numerical values, for example, real coordinates of a plurality of trajectory forming points forming the trajectory are generated together with a trajectory for moving the ellipsoidal casing 20 in the first region.

また制御部40は、このとき生成した軌跡をもとに上述した場合と同様に直線変換軌跡を生成する。そして制御部40は、軌跡提示欄82D内でパターンアイコン73C及び73Dが貼り付けられた位置に応じて、かかる直線変換軌跡上の各軌跡形成点に再生時間情報を割り当てて軌跡データを生成する。これにより制御部40は、上述と同様に、その軌跡データと車輪情報とに基づいて、ユーザによりパターンアイコン73C及び73Dを利用して生成された軌跡に沿って楕円体状筐体20を動かすときの右側車輪30及び左側車輪31の動きデータを生成することもできる。   In addition, the control unit 40 generates a linear transformation locus based on the locus generated at this time as in the case described above. Then, the control unit 40 assigns reproduction time information to each locus forming point on the linear transformation locus according to the position where the pattern icons 73C and 73D are pasted in the locus presentation field 82D, and generates locus data. As a result, the control unit 40 moves the ellipsoidal casing 20 along the trajectory generated by the user using the pattern icons 73C and 73D based on the trajectory data and the wheel information, as described above. The movement data of the right wheel 30 and the left wheel 31 can be generated.

さらにまた制御部40は、上述した複数種類の基本動きパターンを、可動部51の所定の一点が動きに応じて描く軌跡の形状を示す形状情報として登録している。因みに基本動きパターンとしては、右側回動部22や左側回動部23、右側車輪30や左側車輪31を所定方向(すなわち、軸回り一方向D1及び軸回り他方向)に回転させるように動かすための基本動きパターンや、当該右側開閉部24や左側開閉部25を開くように動かすための基本動きパターンがある。また基本動きパターンとしては、例えば右側開閉部24や左側開閉部25を閉じるように動かすための基本動きパターンや、右側開閉部24や左側開閉部25を閉じたり開いたりするように動かすための基本動きパターンがある。   Furthermore, the control unit 40 registers the above-described plurality of types of basic motion patterns as shape information indicating the shape of a locus drawn by a predetermined point of the movable unit 51 according to the movement. Incidentally, as a basic movement pattern, in order to move the right rotation unit 22, the left rotation unit 23, the right wheel 30 and the left wheel 31 so as to rotate in a predetermined direction (that is, one direction around the axis D1 and the other direction around the axis). And the basic movement pattern for moving the right opening / closing part 24 and the left opening / closing part 25 to open. The basic movement pattern includes, for example, a basic movement pattern for moving the right opening / closing part 24 and the left opening / closing part 25 so as to be closed, and a basic function for moving the right opening part 24 and the left opening / closing part 25 so as to be closed and opened. There is a movement pattern.

さらに基本動きパターンとしては、右側回動部22や左側回動部23、右側車輪30や左側車輪31を軸回り一方向D1及び軸回り他方向に順次交互に回転させるように動かすための基本動きパターン等もある。そして制御部40は、これら複数種類の基本動きパターンをパターンアイコンとしてユーザに対し任意に選択させ得るものの、軌跡パターンの場合と同様に、基本動きパターンが選択されたときには、その基本動きパターンの周期や、角度、繰返回数等のように予め入力するように設定された入力項目についてユーザに対し任意に数値を入力させるようになされている。   Further, as a basic movement pattern, a basic movement for moving the right rotation part 22, the left rotation part 23, the right wheel 30 and the left wheel 31 to rotate alternately in one direction around the axis D1 and in the other direction around the axis. There are also patterns. The control unit 40 can allow the user to arbitrarily select the plurality of types of basic motion patterns as pattern icons, but when a basic motion pattern is selected, as in the case of a trajectory pattern, the period of the basic motion pattern is selected. In addition, the user is allowed to arbitrarily input numerical values for input items set in advance such as an angle and the number of repetitions.

このような状態で制御部40は、マニュアルモードにおいてユーザにより動きデータ生成画面70のパターン選択部72内で基本動きパターン用の所望のパターンアイコンがカーソル95で指示された状態でドラッグ操作されると、当該カーソル95で指示されているパターンアイコンを移動させてデータ提示部82の動きデータ提示欄82A乃至82C並びに82E及び82F内の所望位置に貼り付けさせることができる。この場合、制御部40は、ユーザに対し、そのパターンアイコンが示す動き軌跡パターンで予め設定されている入力項目について任意に数値を入力させる。   In this state, when the control unit 40 is dragged in the manual mode in a state where the desired pattern icon for the basic motion pattern is designated by the cursor 95 in the pattern selection unit 72 of the motion data generation screen 70 in the manual mode. The pattern icon indicated by the cursor 95 can be moved and pasted to desired positions in the motion data presentation fields 82A to 82C and 82E and 82F of the data presentation unit 82. In this case, the control unit 40 causes the user to arbitrarily input numerical values for the input items set in advance with the movement trajectory pattern indicated by the pattern icon.

また制御部40は、このときユーザにより入力項目としての周期(及びパターンの繰返回数)が入力されると、これに応じて対応するパターンアイコンが示す基本動きパターンで可動部51が動くときに要する可動時間(すなわち、周期、又は周期とパターンの繰返回数との乗算結果)を検出する。そして制御部40は、動きデータ提示欄82A乃至82C並びに82E及び82F内で対応するパターンアイコンを、その検出した可動時間に応じた長さ(すなわち、再生時間通知部80内の再生時間軸に沿った目盛りを利用して、その検出した可動時間分の長さ)となるように画面左右方向に沿って引き伸ばし又は縮める。   When the period (and the number of pattern repetitions) as an input item is input by the user at this time, the control unit 40 moves the movable unit 51 in accordance with the basic movement pattern indicated by the corresponding pattern icon. The required movable time (that is, the period or the result of multiplying the period and the number of pattern repetitions) is detected. Then, the control unit 40 displays the corresponding pattern icons in the motion data presentation fields 82A to 82C and 82E and 82F for a length corresponding to the detected movable time (that is, along the reproduction time axis in the reproduction time notification unit 80). Using the scale, the length of the detected movable time is extended or contracted along the horizontal direction of the screen.

制御部40は、ユーザによるパターンアイコンの貼り付け及び入力項目の入力が終了すると、これらパターンアイコンが示す基本動きパターンと、入力項目についてユーザにより入力された種々の数値とに基づき可動部51を動かすための再生時間軸に沿った複数の指示値を順次生成する。このようにして制御部40は、ユーザによりパターンアイコンとして選択された基本動きパターンを利用して、可動部51毎の、再生時間軸に沿った複数の指示値を有する動きデータを生成することができる。   When the user finishes pasting the pattern icon and inputting the input item, the control unit 40 moves the movable unit 51 based on the basic motion pattern indicated by the pattern icon and various numerical values input by the user for the input item. A plurality of instruction values along the reproduction time axis are sequentially generated. In this way, the control unit 40 can generate motion data having a plurality of instruction values along the reproduction time axis for each movable unit 51 using the basic motion pattern selected as the pattern icon by the user. it can.

そして制御部40は、このようにユーザにより描かれた軌跡や当該ユーザにより選択された軌跡パターン及び基本動きパターンを利用して、可動部51の動きデータを生成すると共に、ユーザによる制御値の入力により発光データを生成すると、これら動きデータ及び発光データをまとめてロボット動きデータとし、再生設定音楽データに対応付けて記憶部42に記憶する。このようにして制御部40は、ユーザに対しロボット動きデータを構成する全ての動きデータを半自動的に生成させることができる。   Then, the control unit 40 generates motion data of the movable unit 51 using the trajectory drawn by the user, the trajectory pattern selected by the user, and the basic motion pattern, and inputs the control value by the user. When the light emission data is generated by the above, the movement data and the light emission data are combined into robot movement data and stored in the storage unit 42 in association with the reproduction setting music data. In this way, the control unit 40 can cause the user to semi-automatically generate all motion data constituting the robot motion data.

ところで制御部40は、ユーザにより描かれた軌跡パターンを軌跡の形状を示す軌跡形状情報として登録することができると共に、その軌跡パターンについて入力する入力項目の内容についても設定させることができる。そして制御部40は、このようにユーザにより描かれて登録された軌跡パターンについても、例えばパーソナルコンピュータ12において予め用意していた軌跡パターンと共に動きデータの生成に利用させることができる。   Incidentally, the control unit 40 can register the trajectory pattern drawn by the user as trajectory shape information indicating the trajectory shape, and can also set the contents of the input items to be input for the trajectory pattern. The control unit 40 can also use the locus pattern drawn and registered by the user in this manner for generating motion data together with the locus pattern prepared in advance in the personal computer 12, for example.

また制御部40は、記憶部42に対し、ロボット動きデータを圧縮音楽データに対応付けて記憶した後には、ユーザの要求に応じて当該記憶部42から、そのロボット動きデータを読み出すことができる。そして制御部40は、そのロボット動きデータに含まれる右側車輪30及び左側車輪31の動きデータと車輪情報とを用いて、上述した軌跡データをもとに動きデータを生成する場合とは可逆的な処理を実行して再び軌跡データを生成する。   Further, after storing the robot motion data in association with the compressed music data in the storage unit 42, the control unit 40 can read the robot motion data from the storage unit 42 in response to a user request. And the control part 40 is reversible from the case where motion data is produced | generated based on the above-mentioned locus | trajectory data using the motion data and wheel information of the right wheel 30 and the left wheel 31 which are included in the robot motion data. The process is executed to generate the trajectory data again.

これにより制御部40は、右側車輪30及び左側車輪31の動きデータの生成に1度は利用した軌跡データを上述したように加工させ、改めて右側車輪30及び左側車輪31の動きデータを生成することもできる。従って制御部40は、ユーザにより描かれた軌跡をもとに右側車輪30及び左側車輪31の動きデータを生成し、その動きデータを利用して実際に楕円体状筐体20を動かした場合に、その動きを手直しするように要求されても、改めて軌跡を描かせるのではなく、その要求に容易に対応することができる。   Thus, the control unit 40 processes the trajectory data used once for generating the movement data of the right wheel 30 and the left wheel 31 as described above, and generates the movement data of the right wheel 30 and the left wheel 31 again. You can also. Therefore, the control unit 40 generates movement data of the right wheel 30 and the left wheel 31 based on the locus drawn by the user, and when the ellipsoidal casing 20 is actually moved using the movement data. Even if the movement is requested to be corrected, the trajectory is not drawn again, but the request can be easily dealt with.

さらに制御部40は、ユーザにより軌跡が描かれた場合、その軌跡について直線部分の長さや数、変極点の数や変極点間の距離等のように当該軌跡の構造を解析する。そして制御部40は、軌跡の構造の解析結果をもとに、楕円体状筐体20を比較的激しく動かすための軌跡や、当該楕円体状筐体20を比較的ゆっくりと動かすための軌跡等のように、当該軌跡の特徴を解析することができる。また制御部40は、記憶部42に記憶している複数の圧縮音楽データに基づく音楽の特徴も解析している。   Furthermore, when a locus is drawn by the user, the control unit 40 analyzes the structure of the locus such as the length and number of straight lines, the number of inflection points, the distance between inflection points, and the like. Based on the analysis result of the locus structure, the control unit 40 makes a locus for moving the ellipsoidal housing 20 relatively intensely, a locus for moving the elliptical housing 20 relatively slowly, and the like. Thus, the trajectory feature can be analyzed. The control unit 40 also analyzes music features based on a plurality of compressed music data stored in the storage unit 42.

そして制御部40は、記憶部42内の圧縮音楽データを音楽の特徴をもとに、軌跡の種々の特徴に応じて分類する(すなわち、軌跡の種々の特徴それぞれに合う音楽の特徴を有する圧縮音楽データ同士をまとめる)。これにより制御部40は、軌跡の特徴毎に、その特徴に合う音楽の特徴を有する圧縮音楽データ固有の識別情報をリスト化し、記憶部42に対し、これら軌跡の特徴毎のリストを記憶している。   Then, the control unit 40 classifies the compressed music data in the storage unit 42 based on the characteristics of the music according to various characteristics of the trajectory (that is, the compression having music characteristics that match each of the various characteristics of the trajectory. Combine music data). As a result, the control unit 40 lists the identification information unique to the compressed music data having the music features matching the features for each trajectory feature, and stores a list for each trajectory feature in the storage unit 42. Yes.

このため制御部40は、上述したように再生設定音楽データを設定したうえでユーザに対し軌跡を描かせなくとも、先にユーザに対し軌跡を描かせ、当該描かれた軌跡の特徴を解析する。また制御部40は、軌跡の特徴をもとに、記憶部42から当該軌跡の特徴に対応するリストを選択して読み出す。そして制御部40は、その選択したリストに登録されている複数の圧縮音楽データの中から無作為に1つの圧縮音楽データを選択し、当該選択した圧縮音楽データを、ユーザにより描かれた軌跡に沿って楕円体状筐体20を動かすときに再生する再生設定音楽データに設定する。これにより制御部40は、ユーザに対し音楽を何ら気にさせずに自由に軌跡を描かせることができると共に、このようにユーザに対し軌跡を自由に描かせても、その軌跡に沿って楕円体状筐体20を動かすときに、その動きに合った音楽を圧縮音楽データとして的確に選択して提供することができる。   For this reason, the control unit 40 sets the reproduction setting music data as described above and does not draw the locus to the user, but first draws the locus to the user, and analyzes the feature of the drawn locus. . Further, the control unit 40 selects and reads a list corresponding to the trajectory feature from the storage unit 42 based on the trajectory feature. And the control part 40 selects one compression music data at random from the some compression music data registered into the selected list | wrist, and makes the said selected compression music data into the locus | trajectory drawn by the user. This is set to the playback setting music data to be played back when the ellipsoidal casing 20 is moved along. As a result, the control unit 40 can freely draw a trajectory without making the user care about music, and even if the user can freely draw the trajectory in this way, When the body casing 20 is moved, music that matches the movement can be accurately selected and provided as compressed music data.

また制御部40は、音楽ロボット装置11と無線通信し得ると共に、当該音楽ロボット装置11が加速度センサ56や右側車輪30及び左側車輪31を有していることにより、ユーザに対しマウスに替えて音楽ロボット装置11を用いて軌跡を描かせることもできる。この場合、制御部40は、マニュアルモードにおいて、ユーザにより入力部41を介して音楽ロボット装置11を用いて例えば円形の第1の領域内で軌跡を描くように要求されると、音楽ロボット装置11との無線通信を確立したうえでユーザに対し床の上で軌跡を描くための原点を決定するように指示する。その結果、制御部40は、床の上に置かれた音楽ロボット装置11の接触検知センサ33に例えばユーザの指が2回連続的に接触すると、その時点の中心点P1の真下の位置を原点に設定する。そして制御部40は、ユーザに対し、その原点を中心にした例えば半径が30〔cm〕の円形の第1の領域内で音楽ロボット装置11を動かして楕円体状筐体20を動かすための軌跡を描くように指示する。   The control unit 40 can communicate wirelessly with the music robot device 11 and the music robot device 11 includes the acceleration sensor 56, the right wheel 30, and the left wheel 31. It is also possible to draw a locus using the robot apparatus 11. In this case, when the control unit 40 is requested to draw a trajectory in, for example, a first circular area using the music robot device 11 via the input unit 41 in the manual mode, the music robot device 11 is requested. And instructing the user to determine the origin for drawing the trajectory on the floor. As a result, when the user's finger contacts the contact detection sensor 33 of the music robot apparatus 11 placed on the floor twice continuously, for example, the control unit 40 sets the position immediately below the center point P1 to the origin. Set to. Then, the control unit 40 moves the ellipsoidal housing 20 by moving the music robot device 11 in a circular first area having a radius of 30 [cm], for example, centered on the origin. To draw.

この場合、音楽ロボット装置11は、例えばユーザにより接触検知センサ33に指等が接触した状態で楕円体状筐体20が床の上で動かされると、加速度センサ56により楕円体状筐体20に生じる加速度を検出する。また音楽ロボット装置11は、楕円体状筐体20の動きに応じて右側車輪30及び左側車輪31と共に回転するモータの出力軸の回転(すなわち、回転方向及び回転角度)を駆動部52内の回転検出センサにより検出する。そして音楽ロボット装置11において主制御部50は、接触検知センサ33に指等が接触した状態で楕円体状筐体20が動かされている間、加速度センサ56により検出されている加速度を加速度検出信号として駆動制御部54を介して取り込みながら、通信部58を介してパーソナルコンピュータ12に送信する。また主制御部50は、楕円体状筐体20が動かされている間、駆動部52の回転検出センサにより検出されている回転を回転検出信号として駆動制御部54を介して取り込みながら、通信部58を介してパーソナルコンピュータ12に送信する。   In this case, for example, when the ellipsoidal casing 20 is moved on the floor in a state where a finger or the like is in contact with the contact detection sensor 33 by the user, the music robot device 11 is moved to the ellipsoidal casing 20 by the acceleration sensor 56. Detect the resulting acceleration. Further, the music robot apparatus 11 rotates the output shaft of the motor that rotates with the right wheel 30 and the left wheel 31 according to the movement of the ellipsoidal housing 20 (that is, the rotation direction and the rotation angle) in the drive unit 52. It is detected by a detection sensor. In the music robot apparatus 11, the main control unit 50 detects the acceleration detected by the acceleration sensor 56 while the ellipsoidal casing 20 is moved while a finger or the like is in contact with the contact detection sensor 33. As described above, the data is transmitted to the personal computer 12 via the communication unit 58 while being captured via the drive control unit 54. Further, the main control unit 50 captures the rotation detected by the rotation detection sensor of the drive unit 52 as the rotation detection signal through the drive control unit 54 while the ellipsoidal casing 20 is being moved. The data is transmitted to the personal computer 12 via 58.

これによりパーソナルコンピュータ12の制御部40は、ユーザにより楕円体状筐体20が接触検知センサ33に指等が接触している状態で床の上で動かされると、音楽ロボット装置11から送信される加速度検出信号及び回転検出信号を通信部46を介して受信しながら、当該受信している加速度検出信号及び回転検出信号と共に、車輪情報に基づきサンプリング間隔で、第1の領域内において楕円体状筐体20の中心点P1の順次変化する位置を示す軌跡形成点の実座標を検出する。このようにして制御部40は、ユーザにより音楽ロボット装置11を用いて軌跡が描かれたときでも、その軌跡を検出して上述と同様に軌跡データを生成することができる。また制御部40は、このように生成した軌跡データを上述と同様に加工することもできる。   Thereby, the control unit 40 of the personal computer 12 is transmitted from the music robot apparatus 11 when the ellipsoidal housing 20 is moved on the floor while the finger or the like is in contact with the contact detection sensor 33 by the user. While receiving the acceleration detection signal and the rotation detection signal via the communication unit 46, together with the received acceleration detection signal and rotation detection signal, the ellipsoidal housing is formed in the first region at a sampling interval based on the wheel information. The actual coordinates of the locus forming point indicating the sequentially changing position of the center point P1 of the body 20 are detected. Thus, even when a locus is drawn by the user using the music robot device 11, the control unit 40 can detect the locus and generate locus data in the same manner as described above. The control unit 40 can also process the trajectory data generated in this way in the same manner as described above.

ところで制御部40は、上述したようにユーザに対し例えば直径が30〔cm〕の円形の第1の領域内で描かせた軌跡をもとに軌跡データを生成し、当該生成した軌跡データをもとに右側車輪30及び左側車輪31の動きデータを生成している。しかしながら制御部40は、再生設定音楽データの再生に合わせて実際には第1の領域とは異なる第2の領域内で楕円体状筐体20を動かす場合、ユーザにより第1の領域内で描かれた軌跡を第2の領域に合わせるように軌跡データを加工した後、当該加工した軌跡データをもとに右側車輪30及び左側車輪31の動きデータを生成することもできる。   By the way, as described above, the control unit 40 generates trajectory data based on the trajectory drawn in the circular first region having a diameter of, for example, 30 [cm] as described above, and the generated trajectory data is also generated. The movement data of the right wheel 30 and the left wheel 31 are generated. However, when the control unit 40 moves the ellipsoidal casing 20 in a second region that is actually different from the first region in accordance with the reproduction of the reproduction setting music data, the control unit 40 draws the first region in the first region. After the trajectory data is processed so that the trajectory is matched with the second region, motion data of the right wheel 30 and the left wheel 31 can be generated based on the processed trajectory data.

この場合、制御部40は、ユーザにより第1の領域内で描かれた軌跡をもとに軌跡データを生成したとき、ユーザにより入力部41を介して例えば円形の第2の領域に関する領域情報として半径が入力されると、その半径を第1の領域の半径で除算して、第1の領域の大きさに対する第2の領域の大きさの比率を算出する。また制御部40は、第2の領域を、ユーザにより入力された半径を有する円形であり、第1の領域の大きさに対し、その算出した比率だけ大きい又は小さい大きさを有するというように定義する定義情報を生成し、これを設定する。   In this case, when the control unit 40 generates the trajectory data based on the trajectory drawn in the first area by the user, the control unit 40 uses, for example, the area information regarding the circular second area via the input unit 41 by the user. When the radius is input, the radius is divided by the radius of the first region to calculate the ratio of the size of the second region to the size of the first region. Further, the control unit 40 defines the second area as a circle having a radius input by the user and having a size that is larger or smaller than the size of the first area by the calculated ratio. Generate definition information to be set and set it.

そして制御部40は、このとき第2の領域の形状が第1の領域の形状と相似であるため、軌跡データの示す軌跡を形成する各軌跡形成点の実座標に対し、第2の領域の定義情報に含まれる比率を乗算する。これにより図29(A)及び(B)並びに図30(A)及び(B)に示すように、制御部40は、ユーザにより第1の領域110内で描かれた軌跡111の大きさを第2の領域112又は113の大きさに合わせるように変更(すなわち、拡大又は縮小)した場合の、第2の領域112又は113の中心を原点とした当該軌跡111の軌跡形成点に対応する軌跡対応点の座標(以下、これを対応座標と呼ぶ)を算出する。また制御部40は、軌跡データの示すユーザの描いた軌跡の各軌跡形成点の実座標を、対応する軌跡対応点の対応座標に変更すると共に、これら各軌跡形成点(すなわち、実座標)に関連付けていた再生時間情報を、対応する軌跡対応点(すなわち、対応座標)に関連付けるようにして軌跡データを加工する。   Since the shape of the second region is similar to the shape of the first region at this time, the control unit 40 determines the second region with respect to the actual coordinates of each locus forming point forming the locus indicated by the locus data. Multiply the ratio included in the definition information. As a result, as shown in FIGS. 29A and 29B and FIGS. 30A and 30B, the control unit 40 sets the size of the trajectory 111 drawn in the first area 110 by the user. Trajectory correspondence corresponding to the trajectory forming point of the trajectory 111 with the center of the second region 112 or 113 as the origin when the size is changed to match the size of the second region 112 or 113 (that is, enlarged or reduced) The coordinates of the points (hereinafter referred to as corresponding coordinates) are calculated. In addition, the control unit 40 changes the actual coordinates of the respective locus forming points of the locus drawn by the user indicated by the locus data to the corresponding coordinates of the corresponding locus corresponding points, and changes these locus forming points (that is, the actual coordinates). The trajectory data is processed by associating the associated reproduction time information with the corresponding trajectory corresponding point (that is, the corresponding coordinate).

そして制御部40は、このようにユーザにより第2の領域に関する領域情報が入力されたときには、これに応じて加工した軌跡データをもとに右側車輪30及び左側車輪31の動きデータを生成する。従って制御部40は、ユーザにより軌跡の描かれた第1の領域とは異なる第2の領域内で実際に楕円体状筐体20が動かされるときには、その第2の領域内で楕円体状筐体20を動かすための右側車輪30及び左側車輪31の動きデータを容易に生成することができる。   Then, when the region information regarding the second region is input by the user in this way, the control unit 40 generates motion data of the right wheel 30 and the left wheel 31 based on the trajectory data processed accordingly. Therefore, when the ellipsoidal casing 20 is actually moved in the second area different from the first area where the locus is drawn by the user, the control unit 40 moves the ellipsoidal casing in the second area. Movement data of the right wheel 30 and the left wheel 31 for moving the body 20 can be easily generated.

ただし制御部40は、このとき軌跡対応点(すなわち、対応座標)に対し、軌跡形成点(すなわち、実座標)に関連付けていた再生時間情報をそのまま関連付け直している。このため制御部40は、第1の領域の大きさよりも第2の領域の大きさが大きいと、順次隣接する2つの軌跡形成点間の距離よりも対応する2つの軌跡対応点間の距離が長くなることにより、第2の領域に合わせて加工した軌跡に沿って楕円体状筐体20が動くときの速度を、第1の領域内で描かれた軌跡に沿って楕円体状筐体20が動くときの速度よりも全体的に速くしている。また制御部40は、第1の領域の大きさよりも第2の領域の大きさが小さいと、順次隣接する2つの軌跡形成点間の距離よりも対応する2つの軌跡対応点間の距離が短くなることにより、第2の領域に合わせて加工した軌跡に沿って楕円体状筐体20が動くときの速度を、第1の領域内で描かれた軌跡に沿って楕円体状筐体20が動くときの速度よりも全体的に遅くしている。   However, the control unit 40 reassociates the reproduction time information associated with the locus forming point (that is, the actual coordinate) as it is with the locus corresponding point (that is, the corresponding coordinate). For this reason, when the size of the second region is larger than the size of the first region, the control unit 40 determines that the distance between the two corresponding trajectory corresponding points is larger than the distance between the two adjacent trajectory forming points. By increasing the length, the speed at which the ellipsoidal casing 20 moves along the trajectory processed in accordance with the second area is set to the speed of the ellipsoidal casing 20 along the trajectory drawn in the first area. It is generally faster than the speed at which it moves. In addition, when the size of the second region is smaller than the size of the first region, the control unit 40 shortens the distance between the two corresponding locus corresponding points shorter than the distance between the two adjacent locus forming points. Thus, the speed at which the ellipsoidal casing 20 moves along the trajectory processed in accordance with the second area is set so that the ellipsoidal casing 20 moves along the trajectory drawn in the first area. Overall speed is slower than the speed when moving.

ところで制御部40は、第1の領域の直径を予め30〔cm〕に設定しているものの、ユーザにより第1の領域を任意に設定するように要求させることができる。このため図31に示すように、制御部40は、例えばユーザに対し軌跡を描く場所に応じて、円形の第1の領域115の半径R1を任意に入力させて当該第1の領域115の大きさを任意に設定することができる。また図32に示すように、制御部40は、第1の領域116の形状についても、例えば予め選択用に用意している複数種類の形状の中からユーザに対し星型のように任意に選択させて設定することもできる。さらに図33に示すように、制御部40は、ユーザに対しマウスや音楽ロボット装置11を用いて机の上や床の上等で第1の領域117を任意の大きさ及び形状に描かせて設定することもできる。   Incidentally, the control unit 40 can request the user to arbitrarily set the first area, although the diameter of the first area is set to 30 [cm] in advance. Therefore, as illustrated in FIG. 31, the control unit 40 arbitrarily inputs the radius R1 of the circular first region 115, for example, in accordance with the location where the locus is drawn for the user, so that the size of the first region 115 is increased. Can be set arbitrarily. Further, as shown in FIG. 32, the control unit 40 also arbitrarily selects the shape of the first region 116 from a plurality of types of shapes prepared for selection in advance, such as a star shape for the user. It can also be set. Further, as shown in FIG. 33, the control unit 40 causes the user to draw the first region 117 in an arbitrary size and shape on the desk or the floor using the mouse or the music robot apparatus 11. It can also be set.

さらに図34に示すように、制御部40は、軌跡118を描く前には第1の領域119を設定せずに、マウスや音楽ロボット装置11を用いて軌跡118が描かれ終わったときに、その軌跡118を収めることができるような大きさ及び形状の第1の領域119を任意に選定して設定することもできる。さらにまた図35に示すように、制御部40は、ユーザによりマウスや音楽ロボット装置11を用いて軌跡が描かれるとき、実際に第1の領域120を机の上や床の上に描いているわけではない。このため制御部40は、第1の領域120の外側に当該第1の領域120と相似形でわずかに大きい誤差領域121を設けることもできる。これにより制御部40は、このように誤差領域121を設けた場合、ユーザにより描かれた軌跡において第1の領域120からわずかにはみ出した部分が存在しても、これが誤差領域121内であると、有効に軌跡データの生成に利用している。   Further, as shown in FIG. 34, the control unit 40 does not set the first region 119 before drawing the locus 118, and when the locus 118 has been drawn using the mouse or the music robot apparatus 11, It is also possible to arbitrarily select and set the first region 119 having a size and shape that can accommodate the locus 118. Furthermore, as shown in FIG. 35, when the locus is drawn by the user using the mouse or the music robot apparatus 11, the control unit 40 actually draws the first area 120 on the desk or the floor. Do not mean. For this reason, the control unit 40 can also provide a slightly larger error region 121 that is similar to the first region 120 outside the first region 120. As a result, when the error area 121 is provided in this way, the control unit 40 assumes that even if there is a portion that slightly protrudes from the first area 120 in the locus drawn by the user, this is within the error area 121. It is effectively used to generate trajectory data.

そして制御部40は、第2の領域を定義する定義情報を設定するときにも、図32について上述した場合と同様に、例えば予め選択用に用意している複数種類の形状の中からユーザに対し第2の領域の形状を任意に選択させることもできる。また制御部40は、図33について上述した場合と同様に、ユーザ対しマウスや音楽ロボット装置11を用いて机の上や床の上等で第2の領域を任意の大きさ及び形状に描かせて、そのとき描かれた軌跡をもとに第2の領域を定義する定義情報を設定することもできる。   And when setting the definition information that defines the second area, the control unit 40, as in the case described above with reference to FIG. 32, for example, allows the user to select from among a plurality of shapes prepared for selection in advance. On the other hand, the shape of the second region can be arbitrarily selected. Similarly to the case described above with reference to FIG. 33, the control unit 40 causes the user to draw the second area in an arbitrary size and shape on the desk or the floor using the mouse or the music robot device 11. In addition, definition information that defines the second region can be set based on the locus drawn at that time.

また制御部40は、ユーザに対し第1の領域の形状とは異なる形状の第2の領域に関する領域情報(すなわち、第2の領域の形状を示す)を入力させ、その領域情報に応じて定義情報を設定することもできる。そして図36(A)乃至(C)に示すように、制御部40は、第1及び第2の領域125及び126の形状が異なる場合、定義情報に基づいて軌跡データを加工するときに、ユーザにより描かれた軌跡127の各軌跡形成点の実座標(又は軌跡対応点の対応座標)と、第2の領域126の枠が位置する複数の座標とを比較する。これにより制御部40は、ユーザにより描かれた軌跡127を第2の領域に合わせると、当該軌跡127において第2の領域126の枠からはみ出す部分が存在するか否かを判別する。   In addition, the control unit 40 allows the user to input region information related to the second region having a shape different from the shape of the first region (that is, the shape of the second region), and defines according to the region information. Information can also be set. Then, as shown in FIGS. 36A to 36C, when the shapes of the first and second regions 125 and 126 are different, the control unit 40 uses the user when processing the trajectory data based on the definition information. The actual coordinates (or corresponding coordinates of the trajectory corresponding points) of each trajectory forming point of the trajectory 127 drawn by the above are compared with a plurality of coordinates where the frame of the second region 126 is located. Accordingly, when the locus 127 drawn by the user is matched with the second region, the control unit 40 determines whether or not there is a portion that protrudes from the frame of the second region 126 in the locus 127.

その結果、制御部40は、ユーザにより描かれた軌跡127を第2の領域に合わせると、当該軌跡127において第2の領域126の枠からはみ出す部分が存在するときには、その軌跡127において第2の領域126の枠からはみ出す部分を当該第2の領域126内に収めるように軌跡形成点の実座標(又は軌跡対応点の対応座標)を変更する。これにより制御部40は、第1及び第2の領域125及び126の形状が異なる場合でも、ユーザにより描かれた軌跡127を第2の領域126に対し的確に合わせた軌跡128となるように軌跡データを加工することができる。   As a result, when the control unit 40 matches the trajectory 127 drawn by the user to the second area, when there is a portion that protrudes from the frame of the second region 126 in the trajectory 127, the control unit 40 The actual coordinates of the trajectory forming point (or the corresponding coordinates of the trajectory corresponding point) are changed so that the portion that protrudes from the frame of the area 126 is accommodated in the second area 126. As a result, the control unit 40 makes the locus so that the locus 127 drawn by the user is accurately matched with the second region 126 even when the shapes of the first and second regions 125 and 126 are different. Data can be processed.

なお、この実施の形態の場合、パーソナルコンピュータ12の制御部40は、記憶部42から圧縮音楽データを読み出して再生処理しながら、その結果得られる音楽データを用いてロボット動きデータを自動的に生成して、これら音楽データとロボット動きデータとを音楽ロボット装置11に送信する際に、ユーザに対し入力部41又は音楽ロボット装置11を介して、このとき音楽に合わせて楕円体状筐体20を動かすことが可能な第2の領域に関する領域情報を入力させておくことができる。そして制御部40は、このようにユーザにより領域情報が入力されているときには、その領域情報に基づき第2の領域の枠が位置する複数の座標を含む定義情報を生成して設定しておく。   In the case of this embodiment, the control unit 40 of the personal computer 12 automatically generates robot motion data using the music data obtained as a result of reading and processing the compressed music data from the storage unit 42. Then, when transmitting the music data and the robot movement data to the music robot apparatus 11, the ellipsoidal casing 20 is set to the user via the input unit 41 or the music robot apparatus 11 at this time according to the music. Area information relating to the second area that can be moved can be input. When the area information is input by the user as described above, the control unit 40 generates and sets definition information including a plurality of coordinates where the frame of the second area is positioned based on the area information.

また制御部40は、このときユーザに対し入力部41を介して、第2の領域内で音楽に合わせて楕円体状筐体20が動き始めるときの位置も例えば第2の領域の中心のように入力させておく。図37に示すように、この状態で制御部40は、圧縮音楽データを再生処理しながら得られる音楽データを用いてロボット動きデータを生成すると、1つの曲調区間に右側車輪30及び左側車輪31の動きパターンデータを割り当てる毎に、その動きパターンデータと、当該動きパターンデータで楕円体状筐体20が動き始めるときの位置と、曲調区間の時間的長さと、車輪情報とに基づいて、当該動きパターンデータが示す動きパターンで楕円体状筐体20が実際に動く領域(以下、これを筐体動き領域と呼ぶ)130を検出する。   At this time, the control unit 40 also gives the user a position when the ellipsoidal housing 20 starts to move in time with the music in the second region via the input unit 41, for example, as the center of the second region. Let me input it. As shown in FIG. 37, in this state, when the control unit 40 generates robot motion data using music data obtained while reproducing compressed music data, the right wheel 30 and the left wheel 31 are included in one music tone section. Each time the movement pattern data is assigned, the movement pattern data, the position at which the ellipsoidal housing 20 starts to move with the movement pattern data, the time length of the tune section, and the wheel information are used. A region (hereinafter referred to as a “casing motion region”) 130 in which the ellipsoidal casing 20 actually moves is detected with the motion pattern indicated by the pattern data.

そして制御部40は、その筐体動き領域130と、第2の領域131の枠が位置する複数の座標とを比較し、その比較結果に基づき、楕円体状筐体20が第2の領域131の外側にはみ出すように動くか否かを判別する。その結果、制御部40は、楕円体状筐体20が第2の領域131の外側にはみ出さずに動くことを確認すると、次の曲調区間に対し動きパターンデータを割り当てる。これに対して制御部40は、楕円体状筐体20が第2の領域131の外側にはみ出して動くことを確認すると、そのとき右側車輪30及び左側車輪31の動きパターンデータを割り当てていた曲調区間に対し当該右側車輪30及び左側車輪31の他の動きパターンデータを割り当て直す。そして制御部40は、その割り当て直した動きパターンデータが示す動きパターンで筐体動き領域130を検出するようにして、再び楕円体状筐体20が第2の領域131の外側にはみ出すように動くか否かを判別する。   Then, the control unit 40 compares the casing movement area 130 with a plurality of coordinates where the frame of the second area 131 is located, and based on the comparison result, the ellipsoidal casing 20 has the second area 131. It is determined whether or not it moves so as to protrude outside. As a result, when the control unit 40 confirms that the ellipsoidal casing 20 moves without protruding outside the second region 131, the control unit 40 assigns motion pattern data to the next music tone section. On the other hand, when the control unit 40 confirms that the ellipsoidal casing 20 moves out of the second region 131, the tune tone to which the motion pattern data of the right wheel 30 and the left wheel 31 is assigned at that time. The other movement pattern data of the right wheel 30 and the left wheel 31 are reassigned to the section. Then, the control unit 40 detects the case movement region 130 with the movement pattern indicated by the reassigned movement pattern data, and again moves so that the ellipsoidal case 20 protrudes outside the second region 131. It is determined whether or not.

このようにして制御部40は、音楽ロボット装置11に送信するロボット動きデータを生成するとき、第2の領域131内で楕円体状筐体20を動かすことができるか否かを確認しながら、個々の曲調区間に右側車輪30及び左側車輪31の動きパターンデータを割り当てる。これにより制御部30は、ロボット動きデータを生成しながら音楽ロボット装置11に送信して動かすときに、ユーザにより指定された第2の領域131内で的確に楕円体状筐体20を動かすことができる。   In this way, when generating the robot motion data to be transmitted to the music robot apparatus 11, the control unit 40 confirms whether or not the ellipsoidal casing 20 can be moved within the second region 131. The movement pattern data of the right wheel 30 and the left wheel 31 is assigned to each music tone section. As a result, the control unit 30 can accurately move the ellipsoidal casing 20 within the second region 131 designated by the user when generating and transmitting the robot motion data to the music robot apparatus 11 and moving it. it can.

一方、音楽ロボット装置11において主制御部50は、ユーザにより入力部55を介して、記憶部57に記憶している複数の圧縮音楽データの中で当該音楽ロボット装置11全体を動かすときに再生する圧縮音楽データが選択されると、当該選択された圧縮音楽データ固有の識別情報を内部メモリ又は記憶部57に記憶する。これにより主制御部50は、ユーザにより選択された圧縮音楽データを、音楽ロボット装置11全体を動かすときに再生するものとして設定する。そして主制御部50は、ユーザにより入力部55を介して、例えば円形の第1の領域内で軌跡を描くように要求され、引き続き、床の上に置かれた音楽ロボット装置11の接触検知センサ33に例えばユーザの指が2回連続的に接触すると、その時点の中心点P1の真下の位置を原点に設定する。   On the other hand, in the music robot apparatus 11, the main control unit 50 reproduces when the user moves the music robot apparatus 11 as a whole among a plurality of compressed music data stored in the storage unit 57 via the input unit 55. When the compressed music data is selected, identification information unique to the selected compressed music data is stored in the internal memory or the storage unit 57. As a result, the main control unit 50 sets the compressed music data selected by the user to be reproduced when the entire music robot apparatus 11 is moved. Then, the main control unit 50 is requested by the user to draw a trajectory in, for example, a circular first area via the input unit 55, and subsequently, a contact detection sensor of the music robot apparatus 11 placed on the floor For example, when the user's finger touches 33 continuously twice, the position immediately below the center point P1 at that time is set as the origin.

この状態で主制御部50は、例えば再生設定音楽データを再生しながら(すなわち、再生設定音楽データに基づく音楽をユーザに聴かせながら)ユーザにより接触検知センサ33に指等が接触した状態で楕円体状筐体20が床の上で動かされると、加速度センサ56により検出された加速度を加速度検出信号として駆動制御部54を介して取り込む。また主制御部50は、楕円体状筐体20の動きに応じて駆動部52内の回転検出センサにより検出された右側車輪30及び左側車輪31に対応するモータの出力軸の回転(すなわち、回転方向及び回転角度)を回転検出信号として駆動制御部54を介して取り込む。   In this state, for example, the main control unit 50 reproduces the reproduction setting music data (that is, while listening to music based on the reproduction setting music data to the user) while the ellipse is in contact with the contact detection sensor 33 by the user. When the body casing 20 is moved on the floor, the acceleration detected by the acceleration sensor 56 is taken in via the drive control unit 54 as an acceleration detection signal. Further, the main control unit 50 rotates the output shafts of the motors corresponding to the right wheel 30 and the left wheel 31 detected by the rotation detection sensor in the driving unit 52 according to the movement of the ellipsoidal housing 20 (that is, the rotation). Direction and rotation angle) are taken in via the drive control unit 54 as a rotation detection signal.

そして主制御部50は、ユーザにより楕円体状筐体20が床の上で動かされている間、加速度検出信号及び回転検出信号と共に、記憶部57に予め記憶している車輪情報に基づきサンプリング間隔で、第1の領域内において楕円体状筐体20の中心点P1の順次変化する位置を示す軌跡形成点の実座標を検出するようにして、上述したパーソナルコンピュータ12の場合と同様に軌跡情報を生成する。また主制御部50は、その軌跡情報を用い上述したパーソナルコンピュータ12の場合と同様に、描画開始及び描画時間軸(又は描画開始及び変更描画時間軸)と再生開始及び再生時間軸とを自動的に合わせて、軌跡を形成する各軌跡形成点(すなわち、実座標)に再生時間情報を関連付けて軌跡データを生成する。   The main control unit 50 determines the sampling interval based on the wheel information stored in advance in the storage unit 57 together with the acceleration detection signal and the rotation detection signal while the ellipsoidal casing 20 is moved on the floor by the user. Thus, the trajectory information is detected in the same manner as in the case of the personal computer 12 described above, by detecting the actual coordinates of the trajectory forming point indicating the sequentially changing position of the center point P1 of the ellipsoidal casing 20 in the first region. Is generated. The main control unit 50 automatically uses the trajectory information to automatically set the drawing start and drawing time axis (or drawing start and changed drawing time axis) and the reproduction start and reproduction time axis as in the case of the personal computer 12 described above. Accordingly, the trajectory data is generated by associating the reproduction time information with each trajectory forming point (that is, the actual coordinate) forming the trajectory.

ここで主制御部50は、ユーザにより第2の領域に関する領域情報が入力されずに軌跡データの内容が確定されると、その軌跡データ(すなわち、ユーザにより描かれた軌跡を形成する各軌跡形成点の実座標、及び各軌跡形成点に関連付けた再生時間情報)と、車輪情報とに基づいて、ユーザにより描かれた軌跡に沿って楕円体状筐体20を動かすときの右側車輪30及び左側車輪31の動きデータを生成する。また主制御部50は、ユーザにより入力部55を介して例えば円形の第2の領域に関する領域情報として半径が入力されると、その半径をもとに第2の領域を定義する定義情報を生成し、これを設定する。そして主制御部50は、上述したパーソナルコンピュータ12の場合と同様に、第2の領域の定義情報に基づいて軌跡データを加工した後、当該加工した軌跡データと車輪情報とに基づき右側車輪30及び左側車輪31の動きデータを生成する。   Here, when the user confirms the content of the trajectory data without inputting the region information regarding the second region, the main control unit 50 forms the trajectory data (that is, forms each trajectory drawn by the user). The right wheel 30 and the left side when the ellipsoidal housing 20 is moved along the locus drawn by the user based on the actual coordinates of the points and the reproduction time information associated with each locus forming point) and the wheel information. The motion data of the wheel 31 is generated. Further, when a radius is input by the user via the input unit 55 as area information related to, for example, a circular second area, the main control unit 50 generates definition information that defines the second area based on the radius. And set this. Then, as in the case of the personal computer 12 described above, the main control unit 50 processes the trajectory data based on the definition information of the second area, and then based on the processed trajectory data and wheel information, the right wheel 30 and The movement data of the left wheel 31 is generated.

このようにして主制御部50は、ユーザにより描かれた軌跡をもとに第1又は第2の領域内で楕円体状筐体20を動かすための右側車輪30及び左側車輪31の動きデータを生成することができる。因みに主制御部50は、このとき他の可動部51の動きデータや発光部53の発光データについては上述と同様に自動的に生成する。そして主制御部50は、これら動きデータ及び発光データをまとめてロボット動きデータを得ると、これを再生設定音楽データと対応付けて記憶部57に記憶し、この後、再生設定音楽データを再生するときに、そのロボット動きデータを利用する。   In this way, the main control unit 50 obtains the movement data of the right wheel 30 and the left wheel 31 for moving the ellipsoidal housing 20 in the first or second region based on the locus drawn by the user. Can be generated. Incidentally, at this time, the main control unit 50 automatically generates the movement data of the other movable unit 51 and the light emission data of the light emitting unit 53 as described above. When the main control unit 50 obtains the robot motion data by combining the motion data and the light emission data, the main control unit 50 stores the data in the storage unit 57 in association with the playback setting music data, and then plays the playback setting music data. Sometimes the robot motion data is used.

ところで主制御部50は、軌跡データを生成したとき、ユーザの指示に応じて上述したパーソナルコンピュータ12の場合と同様に、軌跡の変極点の位置をビート位置に合わせるように軌跡データを加工することができる。また主制御部50は、第1の領域の直径を予め例えば30〔cm〕に設定しているものの、ユーザに対し第1の領域の半径を任意に入力させて当該第1の領域の大きさを任意に設定することができる。さらに主制御部50は、第1の領域の形状についても、例えば予め選択用に用意している複数種類の形状の中からユーザに対し任意に選択させて設定することもできる。さらに主制御部50は、ユーザ対し床の上で楕円体状筐体20を動かすようにして第1の領域を描かせて当該第1の領域を任意の大きさ及び形状に設定することもできる。   By the way, when generating the trajectory data, the main control unit 50 processes the trajectory data so that the position of the inflection point of the trajectory matches the beat position in the same manner as the personal computer 12 described above according to the user's instruction. Can do. Further, the main control unit 50 sets the diameter of the first region to 30 [cm] in advance, for example, and allows the user to arbitrarily input the radius of the first region, so that the size of the first region is set. Can be set arbitrarily. Furthermore, the main control unit 50 can also set the shape of the first region by allowing the user to arbitrarily select from a plurality of types of shapes prepared for selection in advance. Further, the main control unit 50 can set the first area to an arbitrary size and shape by drawing the first area by moving the ellipsoidal casing 20 on the floor to the user. .

さらに主制御部50は、軌跡を描く前には第1の領域を設定せずに、楕円体状筐体20を用いて軌跡が描かれ終わったときに、その軌跡を収めることができるような大きさ及び形状の第1の領域を任意に選定して設定することもできる。さらにまた主制御部50は、第1の領域の外側に当該第1の領域と相似形でわずかに大きい誤差領域を設けることもでき、これによりユーザにより描かれた軌跡において第1の領域からわずかにはみ出した部分が存在しても、これが誤差領域内であると、当該軌跡を軌跡データの生成に対し有効に利用している。   Further, the main control unit 50 does not set the first area before drawing the locus, and can store the locus when the locus is drawn using the ellipsoidal housing 20. The first region of size and shape can be arbitrarily selected and set. Furthermore, the main control unit 50 can also provide a slightly larger error area similar to the first area outside the first area, so that the trajectory drawn by the user is slightly different from the first area. Even if there is an overhanging portion, if it is within the error region, the locus is effectively used for the generation of locus data.

そして主制御部50は、第2の領域を定義する定義情報を設定するときにも、例えば予め選択用に用意している複数種類の形状の中からユーザに対し第2の領域の形状を任意に選択させることもできる。また主制御部50は、ユーザに対し楕円体状筐体20を用いて床の上で第2の領域を任意の大きさ及び形状に描かせて、そのとき描かれた軌跡をもとに第2の領域を定義する定義情報を設定することもできる。さらに主制御部50は、ユーザに対し第1の領域の形状とは異なる形状の第2の領域に関する領域情報(すなわち、第2の領域の形状を示す)を入力させ、その領域情報に応じて定義情報を設定することもできる。   When the definition information defining the second region is set, the main control unit 50 also arbitrarily sets the shape of the second region to the user from among a plurality of types prepared in advance for selection, for example. Can also be selected. In addition, the main control unit 50 causes the user to draw the second area in an arbitrary size and shape on the floor using the ellipsoidal housing 20, and based on the locus drawn at that time, Definition information defining two areas can also be set. Further, the main control unit 50 causes the user to input region information regarding the second region having a shape different from the shape of the first region (that is, the shape of the second region), and according to the region information Definition information can also be set.

そして主制御部50は、第1及び第2の領域の形状が異なると、上述したパーソナルコンピュータ12と同様に、軌跡データを加工するときにユーザにより描かれた軌跡の各軌跡形成点の実座標(又は軌跡対応点の対応座標)と、第2の領域の枠が位置する複数の座標とを比較するようにして、当該軌跡において第2の領域の枠からはみ出す部分が存在するときには、その軌跡において第2の領域の枠からはみ出す部分を当該第2の領域内に収めるように軌跡形成点の実座標(又は軌跡対応点の対応座標)を変更する。これにより主制御部50は、第1及び第2の領域の形状が異なる場合でも、ユーザにより描かれた軌跡を第2の領域に対し的確に合わせるように軌跡データを加工することができる。   If the shapes of the first and second regions are different, the main control unit 50, like the personal computer 12 described above, uses the actual coordinates of each trajectory forming point of the trajectory drawn by the user when processing the trajectory data. (Or the corresponding coordinates of the trajectory corresponding point) and a plurality of coordinates where the frame of the second region is located, and when there is a portion that protrudes from the frame of the second region in the trajectory, the trajectory The actual coordinates of the trajectory forming point (or the corresponding coordinates of the trajectory corresponding point) are changed so that the portion protruding from the frame of the second area is accommodated in the second area. Accordingly, the main control unit 50 can process the trajectory data so that the trajectory drawn by the user is accurately matched to the second region even when the shapes of the first and second regions are different.

さらに主制御部50は、上述したパーソナルコンピュータ12の場合と同様に、記憶部57に対し、軌跡の特徴毎に、その特徴に合う音楽の特徴を有する圧縮音楽データを登録したリストを記憶している。従って主制御部50は、再生設定音楽データを設定したうえでユーザに対し軌跡を描かせなくとも、先にユーザに対し軌跡を描かせ、当該描かれた軌跡の特徴を解析する。そして主制御部50は、軌跡の特徴の解析結果をもとに、記憶部57から当該軌跡の特徴に対応するリストを選択して読み出すと共に、そのリストの中から無作為に1つの圧縮音楽データを選択して、当該選択した圧縮音楽データを、ユーザにより描かれた軌跡に沿って楕円体状筐体20を動かすときに再生する再生設定音楽データに設定することもできる。   Further, as in the case of the personal computer 12 described above, the main control unit 50 stores, in the storage unit 57, a list in which compressed music data having music features matching the features is registered for each trajectory feature. Yes. Therefore, the main control unit 50 sets the reproduction setting music data and does not draw the locus for the user, but first draws the locus for the user, and analyzes the feature of the drawn locus. The main control unit 50 selects and reads out a list corresponding to the trajectory feature from the storage unit 57 based on the analysis result of the trajectory feature, and randomly selects one compressed music data from the list. And the selected compressed music data can be set as reproduction setting music data to be reproduced when the ellipsoidal housing 20 is moved along the locus drawn by the user.

さらにまた主制御部50は、記憶部57から圧縮音楽データを読み出して再生処理しながら、その結果得られる音楽データを用いてロボット動きデータを自動的に生成する際に、ユーザに対し入力部55を介して、このとき音楽に合わせて楕円体状筐体20を動かすことが可能な第2の領域に関する領域情報を入力させておくことができる。そして主制御部50は、上述したパーソナルコンピュータ12の場合と同様に、ユーザにより指定された第2の領域内で的確に楕円体状筐体20を動かすことができるか否かを確認しながら、ロボット動きデータを生成することもできる。   Furthermore, the main control unit 50 reads out the compressed music data from the storage unit 57 and performs playback processing, and automatically generates robot motion data using the resulting music data. In this case, it is possible to input the area information regarding the second area in which the ellipsoidal casing 20 can be moved according to the music. Then, as in the case of the personal computer 12 described above, the main control unit 50 confirms whether or not the ellipsoidal casing 20 can be accurately moved within the second region designated by the user. Robot motion data can also be generated.

次いで、図38乃至図40に示すフローチャートを用いて、パーソナルコンピュータ12の制御部40が、ユーザにより入力部41を介してロボット動きデータを自動で生成するように要求する要求命令が入力されたときに、同時並行で実行する音楽データの分析処理における第1のビート検出処理手順RT1及び第1の特徴解析処理手順RT2と、第1の動きデータ生成処理手順RT3とについて説明する。   Next, using the flowcharts shown in FIGS. 38 to 40, when the control unit 40 of the personal computer 12 receives a request command for requesting the robot motion data to be automatically generated via the input unit 41 by the user. First, the first beat detection processing procedure RT1 and the first feature analysis processing procedure RT2 and the first motion data generation processing procedure RT3 in the music data analysis processing executed in parallel will be described.

制御部40は、ユーザにより入力部41を介してロボット動きデータを自動で生成するように要求する要求命令が入力されると、動きデータ生成プログラムに従って図38に示す第1のビート検出処理手順RT1を開始する。制御部40は、かかる第1のビート検出処理手順RT1を開始すると、ステップSP1において、音楽データの順次単位処理部分から所定周波数帯域毎のエネルギーを抽出すると共に、当該抽出した各周波数帯域のエネルギーの総和に基づいて当該音楽データに対するビート位置を検出して、次のステップSP2に移る。   When a request command for requesting to automatically generate robot motion data is input via the input unit 41 by the user, the control unit 40 receives the first beat detection processing procedure RT1 shown in FIG. 38 according to the motion data generation program. To start. When the control unit 40 starts the first beat detection processing procedure RT1, in step SP1, the control unit 40 extracts energy for each predetermined frequency band from the sequential unit processing portion of the music data, and the energy of each extracted frequency band. The beat position for the music data is detected based on the sum, and the process proceeds to the next step SP2.

ステップSP2において制御部40は、音楽データにおいて所定数のビート位置を検出したか否かを判別する。このステップSP2において否定結果が得られると、このことは音楽データにおいて曲調区間を特定するための所定数のビート位置を未だ検出してはいないことを表している。従って制御部40は、かかる否定結果を得ると、ステップSP1に戻る。これにより制御部40は、この後、ステップSP2において肯定結果を得るまでの間、ステップSP1及びステップSP2の処理を循環的に繰り返し実行する。従って制御部40は、音楽データにおいてその先頭から順次ビート位置を検出する。   In step SP2, the control unit 40 determines whether or not a predetermined number of beat positions have been detected in the music data. If a negative result is obtained in step SP2, this means that a predetermined number of beat positions for specifying the music interval in the music data have not yet been detected. Accordingly, when the control unit 40 obtains such a negative result, it returns to step SP1. Thus, the control unit 40 thereafter repeatedly executes the processing of step SP1 and step SP2 cyclically until a positive result is obtained in step SP2. Therefore, the control unit 40 sequentially detects beat positions from the head in the music data.

そしてステップSP2において肯定結果が得られると、このことは音楽データにおいて曲調区間を特定するための所定数のビート位置を検出したことを表している。従って制御部40は、かかる肯定結果を得ると、ビート位置の検出数を一旦リセットして、音楽データにおいて次の曲調区間分のビート位置を検出し得るようにした後、次のステップSP3に移る。ステップSP3において制御部40は、音楽データ内で所定数のビート位置に基づいて1つの曲調区間を特定して、次のステップSP4に移る。   If an affirmative result is obtained in step SP2, this indicates that a predetermined number of beat positions for specifying the music interval are detected in the music data. Therefore, when the control unit 40 obtains such a positive result, the number of beat position detections is temporarily reset so that the beat position for the next music tone interval can be detected in the music data, and then the process proceeds to the next step SP3. . In step SP3, the control unit 40 identifies one music interval based on a predetermined number of beat positions in the music data, and proceeds to the next step SP4.

ステップSP4において制御部40は、音楽データ全体に渡る曲調区間の特定が完了したか否かを判別する。このステップSP4において否定結果が得られると、このことは音楽データの途中までしか曲調区間を特定してはいないことを表している。従って制御部40は、かかる否定結果を得ると、ステップSP1に戻る。これにより制御部40は、この後、ステップSP4において肯定結果を得るまでの間、ステップSP1乃至ステップSP4の処理を循環的に繰り返し実行する。従って制御部40は、音楽データの先頭から順次ビート位置を検出しながら曲調区間を特定する。そしてステップSP4において肯定結果が得られると、このことは音楽データ全体に渡り複数の曲調区間を特定し終えたことを表している。従って制御部40は、かかる肯定結果を得ると、次のステップSP5に移り、第1のビート検出処理手順RT1を終了する。   In step SP4, the control unit 40 determines whether or not the specification of the tune section over the entire music data has been completed. If a negative result is obtained in step SP4, this indicates that the tune section has only been specified halfway through the music data. Accordingly, when the control unit 40 obtains such a negative result, it returns to step SP1. As a result, the control unit 40 thereafter repeatedly executes the processing from step SP1 to step SP4 cyclically until a positive result is obtained in step SP4. Therefore, the control unit 40 identifies the music interval while sequentially detecting the beat position from the beginning of the music data. If an affirmative result is obtained in step SP4, this indicates that a plurality of music tone sections have been specified over the entire music data. Accordingly, when the control unit 40 obtains such a positive result, the control unit 40 proceeds to the next step SP5, and ends the first beat detection processing procedure RT1.

また制御部40は、ユーザにより入力部41を介してロボット動きデータを自動で生成するように要求する要求命令が入力されたとき、動きデータ生成プログラムに従って図39に示す第1の特徴解析処理手順RT2も開始する。制御部40は、かかる第1の特徴解析処理手順RT2を開始すると、ステップSP11において、音楽データの順次単位処理部分から12音階それぞれに相当する周波数帯域毎のエネルギーを抽出しながら、ビート検出処理により音楽データ内で1つの曲調区間を特定することを待ち受ける。そして制御部40は、ビート検出処理により音楽データ内で1つの曲調区間を特定すると、次のステップSP12に移る。   Further, when a request command for requesting to automatically generate robot motion data is input via the input unit 41 by the user, the control unit 40 performs the first feature analysis processing procedure shown in FIG. 39 according to the motion data generation program. RT2 is also started. When the control unit 40 starts the first feature analysis processing procedure RT2, in step SP11, the control unit 40 extracts energy for each frequency band corresponding to each of 12 scales from the sequential unit processing portion of the music data, and performs beat detection processing. It waits to specify one music interval in the music data. When the control unit 40 identifies one music interval in the music data by the beat detection process, the control unit 40 proceeds to the next step SP12.

ステップSP12において制御部40は、音楽データの1つの曲調区間で抽出した12音階それぞれに相当する周波数帯域毎のエネルギーをもとにして区間情報を検出すると共に、当該検出した区間情報をもとに区間特徴を解析して、次のステップSP13に移る。ステップSP13において制御部40は、音楽データの全ての曲調区間について区間特徴を解析し終えたか否かを判別する。このステップSP13において否定結果が得られると、このことは音楽データの途中の曲調区間までしか区間特徴を解析してはいないことを表している。従って制御部40は、かかる否定結果を得ると、ステップSP11に戻る。これにより制御部40は、この後、ステップSP13において肯定結果を得るまでの間、ステップSP11乃至ステップSP13の処理を循環的に繰り返し実行する。従って制御部40は、音楽データの先頭から順次特定した曲調区間の区間特徴を解析する。   In step SP12, the control unit 40 detects section information based on the energy for each frequency band corresponding to each of the twelve scales extracted in one music section of the music data, and based on the detected section information. The section feature is analyzed, and the process proceeds to the next step SP13. In step SP13, the control unit 40 determines whether or not the section characteristics have been analyzed for all music sections of the music data. If a negative result is obtained in step SP13, this indicates that the section feature has been analyzed only up to the music section in the middle of the music data. Therefore, if the control unit 40 obtains such a negative result, it returns to step SP11. Thus, the control unit 40 thereafter repeatedly executes the processing from step SP11 to step SP13 in a cyclic manner until a positive result is obtained in step SP13. Therefore, the control unit 40 analyzes the section characteristics of the tune sections that are sequentially specified from the beginning of the music data.

そしてステップSP13において肯定結果が得られると、このことは音楽データ全体に渡り複数の曲調区間を特定して、これら複数の曲調区間の区間特徴を解析し終えたことを表している。従って制御部40は、かかる肯定結果を得ると、次のステップSP14に移り、第1の特徴解析処理手順RT2を終了する。   If an affirmative result is obtained in step SP13, this indicates that a plurality of music intervals are specified over the entire music data, and the section characteristics of the plurality of music intervals have been analyzed. Accordingly, when the control unit 40 obtains such a positive result, the control unit 40 proceeds to the next step SP14 and ends the first feature analysis processing procedure RT2.

さらに制御部40は、ユーザにより入力部41を介してロボット動きデータを自動で生成するように要求する要求命令が入力されたときには、動きデータ生成プログラムに従って図40に示す第1の動きデータ生成処理手順RT3を開始する。制御部40は、かかる第1の動きデータ生成処理手順RT3を開始すると、ステップSP21において音楽データ内で1つの曲調区間を特定し、かつその曲調区間の区間特徴を解析することを待ち受ける。そして制御部40は、音楽データ内で1つの曲調区間を特定し、かつその曲調区間の区間特徴を解析すると、次のステップSP22に移る。   Furthermore, when a request command for requesting automatic generation of robot motion data is input via the input unit 41 by the user, the control unit 40 performs the first motion data generation process shown in FIG. 40 according to the motion data generation program. Procedure RT3 is started. When the first motion data generation processing procedure RT3 is started, the control unit 40 waits to identify one music section in the music data and analyze the section feature of the music section in step SP21. When the control unit 40 identifies one musical interval in the music data and analyzes the characteristic of the musical interval, the control unit 40 proceeds to the next step SP22.

ステップSP22において制御部40は、音楽データ内で特定した1つの曲調区間に対し、その区間特徴に基づいて可動部51の動きパターンデータ(又は動き停止パターンデータ)を割り当てると共に、発光部53の発光パターンデータ(又は発光停止パターンデータ)を割り当てて、次のステップSP23に移る。ステップSP23において制御部40は、音楽データの全ての曲調区間に対し動きパターンデータ(又は動き停止パターンデータ)及び発光パターンデータ(又は発光停止パターンデータ)を割り当て終えたか否かを判別する。   In step SP22, the control unit 40 assigns the motion pattern data (or motion stop pattern data) of the movable unit 51 to one musical tone section specified in the music data based on the section characteristics, and emits light from the light emitting unit 53. Pattern data (or light emission stop pattern data) is assigned, and the process proceeds to the next step SP23. In step SP23, the control unit 40 determines whether or not the movement pattern data (or movement stop pattern data) and the light emission pattern data (or light emission stop pattern data) have been assigned to all the music tone intervals of the music data.

このステップSP23において否定結果が得られると、このことは未だ音楽データの途中の曲調区間までしか可動部51の動きパターンデータ(又は動き停止パターンデータ)及び発光部53の発光パターンデータ(又は発光停止パターンデータ)を割り当ててはいないことを表している。従って制御部40は、かかる否定結果を得ると、ステップSP21に戻る。これにより制御部40は、この後、ステップSP23において肯定結果を得るまでの間、ステップSP21乃至ステップSP23の処理を循環的に繰り返し実行する。従って制御部40は、音楽データの先頭から順次曲調区間に可動部51の動きパターンデータ(又は動き停止パターンデータ)及び発光部53の発光パターンデータ(又は発光停止パターンデータ)を割り当てる。   If a negative result is obtained in this step SP23, this means that the motion pattern data (or motion stop pattern data) of the movable portion 51 and the light emission pattern data (or light emission stop) of the light emitting portion 53 are still only up to the middle tone section of the music data. Pattern data) is not assigned. Accordingly, when the control unit 40 obtains such a negative result, the control unit 40 returns to step SP21. As a result, the control unit 40 then repeatedly executes the processing from step SP21 to step SP23 cyclically until a positive result is obtained in step SP23. Therefore, the control unit 40 sequentially assigns the motion pattern data (or motion stop pattern data) of the movable unit 51 and the light emission pattern data (or light emission stop pattern data) of the light emitting unit 53 to the music interval from the beginning of the music data.

そしてステップSP23において肯定結果が得られると、このことは音楽データ全体の複数の曲調区間に対し、それぞれ可動部51の動きパターンデータ(又は動き停止パターンデータ)及び発光部53の発光パターンデータ(又は発光停止パターンデータ)を割り当て終えたことを表している。従って制御部40は、かかる肯定結果を得ると、次のステップSP24に移る。そしてステップSP24において制御部40は、音楽データの全ての曲調区間に割り当てた動きパターンデータ(又は動き停止パターンデータ)及び発光パターンデータ(又は発光停止パターンデータ)をまとめてロボット動きデータを生成して、次のステップSP25に移り、第1の動きデータ生成処理手順RT3を終了する。   If an affirmative result is obtained in step SP23, this means that the motion pattern data (or motion stop pattern data) of the movable part 51 and the light emission pattern data (or light emission part 53) of the light emitting part 53 are respectively obtained for a plurality of musical tone intervals of the entire music data. (Light emission stop pattern data) has been assigned. Accordingly, when the control unit 40 obtains such a positive result, the control unit 40 proceeds to next step SP24. In step SP24, the control unit 40 generates the robot motion data by combining the motion pattern data (or motion stop pattern data) and the light emission pattern data (or light emission stop pattern data) assigned to all the musical tone intervals of the music data. Then, the process proceeds to the next step SP25, and the first motion data generation processing procedure RT3 is terminated.

次いで図41に示すフローチャートを用いて、パーソナルコンピュータ12の制御部40が、ユーザにより第1の領域内で軌跡を描くように要求する要求命令が入力されたときに実行する第2の動きデータ生成処理手順RT4について説明する。   Next, using the flowchart shown in FIG. 41, the control unit 40 of the personal computer 12 generates the second motion data to be executed when a request command requesting that the user draw a locus in the first region is input. The processing procedure RT4 will be described.

制御部40は、ユーザにより第1の領域内で軌跡を描くように要求する要求命令が入力されると、動きデータ生成プログラムに従って図41に示す第2の動きデータ生成処理手順RT4を開始する。制御部40は、かかる第2の動きデータ生成処理手順RT4を開始すると、ステップSP31において、ユーザによりマウス又は音楽ロボット装置11を用いて第1の領域内で軌跡が描かれることを待ち受ける。そして制御部40は、ユーザにより第1の領域内で軌跡が描かれると、その軌跡を示す軌跡情報を生成して、次のステップSP32に移る。   When the user inputs a request command requesting to draw a trajectory in the first region, the control unit 40 starts the second motion data generation processing procedure RT4 shown in FIG. 41 according to the motion data generation program. When the second motion data generation processing procedure RT4 is started, the control unit 40 waits for a trajectory to be drawn in the first region by the user using the mouse or the music robot device 11 in step SP31. And if a locus is drawn in the 1st field by the user, control part 40 will generate locus information which shows the locus, and will move to the following step SP32.

ステップSP32において制御部40は、ユーザにより描かれた軌跡の描画開始及び描画時間軸(又は描画開始及び変更描画時間軸)と、再生設定音楽データの再生開始及び再生時間軸とを合わせて、当該軌跡を生成する各軌跡形成点に対し再生設定音楽データの再生時間情報を関連付けて軌跡データを生成し、次のステップSP33に移る。   In step SP32, the control unit 40 combines the drawing start and drawing time axis (or drawing start and change drawing time axis) of the locus drawn by the user with the reproduction start music data reproduction start and reproduction time axis. The locus data is generated by associating the reproduction time information of the reproduction setting music data with each locus forming point for generating the locus, and the process proceeds to the next step SP33.

ステップSP33において制御部40は、第2の領域を定義するか否かを判別する。このステップSP33において肯定結果が得られると、このことはユーザにより、再生設定音楽データの再生に合わせて楕円体状筐体20を第1の領域とは異なる第2の領域で動かすように要求されたことを表している。従って制御部40は、かかる肯定結果を得ると、次のステップSP34に移る。   In step SP33, the control unit 40 determines whether or not the second area is defined. If an affirmative result is obtained in this step SP33, this is requested by the user to move the ellipsoidal housing 20 in a second area different from the first area in accordance with the reproduction of the reproduction setting music data. It represents that. Therefore, when the control unit 40 obtains such a positive result, the control unit 40 proceeds to next step SP34.

ステップSP34において制御部40は、第2の領域を定義する定義情報を設定すると共に、その定義情報を用いて、ユーザにより第1の領域内で描かれた軌跡を第2の領域に合わせるように軌跡データを加工して、次のステップSP35に移る。ステップSP35において制御部40は、加工した軌跡データと共に車輪情報を用いて、第2の領域に合わせた軌跡に沿って楕円体状筐体20を動かすための右側車輪30及び左側車輪31の動きデータを生成して、次のステップSP36に移る。   In step SP34, the control unit 40 sets definition information that defines the second area, and uses the definition information to match the locus drawn by the user in the first area with the second area. The trajectory data is processed, and the process proceeds to the next step SP35. In step SP35, the control unit 40 uses the wheel information together with the processed trajectory data, and the movement data of the right wheel 30 and the left wheel 31 for moving the ellipsoidal housing 20 along the trajectory matched to the second region. And moves to the next step SP36.

ステップSP36において制御部40は、右側車輪30及び左側車輪31の動きデータを、このとき手動又は半自動的に生成していた他の可動部51の動きデータ及び発光部53の発光データをまとめてロボット動きデータを生成して、次のステップSP37に移り、第2の動きデータ生成処理手順RT4を終了する。ところで上述したステップSP33において否定結果が得られると、このことはユーザにより、再生設定音楽データの再生に合わせて楕円体状筐体20を第1の領域で動かすように要求されたことを表している。   In step SP36, the control unit 40 collects the movement data of the right wheel 30 and the left wheel 31 together with the movement data of the other movable unit 51 and the light emission data of the light emitting unit 53 that have been generated manually or semi-automatically at this time. The motion data is generated, the process proceeds to the next step SP37, and the second motion data generation processing procedure RT4 is terminated. By the way, if a negative result is obtained in step SP33 described above, this indicates that the user has requested to move the ellipsoidal casing 20 in the first area in accordance with the reproduction of the reproduction setting music data. Yes.

従って制御部40は、かかる肯定結果を得ると、ステップSP35に移る。このときステップSP35において制御部40は、第1の領域内で描かれた軌跡を示す軌跡データと共に車輪情報を用いて、第1の領域内の軌跡に沿って楕円体状筐体20を動かすための右側車輪30及び左側車輪31の動きデータを生成して、次のステップSP36に移る。   Accordingly, when the control unit 40 obtains such a positive result, the control unit 40 proceeds to step SP35. At this time, in step SP35, the control unit 40 uses the wheel information together with the trajectory data indicating the trajectory drawn in the first area to move the ellipsoidal casing 20 along the trajectory in the first area. The movement data of the right wheel 30 and the left wheel 31 is generated, and the process proceeds to the next step SP36.

次いで、図42乃至図44に示すフローチャートを用いて、音楽ロボット装置11の主制御部50が、記憶部57から圧縮音楽データを読み出したときに、自動的に同時並行で実行する音楽データの分析処理における第2のビート検出処理手順RT5及び第2の特徴解析処理手順RT6と、第3の動きデータ生成処理手順RT7について説明する。   Next, using the flowcharts shown in FIGS. 42 to 44, when the main control unit 50 of the music robot apparatus 11 reads out the compressed music data from the storage unit 57, the music data is automatically and simultaneously analyzed. The second beat detection processing procedure RT5, the second feature analysis processing procedure RT6, and the third motion data generation processing procedure RT7 in the processing will be described.

主制御部50は、記憶部57から読み出した圧縮音楽データの再生処理を開始すると、これに応じて動きデータ生成プログラムに従って図42に示す第2のビート検出処理手順RT5を開始する。主制御部50は、かかる第2のビート検出処理手順RT5を開始すると、ステップSP41において、音楽データの所定の単位処理部分毎に音量レベルを検出し、その検出結果に基づき音楽データのビート位置を検出して、次のステップSP42に移る。ステップSP42において主制御部50は、音楽データに対し所定数のビート位置を検出したか否かを判別する。このステップSP42において否定結果が得られると、このことは音楽データにおいて曲調区間を特定するための所定数のビート位置を未だ検出してはいないことを表している。   When the main control unit 50 starts the reproduction processing of the compressed music data read from the storage unit 57, the main control unit 50 starts the second beat detection processing procedure RT5 shown in FIG. 42 according to the motion data generation program accordingly. When starting the second beat detection processing procedure RT5, the main control unit 50 detects the volume level for each predetermined unit processing portion of the music data in step SP41, and determines the beat position of the music data based on the detection result. Detect and move to next step SP42. In step SP42, the main control unit 50 determines whether or not a predetermined number of beat positions have been detected for the music data. If a negative result is obtained in this step SP42, this indicates that a predetermined number of beat positions for specifying the music interval in the music data have not yet been detected.

従って主制御部50は、かかる否定結果を得ると、ステップSP41に戻る。これにより主制御部50は、この後、ステップSP42において肯定結果を得るまでの間、ステップSP41及びステップSP42の処理を循環的に繰り返し実行する。従って主制御部50は、音楽データにおいてその先頭から順次ビート位置を検出する。   Therefore, if the main control unit 50 obtains such a negative result, it returns to step SP41. As a result, the main control unit 50 then repeatedly executes the processing of step SP41 and step SP42 cyclically until a positive result is obtained in step SP42. Accordingly, the main control unit 50 detects beat positions sequentially from the beginning of the music data.

そしてステップSP42において肯定結果が得られると、このことは音楽データにおいて曲調区間を特定するための所定数のビート位置を検出したことを表している。従って主制御部50は、かかる肯定結果を得ると、ビート位置の検出数を一旦リセットして、音楽データにおいて次の曲調区間分のビート位置を検出し得るようにした後、次のステップSP43に移る。ステップSP43において主制御部50は、音楽データ内で所定数のビート位置に基づいて1つの曲調区間を特定して、次のステップSP44に移る。ステップSP44において主制御部50は、音楽データ全体に渡る曲調区間の特定が完了したか否かを判別する。このステップSP44において否定結果が得られると、このことは音楽データの途中までしか曲調区間を特定してはいないことを表している。   If an affirmative result is obtained in step SP42, this indicates that a predetermined number of beat positions for specifying the music interval are detected in the music data. Accordingly, when the main control unit 50 obtains such a positive result, the main control unit 50 once resets the number of beat position detections so that the beat position for the next music tone interval can be detected in the music data, and then proceeds to the next step SP43. Move. In step SP43, the main control unit 50 specifies one music interval based on a predetermined number of beat positions in the music data, and proceeds to the next step SP44. In step SP44, the main control unit 50 determines whether or not the specification of the music tone section over the entire music data has been completed. If a negative result is obtained in this step SP44, this indicates that the tune section has only been specified halfway through the music data.

従って主制御部50は、かかる否定結果を得ると、ステップSP41に戻る。これにより主制御部50は、この後、ステップSP44において肯定結果を得るまでの間、ステップSP41乃至ステップSP44の処理を循環的に繰り返し実行する。従って主制御部50は、音楽データの先頭から順次ビート位置を検出しながら曲調区間を特定する。そしてステップSP44において肯定結果が得られると、このことは音楽データ全体に渡り複数の曲調区間を特定し終えたことを表している。従って主制御部50は、かかる肯定結果を得ると、次のステップSP45に移り、第2のビート検出処理手順RT5を終了する。   Therefore, if the main control unit 50 obtains such a negative result, it returns to step SP41. As a result, the main control unit 50 thereafter repeatedly executes the processing from step SP41 to step SP44 cyclically until a positive result is obtained in step SP44. Therefore, the main control unit 50 identifies the music interval while sequentially detecting the beat position from the beginning of the music data. If an affirmative result is obtained in step SP44, this indicates that a plurality of music tone sections have been specified over the entire music data. Accordingly, when the main control unit 50 obtains such a positive result, the main control unit 50 proceeds to the next step SP45 and ends the second beat detection processing procedure RT5.

また主制御部50は、記憶部57から読み出した圧縮音楽データの再生処理を開始すると、動きデータ生成プログラムに従って図43に示す第2の特徴解析処理手順RT6も開始する。主制御部50は、かかる第2の特徴解析処理手順RT6を開始すると、ステップSP51において、ビート検出処理により音楽データ内で1つの曲調区間を特定することを待ち受ける。そして主制御部50は、ビート検出処理により音楽データ内で1つの曲調区間を特定すると、次のステップSP52に移る。ステップSP52において主制御部50は、1つの曲調区間内で複数回検出した音量レベルに基づき当該1つの曲調区間について区間特徴を解析して、次のステップSP53に移る。   When the main control unit 50 starts the reproduction process of the compressed music data read from the storage unit 57, the main control unit 50 also starts the second feature analysis processing procedure RT6 shown in FIG. 43 in accordance with the motion data generation program. When starting the second feature analysis processing procedure RT6, the main control unit 50 waits for identification of one music interval in the music data by beat detection processing in step SP51. When the main control unit 50 specifies one music interval in the music data by the beat detection process, the main control unit 50 proceeds to the next step SP52. In step SP52, the main control unit 50 analyzes the section characteristics of the one music section based on the volume level detected a plurality of times in one music section, and proceeds to the next step SP53.

ステップSP53において主制御部50は、音楽データの全ての曲調区間について区間特徴を解析し終えたか否かを判別する。このステップSP53において否定結果が得られると、このことは音楽データの途中の曲調区間までしか区間特徴を解析してはいないことを表している。従って主制御部50は、かかる否定結果を得ると、ステップSP51に戻る。これにより主制御部50は、この後、ステップSP53において肯定結果を得るまでの間、ステップSP51乃至ステップSP53の処理を循環的に繰り返し実行する。従って主制御部50は、音楽データの先頭から順次特定した曲調区間の区間特徴を解析する。   In step SP53, the main control unit 50 determines whether or not the section characteristics have been analyzed for all music sections of the music data. If a negative result is obtained in step SP53, this indicates that the section feature has been analyzed only up to the music section in the middle of the music data. Therefore, if the main control unit 50 obtains such a negative result, it returns to step SP51. As a result, the main control unit 50 thereafter repeatedly executes the processing from step SP51 to step SP53 cyclically until a positive result is obtained in step SP53. Therefore, the main control unit 50 analyzes the section characteristics of the tune sections that are sequentially specified from the beginning of the music data.

そしてステップSP53において肯定結果が得られると、このことは音楽データ全体に渡り複数の曲調区間を特定して、これら複数の曲調区間の区間特徴を解析し終えたことを表している。従って主制御部50は、かかる肯定結果を得ると、次のステップSP54に移り、第2の特徴解析処理手順RT6を終了する。   If an affirmative result is obtained in step SP53, this indicates that a plurality of music intervals are specified over the entire music data, and the section characteristics of the plurality of music intervals have been analyzed. Accordingly, when the main control unit 50 obtains such a positive result, the main control unit 50 proceeds to the next step SP54 and ends the second feature analysis processing procedure RT6.

さらに主制御部50は、記憶部57から読み出した圧縮音楽データの再生処理を開始すると、動きデータ生成プログラムに従って図44に示す第3の動きデータ生成処理手順RT7を開始する。主制御部50は、かかる第3の動きデータ生成処理手順RT7を開始すると、ステップSP61において音楽データ内で1つの曲調区間を特定し、かつその曲調区間の区間特徴を解析することを待ち受ける。そして主制御部50は、音楽データ内で1つの曲調区間を特定し、かつその曲調区間の区間特徴を解析すると、次のステップSP62に移る。   Further, when starting the reproduction processing of the compressed music data read from the storage unit 57, the main control unit 50 starts the third motion data generation processing procedure RT7 shown in FIG. 44 according to the motion data generation program. When starting the third motion data generation processing procedure RT7, the main control unit 50 waits to identify one music interval in the music data and analyze the section characteristics of the music interval in step SP61. When the main control unit 50 identifies one musical interval in the music data and analyzes the characteristic of the musical interval, the main control unit 50 proceeds to the next step SP62.

ステップSP62において主制御部50は、音楽データ内で特定した1つの曲調区間に対し、その区間特徴に基づいて可動部51の動きパターンデータを割り当てると共に、発光部53の発光パターンデータを割り当てる。そして主制御部50は、1つの曲調区間に割り当てた動きパターンデータ及び発光パターンデータをまとめてロボット動きデータを生成して、次のステップSP63に移る。   In step SP62, the main control unit 50 assigns the motion pattern data of the movable unit 51 and the light emission pattern data of the light emitting unit 53 to one music tone section specified in the music data based on the section characteristics. Then, the main control unit 50 generates the robot motion data by combining the motion pattern data and the light emission pattern data assigned to one music tone section, and proceeds to the next step SP63.

ステップSP63において主制御部50は、音楽データの全ての曲調区間に対応するロボット動きデータを生成したか否かを判別する。このステップSP63において否定結果が得られると、このことは音楽データの途中の曲調区間に対応するロボット動きデータまでしか生成してはいないことを表している。従って主制御部50は、かかる否定結果を得ると、ステップSP61に戻る。これにより主制御部50は、この後、ステップSP63において肯定結果を得るまでの間、ステップSP61乃至ステップSP63の処理を循環的に繰り返し実行する。従って主制御部50は、音楽データの先頭から後尾までの複数の曲調区間に対応するロボット動きデータを順次生成する。   In step SP63, the main control unit 50 determines whether or not the robot motion data corresponding to all the music tone sections of the music data has been generated. If a negative result is obtained in this step SP63, this indicates that only robot motion data corresponding to a music tone section in the middle of the music data has been generated. Therefore, when the main control unit 50 obtains such a negative result, the main control unit 50 returns to step SP61. As a result, the main control unit 50 thereafter repeatedly executes the processing from step SP61 to step SP63 cyclically until a positive result is obtained in step SP63. Accordingly, the main control unit 50 sequentially generates robot motion data corresponding to a plurality of musical tone intervals from the head to the tail of the music data.

そしてステップSP63において肯定結果が得られると、このことは音楽データ全体の複数の曲調区間に対応するロボット動きデータを生成し終えたことを表している。従って主制御部50は、かかる肯定結果を得ると、次のステップSP64に移り、第3の動きデータ生成処理手順RT7を終了する。   If an affirmative result is obtained in step SP63, this means that generation of robot motion data corresponding to a plurality of music tone sections of the entire music data has been completed. Therefore, when the main control unit 50 obtains such a positive result, the main control unit 50 proceeds to the next step SP64 and ends the third motion data generation processing procedure RT7.

また主制御部50は、ユーザにより第1の領域内で軌跡を描くように要求されたとき、動きデータ生成プログラムに従って第4の動きデータ生成処理手順を実行する。この場合、主制御部50は、ユーザが楕円体状筐体20を動かして軌跡を描く点と、その軌跡を利用して右側車輪30及び左側車輪31の動きデータを生成するものの、他の可動部51の動きデータや発光部53の発光データを自動的に生成している点とを除いて、基本的にはパーソナルコンピュータ12の制御部40が実行する上述した第2の動きデータ生成処理手順RT4と同じ処理を実行している。   Further, when requested by the user to draw a trajectory in the first region, the main control unit 50 executes the fourth motion data generation processing procedure according to the motion data generation program. In this case, the main control unit 50 generates the movement data of the right wheel 30 and the left wheel 31 by using the locus by drawing the locus by moving the ellipsoidal housing 20 by the user. The above-described second motion data generation processing procedure basically executed by the control unit 40 of the personal computer 12 except that the motion data of the unit 51 and the light emission data of the light emitting unit 53 are automatically generated. The same processing as RT4 is executed.

(3)実施の形態による動作及び効果
以上の構成において、パーソナルコンピュータ12の制御部40は、ユーザによりマウス又は音楽ロボット装置11を用いて第1の領域内で楕円体状筐体20を動かすときにたどらせる軌跡が描かれると、その第1の領域内で当該軌跡を形成する複数の軌跡形成点が位置する実座標を検出する。そして制御部40は、かかる軌跡の複数の軌跡形成点に対し、楕円体状筐体20を動かすときに再生するように設定した再生設定音楽データの再生時間情報を関連付けて軌跡データを生成する。従ってパーソナルコンピュータ12の制御部40は、楕円体状筐体20を動かすための所望の軌跡を示し、かつ再生設定音楽データの再生に同期して楕円体状筐体20を動かすための軌跡データを容易に生成することができる。
(3) Operations and Effects According to Embodiments In the above configuration, when the control unit 40 of the personal computer 12 moves the ellipsoidal casing 20 within the first region by using the mouse or the music robot device 11 by the user. When a trajectory to be traced is drawn, real coordinates where a plurality of trajectory forming points forming the trajectory are located in the first region are detected. Then, the control unit 40 generates locus data by associating the reproduction time information of the reproduction setting music data set to be reproduced when the ellipsoidal housing 20 is moved with respect to the plurality of locus forming points of the locus. Therefore, the control unit 40 of the personal computer 12 shows a desired trajectory for moving the ellipsoidal casing 20 and also displays trajectory data for moving the ellipsoidal casing 20 in synchronization with the reproduction of the reproduction setting music data. It can be easily generated.

また音楽ロボット装置11の主制御部50も、ユーザにより楕円体状筐体20を用いて第1の領域内で当該楕円体状筐体20を動かすときにたどらせる軌跡が描かれると、その第1の領域内で当該軌跡を形成する複数の軌跡形成点が位置する実座標を検出する。そして主制御部50は、かかる軌跡の複数の軌跡形成点に対し、楕円体状筐体20を動かすときに再生するように設定した再生設定音楽データの再生時間情報を関連付けて軌跡データを生成する。従って音楽ロボット装置11の主制御部50も、楕円体状筐体20を動かすための所望の軌跡を示し、かつ再生設定音楽データの再生に同期して楕円体状筐体20を動かすための軌跡データを容易に生成することができる。   The main control unit 50 of the music robot apparatus 11 also draws a trajectory to be traced when the user moves the ellipsoidal casing 20 in the first region using the ellipsoidal casing 20. Real coordinates where a plurality of locus forming points forming the locus are located within one region are detected. The main control unit 50 associates the reproduction time information of the reproduction setting music data set to be reproduced when the ellipsoidal housing 20 is moved with respect to the plurality of locus formation points of the locus to generate locus data. . Accordingly, the main control unit 50 of the music robot apparatus 11 also shows a desired locus for moving the ellipsoidal casing 20, and a locus for moving the ellipsoidal casing 20 in synchronization with the reproduction of the reproduction setting music data. Data can be easily generated.

以上の構成によれば、パーソナルコンピュータ12及び音楽ロボット装置11は、ユーザによって描かれた楕円体状筐体20を動かすときにたどらせる軌跡の複数の軌跡形成点に対し、当該楕円体状筐体20を軌跡に沿って動かすときに再生するように設定した再生設定音楽データの再生時間情報を関連付けて軌跡データを生成するようにした。これによりパーソナルコンピュータ12及び音楽ロボット装置11は、楕円体状筐体20を動かすための所望の軌跡を示し、かつ再生設定音楽データの再生に同期して楕円体状筐体20を動かすための軌跡データを容易に生成することができる。よってパーソナルコンピュータ12及び音楽ロボット装置11は、音楽に合わせて楕円体状筐体20を動かすための軌跡を容易に得ることができる。   According to the above configuration, the personal computer 12 and the music robot apparatus 11 can detect the ellipsoidal casing with respect to a plurality of trajectory forming points of the trajectory traced when the ellipsoidal casing 20 drawn by the user is moved. The trajectory data is generated by associating the playback time information of the playback-set music data set to be played back when 20 is moved along the trajectory. Thereby, the personal computer 12 and the music robot apparatus 11 show a desired trajectory for moving the ellipsoidal casing 20, and a trajectory for moving the ellipsoidal casing 20 in synchronization with the reproduction of the reproduction setting music data. Data can be easily generated. Therefore, the personal computer 12 and the music robot apparatus 11 can easily obtain a trajectory for moving the ellipsoidal casing 20 in accordance with music.

またパーソナルコンピュータ12は、ユーザにより描かれた軌跡の複数の軌跡形成点に対し、当該軌跡の時間的な長さに応じて再生設定音楽データ全体の再生時間情報を関連付け、又は当該再生設定音楽データの所定部分の再生時間情報を関連付けるようにした。従ってパーソナルコンピュータ12は、再生設定音楽データ全体の再生に合わせて楕円体状筐体20を動かすための軌跡を示す軌跡データや、当該再生設定音楽データの所定部分の再生に合わせて楕円体状筐体20を動かすための軌跡を示す軌跡データを、ユーザの要求に応じて容易に生成することができる。特にパーソナルコンピュータ12は、再生設定音楽データの再生時間が比較的長い場合、当該再生設定音楽データ全体の再生に合わせて楕円体状筐体20を動かすための軌跡を1回で描かせなくとも、複数回に分けて描かせるようにして、最終的に再生設定音楽データ全体の再生に合わせて楕円体状筐体20を動かすための軌跡を示す軌跡データを生成することができ、ユーザの使い勝手を格段的に向上させることができる。   Further, the personal computer 12 associates the reproduction time information of the entire reproduction setting music data with a plurality of locus formation points of the locus drawn by the user according to the time length of the locus, or the reproduction setting music data. The playback time information of a predetermined part of the is related. Accordingly, the personal computer 12 uses trajectory data indicating a trajectory for moving the ellipsoidal housing 20 in accordance with the reproduction of the entire reproduction setting music data, and an ellipsoidal enclosure in accordance with reproduction of a predetermined portion of the reproduction setting music data. Trajectory data indicating a trajectory for moving the body 20 can be easily generated in response to a user request. In particular, when the playback time of the playback setting music data is relatively long, the personal computer 12 does not have to draw a trajectory for moving the ellipsoidal housing 20 in accordance with the playback of the entire playback setting music data at one time. It is possible to generate the trajectory data indicating the trajectory for moving the ellipsoidal casing 20 in accordance with the reproduction of the entire reproduction setting music data, so that it can be drawn in a plurality of times. It can be remarkably improved.

さらにパーソナルコンピュータ12及び音楽ロボット装置11は、再生設定音楽データを再生しながらユーザに軌跡を描かせて軌跡データを生成するようにした。このためパーソナルコンピュータ12及び音楽ロボット装置11は、ユーザに対し実際に音楽を聴かせながら、その音楽のイメージに合うように楕円体状筐体20を動かして軌跡を描かせることができる。よってパーソナルコンピュータ12及び音楽ロボット装置11は、音楽に合わせて楕円体状筐体20をユーザのイメージ通りに動かすための軌跡を示す軌跡データを容易に生成することができる。   Further, the personal computer 12 and the music robot apparatus 11 generate the locus data by causing the user to draw a locus while reproducing the reproduction setting music data. For this reason, the personal computer 12 and the music robot apparatus 11 can cause the user to draw a locus by moving the ellipsoidal casing 20 so as to match the image of the music while actually listening to the music. Therefore, the personal computer 12 and the music robot apparatus 11 can easily generate trajectory data indicating a trajectory for moving the ellipsoidal housing 20 according to the user's image according to the music.

さらにパーソナルコンピュータ12及び音楽ロボット装置11は、ユーザにより描かれた軌跡の変極点を検出すると共に、再生設定音楽データの曲調区間の境界位置となるビート位置を検出し、当該ビート位置に軌跡の変極点を合わせるように軌跡データを加工するようにした。従ってパーソナルコンピュータ12及び音楽ロボット装置11は、音楽の曲調に同期して楕円体状筐体20が動く方向を変えるような軌跡を示す軌跡データを容易に得ることができる。これに加えてパーソナルコンピュータ12は、ユーザにより描かれた軌跡を形成する軌跡形成点の位置(すなわち、実座標)を変更し、また軌跡形成点に関連付ける再生時間情報を変更して軌跡データを加工するようにした。従ってパーソナルコンピュータ12は、音楽に合わせて楕円体状筐体20を、よりユーザのイメージ通りに動かすための軌跡を示す軌跡データを容易に生成することができる。   Further, the personal computer 12 and the music robot apparatus 11 detect the inflection point of the locus drawn by the user, detect the beat position that is the boundary position of the music tone section of the reproduction setting music data, and change the locus to the beat position. The trajectory data was processed to match the extreme points. Therefore, the personal computer 12 and the music robot apparatus 11 can easily obtain trajectory data indicating a trajectory that changes the direction in which the ellipsoidal casing 20 moves in synchronization with the music tone. In addition, the personal computer 12 changes the position of the trajectory forming point that forms the trajectory drawn by the user (that is, the actual coordinates), and changes the playback time information associated with the trajectory forming point to process the trajectory data. I tried to do it. Therefore, the personal computer 12 can easily generate trajectory data indicating a trajectory for moving the ellipsoidal casing 20 according to the user's image according to the music.

ところでパーソナルコンピュータ12は、ユーザの要求に応じて、当該ユーザにより軌跡が描かれたときの描画時間の描画時間軸と再生時間時間軸とを合わせて軌跡データを生成し、又は軌跡があたかも一定速度で描かれたように変更した描画時間の変更描画時間軸と再生時間軸とを合わせて軌跡データを生成し、このようにして生成した軌跡データを加工し得るようにした。従ってパーソナルコンピュータ12は、ユーザにとって軌跡データを加工し易い状態から加工させることができ、加工の効率を向上させることができる。   By the way, the personal computer 12 generates trajectory data by combining the drawing time axis of the drawing time and the reproduction time time axis when the trajectory is drawn by the user in response to the user's request, or the trajectory is at a constant speed. The change of the drawing time changed as drawn in Fig. 2 The locus data is generated by combining the drawing time axis and the reproduction time axis, and the locus data thus generated can be processed. Therefore, the personal computer 12 can process the trajectory data from a state where it is easy for the user to process, and can improve the processing efficiency.

またパーソナルコンピュータ12は、軌跡データを加工するときに、予め登録している軌跡パターンを利用させるようにした。よってパーソナルコンピュータ12は、軌跡データをより加工し易くすることができる。そしてパーソナルコンピュータ12は、軌跡データの加工に利用可能な軌跡パターンが軌跡の形状のみを示し、ユーザの描いた軌跡に対し、その軌跡パターンを実際に組み込むために必要な種々の数値をユーザに入力させるようにした。従ってパーソナルコンピュータ12は、軌跡データの加工に軌跡パターンを利用し易くして、ユーザのイメージにより近づけるように軌跡データを加工させることができる。   Further, the personal computer 12 uses a previously registered locus pattern when processing the locus data. Therefore, the personal computer 12 can make the locus data easier to process. The personal computer 12 indicates only the shape of the trajectory pattern that can be used for processing the trajectory data, and inputs various numerical values necessary for actually incorporating the trajectory pattern into the trajectory drawn by the user. I tried to make it. Accordingly, the personal computer 12 can easily use the trajectory pattern for processing the trajectory data, and can process the trajectory data so as to be closer to the user's image.

さらにパーソナルコンピュータ12は、軌跡データをもとに生成した動きデータを他の動きデータや発光データと共にロボット動きデータとして再生設定音楽データと対応付けて記憶しておき、後に当該ロボット動きデータを読み出したときには、これに含まれる動きデータをもとに軌跡データを生成して加工し得るようにした。すなわちパーソナルコンピュータ12は、軌跡データを一旦は動きデータとして再生設定音楽データの再生時に楕円体状筐体20を動かすために使用した後に、その軌跡データを加工させ得るようにした。従ってパーソナルコンピュータ12は、軌跡データをもとに楕円体状筐体20を実際に動かしたときの様子を確認させた上で、その軌跡データを手直しするように加工させることができ、よって音楽に合わせて楕円体状筐体20を、よりユーザのイメージに近づけて動かすための軌跡を示す軌跡データを容易に得ることができる。   Further, the personal computer 12 stores the movement data generated based on the trajectory data in association with the reproduction setting music data as robot movement data together with other movement data and light emission data, and later reads the robot movement data. In some cases, the trajectory data can be generated and processed based on the motion data contained therein. That is, the personal computer 12 can process the trajectory data after using the trajectory data as motion data to move the ellipsoidal housing 20 during reproduction of the reproduction set music data. Therefore, the personal computer 12 can check the state when the ellipsoidal housing 20 is actually moved based on the trajectory data, and can process the trajectory data so that it can be modified. In addition, trajectory data indicating a trajectory for moving the ellipsoidal casing 20 closer to the user's image can be easily obtained.

さらにパーソナルコンピュータ12及び音楽ロボット装置11は、第1の領域内で描かれた軌跡を第2の領域に合わせるように軌跡データを加工するようにした。従ってパーソナルコンピュータ12及び音楽ロボット装置11は、実際には軌跡を描いた第1の領域とは異なる第2の領域で楕円体状筐体20を動かす場合でも、当該第2の領域の形状及び大きさに合った軌跡を示す軌跡データを容易に得ることができる。そしてパーソナルコンピュータ12及び音楽ロボット装置11は、その加工した軌跡データをもとに動きデータを生成するため、ユーザに対し第1の領域内で軌跡を描かせても、第1の領域とは異なる第2の領域内で楕円体状筐体20を動かすための動きデータを容易に得ることができる。   Furthermore, the personal computer 12 and the music robot apparatus 11 process the trajectory data so that the trajectory drawn in the first area matches the second area. Therefore, even when the personal computer 12 and the music robot apparatus 11 actually move the ellipsoidal housing 20 in the second region different from the first region in which the trajectory is drawn, the shape and size of the second region are determined. It is possible to easily obtain trajectory data indicating a trajectory that matches the size. Since the personal computer 12 and the music robot apparatus 11 generate motion data based on the processed trajectory data, even if the user draws a trajectory in the first area, it differs from the first area. Motion data for moving the ellipsoidal housing 20 in the second region can be easily obtained.

ところでパーソナルコンピュータ12は、基本動きパターンを示すパターンアイコンを利用して可動部51の動きデータを生成し得るようにした。従ってパーソナルコンピュータ12は、再生時間軸に沿って任意に指示値を入力させるようにして手動で可動部51の動きデータを生成する場合に比べて、当該可動部51の動きデータを容易に生成させることができる。   By the way, the personal computer 12 can generate the motion data of the movable portion 51 by using the pattern icon indicating the basic motion pattern. Therefore, the personal computer 12 can easily generate the motion data of the movable unit 51 as compared with the case where the motion data of the movable unit 51 is manually generated by arbitrarily inputting the instruction value along the reproduction time axis. be able to.

またパーソナルコンピュータ12及び音楽ロボット装置11は、ユーザによって描かれた軌跡をもとに動きデータを生成するのみならず、その動きデータを自動的にも生成するようにした。そしてパーソナルコンピュータ12及び音楽ロボット装置11は、動きデータを自動的に生成するとき、再生設定音楽データを分析し、その分析結果に応じて音楽の特徴に合った動きパターンを音楽の曲調に同期させて動きデータを生成するようにした。従ってパーソナルコンピュータ12及び音楽ロボット装置11は、再生設定音楽データを再生したときに、ユーザにより描かれた軌跡を利用して楕円体状筐体20を動かすこともできるし、当該楕円体状筐体20を音楽の曲調に同期させ、かつ音楽の特徴に合った動きパターンで、あたかも音楽に合わせて踊っているかのように動かすこともできる。   In addition, the personal computer 12 and the music robot apparatus 11 not only generate motion data based on the locus drawn by the user, but also automatically generate the motion data. When the personal computer 12 and the music robot device 11 automatically generate the motion data, the personal computer 12 and the music robot device 11 analyze the reproduction setting music data, and synchronize the motion pattern that matches the music characteristics with the music tone according to the analysis result. To generate motion data. Therefore, the personal computer 12 and the music robot apparatus 11 can move the ellipsoidal casing 20 by using the locus drawn by the user when reproducing the reproduction setting music data, or the ellipsoidal casing. It is also possible to move 20 as if it were dancing to the music with a movement pattern that matched the music's tone and matched to the characteristics of the music.

(4)他の実施の形態
なお上述した実施の形態においては、パーソナルコンピュータ12が動きデータ生成画面70に対し、軌跡の各軌跡形成点を線で結んだ直線変換軌跡100や軌跡対応点を線で結んだ表示軌跡96を表示するようにした場合について述べたが、本発明はこれに限らず、パーソナルコンピュータ12が動きデータ生成画面70に対し、軌跡の各軌跡形成点を当該軌跡が描かれるときの速さに応じた種類の線(例えば、描画速度に応じて線種や色の異なる線)で結んだ直線変換軌跡100や軌跡対応点も軌跡が描かれたときの速さに応じた種類の線で結んだ表示軌跡96を表示するようにしても良い。これによりパーソナルコンピュータ12は、動きデータ生成画面70上で、軌跡がどのように描かれたか、また軌跡に沿って楕円体状筐体20がどのように速度を変化させて動くかを容易に確認させることができる。そしてパーソナルコンピュータ12は、線の種類を使い分けることで、ユーザに対し軌跡の加工部分を容易に特定させることができると共に、加工後に軌跡に沿って描画時間がどのように変化するかも容易に確認させることができる。
(4) Other Embodiments In the above-described embodiments, the personal computer 12 connects the trajectory formation points of the trajectory with the lines on the motion data generation screen 70 and the trajectory corresponding points as lines. The case where the display trajectory 96 connected in the above is displayed has been described, but the present invention is not limited to this, and the personal computer 12 draws each trajectory forming point of the trajectory on the motion data generation screen 70. The linear conversion trajectory 100 and the trajectory corresponding points connected by the type of line according to the speed (for example, lines of different line types and colors according to the drawing speed) also correspond to the speed when the trajectory is drawn. You may make it display the display locus | trajectory 96 connected with the kind of line. As a result, the personal computer 12 easily confirms how the trajectory is drawn on the motion data generation screen 70 and how the ellipsoidal housing 20 moves along the trajectory while changing the speed. Can be made. The personal computer 12 makes it possible for the user to easily specify the processing portion of the trajectory by properly using the type of line, and also to easily check how the drawing time changes along the trajectory after processing. be able to.

また上述した実施の形態においては、パーソナルコンピュータ12において、軌跡形成点の位置を変更し、また軌跡形成点に関連付ける再生時間情報を変更するようにして軌跡データを加工する際に、特には再生設定音楽データを再生しないようにした場合について述べたが、本発明はこれに限らず、パーソナルコンピュータ12において軌跡形成点の位置を変更し、また軌跡形成点に関連付ける再生時間情報を変更するようにして軌跡データを加工する際に、再生設定音楽データを再生すると共に、再生時間通知部80上で再生時間の変化に合わせて所定のマークを移動させて当該再生設定音楽データの再生位置を通知するようにしても良い。   In the above-described embodiment, when the trajectory data is processed in the personal computer 12 so as to change the position of the trajectory formation point and to change the reproduction time information associated with the trajectory formation point, the reproduction setting is particularly performed. Although the case where the music data is not reproduced has been described, the present invention is not limited to this, and the position of the locus forming point is changed in the personal computer 12 and the reproduction time information associated with the locus forming point is changed. When processing the trajectory data, the reproduction setting music data is reproduced, and a predetermined mark is moved on the reproduction time notification unit 80 in accordance with the change of the reproduction time to notify the reproduction position of the reproduction setting music data. Anyway.

さらに上述した実施の形態においては、パーソナルコンピュータ12において、動きデータの生成時にユーザに対し軌跡パターンや基本動きパターンを任意に選択して利用させるようにした場合について述べたが、本発明はこれに限らず、パーソナルコンピュータ12において、動きデータの生成時にユーザに対し再生設定音楽データに基づく音楽の特徴(又は曲調区間の区間特徴)に合った軌跡パターンや基本動きパターンを提示し、その提示した軌跡パターンや基本動きパターンを任意に選択させるようにしても良い。これによりパーソナルコンピュータ12は、楕円体状筐体20や可動部51を音楽の特徴に合うように動かすための動きデータを生成することができる。   Further, in the above-described embodiment, the personal computer 12 has been described with respect to the case where the user arbitrarily selects and uses the trajectory pattern and the basic motion pattern when generating the motion data. Not limited to this, the personal computer 12 presents a trajectory pattern or a basic motion pattern that matches the music characteristics (or section characteristics of the tune section) to the user at the time of generation of motion data, and presents the trajectory presented. A pattern or a basic motion pattern may be arbitrarily selected. Thereby, the personal computer 12 can generate motion data for moving the ellipsoidal casing 20 and the movable portion 51 so as to match the characteristics of music.

さらに上述した実施の形態においては、パーソナルコンピュータ12及び音楽ロボット装置11において、軌跡を形成する各軌跡形成点に再生時間情報を関連付けて軌跡データを生成した後、第2の領域の定義情報に基づいて当該軌跡データを加工するようにした場合について述べたが、本発明はこれに限らず、パーソナルコンピュータ12及び音楽ロボット装置11において、ユーザにより描かれた軌跡を第2の領域の定義情報に基づいて加工した後、当該加工した軌跡を形成する各軌跡形成点に再生時間情報を関連付けて軌跡データを生成するようにしても良い。   Further, in the above-described embodiment, the personal computer 12 and the music robot apparatus 11 generate the trajectory data by associating the reproduction time information with each trajectory forming point forming the trajectory, and then based on the definition information of the second area. However, the present invention is not limited to this, and in the personal computer 12 and the music robot apparatus 11, the trajectory drawn by the user is based on the definition information of the second area. Then, the trajectory data may be generated by associating the reproduction time information with each trajectory forming point forming the processed trajectory.

さらに上述した実施の形態においては、パーソナルコンピュータ12において、軌跡を関連付ける再生設定音楽データの所定部分をユーザが選択するようにした場合について述べたが、本発明はこれに限らず、パーソナルコンピュータ12において制御部40が再生設定音楽データを複数部分に分割して、その部分毎にユーザに対し軌跡を描かせて関連付けるようにしても良い。   Further, in the above-described embodiment, the case where the user selects a predetermined portion of the reproduction setting music data to be associated with the trajectory in the personal computer 12 has been described. However, the present invention is not limited to this, and the personal computer 12 The control unit 40 may divide the reproduction setting music data into a plurality of parts, and draw a locus for each part and associate them with each other.

さらに上述した実施の形態においては、本発明による軌跡データ生成プログラムを、パーソナルコンピュータ12の記憶部42又は制御部40の内部メモリや音楽ロボット装置11の記憶部57又は主制御部50の内部メモリに記憶された動きデータ生成プログラムに適用し、当該制御部40が動きデータ生成プログラムに従って第1のビート検出処理手順RT1、第1の特徴解析処理手順RT2、第1及び第2の動きデータ生成処理手順RT3及びRT4を実行すると共に、主制御部50が動きデータ生成プログラムに従って第2のビート検出処理手順RT5、第2の特徴解析処理手順RT6、第3及び第4の動きデータ生成処理手順RT7を実行するようにした場合について述べたが、本発明はこれに限らず、パーソナルコンピュータ12及び音楽ロボット装置11に対し、軌跡データ生成プログラムが格納されたプログラム格納媒体をインストールして上述した第1及び第2のビート検出処理手順RT1及びRT5、第1及び第2の特徴解析処理手順RT2及びRT6、第1乃至第4の動きデータ生成処理手順RT3、RT4及びRT7を実行するようにしても良い。   Furthermore, in the above-described embodiment, the trajectory data generation program according to the present invention is stored in the internal memory of the storage unit 42 or the control unit 40 of the personal computer 12, the storage unit 57 of the music robot apparatus 11, or the internal memory of the main control unit 50. Applied to the stored motion data generation program, the control unit 40 performs the first beat detection processing procedure RT1, the first feature analysis processing procedure RT2, and the first and second motion data generation processing procedures according to the motion data generation program. While executing RT3 and RT4, the main control unit 50 executes the second beat detection processing procedure RT5, the second feature analysis processing procedure RT6, and the third and fourth motion data generation processing procedures RT7 in accordance with the motion data generation program. However, the present invention is not limited to this, and the personal computer 1 is not limited thereto. In addition, the first and second beat detection processing procedures RT1 and RT5 and the first and second feature analysis processing procedures RT2 described above by installing a program storage medium in which a trajectory data generation program is stored in the music robot apparatus 11. And RT6, the first to fourth motion data generation processing procedures RT3, RT4 and RT7 may be executed.

なお、このような上述した第1及び第2のビート検出処理手順RT1及びRT5、第1及び第2の特徴解析処理手順RT2及びRT6、第1乃至第4の動きデータ生成処理手順RT3、RT4及びRT7を実行させるための軌跡データ生成プログラムをパーソナルコンピュータ12及び音楽ロボット装置11にインストールして実行可能な状態にするためのプログラム格納媒体としては、例えばフレキシブルディスク、CD−ROM(Compact Disc-Read Only Memory )、DVD(Digital Versatile Disc)等のパッケージメディアのみならず、各種プログラムが一時的もしくは永続的に格納される半導体メモリや磁気ディスク等で実現しても良い。また、これらプログラム格納媒体に軌跡データ生成プログラムを格納する手段としては、ローカルエリアネットワークやインターネット、デジタル衛星放送等の有線及び無線通信媒体を利用しても良く、ルータやモデム等の各種通信インターフェイスを介して格納するようにしても良い。   The first and second beat detection processing procedures RT1 and RT5, the first and second feature analysis processing procedures RT2 and RT6, the first to fourth motion data generation processing procedures RT3, RT4, and the like described above. As a program storage medium for installing the trajectory data generation program for executing RT7 in the personal computer 12 and the music robot apparatus 11 and making it executable, for example, a flexible disk, CD-ROM (Compact Disc-Read Only) Memory), DVD (Digital Versatile Disc), and other package media, as well as a semiconductor memory or a magnetic disk in which various programs are temporarily or permanently stored. Further, as means for storing the trajectory data generation program in these program storage media, wired and wireless communication media such as a local area network, the Internet, and digital satellite broadcasting may be used, and various communication interfaces such as routers and modems may be used. You may make it store via.

さらに上述した実施の形態においては、本発明による軌跡データ生成装置を、図1乃至図44について上述した軌跡データ生成装置1、パーソナルコンピュータ12及び音楽ロボット装置11に適用するようにした場合について述べたが、本発明はこれに限らず、携帯電話機やPDA(Personal Digital Assistance )等の情報処理装置、また携帯型音楽再生装置や据置型音楽再生装置等の再生装置、DVDレコーダやハードディスクレコーダ等の記録再生装置、2足歩行型や4足歩行型、車型等のロボット装置等のように、この他種々の軌跡データ生成装置に広く適用することができる。   Further, in the above-described embodiment, the case where the trajectory data generation device according to the present invention is applied to the trajectory data generation device 1, the personal computer 12, and the music robot device 11 described above with reference to FIGS. However, the present invention is not limited to this, and information processing apparatuses such as mobile phones and PDAs (Personal Digital Assistance), playback apparatuses such as portable music playback apparatuses and stationary music playback apparatuses, and recording such as DVD recorders and hard disk recorders The present invention can be widely applied to various other trajectory data generation devices such as a playback device, a bipedal walking type, a quadruped walking type, and a vehicle type robotic device.

さらに上述した実施の形態においては、動き対象として、図1乃至図44について上述した楕円体状筐体20を適用するようにした場合について述べたが、本発明はこれに限らず、2足歩行型や4足歩行型、車型等のロボット装置の本体部、車輪、アーム等のように、この他種々動き対象に広く適用することができる。   Further, in the above-described embodiment, the case where the ellipsoidal casing 20 described above with reference to FIGS. 1 to 44 is applied as a movement target has been described. However, the present invention is not limited to this, and biped walking It can be widely applied to various other moving objects such as a main body, wheels, arms, etc. of a robot apparatus such as a mold, a quadruped walking type, and a car type.

さらに上述した実施の形態においては、動き対象が動くときに再生する音楽データを設定するデータ設定部として、図1乃至図44について上述した軌跡データ生成装置1のデータ設定部2、パーソナルコンピュータ11の制御部40、音楽ロボット装置11の主制御部50を適用するようにした場合について述べたが、本発明はこれに限らず、CPU(Central Processing Unit )やDSP(Digital Signal Processor)等のように、この他種々のデータ設定部を広く適用することができる。   Furthermore, in the above-described embodiment, the data setting unit 2 of the trajectory data generation device 1 described above with reference to FIGS. 1 to 44 and the personal computer 11 are used as the data setting unit for setting music data to be reproduced when the movement target moves. Although the case where the control unit 40 and the main control unit 50 of the music robot apparatus 11 are applied has been described, the present invention is not limited to this, and a CPU (Central Processing Unit), a DSP (Digital Signal Processor) or the like is used. Various other data setting units can be widely applied.

さらに上述した実施の形態においては、動き対象の動きの軌跡を描いて入力するために用いられる入力部として、図1乃至図44について上述した軌跡データ生成装置1の入力部3、パーソナルコンピュータ11のマウス、音楽ロボット装置11を適用するようにした場合について述べたが、本発明はこれに限らず、ジョイスティックやタッチパッド、タッチペン、トラックボール等のポインティングデバイス、また2足歩行型や4足歩行型、車型等のロボット装置自体やその可動部等のように、この他種々の入力部を広く適用することができる。   Furthermore, in the above-described embodiment, the input unit 3 of the trajectory data generation device 1 described above with reference to FIGS. 1 to 44 and the personal computer 11 are used as the input unit used for drawing and inputting the trajectory of the movement target movement. Although the case where the mouse and the music robot apparatus 11 are applied has been described, the present invention is not limited to this, but a pointing device such as a joystick, a touch pad, a touch pen, or a trackball, a biped walking type, or a quadruped walking type is used. In addition, various other input units can be widely applied, such as a robot type itself such as a car type or a movable unit thereof.

さらに上述した実施の形態においては、入力部を介して入力された軌跡に対し、データ設定部により設定された音楽データの再生時間情報を関連付けて軌跡データを生成する軌跡データ生成部として、図1乃至図44について上述した軌跡データ生成装置1の軌跡データ生成部4、パーソナルコンピュータ11の制御部40、音楽ロボット装置11の主制御部50を適用するようにした場合について述べたが、本発明はこれに限らず、CPU等のように、この他種々の軌跡データ生成部を広く適用することができる。   Further, in the embodiment described above, as a trajectory data generation unit that generates trajectory data by associating the trajectory input via the input unit with the reproduction time information of the music data set by the data setting unit, FIG. The trajectory data generation unit 4 of the trajectory data generation device 1, the control unit 40 of the personal computer 11, and the main control unit 50 of the music robot apparatus 11 described above with reference to FIG. 44 have been described. However, the present invention is not limited to this, and various other trajectory data generation units such as a CPU can be widely applied.

さらに上述した実施の形態においては、データ設定部により設定された音楽データを再生する再生部として、図1乃至図44について上述したパーソナルコンピュータ11の制御部40及び出力部44、音楽ロボット装置11の主制御部50及び出力部59を適用するようにした場合について述べたが、本発明はこれに限らず、DSP及びアナログスピーカを有する再生部等のように、この他種々の再生部を広く適用することができる。   Further, in the above-described embodiment, as the playback unit that plays back the music data set by the data setting unit, the control unit 40 and output unit 44 of the personal computer 11 described above with reference to FIGS. Although the case where the main control unit 50 and the output unit 59 are applied has been described, the present invention is not limited to this, and various other reproduction units such as a reproduction unit having a DSP and an analog speaker are widely applied. can do.

さらに上述した実施の形態においては、軌跡データ生成部により生成された軌跡データを加工する軌跡データ加工部として、図1乃至図44について上述したパーソナルコンピュータ11の制御部40及び音楽ロボット装置11の主制御部50を適用するようにした場合について述べたが、本発明はこれに限らず、CPU等のように、この他種々の軌跡データ加工部を広く適用することができる。   Further, in the above-described embodiment, as the trajectory data processing unit that processes the trajectory data generated by the trajectory data generation unit, the control unit 40 of the personal computer 11 described above with reference to FIGS. Although the case where the control unit 50 is applied has been described, the present invention is not limited to this, and various other trajectory data processing units such as a CPU can be widely applied.

さらに上述した実施の形態においては、軌跡が描かれる第1の領域とは異なる第2の領域を定義する定義情報を設定する定義情報設定部として、図1乃至図44について上述したパーソナルコンピュータ11の制御部40及び音楽ロボット装置11の主制御部50を適用するようにした場合について述べたが、本発明はこれに限らず、CPU等のように、この他種々の定義情報設定部を広く適用することができる。   Further, in the above-described embodiment, the definition information setting unit for setting the definition information that defines the second area different from the first area in which the locus is drawn is used as the definition information setting unit of the personal computer 11 described above with reference to FIGS. Although the case where the control unit 40 and the main control unit 50 of the music robot apparatus 11 are applied has been described, the present invention is not limited to this, and various other definition information setting units such as a CPU are widely applied. can do.

さらに上述した実施の形態においては、可動部に関する可動部情報と、軌跡データ生成部により生成された軌跡データとに基づいて、当該軌跡データの示す軌跡に沿って動き対象を動かすように可動部を動かすための動きデータを生成する動きデータ生成部して、図1乃至図44について上述したパーソナルコンピュータ11の制御部40及び音楽ロボット装置11の主制御部50を適用するようにした場合について述べたが、本発明はこれに限らず、CPU等のように、この他種々の動きデータ生成部を広く適用することができる。   Further, in the above-described embodiment, based on the movable part information on the movable part and the locus data generated by the locus data generation unit, the movable unit is moved so as to move the moving object along the locus indicated by the locus data. The case where the control unit 40 of the personal computer 11 and the main control unit 50 of the music robot apparatus 11 described above with reference to FIGS. 1 to 44 are applied as the motion data generation unit that generates the motion data for movement is described. However, the present invention is not limited to this, and various other motion data generation units such as a CPU can be widely applied.

さらに上述した実施の形態においては、可動部として、図1乃至図44について上述した音楽ロボット装置11の右側回動部22、左側回動部23、右側開閉部24、左側開閉部25、右側車輪30、左側車輪31を適用するようにした場合について述べたが、本発明はこれに限らず、ロボット装置の腕部や足部、首部、頭部等のように、この他種々の可動部を広く適用することができる。   Further, in the above-described embodiment, as the movable portion, the right rotation portion 22, the left rotation portion 23, the right opening / closing portion 24, the left opening / closing portion 25, and the right wheel of the music robot apparatus 11 described above with reference to FIGS. 30, the case where the left wheel 31 is applied has been described. However, the present invention is not limited to this, and various other movable parts such as an arm part, a leg part, a neck part, a head part, etc. of the robot apparatus can be used. Can be widely applied.

さらに上述した実施の形態においては、動きデータ生成部により生成された動きデータに基づいて可動部を駆動制御して動かす駆動制御部として、図1乃至図44について上述した音楽ロボット装置11のマイクロコンピュータ構成の駆動制御部54を適用するようにした場合について述べたが、本発明はこれに限らず、CPU等のように、この他種々の駆動制御部を広く適用することができる。   Further, in the embodiment described above, the microcomputer of the music robot apparatus 11 described above with reference to FIGS. 1 to 44 is used as a drive control unit that drives and moves the movable unit based on the motion data generated by the motion data generation unit. Although the case where the drive control unit 54 having the configuration is applied has been described, the present invention is not limited to this, and various other drive control units such as a CPU can be widely applied.

さらに上述した実施の形態においては、音楽データを分析する分析部として、図1乃至図44について上述したパーソナルコンピュータ11の制御部40及び音楽ロボット装置11の主制御部50を適用するようにした場合について述べたが、本発明はこれに限らず、CPUやDSP等のように、この他種々の分析部を広く適用することができる。   Further, in the embodiment described above, the control unit 40 of the personal computer 11 and the main control unit 50 of the music robot apparatus 11 described above with reference to FIGS. 1 to 44 are applied as the analysis unit for analyzing the music data. However, the present invention is not limited to this, and various other analysis units such as a CPU and a DSP can be widely applied.

さらに上述した実施の形態においては、分析部による音楽データの分析結果に応じて、当該音楽データの再生に合わせて可動部を動かすための動きパターンを設定するパターン設定部として、図1乃至図44について上述したパーソナルコンピュータ11の制御部40及び音楽ロボット装置11の主制御部50を適用するようにした場合について述べたが、本発明はこれに限らず、CPU等のように、この他種々のパターン設定部を広く適用することができる。   Further, in the above-described embodiment, the pattern setting unit that sets the movement pattern for moving the movable unit in accordance with the reproduction of the music data according to the analysis result of the music data by the analysis unit is shown in FIGS. Although the case where the control unit 40 of the personal computer 11 and the main control unit 50 of the music robot apparatus 11 described above are applied has been described, the present invention is not limited to this, and various other types such as a CPU or the like can be used. The pattern setting unit can be widely applied.

さらに上述した実施の形態においては、音楽データ毎の再生に合わせて可動部を動かすための複数種類の動きパターンを、それぞれ対応する音楽データに関連付けて記憶する記憶部として、図1乃至図44について上述したパーソナルコンピュータ11の記憶部42及び音楽ロボット装置11の記憶部57を適用するようにした場合について述べたが、本発明はこれに限らず、パーソナルコンピュータ12や音楽ロボット装置11に内蔵される半導体メモリやハードディスクドライブ、またパーソナルコンピュータ12や音楽ロボット装置11に着脱可能に取り付けられる半導体メモリやCD-ROMドライブ、ハードディスクドライブ等のように、この他種々の記憶部を広く適用することができる。   Further, in the above-described embodiment, as a storage unit that stores a plurality of types of movement patterns for moving the movable unit in accordance with reproduction for each music data in association with the corresponding music data, FIG. 1 to FIG. Although the case where the storage unit 42 of the personal computer 11 and the storage unit 57 of the music robot apparatus 11 described above are applied has been described, the present invention is not limited thereto, and is incorporated in the personal computer 12 and the music robot apparatus 11. Various other storage units such as a semiconductor memory, a hard disk drive, and a semiconductor memory, a CD-ROM drive, and a hard disk drive that are detachably attached to the personal computer 12 and the music robot apparatus 11 can be widely applied.

さらに上述した実施の形態においては、データ設定部により設定された音楽データに関連付けられている動きパターンを記憶部から読み出して、当該読み出した動きパターンを、設定された音楽データの再生に合わせて可動部を動かすための動きパターンに設定するパターン設定部として、図1乃至図44について上述した記憶部42及び57から再生設定音楽データに対応付けて記憶している動きパターンとしての動きデータを含むロボット動きデータを読み出すパーソナルコンピュータ11の制御部40及び音楽ロボット装置11の主制御部50を適用するようにした場合について述べたが、本発明はこれに限らず、CPU等のように、この他種々のパターン設定部を広く適用することができる。   Further, in the above-described embodiment, the motion pattern associated with the music data set by the data setting unit is read from the storage unit, and the read motion pattern can be moved in accordance with the reproduction of the set music data. A robot including motion data as a motion pattern stored in association with reproduction setting music data from the storage units 42 and 57 described above with reference to FIGS. Although the case where the control unit 40 of the personal computer 11 that reads out the motion data and the main control unit 50 of the music robot apparatus 11 are applied has been described, the present invention is not limited to this, and various other types such as a CPU or the like. The pattern setting unit can be widely applied.

さらに上述した実施の形態においては、入力部を介して入力された軌跡の特徴を解析する解析部として、図1乃至図44について上述したパーソナルコンピュータ11の制御部40及び音楽ロボット装置11の主制御部50を適用するようにした場合について述べたが、本発明はこれに限らず、CPU等のように、この他種々の解析部を広く適用することができる。   Furthermore, in the embodiment described above, the control unit 40 of the personal computer 11 and the main control of the music robot apparatus 11 described above with reference to FIGS. Although the case where the unit 50 is applied has been described, the present invention is not limited to this, and various other analysis units such as a CPU can be widely applied.

さらに上述した実施の形態においては、音楽の特徴に応じて分類された複数の音楽データが登録された複数種類のリストを記憶する記憶部として、図1乃至図44について上述したパーソナルコンピュータ12の記憶部42及び音楽ロボット装置11の記憶部57を適用するようにした場合について述べたが、本発明はこれに限らず、パーソナルコンピュータ12や音楽ロボット装置11に内蔵される半導体メモリやハードディスクドライブ、またパーソナルコンピュータ12や音楽ロボット装置11に着脱可能に取り付けられる半導体メモリやCD-ROMドライブ、ハードディスクドライブ等のように、この他種々の記憶部を広く適用することができる。   Further, in the above-described embodiment, the storage of the personal computer 12 described above with reference to FIGS. 1 to 44 is used as a storage unit that stores a plurality of types of lists in which a plurality of music data classified according to the music characteristics is registered. The case where the storage unit 57 of the unit 42 and the music robot apparatus 11 is applied has been described. However, the present invention is not limited to this, and the semiconductor memory and the hard disk drive incorporated in the personal computer 12 and the music robot apparatus 11, Various other storage units such as a semiconductor memory, a CD-ROM drive, and a hard disk drive that are detachably attached to the personal computer 12 and the music robot apparatus 11 can be widely applied.

さらに上述した実施の形態においては、音楽データに対し当該音楽データに基づく音楽のビートに相当するビート位置を検出するビート検出部として、図1乃至図44について上述したパーソナルコンピュータ11の制御部40及び音楽ロボット装置11の主制御部50を適用するようにした場合について述べたが、本発明はこれに限らず、CPUやDSP等のように、この他種々のビート検出部を広く適用することができる。   Further, in the above-described embodiment, as the beat detection unit for detecting the beat position corresponding to the beat of the music based on the music data, the control unit 40 of the personal computer 11 described above with reference to FIGS. Although the case where the main controller 50 of the music robot apparatus 11 is applied has been described, the present invention is not limited to this, and various other beat detectors such as a CPU and a DSP can be widely applied. it can.

さらに上述した実施の形態においては、入力部を介して入力された軌跡の変極点を検出する検出部として、図1乃至図44について上述したパーソナルコンピュータ11の制御部40及び音楽ロボット装置11の主制御部50を適用するようにした場合について述べたが、本発明はこれに限らず、CPU等のように、この他種々の検出部を広く適用することができる。   Furthermore, in the above-described embodiment, the control unit 40 of the personal computer 11 and the main part of the music robot apparatus 11 described above with reference to FIGS. Although the case where the control unit 50 is applied has been described, the present invention is not limited to this, and various other detection units such as a CPU can be widely applied.

さらに上述した実施の形態においては、軌跡データ生成部により生成された軌跡データを、軌跡の変極点と音楽データのビート位置とを合わせるように加工する軌跡データ加工部として、図1乃至図44について上述したパーソナルコンピュータ11の制御部40及び音楽ロボット装置11の主制御部50を適用するようにした場合について述べたが、本発明はこれに限らず、CPU等のように、この他種々の軌跡データ加工部を広く適用することができる。   Further, in the above-described embodiment, as a trajectory data processing unit that processes the trajectory data generated by the trajectory data generation unit so as to match the inflection point of the trajectory and the beat position of the music data, FIGS. Although the case where the control unit 40 of the personal computer 11 and the main control unit 50 of the music robot apparatus 11 described above are applied has been described, the present invention is not limited to this, and various other loci such as a CPU or the like. Data processing section can be widely applied.

本発明は、動き対象を動かすための軌跡を示す軌跡データを生成するパーソナルコンピュータ等の軌跡データ生成装置に利用することができる。   The present invention can be used for a trajectory data generation device such as a personal computer that generates trajectory data indicating a trajectory for moving a moving object.

本発明による軌跡データ生成装置の構成の概要を示すブロック図である。It is a block diagram which shows the outline | summary of a structure of the locus | trajectory data generation apparatus by this invention. 本発明による音楽再生システムの構成を示す略線図である。It is a basic diagram which shows the structure of the music reproduction system by this invention. 本発明による音楽ロボット装置の外観構成を示す略線的斜視図である。It is a rough-line perspective view which shows the external appearance structure of the music robot apparatus by this invention. 音楽ロボット装置の背面構成を示す略線図である。It is a basic diagram which shows the back surface structure of a music robot apparatus. 右側回動部及び左側回動部に対する右側開閉部及び左側開閉部の開閉の説明に供する略線図である。It is a basic diagram with which it uses for description of opening and closing of the right opening part and left opening part with respect to a right rotation part and a left rotation part. 右側回動部及び左側回動部の回動の説明に供する略線図である。It is a basic diagram with which it uses for description of rotation of a right side rotation part and a left side rotation part. パーソナルコンピュータの回路構成を示すブロック図である。It is a block diagram which shows the circuit structure of a personal computer. 動きパターンデータベースの構成を示す略線図である。It is a basic diagram which shows the structure of a motion pattern database. ロボット動きデータの生成の説明に供する略線図である。It is an approximate line figure used for explanation of generation of robot motion data. 音楽ロボット装置の回路構成を示すブロック図である。It is a block diagram which shows the circuit structure of a music robot apparatus. 加速度センサによる加速度の検出の説明に供する略線的斜視図である。It is a rough-line perspective view with which it uses for description of the detection of the acceleration by an acceleration sensor. 動きデータ生成画面の構成を示す略線図である。It is a basic diagram which shows the structure of a motion data generation screen. ロボット動きデータを自動的に生成したときの動きデータ生成画面の構成を示す略線図である。It is an approximate line figure showing composition of a motion data generation screen when robot motion data is generated automatically. ロボット動きデータを手動で生成するときの動きデータ生成画面の構成を示す略線図である。It is an approximate line figure showing composition of a motion data generation screen when generating robot motion data manually. 軌跡が描かれたときの動きデータ生成画面の構成を示す略線図である。It is a basic diagram which shows the structure of the motion data generation screen when a locus | trajectory is drawn. 軌跡の表示の説明に供する略線図である。It is an approximate line figure used for explanation of a display of a locus. 変極点の検出の説明に供する略線図である。It is an approximate line figure used for explanation of detection of an inflection point. 軌跡に対する再生時間情報の関連付けの説明に供する略線図である。It is a basic diagram with which it uses for description of the correlation of the reproduction time information with respect to a locus | trajectory. 軌跡データの加工(1)の説明に供する略線図である。It is an approximate line figure used for explanation of processing (1) of locus data. 軌跡データの加工(2)の説明に供する略線図である。It is an approximate line figure used for explanation of processing (2) of locus data. 軌跡データの加工(3)の説明に供する略線図である。It is an approximate line figure used for explanation of processing (3) of locus data. 軌跡データの加工(4)の説明に供する略線図である。It is an approximate line figure used for explanation of processing (4) of locus data. サインパターンの構成を示す略線図である。It is a basic diagram which shows the structure of a sign pattern. ジグザグパターンの構成を示す略線図である。It is a basic diagram which shows the structure of a zigzag pattern. 軌跡データの加工(5)の説明に供する略線図である。It is an approximate line figure used for explanation of processing (5) of locus data. 軌跡データの加工(6)の説明に供する略線図である。It is an approximate line figure used for explanation of processing (6) of locus data. 軌跡データをもとに動きデータを生成したときの動きデータ生成画面の構成を示す略線図である。It is an approximate line figure showing composition of a motion data generation screen when motion data is generated based on locus data. パターンアイコンを用いて動きデータを生成するときの動きデータ生成画面の構成を示す略線図である。It is a basic diagram which shows the structure of the motion data generation screen when generating motion data using a pattern icon. ユーザにより描かれた軌跡の拡大の説明に供する略線図である。It is an approximate line figure used for explanation of expansion of a locus drawn by a user. ユーザにより描かれた軌跡の縮小の説明に供する略線図である。It is a basic diagram with which it uses for description of reduction | decrease of the locus | trajectory drawn by the user. 第1の領域の設定(1)の説明に供する略線図である。It is a basic diagram with which it uses for description of the setting (1) of a 1st area | region. 第1の領域の設定(2)の説明に供する略線図である。It is a basic diagram with which it uses for description of the setting (2) of a 1st area | region. 第1の領域の設定(3)の説明に供する略線図である。It is an approximate line figure used for explanation of setting (3) of the 1st field. 第1の領域の設定(4)の説明に供する略線図である。It is an approximate line figure used for explanation of setting (4) of the 1st field. 第1の領域の設定(5)の説明に供する略線図である。It is a basic diagram with which it uses for description of the setting (5) of a 1st area | region. 第1及び第2の領域の形状が異なるときの軌跡データの加工の説明に供する略線図である。It is an approximate line figure used for explanation of processing of locus data when the shape of the 1st and 2nd field differs. ロボット動きデータ生成時の筐体動き領域の確認の説明に供する略線図である。It is an approximate line figure used for explanation of a check of a case movement field at the time of robot motion data generation. パーソナルコンピュータの制御部が実行する分析処理における第1のビート検出処理手順を示すフローチャートである。It is a flowchart which shows the 1st beat detection process procedure in the analysis process which the control part of a personal computer performs. パーソナルコンピュータの制御部が実行する分析処理における第1の特徴解析処理手順を示すフローチャートである。It is a flowchart which shows the 1st characteristic analysis process sequence in the analysis process which the control part of a personal computer performs. パーソナルコンピュータの制御部が実行する第1の動きデータ生成処理手順を示すフローチャートである。It is a flowchart which shows the 1st motion data generation process procedure which the control part of a personal computer performs. パーソナルコンピュータの制御部が実行する第2の動きデータ生成処理手順を示すフローチャートである。It is a flowchart which shows the 2nd motion data generation process procedure which the control part of a personal computer performs. 音楽ロボット装置の主制御部が実行する分析処理における第2のビート検出処理手順を示すフローチャートである。It is a flowchart which shows the 2nd beat detection process procedure in the analysis process which the main control part of a music robot apparatus performs. 音楽ロボット装置の主制御部が実行する分析処理における第2の特徴解析処理手順を示すフローチャートである。It is a flowchart which shows the 2nd characteristic analysis process sequence in the analysis process which the main control part of a music robot apparatus performs. 音楽ロボット装置の主制御部が実行する第3の動きデータ生成処理手順を示すフローチャートである。It is a flowchart which shows the 3rd motion data generation process procedure which the main control part of a music robot apparatus performs.

符号の説明Explanation of symbols

1……軌跡データ生成装置、2……データ設定部、3……入力部、4……軌跡データ生成部、10……音楽再生システム、11……音楽ロボット装置、12……パーソナルコンピュータ、20……楕円体状筐体、21……筐体中央部、22……右側回動部、23……左側回動部、24……右側開閉部、25……左側開閉部、28……右スピーカ、29……左スピーカ、30……右側車輪、31……左側車輪、33……接触検知センサ、40……制御部、41、55……入力部、42、57……記憶部、44、59……出力部、50……主制御部、51……可動部、52……駆動部、54……駆動制御部、56……加速度センサ、110、115、116、117、119、120、125……第1の領域、111、118、127、128……軌跡、112、113、126、131……第2の領域、RT1……第1のビート検出処理手順、RT2……第1の特徴解析処理手順、RT3……第1の動きデータ生成処理手順、RT4……第2の動きデータ生成処理手順、RT5……第2のビート検出処理手順、RT6……第2の特徴解析処理手順、RT7……第3の動きデータ生成処理手順。   DESCRIPTION OF SYMBOLS 1 ... Trajectory data generation apparatus, 2 ... Data setting part, 3 ... Input part, 4 ... Trajectory data generation part, 10 ... Music reproduction system, 11 ... Music robot apparatus, 12 ... Personal computer, 20 …… Ellipsoidal housing, 21 …… Case central portion, 22 …… Right rotation portion, 23 …… Left rotation portion, 24 …… Right opening / closing portion, 25 …… Left opening / closing portion, 28 …… Right Speaker, 29 ... Left speaker, 30 ... Right wheel, 31 ... Left wheel, 33 ... Contact detection sensor, 40 ... Control unit, 41, 55 ... Input unit, 42, 57 ... Storage unit, 44 , 59... Output section, 50... Main control section, 51... Movable section, 52... Drive section, 54... Drive control section, 56 ... acceleration sensor, 110, 115, 116, 117, 119, 120 125, first region, 111, 118, 127, 128 ... Locus, 112, 113, 126, 131... Second region, RT1... First beat detection processing procedure, RT2... First feature analysis processing procedure, RT3. RT4: second motion data generation processing procedure, RT5: second beat detection processing procedure, RT6: second feature analysis processing procedure, RT7: third motion data generation processing procedure.

Claims (17)

動き対象が動くときに再生する音楽データを設定するデータ設定部と、
上記動き対象の動きの軌跡を描いて入力するために用いられる入力部と、
上記入力部を介して入力された上記軌跡に対し、上記データ設定部により設定された音楽データの再生時間情報を関連付けて軌跡データを生成する軌跡データ生成部と
を具えることを特徴とする軌跡データ生成装置。
A data setting section for setting music data to be played when the movement target moves;
An input unit used for drawing and inputting a movement trajectory of the movement target;
A trajectory data generating unit that generates trajectory data by associating the trajectory input through the input unit with the reproduction time information of the music data set by the data setting unit. Data generator.
上記軌跡データ生成部は、
上記入力部を介して入力された上記軌跡に対し、上記データ設定部により設定された上記音楽データ全体の上記再生時間情報を関連付けて上記軌跡データを生成する
ことを特徴とする請求項1に記載の軌跡データ生成装置。
The trajectory data generation unit
The trajectory data is generated by associating the playback time information of the entire music data set by the data setting unit with the trajectory input via the input unit. Trajectory data generation device.
上記軌跡データ生成部は、
上記入力部を介して入力された上記軌跡に対し、上記データ設定部により設定された上記音楽データの所定部分の上記再生時間情報を関連付けて上記軌跡データを生成する
ことを特徴とする請求項1に記載の軌跡データ生成装置。
The trajectory data generation unit
The trajectory data is generated by associating the reproduction time information of a predetermined portion of the music data set by the data setting unit with the trajectory input via the input unit. The trajectory data generation device described in 1.
上記データ設定部により設定された上記音楽データを再生する再生部
を具え、
上記軌跡データ生成部は、
上記再生部により上記音楽データが再生されながら上記入力部を介して上記軌跡が描かれて入力されると、当該描かれている上記軌跡の描画時間軸と、上記再生されている上記音楽データの再生時間軸とを合わせて、上記軌跡に対し上記音楽データの上記再生時間情報を順次関連付けて上記軌跡データを生成する
ことを特徴とする請求項1に記載の軌跡データ生成装置。
A reproduction unit for reproducing the music data set by the data setting unit;
The trajectory data generation unit
When the trajectory is drawn and inputted via the input unit while the music data is being played back by the playback unit, the drawing time axis of the drawn trajectory and the music data being played back The trajectory data generation apparatus according to claim 1, wherein the trajectory data is generated by sequentially associating the reproduction time information of the music data with the trajectory in combination with a reproduction time axis.
上記軌跡データ生成部により生成された上記軌跡データを加工する軌跡データ加工部と、
上記軌跡が描かれる第1の領域とは異なる第2の領域を定義する定義情報を設定する定義情報設定部と
を具え、
上記入力部は、
上記第1の領域内で上記軌跡を描いて入力するために用いられ、
上記軌跡データ加工部は、
上記定義情報設定部により設定された上記定義情報に基づいて、上記軌跡を上記第2の領域に合わせるように、上記軌跡データ生成部により生成された上記軌跡データを加工する
ことを特徴とする請求項1に記載の軌跡データ生成装置。
A trajectory data processing unit that processes the trajectory data generated by the trajectory data generation unit;
A definition information setting unit that sets definition information that defines a second region different from the first region in which the trajectory is drawn,
The input section is
Used to draw and input the trajectory in the first region,
The trajectory data processing unit
The trajectory data generated by the trajectory data generation unit is processed based on the definition information set by the definition information setting unit so as to match the trajectory with the second region. Item 2. The trajectory data generation device according to Item 1.
可動部に関する可動部情報と、上記軌跡データ生成部により生成された上記軌跡データとに基づいて、当該軌跡データの示す上記軌跡に沿って上記動き対象を動かすように上記可動部を動かすための動きデータを生成する動きデータ生成部
を具えることを特徴とする請求項1に記載の軌跡データ生成装置。
Based on the movable part information about the movable part and the trajectory data generated by the trajectory data generation part, the movement for moving the movable part to move the movement target along the trajectory indicated by the trajectory data The trajectory data generation device according to claim 1, further comprising a motion data generation unit that generates data.
上記可動部と、
上記動きデータ生成部により生成された上記動きデータに基づいて上記可動部を駆動制御して動かす駆動制御部と
を具えることを特徴とする請求項6に記載の軌跡データ生成装置。
The movable part;
The trajectory data generation device according to claim 6, further comprising: a drive control unit configured to drive and move the movable unit based on the motion data generated by the motion data generation unit.
上記音楽データを分析する分析部と、
上記分析部による上記音楽データの分析結果に応じて、当該音楽データの再生に合わせて可動部を動かすための動きパターンを設定するパターン設定部と
を具えることを特徴とする請求項2に記載の軌跡データ生成装置。
An analysis unit for analyzing the music data;
The pattern setting unit for setting a movement pattern for moving the movable unit in accordance with the reproduction of the music data according to the analysis result of the music data by the analysis unit. Trajectory data generation device.
上記音楽データ毎の再生に合わせて可動部を動かすための複数種類の動きパターンを、それぞれ対応する上記音楽データに関連付けて記憶する記憶部と、
上記データ設定部により設定された上記音楽データに関連付けられている上記動きパターンを上記記憶部から読み出して、当該読み出した上記動きパターンを、上記設定された上記音楽データの再生に合わせて上記可動部を動かすための動きパターンに設定するパターン設定部と
を具えることを特徴とする請求項2に記載の軌跡データ生成装置。
A storage unit that stores a plurality of types of movement patterns for moving the movable unit in accordance with the reproduction of each music data in association with the corresponding music data;
The movement pattern associated with the music data set by the data setting unit is read from the storage unit, and the read movement pattern is moved to the movable unit in accordance with the reproduction of the set music data. The trajectory data generation device according to claim 2, further comprising: a pattern setting unit that sets a movement pattern for moving the pattern.
上記入力部は、
上記軌跡に対し、所定周期で変化する所定の軌跡パターンに変更する部分を指定させるために用いられると共に、上記軌跡パターンの周期を任意に選定させるためにも用いられ、
上記軌跡データ生成部は、
上記入力部を介して入力された上記軌跡に対し、当該入力部を介して指定された部分に上記軌跡パターンに変更すると共に、当該軌跡パターンの上記所定周期を、上記入力部を介して任意に選定された上記周期に設定する
ことを特徴とする請求項2に記載の軌跡データ生成装置。
The input section is
It is used to specify a portion to be changed to a predetermined trajectory pattern that changes in a predetermined cycle with respect to the trajectory, and is also used to arbitrarily select the cycle of the trajectory pattern,
The trajectory data generation unit
The trajectory input via the input unit is changed to the trajectory pattern at a portion specified via the input unit, and the predetermined period of the trajectory pattern is arbitrarily set via the input unit. The trajectory data generation device according to claim 2, wherein the trajectory data generation device is set to the selected period.
上記入力部は、
上記軌跡に対し、所定振幅で変化する所定の軌跡パターンに変更する部分を指定させるために用いられると共に、上記軌跡パターンの振幅を任意に選定させるためにも用いられ、
上記軌跡データ生成部は、
上記入力部を介して入力された上記軌跡に対し、当該入力部を介して指定された部分に上記軌跡パターンに変更すると共に、当該軌跡パターンの上記所定振幅を、上記入力部を介して任意に選定された上記振幅に設定する
ことを特徴とする請求項2に記載の軌跡データ生成装置。
The input section is
The trajectory is used to specify a portion to be changed to a predetermined trajectory pattern that changes with a predetermined amplitude, and is used to arbitrarily select the amplitude of the trajectory pattern.
The trajectory data generation unit
The trajectory input via the input unit is changed to the trajectory pattern at a portion specified via the input unit, and the predetermined amplitude of the trajectory pattern is arbitrarily set via the input unit. The trajectory data generation device according to claim 2, wherein the selected amplitude is set.
上記入力部は、
車輪及び加速度センサを有するロボット装置、又はポインティングデバイスでなる
ことを特徴とする請求項2に記載の軌跡データ生成装置。
The input section is
The trajectory data generation device according to claim 2, comprising a robot device having a wheel and an acceleration sensor, or a pointing device.
上記入力部を介して入力された上記軌跡の特徴を解析する解析部
を具え、
上記データ設定部は、
上記解析部により解析された上記軌跡の特徴に応じて、複数種類の上記音楽データの中から上記軌跡の特徴に合った音楽の特徴を有する上記音楽データを、上記動き対象が動くときに再生するように設定し、
上記軌跡データ生成部は、
上記入力部を介して入力された上記軌跡に対し、上記データ設定部により設定された上記音楽データの上記再生時間情報を関連付けて上記軌跡データを生成する
ことを特徴とする請求項2に記載の軌跡データ生成装置。
An analysis unit for analyzing the characteristics of the trajectory input via the input unit;
The data setting part
According to the trajectory feature analyzed by the analysis unit, the music data having a music feature that matches the trajectory feature from among the plurality of types of music data is reproduced when the movement target moves. Set as
The trajectory data generation unit
The trajectory data is generated by associating the reproduction time information of the music data set by the data setting unit with the trajectory input via the input unit. Trajectory data generation device.
上記音楽の特徴に応じて分類された複数の上記音楽データが登録された複数種類のリストを記憶する記憶部
を具え、
上記データ設定部は、
上記解析部により解析された上記軌跡の特徴に応じて、上記記憶部に記憶されている複数種類の上記リストの中から、上記軌跡の特徴に合った上記音楽の特徴を有する複数の上記音楽データが登録された1つの上記リストを選択すると共に、当該選択した上記リストに登録された複数の上記音楽データの中から無作為に1つの当該音楽データを選択して、当該選択した上記音楽データを、上記動き対象が動くときに再生するように設定する
ことを特徴とする請求項13に記載の軌跡データ生成装置。
A storage unit for storing a plurality of types of lists in which a plurality of the music data classified according to the characteristics of the music are registered;
The data setting part
In accordance with the trajectory features analyzed by the analysis unit, a plurality of the music data having the music features that match the trajectory features from among a plurality of types of the list stored in the storage unit. Is selected, and the music data is randomly selected from the plurality of music data registered in the selected list, and the selected music data is selected. The trajectory data generation device according to claim 13, wherein the trajectory data generation device is set to be reproduced when the moving object moves.
上記音楽データに対し当該音楽データに基づく音楽のビートに相当するビート位置を検出するビート検出部と、
上記入力部を介して入力された上記軌跡の変極点を検出する検出部と、
上記軌跡データ生成部により生成された上記軌跡データを、上記軌跡の上記変極点と上記音楽データの上記ビート位置とを合わせるように加工する軌跡データ加工部と
を具えることを特徴とする請求項2に記載の軌跡データ生成装置。
A beat detection unit that detects a beat position corresponding to a beat of music based on the music data with respect to the music data;
A detection unit for detecting an inflection point of the trajectory input via the input unit;
A trajectory data processing unit that processes the trajectory data generated by the trajectory data generation unit so as to match the inflection point of the trajectory with the beat position of the music data. 2. The trajectory data generation device according to 2.
ユーザによって描かれた動き対象の動きの軌跡に対し、音楽データの再生時間情報を関連付けて軌跡データを生成する軌跡データ生成ステップ
を具えることを特徴とする軌跡データ生成方法。
A trajectory data generation method, comprising: a trajectory data generation step of generating trajectory data by associating reproduction time information of music data with a motion trajectory drawn by a user.
コンピュータに対し、
ユーザによって描かれた動き対象の動きの軌跡に対し、音楽データの再生時間情報を関連付けて軌跡データを生成する軌跡データ生成ステップ
を実行させるための軌跡データ生成プログラム。
Against the computer
A trajectory data generation program for executing a trajectory data generation step of generating trajectory data by associating reproduction time information of music data with a motion trajectory drawn by a user.
JP2006298149A 2006-11-01 2006-11-01 Device, method and program for generating locus data Pending JP2008117075A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006298149A JP2008117075A (en) 2006-11-01 2006-11-01 Device, method and program for generating locus data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006298149A JP2008117075A (en) 2006-11-01 2006-11-01 Device, method and program for generating locus data

Publications (1)

Publication Number Publication Date
JP2008117075A true JP2008117075A (en) 2008-05-22

Family

ID=39502948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006298149A Pending JP2008117075A (en) 2006-11-01 2006-11-01 Device, method and program for generating locus data

Country Status (1)

Country Link
JP (1) JP2008117075A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018170678A (en) * 2017-03-30 2018-11-01 株式会社ライブ・アース Live video processing system, live video processing method, and program
JP2019098405A (en) * 2017-11-28 2019-06-24 株式会社デンソーウェーブ Teaching data display device and teaching data display method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018170678A (en) * 2017-03-30 2018-11-01 株式会社ライブ・アース Live video processing system, live video processing method, and program
JP2019098405A (en) * 2017-11-28 2019-06-24 株式会社デンソーウェーブ Teaching data display device and teaching data display method

Similar Documents

Publication Publication Date Title
JP4247626B2 (en) Playback apparatus and playback method
US10895914B2 (en) Methods, devices, and methods for creating control signals
JP2008090633A (en) Motion data creation device, motion data creation method and motion data creation program
JP4788246B2 (en) Input device and input method
WO2013061998A1 (en) Electroacoustic signal emitter device and electroacoustic signal emitter method
KR20170019242A (en) Method and apparatus for providing user interface in an electronic device
US20150103019A1 (en) Methods and Devices and Systems for Positioning Input Devices and Creating Control
JP2006202396A (en) Device and method for reproducing content
JP2004157994A (en) Method and device for analyzing gesture created in free space
JP2011253539A (en) Input for computer device using computer vision based on pattern
US20220293073A1 (en) Signal processing device, signal processing method, and program
JP2012065943A (en) Exercise support device, exercise support method and program
JP2008117075A (en) Device, method and program for generating locus data
JP5187563B2 (en) Sound reproduction robot
JP2008113759A (en) Track processing device, track processing method and track processing program
JP2008125741A (en) Robotic apparatus control system, robotic apparatus and robotic apparatus control method
TWI585614B (en) Composite beat effect system and method for processing composite beat effect
US20200164522A1 (en) Mobile terminal and music play-back system comprising mobile terminal
JP2008210184A (en) Input device and music player
Bau et al. The A20: Musical Metaphors for Interface Design.
JP2008090013A (en) Robot device, music output method, and music output program
Normark et al. The extended clarinet
KR101939500B1 (en) Marionette System and Method Using Mobile terminal
JP2009050471A (en) Movement feature presentation apparatus, movement feature presentation method, and movement feature presentation program
JP2009020361A (en) Data segmenting device, method of data segmenting and program for segmenting data