JPH08293039A - Music/image conversion device - Google Patents

Music/image conversion device

Info

Publication number
JPH08293039A
JPH08293039A JP7098208A JP9820895A JPH08293039A JP H08293039 A JPH08293039 A JP H08293039A JP 7098208 A JP7098208 A JP 7098208A JP 9820895 A JP9820895 A JP 9820895A JP H08293039 A JPH08293039 A JP H08293039A
Authority
JP
Japan
Prior art keywords
motion
unit
music
chord
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7098208A
Other languages
Japanese (ja)
Inventor
Junichi Sato
潤一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP7098208A priority Critical patent/JPH08293039A/en
Publication of JPH08293039A publication Critical patent/JPH08293039A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To provide a music/image conversion device which can convert the music into an image that has the concreteness of visual art. CONSTITUTION: An action database 107 stores the actions of an articulate body. An action generation part 106 retrieves the actions out of the database 107 based on the chord detected by a chord detection part 105 when the leading point of sound volume is detected by a peak detection part 103. Thus the part 106 generates the action data. Thereby, such images that have the concrete shapes and movement, e.g. an image of a human being who is dancing on the music can be generated.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は音楽情報を画像に変換す
る音楽画像変換装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a music image converter for converting music information into an image.

【0002】[0002]

【従来の技術】音を画像に変換する従来技術の例として
は、曲の各パートの音の動きを基本形状を持つ画像の動
きに対応させる手法(特開昭63−184875号公
報)があった。
2. Description of the Related Art As an example of a conventional technique for converting sound into an image, there is a method (Japanese Patent Application Laid-Open No. 63-184875) in which the motion of the sound of each part of a piece of music corresponds to the motion of an image having a basic shape. It was

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記従
来の技術では音の動きを画像の動きに直接対応させるた
め、得られる画像は、画像全体として関連性のない動き
を持った抽象的なものとなり、上記従来技術が目的とす
る視覚芸術が、抽象芸術に限られてしまうという欠点を
有していた。
However, in the above-mentioned conventional technique, the motion of sound is directly corresponded to the motion of the image, so that the obtained image is an abstract image having unrelated motion as the whole image. The above-mentioned conventional art has a drawback in that the visual art aimed at is limited to abstract art.

【0004】本発明の目的は、聴覚芸術としての音楽
を、具体性を持った視覚芸術としての画像に変換する音
楽画像変換装置を提供することにある。
It is an object of the present invention to provide a music image conversion apparatus for converting music as auditory art into an image as concrete visual art.

【0005】[0005]

【課題を解決するための手段】この目的を達成するため
本発明は、関節物体の動作を記憶する動作データベース
を有し、音楽信号から動作を切り替えるタイミングを生
成するピーク検出部と、音楽信号から和音を検出する和
音検出部と、動作を切り替えるタイミングで和音をもと
に動作データベースから動作を選択する動作生成部とを
有する。
In order to achieve this object, the present invention has a motion database for storing motions of articulated objects, and a peak detection unit for generating timing for switching motions from a music signal; It has a chord detection unit that detects chords, and a motion generation unit that selects a motion from a motion database based on the chord at the time of switching the motion.

【0006】[0006]

【作用】人間などの形状を表す関節物体がある時間内に
行う動作を、あらかじめいくつか動作データベースに保
存しておき、音の立ち上がり箇所をきっかけに、その部
分の和音構成に基づいて動作を検索する。音の立ち上が
り箇所ごとに動作を適当に切り替えることにより、音楽
情報を一連の動作情報に変換し、関節物体の画像にその
動作を適用して画像化する。
[Function] Some motions of a joint object representing a shape such as a human being performed within a certain time are stored in advance in a motion database, and the motion is searched based on the chord structure of the part triggered by the rising part of the sound. To do. The music information is converted into a series of motion information by appropriately switching the motion for each rising part of the sound, and the motion is applied to the image of the joint object to form an image.

【0007】[0007]

【実施例】【Example】

(実施例1)以下本発明の実施例について、図面を参照
しながら説明する。図1は本発明の一実施例における構
成図である。
(Embodiment 1) An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of an embodiment of the present invention.

【0008】まず、音楽信号入力部101により音楽を
音声の電気信号として入力する。音量検出部102は、
音楽信号入力部101により入力される音楽情報から音
量の情報を取り出す。入力された音楽情報が音声の電気
信号の場合は、その2乗の値が音量情報となるので、そ
の包絡線を音量情報信号として得る。ピーク検出部10
3は、音量検出部102で得られる音量情報信号から、
音量の立ち上がり箇所を検出する。直前のある時間
(2、3秒程度)での平均音量を超える立ち上がりのみ
を検出するようにすることにより、細かい音の立ち上が
りを検出するのを防ぐことができる。
First, the music signal input section 101 inputs music as an electric signal of voice. The volume detector 102
Volume information is extracted from the music information input by the music signal input unit 101. When the input music information is an electric signal of voice, the squared value becomes the volume information, and the envelope is obtained as the volume information signal. Peak detector 10
3 is from the volume information signal obtained by the volume detection unit 102,
The rising point of the volume is detected. By detecting only the rising edge that exceeds the average sound volume in a certain time immediately before (a few seconds), it is possible to prevent the rising edge of a fine sound from being detected.

【0009】音程検出部104は、音楽信号入力部10
1により入力される音楽情報から、音程の情報を検出す
る。音声の電気信号をフーリエ変換を用いて周波数解析
を行う。音楽で用いられる音程は通常(数1)で表せる
値となる。
The pitch detection section 104 includes a music signal input section 10
Interval information is detected from the music information input by 1. Frequency analysis is performed on the electrical signal of voice by using Fourier transform. The pitch used in music is a value that can be normally expressed by (Equation 1).

【0010】[0010]

【数1】 [Equation 1]

【0011】f(0,0)が440Hzの基準となるラ
の音で、nは半音間隔の音程を、mはオクターブの音程
を表す。したがって、(数1)で表される周波数f
(n,m)の周波数成分I(n,m)を音程検出部10
4で得る。和音検出部105は、ピーク検出部103で
得られた音量の立ち上がり箇所において、音程検出部1
04で得られた音程情報に基づいて和音の検出を行う。
まず、ちょうどオクターブずれた音は同じ音とみなし、
それらの成分I(n)を(数2)のように計算する。
F (0,0) is a reference sound of 440 Hz, n is a pitch of a semitone interval, and m is a pitch of an octave. Therefore, the frequency f expressed by (Equation 1)
The frequency component I (n, m) of (n, m) is used as the pitch detection unit 10
Get at 4. The chord detection unit 105 detects the pitch detection unit 1 at the rising point of the volume obtained by the peak detection unit 103.
The chord is detected based on the pitch information obtained in 04.
First, consider that sounds that are exactly octave apart are the same sound,
The components I (n) are calculated as in (Equation 2).

【0012】[0012]

【数2】 [Equation 2]

【0013】成分I(n)の大きい順にある個数のnを
取り出し、そのnの組み合わせを和音として検出する。
A certain number of n's are taken out in descending order of the component I (n), and the combination of the n's is detected as a chord.

【0014】動作生成部106は、ピーク検出部103
で検出された音量の立ち上がり箇所の情報と、和音検出
部105で検出された和音をもとに、動作データベース
107から関節物体の動作を検索し、合成する。図4
に、人間を関節物体とみなした例を示す。図4のような
関節物体に対して、手足を動かしたときの動きを、関節
の位置座標、あるいは関節の角度の数値列として動作デ
ータベース107に記憶しておく。ピーク検出部103
で検出された音量の立ち上がり箇所を動作の変化点とす
る。和音検出部105で検出された和音の種類と動作デ
ータベース107の記憶する動作データとを対応づけて
おき、動作の変化点の時点以降の動作を和音の種類で検
索する。動作データとして持っている関節位置座標ある
いは関節角の数値列は、スプライン処理などを行って変
化前の動作から平滑に変化するようにする。動作出力部
108は動作生成部106の生成した動作データを可視
化して表示する。
The operation generator 106 includes a peak detector 103.
The motion of the joint object is searched from the motion database 107 based on the information on the rising portion of the sound volume detected in step 3 and the chord detected by the chord detection unit 105, and the motion is synthesized. FIG.
Shows an example in which humans are regarded as joint objects. The movement of a limb with respect to a joint object as shown in FIG. 4 is stored in the motion database 107 as a position coordinate of the joint or a numerical sequence of the angle of the joint. Peak detector 103
The rising point of the volume detected in step 3 is the change point of the operation. The type of chord detected by the chord detection unit 105 is associated with the action data stored in the action database 107, and the action after the point of change in action is searched for by the type of chord. The joint position coordinate or the joint angle numerical value sequence that is held as the movement data is subjected to spline processing or the like so that the movement before the change changes smoothly. The motion output unit 108 visualizes and displays the motion data generated by the motion generation unit 106.

【0015】以上の結果、あらかじめ記憶してある動作
データをもとに、音楽に合わせて動く関節物体を表示す
ることができる。
As a result of the above, based on the motion data stored in advance, it is possible to display a joint object that moves in accordance with music.

【0016】(実施例2)次に本発明における動作生成
部106の実施例について、図2を参照しながら説明す
る。和音分類部201は、和音検出部105が検出した
和音の種類を分類する。
(Embodiment 2) Next, an embodiment of the motion generator 106 of the present invention will be described with reference to FIG. The chord classification unit 201 classifies the types of chords detected by the chord detection unit 105.

【0017】和音分類部201における和音の種類判別
の動作例を、図5のフローチャートを参照しながら説明
する。ここでは、和音の成分I(n)が大きいnを3つ
選択し、n1、n2、n3(n1<n2<n3)とす
る。n2−n1とn3−n2の値を調べ、それぞれ4、
3であればそれは長調の和音であると判別でき、それぞ
れ3、4であれば単調の和音であると判別できる。例え
ば、ドミソの和音が検出された場合、n1、n2、n3
はそれぞれ3、7、10であるので、長調の和音と判別
でき、ラドミの和音の場合はn1、n2、n3はそれぞ
れ0、3、7であるので単調の和音であると判別でき
る。その他にもこの2つの差の値からいくつかの判別が
可能である。
An example of the operation of the chord classifying section 201 for determining the type of chord will be described with reference to the flowchart of FIG. Here, three n having a large chord component I (n) are selected to be n1, n2, and n3 (n1 <n2 <n3). Check the values of n2-n1 and n3-n2, and
If it is 3, it can be determined that it is a major chord, and if it is 3 and 4, it can be determined that it is a monotone chord. For example, if a Domiso chord is detected, n1, n2, n3
Are 3, 7 and 10, respectively, and can be determined to be major chords. In the case of the Radmi chord, n1, n2, and n3 are 0, 3 and 7, respectively, and thus can be determined to be monotone chords. In addition, some discrimination can be made from the values of these two differences.

【0018】もし判別ができなかった場合、新たなn
1、n2、n3を、それまで使っていたn2、n3、n
1+12にそれぞれ置き換えて和音を転回し、判別を行
う。例えばラ、ド、ファという和音があった場合は、n
1、n2、n3はそれぞれ0、3、8となるので長調と
も単調とも判別できないので、新たにn1、n2、n3
をそれぞれ3、8、12と転回して判別を行う。これで
判別ができない場合はもう一度転回、判別を行い、3度
目で判別ができない場合は「不明」と判別し、処理を終
了する。
If the judgment cannot be made, a new n
N1, n2, n3, n2, n3, n
The chord is turned by replacing it with 1 + 12, and the judgment is performed. For example, if there are chords such as la, de, and fa, n
Since 1, n2, and n3 are 0, 3, and 8 respectively, it is not possible to discriminate between major and monotone, so n1, n2 and n3 are newly added.
Are turned to 3, 8, and 12, respectively, to make a determination. If it cannot be discriminated by this, it is turned again and discriminated, and if it cannot be discriminated for the third time, it is discriminated as "unknown" and the process is terminated.

【0019】図2において、動作検索部202は、和音
分類部201で得られた和音の分類の結果からそれに対
応する動作データを動作データベース107から検索す
る。動作合成部203は動作検索部202が検索した動
作データとそれまでの動作データとを、スプライン処理
などで平滑化を行い、一連の動作となるように合成す
る。その結果、関節物体の動作を、音楽の和音の内容、
つまり音の雰囲気によって変更することが可能となる。
In FIG. 2, the motion search unit 202 searches the motion database 107 for motion data corresponding to the chord classification result obtained by the chord classification unit 201. The behavioral synthesis unit 203 smoothes the behavioral data retrieved by the behavioral retrieval unit 202 and the behavioral data up to that point by spline processing or the like, and synthesizes them into a series of behaviors. As a result, the motion of the articulated object can
That is, it is possible to change the sound atmosphere.

【0020】(実施例3)次に本発明における動作生成
部106の他の実施例について、図3を参照しながら説
明する。小節認識部301は、ピーク検出部103が検
出した音量の立ち上がり箇所をもとに、動作変化点を決
定する。
(Embodiment 3) Next, another embodiment of the motion generator 106 of the present invention will be described with reference to FIG. The bar recognizing unit 301 determines an action change point based on the rising point of the volume detected by the peak detecting unit 103.

【0021】小節認識部301の動作例を、図6を参照
しながら説明する。小節を、1動作を実行させる最小単
位の時間と定義する。グラフは、ピーク検出部が検出し
た音量の立ち上がり箇所の時刻とそのときの音量の大き
さを表す。グラフの縦軸は音量を、横軸は時間を表す。
入力されたのがある程度リズムのはっきりした音楽情報
であり、近似的に音量の立ち上がり箇所が時刻0、1
a、2a……のいずれかであるものと仮定する。また図
中、「小節時間」は1動作を実行させる時間を、「小節
内経過時間」は小節内で経過した時間を、「小節先頭時
刻」はその小節の先頭時刻を表す。
An operation example of the bar recognizing section 301 will be described with reference to FIG. A bar is defined as the minimum unit of time for executing one operation. The graph represents the time of the rising point of the volume detected by the peak detection unit and the volume of the volume at that time. The vertical axis of the graph represents volume and the horizontal axis represents time.
The input is music information with a clear rhythm, and the rising point of the volume is approximately time 0, 1
It is assumed that one of a, 2a ... Further, in the figure, "bar time" represents the time for executing one operation, "intra-bar elapsed time" represents the time elapsed in the bar, and "bar start time" represents the head time of the bar.

【0022】最初に音量の立ち上がるのが時刻0である
とする。ここから動作がスタートする。次に立ち上がる
時刻をaとする。時刻aの音量が時刻0よりも大きい場
合は時刻aを、そうでない場合は時刻0を基準時刻と定
義する。また時間aを単位時間と定義する。時刻aの時
点で単位時間が決定したため、その時点の小節時間はa
となる。また、時刻aを基準時刻とした場合は小節内経
過時間は0、小節先頭時刻はaとなる。
It is assumed that the volume first rises at time 0. The operation starts from here. The next rising time is a. Time a is defined as the reference time when the volume at time a is higher than time 0, and otherwise time 0 is defined as the reference time. Further, the time a is defined as a unit time. Since the unit time is determined at the time a, the bar time at that time is a
Becomes When the time a is used as the reference time, the elapsed time within the bar is 0 and the bar start time is a.

【0023】時刻2aでは、入力がないため、そこは小
節の途中であると判断される。したがって小節時間は2
aとなり、小節内経過時間はaとなり、小節先頭時刻は
変わらずaとなる。
At time 2a, since there is no input, it is judged to be in the middle of the bar. Therefore, the bar time is 2
a, the elapsed time in the bar becomes a, and the bar start time remains a.

【0024】時刻3aでは入力があるが、やや小さい入
力のため、それが小節の先頭を表すのか小節の途中を表
すのかが判断しにくい。そこで、その時点は小節の「先
頭か途中」であると判断する。小節時間は2aか3aと
し、小節内経過時間は0(小節が変わった)か2a(小
節が変わっていない)とする。時刻4aでも入力が小さ
いため、時刻3aの状態を継承する。
At time 3a, there is an input, but since it is a little small input, it is difficult to determine whether it represents the beginning of the bar or the middle of the bar. Therefore, it is determined that the time is “beginning or midway” of the bar. The bar time is 2a or 3a, and the elapsed time within the bar is 0 (bar has changed) or 2a (bar has not changed). Since the input is small even at time 4a, the state at time 3a is inherited.

【0025】時刻5aで大きい入力が入ると、そこを小
節の先頭とみることができ、時刻3a、4aの入力は小
節の途中であると判断できる。そこで小節時間は4a、
小節内先頭時刻を5aとすることができる。
When a large input is input at time 5a, it can be regarded as the beginning of the bar, and the input at times 3a and 4a can be judged to be in the middle of the bar. So the bar time is 4a,
The start time within a bar can be set to 5a.

【0026】以降、時刻が4aを経過するごとに大きい
入力があれば、矛盾はないとして小節時間4aが維持さ
れる。音量の大きさは、それ以前の数秒間の音量の平均
値を基準にして判断する。小節認識部301は、小節先
頭時刻を出力する。また単位時間aは、各時刻以前の数
小節間の音量立ち上がり箇所をもとに、動的に決定され
る。
Thereafter, if there is a large input every time the time passes 4a, it is considered that there is no contradiction, and the bar time 4a is maintained. The volume is judged based on the average value of the volume for several seconds before that. The bar recognition unit 301 outputs the bar start time. Further, the unit time a is dynamically determined based on the sound volume rising point for several bars before each time.

【0027】動作合成部203は、小節認識部301が
決定した動作変化点どうしの時間をもとに、動作をどれ
くらいの速度で合成すればよいか決定する。例えば動作
再生時間Tが4aであれば、T=4aの時間で一動作を
終了するように、動作データを補間、修正する必要があ
る。動作データ107に記憶された動作データが1動作
当たりMコマ分のデータを持ち、表示系が1秒あたりD
コマの動作データを必要とするとすれば、表示系でdコ
マ目の表示を行うためには(数3)の通りmコマ目の動
作データを用いればよい。
The behavioral synthesis unit 203 determines how fast the behavior should be synthesized based on the time between the movement change points determined by the measure recognition unit 301. For example, if the motion reproduction time T is 4a, it is necessary to interpolate and correct the motion data so that one motion is completed at the time T = 4a. The motion data stored in the motion data 107 has data for M frames per motion, and the display system is D per second.
If the motion data of the frame is required, the motion data of the mth frame may be used as shown in (Equation 3) in order to display the dth frame on the display system.

【0028】[0028]

【数3】 (Equation 3)

【0029】一般にはmは整数とならないので、(mの
整数部)コマ目と(mの整数部)+1コマ目の動作デー
タの補間により、表示する動作データを得る。
Since m is not an integer in general, the operation data to be displayed is obtained by interpolating the operation data of the (m's integer part) frame and the (m's integer part) +1 frame.

【0030】この結果、動作の変化点を曲のスピードに
合わせて大まかにとることができ、曲に合わせて動作を
生成することが可能となる。
As a result, the change point of the motion can be roughly set according to the speed of the music, and the motion can be generated according to the music.

【0031】(実施例4)次に本発明における動作出力
部108の実施例について説明する。動作出力部108
は動作生成部106が出力した動作データを、コンピュ
ータグラフィックスで生成する関節物体の3次元形状モ
デルに適用することで表示する。関節物体として、例え
ば図4のように人間の形状を表す3次元形状モデルを用
い、動作データが持つ関節位置座標や関節角度をこの3
次元形状モデルに適用していく。
(Embodiment 4) Next, an embodiment of the operation output unit 108 in the present invention will be described. Operation output unit 108
Is displayed by applying the motion data output by the motion generation unit 106 to a three-dimensional shape model of a joint object generated by computer graphics. As the joint object, for example, a three-dimensional shape model representing the shape of a human being is used as shown in FIG.
It will be applied to the dimensional shape model.

【0032】この結果、人間など具体的な形状を持つ関
節物体が、音楽に合わせて動くさまを映像化することが
可能となる。
As a result, it is possible to visualize a joint object having a specific shape, such as a human being, moving along with music.

【0033】(実施例5)次に本発明の実施例5につい
て説明する。音楽情報として、音楽の演奏制御情報に相
当する信号、例えばMIDI制御信号を音楽信号入力部
101に入力する。MIDI制御信号は音程情報、音量
情報を個々の音について持っている。音量検出部102
では、発音情報が存在するタイミングにおいて、そのタ
イミングに存在する音の音量情報の総和を計算すること
で、音楽としての音量情報を取り出すことができる。音
程検出部104で音程情報を取り出すことは容易である
ので、それ以降は音楽情報として音声の電気信号を入力
した場合と同様の処理を行うことができる。
(Fifth Embodiment) Next, a fifth embodiment of the present invention will be described. As music information, a signal corresponding to music performance control information, such as a MIDI control signal, is input to the music signal input unit 101. The MIDI control signal has pitch information and volume information for each sound. Volume detector 102
Then, at the timing when the pronunciation information is present, the volume information as music can be extracted by calculating the sum of the volume information of the sounds present at that timing. Since it is easy for the pitch detecting unit 104 to extract the pitch information, the same processing as that when an electric signal of voice is input as music information can be performed thereafter.

【0034】以上の結果、音程検出や音量検出の処理の
負荷を軽くすることができる。
As a result of the above, it is possible to reduce the load of processing for pitch detection and volume detection.

【0035】[0035]

【発明の効果】以上のように本発明によれば、音楽とい
う聴覚芸術を、人間が音楽に合わせて踊るような、具体
的な形状を持った物体の動きという、具体性を持った視
覚芸術に変換することが可能となる。
As described above, according to the present invention, the auditory art of music is a visual art with a specificity that is the movement of an object with a specific shape, such as a human dancing to music. Can be converted to.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の構成を示すブロック図FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention.

【図2】本実施例の動作生成部の構成例を示すブロック
FIG. 2 is a block diagram illustrating a configuration example of a motion generation unit according to the present exemplary embodiment.

【図3】本実施例の動作生成部の他の構成例を示すブロ
ック図
FIG. 3 is a block diagram showing another example of the configuration of the motion generation unit according to the present embodiment.

【図4】本実施例の人間を関節物体の一例として示す線
FIG. 4 is a diagram showing a human being as an example of a joint object according to the present embodiment.

【図5】本実施例の和音分類部の手続きを示すフローチ
ャート
FIG. 5 is a flowchart showing the procedure of the chord classification unit of this embodiment.

【図6】時系列での音量データから動作の変化点を決定
する小節認識部の動作を示す図
FIG. 6 is a diagram showing an operation of a bar recognition unit that determines a change point of the operation from time-series volume data.

【符号の説明】[Explanation of symbols]

101 音楽信号入力部 102 音量検出部 103 ピーク検出部 104 音程検出部 105 和音検出部 106 動作生成部 107 動作データベース 108 動作出力部 201 和音分類部 202 動作検索部 203 動作合成部 301 小節認識部 101 Music Signal Input Unit 102 Volume Detection Unit 103 Peak Detection Unit 104 Pitch Detection Unit 105 Chord Detection Unit 106 Motion Generation Unit 107 Motion Database 108 Motion Output Unit 201 Chord Classification Unit 202 Motion Search Unit 203 Motion Synthesis Unit 301 Measure Recognition Unit

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】音楽情報を入力する音楽信号入力部と、前
記音楽信号入力部で入力された音楽情報から音量を検出
する音量検出部と、前記音量検出部で検出された音量デ
ータから音の立ち上がり箇所を検出するピーク検出部
と、前記音楽信号入力部で入力された音楽情報から音程
の分布を検出する音程検出部と、前記ピーク検出部で検
出された音の立ち上がり箇所の時点において、前記音程
検出部で検出された音程分布から和音を検出する和音検
出部と、関節物体の動作を記憶する動作データベースを
保持し、前記ピーク検出部で検出された音の立ち上がり
箇所のタイミングと前記和音検出部で検出された和音と
をもとに動作データベースから動作データを取り出して
動作を生成する動作生成部と、前記動作生成部で生成さ
れた動作を出力する動作出力部とから構成されることを
特徴とする音楽画像変換装置。
1. A music signal input section for inputting music information, a sound volume detecting section for detecting a sound volume from the music information input by the music signal input section, and a sound volume based on sound volume data detected by the sound volume detecting section. A peak detection unit that detects a rising point, a pitch detection unit that detects a pitch distribution from the music information input by the music signal input unit, and a point of the rising position of the sound detected by the peak detection unit, A chord detection unit that detects chords from the pitch distribution detected by the pitch detection unit and a motion database that stores the motion of the joint object are held, and the timing of the rising point of the sound detected by the peak detection unit and the chord detection. A motion generation unit that extracts motion data from the motion database based on the chord detected by the motion generation unit and generates a motion, and outputs the motion generated by the motion generation unit. Music image converter, characterized in that it is composed of a work output.
【請求項2】動作生成部は、和音検出部で検出された和
音データを分類する和音分類部と、前記和音分類部で分
類された結果をもとに、前記動作データベースから動作
データを取り出す動作検索部と、前記動作検索部で取り
出された複数の動作データを接続して動作を合成する動
作合成部とから構成されることを特徴とする音楽画像変
換装置。
2. The motion generation unit extracts a motion data from the motion database based on the chord classification unit that classifies the chord data detected by the chord detection unit and the result classified by the chord classification unit. A music image conversion apparatus comprising a search unit and a motion synthesis unit that connects a plurality of motion data retrieved by the motion search unit and synthesizes a motion.
【請求項3】動作生成部は、ピーク検出部で検出された
音の立ち上がり箇所のタイミング列から小節単位を認識
する小節認識部を有し、前記小節認識部で決定された小
節単位の時間に行う動作を動作検索部で検索し、動作合
成部は、その動作データ列から動作を合成することを特
徴とする請求項2記載の音楽画像変換装置。
3. The motion generation section has a bar recognition section for recognizing a bar unit from the timing sequence of the rising portion of the sound detected by the peak detection section, and at the bar unit time determined by the bar recognition section. 3. The music image conversion apparatus according to claim 2, wherein the motion search unit searches for the motion to be performed, and the motion synthesis unit synthesizes the motion from the motion data sequence.
【請求項4】動作出力部は、動作生成部で生成された動
作を行う関節物体の画像を出力することを特徴とする請
求項1記載の音楽画像変換装置。
4. The music image conversion apparatus according to claim 1, wherein the motion output unit outputs the image of the joint object performing the motion generated by the motion generation unit.
【請求項5】音楽信号入力部は、音楽の演奏制御情報に
相当する信号を入力とすることを特徴とする請求項1記
載の音楽画像変換装置。
5. The music image conversion apparatus according to claim 1, wherein the music signal input section inputs a signal corresponding to music performance control information.
JP7098208A 1995-04-24 1995-04-24 Music/image conversion device Pending JPH08293039A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7098208A JPH08293039A (en) 1995-04-24 1995-04-24 Music/image conversion device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7098208A JPH08293039A (en) 1995-04-24 1995-04-24 Music/image conversion device

Publications (1)

Publication Number Publication Date
JPH08293039A true JPH08293039A (en) 1996-11-05

Family

ID=14213575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7098208A Pending JPH08293039A (en) 1995-04-24 1995-04-24 Music/image conversion device

Country Status (1)

Country Link
JP (1) JPH08293039A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11194764A (en) * 1997-12-27 1999-07-21 Yamaha Corp Device and method for generating musical sound and image, and storage medium
WO1999038588A1 (en) * 1998-01-30 1999-08-05 Konami Co., Ltd. Character display controlling device, display controlling method, and recording medium
US6646644B1 (en) 1998-03-24 2003-11-11 Yamaha Corporation Tone and picture generator device
US6699123B2 (en) 1999-10-14 2004-03-02 Sony Computer Entertainment Inc. Entertainment system, entertainment apparatus, recording medium, and program
KR100463819B1 (en) * 2002-07-18 2004-12-29 한국과학기술원 Synchronization Method of Rhythmic Motion with Music based on Beat Analysis
US6898759B1 (en) 1997-12-02 2005-05-24 Yamaha Corporation System of generating motion picture responsive to music
US7096079B2 (en) 1999-10-14 2006-08-22 Sony Computer Entertainment Inc. Audio processing and image generating apparatus, audio processing and image generating method, recording medium and program
KR100762585B1 (en) * 2005-07-13 2007-10-01 엘지전자 주식회사 Apparatus and method of music synchronization based on dancing
KR101218336B1 (en) * 2011-05-19 2013-01-21 인하대학교 산학협력단 visualizing device for audil signal
US20210248983A1 (en) * 2020-02-11 2021-08-12 Aimi Inc. Music Content Generation Using Image Representations of Audio Files

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6898759B1 (en) 1997-12-02 2005-05-24 Yamaha Corporation System of generating motion picture responsive to music
JPH11194764A (en) * 1997-12-27 1999-07-21 Yamaha Corp Device and method for generating musical sound and image, and storage medium
WO1999038588A1 (en) * 1998-01-30 1999-08-05 Konami Co., Ltd. Character display controlling device, display controlling method, and recording medium
JPH11219443A (en) * 1998-01-30 1999-08-10 Konami Co Ltd Method and device for controlling display of character image, and recording medium
US6319130B1 (en) 1998-01-30 2001-11-20 Konami Co., Ltd. Character display controlling device, display controlling method, and recording medium
KR100591995B1 (en) * 1998-01-30 2006-06-22 고나미 가부시키가이샤 Display control device, display control method and recording medium of character
JP3573288B2 (en) * 1998-01-30 2004-10-06 コナミ株式会社 Character display control device, display control method, and recording medium
US6646644B1 (en) 1998-03-24 2003-11-11 Yamaha Corporation Tone and picture generator device
US6699123B2 (en) 1999-10-14 2004-03-02 Sony Computer Entertainment Inc. Entertainment system, entertainment apparatus, recording medium, and program
US7096079B2 (en) 1999-10-14 2006-08-22 Sony Computer Entertainment Inc. Audio processing and image generating apparatus, audio processing and image generating method, recording medium and program
KR100463819B1 (en) * 2002-07-18 2004-12-29 한국과학기술원 Synchronization Method of Rhythmic Motion with Music based on Beat Analysis
KR100762585B1 (en) * 2005-07-13 2007-10-01 엘지전자 주식회사 Apparatus and method of music synchronization based on dancing
KR101218336B1 (en) * 2011-05-19 2013-01-21 인하대학교 산학협력단 visualizing device for audil signal
US20210248983A1 (en) * 2020-02-11 2021-08-12 Aimi Inc. Music Content Generation Using Image Representations of Audio Files
US11914919B2 (en) 2020-02-11 2024-02-27 Aimi Inc. Listener-defined controls for music content generation
US11947864B2 (en) * 2020-02-11 2024-04-02 Aimi Inc. Music content generation using image representations of audio files

Similar Documents

Publication Publication Date Title
JP6597903B2 (en) Music data processing method and program
JP6614356B2 (en) Performance analysis method, automatic performance method and automatic performance system
EP1300831B1 (en) Method for detecting emotions involving subspace specialists
US9431027B2 (en) Synchronized gesture and speech production for humanoid robots using random numbers
Kashino et al. A sound source identification system for ensemble music based on template adaptation and music stream extraction
Hainsworth et al. Particle filtering applied to musical tempo tracking
Poli Methodologies for expressiveness modelling of and for music performance
EP1742199A1 (en) Tuning device for musical instruments and computer program used therein
Lu et al. Audio textures: Theory and applications
Degara et al. Onset event decoding exploiting the rhythmic structure of polyphonic music
JPH11133995A (en) Voice converting device
JPH08293039A (en) Music/image conversion device
JP4792703B2 (en) Speech analysis apparatus, speech analysis method, and speech analysis program
Perrier et al. Modeling the production of VCV sequences via the inversion of a biomechanical model of the tongue
Harrison et al. Dissociating sensory and cognitive theories of harmony perception through computational modeling
JP7383943B2 (en) Control system, control method, and program
Ajayakumar et al. Predominant instrument recognition in polyphonic music using gmm-dnn framework
JP2012506061A (en) Analysis method of digital music sound signal
JP2009258366A (en) Speech control device
JP3174777B2 (en) Signal processing method and apparatus
Françoise et al. Movement sequence analysis using hidden Markov models: a case study in Tai Chi performance
Bloit et al. Modeling and segmentation of audio descriptor profiles with segmental models
JPH09244693A (en) Method and device for speech synthesis
Dhara et al. Automatic note transcription system for Hindustani classical music
Chang et al. Personalized EV Driving Sound Design Based on the Driver's Total Emotion Recognition