JP2003331310A - Image/voice interlocking output device and method - Google Patents

Image/voice interlocking output device and method

Info

Publication number
JP2003331310A
JP2003331310A JP2002140999A JP2002140999A JP2003331310A JP 2003331310 A JP2003331310 A JP 2003331310A JP 2002140999 A JP2002140999 A JP 2002140999A JP 2002140999 A JP2002140999 A JP 2002140999A JP 2003331310 A JP2003331310 A JP 2003331310A
Authority
JP
Japan
Prior art keywords
data
video
procedure
midi
designating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002140999A
Other languages
Japanese (ja)
Inventor
Yuji Baba
雄二 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2002140999A priority Critical patent/JP2003331310A/en
Publication of JP2003331310A publication Critical patent/JP2003331310A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving image compiler for music producing an image whose CG object is changed by being interlocked with changes in voice information used in a musical piece. <P>SOLUTION: The voice information such as the intensity, the length, and the strength of the voice is obtained from MIDI (musical instrument digital interface) data in the musical piece, the CG object in the CG image is moved, rotated, changed in color, and changed in shape using the voice information. A recording medium recording a moving image compiling program for music is provided in an image reproduction procedure reproducing the image and the voice based on the image and voice data set thereby. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、コンピュータを
利用した音楽とコンピュータグラフィックス映像の同期
出力に関し、特に楽曲中で使われる音声情報を利用した
コンピュータグラフィックス映像の作成に関するもので
ある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a computer and synchronized output of music and computer graphics video, and more particularly to the creation of computer graphics video using audio information used in music.

【0002】[0002]

【従来の技術】近年のパーソナルコンピュータの高速化
・低価格化に伴い、映像素材と音声素材を織り交ぜなが
ら長時間の動画をコンピュータ上で製作するデジタル編
集技術が普及してきた。この技術を用いた表現はテレビ
放送からインターネットのホームページまで様々な用途
で幅広く見られるが、最近特に音楽アーティストの作成
した楽曲に映像を合わせて音楽用動画を流す試みがMT
Vへの利用を始めとして注目されている。MTVの他に
も、例えば、大規模な会場でコンサートが行われる際、
ステージ両脇に巨大スクリーンを設置し、演奏と同時に
コンピュータグラフィックス(以下CG)を用いた映像
を流すようになってきている。また、ダンスミュージッ
ク(テクノ・ヒップホップなど)に合わせて踊りを楽し
むクラブと呼ばれる娯楽スペースでは、通称VJ(Visua
l Jockey)と呼ばれる映像アーティストが音楽に合わせ
てCG映像をスクリーンに映し出すことにより視覚的に
場の雰囲気を盛り上げる、というスタイルが定着してい
る。
2. Description of the Related Art With the recent increase in speed and cost of personal computers, digital editing technology for producing long-time moving images on a computer while interweaving video and audio materials has become widespread. Expressions using this technology are widely used for a variety of purposes, from television broadcasting to Internet homepages. Recently, an attempt has been made to stream music videos by matching the music with music created by music artists.
Attention has been paid to its use for V. In addition to MTV, for example, when a concert is held at a large venue,
Huge screens have been installed on both sides of the stage, and images using computer graphics (hereinafter CG) are being played at the same time as the performance. Also, in the entertainment space called a club where you can enjoy dancing to dance music (techno, hip hop, etc.), it is commonly known as VJ (Visua
A style established by a visual artist called “Jockey” that visually enhances the atmosphere of the venue by displaying CG images on the screen in time with music.

【0003】このような音楽用動画の製作に関して、従
来の実施形態を図1に示す。音楽作成装置4では、1曲
分あるいは曲中のある部分の音声情報を構成するMID
Iデータや音声波形データなどの音楽素材を作成する。
作成された音楽素材は記憶装置7に記憶される。市販の
ソフトウェアではSTEINBERG社のCUBASE
などの作曲ソフトウェアやSONIC FOUNDAR
Y社のSOUND FORGEなどの波形編集ソフトウ
ェアがこれにあたる。映像作成装置7では1曲分あるい
は曲中のある部分の映像情報を構成する映像素材を作成
する。作成された映像素材は記憶装置7に記憶される。
市販のソフトウェアではCARIGALI社のソフトウ
ェアTRUE SPACEなどのCG映像作成用ソフト
ウェアがこれにあたる。動画編集装置5では、音声作成
装置4で作成された音声素材と映像作成装置7で作成さ
れた映像素材を、入力装置を用いて順に時系列に従って
配置し(図2)、音楽用動画を作成する。市販のソフト
ウェアではMARCOMEDIA社 のSHOCKWA
VEなどのオーサリングソフトウェア,やMEDIA
VISION社のRAVE GEARなどのVJソフトウ
ェアがこれにあたる。
FIG. 1 shows a conventional embodiment for producing such a moving image for music. In the music production device 4, the MID that constitutes the audio information of one song or a part of the song.
Create music materials such as I data and voice waveform data.
The created music material is stored in the storage device 7. Commercial software is CUBASE from STEINBERG.
Such as composition software and SONIC FOUNDAR
Waveform editing software such as Y company's SOUND FORGE corresponds to this. The image creating device 7 creates an image material constituting image information for one song or a part of the song. The created video material is stored in the storage device 7.
Among commercially available software, this is software for creating CG images such as software TRUE SPACE of CARIGALI. In the video editing device 5, the audio material created by the audio creating device 4 and the video material created by the video creating device 7 are sequentially arranged in time sequence using the input device (FIG. 2) to create a music video. To do. Commercial software SHOCKWA from MARCOMEDIA
Authoring software such as VE, and MEDIA
This is the case with VJ software such as RAVE GEAR from VISION.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、音楽向
けのCG映像では楽曲中で使用される音声情報(大きさ
・長さ・強さなど)の変化に連動してCGオブジェクト
を変化させることにより楽曲の展開が映像変化に反映さ
れた効果的な映像を作成することができるが、従来の実
施形態では上記のように映像素材と音楽素材の製作過程
が独立しているため映像素材の作成過程で楽曲中の音声
情報を利用することができず、そのような映像を作成す
ることが容易ではなかった。ここでいうCGオブジェク
トとは、CARIGALI社のTRUE SPACEな
どの3DCG映像作成用ソフトウェアにおいて3次元仮
想空間に配置される仮想的な物体(例えば車やロボッ
ト)を表す3Dオブジェクトや、ADOBE社のPHO
TOSHOPなどの2D画像作成用ソフトウェアで作成
されGIF形式などで記憶される2次元の映像データを
持つ2Dオブジェクトのことを意味する。CGオブジェ
クトは3D,2D共に形状情報、色情報を持つ。
However, in the CG image for music, the music piece is changed by changing the CG object in association with the change of the audio information (size, length, strength, etc.) used in the music piece. Although it is possible to create an effective image in which the development of is reflected in the image change, in the conventional embodiment, since the production process of the video material and the music material is independent as described above, It was not easy to create such a video because the audio information in the music could not be used. The CG object mentioned here is a 3D object representing a virtual object (for example, a car or a robot) arranged in a three-dimensional virtual space in 3DCG image creation software such as TRUE SPACE of CARIGALI, or PHO of ADOBE.
It means a 2D object having two-dimensional video data created by software for creating a 2D image such as TOSHOP and stored in the GIF format or the like. The CG object has shape information and color information in both 3D and 2D.

【0005】そこで、この発明では、楽曲で使用される
音声情報の変化に連動してCGオブジェクトが変化する
映像を作成可能な音楽用動画編集装置を提供することを
目的とする。
Therefore, an object of the present invention is to provide a moving image editing apparatus for music capable of creating a video in which a CG object changes in association with a change in audio information used in a music piece.

【0006】[0006]

【課題を解決するための手段】以上の課題を解決するた
めに、請求項1の発明は、コンピュータを利用した音楽
とCG映像の同期出力において、CGオブジェクトを指
定するCGオブジェクト指定手順と、指定したCGオブ
ジェクトの表示位置を指定するCGオブジェクト配置手
順と、MIDIデータを指定するMIDIデータ指定手
順と、指定したMIDIデータの再生開始位置を指定す
るMIDIデータ配置手順と、CGオブジェクトを含む
映像データとMIDIデータを含む音声データを関連付
ける音声データ・映像データ関連付け手順と、CGオブ
ジェクトの変化の情報を指定するパラメータ設定手順
と、以上の手続きによって設定された映像データと音声
データを元に映像と音声を再生するCG映像再生手順
と、を有することを特徴とする音楽用動画編集方法であ
る。
In order to solve the above-mentioned problems, the invention of claim 1 specifies a CG object specifying procedure for specifying a CG object in synchronous output of music and CG video using a computer, and A CG object placement procedure for designating a display position of the designated CG object, a MIDI data designation procedure for designating MIDI data, a MIDI data placement procedure for designating a reproduction start position of the designated MIDI data, and video data including a CG object. Audio and video data associating procedures for associating audio data including MIDI data, parameter setting procedures for specifying information on changes in CG objects, and video and audio data based on the video and audio data set by the above procedure. And a CG image reproduction procedure for reproduction. It is music for the motion picture editing method and.

【0007】また、請求項2の発明は、コンピュータを
利用した音楽とCG映像の同期出力において、CGオブ
ジェクトを指定するCGオブジェクト指定手順と、指定
したCGオブジェクトの表示位置を指定するCGオブジ
ェクト配置手順と、MIDIデータを指定するMIDI
データ指定手順と、指定したMIDIデータの再生開始
位置を指定するMIDIデータ配置手順と、CGオブジ
ェクトを含む映像データとMIDIデータを含む音声デ
ータを関連付ける音声データ・映像データ関連付け手順
と、CGオブジェクトの変化の情報を指定するパラメー
タ設定手順と、以上の手続きによって設定された映像デ
ータと音声データを元に映像と音声を再生するCG映像
再生手順と、を有することを特徴とする音楽用動画編集
装置である。
According to a second aspect of the invention, in synchronous output of music and CG video using a computer, a CG object designating procedure for designating a CG object and a CG object arranging procedure for designating a display position of the designated CG object. And MIDI that specifies MIDI data
Data specifying procedure, MIDI data arranging procedure for specifying the reproduction start position of the specified MIDI data, audio data / video data associating procedure for associating the video data including the CG object with the audio data including the MIDI data, and the change of the CG object And a CG video playback procedure for playing back video and audio based on the video data and audio data set by the above procedure, and a video editing apparatus for music. is there.

【0008】また、請求項3の発明は、コンピュータを
利用した音楽とCG映像の同期出力において、CGオブ
ジェクトを指定するCGオブジェクト指定手順と、指定
したCGオブジェクトの表示位置を指定するCGオブジ
ェクト配置手順と、MIDIデータを指定するMIDI
データ指定手順と、指定したMIDIデータの再生開始
位置を指定するMIDIデータ配置手順と、CGオブジ
ェクトを含む映像データとMIDIデータを含む音声デ
ータを関連付ける音声データ・映像データ関連付け手順
と、CGオブジェクトの変化の情報を指定するパラメー
タ設定手順と、以上の手続きによって設定された映像デ
ータと音声データを元に映像と音声を再生するCG映像
再生手順と、を有することを特徴とする音楽用動画編集
プログラムを記憶した記憶媒体である。
According to a third aspect of the invention, in synchronous output of music and CG video using a computer, a CG object designating procedure for designating a CG object and a CG object arranging procedure for designating a display position of the designated CG object. And MIDI that specifies MIDI data
Data specifying procedure, MIDI data arranging procedure for specifying the reproduction start position of the specified MIDI data, audio data / video data associating procedure for associating the video data including the CG object with the audio data including the MIDI data, and the change of the CG object And a CG video playback procedure for playing back video and audio based on the video data and audio data set by the above procedure, and a video editing program for music. It is a storage medium that has been stored.

【0009】[0009]

【発明の実施の形態】本実施形態をとることにより、音
声情報の変化に連動してCGオブジェクトが変化する効
果的なCG映像を作成することが可能になる。
According to the present embodiment, it is possible to create an effective CG image in which a CG object changes in association with a change in audio information.

【0010】まずMIDIデータとCGオブジェクトの
データ構造について説明する。MIDIは、鍵盤を弾く
音程・強さなど楽器間で共通の特徴を符号化した情報や
MIDI楽器をコントロールするための演奏情報を異な
るMIDI楽器間でやり取りするために作られた規格で
ある。MIDI規格1.0で規定されているように、M
IDIデータは複数バイトで構成されるMIDIメッセ
ージ列からなり、MIDIメッセージはメッセージの種
類を表すステータスバイトと、そのステータスの実デー
タを表すデータバイトで1組となるデータ構造を持つ
(図3)。ステータスバイトの値によって判別されるM
IDIメッセージの種類には発音の開始(以下ノートオ
ン)、発音の中止(以下ノートオフ)、音程の相対的な
変化(以下ピッチペンドチェンジ)などがある。MID
Iメッセージのデータバイト部分にはMIDIメッセー
ジの種類ごとに異なった実データが記憶されている。例
えばステータスバイトの値がノートオンであるメッセー
ジのデータバイト部分には発音する音程(以下ノートナ
ンバー)と音の強さ(以下ベロシティ)の情報が記憶さ
れている。曲中で使用されるデータは、インデックス領
域とMIDIメッセージを発音するタイミングを指定す
る発音タイミング領域とMIDIメッセージ領域を一組
のデータ単位として記憶装置に貯められる。(図4)
First, the data structure of MIDI data and CG object will be described. MIDI is a standard created for exchanging information that encodes common characteristics of musical instruments such as pitch and strength of playing a keyboard and performance information for controlling MIDI musical instruments between different MIDI musical instruments. As specified by MIDI standard 1.0, M
The IDI data is composed of a MIDI message string composed of a plurality of bytes, and the MIDI message has a data structure that is a set of a status byte indicating the type of message and a data byte indicating the actual data of the status (FIG. 3). M determined by the value of the status byte
The types of IDI messages include the start of pronunciation (note-on below), the stop of pronunciation (note-off below), and the relative change in pitch (pitch-pend change below). MID
In the data byte portion of the I message, different actual data is stored for each type of MIDI message. For example, in the data byte portion of the message in which the value of the status byte is note-on, the pitch (hereinafter note number) to be pronounced and the sound intensity (hereinafter velocity) are stored. The data used in the music is stored in the storage device as a set of a data unit including an index area, a tone generation timing area for designating the timing of producing a MIDI message, and a MIDI message area. (Figure 4)

【0011】CGオブジェクトは、上述のようにCG映
像の仮想空間中に配置する仮想的な物体であり、形状情
報ならびに色情報を持っている。CGオブジェクトは、
インデックス領域とCGオブジェクトの種類を指定する
種類領域と仮想空間中の位置を指定する位置情報領域と
CGオブジェクト領域を一組とするデータ形式で記憶装
置に記憶される(図5)。CGオブジェクトの種類が2
Dオブジェクトの場合は種類領域に2Dを示す値と表示
位置領域に2次元仮想空間中の位置(X座標・Y座標)
の情報が保持され、3Dオブジェクトの場合は種類領域
に3Dを示す値と表示位置領域に三次元仮想空間中の位
置(X座標・Y座標・Z座標)の情報が保持される。
The CG object is a virtual object arranged in the virtual space of the CG image as described above, and has shape information and color information. The CG object is
The index area, the type area for specifying the type of CG object, the position information area for specifying the position in the virtual space, and the CG object area are stored in the storage device in a data format (FIG. 5). CG object type is 2
In the case of D object, the value indicating 2D in the type area and the position in the two-dimensional virtual space (X coordinate / Y coordinate) in the display position area
Is held, and in the case of a 3D object, a value indicating 3D is held in the type area and information on the position (X coordinate, Y coordinate, Z coordinate) in the three-dimensional virtual space is held in the display position area.

【0012】図6に、本発明の一実施形態の全体構成を
示す。入力装置12はMIDIデータの読み込みや音楽
用動画の再生など操作者が装置に命令をするためのもの
である。記憶装置17には動画で使用可能なMIDIデ
ータやCGオブジェクトデータ、並びに後述する関連付
けデータが記憶される。
FIG. 6 shows the overall structure of an embodiment of the present invention. The input device 12 is used by the operator to give commands to the device, such as reading MIDI data and reproducing a moving image for music. The storage device 17 stores MIDI data and CG object data that can be used in moving images, and association data described later.

【0013】操作者はまず前述した音楽作成装置4と同
様の音楽作成装置14を用いて曲中で使用するMIDI
データを作成し、前述した映像作成装置6と同様の映像
作成装置16を用いて曲中の映像で使用するCGオブジ
ェクトを作成した後、音楽用動画編集装置15を用いて
音楽用動画の作成を行う。操作者は、入力装置12によ
り音楽用動画で使用するCGオブジェクトを選択し、さ
らに表示装置13を見ながら入力装置12を用いてCG
オブジェクトの表示位置を指定する。また、操作者は入
力装置12により音楽用動画で使用するMIDIデータ
を選択し、さらに表示装置13を見ながら入力装置12
を用いてMIDIデータの発音タイミングを指定する。
次に入力装置12からCGオブジェクトとMIDIデー
タの関連付けが命令されると、音楽動作作成装置15に
より関連付けデータが作成され、記憶装置17に記憶さ
れる。
The operator first uses the music making apparatus 14 similar to the above-mentioned music making apparatus 4 to use the MIDI used in the song.
After creating the data and creating the CG object to be used in the video in the song by using the video creating apparatus 16 similar to the above-described video creating apparatus 6, the music moving image editing apparatus 15 is used to create the music moving image. To do. The operator selects a CG object to be used in the moving image for music by using the input device 12, and while watching the display device 13, uses the input device 12 to perform CG.
Specify the display position of the object. Further, the operator selects the MIDI data to be used in the moving image for music with the input device 12, and while watching the display device 13, the input device 12
Is used to specify the sounding timing of MIDI data.
Next, when an instruction is issued from the input device 12 to associate the CG object with the MIDI data, the association data is created by the music action creating device 15 and stored in the storage device 17.

【0014】関連付けデータは音楽用領域と映像用領域
からなる。音楽用領域では、MIDIデータを指定する
MIDIデータインデックスと、MIDIメッセージか
ら得られる音声情報のうちCGオブジェクトの変化に使
用するデータ項目を指定するための使用パラメータリス
ト、使用するデータの最大値、最小値を保持する。映像
用領域では、CGオブジェクトを指定するCGオブジェ
クトインデックスと、CGオブジェクトの移動幅を指定
する移動データ、CGオブジェクトが回転する角度を指
定する回転データ、CGオブジェクトの色が変化する割
合を指定する色変化データ、CGオブジェクトの形状が
変化する割合を指定する形状変化データ、の情報を保持
する。さらに、操作者が入力装置12を用いて関連付け
データのMIDIデータとCGオブジェクトを指定し、
関連付けデータの使用パラメータリストより使用するデ
ータ項目を指定し、最大値、最小値、移動データ、回転
データ、色変化データ、形状変化データの値を指定す
る。
The association data is composed of a music area and a video area. In the music area, a MIDI data index designating MIDI data, a use parameter list for designating a data item used for changing a CG object in audio information obtained from a MIDI message, a maximum value and a minimum value of the data to be used. Holds the value. In the video area, a CG object index that specifies the CG object, movement data that specifies the movement width of the CG object, rotation data that specifies the angle at which the CG object rotates, and a color that specifies the ratio at which the color of the CG object changes. Information on change data and shape change data that specifies the rate at which the shape of the CG object changes is held. Furthermore, the operator uses the input device 12 to specify the MIDI data of the association data and the CG object,
The data item to be used is specified from the use parameter list of the associated data, and the maximum value, the minimum value, the movement data, the rotation data, the color change data, and the shape change data are specified.

【0015】入力装置12より再生が命令されると、音
楽動画編集装置15は動画の再生を開始する。再生が進
むごとに音楽動画編集装置のタイムコードがインクリメ
ントされる。タイムコードが発音タイミングに到達した
MIDIメッセージデータは音楽動画編集装置15によ
り音声装置11に送られると同時に、関連付けデータに
よりそのMIDIデータと関連付けられたCGオブジェ
クトを関連付けデータの映像用パラメータに基づいて変
化した内容を持つ映像情報が音声動画編集装置15より
表示装置13に送られる。音声装置11はMIDIデー
タの内容に従って音声を出力し、表示装置13は映像情
報に従い映像を出力する。
When the reproduction is instructed from the input device 12, the music / moving image editing device 15 starts reproducing the moving image. The time code of the music video editing apparatus is incremented each time the reproduction progresses. The MIDI message data when the time code reaches the sounding timing is sent to the audio device 11 by the music video editing apparatus 15, and at the same time, the CG object associated with the MIDI data by the association data is changed based on the video parameter of the association data. The video information having the contents described above is sent from the audio / video editing device 15 to the display device 13. The audio device 11 outputs audio according to the contents of MIDI data, and the display device 13 outputs video according to video information.

【0016】本発明についてCPUを用いて実施する際
のハードウェア構成は図8のようになっている。コンピ
ュータはCPU301,RAM302、ハードディスク
などの補助記憶装置303から構成されており、さらに
フロッピー(登録商標)ディスクやCD−ROMなどの
記録媒体308を装着するためのメディア装着用装置3
04、キーボードやマウスなどの入力装置309を装着
するための入力用インターフェース305、ディスプレ
イ310を装着するための画面表示用インターフェース
306、MIDI音源311を装着するためのMIDI
用インターフェース307、が装着されている。さら
に、入力装置308は入力用インターフェス305に接
続され、ディスプレイ310は画面表示用インターフェ
ース306に接続され、MIDI音源311はMIDI
用インターフェース307に接続されている。
The hardware configuration when the present invention is implemented by using a CPU is as shown in FIG. The computer is composed of a CPU 301, a RAM 302, and an auxiliary storage device 303 such as a hard disk, and a medium loading device 3 for loading a recording medium 308 such as a floppy (registered trademark) disk or a CD-ROM.
04, an input interface 305 for mounting an input device 309 such as a keyboard and a mouse, a screen display interface 306 for mounting a display 310, and a MIDI for mounting a MIDI sound source 311.
Interface 307 is installed. Further, the input device 308 is connected to the input interface 305, the display 310 is connected to the screen display interface 306, and the MIDI sound source 311 is set to MIDI.
Interface 307.

【0017】本発明のプログラムが収められた記録媒体
308がメディア装着用装置304に装着されている状
態で、操作者が入力装置309を用いて本発明のプログ
ラムの実行を命令すると、記録媒体308に記憶されて
いるプログラムが読み取られる。そして、CPU301
は読み込んだプログラムをRAM302または補助記憶
装置303に書き込み、プログラムが実行される。
When the operator uses the input device 309 to instruct the execution of the program of the present invention while the recording medium 308 containing the program of the present invention is attached to the medium attachment device 304, the recording medium 308 is recorded. The program stored in is read. And the CPU 301
Writes the read program in the RAM 302 or the auxiliary storage device 303 and executes the program.

【0018】本発明のプログラムの全体構成を図9のフ
ローチャートを用いて示す。ここでは、例として発音の
タイミングが96のMIDIメッセージ(ノートナンバー
D3,ノートオン,ベロシティ100)と発音のタイミング
が192のMIDIメッセージ(ノートナンバーE3 ノー
トオン,ベロシティ100)からなるMIDIデータ1と、
2Dで直径100ピクセルの半円で白色のCGオブジェク
ト1を用いて、MIDIデータ1中に含まれるMIDI
メッセージのノートナンバーの違いよってCGオブジェ
クト1の位置をX=100、Y=100からX方向に1
00Y方向に100動かし、180度回転させ、色を黒
に変化させ、大きさを2倍に変化させるものとする。
The overall structure of the program of the present invention will be described with reference to the flowchart of FIG. Here, as an example, MIDI data 1 composed of a MIDI message (note number D3, note on, velocity 100) whose sounding timing is 96 and a MIDI message (note number E3 note on, velocity 100) whose sounding timing is 192,
MIDI contained in MIDI data 1 using a 2D white semi-circle CG object 1 with a diameter of 100 pixels
Depending on the note number of the message, position CG object 1 from X = 100, Y = 100 to 1 in the X direction.
It is assumed that the color is changed to black and the size is changed to double by moving 100 in the 00Y direction and rotating 180 degrees.

【0019】まずディスプレイ310を見ながら入力装
置309を用いて補助記憶装置303中のCGオブジェ
クトから楽曲中の映像出力で使用するものを指定する
(S101)。ここではCGオブジェクト1を読み込ん
だものとして説明する。するとCPUはCGオブジェク
ト1の情報を含む映像データ1を作成しRAM302ま
た補助記憶装置303に保持する。このとき、位置情報
の値は空である。(図10のS101完了後の状態)
First, while observing the display 310, the input device 309 is used to specify, from the CG objects in the auxiliary storage device 303, what is to be used for video output in the music (S101). Here, it is assumed that the CG object 1 has been read. Then, the CPU creates the video data 1 including the information of the CG object 1 and holds it in the RAM 302 or the auxiliary storage device 303. At this time, the value of the position information is empty. (State after completion of S101 in FIG. 10)

【0020】次にこのCGオブジェクトの仮想空間中に
おける表示位置を指定する(S102)。ここではX=
100、Y=100と指定する。すると、CPUはCG
オブジェクト中の位置情報領域にX=100、Y=10
0という値をセットする。(図10のS102完了後の
状態)
Next, the display position of this CG object in the virtual space is designated (S102). Where X =
Specify 100 and Y = 100. Then the CPU is CG
X = 100, Y = 10 in the position information area in the object
Set a value of 0. (State after completion of S102 in FIG. 10)

【0021】次にディスプレイ310を見ながら入力装
置309を用いて補助記憶装置303中のMIDIデー
タから楽曲中の音声出力でしようするものを指定する
(S103)。ここではMIDIデータ1を指定する。
するとCPUはMIDIデータ1のデータ含む音声デー
タ1を作成しRAM2また補助記憶装置3に保持する。
(図11のS103完了後の状態)
Next, while looking at the display 310, the input device 309 is used to specify, from the MIDI data in the auxiliary storage device 303, what is to be used for audio output in the music (S103). Here, MIDI data 1 is designated.
Then, the CPU creates the voice data 1 including the MIDI data 1 and holds it in the RAM 2 or the auxiliary storage device 3.
(State after completion of S103 in FIG. 11)

【0022】次にMIDIデータの曲全体における再生
開始位置を指定する(S104)。ここでは再生の開始
位置を96と指定する。すると、CPUは発音タイミング
領域の値を再計算し、それぞれ192,288に設定し直され
る。(図11のS104完了後の状態)
Next, the reproduction start position in the entire piece of MIDI data is designated (S104). Here, the playback start position is specified as 96. Then, the CPU recalculates the value of the tone generation timing area and resets the value to 192,288, respectively. (State after completion of S104 in FIG. 11)

【0023】次にディスプレイ310を見ながら入力装
置309を用いて関連付ける音声データと映像データを
指定する(S105)。すると、CPU301は、関連
付けデータを新たに作成しRAM302また補助記憶装
置303に保持する。また、CPU301は関連付けデ
ータのMIDIインデックスに音声データのインデック
ス領域の値を設定し、CGオブジェクトインデックスに
CGオブジェクトインデックス領域の値を設定する。こ
こでは映像データ1と音声データ1を指定すると関連付
けデータ1が作成され、MIDIインデックスには“md
ad1”、CGオブジェクトインデックスには“cgad1"が
設定される。(図14のS105中の状態その1)
Next, while looking at the display 310, the audio data and the video data to be associated are designated using the input device 309 (S105). Then, the CPU 301 newly creates association data and stores it in the RAM 302 or the auxiliary storage device 303. Also, the CPU 301 sets the value of the index area of the audio data in the MIDI index of the association data and sets the value of the CG object index area in the CG object index. Here, when the video data 1 and the audio data 1 are specified, the association data 1 is created, and the MIDI index is “md
"ad1" and "cgad1" are set in the CG object index (state 1 in S105 of FIG. 14).

【0024】さらに、CPUは音声データの内容から使
用パラメータリストを取得し関連付けデータの使用パラ
メータリストに設定する。
Further, the CPU obtains the use parameter list from the contents of the voice data and sets it in the use parameter list of the association data.

【0025】使用パラメータリストの取得手順を図12
のフローチャートに示す。まずI=1とし(S20
1)、音声データ中におけるI番目のMIDIメッセー
ジのステータスバイトからメッセージ種類名を取得する
(S202)。ここでは音声データ1の最初のMIDI
メッセージよりメッセージ種類名“ノートオン”が取得
される。
FIG. 12 shows the procedure for acquiring the used parameter list.
It is shown in the flowchart. First, I = 1 (S20
1) The message type name is acquired from the status byte of the I-th MIDI message in the audio data (S202). Here, the first MIDI of audio data 1
The message type name “NOTE ON” is acquired from the message.

【0026】MIDIメッセージに実データが含まれて
いれば(S203)、メッセージ種類名の後に実データ
の項目名を足し合わせたものを実データの項目数分設定
する(S204)。ここでは、ノートオンは実データ部
にノートナンバーとベロシティの2つの項目を持つの
で、“ノートオン:ノートナンバー"と"ノートオン:ベ
ロシティ”を設定する。MIDIメッセージが実データ
部にデータバイトを持たない場合はS204はスキップ
する。例えば、メッセージの種類名がスタート(楽曲の
再生開始を指示する)である場合、そのMIDIメッセ
ージは実データがないのS204はスキップされる。
If the MIDI message includes actual data (S203), the sum of the message type name and the item name of the actual data is set for the number of items of the actual data (S204). Here, note-on has two items, note number and velocity, in the actual data part, so "note-on: note number" and "note-on: velocity" are set. If the MIDI message has no data bytes in the actual data part, S204 is skipped. For example, if the type name of the message is start (instructing to start playing the music), the MIDI message has no actual data, and S204 is skipped.

【0027】同名のメッセージ種類名がパラメータリス
トに含まれていない場合(S205)、メッセージの種
類名を使用パラメータリストに追加する(S206)。
ここではパラメータリストに“ノートオン->ノートナン
バー"と"ノートオン->ベロシティ”を追加する。
If the message type name of the same name is not included in the parameter list (S205), the message type name is added to the used parameter list (S206).
Here, add "Note On-> Note Number" and "Note On->Velocity" to the parameter list.

【0028】Iの値をインクリメント(S207)し、
MIDIデータ中にI番目のメッセ-ジがある場合、S
202に戻って処理を継続し、なければ終了する。ここ
では、音声データ1は2つのMIDIデータを持つた
め、I=2にまで処理を繰り返し、I=3になったとこ
ろで処理を終了する。(図14のS105完了後の状
態)
The value of I is incremented (S207),
If the MIDI data contains the I-th message, S
The processing returns to 202 to continue the processing, and if not, the processing ends. Here, since the audio data 1 has two MIDI data, the process is repeated until I = 2, and when I = 3, the process ends. (State after completion of S105 in FIG. 14)

【0029】次に操作者はディスプレイ310を見なが
ら入力装置309を用いて関連付けデータの各パラメー
タの数値を選択・指定する(S106)。ここでは、使
用パラメータリストから“ノートオン->ノートナンバ
ー"を選択し、最小値C3、最大値E3、移動範囲デー
タ(X=100,Y=100)、回転データ(時計周り180
度)、色変化データ(黒)、形状変化データ(1)を指
定する。(図14のS106完了後の状態)
Next, the operator selects and specifies the numerical value of each parameter of the association data using the input device 309 while looking at the display 310 (S106). Here, select "Note On-> Note Number" from the parameter list to use, minimum value C3, maximum value E3, movement range data (X = 100, Y = 100), rotation data (clockwise 180
Degree), color change data (black), and shape change data (1). (State after completion of S106 in FIG. 14)

【0030】S101からS106の操作を繰り返して
動画中で使用する音声データと映像データの配置を完了
して全ての素材の配置を終了した後(S107)、入力
装置309を用いて再生を命令すると(S108)、時
間の進行に従ってタイムコードが進み、タイムコードが
発音タイミングに到達したMIDIメッセージはCPU
302によりMIDIインターフェース307を経由し
てMIDI音源311に送られる。それと同時に、CP
U302はそのMIDIデータをデータソースに持つC
Gオブジェクトを関連付けデータのパラメータ値を用い
て変化させ、変化後の映像情報がCPU2により画面表
示用インターフェース6を経由してディスプレイに送ら
れる。ここでは、タイムコードが192になったときCP
U302によりMIDIデータ1の最初のMIDIメッ
セージがMIDI入出力用インターフェース307を経
由してMIDI音源311に送られる。それと同時に、
CPU302はこのMIDIメッセージを用いてCGI
オブジェクト1を変化させ、変化後の映像情報が映像表
示用インターフェース306を経由してディスプレイ3
10に送られる。
After the operations of S101 to S106 are repeated to complete the arrangement of the audio data and the video data used in the moving image and the arrangement of all the materials is completed (S107), the reproduction is instructed using the input device 309. (S108), the time code advances as time advances, and the MIDI message when the time code reaches the sounding timing is the CPU.
It is sent to the MIDI sound source 311 via the MIDI interface 307 by 302. At the same time, CP
U302 is a C that has the MIDI data as a data source
The G object is changed using the parameter value of the association data, and the changed image information is sent to the display by the CPU 2 via the screen display interface 6. Here, when the time code reaches 192, CP
The U302 sends the first MIDI message of MIDI data 1 to the MIDI sound source 311 via the MIDI input / output interface 307. At the same time,
The CPU 302 uses this MIDI message to CGI
The object 1 is changed, and the changed image information is displayed on the display 3 via the image display interface 306.
Sent to 10.

【0031】図13にMIDIデータを用いたCGオブ
ジェクトの変化方法をフローチャートを用いて示す。
FIG. 13 is a flow chart showing a method of changing a CG object using MIDI data.

【0032】まず、関連付けデータの使用パラメータリ
ストで選択した項目を元にMIDIデータから対象とな
るデータを読み込んで(S301)、関連付けデータの
最大値と最小値をから変化率を計算する(S302)。
使用パラメータリストで実データを持たない項目を選択
した場合は自動的に変化率を1とする。ここでは、MI
DIデータのノートナンバーを読み込み、ノートナンバ
ーD3は最大値ノートナンバーE3と最小値ノートナン
バーC3の中間の値であるので、変化率は0.5となる。
First, the target data is read from the MIDI data based on the item selected in the use parameter list of the association data (S301), and the change rate is calculated from the maximum value and the minimum value of the association data (S302). .
When an item that does not have actual data is selected in the used parameter list, the rate of change is automatically set to 1. Here, MI
Since the note number of the DI data is read and the note number D3 is an intermediate value between the maximum value note number E3 and the minimum value note number C3, the rate of change is 0.5.

【0033】次にCGオブジェクトの変化後の位置を設
定する(S303)。変化後の位置は、元の位置+(関
連付けデータの移動データ×変化率)となる。ここで
は、CGオブジェクト1の変化後の位置はX座標=元のX
座標100+(変化幅100*変化率0.5)=150, Y座標=元のY
座標100+(変化幅100*変化率0.5)=150に設定される。
Next, the changed position of the CG object is set (S303). The changed position is the original position + (moving data of the association data × change rate). Here, the position after the change of the CG object 1 is X coordinate = original X
Coordinate 100 + (Change width 100 * Change rate 0.5) = 150, Y coordinate = Original Y
Coordinates 100 + (change width 100 * change rate 0.5) = 150 is set.

【0034】次に同様な方法でCGオブジェクトの変化
後の回転角度(=関連付けデータの回転データ×変化率
0.5)(S304)、色(=関連付けデータの色データ×
変化率0.5)(S305)、形状変化(=1+関連付けデ
ータの形状変化データ×変化率0.5)(S306)を設定
する。ここでは、CGオブジェクト1の変化後の回転角
度は180×0.5=90度、色は白色と黒色の中間色、形状変
化は1+(1×0.5)=1.5倍に変更される。
Next, in the same manner, the rotation angle of the CG object after change (= rotation data of association data × change rate)
0.5) (S304), color (= color data of associated data x
Change rate 0.5) (S305) and shape change (= 1 + shape change data of association data × change rate 0.5) (S306) are set. Here, the rotation angle after change of the CG object 1 is changed to 180 × 0.5 = 90 degrees, the color is changed to an intermediate color between white and black, and the shape change is changed to 1+ (1 × 0.5) = 1.5 times.

【0035】次にタイムコードが進み、タイムコードが
288になった時点でMIDIメッセージは同様にMID
I音源311に送られ、同時に、CGオブジェクトは変
化率は1位置情報はX座標=200Y座標=200、回転角度180
度、色=黒、形状変化=2に変更されディスプレイ31
0に送られる。
Next, the time code advances, and the time code
When it reaches 288, the MIDI message is also MID
It is sent to the I sound source 311 and, at the same time, the rate of change of the CG object is 1. Position information is X coordinate = 200 Y coordinate = 200, rotation angle 180
Degree, color = black, shape change = 2, display 31
Sent to 0.

【0036】音声装置311はMIDIデータの内容に
従って音声を出力し、ディスプレイ310は映像情報を
用いて映像を出力する。
The audio device 311 outputs audio according to the contents of the MIDI data, and the display 310 outputs video using the video information.

【0037】このような実施形態をとることにより、楽
曲中のMIDIデータから音の大きさ・長さ・強さなど
の音声情報を取得し、その音声情報を利用してCG映像
中のCGオブジェクトに移動、回転、色変化、形状変化を
させることができる音楽用動画を作成することが可能と
なる。
By adopting such an embodiment, voice information such as the volume, length, and strength of the sound is acquired from the MIDI data in the music, and the CG object in the CG image is utilized by using the voice information. It is possible to create a moving image for music that can be moved, rotated, changed in color, and changed in shape.

【0038】[0038]

【図面の簡単な説明】[Brief description of drawings]

【図1】従来の実施形態である。FIG. 1 is a conventional embodiment.

【図2】従来の動画編集装置による音楽素材と映像素材
の配置のイメージである。
FIG. 2 is an image of arrangement of music material and video material by a conventional moving image editing apparatus.

【図3】MIDIメッセージのデータ構造である。FIG. 3 is a data structure of a MIDI message.

【図4】記憶装置に記憶される音声データの例である。FIG. 4 is an example of audio data stored in a storage device.

【図5】記憶装置に記憶される映像データの例である。FIG. 5 is an example of video data stored in a storage device.

【図6】本発明の全体構成である。FIG. 6 is an overall configuration of the present invention.

【図7】関連付けデータの例である。FIG. 7 is an example of association data.

【図8】CPUを用いたコンピュータのハードウェア構成
である。
FIG. 8 is a hardware configuration of a computer using a CPU.

【図9】動画製作プログラムの構成を示すフローチャー
トである。
FIG. 9 is a flowchart showing the configuration of a moving image production program.

【図10】例中の映像データの状態である。FIG. 10 is a state of video data in the example.

【図11】例中の音声データの状態である。FIG. 11 is a state of audio data in the example.

【図12】使用パラメータリストの取得手順のフローチ
ャートである。
FIG. 12 is a flowchart of a procedure for acquiring a use parameter list.

【図13】MIDIデータを用いてCGオブジェクトを
変化させる手順のフローチャートである。
FIG. 13 is a flowchart of a procedure for changing a CG object using MIDI data.

【図14】例中の映像データの状態である。FIG. 14 is a state of video data in the example.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】コンピュータを利用した音楽とCG映像の
同期出力において、CGオブジェクトを指定するCGオ
ブジェクト指定手順と、指定したCGオブジェクトの表
示位置を指定するCGオブジェクト配置手順と、MID
Iデータを指定するMIDIデータ指定手順と、指定し
たMIDIデータの再生開始位置を指定するMIDIデ
ータ配置手順と、CGオブジェクトを含む映像データと
MIDIデータを含む音声データを関連付ける音声デー
タ・映像データ関連付け手順と、CGオブジェクトの変
化の情報を指定するパラメータ設定手順と、以上の手続
きによって設定された映像データと音声データを元に映
像と音声を再生するCG映像再生手順と、を有すること
を特徴とする音楽用動画編集方法
1. A CG object designating procedure for designating a CG object, a CG object arranging procedure for designating a display position of the designated CG object, and a MID in synchronous output of music and CG video using a computer.
MIDI data designation procedure for designating I data, MIDI data placement procedure for designating playback start position of designated MIDI data, audio data / video data association procedure for associating video data including CG object and audio data including MIDI data And a parameter setting procedure for designating change information of the CG object, and a CG video reproduction procedure for reproducing video and audio based on the video data and audio data set by the above procedure. Video editing method for music
【請求項2】コンピュータを利用した音楽とCG映像の
同期出力において、CGオブジェクトを指定するCGオ
ブジェクト指定手順と、指定したCGオブジェクトの表
示位置を指定するCGオブジェクト配置手順と、MID
Iデータを指定するMIDIデータ指定手順と、指定し
たMIDIデータの再生開始位置を指定するMIDIデ
ータ配置手順と、CGオブジェクトを含む映像データと
MIDIデータを含む音声データを関連付ける音声デー
タ・映像データ関連付け手順と、CGオブジェクトの変
化の情報を指定するパラメータ設定手順と、以上の手続
きによって設定された映像データと音声データを元に映
像と音声を再生するCG映像再生手順と、を有すること
を特徴とする音楽用動画編集装置
2. A CG object specifying procedure for specifying a CG object, a CG object arranging procedure for specifying a display position of the specified CG object, and a MID in synchronous output of music and CG video using a computer.
MIDI data designation procedure for designating I data, MIDI data placement procedure for designating playback start position of designated MIDI data, audio data / video data association procedure for associating video data including CG object and audio data including MIDI data And a parameter setting procedure for designating change information of the CG object, and a CG video reproduction procedure for reproducing video and audio based on the video data and audio data set by the above procedure. Video editing device for music
【請求項3】コンピュータを利用した音楽とCG映像の
同期出力において、CGオブジェクトを指定するCGオ
ブジェクト指定手順と、指定したCGオブジェクトの表
示位置を指定するCGオブジェクト配置手順と、MID
Iデータを指定するMIDIデータ指定手順と、指定し
たMIDIデータの再生開始位置を指定するMIDIデ
ータ配置手順と、CGオブジェクトを含む映像データと
MIDIデータを含む音声データを関連付ける音声デー
タ・映像データ関連付け手順と、CGオブジェクトの変
化の情報を指定するパラメータ設定手順と、以上の手続
きによって設定された映像データと音声データを元に映
像と音声を再生するCG映像再生手順と、を有すること
を特徴とする音楽用動画編集プログラムを記憶した記憶
媒体
3. Synchronous output of music and CG video using a computer, a CG object designating procedure for designating a CG object, a CG object arranging procedure for designating a display position of the designated CG object, and a MID.
MIDI data designation procedure for designating I data, MIDI data placement procedure for designating playback start position of designated MIDI data, audio data / video data association procedure for associating video data including CG object and audio data including MIDI data And a parameter setting procedure for designating change information of the CG object, and a CG video reproduction procedure for reproducing video and audio based on the video data and audio data set by the above procedure. Storage medium storing a video editing program for music
JP2002140999A 2002-05-16 2002-05-16 Image/voice interlocking output device and method Pending JP2003331310A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002140999A JP2003331310A (en) 2002-05-16 2002-05-16 Image/voice interlocking output device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002140999A JP2003331310A (en) 2002-05-16 2002-05-16 Image/voice interlocking output device and method

Publications (1)

Publication Number Publication Date
JP2003331310A true JP2003331310A (en) 2003-11-21

Family

ID=29701711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002140999A Pending JP2003331310A (en) 2002-05-16 2002-05-16 Image/voice interlocking output device and method

Country Status (1)

Country Link
JP (1) JP2003331310A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017040867A (en) * 2015-08-21 2017-02-23 ヤマハ株式会社 Information processor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017040867A (en) * 2015-08-21 2017-02-23 ヤマハ株式会社 Information processor

Similar Documents

Publication Publication Date Title
JP3601350B2 (en) Performance image information creation device and playback device
JP3578464B2 (en) Automatic composition method
JP5434965B2 (en) Movie generation method, movie generation device, and program
JP2004005567A (en) Method for generating computer display image, computer processing system for generating image data, and graphics processor
JPH11341350A (en) Multimedia information editing and reproducing device, recording medium with multimedia information reproduction program and recording medium with sequence information respectively recorded on them
US9343053B2 (en) Adding audio sound effects to movies
US6646644B1 (en) Tone and picture generator device
JP5375897B2 (en) Image generation method, image generation apparatus, and program
JP2003044046A (en) Device and method for processing information and recording medium
JP5408205B2 (en) Control point setting method, control point setting device, and program
JP4757704B2 (en) Music playback program, music playback device, music playback method, and music playback system
JP5044503B2 (en) Effect image playback device, effect image playback method, effect image playback program, and recording medium
JP4644157B2 (en) Additional image generation device and additional image composition device
JP2003331310A (en) Image/voice interlocking output device and method
JP3700442B2 (en) Performance system compatible input system and recording medium
JP2000125199A (en) Method and system for displaying song caption on screen and for changing color of the caption in matching with music
JP6127549B2 (en) Music data editing method, program for realizing the music data editing method, and music data editing apparatus
Forbes et al. Video granular synthesis
JP3654026B2 (en) Performance system compatible input system and recording medium
JP3721822B2 (en) Rendition style input system
JP5141710B2 (en) Karaoke device, program
JP2004064679A (en) Program producing method
JP3363390B2 (en) Editing device for lyrics subtitle data
JP5919926B2 (en) Image generation method, image generation apparatus, and program
Greuel et al. Sculpting 3D worlds with music: advanced texturing techniques