JP2008154064A - Video creating device - Google Patents

Video creating device Download PDF

Info

Publication number
JP2008154064A
JP2008154064A JP2006341289A JP2006341289A JP2008154064A JP 2008154064 A JP2008154064 A JP 2008154064A JP 2006341289 A JP2006341289 A JP 2006341289A JP 2006341289 A JP2006341289 A JP 2006341289A JP 2008154064 A JP2008154064 A JP 2008154064A
Authority
JP
Japan
Prior art keywords
video
parameters
parameter
effect
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006341289A
Other languages
Japanese (ja)
Other versions
JP4976837B2 (en
Inventor
Yoshihide Kasai
良秀 笠井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Roland Corp
Original Assignee
Roland Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Roland Corp filed Critical Roland Corp
Priority to JP2006341289A priority Critical patent/JP4976837B2/en
Publication of JP2008154064A publication Critical patent/JP2008154064A/en
Application granted granted Critical
Publication of JP4976837B2 publication Critical patent/JP4976837B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To create video that a producer intends without burdening the producer. <P>SOLUTION: A video creating unit 34 creates video by adding effects to video raw materials according to parameters. The parameters are supplied from operators to a network synchronizing unit 36 and then supplied to the video creating unit 34. A recorder 48 stores the parameters from the beginning of supply of the parameters. Parameters of a specified area among the parameters stored in the recorder 48 are supplied to the video creating unit 34. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像に効果を付与して映像を作成する装置に関する。   The present invention relates to an apparatus for creating an image by adding an effect to an image.

従来、上記のような装置としては、例えば特許文献1に開示されたものがある。特許文献1の装置では、予め定めた写真及びBGMに従って写真及びBGMを再生し、写真にその映像のメタ情報に従って映像効果を付与し、一連のビデオが生成されると、それを保存する。   Conventionally, as an apparatus as described above, there is one disclosed in Patent Document 1, for example. In the apparatus of Patent Document 1, a photograph and BGM are reproduced according to a predetermined photograph and BGM, a video effect is given to the photograph according to meta information of the video, and when a series of videos is generated, it is stored.

特開2006−279861号公報JP 2006-279861 A

しかし、特許文献1の技術では、映像に付与される効果は、メタ情報に従ってあらかじめ決定されているが、付与する効果を製作者の意図に従ったものとなるように種々に変更しながら、映像を作成することがある。この場合、効果が付与された映像を何度も保存する必要があり、製作者の負担になっていた。   However, in the technique of Patent Document 1, the effect to be given to the video is determined in advance according to the meta information, but the video to be added while changing the effect to be given according to the intention of the producer. May be created. In this case, it is necessary to save the video with the effect many times, which is a burden on the producer.

本発明は、製作者の意図に従った映像を容易に得ることができる映像作成装置を提供することを目的とする。   An object of the present invention is to provide a video creation device that can easily obtain a video according to the intention of the producer.

本発明の一態様による映像作成装置は、映像生成手段を有し、この映像生成手段は、映像素材にパラメータに従って効果を付与して映像を生成する。前記パラメータを前記映像生成手段に時間経過と共に変化させてパラメータ供給手段が供給する。パラメータの供給開始時から時間経過に従って前記パラメータを記憶手段が記憶する。パラメータ再供給手段が、記憶手段に順に記憶されたパラメータのうち、指定されたパラメータ以降のパラメータを時間経過と共に読み出して、映像生成手段に再供給する。映像生成手段の他に、音声信号にパラメータを付与して効果を付与する音声効果付与手段を設けることもでき、この音声効果付与手段用のパラメータも記憶手段に記憶することができる。パラメータ生成手段としては、例えば製作者が操作してパラメータを生成することができるものを使用する。また、映像生成手段によって生成された画像は、所定のファイル形式で保存手段に保存することができ、この保存は、パラメータ供給手段によってパラメータの供給が開始された際に、開始することができる。パラメータ再供給手段は、記憶手段に記憶された一連のパラメータのうち、供給を開始する位置にあるパラメータの他に、供給を停止する位置にあるパラメータも指定することができる。   A video creation device according to an aspect of the present invention includes a video generation unit, which generates a video by applying an effect to a video material according to a parameter. The parameter supply unit supplies the parameter to the video generation unit with the passage of time. The storage means stores the parameters as time passes from the start of parameter supply. The parameter resupply unit reads parameters after the designated parameter among the parameters stored in order in the storage unit with the passage of time, and resupplys them to the video generation unit. In addition to the video generation means, there can also be provided sound effect giving means for giving an effect by giving a parameter to the audio signal, and the parameters for the sound effect giving means can also be stored in the storage means. As the parameter generation means, for example, a device that can be operated by a producer to generate parameters is used. In addition, the image generated by the video generation unit can be stored in a storage unit in a predetermined file format, and this storage can be started when the parameter supply unit starts supplying parameters. The parameter re-supply unit can specify a parameter at a position where supply is stopped, in addition to a parameter at a position where supply is started, among a series of parameters stored in the storage unit.

このように構成すると、製作者が種々に試行錯誤して経時的に変化するパラメータを順に記憶しているので、これらパラメータのうち製作者の意図に従った映像が得られるパラメータを再度映像生成手段に供給することによって、容易に製作者の意図に従った映像を再現することができ、再現された映像を保存するのも容易である。   With this configuration, since the producer sequentially stores parameters that change over time through various trials and errors, parameters for obtaining an image according to the manufacturer's intention among these parameters are again generated by the image generation means. By supplying to, it is possible to easily reproduce the video according to the intention of the producer, and it is easy to save the reproduced video.

前記記憶手段は、複数の記憶領域を有し、その記憶領域の先頭から前記パラメータを記憶し、その記憶領域の最後まで前記パラメータを記憶すると、再び記憶領域の先頭から前記パラメータを記憶するように構成することもできる。このように構成すると、パラメータは、エンドレスに記憶手段に記憶されるので、製作者の意図に沿わない映像が生成されている場合でも、そのまま製作者の意図に従った映像が得られるまでパラメータの変更を継続しても、製作者の意図に従った映像とするためのパラメータは必ず記憶手段に記憶され、途中で記憶手段に記憶された製作者の意図に沿わない映像となるパラメータを削除する必要が無い。   The storage means has a plurality of storage areas, stores the parameters from the top of the storage area, stores the parameters to the end of the storage area, and stores the parameters from the top of the storage area again. It can also be configured. With this configuration, since the parameters are stored in the storage means endlessly, even if a video that does not conform to the producer's intention is generated, the parameters are not changed until the video according to the manufacturer's intention is obtained. Even if the change is continued, the parameters for making the video according to the intention of the producer are always stored in the storage means, and the parameters that are stored in the storage means in the middle and become the video that does not conform to the intention of the producer are deleted. There is no need.

以上のように、本発明によれば、製作者の意図に従った映像を、製作者に多くの負担をかけることなく、製作することができる。   As described above, according to the present invention, it is possible to produce an image according to the intention of the producer without imposing much burden on the producer.

本発明の1実施形態の映像及び音楽編集装置2は、音声素材と映像生成用素材とを編集して出力するもので、図2(a)に示すように、複数台、例えば2台が同時に使用される。各編集装置2には、それぞれ表示手段、例えば液晶表示装置4が接続され、これら表示装置4をマルチスクリーンとして使用する。これら編集装置2は、ネットワークによって接続され、相互にデータの伝送が可能である。   The video and music editing apparatus 2 according to one embodiment of the present invention edits and outputs audio material and video generation material, and as shown in FIG. used. Each editing device 2 is connected to a display means, for example, a liquid crystal display device 4, and these display devices 4 are used as a multi-screen. These editing apparatuses 2 are connected by a network and can transmit data to each other.

各編集装置2は、例えば図1に示すように、バス6を有し、このバス6には、記憶手段、例えばストレージ8が接続されている。ストレージ8にはそれぞれ複数の映像生成用素材及び音声素材が記憶されている。また、バス6には外部メモリ10も接続される。外部メモリ10にも、それぞれ複数の映像生成用素材及び音声素材が記憶されている。   Each editing device 2 has a bus 6 as shown in FIG. 1, for example, and a storage unit, for example, a storage 8 is connected to the bus 6. Each storage 8 stores a plurality of video generation materials and audio materials. An external memory 10 is also connected to the bus 6. The external memory 10 also stores a plurality of video generation materials and audio materials.

複数の映像生成用素材のうち、選択されたものがバス6を介してシーンテンポラリメモリ12に記憶される。このシーンテンポラリメモリ12の映像生成用素材は、バス6を介して映像処理手段、例えばGPU14に供給される。GPU14は、サブバス15を介して接続された記憶手段、例えば画像テンポラリメモリ16を使用しながら、シーンテンポラリメモリ12の画像生成用素材を処理し、D/A変換器18によってアナログ信号に変換して、対応する表示装置4に出力する。   The selected one of the plurality of video generation materials is stored in the scene temporary memory 12 via the bus 6. The video generation material of the scene temporary memory 12 is supplied to video processing means, for example, the GPU 14 via the bus 6. The GPU 14 processes the image generation material in the scene temporary memory 12 while using the storage means connected via the sub-bus 15, for example, the image temporary memory 16, and converts it into an analog signal by the D / A converter 18. To the corresponding display device 4.

同様に、バス6に接続されたA/D変換変換器19によって得られた音声ストリーム信号やストレージまたは外部メモリから選択された音声素材は、音声処理手段、例えばDSP20にバス6を介して供給される。DSP20は、サブバス21を介して接続された記憶手段例えば音声エフェクトメモリ22を使用しながら、音声素材等を処理し、D/A変換器23によってアナログ信号に変換し、サウンドシステム(図示せず)に供給する。   Similarly, the audio stream signal obtained by the A / D conversion converter 19 connected to the bus 6 and the audio material selected from the storage or the external memory are supplied to the audio processing means, for example, the DSP 20 via the bus 6. The The DSP 20 processes a sound material and the like using a storage means connected via the sub-bus 21, for example, a sound effect memory 22, converts the sound material into an analog signal by a D / A converter 23, and a sound system (not shown). To supply.

これらGPU14、DSP20での処理において使用されるパラメータの設定や、画像生成用素材の選択は、図示しない操作子からユーザーインターフェース24を介して制御手段、例えばCPU25に供給された指示に基づいて行われ、パラメータ等は、CPU25からバス6を介してGPU14、DSP20に供給される。   Setting of parameters used in the processing in the GPU 14 and the DSP 20 and selection of image generation materials are performed based on instructions supplied to a control unit, for example, the CPU 25 from an operator (not shown) via the user interface 24. The parameters and the like are supplied from the CPU 25 to the GPU 14 and the DSP 20 via the bus 6.

図3は、編集装置2のGPU14及びDSP20を機能ブロック図で示したもので、音声素材は、音声再生部26で再生される。再生された音声信号は、合成器28によってA/D変換器19からの音声ストリーム信号と合成され、効果付与手段、例えば音声エフェクト部30に供給され、ここで音声エフェクトが付与され、出力される。なお、音声再生時には、操作子の操作によって設定された音声パラメータが音声再生部26に供給され、例えば再生ピッチ等が設定されている。また、音声エフェクト部30にも音声パラメータが設定され、付与するエフェクト等が決定されている。この音声エフェクト部30によって付与されるエフェクトの状態を周期的に変化させるために、音声用LFO32から音声パラメータが音声エフェクト部30に供給されている。LFO32には、音声パラメータが付与され、BPM(ビートパーミニッツ)データが供給され、これらによってLFO32が決定した音声パラメータが音声エフェクト部30に供給され、これによって音声エフェクトの状態が周期的に変化させられる。   FIG. 3 is a functional block diagram showing the GPU 14 and the DSP 20 of the editing apparatus 2, and the audio material is reproduced by the audio reproduction unit 26. The reproduced audio signal is synthesized with the audio stream signal from the A / D converter 19 by the synthesizer 28, and supplied to the effect applying means, for example, the audio effect unit 30, where the audio effect is added and output. . Note that at the time of audio reproduction, the audio parameters set by the operation of the operator are supplied to the audio reproduction unit 26, and for example, a reproduction pitch is set. Also, an audio parameter is set in the audio effect unit 30 to determine an effect to be applied. Audio parameters are supplied from the audio LFO 32 to the audio effect unit 30 in order to periodically change the state of the effect applied by the audio effect unit 30. An audio parameter is given to the LFO 32 and BPM (beat per minute) data is supplied to the audio parameter, and the audio parameter determined by the LFO 32 is supplied to the audio effect unit 30, thereby changing the state of the audio effect periodically. It is done.

編集装置2では、映像生成部34が映像生成用素材を元に映像出力を生成している。映像生成用素材は、例えば静止画であって、これにエフェクトを付与して、動画を生成する。例えば、所定フレーム、例えば1フレームごとに静止画中のオブジェクトが変化した画像を生成する。変化としては、例えば1フレームごとにオブジェクトが時間経過と共に拡大または縮小されるものや、オブジェクトが特定の位置から別の位置まで時間経過と共に移動するものや、平面的なオブジェクトを立体的なオブジェクトを生成し、その立体的なオブジェクトの形状が時間経過と共に変化するもの等種々のものがある。このような変化を行うための描画パラメータが、映像設定としてネットワーク同期部36に与えられ、ネットワーク同期部36から映像生成部34に供給される。また、上述したような変化を周期的に行うために、LFO38から描画パラメータが映像生成部34に供給されている。LFO38にもBPMデータが供給されている。   In the editing apparatus 2, the video generation unit 34 generates a video output based on the video generation material. The video generation material is, for example, a still image, and an effect is applied to the still image to generate a moving image. For example, an image in which an object in a still image is changed every predetermined frame, for example, every frame is generated. Changes include, for example, an object that expands or contracts over time for each frame, an object that moves from a specific position to another position over time, or a planar object that is replaced with a three-dimensional object. There are various types such as those that are generated and the shape of the three-dimensional object changes over time. Drawing parameters for performing such changes are given to the network synchronization unit 36 as video settings, and are supplied from the network synchronization unit 36 to the video generation unit 34. Further, drawing parameters are supplied from the LFO 38 to the video generation unit 34 in order to periodically perform the above-described changes. BPM data is also supplied to the LFO 38.

ネットワーク同期部36に設定された描画パラメータは、他の編集装置2にもネットワークを介して供給され、他の編集装置2の映像生成部34にも供給されている。   The drawing parameters set in the network synchronization unit 36 are supplied to the other editing apparatuses 2 via the network, and are also supplied to the video generation unit 34 of the other editing apparatuses 2.

映像生成部34からの映像出力を、音声エフェクト部30からの音声出力に同期させることができる。そのために、音声出力は、音声解析部40によって解析され、その解析結果が映像生成部34に供給される。このとき、映像生成部34では、音声出力に同期させて変化する映像出力を生成する。   The video output from the video generation unit 34 can be synchronized with the audio output from the audio effect unit 30. For this purpose, the audio output is analyzed by the audio analysis unit 40, and the analysis result is supplied to the video generation unit 34. At this time, the video generation unit 34 generates a video output that changes in synchronization with the audio output.

上記とは逆に、映像生成部34での映像の変化(映像エフェクトの変化)に同期して、例えば同じ周期で音声エフェクトを変化させることもできる。そのため、映像生成用LFO38に、音声エフェクト用LFO32を同期させるように、スイッチ42がLFO32、38間に設けられている。スイッチ42が閉じられることによって、LFO32からの音声パラメータは、LFO38からの描画パラメータに同期して例えば同じ周期で変化するものとなる。   Contrary to the above, the audio effect can be changed in the same cycle, for example, in synchronization with the change of the video (change of the video effect) in the video generation unit 34. Therefore, a switch 42 is provided between the LFOs 32 and 38 so that the audio effect LFO 32 is synchronized with the video generation LFO 38. When the switch 42 is closed, the audio parameter from the LFO 32 changes, for example, in the same cycle in synchronization with the drawing parameter from the LFO 38.

編集装置2、2は、2台の表示装置4、4を利用してマルチスクリーンを構成する。この実施形態では、表示しようとする映像の左半分が一方の表示装置4に表示され、表示しようとする映像の右半分が他方の表示装置に表示される。そのため、図2(a)に示すように、編集装置2、2の映像生成部34は、それぞれ仮想画面領域44を有している。   The editing devices 2 and 2 constitute a multi-screen using the two display devices 4 and 4. In this embodiment, the left half of the video to be displayed is displayed on one display device 4, and the right half of the video to be displayed is displayed on the other display device. Therefore, as shown in FIG. 2A, the video generation units 34 of the editing devices 2 and 2 each have a virtual screen area 44.

そして、予め一方の編集装置2において、それぞれの仮想画面領域44をどのような大きさとし、どのように分割し、その分割された領域のいずれの部分をいずれの編集装置2から出力するか、初期設定時に決定され、その決定値がネットワークを介して他の編集装置2に伝送される。   Then, in one editing apparatus 2, the size of each virtual screen area 44, how it is divided, and which part of the divided area is output from which editing apparatus 2 is initialized. It is determined at the time of setting, and the determined value is transmitted to the other editing apparatus 2 via the network.

例えば、表示装置4、4の表示領域が共にアスペクト比が4:3で、水平方向1280ピクセル、垂直方向720ピクセルとすると、いずれの編集装置2でも、仮想画面領域44の水平方向のピクセル数は両表示装置4、4の水平方向ピクセルの合計値(2560ピクセル)、垂直方向のピクセル数は両表示装置4、4共通の垂直方向ピクセル(720ピクセル)と決定される。そして、仮想画面領域44を表示装置の台数に応じた分割数、この場合2分割と決定する。その分割は、両表示装置4、4の表示領域が同じ大きさであるので、2等分し、例えば(0、0−1280、720)の左側領域と、(1281、0−2560、720)の右側領域と決定する。そして、図2(a)において左側に示す編集装置2は、それが有する仮想画面領域44の左側領域をそれの表示装置4に出力し、同図(a)において右側に示す編集装置2は、それが有する仮想画面領域44の右側領域をそれの表示装置4に出力すると決定される。   For example, if the display areas of the display devices 4 and 4 have an aspect ratio of 4: 3, 1280 pixels in the horizontal direction, and 720 pixels in the vertical direction, the number of pixels in the horizontal direction of the virtual screen area 44 in any editing device 2 is The total value (2560 pixels) of the horizontal pixels of both display devices 4 and 4 and the number of pixels in the vertical direction are determined as the vertical pixels (720 pixels) common to both display devices 4 and 4. The virtual screen area 44 is determined as the number of divisions according to the number of display devices, in this case, two divisions. Since the display areas of both the display devices 4 and 4 are the same size, the division is divided into two equal parts, for example, the left area of (0, 0-1280, 720) and (1281, 0-2560, 720). And determine the right area. Then, the editing device 2 shown on the left side in FIG. 2A outputs the left side area of the virtual screen area 44 it has to the display device 4, and the editing device 2 shown on the right side in FIG. It is determined that the right area of the virtual screen area 44 it has is output to its display device 4.

或いは、表示装置4、4の表示領域が共にアスペクト比4:3であるが、一方の表示装置4の表示領域が、水平方向1280ピクセル、垂直方向720ピクセルで、他方の表示装置4の表示領域が、水平方向800ピクセル、垂直方向600ピクセルと表示画面領域の大きさが異なっている場合、いずれの仮想画面領域44の大きさも、水平方向は両表示装置4、4の水平ピクセルの合計値(水平方向2080ピクセル)、垂直方向両表示装置4、4の垂直方向ピクセルの大きい方の値(720ピクセル)と決定される。そして、仮想画面領域44の表示装置の台数に応じた分割数、この場合2分割と決定される。分割は、表示装置4、4の表示領域の大きさが異なるので、各表示装置4、4の表示領域に応じたものを仮想画面領域44から切り出すと決定する。例えば表示装置4、4のうち左側の領域を担当するものが表示領域が1280*720ピクセルで、右側の領域を担当する表示装置の表示領域が800*600であるとすると、仮想画面領域44は、(0、0−1280、720)を左側領域と決定される。残りの(1281、0−2080、720)のうちから800*600の大きさに相当する領域を右側領域と決定する。例えば(1281、0−2080、600)、(1281、60−2080、660)または(1281、120−2080、720)のように決定される。   Alternatively, the display areas of both the display devices 4 and 4 have an aspect ratio of 4: 3, but the display area of one display device 4 is 1280 pixels in the horizontal direction and 720 pixels in the vertical direction, and the display area of the other display device 4 However, if the size of the display screen area is different from 800 pixels in the horizontal direction and 600 pixels in the vertical direction, the size of any virtual screen area 44 is the sum of the horizontal pixels of both display devices 4 and 4 in the horizontal direction ( 2080 pixels in the horizontal direction) and the larger value (720 pixels) of the vertical pixels in the display devices 4 and 4 in the vertical direction. Then, the number of divisions corresponding to the number of display devices in the virtual screen area 44 is determined, in this case, two divisions. Since the sizes of the display areas of the display devices 4 and 4 are different from each other, the division is determined to be cut out from the virtual screen area 44 according to the display areas of the display devices 4 and 4. For example, assuming that the display area of the display devices 4 and 4 that is in charge of the left area is 1280 * 720 pixels, and the display area of the display apparatus that is in charge of the right area is 800 * 600, the virtual screen area 44 is , (0, 0-1280, 720) is determined as the left region. Of the remaining (1281, 0-2080, 720), an area corresponding to a size of 800 * 600 is determined as the right area. For example, it is determined as (1281, 0-2080, 600), (1281, 60-2080, 660) or (1281, 120-2080, 720).

これらの決定は、一方の編集装置2において行われる。そして、その決定が、一方の編集装置2から他方の編集装置にパラメータとして伝送される。各編集装置2、2では、このパラメータに基づいて、指定された大きさの仮想画面領域44を獲得する。各編集装置2、2において獲得された仮想画面領域は同じ大きさであり、かつ各編集装置2、2の表示装置4、4の表示領域よりも大きい。   These determinations are made in one editing device 2. Then, the determination is transmitted as a parameter from one editing device 2 to the other editing device. Each of the editing devices 2 and 2 acquires a virtual screen area 44 having a designated size based on this parameter. The virtual screen area acquired in each editing device 2, 2 has the same size and is larger than the display area of the display device 4, 4 of each editing device 2, 2.

また、一方の編集装置2において使用する映像素材が初期設定時に決定されると、その使用する映像素材を表すデータがネットワークを介して他の編集装置2に伝送される。編集装置2、2では、このデータに基づいて仮想画面領域44に応じた大きさに画像を生成し、その生成された画像が、同図(b)に示すように、仮想画面領域44、44に書き込まれる。例えばネットワークを介して供給されるデータがビットマップデータのような1画素ごとのデータであると、その水平方向及び垂直方向の画素数とアスペクト比とが、仮想画面領域の画素数とアスペクト比とに一致していなければ、仮想画面領域44に書き込む際に、拡大、縮小、変形を加える必要があり、表示装置4、4に表示された画像に劣化が生じる。しかし、この編集装置2、2では、供給された映像素材を表すデータに基づいて仮想画面領域44、44に応じた大きさに編集装置2、2で作成した画像を、仮想画面領域44、44に書き込んであるので、画像の劣化は生じない。   When the video material to be used in one editing device 2 is determined at the time of initial setting, data representing the video material to be used is transmitted to the other editing device 2 via the network. The editing apparatuses 2 and 2 generate an image having a size corresponding to the virtual screen area 44 based on the data, and the generated image is displayed on the virtual screen areas 44 and 44 as shown in FIG. Is written to. For example, if the data supplied via the network is data for each pixel such as bitmap data, the number of pixels in the horizontal and vertical directions and the aspect ratio correspond to the number of pixels in the virtual screen area and the aspect ratio. If they do not match, it is necessary to enlarge, reduce, or deform when writing to the virtual screen area 44, and the images displayed on the display devices 4 and 4 are degraded. However, in the editing apparatuses 2 and 2, the images created by the editing apparatuses 2 and 2 in a size corresponding to the virtual screen areas 44 and 44 based on the data representing the supplied video material are displayed on the virtual screen areas 44 and 44. The image is not deteriorated because the image is written on.

そして、仮想画面領域44、44のうち各編集装置2がそれぞれ指定されている領域を、同図(c)に示すように各編集装置2がそれぞれ接続されている表示装置4、4に出力する。例えば上述したように、表示装置4、4の表示画面が水平方向が1280ピクセルで垂直方向が720ピクセルの大きさであると、編集装置2、2のうちそれぞれその結果、マルチスクリーンによる表示が行われる。表示装置4、4の表示領域のサイズが異なる場合も、上述したように仮想画面領域のうち左側領域及び右側領域として指定された領域が切り出され、表示装置4、4に表示される。   Then, the areas designated by the editing devices 2 in the virtual screen areas 44 and 44 are output to the display devices 4 and 4 to which the editing devices 2 are respectively connected, as shown in FIG. . For example, as described above, when the display screens of the display devices 4 and 4 have a size of 1280 pixels in the horizontal direction and 720 pixels in the vertical direction, the multi-screen display is performed as a result of each of the editing devices 2 and 2. Is called. Even when the sizes of the display areas of the display devices 4 and 4 are different, the areas designated as the left area and the right area of the virtual screen area are cut out and displayed on the display apparatuses 4 and 4 as described above.

また、初期設定時に、映像素材に基づいてどのような動画とするかのパラメータも一方の編集装置2において決定され、他方の編集装置2にネットワークを介して伝送されている。従って、例えば同図2(c)に示すように仮想画面領域44の水平方向の中央にAという文字がオブジェクトとして表示されているものである場合に、このオブジェクトを右方向に所定の速度で移動させるとのパラメータが設定されているとすると、次のフレームでは、オブジェクトが右側にパラメータで指定された量だけ右側に移動したように、両編集装置2の各仮想画面領域44、44の画像は書き換えられて、上述したように分割して出力される。画像の出力が開始されてから、或る数のフレームが発生した後には、同図(d)に示すようにオブジェクトが仮想画面領域44の中央よりも完全に右側に位置するようにオブジェクトは両仮想画面領域44にそれぞれ書き込まれる。従って、左側の表示装置4にはオブジェクトが表示されず、右側の表示装置4にオブジェクトの全体が表示されるようになる。   Also, at the time of initial setting, a parameter for determining what kind of moving image is to be made based on the video material is determined by one editing device 2 and transmitted to the other editing device 2 via the network. Therefore, for example, as shown in FIG. 2C, when the character A is displayed as an object in the horizontal center of the virtual screen area 44, the object is moved rightward at a predetermined speed. Assuming that the parameter is set, in the next frame, the images of the virtual screen areas 44 and 44 of both editing apparatuses 2 are such that the object has moved to the right by the amount specified by the parameter on the right side. Rewritten and divided and output as described above. After a certain number of frames have occurred since the start of image output, both objects are positioned so that the object is located completely to the right of the center of the virtual screen area 44 as shown in FIG. Each is written in the virtual screen area 44. Accordingly, the object is not displayed on the left display device 4, and the entire object is displayed on the right display device 4.

このようなエフェクトを付与するためにLFO38からパラメータが映像生成部34に供給されており、繰り返し行われる。このLFO38と音声エフェクト用のLFO32とを、スイッチ42の操作によって同期させることによって、そのとき音声エフェクト部30から出力される音声出力に付与されている音声エフェクトも映像出力に付与されたエフェクトと同期して繰り返される。従って、そのとき音声エフェクト部30に供給されている例えば音声素材が周期性の無いノイズであっても、映像出力に付与されたエフェクトと同じ周期を持った音声出力が得られる。   In order to give such an effect, parameters are supplied from the LFO 38 to the video generation unit 34 and are repeatedly performed. By synchronizing the LFO 38 and the audio effect LFO 32 by operating the switch 42, the audio effect applied to the audio output output from the audio effect unit 30 at that time is also synchronized with the effect applied to the video output. And repeated. Accordingly, even if, for example, the audio material supplied to the audio effect unit 30 at that time is non-periodic noise, an audio output having the same cycle as the effect applied to the video output can be obtained.

このようにして生成された映像出力は、図3に示すエンコーダ46によって映像ファイルに変換され、ストレージ8に記憶され、その後にストレージ8から読み出されて、再生される。このように映像ファイルとして記憶する前に、どのようなエフェクトを使用するか、そのエフェクトにおけるパラメータはどのように設定するかを、試行錯誤の結果、決定することがある。その場合、どのようにパラメータを変化させたかを記憶させておき、気に入った映像出力になったときのパラメータを呼び出して、再度映像生成部34から映像出力を生成させ、これをエンコーダ46によって映像ファイルとする。このような処理を以下、スキップバック処理と称する。   The video output generated in this way is converted into a video file by the encoder 46 shown in FIG. 3, stored in the storage 8, and then read out from the storage 8 and reproduced. Thus, before storing as a video file, what effect is used and how to set parameters for the effect may be determined as a result of trial and error. In this case, how the parameters are changed is stored, the parameters when the desired video output is obtained, the video output is generated again from the video generation unit 34, and this is output by the encoder 46 to the video file. And Such processing is hereinafter referred to as skip back processing.

そのため、パラメータが供給されているネットワーク同期部36から、パラメータ記憶手段、例えばレコーダ48にパラメータが供給され、記憶されている。レコーダ48には、複数の記憶領域を持つバッファが形成され、このバッファの先頭の記憶領域から順にパラメータが記憶され、最後の記憶領域までパラメータが記憶されると、再び先頭の記憶領域からパラメータが記憶される。また、このレコーダ44から選択されて読み出されたパラメータは、ネットワーク同期部36を経て、両編集装置2の映像生成部34に供給される。これら記憶及び読み出しの指示は、操作子からユーザーインターフェース24、CPU25を介してレコーダ46に与えられる。   Therefore, the parameters are supplied from the network synchronization unit 36 to which the parameters are supplied to the parameter storage means, for example, the recorder 48 and stored. In the recorder 48, a buffer having a plurality of storage areas is formed. Parameters are stored in order from the first storage area of the buffer. When parameters are stored up to the last storage area, the parameters are again stored from the first storage area. Remembered. The parameters selected and read from the recorder 44 are supplied to the video generation unit 34 of both editing apparatuses 2 through the network synchronization unit 36. These storage and readout instructions are given to the recorder 46 from the operator via the user interface 24 and the CPU 25.

このようなマルチスクリーン、映像エフェクト、音声エフェクト付与、パラメータの変更の記憶、読み出しのために、編集装置2が行う処理では、まず図4に示すように、初期化が行われる(ステップS2)。2台の編集装置2のうち、一方の編集装置2では、初期化において、映像生成用素材、音声素材の選択、映像に付与するエフェクト及び音声に付与するエフェクトの選択、これらエフェクトにおけるパラメータの選択が行われる。更に、仮想画面領域44の大きさ及びこの仮想画面領域44のうち対応する表示装置4に出力する表示領域の設定が行われる。これら選択された映像生成用素材の選択指示、音声素材の選択指示、エフェクトの指示、パラメータの値、仮想画面領域の大きさ及び表示領域の指示が、ネットワークを介して他方の編集装置2に伝送される。他方の編集装置2では、ネットワークを介して伝送されたデータに基づいて、初期化において、映像生成用の素材、音声素材の選択、エフェクトの選択、仮想画面領域の設定を行う。   In the processing performed by the editing apparatus 2 for such multi-screen, video effect, audio effect assignment, parameter change storage, and readout, initialization is first performed as shown in FIG. 4 (step S2). Of the two editing devices 2, one of the editing devices 2 selects a video generation material and audio material, selects an effect to be applied to video and an effect to be applied to audio, and selects parameters for these effects during initialization. Is done. Furthermore, the size of the virtual screen area 44 and the display area to be output to the corresponding display device 4 in the virtual screen area 44 are set. The selected video generation material selection instruction, audio material selection instruction, effect instruction, parameter value, virtual screen area size and display area instruction are transmitted to the other editing apparatus 2 via the network. Is done. The other editing device 2 performs video generation material selection, audio material selection, effect selection, and virtual screen area setting in initialization based on data transmitted via the network.

初期化に続いて、各編集装置2では描画処理を開始する(ステップS4)。描画処理では、図5に示すように、まず設定された描画パラメータを取得する(ステップS40)。次に、取得した描画パラメータとBPMデータとに基づいてLFO38用の描画LFO処理を行う(ステップS42)。そして、LFO38からのパラメータに従って映像生成用素材にエフェクトを付与した画像を仮想画面領域に描画する(ステップS44)。描画が終了した仮想画面領域のうち、対応する表示装置4に出力する表示領域を、初期化の際の設定に基づいて取得し(ステップS46)、この表示領域から画像を出力する(ステップS46)。以下、この処理が繰り返される。   Following the initialization, each editing device 2 starts a drawing process (step S4). In the drawing process, as shown in FIG. 5, first, the set drawing parameters are acquired (step S40). Next, a drawing LFO process for the LFO 38 is performed based on the acquired drawing parameters and BPM data (step S42). Then, in accordance with the parameters from the LFO 38, an image obtained by applying an effect to the video generation material is drawn in the virtual screen area (step S44). A display area to be output to the corresponding display device 4 is acquired from the virtual screen area for which drawing has ended (step S46), and an image is output from the display area (step S46). . Thereafter, this process is repeated.

この描画処理に続いて、サウンド処理が行われる(ステップS6)。サウンド処理では、図6に示すように、まず描画パラメータを取得する(ステップS60)。次に、この描画パラメータを描画パラメータに基づくサウンドパラメータに変換する(ステップS61)。そして、音声用のLFO32と描画用のLFO38とをリンクさせる指示が与えられているか判断する(ステップS62)。この判断の答えがイエスの場合には、ステップS61で変換した描画パラメータに基づくサウンドパラメータを取得する(ステップS63)。また、ステップS62の判断の答えがノーの場合には、LFO32用に設定されたパラメータを取得する(ステップS64)。ステップS63またはS64によって取得されたパラメータに基づいてサウンドLFO処理を行う(ステップS65)。次にエフェクト処理する音声素材及び音声ストリーム信号を入力し(ステップS66)、これにサウンドLFO処理されたパラメータに基づいてエフェクトを付与して(ステップS67)、音声出力を出力する(ステップS68)。以下、これら処理を繰り返す。   Following this drawing processing, sound processing is performed (step S6). In the sound processing, as shown in FIG. 6, first, drawing parameters are acquired (step S60). Next, this drawing parameter is converted into a sound parameter based on the drawing parameter (step S61). Then, it is determined whether an instruction to link the audio LFO 32 and the drawing LFO 38 is given (step S62). If the answer to this determination is yes, a sound parameter based on the drawing parameter converted in step S61 is acquired (step S63). If the answer to the determination at step S62 is no, the parameter set for the LFO 32 is acquired (step S64). Sound LFO processing is performed based on the parameters acquired in step S63 or S64 (step S65). Next, an audio material and an audio stream signal to be effect-processed are input (step S66), an effect is applied to the sound based on the parameter subjected to the sound LFO process (step S67), and an audio output is output (step S68). Thereafter, these processes are repeated.

ステップS6のサウンド処理に続いて、操作子の操作が行われたか判断し(ステップS8)、その答えがノーの場合には、ステップS8を繰り返し、その答えがイエスの場合、スキップバック処理が行われる(ステップS10)。   Following the sound processing in step S6, it is determined whether the operation of the operator has been performed (step S8). If the answer is no, step S8 is repeated. If the answer is yes, skip back processing is performed. (Step S10).

スキップバック処理では、図7に示すように、各操作子のうち、スキップバックの再生時間(スキップバック再生開始時点とスキップバック再生終了時点)を指定する操作子が操作されたか判断する(ステップS100)。この判断の答えがノーであると、スキップバック再生は行わないので、パラメータを入力し(ステップS102)、そのときの時間を基準時間として取得し(ステップS104)、スキップバック用に準備したレコーダ48のバッファの書き込み位置(ライトポイント)を指定するライトポインタの値を1つ進め(ステップS106)、バッファが一杯か、即ちライトポイントがバッファの最後であるか判断する(ステップS108)。この判断の答えがイエスの場合、ライトポインタの値をバッファの先頭に戻す(ステップS110)。ステップS108の判断の答えがノーの場合、即ち、バッファへの書き込みが可能なとき、またはステップS110に続いて、バッファのライトポインタによって指定されたライトポイントに基準時間とパラメータとを書き込む(ステップS112)。次に、このパラメータを各編集装置2のLFO38及び映像生成部34に渡す(ステップS114)。以下、このような作業が一定時間が経過する毎に繰り返され、バッファには、一定時間経過毎の基準時間とそのときのパラメータとが順に記憶され、バッファの最後まで書き込まれたときには、バッファの最初から続きが書き込まれる。   In the skip back process, as shown in FIG. 7, it is determined whether an operator that designates a skip back playback time (a skip back playback start time and a skip back playback end time) is operated among the controls (step S100). ). If the answer to this determination is no, skip back playback is not performed, so parameters are input (step S102), the time at that time is acquired as a reference time (step S104), and the recorder 48 prepared for skip back is provided. The value of the write pointer that specifies the write position (write point) of the buffer is advanced by one (step S106), and it is determined whether the buffer is full, that is, whether the write point is the end of the buffer (step S108). If the answer to this determination is yes, the value of the write pointer is returned to the beginning of the buffer (step S110). If the answer to the determination in step S108 is no, that is, when writing to the buffer is possible, or following step S110, the reference time and parameters are written to the write point specified by the write pointer of the buffer (step S112). ). Next, this parameter is passed to the LFO 38 and the video generation unit 34 of each editing apparatus 2 (step S114). Thereafter, such work is repeated every time a fixed time elapses, and the buffer stores the reference time for each elapse of the fixed time and the parameters at that time in order. The continuation is written from the beginning.

ステップS100の判断の答えがイエスであると、スキップバックの再生時間を指定する操作子が操作されているので、この操作子の操作によって指定されたスキップバック再生開始時点とスキップバック再生終了時点、即ちスキップバック時間が入力される(ステップS116)。そして、現在の基準時間を取得し(ステップS118)、スキップバック開始時間と現在の基準時間とから現在読み出すべきリードポインタの値(当初にはスキップバック再生開始時間に対応する)を算出する(ステップS120)。このリードポインタの値がバッファの最後(スキップバック再生終了時点に対応する)を越えているか判断し(ステップS122)、この判断の答えがノーの場合、リードポインタの値が指定する位置からパラメータを読み出し(ステップS124)、そのパラメータを各編集装置2のLFO38及び映像生成部34に渡す(ステップS126)。また、ステップS122の判断の答えがイエスの場合、リードポインタの値をスキップバック再生開始の時点に対応する値に変更し(ステップS128)、ステップS124、S126を実行する。ステップS126に続いて、スキップバック再生の終了の指示が与えられているか判断し(ステップS130)、その判断の答えがイエスであるとスキップバック再生を終了するが、判断の答えがノーであると、ステップS118から再び実行する。このとき、ステップS118で現在の基準時間が取得され、ステップS120では、スキップバック再生開始時点から所定時間経過した次の基準時間に対応するパラメータが読み出される。   If the answer to the determination in step S100 is yes, the operator that specifies the playback time for skip back is being operated. Therefore, the skip back playback start time and skip back playback end time specified by the operation of this operator are That is, the skip back time is input (step S116). Then, the current reference time is acquired (step S118), and the value of the read pointer to be read at present (initially corresponding to the skip back reproduction start time) is calculated from the skip back start time and the current reference time (step S118). S120). It is determined whether the value of the read pointer exceeds the end of the buffer (corresponding to the end point of skip back reproduction) (step S122). If the answer to this determination is no, the parameter is set from the position specified by the value of the read pointer. Reading (step S124) and passing the parameters to the LFO 38 and the video generation unit 34 of each editing device 2 (step S126). On the other hand, if the answer to the determination in step S122 is yes, the value of the read pointer is changed to a value corresponding to the point in time when the skip back reproduction starts (step S128), and steps S124 and S126 are executed. Subsequent to step S126, it is determined whether an instruction to end skip back playback is given (step S130). If the answer to the determination is yes, skip back playback ends, but the answer to the determination is no. , And again from step S118. At this time, the current reference time is acquired in step S118, and in step S120, a parameter corresponding to the next reference time after a predetermined time has elapsed from the skip back playback start time is read out.

なお、上記の実施形態では、映像と音声とを同期させるために映像用のLFOと音声用のLFOとを同期させたが、これ以外にも、映像に対するエフェクトパラメータの値を直接に音声用のエフェクトパラメータの値として使用することによって、映像と音声とを同期させることもできる。   In the above embodiment, the video LFO and the audio LFO are synchronized in order to synchronize the video and audio. However, in addition to this, the effect parameter values for the video are directly set for audio. By using it as an effect parameter value, the video and audio can be synchronized.

例えば、映像側で残像のような効果を付与する場合に、これに同期してエコー効果を音声に付与することができる。この場合、例えば残像用のパラメータの1つである残像の数をエコー用のディレイ回数として使用し、残像用のパラメータの1つである残像の大きさまたは明度を、エコー用のディレイレベルとして使用し、残像用のパラメータの1つである残像同士の間隔をディレイタイムとして使用する。   For example, when an effect such as an afterimage is given on the video side, an echo effect can be given to the sound in synchronization with this. In this case, for example, the number of afterimages, which is one of the afterimage parameters, is used as the number of echo delays, and the size or brightness of the afterimage, which is one of the afterimage parameters, is used as the echo delay level. The interval between afterimages, which is one of the afterimage parameters, is used as the delay time.

或いは、映像用の効果として、影を引くような効果を付与する場合、音声側でリバーブ効果を与えることもできる。この場合、影を引く効果用の影の長さを、リバーブ効果のリバーブタイムとして使用し、影を引く効果用の影の濃さを、リバーブ効果のリバーブレベルとして使用する。   Alternatively, when an effect that draws a shadow is given as an effect for video, a reverb effect can be given on the audio side. In this case, the shadow length for the effect of drawing the shadow is used as the reverb time of the reverb effect, and the shadow density for the effect of drawing the shadow is used as the reverb level of the reverb effect.

または、映像用の効果として、波紋のように変化する効果を付与する場合、音声側で周波数特性フィルタの特性を変化させて効果を付与することもできる。この場合、波紋の波高値をデプスとして使用し、波紋の減衰速度をフィルタのカットオフ周波数が低い周波数へに変化する速度として使用し、波紋の速度をフィルタのカットオフ周波数を変化させるLFOのレートとして使用する。   Alternatively, when an effect that changes like a ripple is applied as an effect for video, the effect can be applied by changing the characteristics of the frequency characteristic filter on the audio side. In this case, the crest value of the ripple is used as the depth, the decay rate of the ripple is used as a speed at which the cutoff frequency of the filter changes to a low frequency, and the speed of the ripple is used to change the cutoff frequency of the filter. Use as

或いは、映像用の効果として色彩フィルタ効果を使用する場合、音声側で周波数特性フィルタをかけて効果を付与することもできる。この場合、色彩フィルタにおける映像の明るさを変化させるパラメータを、音の明るさ(周波数特性フィルタのカットオフ周波数)を変化させるパラメータとして使用する。   Alternatively, when a color filter effect is used as an effect for video, a frequency characteristic filter can be applied on the sound side to provide the effect. In this case, a parameter for changing the brightness of the image in the color filter is used as a parameter for changing the brightness of the sound (the cutoff frequency of the frequency characteristic filter).

この他に、映像側でオブジェクトの位置を変化させる効果を付与する場合、音声側の効果としてオブジェクトの位置の変化に比例して音像の定位を移動させることや、映像側で描画されている物体のサイズを変化させる効果を付与する場合、音声側で物体のサイズの変化に比例して音量を変化させることや、映像側で描画されているオブジェクトのピントを変化させる効果を付与する場合、音声側で周波数フィルタのカットオフ周波数をピントの変化に比例して変化させる場合もある。これらの場合、位置移動のパラメータをそのまま定位移動のパラメータとして、細部変化のパラメータをそのまま音量パラメータとして、ピント変化のパラメータをそのままカットオフ周波数変化のパラメータとして使用する。   In addition to this, when the effect of changing the position of the object is given on the video side, the localization of the sound image is moved in proportion to the change of the position of the object as the effect on the audio side, or the object drawn on the video side When the effect of changing the size of the object is given, the sound volume is changed in proportion to the change of the object size on the sound side, or the effect of changing the focus of the object drawn on the image side is given. On the other hand, the cutoff frequency of the frequency filter may be changed in proportion to the change in focus. In these cases, the position movement parameter is used as it is as a localization movement parameter, the detail change parameter as it is as a volume parameter, and the focus change parameter as it is as a cutoff frequency change parameter.

映像に対するエフェクトパラメータと音声用のエフェクトパラメータとの組合せは、任意に変更することができ、例えば上記の例で言えば、波紋のような映像と音声へのエコーとを同期させることもできるし、逆に映像の残像のような効果と、音声への周波数特性フィルタとを同期させることもできる。   The combination of the effect parameter for video and the effect parameter for audio can be arbitrarily changed. For example, in the above example, the image such as ripples and the echo to the audio can be synchronized, Conversely, it is possible to synchronize an effect such as an afterimage of video with a frequency characteristic filter for audio.

上記の実施形態では、2台の編集装置2と2台の表示装置4とを使用したが、これらの台数は、更に増加させることができる。但し、台数が増加されると、それに伴い仮想表示画面の大きさも変化させられるし、各表示装置が担当する表示領域の仮想表示画面上の位置も変化する。   In the above embodiment, two editing devices 2 and two display devices 4 are used, but the number of these devices can be further increased. However, when the number increases, the size of the virtual display screen is changed accordingly, and the position of the display area in charge of each display device on the virtual display screen also changes.

本発明による映像生成装置を実施した編集装置のブロック図である。It is a block diagram of the editing apparatus which implemented the image | video production apparatus by this invention. 図1の編集装置を2台組み合わせた編集システムのブロック図である。FIG. 2 is a block diagram of an editing system in which two editing apparatuses in FIG. 1 are combined. 図1の編集装置の機能ブロック図である。It is a functional block diagram of the editing apparatus of FIG. 図1の編集装置で行われる処理のメインフローチャートである。It is a main flowchart of the process performed with the editing apparatus of FIG. 図4における描画処理の詳細なフローチャートである。5 is a detailed flowchart of the drawing process in FIG. 4. 図4におけるサウンド処理の詳細なフローチャートである。It is a detailed flowchart of the sound process in FIG. 図4におけるスキップバック処理の詳細なフローチャートである。5 is a detailed flowchart of skip back processing in FIG. 4.

符号の説明Explanation of symbols

34 映像生成部(映像生成手段)
48 レコーダ(記憶手段)
34 Video generation unit (video generation means)
48 Recorder (storage means)

Claims (2)

映像素材にパラメータに従って効果を付与して映像を生成する映像生成手段と、
前記パラメータを前記映像生成手段に時間経過と共に変化させて供給するパラメータ供給手段と、
前記パラメータの供給開始時から時間経過に従って変化する前記パラメータを順に記憶する記憶手段と、
前記記憶手段に順に記憶された各パラメータのうち、指定されたパラメータ以降のパラメータを時間経過と共に順に読み出して、前記映像生成手段に再供給するパラメータ再供給手段とを、
具備する映像作成装置。
Video generation means for generating video by applying effects to video material according to parameters;
Parameter supply means for supplying the parameter to the video generation means by changing it over time;
Storage means for sequentially storing the parameters that change over time from the start of supply of the parameters;
Among the parameters stored in order in the storage means, the parameters after the designated parameter are read in order with the passage of time, and the parameter resupply means for resupplying the video generation means,
A video creation device.
請求項1記載の映像作成装置において、前記記憶手段は、複数の記憶領域を有し、その記憶領域の先頭から前記パラメータを記憶し、その記憶領域の最後まで前記パラメータを記憶すると、再び前記記憶領域の先頭から前記パラメータを記憶する映像作成装置。
2. The video creation device according to claim 1, wherein the storage unit has a plurality of storage areas, stores the parameters from the top of the storage areas, and stores the parameters to the end of the storage areas, the storage again A video creation device that stores the parameters from the top of the area.
JP2006341289A 2006-12-19 2006-12-19 Video creation device Expired - Fee Related JP4976837B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006341289A JP4976837B2 (en) 2006-12-19 2006-12-19 Video creation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006341289A JP4976837B2 (en) 2006-12-19 2006-12-19 Video creation device

Publications (2)

Publication Number Publication Date
JP2008154064A true JP2008154064A (en) 2008-07-03
JP4976837B2 JP4976837B2 (en) 2012-07-18

Family

ID=39655756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006341289A Expired - Fee Related JP4976837B2 (en) 2006-12-19 2006-12-19 Video creation device

Country Status (1)

Country Link
JP (1) JP4976837B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11297044A (en) * 1998-04-05 1999-10-29 Sony Corp Editing-list creation apparatus
JP2001186411A (en) * 1999-12-27 2001-07-06 Matsushita Electric Ind Co Ltd Edit system
JP2003068058A (en) * 2001-08-27 2003-03-07 Jisedai Joho Hoso System Kenkyusho:Kk Contents structure editing device and computer readable recording medium with program for executing computer as respective means for the same recorded thereon
JP2005025715A (en) * 2002-11-25 2005-01-27 Matsushita Electric Ind Co Ltd Device and method for producing and reproducing short film
JP2006279861A (en) * 2005-03-30 2006-10-12 Advanced Telecommunication Research Institute International Video content creating apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11297044A (en) * 1998-04-05 1999-10-29 Sony Corp Editing-list creation apparatus
JP2001186411A (en) * 1999-12-27 2001-07-06 Matsushita Electric Ind Co Ltd Edit system
JP2003068058A (en) * 2001-08-27 2003-03-07 Jisedai Joho Hoso System Kenkyusho:Kk Contents structure editing device and computer readable recording medium with program for executing computer as respective means for the same recorded thereon
JP2005025715A (en) * 2002-11-25 2005-01-27 Matsushita Electric Ind Co Ltd Device and method for producing and reproducing short film
JP2006279861A (en) * 2005-03-30 2006-10-12 Advanced Telecommunication Research Institute International Video content creating apparatus

Also Published As

Publication number Publication date
JP4976837B2 (en) 2012-07-18

Similar Documents

Publication Publication Date Title
JP4110528B2 (en) Editing apparatus and editing method
JP2007189473A (en) Moving picture reproducing device
JP5393237B2 (en) Image display apparatus, control method therefor, program, and storage medium
JP2009140382A (en) Image editing device, image editing program, record medium, and method for editing image
JP4976837B2 (en) Video creation device
JP2008154065A (en) Effect imparting device
JP2005252574A (en) Device and method for creating multimedia content, program for making computer execute method, and multimedia content creating system
JP2009128782A (en) Display controller and image forming apparatus using the same
JP4016914B2 (en) Movie display control system
JP2008152626A (en) Image generation apparatus and image generation system
JP2005110318A (en) Media pipeline with multi-channel video processing and reproduction
JP2000339485A (en) Animation generation device
US9117486B2 (en) Image output apparatus, method of controlling image output apparatus, and program
JP3507767B2 (en) Multimedia content reproduction system and multimedia content reproduction method
KR101391780B1 (en) System and method for ouputting multiful image and a medium having computer readable program for executing the method
US8212919B2 (en) Image processing apparatus, image processing method, and program
KR102341734B1 (en) Multi window system having editor for reaction video and method for making reaction video using the same
JP5737988B2 (en) Image processing apparatus, control method therefor, and program
JP2009206986A (en) Image output device and image output method
JP2004289224A (en) Moving picture distribution server and moving picture distribution system
JPH07281865A (en) Multi-display system
JP5839458B2 (en) Video switching device
JP2004064679A (en) Program producing method
JP2006140867A (en) Video editting apparatus and method thereof
JP2011082714A (en) Device for creating moving picture, computer program therefor, and storage medium therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120410

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120413

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4976837

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150420

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees