JP2008154064A - Video creating device - Google Patents
Video creating device Download PDFInfo
- Publication number
- JP2008154064A JP2008154064A JP2006341289A JP2006341289A JP2008154064A JP 2008154064 A JP2008154064 A JP 2008154064A JP 2006341289 A JP2006341289 A JP 2006341289A JP 2006341289 A JP2006341289 A JP 2006341289A JP 2008154064 A JP2008154064 A JP 2008154064A
- Authority
- JP
- Japan
- Prior art keywords
- video
- parameters
- parameter
- effect
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Circuits (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
本発明は、画像に効果を付与して映像を作成する装置に関する。 The present invention relates to an apparatus for creating an image by adding an effect to an image.
従来、上記のような装置としては、例えば特許文献1に開示されたものがある。特許文献1の装置では、予め定めた写真及びBGMに従って写真及びBGMを再生し、写真にその映像のメタ情報に従って映像効果を付与し、一連のビデオが生成されると、それを保存する。 Conventionally, as an apparatus as described above, there is one disclosed in Patent Document 1, for example. In the apparatus of Patent Document 1, a photograph and BGM are reproduced according to a predetermined photograph and BGM, a video effect is given to the photograph according to meta information of the video, and when a series of videos is generated, it is stored.
しかし、特許文献1の技術では、映像に付与される効果は、メタ情報に従ってあらかじめ決定されているが、付与する効果を製作者の意図に従ったものとなるように種々に変更しながら、映像を作成することがある。この場合、効果が付与された映像を何度も保存する必要があり、製作者の負担になっていた。 However, in the technique of Patent Document 1, the effect to be given to the video is determined in advance according to the meta information, but the video to be added while changing the effect to be given according to the intention of the producer. May be created. In this case, it is necessary to save the video with the effect many times, which is a burden on the producer.
本発明は、製作者の意図に従った映像を容易に得ることができる映像作成装置を提供することを目的とする。 An object of the present invention is to provide a video creation device that can easily obtain a video according to the intention of the producer.
本発明の一態様による映像作成装置は、映像生成手段を有し、この映像生成手段は、映像素材にパラメータに従って効果を付与して映像を生成する。前記パラメータを前記映像生成手段に時間経過と共に変化させてパラメータ供給手段が供給する。パラメータの供給開始時から時間経過に従って前記パラメータを記憶手段が記憶する。パラメータ再供給手段が、記憶手段に順に記憶されたパラメータのうち、指定されたパラメータ以降のパラメータを時間経過と共に読み出して、映像生成手段に再供給する。映像生成手段の他に、音声信号にパラメータを付与して効果を付与する音声効果付与手段を設けることもでき、この音声効果付与手段用のパラメータも記憶手段に記憶することができる。パラメータ生成手段としては、例えば製作者が操作してパラメータを生成することができるものを使用する。また、映像生成手段によって生成された画像は、所定のファイル形式で保存手段に保存することができ、この保存は、パラメータ供給手段によってパラメータの供給が開始された際に、開始することができる。パラメータ再供給手段は、記憶手段に記憶された一連のパラメータのうち、供給を開始する位置にあるパラメータの他に、供給を停止する位置にあるパラメータも指定することができる。 A video creation device according to an aspect of the present invention includes a video generation unit, which generates a video by applying an effect to a video material according to a parameter. The parameter supply unit supplies the parameter to the video generation unit with the passage of time. The storage means stores the parameters as time passes from the start of parameter supply. The parameter resupply unit reads parameters after the designated parameter among the parameters stored in order in the storage unit with the passage of time, and resupplys them to the video generation unit. In addition to the video generation means, there can also be provided sound effect giving means for giving an effect by giving a parameter to the audio signal, and the parameters for the sound effect giving means can also be stored in the storage means. As the parameter generation means, for example, a device that can be operated by a producer to generate parameters is used. In addition, the image generated by the video generation unit can be stored in a storage unit in a predetermined file format, and this storage can be started when the parameter supply unit starts supplying parameters. The parameter re-supply unit can specify a parameter at a position where supply is stopped, in addition to a parameter at a position where supply is started, among a series of parameters stored in the storage unit.
このように構成すると、製作者が種々に試行錯誤して経時的に変化するパラメータを順に記憶しているので、これらパラメータのうち製作者の意図に従った映像が得られるパラメータを再度映像生成手段に供給することによって、容易に製作者の意図に従った映像を再現することができ、再現された映像を保存するのも容易である。 With this configuration, since the producer sequentially stores parameters that change over time through various trials and errors, parameters for obtaining an image according to the manufacturer's intention among these parameters are again generated by the image generation means. By supplying to, it is possible to easily reproduce the video according to the intention of the producer, and it is easy to save the reproduced video.
前記記憶手段は、複数の記憶領域を有し、その記憶領域の先頭から前記パラメータを記憶し、その記憶領域の最後まで前記パラメータを記憶すると、再び記憶領域の先頭から前記パラメータを記憶するように構成することもできる。このように構成すると、パラメータは、エンドレスに記憶手段に記憶されるので、製作者の意図に沿わない映像が生成されている場合でも、そのまま製作者の意図に従った映像が得られるまでパラメータの変更を継続しても、製作者の意図に従った映像とするためのパラメータは必ず記憶手段に記憶され、途中で記憶手段に記憶された製作者の意図に沿わない映像となるパラメータを削除する必要が無い。 The storage means has a plurality of storage areas, stores the parameters from the top of the storage area, stores the parameters to the end of the storage area, and stores the parameters from the top of the storage area again. It can also be configured. With this configuration, since the parameters are stored in the storage means endlessly, even if a video that does not conform to the producer's intention is generated, the parameters are not changed until the video according to the manufacturer's intention is obtained. Even if the change is continued, the parameters for making the video according to the intention of the producer are always stored in the storage means, and the parameters that are stored in the storage means in the middle and become the video that does not conform to the intention of the producer are deleted. There is no need.
以上のように、本発明によれば、製作者の意図に従った映像を、製作者に多くの負担をかけることなく、製作することができる。 As described above, according to the present invention, it is possible to produce an image according to the intention of the producer without imposing much burden on the producer.
本発明の1実施形態の映像及び音楽編集装置2は、音声素材と映像生成用素材とを編集して出力するもので、図2(a)に示すように、複数台、例えば2台が同時に使用される。各編集装置2には、それぞれ表示手段、例えば液晶表示装置4が接続され、これら表示装置4をマルチスクリーンとして使用する。これら編集装置2は、ネットワークによって接続され、相互にデータの伝送が可能である。
The video and
各編集装置2は、例えば図1に示すように、バス6を有し、このバス6には、記憶手段、例えばストレージ8が接続されている。ストレージ8にはそれぞれ複数の映像生成用素材及び音声素材が記憶されている。また、バス6には外部メモリ10も接続される。外部メモリ10にも、それぞれ複数の映像生成用素材及び音声素材が記憶されている。
Each
複数の映像生成用素材のうち、選択されたものがバス6を介してシーンテンポラリメモリ12に記憶される。このシーンテンポラリメモリ12の映像生成用素材は、バス6を介して映像処理手段、例えばGPU14に供給される。GPU14は、サブバス15を介して接続された記憶手段、例えば画像テンポラリメモリ16を使用しながら、シーンテンポラリメモリ12の画像生成用素材を処理し、D/A変換器18によってアナログ信号に変換して、対応する表示装置4に出力する。
The selected one of the plurality of video generation materials is stored in the scene
同様に、バス6に接続されたA/D変換変換器19によって得られた音声ストリーム信号やストレージまたは外部メモリから選択された音声素材は、音声処理手段、例えばDSP20にバス6を介して供給される。DSP20は、サブバス21を介して接続された記憶手段例えば音声エフェクトメモリ22を使用しながら、音声素材等を処理し、D/A変換器23によってアナログ信号に変換し、サウンドシステム(図示せず)に供給する。
Similarly, the audio stream signal obtained by the A /
これらGPU14、DSP20での処理において使用されるパラメータの設定や、画像生成用素材の選択は、図示しない操作子からユーザーインターフェース24を介して制御手段、例えばCPU25に供給された指示に基づいて行われ、パラメータ等は、CPU25からバス6を介してGPU14、DSP20に供給される。
Setting of parameters used in the processing in the GPU 14 and the
図3は、編集装置2のGPU14及びDSP20を機能ブロック図で示したもので、音声素材は、音声再生部26で再生される。再生された音声信号は、合成器28によってA/D変換器19からの音声ストリーム信号と合成され、効果付与手段、例えば音声エフェクト部30に供給され、ここで音声エフェクトが付与され、出力される。なお、音声再生時には、操作子の操作によって設定された音声パラメータが音声再生部26に供給され、例えば再生ピッチ等が設定されている。また、音声エフェクト部30にも音声パラメータが設定され、付与するエフェクト等が決定されている。この音声エフェクト部30によって付与されるエフェクトの状態を周期的に変化させるために、音声用LFO32から音声パラメータが音声エフェクト部30に供給されている。LFO32には、音声パラメータが付与され、BPM(ビートパーミニッツ)データが供給され、これらによってLFO32が決定した音声パラメータが音声エフェクト部30に供給され、これによって音声エフェクトの状態が周期的に変化させられる。
FIG. 3 is a functional block diagram showing the GPU 14 and the
編集装置2では、映像生成部34が映像生成用素材を元に映像出力を生成している。映像生成用素材は、例えば静止画であって、これにエフェクトを付与して、動画を生成する。例えば、所定フレーム、例えば1フレームごとに静止画中のオブジェクトが変化した画像を生成する。変化としては、例えば1フレームごとにオブジェクトが時間経過と共に拡大または縮小されるものや、オブジェクトが特定の位置から別の位置まで時間経過と共に移動するものや、平面的なオブジェクトを立体的なオブジェクトを生成し、その立体的なオブジェクトの形状が時間経過と共に変化するもの等種々のものがある。このような変化を行うための描画パラメータが、映像設定としてネットワーク同期部36に与えられ、ネットワーク同期部36から映像生成部34に供給される。また、上述したような変化を周期的に行うために、LFO38から描画パラメータが映像生成部34に供給されている。LFO38にもBPMデータが供給されている。
In the
ネットワーク同期部36に設定された描画パラメータは、他の編集装置2にもネットワークを介して供給され、他の編集装置2の映像生成部34にも供給されている。
The drawing parameters set in the
映像生成部34からの映像出力を、音声エフェクト部30からの音声出力に同期させることができる。そのために、音声出力は、音声解析部40によって解析され、その解析結果が映像生成部34に供給される。このとき、映像生成部34では、音声出力に同期させて変化する映像出力を生成する。
The video output from the
上記とは逆に、映像生成部34での映像の変化(映像エフェクトの変化)に同期して、例えば同じ周期で音声エフェクトを変化させることもできる。そのため、映像生成用LFO38に、音声エフェクト用LFO32を同期させるように、スイッチ42がLFO32、38間に設けられている。スイッチ42が閉じられることによって、LFO32からの音声パラメータは、LFO38からの描画パラメータに同期して例えば同じ周期で変化するものとなる。
Contrary to the above, the audio effect can be changed in the same cycle, for example, in synchronization with the change of the video (change of the video effect) in the
編集装置2、2は、2台の表示装置4、4を利用してマルチスクリーンを構成する。この実施形態では、表示しようとする映像の左半分が一方の表示装置4に表示され、表示しようとする映像の右半分が他方の表示装置に表示される。そのため、図2(a)に示すように、編集装置2、2の映像生成部34は、それぞれ仮想画面領域44を有している。
The
そして、予め一方の編集装置2において、それぞれの仮想画面領域44をどのような大きさとし、どのように分割し、その分割された領域のいずれの部分をいずれの編集装置2から出力するか、初期設定時に決定され、その決定値がネットワークを介して他の編集装置2に伝送される。
Then, in one
例えば、表示装置4、4の表示領域が共にアスペクト比が4:3で、水平方向1280ピクセル、垂直方向720ピクセルとすると、いずれの編集装置2でも、仮想画面領域44の水平方向のピクセル数は両表示装置4、4の水平方向ピクセルの合計値(2560ピクセル)、垂直方向のピクセル数は両表示装置4、4共通の垂直方向ピクセル(720ピクセル)と決定される。そして、仮想画面領域44を表示装置の台数に応じた分割数、この場合2分割と決定する。その分割は、両表示装置4、4の表示領域が同じ大きさであるので、2等分し、例えば(0、0−1280、720)の左側領域と、(1281、0−2560、720)の右側領域と決定する。そして、図2(a)において左側に示す編集装置2は、それが有する仮想画面領域44の左側領域をそれの表示装置4に出力し、同図(a)において右側に示す編集装置2は、それが有する仮想画面領域44の右側領域をそれの表示装置4に出力すると決定される。
For example, if the display areas of the display devices 4 and 4 have an aspect ratio of 4: 3, 1280 pixels in the horizontal direction, and 720 pixels in the vertical direction, the number of pixels in the horizontal direction of the
或いは、表示装置4、4の表示領域が共にアスペクト比4:3であるが、一方の表示装置4の表示領域が、水平方向1280ピクセル、垂直方向720ピクセルで、他方の表示装置4の表示領域が、水平方向800ピクセル、垂直方向600ピクセルと表示画面領域の大きさが異なっている場合、いずれの仮想画面領域44の大きさも、水平方向は両表示装置4、4の水平ピクセルの合計値(水平方向2080ピクセル)、垂直方向両表示装置4、4の垂直方向ピクセルの大きい方の値(720ピクセル)と決定される。そして、仮想画面領域44の表示装置の台数に応じた分割数、この場合2分割と決定される。分割は、表示装置4、4の表示領域の大きさが異なるので、各表示装置4、4の表示領域に応じたものを仮想画面領域44から切り出すと決定する。例えば表示装置4、4のうち左側の領域を担当するものが表示領域が1280*720ピクセルで、右側の領域を担当する表示装置の表示領域が800*600であるとすると、仮想画面領域44は、(0、0−1280、720)を左側領域と決定される。残りの(1281、0−2080、720)のうちから800*600の大きさに相当する領域を右側領域と決定する。例えば(1281、0−2080、600)、(1281、60−2080、660)または(1281、120−2080、720)のように決定される。
Alternatively, the display areas of both the display devices 4 and 4 have an aspect ratio of 4: 3, but the display area of one display device 4 is 1280 pixels in the horizontal direction and 720 pixels in the vertical direction, and the display area of the other display device 4 However, if the size of the display screen area is different from 800 pixels in the horizontal direction and 600 pixels in the vertical direction, the size of any
これらの決定は、一方の編集装置2において行われる。そして、その決定が、一方の編集装置2から他方の編集装置にパラメータとして伝送される。各編集装置2、2では、このパラメータに基づいて、指定された大きさの仮想画面領域44を獲得する。各編集装置2、2において獲得された仮想画面領域は同じ大きさであり、かつ各編集装置2、2の表示装置4、4の表示領域よりも大きい。
These determinations are made in one
また、一方の編集装置2において使用する映像素材が初期設定時に決定されると、その使用する映像素材を表すデータがネットワークを介して他の編集装置2に伝送される。編集装置2、2では、このデータに基づいて仮想画面領域44に応じた大きさに画像を生成し、その生成された画像が、同図(b)に示すように、仮想画面領域44、44に書き込まれる。例えばネットワークを介して供給されるデータがビットマップデータのような1画素ごとのデータであると、その水平方向及び垂直方向の画素数とアスペクト比とが、仮想画面領域の画素数とアスペクト比とに一致していなければ、仮想画面領域44に書き込む際に、拡大、縮小、変形を加える必要があり、表示装置4、4に表示された画像に劣化が生じる。しかし、この編集装置2、2では、供給された映像素材を表すデータに基づいて仮想画面領域44、44に応じた大きさに編集装置2、2で作成した画像を、仮想画面領域44、44に書き込んであるので、画像の劣化は生じない。
When the video material to be used in one
そして、仮想画面領域44、44のうち各編集装置2がそれぞれ指定されている領域を、同図(c)に示すように各編集装置2がそれぞれ接続されている表示装置4、4に出力する。例えば上述したように、表示装置4、4の表示画面が水平方向が1280ピクセルで垂直方向が720ピクセルの大きさであると、編集装置2、2のうちそれぞれその結果、マルチスクリーンによる表示が行われる。表示装置4、4の表示領域のサイズが異なる場合も、上述したように仮想画面領域のうち左側領域及び右側領域として指定された領域が切り出され、表示装置4、4に表示される。
Then, the areas designated by the
また、初期設定時に、映像素材に基づいてどのような動画とするかのパラメータも一方の編集装置2において決定され、他方の編集装置2にネットワークを介して伝送されている。従って、例えば同図2(c)に示すように仮想画面領域44の水平方向の中央にAという文字がオブジェクトとして表示されているものである場合に、このオブジェクトを右方向に所定の速度で移動させるとのパラメータが設定されているとすると、次のフレームでは、オブジェクトが右側にパラメータで指定された量だけ右側に移動したように、両編集装置2の各仮想画面領域44、44の画像は書き換えられて、上述したように分割して出力される。画像の出力が開始されてから、或る数のフレームが発生した後には、同図(d)に示すようにオブジェクトが仮想画面領域44の中央よりも完全に右側に位置するようにオブジェクトは両仮想画面領域44にそれぞれ書き込まれる。従って、左側の表示装置4にはオブジェクトが表示されず、右側の表示装置4にオブジェクトの全体が表示されるようになる。
Also, at the time of initial setting, a parameter for determining what kind of moving image is to be made based on the video material is determined by one
このようなエフェクトを付与するためにLFO38からパラメータが映像生成部34に供給されており、繰り返し行われる。このLFO38と音声エフェクト用のLFO32とを、スイッチ42の操作によって同期させることによって、そのとき音声エフェクト部30から出力される音声出力に付与されている音声エフェクトも映像出力に付与されたエフェクトと同期して繰り返される。従って、そのとき音声エフェクト部30に供給されている例えば音声素材が周期性の無いノイズであっても、映像出力に付与されたエフェクトと同じ周期を持った音声出力が得られる。
In order to give such an effect, parameters are supplied from the
このようにして生成された映像出力は、図3に示すエンコーダ46によって映像ファイルに変換され、ストレージ8に記憶され、その後にストレージ8から読み出されて、再生される。このように映像ファイルとして記憶する前に、どのようなエフェクトを使用するか、そのエフェクトにおけるパラメータはどのように設定するかを、試行錯誤の結果、決定することがある。その場合、どのようにパラメータを変化させたかを記憶させておき、気に入った映像出力になったときのパラメータを呼び出して、再度映像生成部34から映像出力を生成させ、これをエンコーダ46によって映像ファイルとする。このような処理を以下、スキップバック処理と称する。
The video output generated in this way is converted into a video file by the encoder 46 shown in FIG. 3, stored in the
そのため、パラメータが供給されているネットワーク同期部36から、パラメータ記憶手段、例えばレコーダ48にパラメータが供給され、記憶されている。レコーダ48には、複数の記憶領域を持つバッファが形成され、このバッファの先頭の記憶領域から順にパラメータが記憶され、最後の記憶領域までパラメータが記憶されると、再び先頭の記憶領域からパラメータが記憶される。また、このレコーダ44から選択されて読み出されたパラメータは、ネットワーク同期部36を経て、両編集装置2の映像生成部34に供給される。これら記憶及び読み出しの指示は、操作子からユーザーインターフェース24、CPU25を介してレコーダ46に与えられる。
Therefore, the parameters are supplied from the
このようなマルチスクリーン、映像エフェクト、音声エフェクト付与、パラメータの変更の記憶、読み出しのために、編集装置2が行う処理では、まず図4に示すように、初期化が行われる(ステップS2)。2台の編集装置2のうち、一方の編集装置2では、初期化において、映像生成用素材、音声素材の選択、映像に付与するエフェクト及び音声に付与するエフェクトの選択、これらエフェクトにおけるパラメータの選択が行われる。更に、仮想画面領域44の大きさ及びこの仮想画面領域44のうち対応する表示装置4に出力する表示領域の設定が行われる。これら選択された映像生成用素材の選択指示、音声素材の選択指示、エフェクトの指示、パラメータの値、仮想画面領域の大きさ及び表示領域の指示が、ネットワークを介して他方の編集装置2に伝送される。他方の編集装置2では、ネットワークを介して伝送されたデータに基づいて、初期化において、映像生成用の素材、音声素材の選択、エフェクトの選択、仮想画面領域の設定を行う。
In the processing performed by the
初期化に続いて、各編集装置2では描画処理を開始する(ステップS4)。描画処理では、図5に示すように、まず設定された描画パラメータを取得する(ステップS40)。次に、取得した描画パラメータとBPMデータとに基づいてLFO38用の描画LFO処理を行う(ステップS42)。そして、LFO38からのパラメータに従って映像生成用素材にエフェクトを付与した画像を仮想画面領域に描画する(ステップS44)。描画が終了した仮想画面領域のうち、対応する表示装置4に出力する表示領域を、初期化の際の設定に基づいて取得し(ステップS46)、この表示領域から画像を出力する(ステップS46)。以下、この処理が繰り返される。
Following the initialization, each
この描画処理に続いて、サウンド処理が行われる(ステップS6)。サウンド処理では、図6に示すように、まず描画パラメータを取得する(ステップS60)。次に、この描画パラメータを描画パラメータに基づくサウンドパラメータに変換する(ステップS61)。そして、音声用のLFO32と描画用のLFO38とをリンクさせる指示が与えられているか判断する(ステップS62)。この判断の答えがイエスの場合には、ステップS61で変換した描画パラメータに基づくサウンドパラメータを取得する(ステップS63)。また、ステップS62の判断の答えがノーの場合には、LFO32用に設定されたパラメータを取得する(ステップS64)。ステップS63またはS64によって取得されたパラメータに基づいてサウンドLFO処理を行う(ステップS65)。次にエフェクト処理する音声素材及び音声ストリーム信号を入力し(ステップS66)、これにサウンドLFO処理されたパラメータに基づいてエフェクトを付与して(ステップS67)、音声出力を出力する(ステップS68)。以下、これら処理を繰り返す。
Following this drawing processing, sound processing is performed (step S6). In the sound processing, as shown in FIG. 6, first, drawing parameters are acquired (step S60). Next, this drawing parameter is converted into a sound parameter based on the drawing parameter (step S61). Then, it is determined whether an instruction to link the
ステップS6のサウンド処理に続いて、操作子の操作が行われたか判断し(ステップS8)、その答えがノーの場合には、ステップS8を繰り返し、その答えがイエスの場合、スキップバック処理が行われる(ステップS10)。 Following the sound processing in step S6, it is determined whether the operation of the operator has been performed (step S8). If the answer is no, step S8 is repeated. If the answer is yes, skip back processing is performed. (Step S10).
スキップバック処理では、図7に示すように、各操作子のうち、スキップバックの再生時間(スキップバック再生開始時点とスキップバック再生終了時点)を指定する操作子が操作されたか判断する(ステップS100)。この判断の答えがノーであると、スキップバック再生は行わないので、パラメータを入力し(ステップS102)、そのときの時間を基準時間として取得し(ステップS104)、スキップバック用に準備したレコーダ48のバッファの書き込み位置(ライトポイント)を指定するライトポインタの値を1つ進め(ステップS106)、バッファが一杯か、即ちライトポイントがバッファの最後であるか判断する(ステップS108)。この判断の答えがイエスの場合、ライトポインタの値をバッファの先頭に戻す(ステップS110)。ステップS108の判断の答えがノーの場合、即ち、バッファへの書き込みが可能なとき、またはステップS110に続いて、バッファのライトポインタによって指定されたライトポイントに基準時間とパラメータとを書き込む(ステップS112)。次に、このパラメータを各編集装置2のLFO38及び映像生成部34に渡す(ステップS114)。以下、このような作業が一定時間が経過する毎に繰り返され、バッファには、一定時間経過毎の基準時間とそのときのパラメータとが順に記憶され、バッファの最後まで書き込まれたときには、バッファの最初から続きが書き込まれる。
In the skip back process, as shown in FIG. 7, it is determined whether an operator that designates a skip back playback time (a skip back playback start time and a skip back playback end time) is operated among the controls (step S100). ). If the answer to this determination is no, skip back playback is not performed, so parameters are input (step S102), the time at that time is acquired as a reference time (step S104), and the
ステップS100の判断の答えがイエスであると、スキップバックの再生時間を指定する操作子が操作されているので、この操作子の操作によって指定されたスキップバック再生開始時点とスキップバック再生終了時点、即ちスキップバック時間が入力される(ステップS116)。そして、現在の基準時間を取得し(ステップS118)、スキップバック開始時間と現在の基準時間とから現在読み出すべきリードポインタの値(当初にはスキップバック再生開始時間に対応する)を算出する(ステップS120)。このリードポインタの値がバッファの最後(スキップバック再生終了時点に対応する)を越えているか判断し(ステップS122)、この判断の答えがノーの場合、リードポインタの値が指定する位置からパラメータを読み出し(ステップS124)、そのパラメータを各編集装置2のLFO38及び映像生成部34に渡す(ステップS126)。また、ステップS122の判断の答えがイエスの場合、リードポインタの値をスキップバック再生開始の時点に対応する値に変更し(ステップS128)、ステップS124、S126を実行する。ステップS126に続いて、スキップバック再生の終了の指示が与えられているか判断し(ステップS130)、その判断の答えがイエスであるとスキップバック再生を終了するが、判断の答えがノーであると、ステップS118から再び実行する。このとき、ステップS118で現在の基準時間が取得され、ステップS120では、スキップバック再生開始時点から所定時間経過した次の基準時間に対応するパラメータが読み出される。
If the answer to the determination in step S100 is yes, the operator that specifies the playback time for skip back is being operated. Therefore, the skip back playback start time and skip back playback end time specified by the operation of this operator are That is, the skip back time is input (step S116). Then, the current reference time is acquired (step S118), and the value of the read pointer to be read at present (initially corresponding to the skip back reproduction start time) is calculated from the skip back start time and the current reference time (step S118). S120). It is determined whether the value of the read pointer exceeds the end of the buffer (corresponding to the end point of skip back reproduction) (step S122). If the answer to this determination is no, the parameter is set from the position specified by the value of the read pointer. Reading (step S124) and passing the parameters to the
なお、上記の実施形態では、映像と音声とを同期させるために映像用のLFOと音声用のLFOとを同期させたが、これ以外にも、映像に対するエフェクトパラメータの値を直接に音声用のエフェクトパラメータの値として使用することによって、映像と音声とを同期させることもできる。 In the above embodiment, the video LFO and the audio LFO are synchronized in order to synchronize the video and audio. However, in addition to this, the effect parameter values for the video are directly set for audio. By using it as an effect parameter value, the video and audio can be synchronized.
例えば、映像側で残像のような効果を付与する場合に、これに同期してエコー効果を音声に付与することができる。この場合、例えば残像用のパラメータの1つである残像の数をエコー用のディレイ回数として使用し、残像用のパラメータの1つである残像の大きさまたは明度を、エコー用のディレイレベルとして使用し、残像用のパラメータの1つである残像同士の間隔をディレイタイムとして使用する。 For example, when an effect such as an afterimage is given on the video side, an echo effect can be given to the sound in synchronization with this. In this case, for example, the number of afterimages, which is one of the afterimage parameters, is used as the number of echo delays, and the size or brightness of the afterimage, which is one of the afterimage parameters, is used as the echo delay level. The interval between afterimages, which is one of the afterimage parameters, is used as the delay time.
或いは、映像用の効果として、影を引くような効果を付与する場合、音声側でリバーブ効果を与えることもできる。この場合、影を引く効果用の影の長さを、リバーブ効果のリバーブタイムとして使用し、影を引く効果用の影の濃さを、リバーブ効果のリバーブレベルとして使用する。 Alternatively, when an effect that draws a shadow is given as an effect for video, a reverb effect can be given on the audio side. In this case, the shadow length for the effect of drawing the shadow is used as the reverb time of the reverb effect, and the shadow density for the effect of drawing the shadow is used as the reverb level of the reverb effect.
または、映像用の効果として、波紋のように変化する効果を付与する場合、音声側で周波数特性フィルタの特性を変化させて効果を付与することもできる。この場合、波紋の波高値をデプスとして使用し、波紋の減衰速度をフィルタのカットオフ周波数が低い周波数へに変化する速度として使用し、波紋の速度をフィルタのカットオフ周波数を変化させるLFOのレートとして使用する。 Alternatively, when an effect that changes like a ripple is applied as an effect for video, the effect can be applied by changing the characteristics of the frequency characteristic filter on the audio side. In this case, the crest value of the ripple is used as the depth, the decay rate of the ripple is used as a speed at which the cutoff frequency of the filter changes to a low frequency, and the speed of the ripple is used to change the cutoff frequency of the filter. Use as
或いは、映像用の効果として色彩フィルタ効果を使用する場合、音声側で周波数特性フィルタをかけて効果を付与することもできる。この場合、色彩フィルタにおける映像の明るさを変化させるパラメータを、音の明るさ(周波数特性フィルタのカットオフ周波数)を変化させるパラメータとして使用する。 Alternatively, when a color filter effect is used as an effect for video, a frequency characteristic filter can be applied on the sound side to provide the effect. In this case, a parameter for changing the brightness of the image in the color filter is used as a parameter for changing the brightness of the sound (the cutoff frequency of the frequency characteristic filter).
この他に、映像側でオブジェクトの位置を変化させる効果を付与する場合、音声側の効果としてオブジェクトの位置の変化に比例して音像の定位を移動させることや、映像側で描画されている物体のサイズを変化させる効果を付与する場合、音声側で物体のサイズの変化に比例して音量を変化させることや、映像側で描画されているオブジェクトのピントを変化させる効果を付与する場合、音声側で周波数フィルタのカットオフ周波数をピントの変化に比例して変化させる場合もある。これらの場合、位置移動のパラメータをそのまま定位移動のパラメータとして、細部変化のパラメータをそのまま音量パラメータとして、ピント変化のパラメータをそのままカットオフ周波数変化のパラメータとして使用する。 In addition to this, when the effect of changing the position of the object is given on the video side, the localization of the sound image is moved in proportion to the change of the position of the object as the effect on the audio side, or the object drawn on the video side When the effect of changing the size of the object is given, the sound volume is changed in proportion to the change of the object size on the sound side, or the effect of changing the focus of the object drawn on the image side is given. On the other hand, the cutoff frequency of the frequency filter may be changed in proportion to the change in focus. In these cases, the position movement parameter is used as it is as a localization movement parameter, the detail change parameter as it is as a volume parameter, and the focus change parameter as it is as a cutoff frequency change parameter.
映像に対するエフェクトパラメータと音声用のエフェクトパラメータとの組合せは、任意に変更することができ、例えば上記の例で言えば、波紋のような映像と音声へのエコーとを同期させることもできるし、逆に映像の残像のような効果と、音声への周波数特性フィルタとを同期させることもできる。 The combination of the effect parameter for video and the effect parameter for audio can be arbitrarily changed. For example, in the above example, the image such as ripples and the echo to the audio can be synchronized, Conversely, it is possible to synchronize an effect such as an afterimage of video with a frequency characteristic filter for audio.
上記の実施形態では、2台の編集装置2と2台の表示装置4とを使用したが、これらの台数は、更に増加させることができる。但し、台数が増加されると、それに伴い仮想表示画面の大きさも変化させられるし、各表示装置が担当する表示領域の仮想表示画面上の位置も変化する。
In the above embodiment, two
34 映像生成部(映像生成手段)
48 レコーダ(記憶手段)
34 Video generation unit (video generation means)
48 Recorder (storage means)
Claims (2)
前記パラメータを前記映像生成手段に時間経過と共に変化させて供給するパラメータ供給手段と、
前記パラメータの供給開始時から時間経過に従って変化する前記パラメータを順に記憶する記憶手段と、
前記記憶手段に順に記憶された各パラメータのうち、指定されたパラメータ以降のパラメータを時間経過と共に順に読み出して、前記映像生成手段に再供給するパラメータ再供給手段とを、
具備する映像作成装置。 Video generation means for generating video by applying effects to video material according to parameters;
Parameter supply means for supplying the parameter to the video generation means by changing it over time;
Storage means for sequentially storing the parameters that change over time from the start of supply of the parameters;
Among the parameters stored in order in the storage means, the parameters after the designated parameter are read in order with the passage of time, and the parameter resupply means for resupplying the video generation means,
A video creation device.
2. The video creation device according to claim 1, wherein the storage unit has a plurality of storage areas, stores the parameters from the top of the storage areas, and stores the parameters to the end of the storage areas, the storage again A video creation device that stores the parameters from the top of the area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006341289A JP4976837B2 (en) | 2006-12-19 | 2006-12-19 | Video creation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006341289A JP4976837B2 (en) | 2006-12-19 | 2006-12-19 | Video creation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008154064A true JP2008154064A (en) | 2008-07-03 |
JP4976837B2 JP4976837B2 (en) | 2012-07-18 |
Family
ID=39655756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006341289A Expired - Fee Related JP4976837B2 (en) | 2006-12-19 | 2006-12-19 | Video creation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4976837B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11297044A (en) * | 1998-04-05 | 1999-10-29 | Sony Corp | Editing-list creation apparatus |
JP2001186411A (en) * | 1999-12-27 | 2001-07-06 | Matsushita Electric Ind Co Ltd | Edit system |
JP2003068058A (en) * | 2001-08-27 | 2003-03-07 | Jisedai Joho Hoso System Kenkyusho:Kk | Contents structure editing device and computer readable recording medium with program for executing computer as respective means for the same recorded thereon |
JP2005025715A (en) * | 2002-11-25 | 2005-01-27 | Matsushita Electric Ind Co Ltd | Device and method for producing and reproducing short film |
JP2006279861A (en) * | 2005-03-30 | 2006-10-12 | Advanced Telecommunication Research Institute International | Video content creating apparatus |
-
2006
- 2006-12-19 JP JP2006341289A patent/JP4976837B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11297044A (en) * | 1998-04-05 | 1999-10-29 | Sony Corp | Editing-list creation apparatus |
JP2001186411A (en) * | 1999-12-27 | 2001-07-06 | Matsushita Electric Ind Co Ltd | Edit system |
JP2003068058A (en) * | 2001-08-27 | 2003-03-07 | Jisedai Joho Hoso System Kenkyusho:Kk | Contents structure editing device and computer readable recording medium with program for executing computer as respective means for the same recorded thereon |
JP2005025715A (en) * | 2002-11-25 | 2005-01-27 | Matsushita Electric Ind Co Ltd | Device and method for producing and reproducing short film |
JP2006279861A (en) * | 2005-03-30 | 2006-10-12 | Advanced Telecommunication Research Institute International | Video content creating apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP4976837B2 (en) | 2012-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4110528B2 (en) | Editing apparatus and editing method | |
JP2007189473A (en) | Moving picture reproducing device | |
JP5393237B2 (en) | Image display apparatus, control method therefor, program, and storage medium | |
JP2009140382A (en) | Image editing device, image editing program, record medium, and method for editing image | |
JP4976837B2 (en) | Video creation device | |
JP2008154065A (en) | Effect imparting device | |
JP2005252574A (en) | Device and method for creating multimedia content, program for making computer execute method, and multimedia content creating system | |
JP2009128782A (en) | Display controller and image forming apparatus using the same | |
JP4016914B2 (en) | Movie display control system | |
JP2008152626A (en) | Image generation apparatus and image generation system | |
JP2005110318A (en) | Media pipeline with multi-channel video processing and reproduction | |
JP2000339485A (en) | Animation generation device | |
US9117486B2 (en) | Image output apparatus, method of controlling image output apparatus, and program | |
JP3507767B2 (en) | Multimedia content reproduction system and multimedia content reproduction method | |
KR101391780B1 (en) | System and method for ouputting multiful image and a medium having computer readable program for executing the method | |
US8212919B2 (en) | Image processing apparatus, image processing method, and program | |
KR102341734B1 (en) | Multi window system having editor for reaction video and method for making reaction video using the same | |
JP5737988B2 (en) | Image processing apparatus, control method therefor, and program | |
JP2009206986A (en) | Image output device and image output method | |
JP2004289224A (en) | Moving picture distribution server and moving picture distribution system | |
JPH07281865A (en) | Multi-display system | |
JP5839458B2 (en) | Video switching device | |
JP2004064679A (en) | Program producing method | |
JP2006140867A (en) | Video editting apparatus and method thereof | |
JP2011082714A (en) | Device for creating moving picture, computer program therefor, and storage medium therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090403 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120410 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120413 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4976837 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150420 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |