JP2009200959A - Data editing apparatus, data editing method, program and storage medium - Google Patents

Data editing apparatus, data editing method, program and storage medium Download PDF

Info

Publication number
JP2009200959A
JP2009200959A JP2008041994A JP2008041994A JP2009200959A JP 2009200959 A JP2009200959 A JP 2009200959A JP 2008041994 A JP2008041994 A JP 2008041994A JP 2008041994 A JP2008041994 A JP 2008041994A JP 2009200959 A JP2009200959 A JP 2009200959A
Authority
JP
Japan
Prior art keywords
editing
data
image
unit
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008041994A
Other languages
Japanese (ja)
Inventor
Masanori Machimura
昌紀 町村
Tetsujiro Kondo
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008041994A priority Critical patent/JP2009200959A/en
Publication of JP2009200959A publication Critical patent/JP2009200959A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform high-level editing linking sounds and images. <P>SOLUTION: A data editing apparatus is applied for editing input sound data and image data. As a configuration, the data editing apparatus includes: a sound editing unit 40 for editing the input sound data; an image editing unit 40 for editing input image data; and a control unit 51 for controlling an editing state of image data in the image editing unit in accordance with results of editing the sound data in the sound editing unit. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像データと音声データを編集するデータ編集装置及びデータ編集方法、並びにその編集方法を実行するプログラムと、そのプログラムを格納した記憶媒体に関する。   The present invention relates to a data editing apparatus and data editing method for editing image data and audio data, a program for executing the editing method, and a storage medium storing the program.

従来、音声データの編集と画像データ(動画像データ)の編集とを同時に行う画像及び音声の編集装置が各種開発されている。また、コンピュータ装置に実装して、音声と画像の編集を行うようにした編集用のプログラムも各種開発されている。   2. Description of the Related Art Conventionally, various image and sound editing apparatuses that simultaneously edit sound data and image data (moving image data) have been developed. Various editing programs have been developed that are implemented in a computer device and edit audio and images.

従来の画像と音声を編集する編集装置や編集プログラムでは、画像と音声を並行して扱うことは可能であるが、画像と音声を並行して扱う一般的な処理としては、例えば、開始時間と終了時間を揃えるなどの、画像と音声とを関連して扱う程度の処理であった。   In conventional editing apparatuses and editing programs for editing images and sounds, it is possible to handle images and sounds in parallel, but as a general process for handling images and sounds in parallel, for example, start time and It was processing to the extent that images and sounds were handled in relation to each other, such as making end times uniform.

特許文献1には、音声データと画像データを編集する際に、音声データを解析して、音声データの変化点を検出し、その検出した変化点の位置を、画像や音声の編集ポイントであるインデックス点として扱うことについての記載がある。
特開2005−4820号公報
In Patent Document 1, when editing audio data and image data, the audio data is analyzed to detect a change point of the audio data, and the position of the detected change point is an image or audio edit point. There is a description about handling as an index point.
JP 2005-4820 A

従来の音声と動画像を連携させた処理としては、特許文献1に記載のように、インデックスなどの編集ポイントなどとして扱う処理が一般的であり、音声の内容を画像に反映させるような高度な編集は従来は行われていなかった。   As a conventional process in which audio and moving images are linked, as described in Patent Document 1, processing that is handled as an editing point such as an index is common, and an advanced process that reflects the contents of audio in an image is common. Editing has never been done before.

本発明はかかる点に鑑みてなされたものであり、音声と画像を連携させた高度な編集ができるようにすることを目的とする。   The present invention has been made in view of such a point, and an object thereof is to enable advanced editing in which sound and image are linked.

本発明のデータ編集装置は、入力された音声データと画像データを編集するデータ編集装置に適用される。構成としては、入力された音声データを編集する音声編集部と、入力された画像データを編集する画像編集部と、音声編集部での音声データの編集結果に応じて、画像編集部での画像データの編集状態を制御する制御部とを備えた構成としたものである。   The data editing apparatus of the present invention is applied to a data editing apparatus that edits input audio data and image data. The configuration includes an audio editing unit that edits the input audio data, an image editing unit that edits the input image data, and an image in the image editing unit according to the audio data editing result in the audio editing unit. And a control unit that controls the data editing state.

また本発明のデータ編集方法、およびその方法を適用したプログラム、並びにそのプログラムを記憶した媒体は、入力された音声データを編集する音声編集処理と、入力された画像データを編集する画像編集処理とを行うものである。そして、音声編集処理での音声データの編集結果に応じて、画像編集処理での画像データの編集状態を制御する制御処理を実行する。   Further, the data editing method of the present invention, the program to which the method is applied, and the medium storing the program include: an audio editing process for editing input audio data; an image editing process for editing input image data; Is to do. Then, a control process for controlling the editing state of the image data in the image editing process is executed according to the editing result of the audio data in the sound editing process.

本発明によると、音声データの編集状態を、画像データそのものに直接反映させて、画像に種々の効果を与えることが可能となる。   According to the present invention, it is possible to directly reflect the editing state of the audio data on the image data itself, thereby giving various effects to the image.

本発明によると、音声データの編集状態を、画像データそのものに直接反映させて、画像に種々の効果を与えることが可能となる。従って、従来の編集装置では不可能であった音声の編集と画像の編集を連携させた、高度な画像編集が可能となる。例えば、音声の音量やテンポなどを変化させる音声の編集の実行に伴って、画像の内容を変更するような高度な編集が実現できる。   According to the present invention, it is possible to directly reflect the editing state of the audio data on the image data itself, thereby giving various effects to the image. Accordingly, it is possible to perform advanced image editing in which voice editing and image editing that are impossible with a conventional editing apparatus are linked. For example, it is possible to realize advanced editing in which the content of an image is changed in accordance with execution of sound editing that changes the sound volume or tempo.

以下、本発明の一実施の形態の例を、添付図面を参照して説明する。
図1は、本実施の形態の例による編集装置の構成例を示した図である。
図1の編集装置は、画像情報入力部11と音声情報入力部12と付加情報入力部13とを備える。画像情報入力部11は、動画像データが入力する端子などを備えて、編集装置が扱う画像データとする入力処理を行う。音声情報入力部12は、音声データが入力する端子などを備えて、編集装置が扱う音声データとする入力処理を行う。付加情報入力部13は、画像データや音声データに付随するデータが入力される。なお、画像データや音声データに付随するデータについては、画像情報入力部11又は音声情報入力部12に得られる画像データ又は音声データに付加されて入力する場合もある。また、音声データと画像データについても、一体化したデータとして入力する場合もある。画像データのデータ形式としては、種々の画像データ符号化方式で符号化されたものが適用可能である。例えば、画像中の各表示要素を、オブジェクト化して個別に符号化したものが適用可能である。
Hereinafter, an example of an embodiment of the present invention will be described with reference to the accompanying drawings.
FIG. 1 is a diagram illustrating a configuration example of an editing apparatus according to an example of the present embodiment.
The editing apparatus in FIG. 1 includes an image information input unit 11, an audio information input unit 12, and an additional information input unit 13. The image information input unit 11 includes a terminal for inputting moving image data, and performs input processing for image data handled by the editing apparatus. The audio information input unit 12 includes a terminal for inputting audio data, and performs input processing for audio data handled by the editing apparatus. The additional information input unit 13 receives data accompanying image data and audio data. Note that the data accompanying the image data or the sound data may be added to the image data or the sound data obtained by the image information input unit 11 or the sound information input unit 12 and input. Also, audio data and image data may be input as integrated data. As the data format of the image data, those encoded by various image data encoding methods can be applied. For example, each display element in the image can be converted into an object and individually encoded.

画像情報入力部11と音声情報入力部12と付加情報入力部13とに入力したそれぞれのデータは、エンコード部20に供給する。エンコード部20では、それぞれのデータに基づいてヘッダ除法を生成させて、その生成されたヘッダ情報を、音声データと画像データと共に記録再生部30に供給する。   The data input to the image information input unit 11, the audio information input unit 12, and the additional information input unit 13 are supplied to the encoding unit 20. The encoding unit 20 generates a header division method based on the respective data, and supplies the generated header information to the recording / reproducing unit 30 together with the audio data and the image data.

記録再生部30は、ハードディスクドライブなどの比較的大容量のデータ記憶手段としての記録媒体31を備え、記録媒体31に、エンコード部20から供給された画像データと音声データとヘッダ情報などを記録する。また、記録媒体31に記録された各データを再生する。   The recording / reproducing unit 30 includes a recording medium 31 as a relatively large-capacity data storage unit such as a hard disk drive, and records image data, audio data, header information, and the like supplied from the encoding unit 20 on the recording medium 31. . Also, each data recorded on the recording medium 31 is reproduced.

再生されたデータは、編集部40に供給する。編集部40では、供給された画像データ及び音声データに対して、編集処理を行い、その編集された画像データを画像情報出力部61から出力させ、編集された音声データを音声情報出力部62から出力させる。また、編集させた画像データ及び音声データを、記録再生部30に送って、再度、記録媒体31に記録させてもよい。   The reproduced data is supplied to the editing unit 40. The editing unit 40 performs an editing process on the supplied image data and audio data, causes the edited image data to be output from the image information output unit 61, and the edited audio data from the audio information output unit 62. Output. Further, the edited image data and audio data may be sent to the recording / reproducing unit 30 and recorded on the recording medium 31 again.

編集部40で編集された画像データは、画像情報出力部61に供給して外部に出力させる。編集部40で編集された音声データは、音声情報出力部62に供給して外部に出力させる。また、記録再生部30で記録媒体31から再生した画像データ及び音声データを、これらの出力部61,62から出力させてもよい。
画像情報出力部61及び音声情報出力部62から画像データ及び音声データを出力させる際に、これらのデータにヘッダ情報が付加されている場合には、そのまま出力させる。或いは、ヘッダ情報のような画像データや音声データと一体化されていない付加データがある場合には、その付加データを出力させてもよい。
The image data edited by the editing unit 40 is supplied to the image information output unit 61 and output to the outside. The audio data edited by the editing unit 40 is supplied to the audio information output unit 62 and output to the outside. The image data and audio data reproduced from the recording medium 31 by the recording / reproducing unit 30 may be output from these output units 61 and 62.
When image data and audio data are output from the image information output unit 61 and the audio information output unit 62, if header information is added to these data, they are output as they are. Alternatively, when there is additional data that is not integrated with image data or audio data such as header information, the additional data may be output.

これらの編集装置での処理動作は、コントロール部51の制御により実行される。また、編集装置を操作するユーザが操作可能な操作部52を備え、操作部52の操作指令をコントロール部51が判断して、編集動作や記録・再生などを行う構成としてある。   Processing operations in these editing apparatuses are executed under the control of the control unit 51. In addition, an operation unit 52 that can be operated by a user who operates the editing apparatus is provided, and the control unit 51 determines an operation command of the operation unit 52 to perform an editing operation, recording / reproduction, and the like.

図2は、図1の編集装置のエンコード部20の構成例を示した図である。画像情報入力部11から入力した画像データと、音声情報入力部12から入力した音声データとは、同期情報生成部21に供給する。また、付加情報入力部13に入力した付加情報を付加情報生成部22に供給し、付加情報生成部22で画像データや音声データに付加する情報を生成し、生成された情報の内の一部を同期情報生成部21に供給する。
そして、同期情報生成部21では、供給される画像データと音声データと付加情報とをヘッダ情報生成部23に供給し、画像データや音声データのヘッダ情報を生成させる。このとき、付加情報生成部23から供給されるエフェクトデータなどの一部のデータについても、ヘッダ情報に付加する。ヘッダ情報は、画像データや音声データを、所定単位でパケット化する際の、そのパケットデータの先頭部分などに付加される部分の情報である。本例の場合には、ヘッダ情報として、画像や音声のエフェクト状態に関する情報が含まれている。
ヘッダ情報が付加された画像データや音声データは、記録再生部30に供給して記録させる。
FIG. 2 is a diagram illustrating a configuration example of the encoding unit 20 of the editing apparatus of FIG. The image data input from the image information input unit 11 and the audio data input from the audio information input unit 12 are supplied to the synchronization information generation unit 21. Further, the additional information input to the additional information input unit 13 is supplied to the additional information generation unit 22, and the additional information generation unit 22 generates information to be added to the image data and audio data, and a part of the generated information Is supplied to the synchronization information generating unit 21.
Then, the synchronization information generation unit 21 supplies the supplied image data, audio data, and additional information to the header information generation unit 23 to generate header information of the image data and audio data. At this time, some data such as effect data supplied from the additional information generation unit 23 is also added to the header information. The header information is information on a portion added to the head portion of the packet data when image data or audio data is packetized in a predetermined unit. In the case of this example, the header information includes information related to the effect state of images and sounds.
The image data and audio data to which the header information is added are supplied to the recording / reproducing unit 30 for recording.

図3は、図1に示した編集装置の編集部40の構成例を示した図である。
編集部40は、ヘッダ生成解析部41と同期エフェクト再生部42とを備える。ヘッダ生成解析部41は、記録再生部30で再生したデータのヘッダ情報を解析し、必要によりその解析したヘッダの情報を変更して新たなヘッダ情報として、記録再生部30に戻して、ヘッダ情報を更新させる。本例では、このヘッダ情報の更新で、画像や音声の編集が実行される。ヘッダ情報の変更は、入力部43からの指示で行われる。入力部43は、図1に示したコントロール部51からの指令が入力される部分である。
FIG. 3 is a diagram showing a configuration example of the editing unit 40 of the editing apparatus shown in FIG.
The editing unit 40 includes a header generation analysis unit 41 and a synchronization effect playback unit 42. The header generation / analysis unit 41 analyzes the header information of the data reproduced by the recording / reproducing unit 30, changes the analyzed header information as necessary, and returns the header information to the recording / reproducing unit 30 as new header information. To update. In this example, image and sound editing is executed by updating the header information. The header information is changed according to an instruction from the input unit 43. The input unit 43 is a part to which a command from the control unit 51 shown in FIG. 1 is input.

ヘッダ生成解析部41で解析したヘッダ情報は、同期エフェクト再生部42に供給し、記録再生部30で再生した画像データ及び音声データを、ヘッダ情報内のエフェクト情報で変化させて、その変化させた画像データ及び音声データを、画像情報出力部61及び音声情報出力部62から出力させる。   The header information analyzed by the header generation analysis unit 41 is supplied to the synchronous effect reproduction unit 42, and the image data and the audio data reproduced by the recording / reproduction unit 30 are changed by the effect information in the header information, and the change is made. Image data and audio data are output from the image information output unit 61 and the audio information output unit 62.

図4は、本例の処理でパケット化されたデータの例を示した図である。画像データと音声データとは、所定単位ごとに一体のパケットとされ、その画像データと音声データとが付加されたデータの先頭部分に、ヘッダ情報が付加される。
ヘッダ情報は、図4の下段に拡大して示すように、画像と音声の同期処理に必要な同期情報(タイムコードなど)と、画像と音声のポインタと、画像要素へのエフェクト情報と、音声要素へのエフェクト情報などが含まれる。
FIG. 4 is a diagram showing an example of data packetized by the processing of this example. Image data and audio data are integrated into packets in predetermined units, and header information is added to the head of the data to which the image data and audio data are added.
As shown in the lower part of FIG. 4, the header information includes synchronization information (such as a time code) necessary for image and audio synchronization processing, image and audio pointers, effect information for image elements, and audio. Contains effect information for the element.

ここで本実施の形態による画像と音声のエフェクト状態について、図5を参照して説明する。
本実施の形態においては、画像要素へのエフェクトとしては、画像中の各表示要素の位置、大きさ、奥行き、透明度、色、動きの向き、動きの早さなどがある。音声要素へのエフェクトとしては、音声の音像定位状態、音量、音程、音色、テンポなどがある。
本実施の形態においては、ヘッダ情報でこれらの各要素を変更することができるようにしてあり、編集部40での編集でヘッダ情報が対応した状態に変更される。
Here, the effect state of the image and sound according to the present embodiment will be described with reference to FIG.
In the present embodiment, the effects on the image elements include the position, size, depth, transparency, color, direction of movement, speed of movement, etc. of each display element in the image. Examples of the effects on the sound element include a sound image localization state, sound volume, pitch, tone color, and tempo.
In the present embodiment, each of these elements can be changed by the header information, and the header information is changed to a state corresponding to the editing by the editing unit 40.

ここで、図5に示したように、画像要素と音声要素との変更は、相互作用を持たすことができるようにしてある。
相互作用の例について説明すると、例えば音像定位状態を変更したとき、画像中の表示要素の位置が変更されるようにする。
また、音量を変更したとき、表示要素の大きさ、又は奥行きを変更するようにする。
また、音程又は音色を変更したとき、表示要素の透明度を変更するようにする。
また、音色を変更したとき、表示要素の表示色を変更するようにする。
また、テンポを変更したとき、表示要素の動きの向き又は速さを変更するようにする。
Here, as shown in FIG. 5, the change between the image element and the sound element can have an interaction.
An example of the interaction will be described. For example, when the sound image localization state is changed, the position of the display element in the image is changed.
Further, when the volume is changed, the size or depth of the display element is changed.
Also, when the pitch or tone color is changed, the transparency of the display element is changed.
Further, when the tone color is changed, the display color of the display element is changed.
Further, when the tempo is changed, the direction or speed of the movement of the display element is changed.

あるいはまた、これらの音声要素からの画像要素への変更とは逆の変更を行うようにしてもよい。即ち、画像中の表示要素の位置を変更したとき、音像定位状態を変更する。
また、表示要素の大きさ、又は奥行きを変更したとき、音量を変更する。
また、表示要素の透明度を変更したとき、音程又は音色を変更する。
また、表示要素の表示色を変更したとき、音色を変更する。
また、表示要素の動きの向き又は速さを変更したとき、テンポを変更する。
これらの相互作用は、それぞれ例を示したものであり、これらの例に限定されるものではない。
Alternatively, a change opposite to the change from the sound element to the image element may be performed. That is, when the position of the display element in the image is changed, the sound image localization state is changed.
Further, when the size or depth of the display element is changed, the volume is changed.
Further, when the transparency of the display element is changed, the pitch or timbre is changed.
When the display color of the display element is changed, the timbre is changed.
Further, when the direction or speed of the movement of the display element is changed, the tempo is changed.
These interactions are examples, and are not limited to these examples.

次に、図6以降のフローチャートを参照して、実際の処理例について説明する。
まず、記録再生部30から編集部40に、ヘッダ情報と画像データ及び音声データを読み取る(ステップS11)。そして、編集部40で音声データの音量を変化させる編集処理があったか否か判断する(ステップS12)。この音量を変化させる編集は、例えば編集操作を行うユーザが、図1の操作部52を操作することで、コントロール部51からの指令により行われるものである。
ステップS12の判断で音量を変化させる編集が行われた場合には、記録再生部30に対して、その編集指示された音声データのヘッダ情報の内の音量データを対応した値のデータに書き換えたものを書き込ませる(ステップS13)。
Next, an actual processing example will be described with reference to the flowcharts in FIG.
First, header information, image data, and audio data are read from the recording / reproducing unit 30 to the editing unit 40 (step S11). Then, it is determined whether or not there has been an editing process for changing the volume of the audio data in the editing unit 40 (step S12). The editing for changing the volume is performed in response to a command from the control unit 51, for example, when the user who performs the editing operation operates the operation unit 52 of FIG.
When the editing for changing the volume is performed in the determination in step S12, the recording / playback unit 30 rewrites the volume data in the header information of the audio data instructed to be edited to the corresponding value data. Things are written (step S13).

次に、その音声データに対してリンクされた画像データがあるか否か判断し(ステップS14)、画像データがある場合には、その画像データの一部の表示要素の拡大率を変更可能であるか否か判断する(ステップS15)。変更可能である場合には、該当する表示要素の拡大率を、音量の増大率(又は音量の減少率)に対応した拡大率(又は縮小率)に設定する。そして、その設定した拡大率(又は縮小率)で表示させるように、画像のヘッダ情報を更新させて、その更新させた画像情報のヘッダ情報を、記録再生部30に対して、書き換えさせる(ステップS16)。
なお、ステップS14で、音声データに対してリンクされた画像データがない場合と、ステップS15で画像の一部の拡大率の変更ができない場合には、本例の処理を行わないで終了する。
Next, it is determined whether there is image data linked to the audio data (step S14). If there is image data, the enlargement ratio of some display elements of the image data can be changed. It is determined whether or not there is (step S15). If it can be changed, the enlargement rate of the corresponding display element is set to an enlargement rate (or reduction rate) corresponding to the increase rate (or reduction rate of the volume) of the volume. Then, the header information of the image is updated so that it is displayed at the set enlargement ratio (or reduction ratio), and the updated header information of the image information is rewritten to the recording / reproducing unit 30 (step S16).
Note that if there is no image data linked to the audio data in step S14 and if the enlargement ratio of a part of the image cannot be changed in step S15, the process ends without performing the processing of this example.

図7は、音量調整した場合の、画像の変更例を示した図である。図7(a)は変更前の画像であり、人物が背景の前に並んだ状態となっている。
この状態で、図6のフローチャートで説明した音量を増やす処理が行われた場合には、例えば図7(b)に示すように、表示された人物だけを拡大した画像とし、背景のサイズは変更しない画像とする。この場合の人物の拡大率は、例えば音量の増大率に対応させる。また、図7の例では、表示された3人の人物全てを同じ比率で拡大したが、特定の人物、例えば中央に表示された人物や、動きのある人物など、ある条件に合致する表示要素だけを拡大させるようにしてもよい。ユーザ操作で、拡大や縮小する表示要素を選択するようにしてもよい。
FIG. 7 is a diagram showing an example of changing the image when the volume is adjusted. FIG. 7A shows an image before change, in which people are arranged in front of the background.
In this state, when the volume increasing process described in the flowchart of FIG. 6 is performed, as shown in FIG. 7B, for example, only the displayed person is enlarged and the background size is changed. Do not use images. In this case, the enlargement rate of the person corresponds to the increase rate of the volume, for example. In the example of FIG. 7, all three displayed persons are enlarged at the same ratio, but a display element that matches a certain condition, such as a specific person, for example, a person displayed in the center or a person with movement, is displayed. You may make it enlarge only. A display element to be enlarged or reduced may be selected by a user operation.

また、図7の例では、拡大する表示要素として、画像中の人物としたが、例えば背景を表示要素として扱って、拡大や縮小をするようにしてもよい。
例えば図8(a)に示すように、ある背景中に人物が表示された画像がある場合に、その音声データの音量などを調整する編集をした場合に、その編集状態に対応して、図8(b)に示すように、背景画像だけを縮小(又は拡大)するようにして、人物の表示サイズについては変更しないようにしてもよい。
あるいはまた、人物などの表示要素と背景画像との全てを、同じものとをして扱って、一括で拡大や縮小するようにしてもよい。
In the example of FIG. 7, the person in the image is used as the display element to be enlarged. However, for example, the background may be handled as the display element so as to be enlarged or reduced.
For example, as shown in FIG. 8A, when there is an image displaying a person in a certain background, when editing is performed to adjust the volume of the audio data, As shown in FIG. 8B, only the background image may be reduced (or enlarged), and the display size of the person may not be changed.
Alternatively, all the display elements such as a person and the background image may be handled as being the same, and may be enlarged or reduced in a batch.

図9のフローチャートは、別の処理例を示した図である。
まず、記録再生部30から編集部40に、ヘッダ情報と画像データ及び音声データを読み取る(ステップS11)。そして、編集部40で音声データの音程を変化させる編集処理があったか否か判断する(ステップS21)。この音程を変化させる編集についても、例えば編集操作を行うユーザが、図1の操作部52を操作することで、コントロール部51からの指令により行われるものである。
ステップS21の判断で音程を変化させる編集が行われた場合には、記録再生部30に対して、その編集指示された音声データのヘッダ情報の内の音程に関するデータを対応した値のデータに書き換えたものを書き込ませる(ステップS13)。
The flowchart of FIG. 9 is a diagram illustrating another processing example.
First, header information, image data, and audio data are read from the recording / reproducing unit 30 to the editing unit 40 (step S11). Then, it is determined whether or not there is an editing process for changing the pitch of the audio data in the editing unit 40 (step S21). The editing for changing the pitch is also performed by a command from the control unit 51 when the user who performs the editing operation operates the operation unit 52 of FIG.
When the editing for changing the pitch is performed in the determination of step S21, the recording / playback unit 30 rewrites the data related to the pitch in the header information of the audio data instructed to be edited with the corresponding value data. Is written (step S13).

次に、その音声データに対してリンクされた画像データがあるか否か判断し(ステップS14)、画像データがある場合には、その画像データの一部の表示要素の透明度を変更可能であるか否か判断する(ステップS22)。変更可能である場合には、該当する表示要素の透明度を、音程の変化に対応した透明度に設定する。そして、その設定した透明度で表示させるように、画像のヘッダ情報を更新させて、その更新させた画像情報のヘッダ情報を、記録再生部30に対して、書き換えさせる(ステップS16)。
なお、ステップS14で、音声データに対してリンクされた画像データがない場合と、ステップS22で画像の一部の透明度の変更ができない場合には、本例の処理を行わないで終了する。
Next, it is determined whether there is image data linked to the audio data (step S14). If there is image data, the transparency of some display elements of the image data can be changed. Whether or not (step S22). If it can be changed, the transparency of the corresponding display element is set to a transparency corresponding to the change in pitch. Then, the header information of the image is updated so as to display with the set transparency, and the updated header information of the image information is rewritten to the recording / reproducing unit 30 (step S16).
Note that if there is no image data linked to the audio data in step S14, and if the transparency of a part of the image cannot be changed in step S22, the process ends without performing the processing of this example.

図10のフローチャートは、さらに別の処理例を示した図である。
まず、記録再生部30から編集部40に、ヘッダ情報と画像データ及び音声データを読み取る(ステップS11)。そして、編集部40で音声データのテンポを変化させる編集処理があったか否か判断する(ステップS31)。このテンポを変化させる編集についても、例えば編集操作を行うユーザが、図1の操作部52を操作することで、コントロール部51からの指令により行われるものである。
ステップS21の判断でテンポを変化させる編集が行われた場合には、記録再生部30に対して、その編集指示された音声データのヘッダ情報の内のテンポに関するデータを対応した値のデータに書き換えたものを書き込ませる(ステップS13)。
The flowchart of FIG. 10 is a diagram showing still another processing example.
First, header information, image data, and audio data are read from the recording / reproducing unit 30 to the editing unit 40 (step S11). Then, it is determined whether the editing unit 40 has performed an editing process for changing the tempo of the audio data (step S31). The editing for changing the tempo is also performed by a command from the control unit 51 when the user who performs the editing operation operates the operation unit 52 of FIG.
When editing is performed to change the tempo in step S21, the tempo data in the header information of the audio data instructed to edit is rewritten to the corresponding value data for the recording / playback unit 30. Is written (step S13).

次に、その音声データに対してリンクされた画像データがあるか否か判断し(ステップS14)、画像データがある場合には、その画像データの一部の表示要素の移動量を変更可能であるか否か判断する(ステップS32)。変更可能である場合には、該当する表示要素の移動量を、テンポの変化に対応した透明度に設定する。そして、その設定した移動量で移動するように表示させるように、画像のヘッダ情報を更新させて、その更新させた画像情報のヘッダ情報を、記録再生部30に対して、書き換えさせる(ステップS16)。
なお、ステップS14で、音声データに対してリンクされた画像データがない場合と、ステップS22で画像の一部の移動量の変更ができない場合には、本例の処理を行わないで終了する。
Next, it is determined whether there is image data linked to the audio data (step S14). If there is image data, the movement amount of some display elements of the image data can be changed. It is determined whether or not there is (step S32). If it can be changed, the movement amount of the corresponding display element is set to transparency corresponding to the change in tempo. Then, the header information of the image is updated so that it is displayed so as to move with the set movement amount, and the updated header information of the image information is rewritten to the recording / reproducing unit 30 (step S16). ).
Note that if there is no image data linked to the audio data in step S14, and if the movement amount of a part of the image cannot be changed in step S22, the process ends without performing the processing of this example.

このように、音声の編集を行うことで、対応して画像についても変化して、音声と画像とを連携させた高度な編集が可能となる。図6,図9,図10の各フローチャートに示した処理はそれぞれ一例を示したものであり、その他の音声要素と画像要素との連携を行うようにしてもよい。どの要素を変更した場合に、どの画像要素をどの程度変更させるかについては、編集装置に、予め固定的に設定しておいてもよいが、ユーザ操作で自由に選択できるようにしてもよい。編集する画像データについては、どのような画像データでもよいが、例えば各表示要素べつにオブジェクト化されて符号化された画像データである場合には、図7や図8に示した個別の表示要素の変更が容易にできるので、好ましい。   As described above, by editing the sound, the image is correspondingly changed, and advanced editing in which the sound and the image are linked is possible. Each of the processes shown in the flowcharts of FIGS. 6, 9, and 10 shows an example, and other audio elements and image elements may be linked. When changing which element, how much to change which image element may be set in advance in the editing apparatus, but may be freely selected by a user operation. The image data to be edited may be any image data. For example, in the case of image data encoded as an object for each display element, the individual display elements shown in FIGS. This is preferable because it can be easily changed.

なお、ここまでの処理では、音声の編集を画像に反映させる処理について説明したが、画像の編集を音声に反映させる処理を行うようにしてもよい。即ち、例えば図11のフローチャートに示すように、記録再生部30から編集部40に、ヘッダ情報と画像データ及び音声データを読み取る(ステップS41)。そして、編集部40で画像内容を変化させる編集処理があったか否か判断する(ステップS42)。ここでの画像内容の変化としては、例えば図5に示した各エフェクト処理がある。この画像内容を変化させる編集についても、例えば編集操作を行うユーザが、図1の操作部52を操作することで、コントロール部51からの指令により行われるものである。
ステップS42の判断で画像内容を変化させる編集が行われた場合には、記録再生部30に対して、その編集指示された音声データのヘッダ情報の内の画像のデータを対応した値のデータに書き換えたものを書き込ませる(ステップS43)。
In the processing so far, the processing for reflecting the sound editing on the image has been described. However, the processing for reflecting the image editing on the sound may be performed. That is, for example, as shown in the flowchart of FIG. 11, the header information, the image data, and the audio data are read from the recording / playback unit 30 to the editing unit 40 (step S41). Then, it is determined whether or not there has been an editing process for changing the image content in the editing unit 40 (step S42). Examples of the change in the image content include each effect processing shown in FIG. The editing for changing the image content is also performed by a command from the control unit 51 by, for example, a user who performs an editing operation operating the operation unit 52 of FIG.
If editing for changing the image content is performed in the determination in step S42, the image data in the header information of the audio data instructed to be edited is converted into data corresponding to the recording / playback unit 30. The rewritten data is written (step S43).

次に、その音声データに対してリンクされた音声データがあるか否か判断し(ステップS44)、音声データがある場合には、その音声データの音量が変更可能であるか否か判断する(ステップS45)。変更可能である場合には、該当する音声データの音量を、対応した音量に設定する。そして、その設定した音量で音声が出力されるように、音声のヘッダ情報を更新させて、その更新させた音声情報のヘッダ情報を、記録再生部30に対して、書き換えさせる(ステップS46)。
なお、ステップS44で、画像データに対してリンクされた音声データがない場合と、ステップS45で音量の変更ができない場合には、本例の処理を行わないで終了する。
Next, it is determined whether there is voice data linked to the voice data (step S44). If there is voice data, it is determined whether the volume of the voice data can be changed (step S44). Step S45). If it can be changed, the volume of the corresponding audio data is set to a corresponding volume. Then, the audio header information is updated so that the audio is output at the set volume, and the updated header information of the audio information is rewritten to the recording / reproducing unit 30 (step S46).
Note that if there is no audio data linked to the image data in step S44 and if the volume cannot be changed in step S45, the process ends without performing the processing of this example.

この図11に示すように、画像の編集を音声に反映させることでも、より高度な編集が可能となる。画像の編集を音声に反映させる場合にも、例えば音声データが、会話している人物の話し声ごと等のように、個別にオブジェクト化されて符号化されている場合には、そのオブジェクト化された単位の音声データごとに処理でき、より高度な音声編集が可能となる。
この画像の編集を音声に反映させる処理と、図6など説明した音声の編集を画像に反映させる処理との双方が可能な編集装置としてもよい。このようにすることで、音声と画像の編集で、対応して画像と音声についても変更されて、非常に高度な編集が可能となる。
As shown in FIG. 11, more advanced editing is possible by reflecting the editing of the image in the sound. Even when editing the image is reflected in the sound, if the sound data is individually objectized and encoded, for example, for each voice of the person who is talking, the object Each unit of audio data can be processed, and more advanced audio editing is possible.
The editing apparatus may be capable of both the process of reflecting the image editing on the sound and the process of reflecting the sound editing described in FIG. 6 and the like on the image. By doing so, the editing of the sound and the image is correspondingly changed with respect to the image and the sound, and very advanced editing is possible.

また、上述した実施の形態では、音声や画像(映像)の編集を行う専用の編集装置とした構成した例について説明したが、例えば各種データ処理を行うパーソナルコンピュータ装置に、本例の音声入力部や映像入力部などに相当する処理を行うボードやカードなどを装着させた上で、コンピュータ装置が備えるデータ記憶部(記録部)を記録再生部とし、編集部での編集処理を、コンピュータ装置内の演算処理手段で実行するようにしてもよい。   In the above-described embodiment, an example in which a dedicated editing apparatus that edits sound and images (video) is described has been described. However, for example, the voice input unit of the present example is added to a personal computer apparatus that performs various data processing. A data storage unit (recording unit) provided in the computer device is used as a recording / playback unit after a board or card that performs processing corresponding to the video input unit or the like is mounted, and editing processing in the editing unit is performed in the computer device. It may be executed by the arithmetic processing means.

この場合の演算処理手段での編集処理の実行は、コンピュータ装置に実装されたソフトウェア(プログラム)の実行により行う構成とすればよい。その場合のソフトウェアは、既に説明した図6のフローチャートなどの処理を実行するプログラムである。
また、このような編集処理を実行させるプログラムは、各種ディスクや半導体メモリなどの媒体に記憶させて、配布させるか、あるいは、インターネットなどの各種伝送媒体を介して配布するようにしてもよい。
In this case, the execution of the editing process by the arithmetic processing means may be performed by executing software (program) installed in the computer device. The software in that case is a program that executes processing such as the flowchart of FIG.
Further, the program for executing such editing processing may be stored in various media such as a disk and a semiconductor memory and distributed, or distributed via various transmission media such as the Internet.

本発明の一実施の形態による編集装置の全体構成例を示すブロック図である。It is a block diagram which shows the example of whole structure of the editing apparatus by one embodiment of this invention. 本発明の一実施の形態の編集装置のエンコード部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the encoding part of the editing apparatus of one embodiment of this invention. 本発明の一実施の形態の編集装置の編集部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the editing part of the editing apparatus of one embodiment of this invention. 本発明の一実施の形態によるデータ構造例を示す説明図である。It is explanatory drawing which shows the example of a data structure by one embodiment of this invention. 本発明の一実施の形態による編集による音声と画像の相互作用の例を示す説明図である。It is explanatory drawing which shows the example of interaction of the audio | voice and image by the edit by one embodiment of this invention. 本発明の一実施の形態による編集処理例を示すフローチャートである。It is a flowchart which shows the example of an edit process by one embodiment of this invention. 本発明の一実施の形態による画像の編集による表示例(例1)を示す説明図である。It is explanatory drawing which shows the example of a display (example 1) by the edit of the image by one embodiment of this invention. 本発明の一実施の形態による画像の編集による表示例(例2)を示す説明図である。It is explanatory drawing which shows the example of a display (example 2) by the edit of the image by one embodiment of this invention. 本発明の他の実施の形態による編集処理例を示すフローチャートである。It is a flowchart which shows the example of an edit process by other embodiment of this invention. 本発明のさらに他の実施の形態による編集処理例を示すフローチャートである。It is a flowchart which shows the example of an edit process by other embodiment of this invention. 本発明のさらに他の実施の形態による編集処理例を示すフローチャートである。It is a flowchart which shows the example of an edit process by other embodiment of this invention.

符号の説明Explanation of symbols

11…画像情報入力部、12…音声情報入力部、13…付加情報入力部、20…エンコード部、21…同期情報生成部、22…付加情報生成部、23…ヘッダ情報生成部、30…記録再生部、31…記録媒体、40…編集部、41…ヘッダ生成解析部、42…同期エフェクト再生部、51…コントロール部、52…操作部、61…画像情報出力部、62…音声情報出力部   DESCRIPTION OF SYMBOLS 11 ... Image information input part, 12 ... Audio | voice information input part, 13 ... Additional information input part, 20 ... Encoding part, 21 ... Synchronization information generation part, 22 ... Additional information generation part, 23 ... Header information generation part, 30 ... Recording Reproduction unit 31 ... recording medium 40 ... editing unit 41 ... header generation analysis unit 42 ... synchronization effect reproduction unit 51 ... control unit 52 ... operation unit 61 ... image information output unit 62 ... audio information output unit

Claims (9)

入力された音声データと画像データを編集するデータ編集装置において、
前記入力された音声データを編集する音声編集部と、
前記入力された画像データを編集する画像編集部と、
前記音声編集部での音声データの編集結果に応じて、前記画像編集部での画像データの編集状態を制御する制御部とを備えたことを特徴とする
データ編集装置。
In a data editing device for editing input audio data and image data,
A voice editing unit for editing the input voice data;
An image editing unit for editing the input image data;
A data editing apparatus comprising: a control unit that controls an editing state of the image data in the image editing unit in accordance with a result of editing the audio data in the audio editing unit.
請求項1記載のデータ編集装置において、
前記音声データ及び/又は前記画像データは、音声又は画像の要素毎にオブジェクト化されたデータであり、
オブジェクト化されたそれぞれのデータごとに個別に編集状態を制御することを特徴とする
データ編集装置。
The data editing apparatus according to claim 1, wherein
The audio data and / or the image data is data objectized for each audio or image element,
A data editing apparatus, wherein the editing state is individually controlled for each object data.
請求項2記載のデータ編集装置において、
前記編集状態の制御は、音声データの音量を編集で変化させた場合に、画像データの少なくとも1つのオブジェクトの表示倍率を、編集による音量変化に対応して変化させる制御であることを特徴とする
データ編集装置。
The data editing apparatus according to claim 2, wherein
The control of the editing state is control for changing the display magnification of at least one object of the image data corresponding to the volume change by editing when the volume of the audio data is changed by editing. Data editing device.
請求項2記載のデータ編集装置において、
前記編集状態の制御は、音声データの音量を編集で変化させた場合に、画像データの少なくとも1つのオブジェクトの表示透明度を、編集による音量変化に対応して変化させる制御であることを特徴とする
データ編集装置。
The data editing apparatus according to claim 2, wherein
The control of the editing state is control for changing the display transparency of at least one object of the image data corresponding to the volume change by editing when the volume of the audio data is changed by editing. Data editing device.
請求項2記載のデータ編集装置において、
前記編集状態の制御は、音声データの音量を編集で変化させた場合に、画像データの少なくとも1つのオブジェクトの移動量を、編集による音量変化に対応して変化させる制御であることを特徴とする
データ編集装置。
The data editing apparatus according to claim 2, wherein
The control of the editing state is a control for changing the movement amount of at least one object of the image data corresponding to the volume change by editing when the volume of the audio data is changed by editing. Data editing device.
請求項1記載のデータ編集装置において、
さらに前記制御部は、前記画像編集部での画像データの編集結果に応じて、前記音声編集部での音声データの編集状態を制御することを特徴とする
データ編集装置。
The data editing apparatus according to claim 1, wherein
Further, the control unit controls the editing state of the audio data in the audio editing unit according to the editing result of the image data in the image editing unit.
入力された音声データと画像データを編集するデータ編集方法において、
前記入力された音声データを編集する音声編集処理と、
前記入力された画像データを編集する画像編集処理と、
前記音声編集処理での音声データの編集結果に応じて、前記画像編集処理での画像データの編集状態を制御する制御処理とを実行することを特徴とする
データ編集方法。
In a data editing method for editing input audio data and image data,
A voice editing process for editing the input voice data;
An image editing process for editing the input image data;
And a control process for controlling an editing state of the image data in the image editing process according to a result of editing the audio data in the sound editing process.
データ処理装置に実装することで、入力された音声データと画像データを編集する処理を実行するプログラムにおいて、
前記入力された音声データを編集する音声編集処理と、
前記入力された画像データを編集する画像編集処理と、
前記音声編集処理での音声データの編集結果に応じて、前記画像編集処理での画像データの編集状態を制御する制御処理とを実行することを特徴とする
プログラム。
In a program that executes processing for editing input audio data and image data by being implemented in a data processing device,
A voice editing process for editing the input voice data;
An image editing process for editing the input image data;
And a control process for controlling an editing state of the image data in the image editing process according to a result of editing the audio data in the sound editing process.
請求項8記載のプログラムを格納したことを特徴とする
記憶媒体。
A storage medium storing the program according to claim 8.
JP2008041994A 2008-02-22 2008-02-22 Data editing apparatus, data editing method, program and storage medium Pending JP2009200959A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008041994A JP2009200959A (en) 2008-02-22 2008-02-22 Data editing apparatus, data editing method, program and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008041994A JP2009200959A (en) 2008-02-22 2008-02-22 Data editing apparatus, data editing method, program and storage medium

Publications (1)

Publication Number Publication Date
JP2009200959A true JP2009200959A (en) 2009-09-03

Family

ID=41143959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008041994A Pending JP2009200959A (en) 2008-02-22 2008-02-22 Data editing apparatus, data editing method, program and storage medium

Country Status (1)

Country Link
JP (1) JP2009200959A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022017006A1 (en) * 2020-07-22 2022-01-27 Oppo广东移动通信有限公司 Video processing method and apparatus, and terminal device and computer-readable storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022017006A1 (en) * 2020-07-22 2022-01-27 Oppo广东移动通信有限公司 Video processing method and apparatus, and terminal device and computer-readable storage medium

Similar Documents

Publication Publication Date Title
US20090204399A1 (en) Speech data summarizing and reproducing apparatus, speech data summarizing and reproducing method, and speech data summarizing and reproducing program
JP5522894B2 (en) Apparatus and method for generating frame information of moving image and apparatus and method for reproducing moving image
JP2012054619A (en) Editing apparatus, editing method, editing program and data structure
JP2009055152A (en) Motion picture generating apparatus, motion picture generating method, and program
JP4741406B2 (en) Nonlinear editing apparatus and program thereof
JP2010022003A (en) Moving image file reproduction device, moving image file reproduction method, and program
JP4695609B2 (en) Content reproduction apparatus, content reproduction method, and content reproduction program
JP7226709B2 (en) Video control system and video control method
JP5044503B2 (en) Effect image playback device, effect image playback method, effect image playback program, and recording medium
JP2008167256A (en) Information processor and information processing method, and program
JP2007165959A (en) Image display
JP2005044409A (en) Information reproducing device, information reproducing method, and information reproducing program
JP2009200959A (en) Data editing apparatus, data editing method, program and storage medium
US7376332B2 (en) Information processing method and information processing apparatus
JP4780128B2 (en) Slide playback device, slide playback system, and slide playback program
JP2010154336A (en) Apparatus and method for processing image
JP2008217585A (en) Client device for server base computing system, and client control program
JP2009054009A (en) Structured document drawing apparatus, structured document drawing method, program, and storage medium
JP2005249872A (en) Device and method for setting music reproduction parameter
JP3843948B2 (en) Music content utilization apparatus and computer program applied to the apparatus
JP5141710B2 (en) Karaoke device, program
JP5095489B2 (en) Effect image creating device, effect image creating method, effect image creating program, and recording medium
JP2008010985A (en) Video image file display method and video image reproducer
JP3558051B2 (en) Movie editing / playback program, computer-readable recording medium recording movie editing / playback program, movie editing / playback apparatus and method
JP3843947B2 (en) Music content utilization apparatus and computer program applied to the apparatus