JP4393425B2 - Video equipment, video recording method and video playback method - Google Patents
Video equipment, video recording method and video playback method Download PDFInfo
- Publication number
- JP4393425B2 JP4393425B2 JP2005188484A JP2005188484A JP4393425B2 JP 4393425 B2 JP4393425 B2 JP 4393425B2 JP 2005188484 A JP2005188484 A JP 2005188484A JP 2005188484 A JP2005188484 A JP 2005188484A JP 4393425 B2 JP4393425 B2 JP 4393425B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- information
- source
- recording
- processing means
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、複数種の映像を1枚の映像上に座標配置したデータ構造の映像ストリームを扱う映像機器、映像記録方法および映像再生方法に関する。 The present invention relates to a video device, a video recording method, and a video playback method that handle a video stream having a data structure in which a plurality of types of videos are coordinated on a single video.
動画像、メニューボタン、字幕などの複数の映像を含んだ映像ストリームを扱う映像機器に於いては、ユーザまたはコンテンツ視聴者が複数映像を任意に操作して意図した映像ストリームを効率よく記録し、再生することのできる技術が要求される。 In video equipment that handles video streams containing multiple videos, such as moving images, menu buttons, subtitles, etc., the user or content viewer can arbitrarily record the intended video stream by arbitrarily operating multiple videos, A technology that can be reproduced is required.
従来、複数の動画像を表示操作する技術として、例えば複数のビデオデータ源ユニットの動画像に対して、動画像識別番号レジスタ、識別番号比較器等を用い、フレームバッファへ取り込む動画像を制御することで、複数の動画像の表示を可能とする複数動画像の表示技術が存在する。また、映像ストリーム中の複数の映像を操作する技術として、動画像から前景オブジェクトと背景画像を分離して抽出する映像操作技術が存在する。
しかしながら、上記した複数動画像の表示技術に於いては、映像ごとに情報記録媒体からデータ供給/読み取りを行なわなくてはならず、従って映像の数に比例してデータ読み取り時間のオーバーヘッドが増加するとともに、再生する映像数と同数のデコーダを必要とし、さらに複数映像のフレーム同期をとる仕組みが複雑化するという問題があった。また上記した映像操作技術に於いては、映像の切り出しに煩雑な処理が必要になるという問題があった。 However, in the above-described multi-moving image display technology, data must be supplied / read from the information recording medium for each video, and therefore the overhead of data reading time increases in proportion to the number of videos. At the same time, there is a problem that the same number of decoders as the number of videos to be reproduced is required, and the mechanism for synchronizing the frames of a plurality of videos is complicated. In addition, the above-described video operation technique has a problem that complicated processing is required to cut out the video.
本発明は、動画像、メニューボタン、字幕などの複数の映像を含んだ映像ストリームを扱う映像機器に於いて、ユーザまたはコンテンツ視聴者が複数映像を任意に操作して意図した映像ストリームを効率よく記録し、再生することのできる映像機器、映像記録方法および映像再生方法を提供することを目的とする。 The present invention provides a video device that handles a video stream including a plurality of videos such as moving images, menu buttons, subtitles, etc., and efficiently operates a video stream intended by a user or content viewer by arbitrarily operating a plurality of videos. It is an object of the present invention to provide a video device, a video recording method and a video playback method capable of recording and playing back.
本発明は、複数種の映像を互いに重なりのないように配置した映像ストリームに、前記映像ストリームから前記複数種の映像を個別に切り出すための映像復元用情報を付加して所定の情報記憶媒体に記録する記録手段を具備し、前記記録手段は、複数種の映像を互いに重なりのないように1枚の映像上へ座標配置してソース映像を生成するとともに、前記ソース映像から前記複数種の映像を個別に切り出すための映像復元用情報を生成する映像記録処理手段と、前記映像記録処理手段により生成された前記ソース映像をエンコードし、エンコードした前記ソース映像のデータに、前記映像記録処理手段により生成された前記映像復元用情報および所定の映像出力用情報を付加して映像ユニットデータを生成する映像ユニットデータ生成処理手段と、前記映像ユニットデータ生成処理手段で生成された前記映像ユニットデータの集合を前記情報記憶媒体に記録する記録処理手段とを具備して、一つの映像ストリームから複数の映像ストリームを生成可能した映像機器を特徴とする。 According to the present invention, video restoration information for individually extracting the plurality of types of video from the video stream is added to a video stream in which a plurality of types of video are arranged so as not to overlap each other, and the information is stored in a predetermined information storage medium. Recording means for recording , wherein the recording means generates a source video by arranging a plurality of types of video on a single video so as not to overlap each other, and generates the plurality of types of video from the source video. A video recording processing means for generating video restoration information for individually cutting out the source video, the source video generated by the video recording processing means is encoded, and the encoded video of the source video is encoded by the video recording processing means. A video unit data generation processing unit for generating video unit data by adding the generated video restoration information and predetermined video output information. When a video in which the said set of image unit data generated by the video unit data generating means comprises a recording processing means for recording on the information storage medium, and can generate a plurality of video streams from one video stream Features equipment.
また本発明は、複数種の映像を有する映像ストリームの記録方法であって、前記複数種の映像を互いに重なりのないように1枚の映像上へ座標配置してソース映像を生成するステップと、前記ソース映像の生成に伴って前記ソース映像から前記複数種の映像を個別に切り出すための映像復元用情報を生成するステップと、前記生成された前記ソース映像をエンコードするステップと、前記エンコードした前記ソース映像のデータに、前記映像復元用情報および所定の映像出力用情報を付加して映像ユニットデータを生成するステップと、前記映像ユニットデータの集合を所定の情報記憶媒体に記録するステップとを具備したことを特徴とする。 The present invention is also a method for recording a video stream having a plurality of types of videos, wherein the plurality of types of videos are coordinated on a single video so as not to overlap each other, and a source video is generated; A step of generating video restoration information for individually cutting out the plurality of types of videos from the source video as the source video is generated, a step of encoding the generated source video, and the encoding of the encoded video Adding video restoration data and predetermined video output information to source video data to generate video unit data; and recording the set of video unit data in a predetermined information storage medium. It is characterized by that.
動画像、メニューボタン、字幕などの複数の映像を含んだ映像ストリームを扱う映像機器に於いて、ユーザまたはコンテンツ視聴者が複数映像を任意に操作して意図した映像ストリームを効率よく記録し、再生することができる。 In video equipment that handles video streams that include multiple videos, such as moving images, menu buttons, and subtitles, the user or content viewer can arbitrarily record and play the intended video stream by arbitrarily operating multiple videos. can do.
以下図面を参照して本発明の実施形態を説明する。 Embodiments of the present invention will be described below with reference to the drawings.
本発明の実施形態に係る映像記録方法および映像機器を図1を参照して説明する。 A video recording method and video equipment according to an embodiment of the present invention will be described with reference to FIG.
本発明の実施形態に係る映像機器は、図1に示すような複数映像の記録手段を実現している。この記録手段は、複数種の映像101〜103を互いに重なりのないように1枚の映像上へ座標配置したソース映像(A)、およびこのソース映像(A)から映像101〜103を個別に切り出すための映像復元用情報105を生成して、ソース映像をエンコードし、映像復元用情報および所定の映像出力用情報(B)を付加して映像ユニットデータ(C)を生成する処理手段(S11)と、この映像ユニットデータの集合でなる映像ストリーム(D)を情報記憶媒体(E)に記録する処理手段(S12)とを有する。上記処理手段(S11)により、複数種の映像を互いに重なりのないように1枚の映像上へ座標配置してソース映像を生成するとともに、このソース映像から前記複数種の映像を個別に切り出すための映像復元用情報を生成する映像記録処理手段と、この映像記録処理手段により生成されたソース映像をエンコードし、エンコードしたソース映像のデータに、映像記録処理手段により生成された映像復元用情報および所定の映像出力用情報を付加して映像ユニットデータを生成する映像ユニットデータ生成処理手段とが実現される。また上記処理手段(S12)により上記映像ユニットデータ生成処理手段で生成された映像ユニットデータの集合を情報記憶媒体に記録する記録処理手段が実現される。
The video equipment according to the embodiment of the present invention realizes a plurality of video recording means as shown in FIG. This recording means individually cuts out the
上記複数の映像101〜103は、それぞれ異なる1枚の映像である。複数の映像101〜103に対して回転処理を行い、互いに重なりのないように1枚の映像上へ座標配置処理することで、ソース映像104と、このソース映像104に対する映像復元用情報105を生成する。この処理を映像記録処理と呼ぶ。ソース映像104は一フレームに相当する映像である。
The plurality of
映像合成用情報106は複数の映像101〜103を一枚の映像に合成するための情報であり、この映像合成用情報106を用いた映像の合成処理については図3を参照して後述する。
The
映像表示用情報107は、合成した映像を出力する時刻並びに表示画面の解像度を設定するための情報を有する。
The
ソース映像104をエンコードした、エンコード済みソース映像のデータに対して、上記映像復元用情報105と、映像合成用情報106と、映像表示用情報107を付与することで、映像ユニットデータ108を生成する。
この映像ユニットデータ108の集合109を情報記憶媒体110へ記録する。この情報記憶媒体110に記録された映像ユニットデータの集合109は、複数種の映像を互いに重なりの無いように1枚の映像に座標配置して生成されたエンコード済み複数映像の映像ストリームである。なお、ここでは情報記憶媒体110として光メディアを例に挙げているが、本発明が想定する情報記憶媒体はこの限りではない。
The
上記した複数映像記録処理の一連の手順については図8を参照して後述する。本発明に於ける複数映像記録方法は、上記した処理の流れに於いて上記映像記録処理と映像ユニットデータの生成処理を行なうことを特徴とする。 A series of procedures of the above-described multiple video recording process will be described later with reference to FIG. The multiple video recording method according to the present invention is characterized in that the video recording process and the video unit data generation process are performed in the processing flow described above.
上記実施形態に係る映像機器は、図2に示すような複数映像の再生手段を実現している。この再生手段は、上記映像ストリームの1構成要素となる映像ユニットデータ(A)をデコードしてソース映像(B)を生成する処理手段(S21)と、上記デコードしたソース映像(B)から、上記映像ユニットデータ(A)に含まれる映像復元用情報を参照して、複数の映像203〜205を切り出して復元する処理手段(S22)とを有する。
The video equipment according to the above embodiment realizes a plurality of video playback means as shown in FIG. The reproduction means decodes the video unit data (A), which is one component of the video stream, to generate a source video (B), and from the decoded source video (B), the processing means (S21) Processing means (S22) for cutting out and restoring the plurality of
上記図1に示す情報記憶媒体110から読み込んだ映像ユニットデータ201をデコードすることによって、ソース映像202を生成する。
The
デコードされた映像ユニットデータ201に含まれる映像復元用情報を参照しながら、ソース映像202から複数の映像203〜205を復元する。
A plurality of
復元した映像のうち、表示画面全体に表示する映像を主映像と呼び、主映像の上に重ねて表示する映像を二次映像と呼ぶ。また、二次映像に対してマスク処理(透過処理)を行なうための映像をマスクと呼ぶ。ただし、本発明が想定する映像の透過処理はマスク処理だけではない。上記した複数映像再生処理の一連の手順については図9を参照して後述する。 Of the restored video, the video displayed on the entire display screen is called a main video, and the video displayed on the main video is called a secondary video. An image for performing mask processing (transmission processing) on the secondary image is called a mask. However, the image transmission process assumed by the present invention is not limited to the mask process. A series of procedures of the above-described multiple video reproduction process will be described later with reference to FIG.
本発明の実施形態に係る映像機器は、図3に示すような複数映像の合成手段を実現している。この合成手段は、主映像(A)に対して回転、座標の配置を行う処理手段(S31a)と、二次映像(B)に対してマスク(C)処理を行う処理手段(S31b)、およびこのマスク済み二次画像(E)に対して回転、座標の配置を行う処理手段(S32b)と、上記回転、座標配置を行った主映像(D)と二次映像(F)を合成して合成映像(G)を生成する処理手段(S33)とを有する。 The video equipment according to the embodiment of the present invention realizes a plurality of video synthesizing means as shown in FIG. The synthesizing unit includes a processing unit (S31a) that performs rotation and arrangement of coordinates on the main video (A), a processing unit (S31b) that performs mask (C) processing on the secondary video (B), and A processing means (S32b) that performs rotation and coordinate arrangement on the masked secondary image (E), and a main video (D) and secondary video (F) that have undergone the rotation and coordinate arrangement are synthesized. And processing means (S33) for generating a composite video (G).
複数映像の合成とは、複数の映像に対して回転処理、透過処理を行い、重なりを許して座標配置処理を行なって一枚の映像にまとめることをいう。主映像プレーン301は、主映像を描画するための映像プレーンである。二次映像プレーン302は、マスク処理された二次映像を描画するための映像プレーンである。
The composition of a plurality of images refers to performing rotation processing and transmission processing on a plurality of images, and performing coordinate arrangement processing with allowance for overlapping, and combining them into one image. The
映像合成用情報を参照しながら、主映像303を回転して主映像プレーン301へ描画する。また、二次映像304に対してマスク305を用いてマスク処理を行い、マスク処理済二次映像306を生成する。さらに、マスク処理済二次映像306を回転し、二次映像プレーン302上へ座標配置して描画する。主映像プレーン301と二次映像プレーン302を重ね合わせることで合成映像307を生成する。
The
上記2つの映像プレーンの層構造は図4に示される。主映像プレーン401の上に二次映像プレーン402が重なっている。
The layer structure of the two video planes is shown in FIG. A
上記した複数映像の合成・復元処理の一連の手順については図10を参照して後述する。本発明に於ける複数映像再生方法は、この処理の流れにおいて上記した映像復元処理と映像合成処理を行なうことを特徴とする。 A series of procedures for the above-described synthesis / restoration processing of a plurality of videos will be described later with reference to FIG. The multiple video playback method according to the present invention is characterized in that the above-described video restoration processing and video synthesis processing are performed in the flow of this processing.
ここで、上記した映像ユニットデータのデータ構造を図5を用いて説明する。 Here, the data structure of the video unit data will be described with reference to FIG.
映像ユニットデータ501は映像ユニットデータ生成処理(図1に示す処理手段(S12)の映像ユニットデータ生成処理(C)参照)に於いて生成されるデータである。ヘッダ情報502は、映像の再生に関連するパラメータが設定されている。合成映像表示時刻503には、合成映像を画面に表示する時刻が設定される。主映像ID番号504には、初期状態で主映像とする映像の映像ID番号(後述する)が設定される。主映像矩形505には主映像ID番号で指定された映像の矩形が設定される。これは、画面に表示する映像の解像度の設定に使用される。総映像数506には、ソース映像に含まれる映像の総数が記述される。
The video unit data 501 is data generated in the video unit data generation process (see the video unit data generation process (C) of the processing means (S12) shown in FIG. 1). In the
映像情報507はN個の映像情報(映像情報#1〜N)508,…で構成されている。ただし、Nはソース映像に記録した映像の最大数を指す。一つの映像情報(#n)508のデータ構造については図6を用いて後述する。
The
マスク情報509はM個のマスク情報(マスク情報#1〜M)510,…から構成されている。ただし、Mはソース映像に記録したマスクの最大数を指す。一つのマスク情報(#k)510のデータ構造については図7を用いて後述する。
The
エンコード済みソース映像511とは、複数映像を記録したソース映像を任意の符号化手法を用いてエンコードしたデータを指す。
The encoded
映像情報(#n)508のデータ構造を図6を用いて説明する。 The data structure of the video information (#n) 508 will be described with reference to FIG.
映像ID番号601は、ソース映像に記録した映像1つ1つに割り振られる固有のID番号である。
映像復元情報602は、ソース映像から映像を復元するために必要な情報である。
映像切り抜き元座標603には、ソース映像上の映像の座標が格納される。そのX座標は切り抜き元X座標604へ格納され、Y座標は切り抜き元Y座標605へ格納される。
The video ID number 601 is a unique ID number assigned to each video recorded in the source video.
The
In the video cut-out source coordinates 603, the coordinates of the video on the source video are stored. The X coordinate is stored in the clipping source X coordinate 604, and the Y coordinate is stored in the clipping source Y coordinate 605.
映像矩形606には、ソース映像上に記録されている映像の矩形が格納される。ただし、映像が回転して配置されている場合は回転後の矩形が格納される。映像の高さ情報は映像の高さ607へ格納され、映像の幅情報は映像の幅608へ格納される。
The
映像合成情報609は、ソース映像から復元した映像に対して合成処理を行なうために必要な情報である。
映像回転角度610には、ソース映像へ映像を記録する時の回転角度情報が格納される。
The
映像配置先座標611には、映像を合成映像上へ配置するための座標が格納される。配置先のX座標は612 配置先X座標に格納され、Y座標は613 配置先Y座標へ格納される。 The video arrangement destination coordinates 611 store coordinates for arranging the video on the synthesized video. The X coordinate of the placement destination is stored in the 612 placement destination X coordinate, and the Y coordinate is stored in the 613 placement destination Y coordinate.
表示ON/OFFフラグ614は映像を合成するかどうかを設定するフラグであり、値が真(True)の場合は映像に対して合成処理を行い、偽(False)の場合は合成処理を行なわない。
The display ON /
マスク適用フラグ615は、映像#nに対してマスク処理を行なうかどうかを設定するフラグである。Trueである場合は映像に対してマスク処理を行ない、Falseの場合はマスク処理を行なわない。
The
適用マスクID番号616には、映像に適用するマスクのマスクID番号(後述する)が格納される。
The applied
マスク情報#n510のデータ構造を図7を用いて説明する。
マスクID番号701は、1つ1つのマスク固有のID番号である。
マスク切り抜き元座標702にはソース映像上のマスクの座標が格納される。そのX座標は切り抜き元X座標703へ格納され、Y座標は切り抜き元Y座標704へ格納される。
The data structure of mask
The
The mask cut-out source coordinates 702 store the coordinates of the mask on the source video. The X coordinate is stored in the clipping source X coordinate 703, and the Y coordinate is stored in the clipping source Y coordinate 704.
マスク矩形705はソース映像上に記録されているマスクの矩形が格納される。ただし、マスクが回転して配置されている場合は回転後の矩形が格納される。マスクの高さ情報はマスクの高さ706へ格納され、マスクの幅情報はマスクの幅707へ格納される。
A mask rectangle 705 stores a mask rectangle recorded on the source video. However, when the mask is rotated and arranged, the rotated rectangle is stored. The mask height information is stored in the
マスク回転角度708には、ソース映像へマスクを記録したときの回転角度が格納される。
The
ここで、本発明の実施形態に於ける複数映像の記録・再生の処理の流れを図8を用いて説明する。 Here, a flow of processing for recording / reproducing a plurality of videos in the embodiment of the present invention will be described with reference to FIG.
図8は本発明の実施形態に於ける複数映像の記録処理の流れを示す。 FIG. 8 shows a flow of a recording process of a plurality of videos in the embodiment of the present invention.
複数映像記録処理(ステップ801)に於いては、1フレーム分のN枚の映像とM枚のマスクを1枚の映像上へ重なりが無いように配置し、ソース映像を生成する。また、それと同時にN枚の映像分の映像復元情報とM枚のマスク分のマスク復元情報を生成する。この複数映像記録処理を完了すると、映像のエンコード処理(ステップ802)へ遷移する。 In the multiple image recording process (step 801), N images for one frame and M masks are arranged on one image so as not to overlap, and a source image is generated. At the same time, image restoration information for N images and mask restoration information for M masks are generated. When this multiple video recording process is completed, the process proceeds to a video encoding process (step 802).
映像のエンコード処理(ステップ802)に於いては、上記した複数映像記録処理(ステップ801)で生成したソース映像を任意の符号化形式でエンコードし、エンコード済みソース映像を生成する。このエンコード済みソース映像の生成処理を完了すると、映像合成情報、マスク情報生成処理(ステップ803)へ遷移する。 In the video encoding process (step 802), the source video generated in the multiple video recording process (step 801) is encoded in an arbitrary encoding format to generate an encoded source video. When the generation process of the encoded source video is completed, the process proceeds to the video composition information / mask information generation process (step 803).
映像合成情報、マスク情報生成処理(ステップ803)に於いては、複数映像を1枚の映像へ合成するための映像合成情報と、映像に透過処理を行なうために必要なマスク合成情報を生成する。このマスク情報生成処理を終了すると、映像ユニットデータ生成処理(ステップ804)の処理へ遷移する。 In the video synthesis information and mask information generation process (step 803), video synthesis information for synthesizing a plurality of videos into one video and mask synthesis information necessary for performing transmission processing on the video are generated. . When this mask information generation process ends, the process proceeds to the video unit data generation process (step 804).
映像ユニットデータ生成処理(ステップ804)に於いては、ヘッダ情報を生成する。また映像復元情報と映像合成情報から映像情報#1〜Nを生成し、それらの集合から映像情報を生成する。さらにマスク復元情報とマスク合成情報からマスク情報#1〜Mを生成し、それらの集合からマスク情報を生成する。ヘッダ情報と、映像情報と、マスク情報と、エンコード済みソース映像を束ねることによって映像ユニットデータを生成する。この映像ユニットデータ生成処理を完了すると全フレームの記録処理終了を確認する条件分岐(ステップ805)へ遷移する。
In the video unit data generation process (step 804), header information is generated. Also,
この条件分岐(ステップ805)に於いて、全てのフレームの記録処理が終わったことを確認したならば映像記録処理を終了する。また全てのフレームの記録処理が終わっていなければ複数映像記録処理(ステップ801)へ遷移して上記した処理を繰り返し実行する。 In this conditional branch (step 805), if it is confirmed that the recording process for all the frames has been completed, the video recording process is terminated. If the recording process for all the frames has not been completed, the process proceeds to the multiple video recording process (step 801) and the above-described process is repeatedly executed.
以上の処理により、複数の映像ストリームを1つの映像ストリームに格納することができる。上記した一連の複数映像記録処理は、上記図8に示す処理ルーチンをもつプログラムを、例えば後述する複数映像の再生処理装置のプログラムメモリ部に格納して、MPUにより処理することで、複数映像の記録・再生装置が実現される。または上記図8に示す処理ルーチンをもつプログラムをパーソナルコンピュータに例えばグラフィック編集ツールとして格納することにより、動画像、メニューボタン、字幕などの複数映像をユーザが任意に操作して意図した映像ストリームを効率よく作成し記録することができる。 Through the above processing, a plurality of video streams can be stored in one video stream. In the series of multiple video recording processes described above, a program having the processing routine shown in FIG. 8 is stored in, for example, a program memory unit of a multiple video playback processing apparatus described later, and processed by the MPU, whereby multiple videos are recorded. A recording / reproducing apparatus is realized. Alternatively, by storing a program having the processing routine shown in FIG. 8 in the personal computer as, for example, a graphic editing tool, a user can arbitrarily operate a plurality of videos such as moving images, menu buttons, subtitles, etc. Can be well created and recorded.
つぎに複数映像を再生する処理の流れを、図9のフローチャートを用いて説明する。
映像ユニットデータ取得処理(ステップ901)に於いては、映像ユニットデータを読み込み、ヘッダ情報、映像情報、マスク情報、エンコード済みソース映像を取得する。この映像ユニットデータ取得処理を完了すると、映像プレーン生成処理(ステップ902)へ遷移する。
Next, the flow of processing for reproducing a plurality of videos will be described with reference to the flowchart of FIG.
In the video unit data acquisition process (step 901), video unit data is read, and header information, video information, mask information, and encoded source video are acquired. When this video unit data acquisition process is completed, the process proceeds to a video plane generation process (step 902).
映像プレーン生成処理(ステップ902)に於いては、ヘッダ情報の主映像矩形に従って、主映像プレーン、二次映像プレーン、マスクプレーンを生成する。この映像プレーン生成処理を終了すると、デコード処理(ステップ903)へ遷移する。 In the video plane generation process (step 902), a main video plane, a secondary video plane, and a mask plane are generated according to the main video rectangle of the header information. When this video plane generation process ends, the process proceeds to a decoding process (step 903).
デコード処理(ステップ903)に於いては、エンコード済みソース映像データをデコードし、ソース映像を取得する。このデコード処理を終了すると、複数映像復元・合成処理(ステップ904)へ遷移する。 In the decoding process (step 903), the encoded source video data is decoded and the source video is acquired. When this decoding process ends, the process proceeds to a multiple video restoration / combination process (step 904).
複数映像復元・合成処理(ステップ904)に於いては、映像復元情報を参照してソース映像から複数の映像・マスクを復元する。復元した映像・マスクに対して映像合成情報を参照して回転・座標配置処理を行い、主映像、二次映像、マスクをそれぞれ生成する。さらに、二次映像に対してマスクを用いてマスク処理を行いマスク処理済二次映像を生成する。そして生成した主映像とマスク処理済二次映像を合成し、合成映像を生成する。 In the multiple video restoration / combination process (step 904), the multiple videos / masks are restored from the source video with reference to the video restoration information. The restored image / mask is rotated / coordinated with reference to the image composition information to generate a main image, a secondary image, and a mask, respectively. Further, the secondary image is masked using a mask to generate a masked secondary image. Then, the generated main image and the masked secondary image are combined to generate a combined image.
この複数映像の復元・合成処理の詳細は図10のフローチャートを用いて後述する。この複数映像の復元・合成処理が完了すると、合成映像出力処理(ステップ905)へ遷移する。 Details of the multiple image restoration / combination processing will be described later with reference to the flowchart of FIG. When the restoration / combination process of the plurality of videos is completed, the process proceeds to a synthesized video output process (step 905).
合成映像出力処理(ステップ905)に於いては、複数映像復元・合成処理(ステップ904)に於いて生成された合成映像を、映像ユニットデータのヘッダ情報に含まれる合成映像表示時刻に合わせて映像表示機器へ出力する。この合成映像出力処理を完了すると、最終フレームの表示処理が終了したことを確認する条件分岐(ステップ906)へ遷移する。 In the composite video output process (step 905), the composite video generated in the multiple video restoration / combination process (step 904) is converted into a video in accordance with the composite video display time included in the header information of the video unit data. Output to the display device. When this composite video output process is completed, the process proceeds to a conditional branch (step 906) for confirming that the final frame display process has been completed.
この条件分岐(ステップ906)に於いて、映像が最終フレームまで表示されたかどうかを判断し、最終フレームまで表示されたならば処理を終了する。また、最終フレームの表示に至っていない場合は映像ユニットデータ取得処理(ステップ901)に遷移して上記した処理を繰り返し実行する。 In this conditional branch (step 906), it is determined whether or not the video has been displayed up to the final frame. If the video has been displayed up to the final frame, the process is terminated. If the final frame has not been displayed, the process proceeds to the video unit data acquisition process (step 901) and the above process is repeatedly executed.
以上の処理により、一映像分のデータストリームから複数の映像を再生することができる。 With the above processing, a plurality of videos can be reproduced from the data stream for one video.
ここで、上記図9に於ける複数映像復元・合成処理(ステップ904)の流れを図10のフローチャートを用いて説明する。 Here, the flow of the multiple video restoration / combination process (step 904) in FIG. 9 will be described with reference to the flowchart of FIG.
映像復元ループ(ステップ1001)は、映像を復元し、主映像プレーンと二次映像プレーンへ配置するループである。一回ループするごとに映像情報取得用カウンタiを1だけ増やし、全ての映像情報について処理を行なう。 The video restoration loop (step 1001) is a loop that restores a video and arranges it on the main video plane and the secondary video plane. Every time a loop is made, the video information acquisition counter i is incremented by 1, and all video information is processed.
映像情報#iの取得(ステップ1002)に於いては、映像ユニットデータに含まれる映像情報#iを取得する。処理を完了すると条件分岐(ステップ1003)へ遷移する。 In the acquisition of the video information #i (step 1002), the video information #i included in the video unit data is acquired. When the process is completed, the process proceeds to a conditional branch (step 1003).
この条件分岐(ステップ1003)に於いては、映像合成情報に含まれる、表示ON/OFFフラグを判定し、Trueならば映像の切り抜き(ステップ1004)へ遷移し、Falseであればループ端(ステップ1013)へ遷移する。 In this conditional branch (step 1003), the display ON / OFF flag included in the video composition information is determined, and if it is True, the transition is made to video clipping (step 1004), and if it is False, the loop end (step 100). 1013).
上記映像切切り抜き(ステップ1004)に於いては、映像復元情報(602)の映像切抜き元座標(603)と映像矩形(606)に従って映像を切り抜く。処理を完了すると条件分岐(ステップ1005)へ遷移する。 In the video cutout (step 1004), the video is cut out according to the video cutout source coordinates (603) and the video rectangle (606) of the video restoration information (602). When the process is completed, the process proceeds to a conditional branch (step 1005).
この条件分岐(ステップ1005)に於いては、ヘッダ情報(502)に含まれる主映像ID番号(504)と、映像情報#i(508)に含まれる映像ID番号(701)を比較し、一致していたら主映像の回転・座標配置(ステップ1006)へ遷移する。一致しなければ二次映像の回転(ステップ1007)へ遷移する。 In this conditional branch (step 1005), the main video ID number (504) included in the header information (502) is compared with the video ID number (701) included in the video information #i (508). If so, the process proceeds to rotation / coordinate arrangement (step 1006) of the main video. If they do not match, the process proceeds to the rotation of the secondary video (step 1007).
主映像の回転・座標配置(ステップ1006)に於いては、映像合成情報(609)を参照して、主映像を回転し、主映像プレーン上へ配置する。この処理を完了するとループ端(ステップ1013)へ遷移する。 In the rotation / coordinate arrangement (step 1006) of the main image, the main image is rotated and arranged on the main image plane with reference to the image composition information (609). When this process is completed, the process proceeds to the loop end (step 1013).
上記二次映像の回転(ステップ1007)に於いては、映像切り抜き(ステップ1004)に於いて切り抜いた二次映像を映像合成情報を参照しながら回転する。この処理を完了すると条件分岐(ステップ1008)へ遷移する。 In the rotation of the secondary video (step 1007), the secondary video clipped in the video clipping (step 1004) is rotated while referring to the video composition information. When this process is completed, a transition is made to a conditional branch (step 1008).
この条件分岐(ステップ1008)に於いては、映像合成情報に含まれるマスク適用フラグを参照し、Trueであればマスク切抜き(ステップ1009)へ遷移する。Falseであれば二次映像の座標配置(ステップ1012)へ遷移する。 In this conditional branch (step 1008), the mask application flag included in the video composition information is referred to. If True, the process proceeds to mask clipping (step 1009). If it is False, transition is made to the secondary video coordinate arrangement (step 1012).
マスク切り抜き(ステップ1009)に於いては、映像合成情報(609)の適用マスクID番号(616)と一致するマスクID番号を持つマスク情報を取得する。さらに映像復元情報(602)を参照してソース映像からマスクを切り抜く。この処理を完了するとマスク二値化処理(ステップ1010)へ遷移する。 In mask clipping (step 1009), mask information having a mask ID number that matches the applicable mask ID number (616) of the video composition information (609) is acquired. Further, the mask is cut out from the source video with reference to the video restoration information (602). When this processing is completed, the process proceeds to mask binarization processing (step 1010).
このマスク二値化処理(ステップ1010)に於いては、上記マスク切り抜き(ステップ1009)で取得したマスクを二値化し、二値化済みマスクを生成する。この処理を完了するとマスク処理(ステップ1011)へ遷移する。 In this mask binarization process (step 1010), the mask obtained by the mask clipping (step 1009) is binarized to generate a binarized mask. When this processing is completed, the process proceeds to mask processing (step 1011).
このマスク処理(ステップ1011)に於いては、映像合成情報(609)を参照してマスク二値化処理(ステップ1010)に於いて二値化した二値化済みマスクを回転する。さらに回転後の映像に対して回転後の二値化済みマスクを用いてマスク処理を行い、マスク処理済み二次映像を生成する。この処理を完了すると二次映像の座標配置(ステップ1012)へ遷移する。 In this mask process (step 1011), the binarized mask binarized in the mask binarization process (step 1010) with reference to the video composition information (609) is rotated. Further, a masked secondary image is generated by performing a mask process on the rotated image using the rotated binarized mask. When this process is completed, the transition is made to the coordinate arrangement of the secondary video (step 1012).
この二次映像の座標配置(ステップ1012)に於いては、映像合成情報(609)を参照してマスク処理済二次映像を二次映像プレーンへ配置する。この処理を完了すると再生処理ループ端(ステップ1013)へ遷移する。 In the coordinate arrangement of the secondary video (step 1012), the masked secondary video is arranged on the secondary video plane with reference to the video composition information (609). When this process is completed, the process proceeds to the playback process loop end (step 1013).
このループ端(ステップ1013)に於いては、ヘッダ情報(502)の総映像数(506)と映像情報取得用カウンタiを比較し、総映像数が大きければカウンタiに1を足してループ開始端(ステップ1001)へ遷移する。そうでなければループを終了し、映像プレーン合成処理(ステップ1014)へ遷移する。 At this loop end (step 1013), the total number of videos (506) in the header information (502) is compared with the video information acquisition counter i. If the total number of videos is large, the counter i is incremented by 1 and the loop starts. Transition to the end (step 1001). Otherwise, the loop is terminated and the process proceeds to the video plane synthesis process (step 1014).
映像プレーン合成処理(ステップ1014)に於いては、主映像プレーンと二次映像プレーンを重ね合わせ、合成映像を生成する。この処理を完了すると、複数映像の復元・合成処理を終了する。 In the video plane synthesis process (step 1014), the main video plane and the secondary video plane are superimposed to generate a synthesized video. When this process is completed, the restoration / combination process for a plurality of videos ends.
以上の処理により一フレーム分の合成映像の生成が完了する。 With the above processing, generation of a composite image for one frame is completed.
ここで、本発明の実施形態に於ける複数映像の再生処理装置について説明する。 Here, a reproduction processing apparatus for a plurality of videos in the embodiment of the present invention will be described.
複数映像の再生処理装置のシステム構成について図11を用いて説明する。 The system configuration of the multiple video playback processing apparatus will be described with reference to FIG.
MPU部1101は本発明の実施形態に係る再生処理装置に於ける演算処理を行なう処理部である。メモリ部1102は、MPU部1101が処理を行なうプログラムを展開するための装置である。ROM部1103には本発明の実施形態に係る再生処理装置起動用プログラムが保存されている。このプログラムは本発明の実施形態に係る再生処理装置の電源投入直後にメモリ部1102へ読み込まれる。バスブリッジ1104はバスに流れるデータを制御する装置である。
The
光ディスク1105と、HDD1106と、フラッシュメモリ(Flash Memory)1111と、ネットワークストレージ1107はそれぞれ情報記録媒体である。ただし本発明が想定する情報記録媒体はこれに限定されない。
The
データプロセッサ部1109は各モジュールから入力された映像ストリームを映像デコーダ部1115へ入力する。
The
ディスクドライブ部1110は光ディスク1105から映像ストリームを読み込み、データプロセッサ部1109へ映像ストリームを供給する装置である。
The
Flash Memory1111は映像ストリームをデータプロセッサ部1109へ供給する記憶媒体である。HDD1106は映像ストリームをデータプロセッサ部1109へ供給する装置である。
A
ネットワークコントローラ1112はネットワークから映像ストリームを読み込み、データプロセッサ部1109へ映像ストリームを供給する装置である。
The
映像デコーダ部1113は、入力された映像ストリームをデコードして映像を生成し、映像復元・合成処理部1114へ出力する。
The
映像復元・合成処理部1114は、ビデオメモリ部1115から映像を読み込み、その映像から複数の映像を復元する。さらに、復元した複数の映像を1枚の映像へ合成してビデオプロセッサ部1116へ出力する。映像復元・合成処理部1114の内部構成は図12を用いて後述する。
The video restoration /
ビデオプロセッサ部1116は、入力された映像を、映像表示機器の画面に表示させる。外部入力信号処理部1117はユーザからのリモコン入力信号を受信し、その信号をUI(User Interface)処理部1118へ入力する。
The
UI処理部1118は外部入力信号処理部1117からの入力を解釈し、ユーザイベントを映像復元・合成処理部1114へ入力する。表示パネル1119は再生時間や装置の状態などのさまざまな情報を表示させる。
The
上記図11に於ける映像復元・合成処理部1114のモジュール構成を図12を用いて説明する。
The module configuration of the video restoration /
映像関連情報解析部1201に於いては、映像デコーダ部1113から入力されたヘッダ情報、映像情報、マスク情報を解析し、その解析結果を後述するモジュール1202〜1212へ提供する。
The video related
映像切り分け部1202は、映像情報の映像復元情報を参照してソース映像から映像を復元する処理と、マスク情報を参照してソース映像からマスク復元する処理を行なう。さらに、主映像を主映像回転・座標配置部1203へ出力し、二次映像を二次映像回転部1204へ出力し、マスクをマスク二値化部1205へ出力する。
The
主映像回転・座標配置処理部1203は、映像合成情報を参照して主映像を回転し、その結果を主映像プレーンへ配置する。主映像プレーンに描画されたデータは主映像プレーンバッファ1206へ蓄えられる。
The main image rotation / coordinate
二次映像回転部1204は、映像合成情報を参照して二次映像を回転し、その結果を二次映像一時バッファ1207へ蓄える。
The secondary
マスク二値化処理部1205は、入力されたマスクを二値化し、二値化済みマスクを二値化済みマスクバッファ1208へ蓄える。
The mask
マスク回転処理部1209は、二値化済みマスクバッファ1208に蓄えられている二値化済みマスクをマスク情報に従って回転し、マスクバッファ1210へ蓄える。
The mask
マスク処理部1211は、入力されたマスクプレーンを用いて二次映像プレーンへマスク処理を行ない、マスク処理済二次映像を生成する。さらに、映像情報を参照して二次映像を回転し、二次映像プレーン上へ座標配置する。二次映像上に描画されたデータは二次映像プレーンバッファ1212に蓄えられる。
The
ミキサー1213は、主映像プレーンバッファ1206に蓄えられている主映像プレーンと、二次映像プレーンバッファ1212に蓄えられている二次映像プレーンを合成し、合成映像を出力する。
The
上記した複数映像の再生処理装置により、ユーザは入力装置を用いて映像を操作することができる。ユーザが実施することができる映像操作と、映像再生処理装置内部で行なわれる処理について図13に示す。ここでは、ユーザが実施する映像操作として、マルチアングル再生、動画(二次映像)の表示・非表示、ペアレンタルロック再生、動画(二次映像)のマスク処理オン/オフ、動画(二次映像)の形状変更、字幕(二次映像)の表示・非表示、字幕の言語選択、字幕(二次映像)のマスク処理オン/オフ、メニューの表示、メニューボタンの形状の変更等の映像操作を実現可能にしている。 With the above-described multiple video playback processing device, the user can operate the video using the input device. FIG. 13 shows video operations that can be performed by the user and processing performed in the video playback processing apparatus. Here, the video operations performed by the user include multi-angle playback, video (secondary video) display / non-display, parental lock playback, video (secondary video) masking on / off, video (secondary video) ) Shape change, subtitle (secondary video) display / hide, subtitle language selection, subtitle (secondary video) masking on / off, menu display, menu button shape change, etc. Make it feasible.
なお、上記した複数映像の再生処理装置に於いて、MPU部1101が実行するプログラムを格納するメモリ部1102に、上記図8乃至図10に示す処理ルーチンをもつプログラムを格納し、このプログラムをMPU部1101が実行することにより、上記した複数映像の再生処理にとどまらず、複数映像の記録処理を含めて実現可能であり、これにより複数種の映像を1枚の映像上に座標配置した映像ストリームの記録・再生システムが実現できる。
In the above-described multiple video playback processing apparatus, a program having the processing routines shown in FIGS. 8 to 10 is stored in the
上述した本発明の実施形態によれば、1つの映像ストリームに複数の映像ストリームを格納することができる。この処理に於いて、複数の映像ストリームを読み込む必要がないため、データ読み込みのオーバーヘッドが少ない。また複数の映像を個別にデコードする場合に比べ、複数映像のフレーム同期を簡単にとることができる。これにより内部構成を簡素にした映像機器が実現できる。 According to the embodiment of the present invention described above, a plurality of video streams can be stored in one video stream. In this process, since it is not necessary to read a plurality of video streams, the overhead of data reading is small. In addition, frame synchronization of a plurality of videos can be easily achieved as compared with a case where a plurality of videos are individually decoded. As a result, a video device with a simplified internal configuration can be realized.
つぎに、上記した本発明の映像処理技術を実機構成に照らして実現した場合の本発明をより具現化した映像機器について説明する。ここでは、1080i/p(interlace/progressive)の解像度を持つソース映像へ配置する映像の解像度の組み合わせについて、その具体例を示す。 Next, a video apparatus that further embodies the present invention when the above-described video processing technique of the present invention is realized in light of the actual configuration will be described. Here, a specific example of a combination of video resolutions arranged in a source video having a resolution of 1080i / p (interlace / progressive) is shown.
1080i/pの解像度を持つソース映像へ、現行のテレビシステムで表示可能な解像度(720i/p、480i/p)の映像と、任意の解像度の二次映像を記録し、発明のポイントの複数映像再生処理装置で再生する事を考える。配置する映像の解像度の組み合わせと、同時に配置する二次映像の使用用途を図14に示す。ここでは解像度の組み合わせを4例(組み合わせ1〜4)について示している。
A source video having a resolution of 1080i / p is recorded with a video of a resolution (720i / p, 480i / p) that can be displayed on the current television system, and a secondary video of an arbitrary resolution. Consider playback on a playback processor. FIG. 14 shows combinations of resolutions of videos to be arranged and usage applications of secondary videos to be arranged at the same time. Here, four examples of combinations of resolutions (
組み合わせ1の映像のソース映像の例を図15に示し、合成映像の例を図16に示す。
An example of the source video of the
図15に、組み合わせ1の場合のソース映像1301を示す。このソース映像1301には、720i/pの解像度を持つ主映像(動画)1302と、480i/pの解像度を持つ二次映像(動画)1303をもつ。さらにソース映像1301には、任意の解像度を持つ字幕映像1304、および当該字幕映像1304のマスク(字幕映像用のマスク)1305と、任意の解像度を持つボタン映像1306、および当該ボタン映像1306のマスク(ボタン映像用のマスク)1307をそれぞれ二次映像としてもつ。
FIG. 15 shows a
図15に示した映像1302〜1307をもつソース映像1301に於ける、組み合わせ1の合成映像の一例を図16に示す。ここでは720i/pの解像度を持つ主映像(動画)上の左上端を基点に480i/pの解像度をもつ二次映像(動画)を配置し、さらに主映像に字幕、二次映像にボタンを配置した合成映像1401を例示している。
FIG. 16 shows an example of the combined video of the
図17に、組み合わせ2の場合のソース映像1501を示す。このソース映像1501には、720i/pの解像度を持つ主映像(動画)1502と、任意の解像度をもつ字幕映像1503〜1505、およびこれら字幕映像1503〜1505のマスク(字幕映像用のマスク)1506〜1508をそれぞれ二次映像としてもつ。
FIG. 17 shows a
図17に示した映像1502〜1508をもつソース映像1501に於ける、組み合わせ2の合成映像の一例を図18に示す。ここでは720i/pの解像度を持つ主映像(動画)上に複数の字幕を配置した合成映像1601を例示している。
FIG. 18 shows an example of the combined video of the combination 2 in the
図19に、組み合わせ3の場合のソース映像1701を示す。このソース映像1701には、それぞれ480i/pの解像度をもつ4種の映像(動画1〜4)1702〜1705をもつ。図19に示した映像1702〜1705をもつソース映像1701に於ける、組み合わせ3の合成映像の一例を図20に示す。ここでは4つの映像1702〜1705を用いたマルチアングル再生の例を示している。
FIG. 19 shows a source video 1701 in the case of the combination 3. The source video 1701 has four types of videos (moving
図21に、組み合わせ4の場合のソース映像1901を示す。このソース映像1901には、それぞれ480i/pの解像度をもつ3種の映像(動画1〜3)1902〜1904と、任意の解像度をもつ字幕映像1905、および当該字幕映像1905のマスク(字幕映像用のマスク)1906と、2つのボタン映像1907,1908、および当該ボタン映像1907,1908のマスク(ボタン映像用のマスク)1909,1910とをもつ。図21に示した映像1902〜1910をもつソース映像1901に於ける、組み合わせ4の合成映像の一例を図22に示す。この例ではボタン映像に適用するマスクを動的に変えることができる。
FIG. 21 shows a
101〜103,203〜205…映像、104,202…ソース映像、105…映像復元用情報、106…映像合成用情報、107…映像表示用情報、108,201…映像ユニットデータ、109…映像ユニットデータの集合(映像ストリーム)、110…情報記憶媒体、301,403…主映像プレーン、302,402…二次映像プレーン、303…主映像、305…マスク、306…マスク処理済二次映像、307…合成映像、1101…MPU部、1102…メモリ部、1103…ROM部、1105…光ディスク、1106…HDD、1107…ネットワークストレージ、1108…ネットワークストレージ、1109…データプロセッサ部、1110…ディスクドライブ部、1111…フラッシュメモリ(Flash Memory)、1112…ネットワークコントローラ、1113…映像デコーダ部、1114…映像復元・合成処理部、1115…映像デコーダ部、1116…ビデオプロセッサ部、1117…外部入力信号処理部、1201…映像関連情報解析部、1202…映像切り分け部、1203…主映像回転・座標配置部、1204…二次映像回転部、1205…マスク二値化部、1206…主映像プレーンバッファ、1207…二次映像一時バッファ、1208…二値化済みマスクバッファ、1209…マスク回転処理部、1210…マスクバッファ、1211…マスク処理部、1212…二次映像プレーンバッファ、1213…ミキサー。
101-103, 203-205 ... video, 104,202 ... source video, 105 ... video restoration information, 106 ... video synthesis information, 107 ... video display information, 108,201 ... video unit data, 109 ... video unit Data set (video stream), 110 ... information storage medium, 301, 403 ... main video plane, 302, 402 ... secondary video plane, 303 ... main video, 305 ... mask, 306 ... masked secondary video, 307 ... Composite video, 1101 ... MPU part, 1102 ... Memory part, 1103 ... ROM part, 1105 ... Optical disk, 1106 ... HDD, 1107 ... Network storage, 1108 ... Network storage, 1109 ... Data processor part, 1110 ... Disk drive part, 1111 ... Flash memory (Flash Me ory), 1112 ... network controller, 1113 ... video decoder unit, 1114 ... video restoration / composition processing unit, 1115 ... video decoder unit, 1116 ... video processor unit, 1117 ... external input signal processing unit, 1201 ... video related
Claims (9)
前記記録手段は、
複数種の映像を互いに重なりのないように1枚の映像上へ座標配置してソース映像を生成するとともに、前記ソース映像から前記複数種の映像を個別に切り出すための映像復元用情報を生成する映像記録処理手段と、
前記映像記録処理手段により生成された前記ソース映像をエンコードし、エンコードした前記ソース映像のデータに、前記映像記録処理手段により生成された前記映像復元用情報および所定の映像出力用情報を付加して映像ユニットデータを生成する映像ユニットデータ生成処理手段と、
前記映像ユニットデータ生成処理手段で生成された前記映像ユニットデータの集合を前記情報記憶媒体に記録する記録処理手段と
を具備して、一つの映像ストリームから複数の映像ストリームを生成可能したことを特徴とする映像機器。 Recording means for adding video restoration information for individually cutting out the plurality of types of video from the video stream to a video stream in which a plurality of types of video are arranged so as not to overlap each other and recording the information on a predetermined information storage medium Comprising
The recording means includes
A source video is generated by arranging a plurality of types of video on a single video so that they do not overlap with each other, and video restoration information for individually cutting out the plurality of types of video from the source video is generated. Video recording processing means;
The source video generated by the video recording processing means is encoded, and the video restoration information and predetermined video output information generated by the video recording processing means are added to the encoded source video data. Video unit data generation processing means for generating video unit data;
And recording processing means for recording the set of video unit data generated by the video unit data generation processing means on the information storage medium, so that a plurality of video streams can be generated from one video stream. Video equipment.
前記複数種の映像を互いに重なりのないように1枚の映像上へ座標配置してソース映像を生成するステップと、
前記ソース映像の生成に伴って前記ソース映像から前記複数種の映像を個別に切り出すための映像復元用情報を生成するステップと、
前記生成された前記ソース映像をエンコードするステップと、
前記エンコードした前記ソース映像のデータに、前記映像復元用情報および所定の映像出力用情報を付加して映像ユニットデータを生成するステップと、
前記映像ユニットデータの集合を所定の情報記憶媒体に記録するステップと
を具備したことを特徴とする映像記録方法。 A method of recording a video stream having a plurality of types of video,
Generating a source video by arranging the plurality of types of video on a single video so as not to overlap each other;
Generating video restoration information for individually cutting out the plurality of types of video from the source video as the source video is generated;
Encoding the generated source video;
Adding the video restoration information and predetermined video output information to the encoded source video data to generate video unit data;
Recording a set of the video unit data on a predetermined information storage medium.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005188484A JP4393425B2 (en) | 2005-06-28 | 2005-06-28 | Video equipment, video recording method and video playback method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005188484A JP4393425B2 (en) | 2005-06-28 | 2005-06-28 | Video equipment, video recording method and video playback method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007013313A JP2007013313A (en) | 2007-01-18 |
JP4393425B2 true JP4393425B2 (en) | 2010-01-06 |
Family
ID=37751271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005188484A Expired - Fee Related JP4393425B2 (en) | 2005-06-28 | 2005-06-28 | Video equipment, video recording method and video playback method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4393425B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013171089A (en) * | 2012-02-17 | 2013-09-02 | Toshiba Corp | Voice correction device, method, and program |
JP6706977B2 (en) * | 2016-06-20 | 2020-06-10 | ヤフー株式会社 | Information display program, information display device, information display method, and distribution device |
-
2005
- 2005-06-28 JP JP2005188484A patent/JP4393425B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2007013313A (en) | 2007-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20060045777A (en) | Video data processing apparatus | |
KR20070089146A (en) | Method and apparatus for encoding and for decoding a main video signal and one or more auxiliary video signals | |
JP2010020901A (en) | Reproducing method using information recording medium with subtitle recorded thereon | |
JP4229127B2 (en) | Video processing apparatus and time code adding method | |
US20060170762A1 (en) | Video composition apparatus, video composition method and video composition program | |
CN102714747A (en) | Stereoscopic video graphics overlay | |
JP5180910B2 (en) | Video processing device | |
JP4393425B2 (en) | Video equipment, video recording method and video playback method | |
JP4733764B2 (en) | 3D image processing apparatus and 3D image processing method | |
JP2007259193A (en) | Video output apparatus, and method | |
JP2007013473A (en) | Reproducing apparatus and reproducing method | |
US20100054713A1 (en) | Video reproducing apparatus | |
JP5231886B2 (en) | Image processing apparatus and control method thereof | |
JP3898347B2 (en) | Movie data control apparatus, movie data control method, and computer-readable recording medium on which movie data control program is recorded | |
JP4534975B2 (en) | REPRODUCTION DEVICE, REPRODUCTION METHOD, RECORDING METHOD, VIDEO DISPLAY DEVICE, AND RECORDING MEDIUM | |
JP4443387B2 (en) | Video playback device | |
JP5060409B2 (en) | Image processing apparatus and control method thereof | |
JP4411614B2 (en) | Recording / reproducing apparatus and image processing method using the recording / reproducing apparatus | |
JP2007060329A (en) | Slide show generating device and method and program for controlling the same | |
JP2006222510A (en) | Image reproducing apparatus and program | |
KR20160097418A (en) | Method and System for Extensible Video Rendering | |
JP4534974B2 (en) | REPRODUCTION DEVICE, REPRODUCTION METHOD, RECORDING METHOD, VIDEO DISPLAY DEVICE, AND RECORDING MEDIUM | |
JP2006180091A (en) | Apparatus and method of compositing content | |
JP5422597B2 (en) | 3D image processing device | |
JP2009016885A (en) | Image transfer device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090602 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090623 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090821 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090915 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091013 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121023 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131023 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |