JP4393425B2 - Video equipment, video recording method and video playback method - Google Patents

Video equipment, video recording method and video playback method Download PDF

Info

Publication number
JP4393425B2
JP4393425B2 JP2005188484A JP2005188484A JP4393425B2 JP 4393425 B2 JP4393425 B2 JP 4393425B2 JP 2005188484 A JP2005188484 A JP 2005188484A JP 2005188484 A JP2005188484 A JP 2005188484A JP 4393425 B2 JP4393425 B2 JP 4393425B2
Authority
JP
Japan
Prior art keywords
video
information
source
recording
processing means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005188484A
Other languages
Japanese (ja)
Other versions
JP2007013313A (en
Inventor
亮平 古町
丈朗 小林
泰博 石橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005188484A priority Critical patent/JP4393425B2/en
Publication of JP2007013313A publication Critical patent/JP2007013313A/en
Application granted granted Critical
Publication of JP4393425B2 publication Critical patent/JP4393425B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数種の映像を1枚の映像上に座標配置したデータ構造の映像ストリームを扱う映像機器、映像記録方法および映像再生方法に関する。   The present invention relates to a video device, a video recording method, and a video playback method that handle a video stream having a data structure in which a plurality of types of videos are coordinated on a single video.

動画像、メニューボタン、字幕などの複数の映像を含んだ映像ストリームを扱う映像機器に於いては、ユーザまたはコンテンツ視聴者が複数映像を任意に操作して意図した映像ストリームを効率よく記録し、再生することのできる技術が要求される。   In video equipment that handles video streams containing multiple videos, such as moving images, menu buttons, subtitles, etc., the user or content viewer can arbitrarily record the intended video stream by arbitrarily operating multiple videos, A technology that can be reproduced is required.

従来、複数の動画像を表示操作する技術として、例えば複数のビデオデータ源ユニットの動画像に対して、動画像識別番号レジスタ、識別番号比較器等を用い、フレームバッファへ取り込む動画像を制御することで、複数の動画像の表示を可能とする複数動画像の表示技術が存在する。また、映像ストリーム中の複数の映像を操作する技術として、動画像から前景オブジェクトと背景画像を分離して抽出する映像操作技術が存在する。
特開平8−123401号公報 特開2002−118843号公報
Conventionally, as a technique for displaying and operating a plurality of moving images, for example, for moving images of a plurality of video data source units, a moving image to be fetched into a frame buffer is controlled using a moving image identification number register, an identification number comparator, or the like. Thus, there is a technique for displaying a plurality of moving images that enables display of a plurality of moving images. Further, as a technique for operating a plurality of videos in a video stream, there is a video operation technique for separating and extracting a foreground object and a background image from a moving image.
JP-A-8-123401 JP 2002-118843 A

しかしながら、上記した複数動画像の表示技術に於いては、映像ごとに情報記録媒体からデータ供給/読み取りを行なわなくてはならず、従って映像の数に比例してデータ読み取り時間のオーバーヘッドが増加するとともに、再生する映像数と同数のデコーダを必要とし、さらに複数映像のフレーム同期をとる仕組みが複雑化するという問題があった。また上記した映像操作技術に於いては、映像の切り出しに煩雑な処理が必要になるという問題があった。   However, in the above-described multi-moving image display technology, data must be supplied / read from the information recording medium for each video, and therefore the overhead of data reading time increases in proportion to the number of videos. At the same time, there is a problem that the same number of decoders as the number of videos to be reproduced is required, and the mechanism for synchronizing the frames of a plurality of videos is complicated. In addition, the above-described video operation technique has a problem that complicated processing is required to cut out the video.

本発明は、動画像、メニューボタン、字幕などの複数の映像を含んだ映像ストリームを扱う映像機器に於いて、ユーザまたはコンテンツ視聴者が複数映像を任意に操作して意図した映像ストリームを効率よく記録し、再生することのできる映像機器、映像記録方法および映像再生方法を提供することを目的とする。   The present invention provides a video device that handles a video stream including a plurality of videos such as moving images, menu buttons, subtitles, etc., and efficiently operates a video stream intended by a user or content viewer by arbitrarily operating a plurality of videos. It is an object of the present invention to provide a video device, a video recording method and a video playback method capable of recording and playing back.

本発明は、複数種の映像を互いに重なりのないように配置した映像ストリームに、前記映像ストリームから前記複数種の映像を個別に切り出すための映像復元用情報を付加して所定の情報記憶媒体に記録する記録手段を具備し、前記記録手段は、複数種の映像を互いに重なりのないように1枚の映像上へ座標配置してソース映像を生成するとともに、前記ソース映像から前記複数種の映像を個別に切り出すための映像復元用情報を生成する映像記録処理手段と、前記映像記録処理手段により生成された前記ソース映像をエンコードし、エンコードした前記ソース映像のデータに、前記映像記録処理手段により生成された前記映像復元用情報および所定の映像出力用情報を付加して映像ユニットデータを生成する映像ユニットデータ生成処理手段と、前記映像ユニットデータ生成処理手段で生成された前記映像ユニットデータの集合を前記情報記憶媒体に記録する記録処理手段とを具備して、一つの映像ストリームから複数の映像ストリームを生成可能した映像機器を特徴とする。 According to the present invention, video restoration information for individually extracting the plurality of types of video from the video stream is added to a video stream in which a plurality of types of video are arranged so as not to overlap each other, and the information is stored in a predetermined information storage medium. Recording means for recording , wherein the recording means generates a source video by arranging a plurality of types of video on a single video so as not to overlap each other, and generates the plurality of types of video from the source video. A video recording processing means for generating video restoration information for individually cutting out the source video, the source video generated by the video recording processing means is encoded, and the encoded video of the source video is encoded by the video recording processing means. A video unit data generation processing unit for generating video unit data by adding the generated video restoration information and predetermined video output information. When a video in which the said set of image unit data generated by the video unit data generating means comprises a recording processing means for recording on the information storage medium, and can generate a plurality of video streams from one video stream Features equipment.

また本発明は、複数種の映像を有する映像ストリームの記録方法であって、前記複数種の映像を互いに重なりのないように1枚の映像上へ座標配置してソース映像を生成するステップと、前記ソース映像の生成に伴って前記ソース映像から前記複数種の映像を個別に切り出すための映像復元用情報を生成するステップと、前記生成された前記ソース映像をエンコードするステップと、前記エンコードした前記ソース映像のデータに、前記映像復元用情報および所定の映像出力用情報を付加して映像ユニットデータを生成するステップと、前記映像ユニットデータの集合を所定の情報記憶媒体に記録するステップとを具備したことを特徴とする。   The present invention is also a method for recording a video stream having a plurality of types of videos, wherein the plurality of types of videos are coordinated on a single video so as not to overlap each other, and a source video is generated; A step of generating video restoration information for individually cutting out the plurality of types of videos from the source video as the source video is generated, a step of encoding the generated source video, and the encoding of the encoded video Adding video restoration data and predetermined video output information to source video data to generate video unit data; and recording the set of video unit data in a predetermined information storage medium. It is characterized by that.

動画像、メニューボタン、字幕などの複数の映像を含んだ映像ストリームを扱う映像機器に於いて、ユーザまたはコンテンツ視聴者が複数映像を任意に操作して意図した映像ストリームを効率よく記録し、再生することができる。   In video equipment that handles video streams that include multiple videos, such as moving images, menu buttons, and subtitles, the user or content viewer can arbitrarily record and play the intended video stream by arbitrarily operating multiple videos. can do.

以下図面を参照して本発明の実施形態を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

本発明の実施形態に係る映像記録方法および映像機器を図1を参照して説明する。   A video recording method and video equipment according to an embodiment of the present invention will be described with reference to FIG.

本発明の実施形態に係る映像機器は、図1に示すような複数映像の記録手段を実現している。この記録手段は、複数種の映像101〜103を互いに重なりのないように1枚の映像上へ座標配置したソース映像(A)、およびこのソース映像(A)から映像101〜103を個別に切り出すための映像復元用情報105を生成して、ソース映像をエンコードし、映像復元用情報および所定の映像出力用情報(B)を付加して映像ユニットデータ(C)を生成する処理手段(S11)と、この映像ユニットデータの集合でなる映像ストリーム(D)を情報記憶媒体(E)に記録する処理手段(S12)とを有する。上記処理手段(S11)により、複数種の映像を互いに重なりのないように1枚の映像上へ座標配置してソース映像を生成するとともに、このソース映像から前記複数種の映像を個別に切り出すための映像復元用情報を生成する映像記録処理手段と、この映像記録処理手段により生成されたソース映像をエンコードし、エンコードしたソース映像のデータに、映像記録処理手段により生成された映像復元用情報および所定の映像出力用情報を付加して映像ユニットデータを生成する映像ユニットデータ生成処理手段とが実現される。また上記処理手段(S12)により上記映像ユニットデータ生成処理手段で生成された映像ユニットデータの集合を情報記憶媒体に記録する記録処理手段が実現される。   The video equipment according to the embodiment of the present invention realizes a plurality of video recording means as shown in FIG. This recording means individually cuts out the images 101 to 103 from the source image (A) in which a plurality of types of images 101 to 103 are coordinate-arranged on one image so as not to overlap each other, and the source image (A). Processing means for generating video unit information (C) by generating video restoration information 105, encoding the source video, adding video restoration information and predetermined video output information (B) And processing means (S12) for recording the video stream (D) composed of the set of the video unit data on the information storage medium (E). The above processing means (S11) generates a source video by coordinating a plurality of types of video on a single video so that they do not overlap each other, and separately cuts out the plurality of types of video from this source video. Video recording processing means for generating the video restoration information, and the source video generated by the video recording processing means are encoded, and the video restoration information generated by the video recording processing means is encoded into the encoded source video data and A video unit data generation processing unit for generating video unit data by adding predetermined video output information is realized. Further, the processing means (S12) realizes a recording processing means for recording a set of video unit data generated by the video unit data generation processing means on an information storage medium.

上記複数の映像101〜103は、それぞれ異なる1枚の映像である。複数の映像101〜103に対して回転処理を行い、互いに重なりのないように1枚の映像上へ座標配置処理することで、ソース映像104と、このソース映像104に対する映像復元用情報105を生成する。この処理を映像記録処理と呼ぶ。ソース映像104は一フレームに相当する映像である。   The plurality of images 101 to 103 are different images. Rotate the plurality of images 101 to 103 and perform coordinate arrangement processing on one image so as not to overlap each other, thereby generating the source image 104 and image restoration information 105 for the source image 104 To do. This process is called a video recording process. The source video 104 is a video corresponding to one frame.

映像合成用情報106は複数の映像101〜103を一枚の映像に合成するための情報であり、この映像合成用情報106を用いた映像の合成処理については図3を参照して後述する。   The video composition information 106 is information for combining a plurality of videos 101 to 103 into a single video, and a video composition process using the video composition information 106 will be described later with reference to FIG.

映像表示用情報107は、合成した映像を出力する時刻並びに表示画面の解像度を設定するための情報を有する。   The video display information 107 includes information for setting the time for outputting the synthesized video and the resolution of the display screen.

ソース映像104をエンコードした、エンコード済みソース映像のデータに対して、上記映像復元用情報105と、映像合成用情報106と、映像表示用情報107を付与することで、映像ユニットデータ108を生成する。   Video unit data 108 is generated by adding the video restoration information 105, video composition information 106, and video display information 107 to the encoded source video data obtained by encoding the source video 104. .

この映像ユニットデータ108の集合109を情報記憶媒体110へ記録する。この情報記憶媒体110に記録された映像ユニットデータの集合109は、複数種の映像を互いに重なりの無いように1枚の映像に座標配置して生成されたエンコード済み複数映像の映像ストリームである。なお、ここでは情報記憶媒体110として光メディアを例に挙げているが、本発明が想定する情報記憶媒体はこの限りではない。   The set 109 of the video unit data 108 is recorded on the information storage medium 110. A set 109 of video unit data recorded in the information storage medium 110 is a video stream of encoded multiple videos generated by coordinately arranging a plurality of types of videos on one video so as not to overlap each other. Here, an optical medium is taken as an example of the information storage medium 110, but the information storage medium assumed by the present invention is not limited to this.

上記した複数映像記録処理の一連の手順については図8を参照して後述する。本発明に於ける複数映像記録方法は、上記した処理の流れに於いて上記映像記録処理と映像ユニットデータの生成処理を行なうことを特徴とする。   A series of procedures of the above-described multiple video recording process will be described later with reference to FIG. The multiple video recording method according to the present invention is characterized in that the video recording process and the video unit data generation process are performed in the processing flow described above.

上記実施形態に係る映像機器は、図2に示すような複数映像の再生手段を実現している。この再生手段は、上記映像ストリームの1構成要素となる映像ユニットデータ(A)をデコードしてソース映像(B)を生成する処理手段(S21)と、上記デコードしたソース映像(B)から、上記映像ユニットデータ(A)に含まれる映像復元用情報を参照して、複数の映像203〜205を切り出して復元する処理手段(S22)とを有する。   The video equipment according to the above embodiment realizes a plurality of video playback means as shown in FIG. The reproduction means decodes the video unit data (A), which is one component of the video stream, to generate a source video (B), and from the decoded source video (B), the processing means (S21) Processing means (S22) for cutting out and restoring the plurality of videos 203 to 205 with reference to the video restoration information included in the video unit data (A).

上記図1に示す情報記憶媒体110から読み込んだ映像ユニットデータ201をデコードすることによって、ソース映像202を生成する。   The source video 202 is generated by decoding the video unit data 201 read from the information storage medium 110 shown in FIG.

デコードされた映像ユニットデータ201に含まれる映像復元用情報を参照しながら、ソース映像202から複数の映像203〜205を復元する。   A plurality of videos 203 to 205 are restored from the source video 202 while referring to the video restoration information included in the decoded video unit data 201.

復元した映像のうち、表示画面全体に表示する映像を主映像と呼び、主映像の上に重ねて表示する映像を二次映像と呼ぶ。また、二次映像に対してマスク処理(透過処理)を行なうための映像をマスクと呼ぶ。ただし、本発明が想定する映像の透過処理はマスク処理だけではない。上記した複数映像再生処理の一連の手順については図9を参照して後述する。   Of the restored video, the video displayed on the entire display screen is called a main video, and the video displayed on the main video is called a secondary video. An image for performing mask processing (transmission processing) on the secondary image is called a mask. However, the image transmission process assumed by the present invention is not limited to the mask process. A series of procedures of the above-described multiple video reproduction process will be described later with reference to FIG.

本発明の実施形態に係る映像機器は、図3に示すような複数映像の合成手段を実現している。この合成手段は、主映像(A)に対して回転、座標の配置を行う処理手段(S31a)と、二次映像(B)に対してマスク(C)処理を行う処理手段(S31b)、およびこのマスク済み二次画像(E)に対して回転、座標の配置を行う処理手段(S32b)と、上記回転、座標配置を行った主映像(D)と二次映像(F)を合成して合成映像(G)を生成する処理手段(S33)とを有する。   The video equipment according to the embodiment of the present invention realizes a plurality of video synthesizing means as shown in FIG. The synthesizing unit includes a processing unit (S31a) that performs rotation and arrangement of coordinates on the main video (A), a processing unit (S31b) that performs mask (C) processing on the secondary video (B), and A processing means (S32b) that performs rotation and coordinate arrangement on the masked secondary image (E), and a main video (D) and secondary video (F) that have undergone the rotation and coordinate arrangement are synthesized. And processing means (S33) for generating a composite video (G).

複数映像の合成とは、複数の映像に対して回転処理、透過処理を行い、重なりを許して座標配置処理を行なって一枚の映像にまとめることをいう。主映像プレーン301は、主映像を描画するための映像プレーンである。二次映像プレーン302は、マスク処理された二次映像を描画するための映像プレーンである。   The composition of a plurality of images refers to performing rotation processing and transmission processing on a plurality of images, and performing coordinate arrangement processing with allowance for overlapping, and combining them into one image. The main video plane 301 is a video plane for drawing the main video. The secondary video plane 302 is a video plane for drawing the masked secondary video.

映像合成用情報を参照しながら、主映像303を回転して主映像プレーン301へ描画する。また、二次映像304に対してマスク305を用いてマスク処理を行い、マスク処理済二次映像306を生成する。さらに、マスク処理済二次映像306を回転し、二次映像プレーン302上へ座標配置して描画する。主映像プレーン301と二次映像プレーン302を重ね合わせることで合成映像307を生成する。   The main video 303 is rotated and drawn on the main video plane 301 while referring to the video composition information. Further, the secondary image 304 is masked using the mask 305 to generate a masked secondary image 306. Further, the masked secondary image 306 is rotated, and the coordinates are arranged on the secondary image plane 302 and drawn. A composite video 307 is generated by superimposing the main video plane 301 and the secondary video plane 302.

上記2つの映像プレーンの層構造は図4に示される。主映像プレーン401の上に二次映像プレーン402が重なっている。   The layer structure of the two video planes is shown in FIG. A secondary video plane 402 overlaps the main video plane 401.

上記した複数映像の合成・復元処理の一連の手順については図10を参照して後述する。本発明に於ける複数映像再生方法は、この処理の流れにおいて上記した映像復元処理と映像合成処理を行なうことを特徴とする。   A series of procedures for the above-described synthesis / restoration processing of a plurality of videos will be described later with reference to FIG. The multiple video playback method according to the present invention is characterized in that the above-described video restoration processing and video synthesis processing are performed in the flow of this processing.

ここで、上記した映像ユニットデータのデータ構造を図5を用いて説明する。   Here, the data structure of the video unit data will be described with reference to FIG.

映像ユニットデータ501は映像ユニットデータ生成処理(図1に示す処理手段(S12)の映像ユニットデータ生成処理(C)参照)に於いて生成されるデータである。ヘッダ情報502は、映像の再生に関連するパラメータが設定されている。合成映像表示時刻503には、合成映像を画面に表示する時刻が設定される。主映像ID番号504には、初期状態で主映像とする映像の映像ID番号(後述する)が設定される。主映像矩形505には主映像ID番号で指定された映像の矩形が設定される。これは、画面に表示する映像の解像度の設定に使用される。総映像数506には、ソース映像に含まれる映像の総数が記述される。   The video unit data 501 is data generated in the video unit data generation process (see the video unit data generation process (C) of the processing means (S12) shown in FIG. 1). In the header information 502, parameters related to video reproduction are set. In the composite video display time 503, a time for displaying the composite video on the screen is set. In the main video ID number 504, a video ID number (to be described later) of a video that is the main video in the initial state is set. In the main video rectangle 505, a video rectangle designated by the main video ID number is set. This is used to set the resolution of the video displayed on the screen. The total number of videos 506 describes the total number of videos included in the source video.

映像情報507はN個の映像情報(映像情報#1〜N)508,…で構成されている。ただし、Nはソース映像に記録した映像の最大数を指す。一つの映像情報(#n)508のデータ構造については図6を用いて後述する。   The video information 507 is composed of N pieces of video information (video information # 1 to N) 508,. N represents the maximum number of videos recorded in the source video. The data structure of one video information (#n) 508 will be described later with reference to FIG.

マスク情報509はM個のマスク情報(マスク情報#1〜M)510,…から構成されている。ただし、Mはソース映像に記録したマスクの最大数を指す。一つのマスク情報(#k)510のデータ構造については図7を用いて後述する。   The mask information 509 is composed of M pieces of mask information (mask information # 1 to M) 510,. Here, M indicates the maximum number of masks recorded in the source video. The data structure of one mask information (#k) 510 will be described later with reference to FIG.

エンコード済みソース映像511とは、複数映像を記録したソース映像を任意の符号化手法を用いてエンコードしたデータを指す。   The encoded source video 511 indicates data obtained by encoding a source video in which a plurality of videos are recorded using an arbitrary encoding method.

映像情報(#n)508のデータ構造を図6を用いて説明する。   The data structure of the video information (#n) 508 will be described with reference to FIG.

映像ID番号601は、ソース映像に記録した映像1つ1つに割り振られる固有のID番号である。
映像復元情報602は、ソース映像から映像を復元するために必要な情報である。
映像切り抜き元座標603には、ソース映像上の映像の座標が格納される。そのX座標は切り抜き元X座標604へ格納され、Y座標は切り抜き元Y座標605へ格納される。
The video ID number 601 is a unique ID number assigned to each video recorded in the source video.
The video restoration information 602 is information necessary for restoring a video from the source video.
In the video cut-out source coordinates 603, the coordinates of the video on the source video are stored. The X coordinate is stored in the clipping source X coordinate 604, and the Y coordinate is stored in the clipping source Y coordinate 605.

映像矩形606には、ソース映像上に記録されている映像の矩形が格納される。ただし、映像が回転して配置されている場合は回転後の矩形が格納される。映像の高さ情報は映像の高さ607へ格納され、映像の幅情報は映像の幅608へ格納される。   The video rectangle 606 stores a video rectangle recorded on the source video. However, when the video is rotated and arranged, the rotated rectangle is stored. The video height information is stored in the video height 607, and the video width information is stored in the video width 608.

映像合成情報609は、ソース映像から復元した映像に対して合成処理を行なうために必要な情報である。   Video composition information 609 is information necessary for performing composition processing on a video restored from the source video.

映像回転角度610には、ソース映像へ映像を記録する時の回転角度情報が格納される。   The video rotation angle 610 stores rotation angle information when recording video on the source video.

映像配置先座標611には、映像を合成映像上へ配置するための座標が格納される。配置先のX座標は612 配置先X座標に格納され、Y座標は613 配置先Y座標へ格納される。   The video arrangement destination coordinates 611 store coordinates for arranging the video on the synthesized video. The X coordinate of the placement destination is stored in the 612 placement destination X coordinate, and the Y coordinate is stored in the 613 placement destination Y coordinate.

表示ON/OFFフラグ614は映像を合成するかどうかを設定するフラグであり、値が真(True)の場合は映像に対して合成処理を行い、偽(False)の場合は合成処理を行なわない。   The display ON / OFF flag 614 is a flag for setting whether or not to synthesize a video. When the value is true (True), the video is synthesized, and when it is false (false), the synthesis is not performed. .

マスク適用フラグ615は、映像#nに対してマスク処理を行なうかどうかを設定するフラグである。Trueである場合は映像に対してマスク処理を行ない、Falseの場合はマスク処理を行なわない。   The mask application flag 615 is a flag for setting whether or not to perform mask processing on the video #n. In the case of True, mask processing is performed on the video, and in the case of False, mask processing is not performed.

適用マスクID番号616には、映像に適用するマスクのマスクID番号(後述する)が格納される。   The applied mask ID number 616 stores a mask ID number (described later) of a mask to be applied to the video.

マスク情報#n510のデータ構造を図7を用いて説明する。
マスクID番号701は、1つ1つのマスク固有のID番号である。
マスク切り抜き元座標702にはソース映像上のマスクの座標が格納される。そのX座標は切り抜き元X座標703へ格納され、Y座標は切り抜き元Y座標704へ格納される。
The data structure of mask information #n 510 will be described with reference to FIG.
The mask ID number 701 is an ID number unique to each mask.
The mask cut-out source coordinates 702 store the coordinates of the mask on the source video. The X coordinate is stored in the clipping source X coordinate 703, and the Y coordinate is stored in the clipping source Y coordinate 704.

マスク矩形705はソース映像上に記録されているマスクの矩形が格納される。ただし、マスクが回転して配置されている場合は回転後の矩形が格納される。マスクの高さ情報はマスクの高さ706へ格納され、マスクの幅情報はマスクの幅707へ格納される。   A mask rectangle 705 stores a mask rectangle recorded on the source video. However, when the mask is rotated and arranged, the rotated rectangle is stored. The mask height information is stored in the mask height 706, and the mask width information is stored in the mask width 707.

マスク回転角度708には、ソース映像へマスクを記録したときの回転角度が格納される。   The mask rotation angle 708 stores the rotation angle when the mask is recorded on the source video.

ここで、本発明の実施形態に於ける複数映像の記録・再生の処理の流れを図8を用いて説明する。   Here, a flow of processing for recording / reproducing a plurality of videos in the embodiment of the present invention will be described with reference to FIG.

図8は本発明の実施形態に於ける複数映像の記録処理の流れを示す。   FIG. 8 shows a flow of a recording process of a plurality of videos in the embodiment of the present invention.

複数映像記録処理(ステップ801)に於いては、1フレーム分のN枚の映像とM枚のマスクを1枚の映像上へ重なりが無いように配置し、ソース映像を生成する。また、それと同時にN枚の映像分の映像復元情報とM枚のマスク分のマスク復元情報を生成する。この複数映像記録処理を完了すると、映像のエンコード処理(ステップ802)へ遷移する。   In the multiple image recording process (step 801), N images for one frame and M masks are arranged on one image so as not to overlap, and a source image is generated. At the same time, image restoration information for N images and mask restoration information for M masks are generated. When this multiple video recording process is completed, the process proceeds to a video encoding process (step 802).

映像のエンコード処理(ステップ802)に於いては、上記した複数映像記録処理(ステップ801)で生成したソース映像を任意の符号化形式でエンコードし、エンコード済みソース映像を生成する。このエンコード済みソース映像の生成処理を完了すると、映像合成情報、マスク情報生成処理(ステップ803)へ遷移する。   In the video encoding process (step 802), the source video generated in the multiple video recording process (step 801) is encoded in an arbitrary encoding format to generate an encoded source video. When the generation process of the encoded source video is completed, the process proceeds to the video composition information / mask information generation process (step 803).

映像合成情報、マスク情報生成処理(ステップ803)に於いては、複数映像を1枚の映像へ合成するための映像合成情報と、映像に透過処理を行なうために必要なマスク合成情報を生成する。このマスク情報生成処理を終了すると、映像ユニットデータ生成処理(ステップ804)の処理へ遷移する。   In the video synthesis information and mask information generation process (step 803), video synthesis information for synthesizing a plurality of videos into one video and mask synthesis information necessary for performing transmission processing on the video are generated. . When this mask information generation process ends, the process proceeds to the video unit data generation process (step 804).

映像ユニットデータ生成処理(ステップ804)に於いては、ヘッダ情報を生成する。また映像復元情報と映像合成情報から映像情報#1〜Nを生成し、それらの集合から映像情報を生成する。さらにマスク復元情報とマスク合成情報からマスク情報#1〜Mを生成し、それらの集合からマスク情報を生成する。ヘッダ情報と、映像情報と、マスク情報と、エンコード済みソース映像を束ねることによって映像ユニットデータを生成する。この映像ユニットデータ生成処理を完了すると全フレームの記録処理終了を確認する条件分岐(ステップ805)へ遷移する。   In the video unit data generation process (step 804), header information is generated. Also, video information # 1 to N is generated from the video restoration information and the video composition information, and video information is generated from the set thereof. Further, mask information # 1 to M is generated from the mask restoration information and the mask synthesis information, and mask information is generated from the set. Video unit data is generated by bundling header information, video information, mask information, and encoded source video. When this video unit data generation process is completed, the process proceeds to a conditional branch (step 805) for confirming the end of the recording process for all frames.

この条件分岐(ステップ805)に於いて、全てのフレームの記録処理が終わったことを確認したならば映像記録処理を終了する。また全てのフレームの記録処理が終わっていなければ複数映像記録処理(ステップ801)へ遷移して上記した処理を繰り返し実行する。   In this conditional branch (step 805), if it is confirmed that the recording process for all the frames has been completed, the video recording process is terminated. If the recording process for all the frames has not been completed, the process proceeds to the multiple video recording process (step 801) and the above-described process is repeatedly executed.

以上の処理により、複数の映像ストリームを1つの映像ストリームに格納することができる。上記した一連の複数映像記録処理は、上記図8に示す処理ルーチンをもつプログラムを、例えば後述する複数映像の再生処理装置のプログラムメモリ部に格納して、MPUにより処理することで、複数映像の記録・再生装置が実現される。または上記図8に示す処理ルーチンをもつプログラムをパーソナルコンピュータに例えばグラフィック編集ツールとして格納することにより、動画像、メニューボタン、字幕などの複数映像をユーザが任意に操作して意図した映像ストリームを効率よく作成し記録することができる。   Through the above processing, a plurality of video streams can be stored in one video stream. In the series of multiple video recording processes described above, a program having the processing routine shown in FIG. 8 is stored in, for example, a program memory unit of a multiple video playback processing apparatus described later, and processed by the MPU, whereby multiple videos are recorded. A recording / reproducing apparatus is realized. Alternatively, by storing a program having the processing routine shown in FIG. 8 in the personal computer as, for example, a graphic editing tool, a user can arbitrarily operate a plurality of videos such as moving images, menu buttons, subtitles, etc. Can be well created and recorded.

つぎに複数映像を再生する処理の流れを、図9のフローチャートを用いて説明する。
映像ユニットデータ取得処理(ステップ901)に於いては、映像ユニットデータを読み込み、ヘッダ情報、映像情報、マスク情報、エンコード済みソース映像を取得する。この映像ユニットデータ取得処理を完了すると、映像プレーン生成処理(ステップ902)へ遷移する。
Next, the flow of processing for reproducing a plurality of videos will be described with reference to the flowchart of FIG.
In the video unit data acquisition process (step 901), video unit data is read, and header information, video information, mask information, and encoded source video are acquired. When this video unit data acquisition process is completed, the process proceeds to a video plane generation process (step 902).

映像プレーン生成処理(ステップ902)に於いては、ヘッダ情報の主映像矩形に従って、主映像プレーン、二次映像プレーン、マスクプレーンを生成する。この映像プレーン生成処理を終了すると、デコード処理(ステップ903)へ遷移する。   In the video plane generation process (step 902), a main video plane, a secondary video plane, and a mask plane are generated according to the main video rectangle of the header information. When this video plane generation process ends, the process proceeds to a decoding process (step 903).

デコード処理(ステップ903)に於いては、エンコード済みソース映像データをデコードし、ソース映像を取得する。このデコード処理を終了すると、複数映像復元・合成処理(ステップ904)へ遷移する。   In the decoding process (step 903), the encoded source video data is decoded and the source video is acquired. When this decoding process ends, the process proceeds to a multiple video restoration / combination process (step 904).

複数映像復元・合成処理(ステップ904)に於いては、映像復元情報を参照してソース映像から複数の映像・マスクを復元する。復元した映像・マスクに対して映像合成情報を参照して回転・座標配置処理を行い、主映像、二次映像、マスクをそれぞれ生成する。さらに、二次映像に対してマスクを用いてマスク処理を行いマスク処理済二次映像を生成する。そして生成した主映像とマスク処理済二次映像を合成し、合成映像を生成する。   In the multiple video restoration / combination process (step 904), the multiple videos / masks are restored from the source video with reference to the video restoration information. The restored image / mask is rotated / coordinated with reference to the image composition information to generate a main image, a secondary image, and a mask, respectively. Further, the secondary image is masked using a mask to generate a masked secondary image. Then, the generated main image and the masked secondary image are combined to generate a combined image.

この複数映像の復元・合成処理の詳細は図10のフローチャートを用いて後述する。この複数映像の復元・合成処理が完了すると、合成映像出力処理(ステップ905)へ遷移する。   Details of the multiple image restoration / combination processing will be described later with reference to the flowchart of FIG. When the restoration / combination process of the plurality of videos is completed, the process proceeds to a synthesized video output process (step 905).

合成映像出力処理(ステップ905)に於いては、複数映像復元・合成処理(ステップ904)に於いて生成された合成映像を、映像ユニットデータのヘッダ情報に含まれる合成映像表示時刻に合わせて映像表示機器へ出力する。この合成映像出力処理を完了すると、最終フレームの表示処理が終了したことを確認する条件分岐(ステップ906)へ遷移する。   In the composite video output process (step 905), the composite video generated in the multiple video restoration / combination process (step 904) is converted into a video in accordance with the composite video display time included in the header information of the video unit data. Output to the display device. When this composite video output process is completed, the process proceeds to a conditional branch (step 906) for confirming that the final frame display process has been completed.

この条件分岐(ステップ906)に於いて、映像が最終フレームまで表示されたかどうかを判断し、最終フレームまで表示されたならば処理を終了する。また、最終フレームの表示に至っていない場合は映像ユニットデータ取得処理(ステップ901)に遷移して上記した処理を繰り返し実行する。   In this conditional branch (step 906), it is determined whether or not the video has been displayed up to the final frame. If the video has been displayed up to the final frame, the process is terminated. If the final frame has not been displayed, the process proceeds to the video unit data acquisition process (step 901) and the above process is repeatedly executed.

以上の処理により、一映像分のデータストリームから複数の映像を再生することができる。   With the above processing, a plurality of videos can be reproduced from the data stream for one video.

ここで、上記図9に於ける複数映像復元・合成処理(ステップ904)の流れを図10のフローチャートを用いて説明する。   Here, the flow of the multiple video restoration / combination process (step 904) in FIG. 9 will be described with reference to the flowchart of FIG.

映像復元ループ(ステップ1001)は、映像を復元し、主映像プレーンと二次映像プレーンへ配置するループである。一回ループするごとに映像情報取得用カウンタiを1だけ増やし、全ての映像情報について処理を行なう。   The video restoration loop (step 1001) is a loop that restores a video and arranges it on the main video plane and the secondary video plane. Every time a loop is made, the video information acquisition counter i is incremented by 1, and all video information is processed.

映像情報#iの取得(ステップ1002)に於いては、映像ユニットデータに含まれる映像情報#iを取得する。処理を完了すると条件分岐(ステップ1003)へ遷移する。   In the acquisition of the video information #i (step 1002), the video information #i included in the video unit data is acquired. When the process is completed, the process proceeds to a conditional branch (step 1003).

この条件分岐(ステップ1003)に於いては、映像合成情報に含まれる、表示ON/OFFフラグを判定し、Trueならば映像の切り抜き(ステップ1004)へ遷移し、Falseであればループ端(ステップ1013)へ遷移する。   In this conditional branch (step 1003), the display ON / OFF flag included in the video composition information is determined, and if it is True, the transition is made to video clipping (step 1004), and if it is False, the loop end (step 100). 1013).

上記映像切切り抜き(ステップ1004)に於いては、映像復元情報(602)の映像切抜き元座標(603)と映像矩形(606)に従って映像を切り抜く。処理を完了すると条件分岐(ステップ1005)へ遷移する。   In the video cutout (step 1004), the video is cut out according to the video cutout source coordinates (603) and the video rectangle (606) of the video restoration information (602). When the process is completed, the process proceeds to a conditional branch (step 1005).

この条件分岐(ステップ1005)に於いては、ヘッダ情報(502)に含まれる主映像ID番号(504)と、映像情報#i(508)に含まれる映像ID番号(701)を比較し、一致していたら主映像の回転・座標配置(ステップ1006)へ遷移する。一致しなければ二次映像の回転(ステップ1007)へ遷移する。   In this conditional branch (step 1005), the main video ID number (504) included in the header information (502) is compared with the video ID number (701) included in the video information #i (508). If so, the process proceeds to rotation / coordinate arrangement (step 1006) of the main video. If they do not match, the process proceeds to the rotation of the secondary video (step 1007).

主映像の回転・座標配置(ステップ1006)に於いては、映像合成情報(609)を参照して、主映像を回転し、主映像プレーン上へ配置する。この処理を完了するとループ端(ステップ1013)へ遷移する。   In the rotation / coordinate arrangement (step 1006) of the main image, the main image is rotated and arranged on the main image plane with reference to the image composition information (609). When this process is completed, the process proceeds to the loop end (step 1013).

上記二次映像の回転(ステップ1007)に於いては、映像切り抜き(ステップ1004)に於いて切り抜いた二次映像を映像合成情報を参照しながら回転する。この処理を完了すると条件分岐(ステップ1008)へ遷移する。   In the rotation of the secondary video (step 1007), the secondary video clipped in the video clipping (step 1004) is rotated while referring to the video composition information. When this process is completed, a transition is made to a conditional branch (step 1008).

この条件分岐(ステップ1008)に於いては、映像合成情報に含まれるマスク適用フラグを参照し、Trueであればマスク切抜き(ステップ1009)へ遷移する。Falseであれば二次映像の座標配置(ステップ1012)へ遷移する。   In this conditional branch (step 1008), the mask application flag included in the video composition information is referred to. If True, the process proceeds to mask clipping (step 1009). If it is False, transition is made to the secondary video coordinate arrangement (step 1012).

マスク切り抜き(ステップ1009)に於いては、映像合成情報(609)の適用マスクID番号(616)と一致するマスクID番号を持つマスク情報を取得する。さらに映像復元情報(602)を参照してソース映像からマスクを切り抜く。この処理を完了するとマスク二値化処理(ステップ1010)へ遷移する。 In mask clipping (step 1009), mask information having a mask ID number that matches the applicable mask ID number (616) of the video composition information (609) is acquired. Further, the mask is cut out from the source video with reference to the video restoration information (602). When this processing is completed, the process proceeds to mask binarization processing (step 1010).

このマスク二値化処理(ステップ1010)に於いては、上記マスク切り抜き(ステップ1009)で取得したマスクを二値化し、二値化済みマスクを生成する。この処理を完了するとマスク処理(ステップ1011)へ遷移する。   In this mask binarization process (step 1010), the mask obtained by the mask clipping (step 1009) is binarized to generate a binarized mask. When this processing is completed, the process proceeds to mask processing (step 1011).

このマスク処理(ステップ1011)に於いては、映像合成情報(609)を参照してマスク二値化処理(ステップ1010)に於いて二値化した二値化済みマスクを回転する。さらに回転後の映像に対して回転後の二値化済みマスクを用いてマスク処理を行い、マスク処理済み二次映像を生成する。この処理を完了すると二次映像の座標配置(ステップ1012)へ遷移する。   In this mask process (step 1011), the binarized mask binarized in the mask binarization process (step 1010) with reference to the video composition information (609) is rotated. Further, a masked secondary image is generated by performing a mask process on the rotated image using the rotated binarized mask. When this process is completed, the transition is made to the coordinate arrangement of the secondary video (step 1012).

この二次映像の座標配置(ステップ1012)に於いては、映像合成情報(609)を参照してマスク処理済二次映像を二次映像プレーンへ配置する。この処理を完了すると再生処理ループ端(ステップ1013)へ遷移する。   In the coordinate arrangement of the secondary video (step 1012), the masked secondary video is arranged on the secondary video plane with reference to the video composition information (609). When this process is completed, the process proceeds to the playback process loop end (step 1013).

このループ端(ステップ1013)に於いては、ヘッダ情報(502)の総映像数(506)と映像情報取得用カウンタiを比較し、総映像数が大きければカウンタiに1を足してループ開始端(ステップ1001)へ遷移する。そうでなければループを終了し、映像プレーン合成処理(ステップ1014)へ遷移する。   At this loop end (step 1013), the total number of videos (506) in the header information (502) is compared with the video information acquisition counter i. If the total number of videos is large, the counter i is incremented by 1 and the loop starts. Transition to the end (step 1001). Otherwise, the loop is terminated and the process proceeds to the video plane synthesis process (step 1014).

映像プレーン合成処理(ステップ1014)に於いては、主映像プレーンと二次映像プレーンを重ね合わせ、合成映像を生成する。この処理を完了すると、複数映像の復元・合成処理を終了する。   In the video plane synthesis process (step 1014), the main video plane and the secondary video plane are superimposed to generate a synthesized video. When this process is completed, the restoration / combination process for a plurality of videos ends.

以上の処理により一フレーム分の合成映像の生成が完了する。   With the above processing, generation of a composite image for one frame is completed.

ここで、本発明の実施形態に於ける複数映像の再生処理装置について説明する。   Here, a reproduction processing apparatus for a plurality of videos in the embodiment of the present invention will be described.

複数映像の再生処理装置のシステム構成について図11を用いて説明する。   The system configuration of the multiple video playback processing apparatus will be described with reference to FIG.

MPU部1101は本発明の実施形態に係る再生処理装置に於ける演算処理を行なう処理部である。メモリ部1102は、MPU部1101が処理を行なうプログラムを展開するための装置である。ROM部1103には本発明の実施形態に係る再生処理装置起動用プログラムが保存されている。このプログラムは本発明の実施形態に係る再生処理装置の電源投入直後にメモリ部1102へ読み込まれる。バスブリッジ1104はバスに流れるデータを制御する装置である。   The MPU unit 1101 is a processing unit that performs arithmetic processing in the reproduction processing apparatus according to the embodiment of the present invention. The memory unit 1102 is a device for developing a program that the MPU unit 1101 performs processing. The ROM unit 1103 stores a reproduction processing apparatus activation program according to the embodiment of the present invention. This program is read into the memory unit 1102 immediately after the playback processing apparatus according to the embodiment of the present invention is turned on. The bus bridge 1104 is a device that controls data flowing on the bus.

光ディスク1105と、HDD1106と、フラッシュメモリ(Flash Memory)1111と、ネットワークストレージ1107はそれぞれ情報記録媒体である。ただし本発明が想定する情報記録媒体はこれに限定されない。   The optical disk 1105, the HDD 1106, the flash memory 1111 and the network storage 1107 are information recording media. However, the information recording medium assumed by the present invention is not limited to this.

データプロセッサ部1109は各モジュールから入力された映像ストリームを映像デコーダ部1115へ入力する。   The data processor unit 1109 inputs the video stream input from each module to the video decoder unit 1115.

ディスクドライブ部1110は光ディスク1105から映像ストリームを読み込み、データプロセッサ部1109へ映像ストリームを供給する装置である。   The disk drive unit 1110 is a device that reads a video stream from the optical disk 1105 and supplies the video stream to the data processor unit 1109.

Flash Memory1111は映像ストリームをデータプロセッサ部1109へ供給する記憶媒体である。HDD1106は映像ストリームをデータプロセッサ部1109へ供給する装置である。   A flash memory 1111 is a storage medium that supplies a video stream to the data processor unit 1109. The HDD 1106 is a device that supplies a video stream to the data processor unit 1109.

ネットワークコントローラ1112はネットワークから映像ストリームを読み込み、データプロセッサ部1109へ映像ストリームを供給する装置である。   The network controller 1112 is a device that reads a video stream from the network and supplies the video stream to the data processor unit 1109.

映像デコーダ部1113は、入力された映像ストリームをデコードして映像を生成し、映像復元・合成処理部1114へ出力する。   The video decoder unit 1113 decodes the input video stream to generate a video, and outputs the video to the video restoration / combination processing unit 1114.

映像復元・合成処理部1114は、ビデオメモリ部1115から映像を読み込み、その映像から複数の映像を復元する。さらに、復元した複数の映像を1枚の映像へ合成してビデオプロセッサ部1116へ出力する。映像復元・合成処理部1114の内部構成は図12を用いて後述する。   The video restoration / combination processing unit 1114 reads a video from the video memory unit 1115 and restores a plurality of videos from the video. Further, the restored plurality of videos are combined into one video and output to the video processor unit 1116. The internal configuration of the video restoration / combination processing unit 1114 will be described later with reference to FIG.

ビデオプロセッサ部1116は、入力された映像を、映像表示機器の画面に表示させる。外部入力信号処理部1117はユーザからのリモコン入力信号を受信し、その信号をUI(User Interface)処理部1118へ入力する。   The video processor unit 1116 displays the input video on the screen of the video display device. The external input signal processing unit 1117 receives a remote control input signal from the user and inputs the signal to a UI (User Interface) processing unit 1118.

UI処理部1118は外部入力信号処理部1117からの入力を解釈し、ユーザイベントを映像復元・合成処理部1114へ入力する。表示パネル1119は再生時間や装置の状態などのさまざまな情報を表示させる。   The UI processing unit 1118 interprets the input from the external input signal processing unit 1117 and inputs a user event to the video restoration / combination processing unit 1114. A display panel 1119 displays various information such as a reproduction time and a device state.

上記図11に於ける映像復元・合成処理部1114のモジュール構成を図12を用いて説明する。   The module configuration of the video restoration / combination processing unit 1114 in FIG. 11 will be described with reference to FIG.

映像関連情報解析部1201に於いては、映像デコーダ部1113から入力されたヘッダ情報、映像情報、マスク情報を解析し、その解析結果を後述するモジュール1202〜1212へ提供する。   The video related information analysis unit 1201 analyzes header information, video information, and mask information input from the video decoder unit 1113 and provides the analysis results to modules 1202 to 1212 described later.

映像切り分け部1202は、映像情報の映像復元情報を参照してソース映像から映像を復元する処理と、マスク情報を参照してソース映像からマスク復元する処理を行なう。さらに、主映像を主映像回転・座標配置部1203へ出力し、二次映像を二次映像回転部1204へ出力し、マスクをマスク二値化部1205へ出力する。   The video segmentation unit 1202 performs a process of restoring the video from the source video with reference to the video restoration information of the video information and a process of restoring the mask from the source video with reference to the mask information. Further, the main video is output to the main video rotation / coordinate arrangement unit 1203, the secondary video is output to the secondary video rotation unit 1204, and the mask is output to the mask binarization unit 1205.

主映像回転・座標配置処理部1203は、映像合成情報を参照して主映像を回転し、その結果を主映像プレーンへ配置する。主映像プレーンに描画されたデータは主映像プレーンバッファ1206へ蓄えられる。   The main image rotation / coordinate arrangement processing unit 1203 rotates the main image with reference to the image composition information, and arranges the result on the main image plane. Data drawn on the main video plane is stored in the main video plane buffer 1206.

二次映像回転部1204は、映像合成情報を参照して二次映像を回転し、その結果を二次映像一時バッファ1207へ蓄える。   The secondary video rotation unit 1204 rotates the secondary video with reference to the video composition information and stores the result in the secondary video temporary buffer 1207.

マスク二値化処理部1205は、入力されたマスクを二値化し、二値化済みマスクを二値化済みマスクバッファ1208へ蓄える。   The mask binarization processing unit 1205 binarizes the input mask and stores the binarized mask in the binarized mask buffer 1208.

マスク回転処理部1209は、二値化済みマスクバッファ1208に蓄えられている二値化済みマスクをマスク情報に従って回転し、マスクバッファ1210へ蓄える。   The mask rotation processing unit 1209 rotates the binarized mask stored in the binarized mask buffer 1208 according to the mask information, and stores it in the mask buffer 1210.

マスク処理部1211は、入力されたマスクプレーンを用いて二次映像プレーンへマスク処理を行ない、マスク処理済二次映像を生成する。さらに、映像情報を参照して二次映像を回転し、二次映像プレーン上へ座標配置する。二次映像上に描画されたデータは二次映像プレーンバッファ1212に蓄えられる。   The mask processing unit 1211 performs mask processing on the secondary video plane using the input mask plane, and generates a masked secondary video. Further, the secondary video is rotated with reference to the video information, and the coordinates are arranged on the secondary video plane. Data drawn on the secondary video is stored in the secondary video plane buffer 1212.

ミキサー1213は、主映像プレーンバッファ1206に蓄えられている主映像プレーンと、二次映像プレーンバッファ1212に蓄えられている二次映像プレーンを合成し、合成映像を出力する。   The mixer 1213 synthesizes the main video plane stored in the main video plane buffer 1206 and the secondary video plane stored in the secondary video plane buffer 1212 and outputs a composite video.

上記した複数映像の再生処理装置により、ユーザは入力装置を用いて映像を操作することができる。ユーザが実施することができる映像操作と、映像再生処理装置内部で行なわれる処理について図13に示す。ここでは、ユーザが実施する映像操作として、マルチアングル再生、動画(二次映像)の表示・非表示、ペアレンタルロック再生、動画(二次映像)のマスク処理オン/オフ、動画(二次映像)の形状変更、字幕(二次映像)の表示・非表示、字幕の言語選択、字幕(二次映像)のマスク処理オン/オフ、メニューの表示、メニューボタンの形状の変更等の映像操作を実現可能にしている。   With the above-described multiple video playback processing device, the user can operate the video using the input device. FIG. 13 shows video operations that can be performed by the user and processing performed in the video playback processing apparatus. Here, the video operations performed by the user include multi-angle playback, video (secondary video) display / non-display, parental lock playback, video (secondary video) masking on / off, video (secondary video) ) Shape change, subtitle (secondary video) display / hide, subtitle language selection, subtitle (secondary video) masking on / off, menu display, menu button shape change, etc. Make it feasible.

なお、上記した複数映像の再生処理装置に於いて、MPU部1101が実行するプログラムを格納するメモリ部1102に、上記図8乃至図10に示す処理ルーチンをもつプログラムを格納し、このプログラムをMPU部1101が実行することにより、上記した複数映像の再生処理にとどまらず、複数映像の記録処理を含めて実現可能であり、これにより複数種の映像を1枚の映像上に座標配置した映像ストリームの記録・再生システムが実現できる。   In the above-described multiple video playback processing apparatus, a program having the processing routines shown in FIGS. 8 to 10 is stored in the memory unit 1102 that stores a program executed by the MPU unit 1101, and this program is stored in the MPU unit 1102. When executed by the unit 1101, the video stream can be realized not only in the above-described multi-image playback process but also in the multi-video recording process, whereby a plurality of types of video are coordinate-arranged on a single video. Recording / playback system can be realized.

上述した本発明の実施形態によれば、1つの映像ストリームに複数の映像ストリームを格納することができる。この処理に於いて、複数の映像ストリームを読み込む必要がないため、データ読み込みのオーバーヘッドが少ない。また複数の映像を個別にデコードする場合に比べ、複数映像のフレーム同期を簡単にとることができる。これにより内部構成を簡素にした映像機器が実現できる。   According to the embodiment of the present invention described above, a plurality of video streams can be stored in one video stream. In this process, since it is not necessary to read a plurality of video streams, the overhead of data reading is small. In addition, frame synchronization of a plurality of videos can be easily achieved as compared with a case where a plurality of videos are individually decoded. As a result, a video device with a simplified internal configuration can be realized.

つぎに、上記した本発明の映像処理技術を実機構成に照らして実現した場合の本発明をより具現化した映像機器について説明する。ここでは、1080i/p(interlace/progressive)の解像度を持つソース映像へ配置する映像の解像度の組み合わせについて、その具体例を示す。   Next, a video apparatus that further embodies the present invention when the above-described video processing technique of the present invention is realized in light of the actual configuration will be described. Here, a specific example of a combination of video resolutions arranged in a source video having a resolution of 1080i / p (interlace / progressive) is shown.

1080i/pの解像度を持つソース映像へ、現行のテレビシステムで表示可能な解像度(720i/p、480i/p)の映像と、任意の解像度の二次映像を記録し、発明のポイントの複数映像再生処理装置で再生する事を考える。配置する映像の解像度の組み合わせと、同時に配置する二次映像の使用用途を図14に示す。ここでは解像度の組み合わせを4例(組み合わせ1〜4)について示している。   A source video having a resolution of 1080i / p is recorded with a video of a resolution (720i / p, 480i / p) that can be displayed on the current television system, and a secondary video of an arbitrary resolution. Consider playback on a playback processor. FIG. 14 shows combinations of resolutions of videos to be arranged and usage applications of secondary videos to be arranged at the same time. Here, four examples of combinations of resolutions (combinations 1 to 4) are shown.

組み合わせ1の映像のソース映像の例を図15に示し、合成映像の例を図16に示す。   An example of the source video of the combination 1 video is shown in FIG. 15, and an example of the composite video is shown in FIG.

図15に、組み合わせ1の場合のソース映像1301を示す。このソース映像1301には、720i/pの解像度を持つ主映像(動画)1302と、480i/pの解像度を持つ二次映像(動画)1303をもつ。さらにソース映像1301には、任意の解像度を持つ字幕映像1304、および当該字幕映像1304のマスク(字幕映像用のマスク)1305と、任意の解像度を持つボタン映像1306、および当該ボタン映像1306のマスク(ボタン映像用のマスク)1307をそれぞれ二次映像としてもつ。   FIG. 15 shows a source video 1301 in the case of the combination 1. The source video 1301 has a main video (moving image) 1302 having a resolution of 720 i / p and a secondary video (moving image) 1303 having a resolution of 480 i / p. Further, the source video 1301 includes a subtitle video 1304 having an arbitrary resolution, a mask of the subtitle video 1304 (mask for subtitle video) 1305, a button video 1306 having an arbitrary resolution, and a mask of the button video 1306 ( Button image mask) 1307 as secondary images.

図15に示した映像1302〜1307をもつソース映像1301に於ける、組み合わせ1の合成映像の一例を図16に示す。ここでは720i/pの解像度を持つ主映像(動画)上の左上端を基点に480i/pの解像度をもつ二次映像(動画)を配置し、さらに主映像に字幕、二次映像にボタンを配置した合成映像1401を例示している。   FIG. 16 shows an example of the combined video of the combination 1 in the source video 1301 having the videos 1302 to 1307 shown in FIG. Here, a secondary video (moving image) having a resolution of 480 i / p is arranged starting from the upper left corner of the main video (moving image) having a resolution of 720 i / p, and a subtitle is added to the main video and a button is added to the secondary video. An example of the arranged composite video 1401 is shown.

図17に、組み合わせ2の場合のソース映像1501を示す。このソース映像1501には、720i/pの解像度を持つ主映像(動画)1502と、任意の解像度をもつ字幕映像1503〜1505、およびこれら字幕映像1503〜1505のマスク(字幕映像用のマスク)1506〜1508をそれぞれ二次映像としてもつ。   FIG. 17 shows a source video 1501 in the case of the combination 2. The source video 1501 includes a main video (moving image) 1502 having a resolution of 720 i / p, subtitle videos 1503 to 1505 having an arbitrary resolution, and a mask (mask for subtitle video) 1506 of these subtitle videos 1503 to 1505. ˜1508 as secondary images.

図17に示した映像1502〜1508をもつソース映像1501に於ける、組み合わせ2の合成映像の一例を図18に示す。ここでは720i/pの解像度を持つ主映像(動画)上に複数の字幕を配置した合成映像1601を例示している。   FIG. 18 shows an example of the combined video of the combination 2 in the source video 1501 having the videos 1502 to 1508 shown in FIG. Here, a composite video 1601 in which a plurality of subtitles are arranged on a main video (moving image) having a resolution of 720 i / p is illustrated.

図19に、組み合わせ3の場合のソース映像1701を示す。このソース映像1701には、それぞれ480i/pの解像度をもつ4種の映像(動画1〜4)1702〜1705をもつ。図19に示した映像1702〜1705をもつソース映像1701に於ける、組み合わせ3の合成映像の一例を図20に示す。ここでは4つの映像1702〜1705を用いたマルチアングル再生の例を示している。   FIG. 19 shows a source video 1701 in the case of the combination 3. The source video 1701 has four types of videos (moving images 1 to 4) 1702 to 1705 each having a resolution of 480 i / p. FIG. 20 shows an example of a composite video of the combination 3 in the source video 1701 having the videos 1702 to 1705 shown in FIG. Here, an example of multi-angle playback using four videos 1702-1705 is shown.

図21に、組み合わせ4の場合のソース映像1901を示す。このソース映像1901には、それぞれ480i/pの解像度をもつ3種の映像(動画1〜3)1902〜1904と、任意の解像度をもつ字幕映像1905、および当該字幕映像1905のマスク(字幕映像用のマスク)1906と、2つのボタン映像1907,1908、および当該ボタン映像1907,1908のマスク(ボタン映像用のマスク)1909,1910とをもつ。図21に示した映像1902〜1910をもつソース映像1901に於ける、組み合わせ4の合成映像の一例を図22に示す。この例ではボタン映像に適用するマスクを動的に変えることができる。   FIG. 21 shows a source video 1901 in the case of the combination 4. The source video 1901 includes three types of videos (moving images 1 to 3) 1902 to 1904 each having a resolution of 480 i / p, a subtitle video 1905 having an arbitrary resolution, and a mask of the subtitle video 1905 (for subtitle video). ), Two button images 1907 and 1908, and masks (button image masks) 1909 and 1910 for the button images 1907 and 1908. FIG. 22 shows an example of the combined video of the combination 4 in the source video 1901 having the videos 1902 to 1910 shown in FIG. In this example, the mask applied to the button image can be dynamically changed.

本発明の実施形態に係る映像記録方法および映像機器の説明図。Explanatory drawing of the video recording method and video equipment which concern on embodiment of this invention. 上記実施形態に係る複数映像再生手段の説明図。Explanatory drawing of the several image | video reproduction | regeneration means which concerns on the said embodiment. 上記実施形態に係る複数映像合成手段の説明図。Explanatory drawing of the several image | video synthetic | combination means which concerns on the said embodiment. 上記実施形態に係る映像プレーンの層構造を示す図。The figure which shows the layer structure of the video plane which concerns on the said embodiment. 上記実施形態に係る映像ユニットデータのデータ構造を示す図。The figure which shows the data structure of the video unit data which concern on the said embodiment. 上記実施形態に係る映像情報のデータ構造を示す図。The figure which shows the data structure of the video information which concerns on the said embodiment. 上記実施形態に係るマスク情報のデータ構造を示す図。The figure which shows the data structure of the mask information which concerns on the said embodiment. 上記実施形態に係る複数映像記録処理の手順を示すフローチャート。The flowchart which shows the procedure of the several video recording process which concerns on the said embodiment. 上記実施形態に係る複数映像再生処理の手順を示すフローチャート。The flowchart which shows the procedure of the multi video reproduction | regeneration processing which concerns on the said embodiment. 上記実施形態に係る複数映像の合成・復元処理手順を示すフローチャート。The flowchart which shows the synthetic | combination / decompression | restoration process procedure of the several image | video which concerns on the said embodiment. 上記実施形態に係る複数映像再生処理装置の構成を示すブロック図。The block diagram which shows the structure of the several video reproduction | regeneration processing apparatus which concerns on the said embodiment. 上記図11に示す映像復元・合成処理部の構成を示すブロック図。The block diagram which shows the structure of the image | video restoration | reconstruction process part shown in the said FIG. 上記複数映像再生処理装置に於いてユーザが実施することができる映像操作と、装置内部で行なわれる処理を対応付けて示す図。The figure which matches and shows the video operation which a user can implement in the said multiple video reproduction processing apparatus, and the process performed inside an apparatus. 上記実施形態に係る複数映像の合成・復元処理に於ける映像の解像度の組み合わせ例を示す図。The figure which shows the example of a combination of the resolution of the image | video in the synthetic | combination / decompression | restoration process of the several image | video which concerns on the said embodiment. 上記図14に於ける組み合わせ1の場合のソース映像例を示す図。The figure which shows the example of a source image in the case of the combination 1 in the said FIG. 上記図15の合成映像例を示す図。The figure which shows the example of a synthetic | combination image | video of the said FIG. 上記図14に於ける組み合わせ2の場合のソース映像例を示す図。The figure which shows the example of a source image in the case of the combination 2 in the said FIG. 上記図17の合成映像例を示す図。The figure which shows the example of a synthetic | combination image | video of the said FIG. 上記図14に於ける組み合わせ3の場合のソース映像例を示す図。The figure which shows the example of a source image in the case of the combination 3 in the said FIG. 上記図19の合成映像例を示す図。The figure which shows the example of a synthetic | combination image | video of the said FIG. 上記図14に於ける組み合わせ4の場合のソース映像例を示す図。The figure which shows the example of a source image in the case of the combination 4 in the said FIG. 上記図21の合成映像例を示す図。The figure which shows the example of a synthetic | combination image | video of the said FIG.

符号の説明Explanation of symbols

101〜103,203〜205…映像、104,202…ソース映像、105…映像復元用情報、106…映像合成用情報、107…映像表示用情報、108,201…映像ユニットデータ、109…映像ユニットデータの集合(映像ストリーム)、110…情報記憶媒体、301,403…主映像プレーン、302,402…二次映像プレーン、303…主映像、305…マスク、306…マスク処理済二次映像、307…合成映像、1101…MPU部、1102…メモリ部、1103…ROM部、1105…光ディスク、1106…HDD、1107…ネットワークストレージ、1108…ネットワークストレージ、1109…データプロセッサ部、1110…ディスクドライブ部、1111…フラッシュメモリ(Flash Memory)、1112…ネットワークコントローラ、1113…映像デコーダ部、1114…映像復元・合成処理部、1115…映像デコーダ部、1116…ビデオプロセッサ部、1117…外部入力信号処理部、1201…映像関連情報解析部、1202…映像切り分け部、1203…主映像回転・座標配置部、1204…二次映像回転部、1205…マスク二値化部、1206…主映像プレーンバッファ、1207…二次映像一時バッファ、1208…二値化済みマスクバッファ、1209…マスク回転処理部、1210…マスクバッファ、1211…マスク処理部、1212…二次映像プレーンバッファ、1213…ミキサー。   101-103, 203-205 ... video, 104,202 ... source video, 105 ... video restoration information, 106 ... video synthesis information, 107 ... video display information, 108,201 ... video unit data, 109 ... video unit Data set (video stream), 110 ... information storage medium, 301, 403 ... main video plane, 302, 402 ... secondary video plane, 303 ... main video, 305 ... mask, 306 ... masked secondary video, 307 ... Composite video, 1101 ... MPU part, 1102 ... Memory part, 1103 ... ROM part, 1105 ... Optical disk, 1106 ... HDD, 1107 ... Network storage, 1108 ... Network storage, 1109 ... Data processor part, 1110 ... Disk drive part, 1111 ... Flash memory (Flash Me ory), 1112 ... network controller, 1113 ... video decoder unit, 1114 ... video restoration / composition processing unit, 1115 ... video decoder unit, 1116 ... video processor unit, 1117 ... external input signal processing unit, 1201 ... video related information analysis unit 1202 ... Video segmentation unit, 1203 ... Main video rotation / coordinate arrangement unit, 1204 ... Secondary video rotation unit, 1205 ... Mask binarization unit, 1206 ... Main video plane buffer, 1207 ... Secondary video temporary buffer, 1208 ... Binarized mask buffer, 1209... Mask rotation processing unit, 1210... Mask buffer, 1211... Mask processing unit, 1212.

Claims (9)

複数種の映像を互いに重なりのないように配置した映像ストリームに、前記映像ストリームから前記複数種の映像を個別に切り出すための映像復元用情報を付加して所定の情報記憶媒体に記録する記録手段を具備し、
前記記録手段は、
複数種の映像を互いに重なりのないように1枚の映像上へ座標配置してソース映像を生成するとともに、前記ソース映像から前記複数種の映像を個別に切り出すための映像復元用情報を生成する映像記録処理手段と、
前記映像記録処理手段により生成された前記ソース映像をエンコードし、エンコードした前記ソース映像のデータに、前記映像記録処理手段により生成された前記映像復元用情報および所定の映像出力用情報を付加して映像ユニットデータを生成する映像ユニットデータ生成処理手段と、
前記映像ユニットデータ生成処理手段で生成された前記映像ユニットデータの集合を前記情報記憶媒体に記録する記録処理手段と
を具備して、一つの映像ストリームから複数の映像ストリームを生成可能したことを特徴とする映像機器。
Recording means for adding video restoration information for individually cutting out the plurality of types of video from the video stream to a video stream in which a plurality of types of video are arranged so as not to overlap each other and recording the information on a predetermined information storage medium Comprising
The recording means includes
A source video is generated by arranging a plurality of types of video on a single video so that they do not overlap with each other, and video restoration information for individually cutting out the plurality of types of video from the source video is generated. Video recording processing means;
The source video generated by the video recording processing means is encoded, and the video restoration information and predetermined video output information generated by the video recording processing means are added to the encoded source video data. Video unit data generation processing means for generating video unit data;
And recording processing means for recording the set of video unit data generated by the video unit data generation processing means on the information storage medium, so that a plurality of video streams can be generated from one video stream. Video equipment.
前記所定の映像出力用情報は、前記映像復元用情報を用いて切り出した映像を合成して一枚の出力映像に配置するときの座標および回転角度と、透過処理とを指示する映像合成用情報を含むことを特徴とする請求項1記載の映像機器。   The predetermined video output information includes video composition information that indicates the coordinates and rotation angle when the video clipped using the video restoration information is combined and arranged in one output video, and transmission processing. The video equipment according to claim 1, further comprising: 前記所定の映像出力用情報は、前記複数種の映像各々の表示に対する指示を行う映像表示用情報を含むことを特徴とする請求項2記載の映像機器。   3. The video apparatus according to claim 2, wherein the predetermined video output information includes video display information for giving an instruction to display each of the plurality of types of videos. 映像記録処理手段が処理する前記複数種の映像は、主映像と二次映像とを有する、表示画面の1フレームに相当するソース映像であり、前記記録処理手段は、前記ソース映像の集合を前記情報記憶媒体に記録する請求項3記載の映像機器。   The plurality of types of video processed by the video recording processing means is a source video corresponding to one frame of a display screen having a main video and a secondary video, and the recording processing means uses the set of source videos 4. The video equipment according to claim 3, wherein the video equipment is recorded on an information storage medium. 前記二次映像は、動画像、字幕、メニュー、マスクのすべて、若しくは動画像、字幕、メニュー、マスクいずれかの組合せ、若しくは動画像、字幕、メニューのいずれかによる映像である請求項4記載の映像機器。   5. The secondary video is a video by any of moving images, subtitles, menus, masks, or any combination of moving images, subtitles, menus, masks, or moving images, subtitles, menus. Video equipment. 前記映像記録処理手段は、所定表示解像度のソース映像に、前記表示解像度より低い表示解像度の少なくとも1枚の主映像と、任意表示解像度の少なくとも1枚の二次映像とを配置する処理手段を具備する請求項5記載の映像機器。   The video recording processing means includes processing means for arranging at least one main video having a display resolution lower than the display resolution and at least one secondary video having an arbitrary display resolution on a source video having a predetermined display resolution. The video equipment according to claim 5. 前記映像記録処理手段は、所定表示解像度のソース映像に、前記表示解像度より低い表示解像度の複数の動画像と、任意表示解像度の少なくとも1つの二次映像とを配置する処理手段を具備する請求項5記載の映像機器。   The video recording processing means includes processing means for arranging a plurality of moving images having a display resolution lower than the display resolution and at least one secondary video having an arbitrary display resolution in a source video having a predetermined display resolution. 5. The video device according to 5. 複数種の映像を有する映像ストリームの記録方法であって、
前記複数種の映像を互いに重なりのないように1枚の映像上へ座標配置してソース映像を生成するステップと、
前記ソース映像の生成に伴って前記ソース映像から前記複数種の映像を個別に切り出すための映像復元用情報を生成するステップと、
前記生成された前記ソース映像をエンコードするステップと、
前記エンコードした前記ソース映像のデータに、前記映像復元用情報および所定の映像出力用情報を付加して映像ユニットデータを生成するステップと、
前記映像ユニットデータの集合を所定の情報記憶媒体に記録するステップと
を具備したことを特徴とする映像記録方法。
A method of recording a video stream having a plurality of types of video,
Generating a source video by arranging the plurality of types of video on a single video so as not to overlap each other;
Generating video restoration information for individually cutting out the plurality of types of video from the source video as the source video is generated;
Encoding the generated source video;
Adding the video restoration information and predetermined video output information to the encoded source video data to generate video unit data;
Recording a set of the video unit data on a predetermined information storage medium.
前記映像出力用情報は、前記映像復元用情報を用いて切り出した映像を合成して一枚の出力映像に配置するときの座標および回転角度と、透過処理とを指示する映像合成用情報を含むことを特徴とする請求項8記載の映像記録方法。   The video output information includes video synthesis information for instructing a coordinate and a rotation angle when a video clipped using the video restoration information is combined and arranged in one output video, and a transmission process. The video recording method according to claim 8.
JP2005188484A 2005-06-28 2005-06-28 Video equipment, video recording method and video playback method Expired - Fee Related JP4393425B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005188484A JP4393425B2 (en) 2005-06-28 2005-06-28 Video equipment, video recording method and video playback method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005188484A JP4393425B2 (en) 2005-06-28 2005-06-28 Video equipment, video recording method and video playback method

Publications (2)

Publication Number Publication Date
JP2007013313A JP2007013313A (en) 2007-01-18
JP4393425B2 true JP4393425B2 (en) 2010-01-06

Family

ID=37751271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005188484A Expired - Fee Related JP4393425B2 (en) 2005-06-28 2005-06-28 Video equipment, video recording method and video playback method

Country Status (1)

Country Link
JP (1) JP4393425B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013171089A (en) * 2012-02-17 2013-09-02 Toshiba Corp Voice correction device, method, and program
JP6706977B2 (en) * 2016-06-20 2020-06-10 ヤフー株式会社 Information display program, information display device, information display method, and distribution device

Also Published As

Publication number Publication date
JP2007013313A (en) 2007-01-18

Similar Documents

Publication Publication Date Title
KR20060045777A (en) Video data processing apparatus
KR20070089146A (en) Method and apparatus for encoding and for decoding a main video signal and one or more auxiliary video signals
JP2010020901A (en) Reproducing method using information recording medium with subtitle recorded thereon
JP4229127B2 (en) Video processing apparatus and time code adding method
US20060170762A1 (en) Video composition apparatus, video composition method and video composition program
CN102714747A (en) Stereoscopic video graphics overlay
JP5180910B2 (en) Video processing device
JP4393425B2 (en) Video equipment, video recording method and video playback method
JP4733764B2 (en) 3D image processing apparatus and 3D image processing method
JP2007259193A (en) Video output apparatus, and method
JP2007013473A (en) Reproducing apparatus and reproducing method
US20100054713A1 (en) Video reproducing apparatus
JP5231886B2 (en) Image processing apparatus and control method thereof
JP3898347B2 (en) Movie data control apparatus, movie data control method, and computer-readable recording medium on which movie data control program is recorded
JP4534975B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, RECORDING METHOD, VIDEO DISPLAY DEVICE, AND RECORDING MEDIUM
JP4443387B2 (en) Video playback device
JP5060409B2 (en) Image processing apparatus and control method thereof
JP4411614B2 (en) Recording / reproducing apparatus and image processing method using the recording / reproducing apparatus
JP2007060329A (en) Slide show generating device and method and program for controlling the same
JP2006222510A (en) Image reproducing apparatus and program
KR20160097418A (en) Method and System for Extensible Video Rendering
JP4534974B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, RECORDING METHOD, VIDEO DISPLAY DEVICE, AND RECORDING MEDIUM
JP2006180091A (en) Apparatus and method of compositing content
JP5422597B2 (en) 3D image processing device
JP2009016885A (en) Image transfer device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090623

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090915

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091013

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121023

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131023

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees