JP2009505604A - Method and apparatus for encoding multi-view video - Google Patents

Method and apparatus for encoding multi-view video Download PDF

Info

Publication number
JP2009505604A
JP2009505604A JP2008527838A JP2008527838A JP2009505604A JP 2009505604 A JP2009505604 A JP 2009505604A JP 2008527838 A JP2008527838 A JP 2008527838A JP 2008527838 A JP2008527838 A JP 2008527838A JP 2009505604 A JP2009505604 A JP 2009505604A
Authority
JP
Japan
Prior art keywords
frames
frame
view video
group
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008527838A
Other languages
Japanese (ja)
Inventor
ハ,テ−ヒョン
ユ,ピル−ホ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020050105728A external-priority patent/KR100728009B1/en
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2009505604A publication Critical patent/JP2009505604A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

多視点動映像の情報量を最小化するように多視点動映像を符号化する方法及び装置を提供する。本発明による多視点映像符号化方法は、複数個のBフレームを所定の基準によって少なくとも2グループ以上にグルーピングする段階と、及びグルーピングされたBフレームに対して順次に符号化を行う段階とを含み、情報量を最小化して多数の人に同時に立体感及び臨場感を提供する多視点動映像を提供できる。
A method and apparatus for encoding a multi-view video so as to minimize the information amount of the multi-view video. A multi-view video encoding method according to the present invention includes a step of grouping a plurality of B frames into at least two groups according to a predetermined criterion, and a step of sequentially encoding the grouped B frames. In addition, it is possible to provide a multi-view video that minimizes the amount of information and provides a large number of people with a stereoscopic effect and a sense of reality.

Description

本発明は、多視点動映像シーケンスを符号化する方法及び装置に係り、さらに詳細には、多視点カメラにより表現される多視点動映像の情報量を最小化するために多視点動映像を符号化する方法及び装置に関する。   The present invention relates to a method and apparatus for encoding a multi-view video sequence, and more particularly, encodes a multi-view video to minimize the amount of information of a multi-view video represented by a multi-view camera. The present invention relates to a method and an apparatus.

高い品質の情報及び通信サービスを実現する最も理想的な特性の1つは現実感である。これは3次元映像に基づいた画像通信により達成されうる。3D映像システムは、教育、芸能、医療手術、画像会議など多くの潜在的な応用分野で利用されうる。多数の視聴者に遠隔地の場面についてのさらなる臨場感と正確な情報とを伝達するために、3つ以上のカメラが若干の異なる視点(view)に配されて多視点シーケンスを生成する。   One of the most ideal characteristics for realizing high quality information and communication services is reality. This can be achieved by image communication based on 3D video. 3D video systems can be used in many potential applications such as education, entertainment, medical surgery, and image conferencing. In order to convey a greater sense of reality and accurate information about remote scenes to multiple viewers, three or more cameras are placed in slightly different views to generate a multi-view sequence.

3D映像分野についての関心により多数の研究グループが3D映像処理及びディスプレイシステムについて報告している。ヨーロッパでは、デジタルステレオ映像シーケンスをキャプチャ、符号化、及び伝送して表示するためのシステムを開発する目的でDISTIMAのような多様なプロジェクトにより3DTVについての研究が開示された。これらプロジェクトは、3D遠隔臨場感(telepresence)のある通信において、映像情報を改善するための目的の他のプロジェクトであるPANORAMAを導いた。現在、これらプロジェクトは、他のプロジェクトであるATTESTを導いたが、このプロジェクトで3Dコンテンツの獲得、3D圧縮及び送信、及び3Dディスプレイシステムの多様な分野の技術が研究された。このプロジェクトで、MPEG-2及びDVB(Digital Video Broadcasting)システムは、特に2Dコンテンツ送信のためのベースレイヤ(base layer)及び3Dの深度のあるデータの送信のためのアドバンストレイヤを使用するための、時間拡張性(Temporal Scalibility:TS)により3Dコンテンツを伝送するために適用された。   Many research groups have reported on 3D video processing and display systems due to their interest in the field of 3D video. In Europe, research on 3DTV has been disclosed by various projects, such as DISTIMA, for the purpose of developing a system for capturing, encoding, and transmitting digital stereo video sequences for display. These projects led PANORAMA, another project aimed at improving video information in 3D telepresence communications. Currently, these projects led ATTEST, another project, in which technologies in various fields of 3D content acquisition, 3D compression and transmission, and 3D display systems were studied. In this project, MPEG-2 and DVB (Digital Video Broadcasting) systems, especially for using a base layer for 2D content transmission and an advanced layer for transmission of 3D depth data, It has been applied to transmit 3D content with Temporal Scalibility (TS).

MPEG-2で、マルチビュープロファイル(MVP)は、MPEG-2標準に対する修正で1996年に定義された。MVPの重要な新たな構成要素は、マルチカメラシーケンスに対する時間拡張性(TS)モードの利用についての定義及びMPEG-2シンタックスでの獲得カメラパラメータについての定義である。   In MPEG-2, the Multiview Profile (MVP) was defined in 1996 with a modification to the MPEG-2 standard. An important new component of MVP is the definition of the use of time extensibility (TS) mode for multi-camera sequences and the definition of acquired camera parameters in MPEG-2 syntax.

減少したフレームレート(frame rate)で信号を代表するベースレイヤストリームを符号化し、2つのストリームが有効な場合、全体フレームレートで再生を許容するために中間に付加的なフレームを挿入するのに用いられる向上レイヤを定義することが可能である。向上レイヤを符号化する効率的な方法は、向上レイヤフレーム内のそれぞれのマクロブロックに対して、ベースレイヤフレームまたは最近に再構成された向上レイヤフレームから最上の動き補償予測に関する決定がなされるように許容するものである。   Encodes a base layer stream that represents the signal at a reduced frame rate and, if the two streams are valid, used to insert additional frames in the middle to allow playback at the full frame rate Defined enhancement layers. An efficient way to encode the enhancement layer is that for each macroblock in the enhancement layer frame, a decision regarding the best motion compensated prediction is made from the base layer frame or the recently reconstructed enhancement layer frame. Is acceptable.

このような信号について、時間拡張性シンタックスを用いてステレオ及び多視点チャンネル符号化を行うことは簡単である。この目的のために、1つのカメラ視点からのフレーム(通常左眼のフレーム)はベースレイヤとして定義され、残りからのフレームは向上レイヤとして定義される。ベースレイヤは、同時モノスコピック(monoscopic)シーケンスを示す。向上レイヤに対して、視差(disparity)補償予測は、遮断領域(occluded region)では失敗することもあるが、同じチャンネル内部の動き補償予測により再構成された映像品質を維持し続ける。MPEG-2MVPは、ステレオシーケンスとして主に定義されるために、多視点シーケンスを支援せず、本来から多視点シーケンスへの拡張は難しい。   It is easy to perform stereo and multi-view channel coding for such signals using time-expandable syntax. For this purpose, a frame from one camera viewpoint (usually a left eye frame) is defined as a base layer, and the remaining frames are defined as enhancement layers. The base layer shows a simultaneous monoscopic sequence. For the enhancement layer, disparity compensated prediction may fail in the occluded region, but continues to maintain the video quality reconstructed by motion compensated prediction within the same channel. Since MPEG-2MVP is mainly defined as a stereo sequence, it does not support multi-view sequences and is difficult to extend from the original to multi-view sequences.

図1は、MPEG-2マルチビュープロファイルの符号化器及び復号化器を示す図である。   FIG. 1 is a diagram illustrating an MPEG-2 multi-view profile encoder and decoder.

MPEG-2で提供する拡張性は、1つの映像装備を使用して他の解像度や形式を有する映像を同時に復号化するためのものであり、MPEG-2で支援する拡張性のうち、時間拡張性は、フレームレートを高めることによって、視覚的画質を向上させる技術である。マルチビュープロファイルは、このような時間拡張性を考慮してステレオ動映像に適用したことである。   The extensibility provided by MPEG-2 is for decoding video having other resolutions and formats at the same time using one video equipment. Of the extensibility supported by MPEG-2, time extension Is a technique for improving visual image quality by increasing the frame rate. The multi-view profile is applied to stereo moving images in consideration of such time extensibility.

実質的に、ステレオ動映像概念を有する符号化器及び復号化器の構造は、図1の時間拡張性と同じ構造を有するものであって、ステレオ動映像のうち、左側映像はベース視点符号化器(base view encoder)に入力され、ステレオ動映像の右側映像は、時間的補助視点符号化器(temporal auxiliary view encoder)に入力される。   Substantially, the structure of the encoder and decoder having the concept of stereo video has the same structure as the time extensibility of FIG. 1, and the left video of the stereo video is base viewpoint encoding. The right video of the stereo moving image is input to a temporal auxiliary view encoder (temporal auxiliary view encoder).

補助視点符号化器は、時間拡張性のためのものであって、時間的にベースレイヤの映像間に映像をインターリビングするインターレイヤ符号化器(interlayer encoder)である。   The auxiliary viewpoint encoder is an interlayer encoder that is for temporal extensibility and interleaves video between base layer videos temporally.

したがって、左側映像を別途に符号化及び復号化すれば、2次元動映像が得られ、左側映像と右側映像とを同時に符号化及び復号化すれば、立体動映像を具現しうる。ここで、動映像伝送や保存のために二映像のシーケンスを合わせるか、分離するシステムマルチプレクサ及びシステムデマルチプレクサが必要である。   Accordingly, if the left video is separately encoded and decoded, a two-dimensional video can be obtained. If the left video and the right video are encoded and decoded simultaneously, a stereoscopic video can be realized. Here, a system multiplexer and a system demultiplexer that match or separate the sequences of two images for moving image transmission and storage are required.

図2は、MPEG-2マルチビュープロファイルを用いたステレオ動映像符号化器及び復号化器を示す図である。   FIG. 2 is a diagram illustrating a stereo video encoder and decoder using an MPEG-2 multi-view profile.

ベースレイヤは、動き補償及び離散余弦変換(DCT:Discrete Cosine Transform)を用いて符号化し、逆過程を経て復号化する。時間的補助視点符号化器は、復号化されたベースレイヤの映像基づいて予測した時間的インターレイヤ符号化器(temporal interlayer encoder)の役割を行う。   The base layer is encoded using motion compensation and discrete cosine transform (DCT), and is decoded through an inverse process. The temporal auxiliary viewpoint encoder performs a role of a temporal inter encoder that is predicted based on the decoded base layer image.

すなわち、2つの視差補償予測、または各々1つの視差予測及び動き補償予測が、ここに使われ、ベースレイヤの符号化器及び復号化器と同様に時間的補助視点符号化器は、視差及び動き補償DCT符号化器及び復号化器を備える。   That is, two disparity compensated predictions, or one disparity prediction and motion compensated prediction each, are used here, and the temporal auxiliary viewpoint encoder as well as the base layer encoder and decoder Compensating DCT encoder and decoder.

また、動き予測/補償符号化過程で動き予測器(predictor)と補償器(compensator)が必要なように視差補償符号化過程で視差予測器と補償器とが必要である。ブロック基盤の動き/視差予測及び補償に付け加え、符号化過程は、予測された結果映像と原映像との差映像などのDCT、DCT係数の量子化及び可変長符号化などを含む。逆に、復号化過程は、可変長復号化、逆量子化、逆DCTなどの過程を含む。   In addition, a disparity predictor and a compensator are required in the disparity compensation encoding process, as a motion predictor (predictor) and a compensator are required in the motion prediction / compensation encoding process. In addition to block-based motion / disparity prediction and compensation, the encoding process includes DCT such as the difference video between the predicted result video and the original video, quantization of DCT coefficients, variable length coding, and the like. Conversely, the decoding process includes processes such as variable length decoding, inverse quantization, and inverse DCT.

MPEG-2符号化は、Bピクチャーのための双方向動き予測による非常に効率的な圧縮方法であり、時間拡張性も相当効率的であるために、双方向予測のみを使用したBピクチャーを右側映像の符号化に使用して高効率の圧縮が得られる。   MPEG-2 coding is a very efficient compression method with bi-directional motion prediction for B-pictures, and the time extensibility is also quite efficient. Highly efficient compression is obtained when used for video encoding.

図3は、双方向予測のために2つの視差予測を使用して視差のみを考慮した予測符号化を示す図である。   FIG. 3 is a diagram illustrating prediction coding using only two disparity predictions for bi-directional prediction and considering only disparity.

左側映像は、ノンスケーラブル(non-scalable)MPEG-2符号化器を使用して符号化し、右側映像は、復号化された左側映像に基づいてMPEG-2時間的に位置した補助視点符号化器を使用して符号化する。   The left video is encoded using a non-scalable MPEG-2 encoder, and the right video is MPEG-2 temporally located based on the decoded left video. Is encoded using.

すなわち、右側映像は、2つの参照映像、例えば、左側映像から求めた予測を使用してBピクチャーで符号化される。この際、2つの参照映像のうち1つは、同時にディスプレイされる左側映像であり、他の1つは時間的に次に出る左側映像である。   That is, the right video is encoded with a B picture using predictions obtained from two reference videos, eg, the left video. At this time, one of the two reference images is a left image displayed at the same time, and the other is a left image that appears next in time.

そして、2つの予測は、動き推定/補償と同様に順方向、逆方向、双方向の3つの予測モードを有する。ここで、順方向モードは、同じ時間の左側映像から予測した視差を意味し、逆方向モードは、直ちに次の左側映像から予測した視差を意味する。このような方法の場合、右側映像の予測は、2つの左側映像の視差ベクトルを通じてなされるために、このような形の予測方法を視差ベクトルのみを考慮した予測符号化という。したがって、符号化器では、右側動映像の各フレームごとに2つの視差ベクトルを推定し、復号化器では、この2つの視差ベクトルを用いて左側動映像から右側動映像を復号化する。   The two predictions have three prediction modes, forward, backward, and bidirectional, as in motion estimation / compensation. Here, the forward mode means the parallax predicted from the left video at the same time, and the reverse mode means the parallax predicted from the next left video immediately. In the case of such a method, since the prediction of the right image is performed through the disparity vectors of the two left images, this type of prediction method is referred to as predictive encoding considering only the disparity vector. Therefore, the encoder estimates two disparity vectors for each frame of the right moving image, and the decoder uses the two disparity vectors to decode the right moving image from the left moving image.

図4は、双方向予測のために視差ベクトルと動きベクトルとを使用した予測符号化を示す図である。図4は、図3に示された双方向予測を通じたBピクチャーを使用するが、双方向予測は、1つの視差推定と1つの動き推定とを使用する。すなわち、1つの同時間帯の左側映像からの視差予測と直前時間の右側映像からの動き予測とを使用する。   FIG. 4 is a diagram illustrating predictive coding using a disparity vector and a motion vector for bidirectional prediction. FIG. 4 uses the B picture through bi-directional prediction shown in FIG. 3, but bi-directional prediction uses one disparity estimate and one motion estimate. That is, the parallax prediction from the left video of the same time zone and the motion prediction from the right video of the immediately preceding time are used.

そして、視差のみを考慮した予測符号化と同様に双方向予測も順方向、逆方向、そして双方向(interpolated)モードと呼ばれる3種の予測モードを含む。ここで、順方向モードは、復号化された右側映像からの動き予測を意味し、逆方向モードは、復号化された左側映像からの視差予測を意味する。   Similar to predictive coding considering only disparity, bi-directional prediction includes three kinds of prediction modes called forward, reverse, and interpolated modes. Here, the forward mode means motion prediction from the decoded right video, and the reverse mode means parallax prediction from the decoded left video.

前述したように、MPEG-2マルチビュープロファイルの規格自体は、多視点動映像に対する符号化器を考慮せず、実際のステレオ動映像に不適合に設計されているので、多数の人に同時に立体感及び臨場感を提供するための多視点動映像を効率よく提供可能な符号化器が必要である。   As described above, the MPEG-2 multi-view profile standard itself is designed to be incompatible with actual stereo video without considering an encoder for multi-view video, so that a large number of people can experience stereoscopic effects simultaneously. There is also a need for an encoder that can efficiently provide multi-view video for providing a sense of reality.

本発明が解決しようとする技術的課題は、多数の人に同時に立体感及び臨場感を提供して多視点動映像を効率よく提供する多視点動映像を符号化する方法及び装置を提供することである。   The technical problem to be solved by the present invention is to provide a method and apparatus for encoding multi-view video that efficiently provides multi-view video by providing stereoscopic feeling and realism to a large number of people simultaneously. It is.

また、本発明が解決しようとする他の技術的課題は、多視点動映像についての情報量を最小化する予測構造を用いて多視点動映像を符号化する方法及び装置を提供することである。   Another technical problem to be solved by the present invention is to provide a method and apparatus for encoding a multi-view video using a prediction structure that minimizes the amount of information about the multi-view video. .

前記の技術的課題は、本発明による複数個のBフレームを所定の基準によって少なくとも2グループ以上にグルーピングする段階と、グルーピングされたBフレームに対して順次に符号化を行う段階と、を含む多視点動映像符号化方法により達成される。   The technical problem includes a step of grouping a plurality of B frames according to the present invention into at least two groups according to a predetermined criterion, and a step of sequentially encoding the grouped B frames. This is achieved by the viewpoint video encoding method.

望ましくは、所定の基準は、それぞれのBフレームが参照するフレーム数であり、または所定の基準は、それぞれのBフレームが参照するフレーム数及び参照するフレームの位置でありうる。   Desirably, the predetermined standard may be the number of frames referred to by each B frame, or the predetermined standard may be the number of frames referred to by each B frame and the position of the referenced frame.

望ましくは、グルーピングされたBフレームは、水平に隣接した2つのフレーム、垂直に隣接した2つのフレーム、または水平に隣接した1つのフレーム及び垂直に隣接した1つのフレームを参照して予測される第1グループと、水平に隣接した2つのフレーム及び垂直に隣接した1つのフレーム、または水平に隣接した1つのフレーム及び垂直に隣接した2つのフレームを参照して予測される第2グループと、水平に隣接した2つのフレーム及び垂直に隣接した2つのフレームを参照して予測される第3グループを含み、前記1つまたは2つの水平に隣接したフレームは、Bフレームのように同一時間での多視点動映像から得られたフレームであり、前記1つまたは2つの垂直に隣接したフレームは、Bフレームのように同一視点での多視点動映像から得られたフレームであることを特徴とする多視点動映像。   Preferably, the grouped B frames are predicted with reference to two horizontally adjacent frames, two vertically adjacent frames, or one horizontally adjacent frame and one vertically adjacent frame. A group and a second group predicted with reference to two horizontally adjacent frames and one vertically adjacent frame, or one horizontally adjacent frame and two vertically adjacent frames, and horizontally Including a third group predicted with reference to two adjacent frames and two vertically adjacent frames, wherein the one or two horizontally adjacent frames are multi-viewpoints at the same time as B frames A frame obtained from a moving image, and the one or two vertically adjacent frames are frames obtained from a multi-view moving image at the same viewpoint, such as a B frame. Multi-view video, wherein the at.

望ましくは、グルーピングされたBフレームに対して順次に符号化を行う段階は、グルーピングされたBフレームに対して第1グループ、第2グループ及び第3グループ順に順次に符号化を行う段階を含む。   Preferably, the step of sequentially encoding the grouped B frames includes the step of sequentially encoding the grouped B frames in the order of the first group, the second group, and the third group.

望ましくは、Bフレームを含む動映像符号化構造は、水平に複数個の視点によるフレーム間の視差予測を行い、垂直に経時的なフレーム間の動き予測を行うための構造として水平及び垂直に拡張されうる。   Desirably, the moving picture coding structure including the B frame is horizontally and vertically extended as a structure for predicting disparity between frames from a plurality of viewpoints horizontally and vertically predicting motion between frames over time. Can be done.

望ましくは、Bフレームを含む動映像符号化構造で、n個の視点に対する動映像符号化構造は、n-1番目のフレーム列を動作させないことによって、n-1個の視点に対する動映像符号化構造として構成され、ここで、nは自然数のうち、奇数である。   Preferably, the moving picture coding structure includes B frames, and the moving picture coding structure for n viewpoints does not operate the n-1th frame sequence, thereby moving the moving picture coding for n-1 viewpoints. It is configured as a structure, where n is an odd number of natural numbers.

前記技術的課題は、本発明の他の特徴による、入力された多視点動映像に対する視差ベクトル及び動きベクトルを予測する予測部と、予測された視差ベクトル及び動きベクトルを利用して映像を補償する視差動き補償部と、原映像及び視差動き補償部から提供される再構成された映像を受信し、差映像符号化を行う差映像符号化部と、視差ベクトル、動きベクトル及び差映像符号化が行われたデータを用いて多視点動映像に対するビットストリームを生成するエントロピー符号化部と、を備え、予測部は、各々複数個のBフレームを所定の基準によって少なくとも2グループ以上にグルーピングし、グルーピングされたBフレームに対して順次に予測を行う多視点動映像符号化装置によって達成される。   According to another aspect of the present invention, there is provided a prediction unit that predicts a disparity vector and a motion vector for an input multi-view video, and compensates the image using the predicted disparity vector and motion vector. A parallax motion compensation unit, a difference video encoding unit that receives the reconstructed video provided from the original video and the parallax motion compensation unit, and performs differential video encoding; a parallax vector, a motion vector, and a differential video encoding An entropy encoding unit that generates a bitstream for multi-view video using the performed data, and the prediction unit groups a plurality of B frames into at least two groups according to a predetermined criterion, and performs grouping This is achieved by a multi-view video encoding apparatus that sequentially predicts the B frames.

前記技術的課題は、本発明の多視点映像符号化方法を具現するためのプログラムを記録したコンピュータで読取り可能な記録媒体によって達成される。   The technical problem is achieved by a computer-readable recording medium storing a program for implementing the multi-view video encoding method of the present invention.

本発明によれば、多数の人に同時に立体感及び臨場感を提供して多視点動映像を効率よく提供する多視点動映像を符号化する方法及び装置を提供しうる。   According to the present invention, it is possible to provide a method and apparatus for encoding a multi-view video that efficiently provides a multi-view video by providing a stereoscopic effect and a sense of presence to a large number of people at the same time.

また、本発明によるBフレームの予測構造を採択して多視点動映像についての情報量を最小化する多視点動映像を符号化する方法及び装置を提供しうる。   Also, a method and apparatus for encoding a multi-view video that minimizes the amount of information about the multi-view video by adopting a B-frame prediction structure according to the present invention may be provided.

以下、添付した図面を参照して本発明の望ましい実施形態に対し詳細に説明する。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図5は、本発明の一実施形態による多視点動映像符号化装置の内部構成を示すブロック図である。   FIG. 5 is a block diagram showing an internal configuration of a multi-view video encoding apparatus according to an embodiment of the present invention.

本発明の一実施形態による多視点動映像符号化装置は、多視点映像バッファ510、予測部520、視差/動き補償部530、差映像符号化部540及びエントロピー符号化部550を備える。   The multi-view video encoding apparatus according to an embodiment of the present invention includes a multi-view video buffer 510, a prediction unit 520, a parallax / motion compensation unit 530, a difference video encoding unit 540, and an entropy encoding unit 550.

図5で、提案された多視点動映像符号化装置は、多数のカメラシステムまたは他の可能な方法から通常獲得される多視点ビデオソースを受信する。入力された多視点ビデオは、多視点映像バッファ510に保存される。多視点映像バッファ510は、保存された多視点動映像ソースデータを予測部520及び差映像符号化部540に提供する。   In FIG. 5, the proposed multi-view video encoder receives a multi-view video source that is typically acquired from multiple camera systems or other possible methods. The input multi-view video is stored in the multi-view video buffer 510. The multi-view video buffer 510 provides the stored multi-view video source data to the prediction unit 520 and the difference video encoding unit 540.

予測部520は、視差推定部522及び動き推定部524を備え、保存された多視点ビデオソースに対して動き予測及び視差予測を実行する。予測部520は、図6ないし図11の矢印方向に視差ベクトル及び動きベクトルを推定して視差/動き補償部530に提供する。   The prediction unit 520 includes a parallax estimation unit 522 and a motion estimation unit 524, and performs motion prediction and parallax prediction on the stored multi-view video source. The prediction unit 520 estimates the parallax vector and the motion vector in the direction of the arrows in FIGS. 6 to 11 and provides them to the parallax / motion compensation unit 530.

予測部520で動きと視差についての予測を実行する時、図6ないし図11に示された多視点動映像符号化構造のように、多視点視差ベクトルとこれを動映像に拡張した時に発生する動きベクトルとを効率よく利用して推定方向を設定しうる。すなわち、MPEG-2符号化構造を視点軸に拡張して空間的/時間的相関度を利用できるものである。   When the prediction unit 520 performs prediction about motion and parallax, it occurs when the multi-view parallax vector and this are expanded to a moving picture as in the multi-view moving picture coding structure shown in FIGS. The estimated direction can be set by efficiently using the motion vector. That is, the spatial / temporal correlation can be used by extending the MPEG-2 coding structure to the viewpoint axis.

視差/動き補償部530において視差及び動き補償は、視差推定部522及び動き推定部524で推定された動きベクトル及び視差ベクトルを用いて実行される。視差/動き補償部530は、推定された動き及び視差ベクトルを用いて復元された映像を差映像符号化部540に提供する。   In the parallax / motion compensation unit 530, parallax and motion compensation are executed using the motion vector and the parallax vector estimated by the parallax estimation unit 522 and the motion estimation unit 524. The parallax / motion compensation unit 530 provides the video restored using the estimated motion and the parallax vector to the difference video coding unit 540.

差映像符号化部540は、多視点映像バッファ510から提供される原映像と視差/動き補償部530により補償された復元映像との差情報を、さらに良い画質及び立体感を提供するために、差映像符号化を行ってエントロピー符号化部550に提供する。   The difference video encoding unit 540 provides difference information between the original video provided from the multi-view video buffer 510 and the restored video compensated by the parallax / motion compensation unit 530 to provide better image quality and stereoscopic effect. Difference video coding is performed and provided to the entropy coding unit 550.

エントロピー符号化部550は、予測部520で生成された視差ベクトル及び動きベクトルについての情報と差映像符号化部540からの残差映像とを入力されて、多視点動映像ソースデータについてのビットストリームを生成する。   The entropy encoding unit 550 receives the information about the disparity vector and the motion vector generated by the prediction unit 520 and the residual video from the difference video encoding unit 540, and receives a bitstream for the multi-view video source data Is generated.

図6は、本発明の一実施形態による多視点動映像の単位符号化構造を示す図である。図6は、視点数が3つであると仮定する時、コア-予測構造または単位-予測構造の構造である。四角ブロックは、多視点ビデオソースでの映像フレームを示す。水平方向矢印は、視点またはカメラ位置によるフレームのシーケンスを示し、垂直方向矢印は、経時的なフレームのシーケンスを示す。フレームで、Iピクチャーは、MPEG-2/4またはH.264でのIフレームと同じ“イントラピクチャー”を示す。Pピクチャー及びBピクチャーは、各々MPEG-2/4またはH.264と同様に、“予測ピクチャー”及び“双方向予測ピクチャー”を示す。   FIG. 6 is a diagram illustrating a unit coding structure of a multi-view video according to an embodiment of the present invention. FIG. 6 shows a core-predictive structure or a unit-predictive structure when the number of viewpoints is assumed to be three. A square block indicates a video frame in a multi-view video source. The horizontal arrows indicate the sequence of frames by viewpoint or camera position, and the vertical arrows indicate the sequence of frames over time. In the frame, the I picture is MPEG-2 / 4 or H.264. The same “intra picture” as the I frame in H.264 is shown. P picture and B picture are MPEG-2 / 4 or H.264, respectively. Similarly to H.264, “prediction picture” and “bidirectional prediction picture” are shown.

しかし、Pピクチャー及びBピクチャーは、多視点ビデオコーディングで共に動き予測及び視差予測により予測される。図6において、ピクチャーフレーム間の矢印は、予測方向を意味する。水平方向を示す矢印は、視差測定を意味し、垂直方向を示す矢印は、動き予測を意味する。本発明の一実施形態によれば、Bピクチャーは、3種に構成され、図7を参照して説明する。   However, the P picture and the B picture are both predicted by motion prediction and disparity prediction in multi-view video coding. In FIG. 6, an arrow between picture frames means a prediction direction. An arrow indicating the horizontal direction indicates parallax measurement, and an arrow indicating the vertical direction indicates motion prediction. According to an embodiment of the present invention, there are three types of B pictures, which will be described with reference to FIG.

図7は、本発明の一実施形態による多視点動映像の符号化に用いられる3種のBピクチャーを示す図である。   FIG. 7 is a diagram illustrating three types of B pictures used for encoding a multi-view video according to an embodiment of the present invention.

本発明の一実施形態によるBピクチャーは、3タイプのピクチャーで構成される。図7で、B-、B1-、B2-ピクチャーは水平または垂直に隣接した2つ以上のフレームにより予測されるピクチャーフレームを意味する。   A B picture according to an embodiment of the present invention is composed of three types of pictures. In FIG. 7, B-, B1-, and B2-pictures mean picture frames predicted by two or more frames that are horizontally or vertically adjacent.

B-ピクチャーは、図7Aのように水平に隣接した2つのフレーム、図7Bのように垂直に隣接した2つのフレーム、または図7Cのように水平に隣接した1つのフレーム及び垂直に隣接した1つのフレームにより予測される。   B-pictures can be two horizontally adjacent frames as shown in Figure 7A, two vertically adjacent frames as shown in Figure 7B, or one horizontally adjacent frame and one vertically adjacent as shown in Figure 7C. Predicted by one frame.

B1-ピクチャーは、図7Dのように水平に隣接した2つのフレームと垂直に隣接した1つのフレーム、または図7Eのように水平に隣接した1つのフレームと垂直に隣接した2つのフレームにより予測される。B2-ピクチャーは、図7Fのように水平または垂直に4つの隣接したフレームにより予測される。   A B1-picture is predicted by two horizontally adjacent frames as shown in Figure 7D, or one frame vertically adjacent, or two horizontally adjacent frames as shown in Figure 7E. The A B2-picture is predicted by four adjacent frames horizontally or vertically as shown in FIG. 7F.

再び図6を参照して、多視点動映像の予測シーケンスを示す単位符号化構造について説明する。図6で、基本的な予測シーケンス順序は次の通りである。   With reference to FIG. 6 again, a unit coding structure indicating a prediction sequence of a multi-view video is described. In FIG. 6, the basic prediction sequence order is as follows.

I→P→B→B1→B2
まず、Iフレーム601がイントラ予測される。Iフレーム601で水平にPフレーム603が予測され、垂直にPフレーム610が予測される。
I → P → B → B1 → B2
First, the I frame 601 is intra-predicted. A P frame 603 is predicted horizontally in the I frame 601, and a P frame 610 is predicted vertically.

次いで、Iフレーム601及びPフレーム603を参照して水平に双方向予測を行ってBフレーム602が予測され、Iフレーム601及びPフレーム610を参照して垂直に双方向予測を行ってBフレーム604及びBフレーム607が予測され、水平にPフレーム610を参照して垂直にPフレーム603を参照してBフレーム612が予測される。   Next, B frame 602 is predicted by performing bi-directional prediction horizontally with reference to I frame 601 and P frame 603, and B frame 604 is performed by performing bi-directional prediction vertically with reference to I frame 601 and P frame 610. And B frame 607 is predicted, and B frame 612 is predicted by referring to P frame 610 horizontally and P frame 603 vertically.

次いで、B1フレームが予測される。水平にBフレーム604を参照し、垂直にPフレーム603とBフレーム612とを参照してB1フレーム606が予測され、水平にBフレーム607を参照し、垂直にPフレーム603及びBフレーム612を参照してB1フレーム609が予測され、水平にPフレーム610及びBフレーム612を参照し、垂直にBフレーム602を参照してB1フレーム611が予測される。   A B1 frame is then predicted. B1 frame 606 is predicted with reference to B frame 604 horizontally, with reference to P frame 603 and B frame 612 with vertical reference to B frame 607 with reference to P frame 603 and B frame 612 vertically Thus, the B1 frame 609 is predicted, the P1 frame 610 and the B frame 612 are referenced horizontally, and the B1 frame 611 is predicted with reference to the B frame 602 vertically.

最後に、B2フレームが予測される。水平にBフレーム604及びB1フレーム606を参照し、垂直にBフレーム602及びB1フレーム611を参照してB2フレーム605が予測され、水平にBフレーム607及びB1フレーム609を参照し、垂直にBフレーム602及びB1フレーム611を参照してB2フレーム608が予測される。   Finally, a B2 frame is predicted. B2 frame 605 is predicted with reference to B frame 604 and B1 frame 606 horizontally, B frame 602 and B1 frame 611 with reference to B frame 607 and B1 frame 609 with reference to B frame 607 and B1 frame 611 with vertical B frame With reference to 602 and B1 frame 611, a B2 frame 608 is predicted.

図6及び図7を参照して説明したように、本発明によれば、双方向予測を行う時、Bフレームのみならず、B1フレーム及びB2フレームを用いて、Bフレーム数を増やせるので、多視点映像の符号化時に、情報量を最小化させうる。したがって、本発明の望ましい実施形態によれば、多視点映像を効率よく符号化するためには、Bフレームを図7に示されたタイプによってグルーピングし、グルーピングされたBフレームを前記予測順序によってBフレーム、B1フレーム及びB2フレーム順に符号化する。   As described with reference to FIGS. 6 and 7, according to the present invention, when bidirectional prediction is performed, the number of B frames can be increased using not only B frames but also B1 frames and B2 frames. The amount of information can be minimized when the viewpoint video is encoded. Therefore, according to a preferred embodiment of the present invention, in order to efficiently encode a multi-view video, the B frames are grouped according to the type shown in FIG. 7, and the grouped B frames are B according to the prediction order. Encoding is performed in the order of frame, B1 frame, and B2 frame.

図8は、本発明の一実施形態によって図6の多視点動映像の単位符号化構造を水平に拡張した構造を示す図である。図8は、5視点の入力映像ソースを有する予測ブロックの構造を示す。   FIG. 8 is a diagram illustrating a horizontally expanded structure of the multi-view video unit coding structure of FIG. 6 according to an embodiment of the present invention. FIG. 8 shows the structure of a prediction block having five viewpoints of input video sources.

図9は、図8の多視点動映像の予測順序を示す図である。図8において、同列のフレームは、同時間に予測されることを意味する。したがって、図9を参照するに、まず、Iフレーム801に対してイントラ予測が行われる。次いで、2番目列のPフレーム803及びPフレーム816が予測され、3番目列でBフレーム802、806、811、818及びPフレーム805が予測される。次いで、B1フレーム817、808、813及びBフレーム804、820が予測される。5番目列では、B2フレーム807、821及びB1フレーム810、819、815が予測される。最後にB2フレーム809、814が予測される。   FIG. 9 is a diagram illustrating a prediction order of the multi-view video in FIG. In FIG. 8, frames in the same column mean that they are predicted at the same time. Therefore, referring to FIG. 9, first, intra prediction is performed on the I frame 801. Next, P frame 803 and P frame 816 in the second column are predicted, and B frames 802, 806, 811 and 818 and P frame 805 are predicted in the third column. Next, B1 frames 817, 808, 813 and B frames 804, 820 are predicted. In the fifth column, B2 frames 807 and 821 and B1 frames 810, 819 and 815 are predicted. Finally, B2 frames 809 and 814 are predicted.

したがって、本発明による予測順序は、次のようである。   Therefore, the prediction order according to the present invention is as follows.

I→P→B→B1→B2→P→B→B1→B2
図10は、本発明の一実施形態による奇数個の視点を有する動き予測及び視差予測のための動映像符号化構造を示す図である。
I → P → B → B1 → B2 → P → B → B1 → B2
FIG. 10 is a diagram illustrating a moving picture coding structure for motion prediction and disparity prediction having an odd number of viewpoints according to an embodiment of the present invention.

図11は、本発明の一実施形態による偶数個の視点を有する動き予測及び視差予測のための動映像符号化構造を示す図である。図11の動映像符号化構造は、図10の5視点に対する動映像符号化構造で4番目予測フレームの列を動作させないことによって得られる。このような本発明による動映像符号化構造は、水平及び垂直に拡張されうる。   FIG. 11 is a diagram illustrating a moving picture coding structure for motion prediction and disparity prediction having an even number of viewpoints according to an embodiment of the present invention. The moving picture coding structure in FIG. 11 is obtained by not operating the fourth predicted frame sequence in the moving picture coding structure for the five viewpoints in FIG. Such a moving picture coding structure according to the present invention can be extended horizontally and vertically.

したがって、本発明の一実施形態によれば、n個(ここで、nは自然数のうち、奇数)の視点に対する動映像符号化構造は、n-1番目予測フレームの列を動作させないことによってn-1個の視点についての動映像符号化構造として構成されうる。   Therefore, according to an embodiment of the present invention, the moving picture coding structure for n (where n is an odd number among natural numbers) viewpoints does not operate the sequence of the (n-1) th predicted frame. -It can be configured as a moving picture coding structure for one viewpoint.

図12は、本発明の一実施形態による多視点動映像符号化過程を示すフローチャートである。   FIG. 12 is a flowchart illustrating a multi-view video encoding process according to an embodiment of the present invention.

図6ないし図11を参照して説明した本発明の一実施形態による多視点動映像符号化過程でBフレームを下記のように符号化する。   In the multi-view video encoding process according to the embodiment of the present invention described with reference to FIGS. 6 to 11, the B frame is encoded as follows.

複数個のBフレームを所定の基準によって少なくとも2グループ以上にグルーピングする(S1210)。所定の基準は、それぞれのBフレームが参照するフレーム数であり、またはそれぞれのBフレームが参照するフレーム数及び参照するフレームの位置である。   A plurality of B frames are grouped into at least two groups according to a predetermined standard (S1210). The predetermined standard is the number of frames referred to by each B frame, or the number of frames referred to by each B frame and the position of the referenced frame.

グルーピングされたBフレームは、水平に隣接した2つのフレーム、垂直に隣接した2つのフレーム、または水平に隣接した1つのフレーム及び垂直に隣接した1つのフレームを参照して予測される第1グループと、水平に隣接した2つのフレーム及び垂直に隣接した1つのフレーム、または水平に隣接した1つのフレーム及び垂直に隣接した2つのフレームを参照して予測される第2グループと、水平に隣接した2つのフレーム及び垂直に隣接した2つのフレームを参照して予測される第3グループとを備える。   Grouped B frames can be either two horizontally adjacent frames, two vertically adjacent frames, or a first group predicted with reference to one horizontally adjacent frame and one vertically adjacent frame. A second group predicted with reference to two horizontally adjacent frames and one vertically adjacent frame, or one horizontally adjacent frame and two vertically adjacent frames, and two horizontally adjacent A third group predicted with reference to one frame and two vertically adjacent frames.

このように、グルーピングされたBフレームに対して順次に符号化を行う(S1220)。この際、グルーピングされたBフレームに対して第1グループ、第2グループ及び第3グループ順に順次に符号化を行える。   In this way, the grouped B frames are sequentially encoded (S1220). At this time, the grouped B frames can be sequentially encoded in the order of the first group, the second group, and the third group.

本発明による多視点動映像符号化方法は、コンピュータで読取り可能な記録媒体にコンピュータで読取可能なコードとして具現されうる。前記プログラムを具現するコード及びコードセグメントは、当分野のコンピュータプログラマーによって容易に推論されうる。コンピュータで読取り可能な記録媒体は、コンピュータシステムによって読込まれるデータが保存されるあらゆる種類の記録装置を備える。コンピュータで読取り可能な記録媒体の例としては、ROM、RAM、CD-ROM、磁気テープ、フロッピー(登録商標)ディスク、光ディスクなどがあり、またキャリアウェーブ(例えば、インターネットを介した伝送)の形で具現されるものを含む。また、コンピュータで読取り可能な記録媒体は、ネットワークに連結されたコンピュータシステムに分散され、分散方式としてコンピュータで読取り可能なコードで保存されて実行されうる。   The multi-view video encoding method according to the present invention can be embodied as a computer-readable code on a computer-readable recording medium. Codes and code segments embodying the program can be easily inferred by computer programmers in the field. A computer readable recording medium includes any kind of recording device in which data read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical disk, etc., and in the form of carrier waves (eg, transmission over the Internet). Including what is embodied. The computer-readable recording medium can be distributed in a computer system connected to a network and stored and executed as computer-readable code as a distributed system.

以上の説明は、本発明の一実施形態に過ぎず、本発明の当業者ならば、本発明の本質的特性から外れない範囲で変形された形で具現できるであろう。したがって、本発明の範囲は、前述した実施形態に限定されず、特許請求の範囲に記載された内容と同等な範囲内にある多様な実施形態が含まれるように解釈されねばならない。   The above description is only one embodiment of the present invention, and those skilled in the art will be able to implement the present invention in a modified form without departing from the essential characteristics of the present invention. Therefore, the scope of the present invention is not limited to the above-described embodiments, but should be construed to include various embodiments within the scope equivalent to the contents described in the claims.

MPEG-2マルチビュープロファイル(MVP:Multi-view profile)の符号化器及び復号化器を示す図である。It is a figure which shows the encoder and decoder of an MPEG-2 multi view profile (MVP: Multi-view profile). MPEG-2マルチビュープロファイルを利用したステレオ動映像符号化器及び復号化器を示す図である。It is a figure which shows the stereo moving image encoder and decoder using an MPEG-2 multi view profile. 双方向予測のために2つの視差予測を使用して視差のみを考慮した予測符号化を示す図である。It is a figure which shows the prediction encoding which considered only the parallax using two parallax predictions for bidirectional | two-way prediction. 双方向予測のために視差ベクトルと動きベクトルとを使用した予測符号化を示す図である。It is a figure which shows the prediction encoding which uses a disparity vector and a motion vector for bi-directional prediction. 本発明の一実施形態による多視点動映像符号化装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the multi-view video encoding device by one Embodiment of this invention. 本発明の一実施形態による多視点動映像の単位符号化構造を示す図である。FIG. 3 is a diagram illustrating a unit coding structure of a multi-view video according to an embodiment of the present invention. 本発明の一実施形態による多視点動映像の符号化に用いられる3種のBピクチャータイプを示す図である。It is a figure which shows 3 types of B picture types used for the encoding of the multi-view moving image by one Embodiment of this invention. 本発明の一実施形態による多視点動映像の符号化に用いられる3種のBピクチャータイプを示す図である。It is a figure which shows 3 types of B picture types used for the encoding of the multi-view moving image by one Embodiment of this invention. 本発明の一実施形態による多視点動映像の符号化に用いられる3種のBピクチャータイプを示す図である。It is a figure which shows 3 types of B picture types used for the encoding of the multi-view moving image by one Embodiment of this invention. 本発明の一実施形態による多視点動映像の符号化に用いられる3種のBピクチャータイプを示す図である。It is a figure which shows 3 types of B picture types used for the encoding of the multi-view moving image by one Embodiment of this invention. 本発明の一実施形態による多視点動映像の符号化に用いられる3種のBピクチャータイプを示す図である。It is a figure which shows 3 types of B picture types used for the encoding of the multi-view moving image by one Embodiment of this invention. 本発明の一実施形態による多視点動映像の符号化に用いられる3種のBピクチャータイプを示す図である。It is a figure which shows 3 types of B picture types used for the encoding of the multi-view moving image by one Embodiment of this invention. 本発明の一実施形態によって図6の多視点動映像の単位符号化構造を水平に拡張した構造を示す図である。FIG. 7 is a diagram illustrating a structure in which the unit coding structure of the multi-view video of FIG. 6 is horizontally expanded according to an embodiment of the present invention. 本発明の一実施形態による図8の多視点動映像の予測順序を示す図である。FIG. 9 is a diagram illustrating a prediction order of the multi-view video in FIG. 8 according to an embodiment of the present invention. 本発明の一実施形態による奇数個の視点を有する動き予測及び視差予測のための動映像符号化構造を示す図である。FIG. 6 is a diagram illustrating a moving picture coding structure for motion prediction and disparity prediction having an odd number of viewpoints according to an embodiment of the present invention. 本発明の一実施形態による偶数個の視点を有する動き予測及び視差予測のための動映像符号化構造を示す図である。FIG. 3 is a diagram illustrating a moving picture coding structure for motion prediction and disparity prediction having an even number of viewpoints according to an embodiment of the present invention. 本発明の一実施形態による多視点動映像符号化過程を示すフローチャートである。5 is a flowchart illustrating a multi-view video encoding process according to an embodiment of the present invention.

Claims (27)

複数個のBフレームを所定の基準によって少なくとも2グループ以上にグルーピングする段階と、
前記グルーピングされた複数個のBフレームに対して順次に符号化を行う段階と、を含むことを特徴とする多視点動映像符号化方法。
Grouping a plurality of B frames into at least two groups according to a predetermined criterion;
And sequentially encoding the plurality of grouped B frames. 5. A multi-view video encoding method comprising:
前記所定の基準は、
前記複数個のBフレーム各々が参照するフレーム数であることを特徴とする請求項1に記載の多視点動映像符号化方法。
The predetermined criterion is:
2. The multi-view video encoding method according to claim 1, wherein each of the plurality of B frames is the number of frames referred to.
前記所定の基準は、
前記複数個のBフレーム各々が参照するフレーム数及び参照するフレームの位置であることを特徴とする請求項1に記載の多視点動映像符号化方法。
The predetermined criterion is:
The multi-view video encoding method according to claim 1, wherein each of the plurality of B frames is the number of frames to be referenced and the position of the frame to be referenced.
前記グルーピングされた複数個のBフレームは、
水平に隣接した2つのフレーム、垂直に隣接した2つのフレーム、または水平に隣接した1つのフレーム及び垂直に隣接した1つのフレームを参照して予測される第1グループと、
水平に隣接した2つのフレーム及び垂直に隣接した1つのフレーム、または水平に隣接した1つのフレーム及び垂直に隣接した2つのフレームを参照して予測される第2グループと、
水平に隣接した2つのフレーム及び垂直に隣接した2つのフレームを参照して予測される第3グループと、を含み、
前記1つまたは2つの水平に隣接したフレームは、前記第1グループ、前記第2グループまたは前記第3グループのBフレームのように、同一時間での多視点動映像から得られたフレームであり、前記1つまたは2つの垂直に隣接したフレームは、前記第1グループ、前記第2グループまたは前記第3グループのBフレームのように、同一視点での多視点動映像から得られたフレームであることを特徴とする請求項1に記載の多視点動映像符号化方法。
The plurality of grouped B frames are:
A first group predicted with reference to two horizontally adjacent frames, two vertically adjacent frames, or one horizontally adjacent frame and one vertically adjacent frame;
A second group predicted with reference to two horizontally adjacent frames and one vertically adjacent frame, or one horizontally adjacent frame and two vertically adjacent frames;
A third group predicted with reference to two horizontally adjacent frames and two vertically adjacent frames, and
The one or two horizontally adjacent frames are frames obtained from multi-view video at the same time, such as the B frame of the first group, the second group or the third group, The one or two vertically adjacent frames are frames obtained from a multi-view video from the same viewpoint, such as the B frame of the first group, the second group, or the third group. The multi-view video encoding method according to claim 1, wherein:
前記グルーピングされた複数個のBフレームに対して順次に符号化を行う段階は、
前記グルーピングされたBフレームに対して第1グループ、第2グループ及び第3グループ順に順次に符号化を行う段階を含むことを特徴とする請求項4に記載の多視点動映像符号化方法。
The step of sequentially encoding the plurality of grouped B frames includes:
5. The multi-view video encoding method according to claim 4, further comprising a step of sequentially encoding the grouped B frames in order of a first group, a second group, and a third group.
前記順次的符号化は、前記複数個のBフレームを含む動映像符号化構造に基づいて行われ、
前記順次的符号化は、複数個の視点によって水平に配置されたフレーム間の視差予測を行い、経時的に垂直に配置されたフレーム間の動き予測を行う段階を含み、
前記動映像符号化構造は、水平及び垂直のうち少なくとも一方向に拡張され、
前記水平方向のフレームは、同一時間の多視点動映像から得られ、前記垂直方向のフレームは、同一視点での多視点動映像から得られることを特徴とする請求項1に記載の多視点動映像符号化方法。
The sequential encoding is performed based on a moving image encoding structure including the plurality of B frames,
The sequential encoding includes performing disparity prediction between horizontally arranged frames by a plurality of viewpoints, and performing motion prediction between vertically arranged frames over time,
The moving picture coding structure is extended in at least one of horizontal and vertical directions,
The multi-view video according to claim 1, wherein the horizontal frame is obtained from a multi-view video of the same time, and the vertical frame is obtained from a multi-view video of the same view. Video encoding method.
前記複数個の視点は、n個の視点を含み、nは自然数のうち奇数であることを特徴とする請求項6に記載の多視点動映像符号化方法。   The multi-view video encoding method according to claim 6, wherein the plurality of viewpoints include n viewpoints, and n is an odd number among natural numbers. (n-1)番目の視点から得られたフレームは、前記視差予測及び前記動き予測のために使われないことを特徴とする請求項7に記載の多視点動映像符号化方法。   The multi-view video encoding method according to claim 7, wherein a frame obtained from the (n-1) -th viewpoint is not used for the parallax prediction and the motion prediction. 前記動映像符号化構造で、前記複数個の視点のうち、第1視点を除いた視点から得られたフレームはIフレームを含まず、k番目から得られたフレームはBフレームのみを含み、ここで、kはnより小さな偶数の自然数であることを特徴とする請求項7に記載の多視点動映像符号化方法。   In the moving picture coding structure, a frame obtained from viewpoints excluding the first viewpoint among the plurality of viewpoints does not include an I frame, and a frame obtained from the kth includes only a B frame, 8. The multi-view video encoding method according to claim 7, wherein k is an even natural number smaller than n. 入力された多視点動映像に対する視差ベクトル及び動きベクトルを予測する予測部と、
前記予測された視差ベクトル及び動きベクトルを利用して映像を補償する視差動き補償部と、
前記入力された多視点動映像及び前記視差動き補償部から提供される補償された映像を受信し、差映像符号化を行う差映像符号化部と、
前記視差ベクトル、前記動きベクトル及び前記差映像符号化が行われたデータを利用して前記多視点動映像に対するビットストリームを生成するエントロピー符号化部と、を備え、
前記予測部は、各々複数個のBフレームを所定の基準によって少なくとも2グループ以上にグルーピングし、前記グルーピングされた複数個のBフレームに対して順次に予測を行うことを特徴とする多視点動映像符号化装置。
A prediction unit that predicts a disparity vector and a motion vector for an input multi-view video,
A parallax motion compensation unit that compensates an image using the predicted parallax vector and motion vector;
A difference video encoding unit that receives the input multi-view video and the compensated video provided from the parallax motion compensation unit, and performs difference video encoding;
An entropy encoding unit that generates a bitstream for the multi-view video using the disparity vector, the motion vector, and the data on which the difference video encoding has been performed, and
The predicting unit groups each of a plurality of B frames into at least two groups according to a predetermined criterion, and sequentially predicts the plurality of grouped B frames. Encoding device.
前記所定の基準は、
前記複数個のBフレーム各々が参照するフレーム数であることを特徴とする請求項10に記載の多視点動映像符号化装置。
The predetermined criterion is:
The multi-view video encoding apparatus according to claim 10, wherein each of the plurality of B frames is the number of frames referred to.
前記所定の基準は、
前記複数個のBフレーム各々が参照するフレーム数及び参照するフレームの位置であることを特徴とする請求項10に記載の多視点動映像符号化装置。
The predetermined criterion is:
The multi-view video encoding apparatus according to claim 10, wherein each of the plurality of B frames is a number of frames to be referred to and a position of the frame to be referred to.
前記グルーピングされた複数個のBフレームは、
水平に隣接した2つのフレーム、垂直に隣接した2つのフレーム、または水平に隣接した1つのフレーム及び垂直に隣接した1つのフレームを参照して予測される第1グループと、
水平に隣接した2つのフレーム及び垂直に隣接した1つのフレーム、または水平に隣接した1つのフレーム及び垂直に隣接した2つのフレームを参照して予測される第2グループと、
水平に隣接した2つのフレーム及び垂直に隣接した2つのフレームを参照して予測される第3グループと、を含み、
前記1つまたは2つの水平に隣接したフレームは、前記第1グループ、前記第2グループまたは前記第3グループのBフレームのように、同一時間での多視点動映像から得られたフレームであり、前記1つまたは2つの垂直に隣接したフレームは、前記第1グループ、前記第2グループまたは前記第3グループのBフレームのように、同一視点での多視点動映像から得られたフレームであることを特徴とする請求項10に記載の多視点動映像符号化装置。
The plurality of grouped B frames are:
A first group predicted with reference to two horizontally adjacent frames, two vertically adjacent frames, or one horizontally adjacent frame and one vertically adjacent frame;
A second group predicted with reference to two horizontally adjacent frames and one vertically adjacent frame, or one horizontally adjacent frame and two vertically adjacent frames;
A third group predicted with reference to two horizontally adjacent frames and two vertically adjacent frames, and
The one or two horizontally adjacent frames are frames obtained from multi-view video at the same time, such as the B frame of the first group, the second group or the third group, The one or two vertically adjacent frames are frames obtained from a multi-view video from the same viewpoint, such as the B frame of the first group, the second group, or the third group. The multi-view video encoding apparatus according to claim 10.
前記予測部は、
各々前記グルーピングされたBフレームに対して第1グループ、第2グループ及び第3グループ順に順次に予測を行うことを特徴とする請求項13に記載の多視点動映像符号化装置。
The prediction unit
The multi-view video encoding apparatus according to claim 13, wherein prediction is sequentially performed on each of the grouped B frames in order of a first group, a second group, and a third group.
前記予測部は、前記複数個のBフレームを含む動映像符号化構造に基づいて前記入力された多視点動映像の前記視差ベクトル及び前記動きベクトルを予測し、
前記予測部は、複数個の視点によって水平に配置されたフレーム間の視差予測を行い、経時的に垂直に配置されたフレーム間の動き予測を行い、
前記動映像符号化構造は、水平及び垂直のうち少なくとも一方向に拡張可能であり、
前記水平方向のフレームは、同一時間の多視点動映像から得られ、前記垂直方向のフレームは、同一視点での多視点動映像から得られることを特徴とする請求項10に記載の多視点動映像符号化装置。
The prediction unit predicts the disparity vector and the motion vector of the input multi-view video based on a video encoding structure including the plurality of B frames;
The prediction unit performs a parallax prediction between frames arranged horizontally by a plurality of viewpoints, performs a motion prediction between frames arranged vertically over time,
The moving picture coding structure can be extended in at least one of horizontal and vertical directions,
The multi-view video according to claim 10, wherein the horizontal frame is obtained from a multi-view video of the same time, and the vertical frame is obtained from a multi-view video of the same view. Video encoding device.
前記複数個の視点は、n個の視点を含み、nは自然数のうち奇数であることを特徴とする請求項15に記載の多視点動映像符号化装置。   The multi-view video encoding apparatus according to claim 15, wherein the plurality of viewpoints include n viewpoints, and n is an odd number among natural numbers. (n-1)番目の視点から得られたフレームは、前記視差予測及び前記動き予測のために使われないことを特徴とする請求項16に記載の多視点動映像符号化装置。   The multi-view video encoding apparatus according to claim 16, wherein a frame obtained from the (n-1) -th viewpoint is not used for the parallax prediction and the motion prediction. 前記動映像符号化構造で、前記複数個の視点のうち、第1視点を除いた視点から得られたフレームはIフレームを含まず、k番目から得られたフレームはBフレームのみを含み、ここで、kはnより小さな偶数の自然数であることを特徴とする請求項16に記載の多視点動映像符号化装置。   In the moving picture coding structure, a frame obtained from viewpoints excluding the first viewpoint among the plurality of viewpoints does not include an I frame, and a frame obtained from the kth includes only a B frame, 17. The multi-view video encoding apparatus according to claim 16, wherein k is an even natural number smaller than n. 複数個のBフレームを所定の基準によって少なくとも2グループ以上にグルーピングする段階と、
前記グルーピングされた複数個のBフレームに対して順次に符号化を行う段階と、を含むことを特徴とする多視点動映像符号化方法を具現するためのプログラムが記録されたコンピュータで読取り可能な記録媒体。
Grouping a plurality of B frames into at least two groups according to a predetermined criterion;
A step of sequentially encoding the plurality of grouped B frames, and a computer-readable program recording a multi-view video encoding method recoding media.
前記所定の基準は、
前記複数個のBフレーム各々が参照するフレーム数であることを特徴とする請求項19に記載の記録媒体。
The predetermined criterion is:
The recording medium according to claim 19, wherein each of the plurality of B frames is the number of frames referred to.
前記所定の基準は、
前記複数個のBフレーム各々が参照するフレーム数及び参照するフレームの位置であることを特徴とする請求項19に記載の記録媒体。
The predetermined criterion is:
The recording medium according to claim 19, wherein each of the plurality of B frames is a number of frames to be referred to and a position of the frame to be referred to.
前記グルーピングされた複数個のBフレームは、
水平に隣接した2つのフレーム、垂直に隣接した2つのフレーム、または水平に隣接した1つのフレーム及び垂直に隣接した1つのフレームを参照して予測される第1グループと、
水平に隣接した2つのフレーム及び垂直に隣接した1つのフレーム、または水平に隣接した1つのフレーム及び垂直に隣接した2つのフレームを参照して予測される第2グループと、
水平に隣接した2つのフレーム及び垂直に隣接した2つのフレームを参照して予測される第3グループと、を含み、
前記1つまたは2つの水平に隣接したフレームは、前記第1グループ、前記第2グループまたは前記第3グループのBフレームのように、同一時間での多視点動映像から得られたフレームであり、前記1つまたは2つの垂直に隣接したフレームは、前記第1グループ、前記第2グループまたは前記第3グループのBフレームのように、同一視点での多視点動映像から得られたフレームであることを特徴とする請求項19に記載の記録媒体。
The plurality of grouped B frames are:
A first group predicted with reference to two horizontally adjacent frames, two vertically adjacent frames, or one horizontally adjacent frame and one vertically adjacent frame;
A second group predicted with reference to two horizontally adjacent frames and one vertically adjacent frame, or one horizontally adjacent frame and two vertically adjacent frames;
A third group predicted with reference to two horizontally adjacent frames and two vertically adjacent frames, and
The one or two horizontally adjacent frames are frames obtained from multi-view video at the same time, such as the B frame of the first group, the second group or the third group, The one or two vertically adjacent frames are frames obtained from a multi-view video from the same viewpoint, such as the B frame of the first group, the second group, or the third group. The recording medium according to claim 19.
前記グルーピングされた複数個のBフレームに対して順次に符号化を行う段階は、
前記グルーピングされたBフレームに対して第1グループ、第2グループ及び第3グループ順に順次に符号化を行う段階を含むことを特徴とする請求項22に記載の記録媒体。
The step of sequentially encoding the plurality of grouped B frames includes:
The recording medium according to claim 22, further comprising a step of sequentially encoding the grouped B frames in the order of a first group, a second group, and a third group.
前記順次的符号化は、前記複数個のBフレームを含む動映像符号化構造に基づいて行われ、
前記順次的符号化は、複数個の視点によって水平に配置されたフレーム間の視差予測を行い、経時的に垂直に配置されたフレーム間の動き予測を行う段階を含み、
前記動映像符号化構造は、水平及び垂直のうち少なくとも一方向に拡張され、
前記水平方向のフレームは、同一時間の多視点動映像から得られ、前記垂直方向のフレームは、同一視点での多視点動映像から得られることを特徴とする請求項19に記載の記録媒体。
The sequential encoding is performed based on a moving image encoding structure including the plurality of B frames,
The sequential encoding includes performing disparity prediction between horizontally arranged frames by a plurality of viewpoints, and performing motion prediction between vertically arranged frames over time,
The moving picture coding structure is extended in at least one of horizontal and vertical directions,
The recording medium according to claim 19, wherein the horizontal frame is obtained from a multi-view video at the same time, and the vertical frame is obtained from a multi-view video at the same view.
前記複数個の視点はn個の視点を含み、nは自然数のうち奇数であることを特徴とする請求項24に記載の記録媒体。   The recording medium according to claim 24, wherein the plurality of viewpoints include n viewpoints, and n is an odd number among natural numbers. (n-1)番目の視点から得られたフレームは、前記視差予測及び前記動き予測のために使われないことを特徴とする請求項25に記載の記録媒体。   The recording medium according to claim 25, wherein a frame obtained from the (n-1) th viewpoint is not used for the parallax prediction and the motion prediction. 前記動映像符号化構造で、前記複数個の視点のうち、第1視点を除いた視点から得られたフレームはIフレームを含まず、k番目から得られたフレームはBフレームのみを含み、ここで、kはnより小さな偶数の自然数であることを特徴とする請求項25に記載の記録媒体。   In the moving picture coding structure, a frame obtained from viewpoints excluding the first viewpoint among the plurality of viewpoints does not include an I frame, and a frame obtained from the kth includes only a B frame, 26. The recording medium according to claim 25, wherein k is an even natural number smaller than n.
JP2008527838A 2005-08-22 2006-08-19 Method and apparatus for encoding multi-view video Pending JP2009505604A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US70981105P 2005-08-22 2005-08-22
KR1020050105728A KR100728009B1 (en) 2005-08-22 2005-11-05 Method and apparatus for encoding multiview video
PCT/KR2006/003268 WO2007024072A1 (en) 2005-08-22 2006-08-19 Method and apparatus for encoding multiview video

Publications (1)

Publication Number Publication Date
JP2009505604A true JP2009505604A (en) 2009-02-05

Family

ID=37771787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008527838A Pending JP2009505604A (en) 2005-08-22 2006-08-19 Method and apparatus for encoding multi-view video

Country Status (5)

Country Link
EP (1) EP1917814A4 (en)
JP (1) JP2009505604A (en)
CN (1) CN101243692B (en)
MX (1) MX2008002391A (en)
WO (1) WO2007024072A1 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101396948B1 (en) 2007-03-05 2014-05-20 경희대학교 산학협력단 Method and Equipment for hybrid multiview and scalable video coding
US20110268193A1 (en) * 2007-10-05 2011-11-03 Electronics And Telecommunications Research Institute Encoding and decoding method for single-view video or multi-view video and apparatus thereof
EP2355510A1 (en) * 2009-12-21 2011-08-10 Alcatel Lucent Method and arrangement for video coding
CN102006480B (en) * 2010-11-29 2013-01-30 清华大学 Method for coding and decoding binocular stereoscopic video based on inter-view prediction
CN102404577A (en) * 2011-12-01 2012-04-04 无锡太行电子技术有限公司 Memory method for 3D (three-dimensional) video code
KR101966920B1 (en) 2012-07-10 2019-04-08 삼성전자주식회사 Method and apparatus for estimating motion of image using disparity information of multi view image
WO2014075236A1 (en) * 2012-11-14 2014-05-22 Mediatek Singapore Pte. Ltd. Methods for residual prediction with pseudo residues in 3d video coding
CN104782128B (en) * 2012-11-14 2017-10-24 寰发股份有限公司 Method and its device for three-dimensional or multidimensional view Video coding
WO2015006922A1 (en) * 2013-07-16 2015-01-22 Mediatek Singapore Pte. Ltd. Methods for residual prediction
CN105359529B (en) * 2013-07-16 2018-12-07 寰发股份有限公司 For three-dimensional or multi-view video coding method and device
ES2906238T3 (en) 2013-07-24 2022-04-13 Qualcomm Inc Simplified Advanced Motion Prediction for 3D-HEVC
CN105393539B (en) * 2013-07-24 2019-03-29 高通股份有限公司 The sub- PU motion prediction decoded for texture and depth
US10567799B2 (en) 2014-03-07 2020-02-18 Qualcomm Incorporated Simplified sub-prediction unit (sub-PU) motion parameter inheritance (MPI)
KR101433168B1 (en) 2014-04-10 2014-08-27 경희대학교 산학협력단 Method and Equipment for hybrid multiview and scalable video coding

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09261653A (en) * 1996-03-18 1997-10-03 Sharp Corp Multi-view-point picture encoder
US20030202592A1 (en) * 2002-04-20 2003-10-30 Sohn Kwang Hoon Apparatus for encoding a multi-view moving picture
JP2005513969A (en) * 2001-12-28 2005-05-12 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Stereo motion picture encoding and decoding apparatus and method for supporting multiple display systems

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0639031A3 (en) * 1993-07-09 1995-04-05 Rca Thomson Licensing Corp Method and apparatus for encoding stereo video signals.
US5619256A (en) * 1995-05-26 1997-04-08 Lucent Technologies Inc. Digital 3D/stereoscopic video compression technique utilizing disparity and motion compensated predictions
KR100523052B1 (en) * 2002-08-30 2005-10-24 한국전자통신연구원 Object base transmission-receive system and method, and object-based multiview video encoding apparatus and method for supporting the multi-display mode

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09261653A (en) * 1996-03-18 1997-10-03 Sharp Corp Multi-view-point picture encoder
JP2005513969A (en) * 2001-12-28 2005-05-12 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Stereo motion picture encoding and decoding apparatus and method for supporting multiple display systems
US20030202592A1 (en) * 2002-04-20 2003-10-30 Sohn Kwang Hoon Apparatus for encoding a multi-view moving picture

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Survey of Algorithms used for Multi-view Video Coding (MVC)", ISO/IEC JTC1/SC29/WG11 MPEG2005/N6909, JPN6011034483, January 2005 (2005-01-01), ISSN: 0001955403 *
岡 慎也、外3名: "自由視点テレビのための光線空間情報圧縮", 情報処理学会研究報告 2003−AVM−43, vol. 第2003巻、第125号, JPN6012028138, 19 December 2003 (2003-12-19), pages 97 - 102, ISSN: 0002238882 *

Also Published As

Publication number Publication date
MX2008002391A (en) 2008-03-18
CN101243692A (en) 2008-08-13
WO2007024072A1 (en) 2007-03-01
EP1917814A4 (en) 2011-04-13
CN101243692B (en) 2010-05-26
EP1917814A1 (en) 2008-05-07

Similar Documents

Publication Publication Date Title
KR100728009B1 (en) Method and apparatus for encoding multiview video
KR100667830B1 (en) Method and apparatus for encoding multiview video
JP5059766B2 (en) Disparity vector prediction method, and method and apparatus for encoding and decoding a multi-view video using the method
US8644386B2 (en) Method of estimating disparity vector, and method and apparatus for encoding and decoding multi-view moving picture using the disparity vector estimation method
JP2009505604A (en) Method and apparatus for encoding multi-view video
KR101227601B1 (en) Method for interpolating disparity vector and method and apparatus for encoding and decoding multi-view video
US7817181B2 (en) Method, medium, and apparatus for 3-dimensional encoding and/or decoding of video
US5619256A (en) Digital 3D/stereoscopic video compression technique utilizing disparity and motion compensated predictions
KR100481732B1 (en) Apparatus for encoding of multi view moving picture
US5612735A (en) Digital 3D/stereoscopic video compression technique utilizing two disparity estimates
EP2538675A1 (en) Apparatus for universal coding for multi-view video
Kim et al. Fast disparity and motion estimation for multi-view video coding
JP2008182669A (en) Apparatus, method and program for encoding and decoding multi-view video
Lim et al. A multiview sequence CODEC with view scalability
JP2005328299A (en) Moving picture encoding device and method, and moving picture decoding device and method
KR20070092566A (en) Method and apparatus for encoding and decoding multi-view video to provide uniform video quality
JP2008034892A (en) Multi-viewpoint image encoder
JP2009004940A (en) Multi-viewpoint image encoding method, multi-viewpoint image encoding device, and multi-viewpoint image encoding program
JP2011077722A (en) Image decoding apparatus, and image decoding method and program for the same
JP2009004939A (en) Multi-viewpoint image decoding method, multi-viewpoint image decoding device, and multi-viewpoint image decoding program
JP2012028960A (en) Image decoding device, image decoding method and image decoding program
JP2009004942A (en) Multi-viewpoint image transmitting method, multi-viewpoint image transmitting device, and multi-viewpoint image transmitting program
JP2008034893A (en) Multi-viewpoint image decoder
KR20110118744A (en) 3d tv video encoding method, decoding method
JP5442688B2 (en) Moving picture coding apparatus and method, and moving picture decoding apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120904

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130430